www.scribd.com/Baruhk
www.scribd.com/Baruhk
LUDOVICO GEYMONAT
Storia del pensiero ftlosoftco e scientifico VOLUME O...
227 downloads
4953 Views
16MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
www.scribd.com/Baruhk
www.scribd.com/Baruhk
LUDOVICO GEYMONAT
Storia del pensiero ftlosoftco e scientifico VOLUME OTTAVO
Il Novecento (z) Con specifici contributi di U go Giacomini, Pina Madami, Corrado Mangione, Franca Meotti, Felice Mondella, Mario Quaranta, Renato Tisato
GARZANTI
www.scribd.com/Baruhk
I edizione: aprile I 97 2. Nuova edizione: settembre I976 Ristampa 1981
© Garzanti
Editore s.p.a., 1972., I976, I98I
Ogni esemplare di quest'opera che non rechi il contrassegno della Società Italiana degli Autori ed Editori deve ritenersi contraffatto Printed in Italy
www.scribd.com/Baruhk
SEZIONE DECIMA
Problemi e dibattiti filosofici e scientifici
www.scribd.com/Baruhk
www.scribd.com/Baruhk
CAPI'I'OLO PRIMO
Nota introduttiva
Quanto detto all'inizio del volume settimo per ciò che riguarda l'impegno teoretico che ne ha guidato l'intera stesura, può venire letteralmente ripetuto a proposito del presente volume. Ciò che li distingue è che, mentre il settimo era interamente dedicato alla trattazione delle correnti filosofiche del xx secolo, questo concede invece largo spazio alle scienze come già avevano fatto il quinto e il sesto volume. Esso non prende in esame soltanto le cosiddette scienze esatte - logica, matematica, fisica, cosmologia, biologia - ma pure le nuove scienze concernenti l'uomo: psicologia e sociologia. I capitoli (ottavo e nono) dedicati a queste ultime costituiscono la diretta prosecuzione di quelli rivolti al medesimo argomento, contenuti nel volume sesto. Sia i due capitoli testé citati, sia soprattutto quelli dedicati alla matematica, alla fisica e alla cosmologia non pretendono di fornirci un quadro storico, sia pure schematico, dello sviluppo di tali discipline nel nostro secolo, ma solo di evidenziarne alcuni problemi o indirizzi particolarmente caratteristici. Per esempio nel capitolo sesto è dato uno speciale rilievo alla svolta impressa alla matematica dal largo impiego del metodo assiomatico, nonché al nuovo significato che essa viene ad assumere in seguito a tale impiego; per quanto poi riguarda la fisica, va precisato che i soli problemi presi in considerazione con una certa ampiezza sono quelli che hanno suscitato maggiore interesse presso i filosofi. Lo scopo che ci si è proposti nella loro analisi è stato quello di illustrarne con esattezza il significato e la portata, sia per porne in luce l'importanza filosofica generale, sia per togliere ogni fondamento a talune false interpretazioni che ancora oggi sogliano darne gli incompetenti. Un posto particolare occupa il capitolo quarto, il cui titolo stesso (Biologia e filosofia) dimostra che la trattazione è soprattutto rivolta a evidenziare l'aspetto filosofico dei complessi dibattiti intorno al problema della vita: dibattiti che hanno avuto il merito di porre in luce il significato profondo della contrapposizione tra meccanicisti e vitalisti, preparando il terreno a quella che sarà la grande svolta della biologia in anni più recenti. Le notevolissime dimensioni del capitolo quinto, sulla logica nel vente-
7
www.scribd.com/Baruhk
Nota introduttiva
simo secolo, costituiscono una evidente conferma del peso costantemente attribuito a tale disciplina in tutta la presente opera. Qui la trattazione ha di necessità un andamento storico, in quanto sarebbe impossibile spiegare l'autentico significato di una teoria senza fare riferimento ai risultati ottenuti nelle ricerche che l'hanno preceduta. Il quadro complessivo che il capitolo ci fornisce, decennio per decennio, dei progressi conseguiti dagli studi logici è pressoché esauriente sia dal punto di vista filosofico sia da quello scientifico; né mancano le punte polemiche, in particolare contro la « logica crociana » che è stata una delle cause principali della decadenza delle ricerche logiche in Italia. Queste punte polemiche vengono in certo senso a completare l'esposizione della filosofia italiana contemporanea, contenuta nel capitolo terzo; capitolo che, insieme con il secondo dedicato ai problemi fondamentali della pedagogia odierna, risulta senza dubbio uno dei più impegnativi del volume .. Se è vero che il predetto capitolò terzo ha, esso pure, un'impostazione storica, vero è però che intende suggerire un'interpretazione in certo senso nuova dello sviluppo della filosofia presa in considerazione, sviluppo che viene direttamente collegato alle vicende generali della cultura italiana nel periodo in esame nonché alle lotte sociali e politiche che agitarono il nostro paese. Uno speciale rilievo merita quanto viene detto intorno ai caratteri e ai limiti del marxismo post-gramsciano. L'ultimo paragrafo, diretto a illustrare il significato della rinascita, in Italia, del materialismo dialettico, è particolarmente impegnativo per gli autori del capitolo; mira infatti a dare un'idea dell'impostazione filosofica che ha guidato la stesura generale dell'opera, nel suo complesso se non in ciascuna delle sue parti. Rappresenta perciò, in certo senso, il traguardo cui essa voleva giungere; spiega cioè il significato che intende avere entro la cultura italiana contemporanea: il contributo che si è proposto di dare al suo radicale rinnovamento.
8
www.scribd.com/Baruhk
CAPITOLO SECONDO
Problemi fondamentali della pedagogia contemporanea DI RENATO TISATO
I
· SOCIETÀ DEMOCRATICA IN CAMMINO E «RIVOLUZIONE COPERNICANA»
Dovendo prendere in esame gli sviluppi della pedagogia verificatisi nel periodo compreso tra la fine della prima guerra mondiale e i giorni nostri, il primo punto su cui ci sembra opportuno concentrare l'attenzione riguarda la diffusione e il passaggio al piano operativo della crescente consapevolezza che il carattere dinamico della nostra civiltà, lo sviluppo della scienza e della tecnica e dell'industria e l'affermarsi della democrazia, non possono non provocare una decisiva rivoluzione anche sul piano dell'educazione. Abbiamo parlato di « diffusione» e di « passaggio al piano operativo » giacché è chiaro che nel pensiero degli studiosi più accorti ed aggiornati tale consapevolezza era presente già da parecchi decenni. Dewey, come sappiamo, osservava che il concepire l'educazione come una specie di corsa del bambino a raggiungere le attitudini e le risorse del gruppo adulto si può applicare, in linea di massima, nelle società statiche, le quali prendono come misura di valore il mantenimento dei costumi stabiliti, ma non nelle comunità progressive, le quali tentano di modellare le esperienze dei giovani in modo che invece di riprodurre le abitudini correnti promuovano abitudini migliori. Arnauld Clausse, contrapponendo il « mondo tradizionale » al « mondo moderno », vede quali aspetti essenziali del primo la « permanenza » e la « dicotomia» (separazione fra l'élite che pensa e dirige e i lavoratori che subiscono ed eseguono) ; come caratteristiche salienti del secondo il « dinamismo » e la « grande mobilità sociale» per cui ogni vecchia dicotomia è scomparsa e l'uomo vale non tanto per ciò che egli è alla partenza quanto per ciò che è capace di realizzare al traguardo. Per scuola vecchia intendiamo, dunque, la scuola di una società autoritaria e statica in quanto autoconsiderantesi depositaria di valori assoluti e quindi definitivi, affidati a ben determinate opere « canoniche », cristallizzati in certi costumi e tecniche e nei precetti di un certo stile, il cui possesso è prerogativa di una aristocrazia, sacerdotale o civile, e il cui esser posti al di sopra dell'accidentale e del transeunte, sul piano privilegiato della rivelazione o della metafisica,
9
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
è garanzia di conservazione di un particolare stadio di sviluppo della società e di una particolare situazione della civiltà. Se ciò che deve essere accolto dall'alunno è la scienza nella sua oggettività, col suo ordine e le sue strutture, il problema del metodo si risolve in quello di scomporre la scienza stessa nei suoi elementi costitutivi, così che il discente possa impadronirsi dell'intero sistema partendo dagli elementi e ripercorrendo ordinatamente la via segnata dalla logica. Da questo punto di vista la svalutazione del mondo del fanciullo, il disinteresse per la psicologia dell'età evolutiva e per le differenze individuali si rivelano altrettanti aspetti di quella concezione finalistica del mondo la quale, a sua volta, costituisce la trasposizione in chiave metafisica di una società aristocratica e statica. Al contrario, una delle note che caratterizzano la concezione moderna del mondo è, da un lato, il rifiuto dell'interpretazione teleologica del mondo stesso, dall'altro la consapevolezza che, se pure non tutti i cambiamenti sono buoni, il progresso può aver luogo soltanto attraverso variazioni, differenze. «Il polimorfismo psicologico,» scrive a questo proposito John Scott Haldane, «è stato una delle cause principali dell'affermazione della specie uomo e un pieno riconoscimento di questo polimorfismo e delle sue giustificazioni è condizione essenziale per una rinnovata affermazione non soltanto nel lontano futuro ma anche durante la nostra generazione... La libertà è il riconoscimento pratico del polimorfismo umano.» Sul piano pedagogico la crisi del modello definitivo porta all'affermazione della tesi secondo cui ogni età della vita ha una sua particolare forma di perfezione (Rousseau) e non è fondata la pretesa di attribuire un grado di perfezione a un momento piuttosto che a un altro (Vico). Un 'altra car:!tteristica della nostra epoca è la velocità crescente delle trasformazioni. Come osserva acutamente William Heard Kilpatrick, laddove i mezzi che Napoleone possedeva per mandare notizie da Roma a Parigi erano gli stessi che già aveva posseduto Giulio Cesare per comunicare da Parigi con Roma, da Napoleone ai nostri giorni sono stati invece costruiti per il trasporto delle cose e delle persone il treno, l'automobile, le navi a motore, l'aeroplano e, per la trasmissione di notizie, il telegrafo, la radio, la televisione, il telefono. La psicologia dell'età evolutiva avanza addirittura l'ipotesi che le stesse intuizioni di tempo e d1 spazio dei fanciulli nati nell'epoca del pieno sviluppo dei mezzi di comunicazione ultraveloci e capaci di metterei in contatto pressoché immediato con eventi verificantisi in luoghi remotissimi dello spazio terrestre ed extraterrestre, siano profondamente modificate rispetto a quelle delle generazioni precedenti. Sul piano pedagogico la consapevolezza della crescente velocità della trasformazione porta a concludere che, nell'impossibilità di prevedere con precisione come sarà la civiltà di qui a pochissimi decenni, la sola formazione che ragionevolmente si può dare al fanciullo è quella che deriva dal pieno possesso di tutte le sue
IO
www.scribd.com/Baruhk
Prohlemi fondamentali della pedagogia contemporanea
facoltà, dalla maturità di giudizio, dal sicuro possesso del metodo dell'indagine, così ch'egli possa, quali che siano le condizioni in cui gli capiterà di vivere, agire economicamente ed efficientemente. Possediamo, ora, gli elementi necessari per poter abbozzare un primo schema della problematica pedagogica quale si è venuta delineando nel corso dell'epoca contemporanea. 1) «Rivoluzione copernicana.» L'immagine si trova in Scuola e società di Dewey: «Nella nostra educazione si sta verificando lo spostamento del centro di gravità. È un cambiamento, una rivoluzione, non diversa da quella provocata da Copernico ..... Nel nostro caso il fanciullo diventa il sole intorno al quale girano gli strumenti dell'educazione. »Ma al di là del fanciullo in quanto tale c'è l'individuo, coi suoi caratteri irripetibili. Si prospetta, così, una rivoluzione più radicale, per la quale il valore si identifica colla espansione spontanea dei caratteri individuali. z) Educazione progressiva. Non si tratta solo di educare all'adattamento, al mutamento (al limite questo sarebbe il più integrale dei conformismi), ma di educare alla riflessione critica sul presente, inteso come punto d'arrivo del passato, ed allo spirito di intrapresa per la realizzazione di un futuro migliore. In una società in mutamento, afferma Margaret Mead, è regolare che i figli si ripromettano di comportarsi in modo diverso dai genitori e di trattare a loro volta i figli diversamente da come essi stessi sono stati trattati. 3) Superamento dell'intellettualismo e del teoreticismo e rivalutazione dell'uomo integrale, anima e corpo, intelletto e impulso, capace di contemplare la reald. ma anche di trasformarla. Per quanto riguarda il primo punto, il periodo preso in esame vede lo sviluppo rigoglioso di alcune discipline che, senza alcuna intenzione valutativa, riteniamo di poter indicare come « scienze ausiliarie»: la psicologia dell'età evolutiva e in particolare la psicoanalisi, le ricerche sullo sviluppo del bambino osservato nei nidi e nei giardini d'infanzia, l'antropologia culturale. Per quanto riguarda il secondo punto, il motivo che viene assumendo via via importanza dominante è quello che riguarda la centralità del metodo. È un motivo, per verità, già presente nella concezione pedagogica dei positivisti, che ora, però, acquista un rilievo assai maggiore. Fra l'altro il concetto di metodo, in pedagogia, è venuto assumendo in questi ultimi decenni, un significato più ampio e ricco che nel passato. Il metodo «in senso stretto » (ci rifacciamo alla terminologia proposta da Kilpatrick) si riferisce all'insegnamento-apprendimento di discipline particolari; il metodo «in senso più largo», invece, « concerne l'educazione come un tutto, l'educazione considerata in rapporto alla vita nel suo complesso », tien conto di tutti i pensieri e le idee che sorgono congiuntamente col lavoro specifico che in quel momento si sta compiendo e di tutti gli atteggiamenti concomitanti, verso il lavoro, i comII
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
pagni, la scuola, se stessi, la vita, che sono evocati, quasi tonalità a volta a volta piacevole o spiacevole, dal modo, dalla situazione, dal clima in cui il lavoro stesso si svolge. Il pedagogista tedesco Eduard Spranger parlerà, a questo proposito, di «effetti collaterali involontari» nell'educazione. Per quanto si riferisce, infine, al terzo punto, la scuola nuova si atteggia come scuola del lavoro, non tanto in quanto aggiunga il lavoro alle discipline tradizionali, sibbene in quanto riconduce alla fondamentale matrice pratica le manifestazioni culturali anche apparentemente più astratte e attribuisce la dovuta importanza alle motivazioni, alla sfera emozionale, alla socializzazione. A questo punto è indispensabile richiamare l'attenzione del lettore sopra un fatto di fondamentale importanza anche nel nostro campo. In questi ultimi decenni si è avuta una vera e propria esplosione nel campo delle scienze umane, con una vertiginosa accumulazione di dati, di esperimenti, di ipotesi, di teorie e con un corrispondente frantumarsi di poche scienze fondamentali in un grande numero, sempre crescente, di ricerche specializzate. Processo di apprendimento, maturazione dell'affettività e della socialità, condizionamento sociale dell'intelligenza, della conoscenza, del rendimento scolastico, origine e dinamica dei gruppi, per non scegliere che alcuni temi, fra i più generali ed i più importanti, sono diventati ormai specifici settori riservati ad altrettante scienze particolari. Ne consegue che, all'inizio degli anni 1970, «parlare di pedagogia come un campo dai contorni univoci, come una struttura compatta di problemi, è altrettanto arbitrario quanto parlare... di un insegnamento genericamente denominato medicina » (Antonio Santoni Rugiu). Di qui la nostra rinuncia a fornire una rassegna il più possibile completa delle scuole, delle correnti, degli uomini che durante gli anni presi in esame hanno fornito contributi di qualche rilievo a questa o a quella delle numerosissime discipline alle quali, per la comune convergenza verso il fatto dell'educazione e per comodità stenografica, diamo ancora il nome di pedagogia. Il presente capitolo, pertanto, cercherà, invece, di mettere in luce alcuni gruppi di problemi che, a parer nostro, sono venuti assumendo importanza essenziale. Il rispetto dell'impostazione storica è garantito sia dal continuo riferimento della problematica pedagogica alle strutture portanti di carattere economico, sociale e politico, sia dal fatto che i problemi sono stati considerati in rapporto a quegli studiosi le proposte dei quali, sempre a parer nostro, si sono affermate come i più significativi paradigmi nei vari campi. Il criterio in base al quale i problemi sono stati scelti è implicito nelle pagine che precedono. Non sarà però inutile la sua esplicitazione. Se la rivoluzione copernicana pone al centro dell'interesse pedagogico l'educando, si tratta di vedere che cosa, in ordine a questo personaggio, ha detto di importante la scienza durante gli ultimi decenni. Dunque: prima di tutto il 12
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
fanciullo, l'adolescente in quanto tale, considerato come soggetto di apprendimento e di attività etico-sociale. Ma, come sappiamo, il fanciullo, l'adolescente sono astrazioni, meno spinte dell'« uomo » ma pur sempre tali. Reale è l'individuo, colla sua irripetibilità, non monade in sé conchiusa ma momento di una tensione dialettica, di un rapporto interattivo con gli altri uomini, con la società, la natura, la cultura, il passato, il futuro. Ed ecco il problema della individualizzazione. D'altra parte, la scuola attiva o progressiva è fiorita nel campo capitalisticoborghese, in una ben precisa situazione storica. Costituisce, essa, ciononostante, una meta definitiva e universalmente valida oppure è travagliata da intime e insuperabili contraddizioni? E qual è l'atteggiamento che nei suoi riguardi è stato assunto e si assume nell'altra jàccia della luna, cioè nel campo socialista? Si tratta (mi riferisco specialmente all'ultimo punto) di argomenti che cercheremo di chiarire nel capitolo VI del volume nono e che in questo abbiamo soprattutto voluto mettere a fuoco in rapporto alla loro matrice storica. II · L 'EDUCAZIONE IN RAPPORTO ALL'ATTIVITÀ COGNITIVA E ALL'APPRENDIMENTO
La didattica tradizionale era fondata su di una psicologia atomistica e associazionistica, secondo la quale l'esperienza partirebbe dalle cosiddette idee semplici per costruire, attraverso la sintesi, idee via via più complesse. A livello della conoscenza sensibile questo vuol dire muovere dalle sensazioni fornite dai vari organi per giungere alle percezioni, ma si tratta di un processo che si ritrova puntualmente a tutti i livelli della conoscenza, non solo, ma in tutti i campi della realtà, concepita, appunto, come un insieme di aggregati di elementi minutissimi, atomi o cellule. Sul piano della didattica ne deriva che le formule « dal facile al difficile » e «dal semplice al complesso» vengono risolte nell'altra« dalla parte al tutto». Così nella lettura si parte dalle singole lettere per passare alle sillabe, alle parole, alle frasi; nella scrittura ci si spinge addirittura a quelle aste e a quelle curve che costituiscono gli elementi della singola lettera. Ma è facile rendersi conto che la stessa osservazione può essere fatta anche a proposito delle elaborazioni più complesse del pensiero umano. Alla concezione atomistico-associazionistica si viene però via via sostituendo, nel corso del secolo attuale, una molteplicità di teorie concordi nell'affermare che la conoscenza, nel suo stadio iniziale, coglie non già elementi separati da associare per formare un tutto, ma, appunto, un tutto, senza differenziazione e correlazione dei vari elementi strutturali. Si tratta di una affermazione a proposito della quale si realizza la convergenza di studiosi pur moventi da campi assai lontani e mossi da interessi differenti. Di questa corrente si parla a lungo nel capi-
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
tolo 11 del vol urne sesto. Quello che interessa, qui, è vedere come essa si inserisca nella problematica pedagogica. Ora, è indiscutibile che, perlomeno fin verso la fine degli anni cinquanta, un'incontestabile superiorità, nel campo che ci interessa, ha avuto il globalismo del belga Ovide Decroly (187I-1932). È una superiorità dovuta soprattutto al fatto che, mentre gli altri studiosi erano per lo più psicologi privi di una esperienza diretta della pratica educativa, Decroly fu un autentico psico-pedagogista. Secondo Decroly l'attività globalizzatrice fa da ponte fra l'attività istintiva e quella superiore dell'intelligenza: si collega con la prima per gli stimoli che la determinano, con la seconda in quanto, come questa, costituisce un mezzo di adattamento a circostanze nuove. Si tratta di una impostazione del problema della conoscenza di tipo evidentemente pragmatistico. « È facile capire, » osserva il nostro autore, « come sia importante che noi, per una economia di energia nervosa, possiamo orientarci nella infinita molteplicità delle forme e dei movimenti, cogliendone soltanto gli aspetti fondamentali, quegli aspetti, cioè, che ne rappresentano il segno caratteristico e differenziale. »1 Mentre nel gestaltismo classico prevale la tendenza a concepire la forma, a livello psichico, come qualcosa di solidale, pur nella peculiarità dei suoi caratteri, a certe configurazioni del mondo fisico ed alle strutture fisico-chimich~ del sistema nervoso, e pertanto come qualcosa che obbedisce a leggi obiettive e sperimentalmente verificabili, Decroly sembra annettere particolare importanza ai bisogni, agli interessi, allo stato emotivo del soggetto, nonché alle sue esperienze precedenti. Nulla in comune, dunque, con la schematizzazione concettualizzatrice. Non a caso, del resto, in una prolusione del 1922 Decroly dice che il potere in questione, «meglio ancora» che globalizzante dovrebbe essere detto <
messo in luce. È stata lucidamente messa in evidenza da Talcott Parsons (The structure of social action [La struttura dell'azione sociale, I949D la differenza che, nella descrizione di un fenomeno, intercorre fra una « parte » di un tutto e un « elemento analitico » del tutto medesimo. È chiaro, infatti, che altro è distinguere, in un cane, la testa, la zampa, la coda ecc., altro la forma, la grandezza, la velocità ecc. Orbene, non solo in Decroly, ma neppure in Dewey e in Kilpatrick questa differenziazione è introdotta. Anzi, le esemplificazioni a cui si fa ricorso sono ora dell'una ora dell'altra specie. Eppure si tratta di una distinzione suscettibile di importantissimi sviluppi precisamente nel campo didattico.
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
Siamo così in grado di affermare che l'opinione diffusa secondo la quale il globalismo sarebbe una mera tecnica per l'insegnamento-apprendimento della lettura e della scrittura, si lascia sfuggire quanto c'è di più profondo e vitale nel pensiero decrolyano. E, comunque, anche quale tecnica per l'insegnamento della lettura e della scrittura, il metodo globale, !ungi dal risolversi in applicazione di una teoria psicologica della percezione, è inserito nel quadro di un metodo più generale caratterizzato dall'impegno di adeguarsi costantemente agli interessi ed alle tendenze affettive del fanciullo. La funzione globalizzante può essere applicata a tutte le materie: storia e geografia, scienze naturali, matematica, disegno, lavoro manuale. Ma « il punto di vista che deve dominare tutti gli altri» è quello secondo il quale nell'educazione infantile si deve « evitare, quanto è possibile, di prendere in esame a parte le materie». È qui, in particolare, che il globalismo si rivela rivoluzionario, tanto da giustificare l'affermazione di Adolphe Ferrière secondo la quale la storia dell'educazione può essere divisa in due grandi epoche: quella prima e quella dopo Decroly. Le cosiddette «materie » di studio altro non sono, infatti, che le « scienze » elaborate nel corso dei secoli dall'umanità più progredita, frutto di ragionamenti riflessi, di deduzioni intenzionali, di generalizzazioni logiche. È evidentissima, qui, la convergenza della critica decrolyana con quella deweyana, a suo luogo da noi analizzata. Sottolineiamo questo perché il lettore si renda conto del fatto che, pur seguendo, come filo conduttore, in questa fase della nostra esposizione, prevalentemente il pensiero e l'opera del pedagogista belga, noi stiamo, in realtà, svolgendo un discorso che si riferisce ad un campo assai più ampio e cerca di cogliere alcuni dei temi di fondo dell'intera rivoluzione pedagogica che caratterizza il nostro secolo. Si tratta di una tesi ormai accettata pressoché universalmente, sia pure con varietà di interpretazioni, sul piano applicativo. Gli americani della corrente deweyana come gli svizzeri della scuola di Ginevra, i francesi facenti capo a Roger Cousinet o a Célestin Freinet, gli italiani di impostazione idealistica o spiritualistico-cristiana o neo-deweyana, sono concordi sulla questione di principio. Le divergenze sorgono a proposito: a) del limite del periodo entro il quale deve prevalere un metodo fondato sulla funzione di globalizzazione; b) dell'opportunità o meno della rinuncia, per tutto il periodo in questione, alla divisione del contenuto nelle tradizionali materie. 1 r Se mai, un « recupero » della funzione di globalizzazione nel campo didattico anche per età successive a quella del fanciullo della scuola primaria, può aversi in quanto si veda nella presentazione globale di un argomento nuovo un
mezzo di approccio particolarmente utile (si pensi, a questo proposito, alle idee madri di Lambruschini). Qui potrebbe essere di appoggio la teoria di Piaget, per il quale il sincretismo vale anche sul piano del ragionamento.
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
È evidente, infatti, che l'insistenza sul momento della conoscenza globale comporta il pericolo che, per il desiderio di sottrarsi ad un male, si cada nel male opposto; in altre parole, che la « rivoluzione copernicana », impegnata a liquidare il vecchio « adultismo » finisca per tradu:rsi in un :ribaltamento, e per instaurare una forma di «infantilismo» non meno pericoloso. È proprio Jean Piaget, del :resto, ad affermare: «L'adolescente ... riflette sul suo pensiero e costruisce teorie. Poco importa che queste siano limitate, impacciate e soprattutto poco originali: dal punto di vista funzionale questi sistemi presentano il valore essenziale di permettere all'adolescente l'inserimento morale e intellettuale nella società degli adulti ... » Se, dunque, la scuola deve portare i giovani ad impadronirsi del sistema scientifico dominante (là dove di sistema dominante si possa parlare) e a identificare e comprendere i problemi aperti, alla cui soluzione la :ricerca più progredita sta lavorando - e ciò non tanto in quanto per questa via è possibile preparare :ricercatori e tecnici ad alto livello e vincere battaglie sul piano economico e militare, ma soprattutto perché sul possesso del metodo scientifico si fonda la libertà dalla schiavitù dell'abitudine, del pregiudizio, del dogma, della tradizione supinamente accettata, del meschino egoismo - è contraddittorio confinare oltre lo stretto indispensabile il discente entro i limiti di procedimenti che :rispondono alle esigenze ed alle possibilità delle prime fasi dell'età evolutiva. Una via per aggirare questo ostacolo potrebbe essere costituita dalla teoria della t:raducibilità di qualsiasi contenuto in qualsiasi linguaggio e, quindi, anche nel linguaggio globale. Della origine comeniana, del fondamento psicologico e della funzione :relativamente p:rogressista assolta da questa teoria nonché del suo nesso con una struttura « ciclica » della scuola, abbiamo già parlato. Qui si tratta di chiedere se essa :risulti ancora sufficientemente fondata alla luce dei più recenti sviluppi delle scienze. Orbene: da autorevoli fonti nel campo della epistemologia la tesi in questione è invece accusata di voler introdurre nel discorso scientifico elementi extrascientifici; il processo psicologico denota, si osserva, un atteggiamento soggettivo del ricercatore, che non :riguarda però in alcun modo il frutto delle sue ricerche. Per elaborare l'apparato teorico che permetta di giungere ad infe:renze su eventi futuri e passati occorre una procedura ipotetico-osservativa. « Lo scienziato deve inventare un sistema di concetti, i costrutti teorici, privi di significato empirico diretto, un sistema di ipotesi formulate in termini di questi e un'interpretazione per la risultante :rete teorica» (Carl Gustav Hempel). D'altra parte le teorie pedagogiche le quali accettano il punto di partenza globalistico, fiorite in un momento storico nel quale il progressivo prolungamento della scuola di massa permette di sganciarsi dalla ~t:ruttura ciclica e dai presupposti psicologici con essa solidali, più che :ricorrere alla tesi della traducibilità insistono sulla necessità di muovere sempre e soltanto dalla esperienza stessa. Il loro pericolo è quello di invischiarsi indefinitamente nella pu:r valida area di partenza. Una seria denuncia di questa perversione didattica è fatta dal pedagogista
16 www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
russo Sergej Hessen. Pur accettando il globalismo, in cui vede non una meta tecnica ma un metodo che « postula la trasformazione della intera struttura della classe », Hessen ritiene che il metodo globale puro, a parer suo inseparabile da una attività di tipo eminentemente ludico, possa essere usato solo nel primo anno di insegnamento, sicché, appunto per questo, lo vorrebbe agganciato al giardino d'infanzia piuttosto che alla scuola veramente detta. Per quanto riguarda « il primo grado della scuola vera e propria », o, potremmo dire, i successivi anni della scuola primaria, Hessen propone invece il cosiddetto «insegnamento collegato» o, secondo una dizione destinata a maggiore successo, « insegnamento episodico ». Il bambino non sa ancora astrarre, né ragionare logicamente. Egli coglie i concreti episodi della vita dell'ambiente circostante come qualcosa di « integrale », intendendo per integrità non già la combinazione di parti ma un'unità ancora indistinta, così che il famoso passaggio dal semplice al complesso sarà sostituito o, meglio, verrà identificato col passaggio dall'integrità alle parti. Quello che ci interessa sottolineare è l'insistenza e il rigore con cui Hessen mette in luce i pericoli immanenti in una concezione pedocentrica che non sia dinamicamente orientata nel senso dell'autosuperamento. Già il fatto che il momento dell'apprendimento puramente globale venga limitato a un solo anno e sequestrato entro i limiti della scuola materna è significativo. L'episodio, poi, « in un insegnamento elementare giustamente applicato, è solo il punto di partenza » e il suo scopo è quello di avviare il bambino, mediante opportuni e non ritardati esercizi di analisi, alla scoperta di quegli elementi della realtà « dai quali la scienza costituisce il suo mondo obiettivo ». In primo piano sta l'esperienza dell'ambiente, ma il compito dell'insegnamento collegato «è di aprire ai bambini la problematica scientifica insita nell'ambiente stesso». Gli episodi, nella loro integrità non differenziata, contengono in potenza «il sistema», «che, via via, a misura dell'ampliarsi dell'esperienza infantile e dell'abituarsi alla analisi e al ragionamento, si manifesta gradatamente come un bisogno e un compito dello sviluppo del pensiero dello scolaro ». L'errore dell'insegnamento che comincia non dall'esperienza ma dalla grammatica, dalle regole, consiste nel fornire allo scolaro le risposte prima che egli abbia scoperto la problematica a cui le risposte si riferiscono. Altrettanto erronea, però, è l'impostazione pedocentrica, secondo la quale centro esclusivo dell'educazione dovrebbe essere il bambino, spesso identificato con l'individuo psicofisico, e, di conseguenza, il processo educativo dovrebbe risolversi nello spontaneo sviluppo degli impulsi naturali. Il corso sistematico, dunque, non va eliminato, bensì rinviato fino a quell'età in cui il giovane è maturo per analizzare l'episodio nei suoi elementi, è capace di pensiero astratto e di connessioni logiche formalmente corrette e, d'altro canto, sente bisogno di ristrutturare le esperienze già vissute e i problemi da esse emersi in modo sistematico.
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
Così, dopo la scuola primaria, Hessen progetta un primo grado di scuola secondaria caratterizzato, appunto, dalla sistematicità del sapere. «Fondandosi sul materiale (fatti e problemi) che gli scolari hanno già assimilato nel precedente insegnamento collegato, il corso sistematico completa questo materiale e lo approfondisce, » collocando « ogni fatto e ogni legge... in un ordine definito, derivante dalla logica struttura del relativo settore della scienza». Le varie materie, a loro volta, sono correlate tra loro, non mediante una pedantesca concatenazione dei programmi e degli orari stabiliti a priori, ma dinamicamente, attraverso la stabile collaborazione tra gli insegnanti, discussioni, scambi di esperienze e di opinioni ecc. Non possiamo soffermarci a considerare analiticamente la scuola hesseniana e, del resto, una simile considerazione esulerebbe dallo scopo che il presente discorso si prefigge di raggiungere. È importante, invece, sottolineare che Hessen, pur riconoscendo che altri metodi suggeriscono di partire da integrità concrete, da « frammenti della realtà che circonda il bambino » e facendo esplicito riferimento alla scuola decrolyana belga, all'americano «metodo dei progetti» e al «programma dei complessi» sovietico, accusa queste teorie di aver preteso di estendere l'insegnamento episodico a tutti i gradi di scuola, anziché !imitarne la portata al solo grado primario. Un'altra seria critica- mossa da Carleton W. Washburne- ad un'impostazione del lavoro scolastico il quale pretenda che l'alunno apprenda solo quello di cui sente bisogno, per cui nutre interesse e che può conquistare col suo impegno personale, riguarda l'estrema improbabilità che per questa via lo scolaro giunga ad impadronirsi dell'intero curriculum. La difesa è duplice: in primo luogo si sostiene che nel corso di dieci o più anni di vita completa, interessante, attiva, in una scuola che offra le più varie opportunità per apprendere, è abbastanza probabile che i fanciulli riescano ad acquisire la maggior parte dei fatti, concetti, abilità, convenzioni, valori, necessari per un proficuo inserimento nella vita civile. A questa difesa Washburne controbatte però che le strade che conducono al sapere sono innumerevoli; che ognuna può essere esplorata quasi all'infinito, col pericolo di portare ad altissimi gradi di specializzazione in settori poco importanti, lasciando inesplorate zone di grande valore. Proprio qui si innesta il secondo tentativo di difendere - dalla critica testé riferita - il metodo della ricerca entro i limiti dell'esperienza diretta. Si osserva che « tutto » è comunque impossibile imparare; che d 'altra parte si impara veramente solo ciò che si scopre da sè; che quel che rimane, dell'azione educativa, è solo l'effetto del metodo con cui le cose sono state imparate, indipendentemente dal loro numero e dalla loro qualità, e il metodo lo si impara solo usandolo concretamente. Battendo questa strada, commenta Kilpatrick, alcuni si impadroniranno della scienza molto meglio di ora. I più abbandoneranno l'impostura di un 18
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
preteso apprendimento, accogliendone, in cambio, altri più utili anche se più umili, quali la conoscenza del ruolo esercitato dalla scienza nella storia dell'umanità, una gran fede nella scienza stessa e la conseguente liberazione dalla superstizione e una certa capacità di applicare il metodo scientifico nelle faccende quotidiane. La critica più articolata e concreta alla ingenua fede in un metodo induttivo il quale pretende che l'alunno, ponendosi faccia a faccia con i fatti, sia in grado di interpretarli senza la mediazione di una guida esperta e di opportuni modelli di riferimento che lo portino a passare dal comune modo di procedere per prove ed errori ad uno formalizzato e sistematico, è quella che viene dagli psicologi e dai pedagogisti del campo socialista. Mentre negli animali, osserva Aleksej Nikolaevic Leontiev, ci troviamo di fronte a due tipi di esperienza: quella determinata dalla filogenesi (eredità) e quella acquisita nel corso della vita individuale, e il meccanismo della loro formazione dipende dalle leggi generali dell'evoluzione biologica ed è perciò un processo lento, in risposta a lenti mutamenti ambientali, il caso dell'uomo è completamente diverso. L'uomo, come per la prima volta ha messo in evidenza Marx, ha guale attività specifica il lavoro, che gli permette di fissare nel prodotto il suo processo di produzione. Dai più semplici utensili alla macchina più complessa, fino al linguaggio, alla scienza, all'opera d'arte, ogni oggetto creato dall'uomo realizza l'esperienza storica del genere umano e le capacità lavorative che si sono, a loro volta, formate nel corso di questa esperienza. In rapporto dialettico con la capacità lavorativa sta la capacità di appropriarsi il prodotto del lavoro. A questo punto si devono fare due considerazioni: I) il progresso « storico » è incomparabilmente più rapido di quello biologico; 2) l 'individuo, nel mondo moderno, si trova circondato da una realtà oggettiva già plasmata o addirittura creata dall'uomo. Ciò acquista particolare importanza per l'immaturo. « Il bambino, anche quando entra in rapporto con i fenomeni naturali, li percepisce già condizionati dall'uomo.» «La scienza,» afferma Aleksei]. Markuscevic, «ha trasceso tutto ciò che l'esperienza di vita di un singolo uomo potrebbe dare anche se egli godesse di una longevità eccezionale. » Aleksandr M. Arseniev, partendo dalla constatazione che lo sviluppo della scienza è caratterizzato dal fatto che lo studio dei suoi oggetti « è inattingibile mediante la percezione intuitiva e l'immediata esperienza sensibile e si fonda su complesse astrazioni e concetti teorici », si domanda: « Quali misure si debbono prendere perché, di fronte al sempre più totale afflusso delle giovani generazioni all'istruzione, il corso della scuola secondaria sia effettivamente accessibile a tutti e insieme sia garantito l'innalzamento de/livello dell'istruzione e dell'educazione?» La risposta- osserva Anatolij A. Smirnov - ce la forniscono le più recenti ricerche sui rapporti tra sviluppo mentale e insegnamento. In base ad esse risultano acquisiti due punti: I) « La possibilità di uno sviluppo del pensiero astratto nei giovani allievi, molto più precoce di quanto si indichi abitualmente », e la conseguente possibi-
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
lità di modificare i contenuti «nel senso di un'acquisizione notevolmente anticipata dei concetti generali e di una corrispondente assimilazione delle operazioni concettuali necessarie per questo»; 2) «L'ipotesi che nello studio ci si deve orientare non sulle caratteristiche dello sviluppo mentale che si sono già formate, ma su quelle che sono appena in via di formazione. » Si tratta, in altre parole, di far lavorare gli allievi al più alto livello di difficoltà compatibile col loro grado di maturazione. Ne consegue una decisa rivalutazione del contenuto. Non già in senso nozionistico, ché, anzi, quel che conta è determinare per ogni materia « le idee guida che riflettono le fondamentali tendenze di sviluppo della scienza», con una proporzionale riduzione del materiale di pura informazione, ma in quanto si ritiene impossibile fondare il metodo in modo che risulti atto a promuovere lo sviluppo intellettuale dei giovani, senza considerarlo nel suo rapporto funzionale con un determinato contenuto. Bisogna allora stabilire da un lato che cosa, allo stadio attuale di sviluppo della scienza, debba essere inserito nel programma, poiché, se è bene che insegnante e allievi si tengano al corrente dei << fatti del giorno » in campo scientifico, non si deve confondere tra le idee - che possono costituire oggetto di discussione durante le attività integrative e, per associazione, anche durante le lezioni - e il programma. Questo, a sua volta, deve essere concepito dinamicamente, in quanto da un lato sia aperto verso il nuovo e dall'altro rifiuti o riduca entro limiti più ridotti i contenuti invecchiati o rivelatisi ormai di minore importanza. D'altro lato bisogna determinare per ogni contenuto il momento più opportuno per il suo inserimento. Concludendo, si può così sintetizzare con Leonid Vladimirovic Zankow: « Insegnamento a un alto livello di difficoltà; ritmi rapidi per lo studio della materia in programma; ruolo decisivo delle nozioni teoriche (la teoria non è una parte della materia, ma " lavora " all'interno del processo di apprendimento); consapevolezza da parte degli allievi del processo di apprendimento-insegnamento.» Sul piano organizzativo questa impostazione pedagogico-didattica porta: I) ad escludere dalla scuola elementare tutta una serie di contenuti che, dato il prolungamento del curriculum obbligatorio, possono essere rinviati a un grado successivo; 2) a contrarre entro un minore numero di anni il periodo propriamente primario, ridotto ormai a fornire solo le discipline strumentali; 3) a rinunciare alla struttura ciclica e alla teoria della « traducibilità » e ad affrontare, non appena sia possibile, i contenuti in forma logico-sistematica. III
· EDUCAZIONE E FORMAZIONE MORALE
Per quanto riguarda il problema dell'educazione dal punto di vista del comportamento morale ci sembra opportuno soffermarci su due correnti fondamentali, alle quali, in ultima analisi, tutte quelle attualmente significative sono 20
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
riducibili. La prima è quella che fa capo alla psicologia « classica » o sperimentale. Per essa il comportamento dell'animale è spiegabile in base al meccanismo stimolo-risposta. Alla sua origine troviamo il connessionismo di Edward L. Thorndicke; nella sua fase più matura la teoria del rinforzo che ha i suoi più significativi esponenti in John Dollard e Neal E. Miller. La seconda corrente è quella che si ricollega alla psicologia clinica che ha la sua attuazione tipica nella psicologia del profondo e in particolare nella psicoanalisi. Il più tipico rappresentante della prima corrente in campo pedagogico è William Heard Kilpatrick (1871-1965). Ci soffermeremo, ora, ad esporne la tematica, utilizzandola, sia ben chiaro, per il suo valore paradigmatico. Fin dalla nascita - osserva Kilpatrick - portiamo con noi nel mondo tratti incipienti del carattere. In base a questi tratti ci comportiamo in un certo modo nei riguardi del mondo esterno. Ma questo nostro comportamento modificherà parzialmente il carattere originario. Così modificato, il carattere, interagendo con l'ambiente, originerà un comportamento a sua volta diverso rispetto al primo e così via, in un processo che durerà tutta la vita. Sicché discutere sulla priorità assoluta del carattere o del comportamento è un po' come riproporre la vecchia questione della gallina e dell'uovo. Il carattere, in quanto tale, è al di là della nostra influenza immediata; può essere però influenzato indirettamente, attraverso il condizionamento della condotta mediante un'opportuna predisposizione della situazione. Per esercitare la nostra influenza sugli altri, perciò, indipendentemente dalla « spiritualità » o «moralità» dei nostri scopi, dobbiamo sempre cominciare coll'adoperare, muovere, modificare le cose materiali. Nulla di più lontano, come si vede, dall'indirizzo in esame, che la «compenetrazione degli spiriti» tanto cara agli idealisti. Il diretto rapporto fra due persone non può attuarsi se non mediante il corpo : « Scrivere vuol dire mettere dell'inchiostro sulla carta. Parlare significa muovere l'aria in determinate maniere. Un sorriso è un movimento del volto.» Parimenti estraneo all'impostazione etico-pedagogica di Kilpatrick è il concetto del « dovere » puro, onnicomprensivo, formale. La parola « dovere » è un segno stenografico - come altri del tipo « egoismo », « senso di responsabilità » ecc. - abbracciante, in realtà, un gran numero di casi particolari; un'idea astratta finché non si determina in un contenuto specifico, cioè in un comportamento. Il carattere, dunque, non è altro che un complesso di comportamenti ricorrenti; più esattamente: « L'insieme organizzato dei nostri abiti in funzione. » Ora l'organizzazione degli abiti è a sua volta un abito e il primo compito dell'educazione morale è precisamente quello di promuovere tale organizzazione o integrazione, di modo che « l'interezza del carattere si riveli luminosamente in ogni atto ». Ma un tratto qualsiasi del carattere non può diventare abitudine se non attraverso la sua pratica. 21
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
Ora, la seconda e più importante delle leggi fissate da Thorndicke afferma che una connessione stimolo-risposta viene rafforzata se la reazione produce un risultato soddisfacente per l'organismo, mentre l'insorgere di risultati non soddisfacenti ha come conseguenza l'indebolimento della connessione. Sul piano pedagogico se ne potrebbe trarre la conclusione che l'educando sarà spinto a ripetere, fino all'acquisizione di un'abitudine, le risposte che gli danno risultati soddisfacenti e ad evitare quelle che provocano risultati negativi e fin qui saremmo nell'ambito del più tradizionale senso comune. Quella che, però, contiene una carica veramente rivoluzionaria è la tesi secondo la quale gli effetti negativi hanno, nel processo di apprendimento, una rilevanza di gran lunga minore degli effetti positivi, se non altro perché determinano la risposta che non è opportuno dare ma non indicano la risposta valida sostitutiva. Nel capitolo xn della sezione m (secondo volume) abbiamo citato, come uno dei caratteri generali della pedagogia umanistica, la tendenza all'addolcimento della disciplina. Si trattava dell'inizio di una parabola che giunge ora al suo punto estremo. È chiaro, infatti, che, nonostante la tendenza all'addolcimento, la società moderna, fin verso la metà del secolo attuale, si è retta prevalentemente, anche se non più esclusivamente, sul castigo e sulla minaccia del castigo. Ci riferiamo non solo alla scuola ma all'intera vita sociale, all'educazione nel suo significato più ampio. Ora, invece, indipendentemente da qualsiasi giudizio di valore connesso con la « dignità » della persona, ci troviamo di fronte a un discorso freddamente scientifico il quale ci informa che la punizione non serve a niente e che bisogna quindi puntare tutto e solo sulla ricompensa. Possiamo affermare che, sotto questo punto di vista, la storia dell'educazione si divide in due periodi: quello precedente e quello successivo alla affermazione della« legge dell'effetto». In base a quale criterio potranno essere selezionati i tratti del carattere? L'importanza del quesito è evidente; infatti, se l'azione educativa, mediante la direzione della condotta presente, può provocare talune piccole modificazioni del carattere per il futuro immediato, la meta finale a cui essa deve tendere è l'orientamento della «ulteriore e più remota condotta», cioè dell'intera vita futura dell'educando. A questo punto il discorso di Kilpatrick rivela alcune incertezze e si avvolge in alcune contraddizioni che derivano da difficoltà di fondo e che lo rendono esemplare, in quanto le difficoltà, le contraddizioni e le incertezze in questione interessano praticamente tutto l'esperimento della scuola attiva, in ordine all'educazione morale. Gli adulti, in generale, esigono dai fanciulli e dai ragazzi comportamenti che non disturbino la tranquillità e il normale andamento della loro vita quotidiana, senza preoccuparsi del tipo di modificazioni del futuro carattere dei giovani provocato da tali comportamenti. Ciò vale tanto per la famiglia, quanto, e più, per la scuola. La vigente disciplina scolastica « nel migliore dei casi trascura di far
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
praticare ai ragazzi i tratti più desiderabili del carattere. Anzi... molta pratica scolastica forma tratti cattivi». « Se avessimo di proposito deciso di progettare un sistema [scolastico] per impedire lo sviluppo morale, difficilmente avremmo potuto sorpassare la pratica finora prevalente in proposito. » La nostra azione educativa si fonda essenzialmente su minacce e lusinghe, cioè su motivazioni indirette e fondate solo su un rapporto estrinseco, del tutto arbitrario, fra ciò che pretendiamo che il ragazzo faccia e il premio o il castigo promesso. Così siamo ad un tempo oppressivi e permissivi e l'unica abitudine che facciamo nascere è quella del calcolo grettamente utilitaristico. Inutile e contraddittorio, dunque, è il ~amentarsi per il prevalere nella nostra vita politica e sociale di una gran quantità di egoismo, di « prudenza » nel senso peggiore della parola, di gente disposta a qualsiasi cattiva azione purché ci sia possibilità di farla franca. E, d'altra parte (qui tocchiamo l'aspetto teoreticamente più delicato del problema), com'è possibile tener conto costantemente e puntualmente della legge dell'effetto, cioè limitarsi a proporre all'alunno attività capaci di generare motivazioni positive (vista la superiore efficacia della soddisfazione nel rafforzare connessioni rispetto a quella della insoddisfazione nell'indebolirle), possibilmente dirette o tuttalpiù indirette ma intrinseche, e al tempo stesso preparare la formazione, a lunga scadenza, di quel tipo di personalità adulta che riteniamo valido? Kilpatrick oscilla e, mentre insiste nell'affermare la superiorità delle motivazioni positive sulle negative e nel sottolineare la funzione molteplicemente diseducativa della costrizione (scarsamente efficace ed atta solo a provocare aggressività, nevrosi o raffinata ipocrisia), deve pure far posto alle punizioni, raccomandando di sceglierle frequenti e lievi piuttosto che rare e severe e di considerarle come medicine da usarsi caso per caso e nella misura strettamente necessaria. Ma altri e ben più grossi ostacoli si presentano: com'è possibile conoscere le vere motivazioni in base alle quali l'alunno agisce? Kilpatrick e in generale tutti i principali esponenti della nuova pedagogia, rivelano, sotto questo punto di vista, scarsa consequenzialità e non hanno il coraggio di assumere un atteggiamento integralmente empiristico. Così egli si pone il problema di quello che « veramente » il fanciullo « pensa » e « sente», anzi: afferma che il pensiero e il sentimento costituiscono « il fattore più importante » nel determinare quali tratti andranno a formare il carattere. Senonché egli è costretto ad ammettere, e non potrebbe essere altrimenti, che questo atteggiamento interiore « sfugge in gran parte al controllo dei genitori e degli insegnanti». Con maggior rigore dovrebbe concludere che, in quanto interiore, l'atteggiamento sfugge totalmente, potremmo dire per definizione, a tale controllo. Come si vede siamo di fronte a un problema filosofico della massima importanza che mette in discussione la stessa possibilità di una educazione morale qualora l'attività morale sia collocata, per quanto ha di essenziale, in un campo metaempirico.
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
Kilpatrick si limita a riconoscere che una pedagogia fondata sul principio dell'effetto diminuisce il potere degli educatori. Ma non si tratta solo di diminuzione di potere; si tratta di concludere che, al limite, il principio dell'effetto trascina con sé l'inattuabilità tecnica di un processo autenticamente eteroeducativo. Una volta esclusa o ridotta al minimo l'eteronomia fondata prevalentemente sui castighi e sui premi, si prospetta la soluzione del problema dell'educazione morale in termini essenzialmente sociologici. « La morale, » dice Kilpatrick, « è una faccenda di vita con la gente, di vita con gli altri. » Perciò il miglior modo di formare una personalità morale ai ragazzi è quello di fornir loro « la possibilità di praticare una ricca e varia vita sociale ». È vivendo in gruppo e riflettendo sulle risposte che il gruppo dà ai suoi comportamenti, che il fanciullo è messo in condizione di scoprire da sé, pagando di persona e quindi nell'unico modo efficace, i principi direttivi della condotta universalmente accettati. Anche sotto questo punto di vista appare indispensabile una radicale riforma della scuola che trasformi quest'ultima in un'istituzione sociale, incoraggi le attività fatte in collaborazione, colga ogni occasione per formare nei giovani il senso di responsabilità verso il gruppo. Senonché, anche su questo terreno, l'atteggiamento di Kilpatrick risulta paradigmatico per la sua incertezza spinta fino alla contraddittorietà. Parlando del caso in cui una decisione sbagliata viene portata al giudizio del gruppo, egli osserva, tranquillamente, che « se l'insegnante è saggio e pieno di tatto (! !) la maggioranza del gruppo deciderà giustamente ... » Altrove, alla domanda: chi deve dire al ragazzo se fa o no del male? risponde senza esitazione: « L 'insegnante. Questa è proprio una delle ragioni per cui è necessaria la presenza dell'insegnante. » E alla richiesta: quanta libertà? la risposta è: « Tutta quella che [i ragazzi] possono adoperare saggiamente. » Ma la formula più lapidaria, quella che in qualche modo è il motto della contraddittorietà di una rivoluzione pedagogica alla quale ben a ragione molti storici assegnano come padre Rousseau, Kilpatrick ce la offre là dove asserisce- nell'opera Foundation of method (Fondazione del metodo, 1936)che per concedere al ragazzo di fare quello che vuole, bisogna che anzitutto egli abbia imparato a volere quello che fa. La pedagogia contemporanea ci rivela un'analoga intima contraddittorietà anche quando consideriamo l'altra linea di sviluppo: quella caratterizzata dalla presenza operante della psicologia del profondo e in particolare della psicoanalisi. Non che la psicoanalisi si sia interessata ex professo, sin dagli inizi, dell'infanzia. Lo studio dell'infanzia è affrontato, se mai, in applicazione del metodo genetico: si tratta di cercare le forme elementari delle leggi che governano la vita umana, procedendo dal più semplice al più differenziato. Solo Adler, fra i primi grandi maestri, vuol essere soprattutto educatore; apre (1912) dei centri di consultazione psicopedagogica in trenta scuole viennesi e organizza un nuovo tipo di giardino d'infanzia. Per quanto riguarda la corrente freudiana l'interesse specifi-
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
camente pedagogico comincia con la figlia di Sigmund Freud, Anna, con Mélanie Klein e l'austriaco René Spitz. Lo Spitz è importante soprattutto per gli studi, condotti su bambini istituzionalizzati, oltre il primo anno di vita, tendenti a dimostrare come lo sviluppo armonico della personalità sia ostacolato e ritardato dalla frustrazione del bisogno di stimolazioni e del bisogno di cure. Successivamente la questione dell'influenza delle cure materne sulla salute mentale del bambino è stata affrontata da John Boubly. Ovviamente non è possibile, nel breve giro di pochissime pagine, fiornire un quadro, sia pure schematico, della problematica pedagogica proposta dalla psicologia del profondo: quello che ci proponiamo è solo di giustificare l'affermazione, fatta sopra, relativa all'intima contraddittorietà di una pedagogia su basi psicoanalitiche, parallela alla contraddittorietà già riscontrata nelle teorie fondate sulle leggi dell'effetto e del rinforzo. L'approccio può essere costituito dal richiamo di quello che probabilmente è il più importante e jo il più popolare dei motivi pedagogici proposti dalla psicoanalisi: quello della connessione tra frustrazione e aggressività. I termini della questione sono ormai notissimi: la frustrazione, cioè la condizione del soggetto che si vede rifiutare o rifiuta a se stesso il soddisfacimento di una domanda pulsionale, provoca l'aggressività, vale a dire la tendenza a danneggiare, demolire, costringere, umiliare un altro o, anche, se stesso : si tratta di vedere se ogni frustrazione provochi aggressività e se l'aggressività derivi sempre da frustrazioni. Se l'aggressività deriva sempre e solo da frustrazione l'impedimento opposto alla libera manifestazione dell'aggressività dovrebbe costituire una nuova frustrazione, provocando nuova aggressività e così via in un processo a spirale senza sbocco. Se questo non accade è perché in seno alla psiche esiste un dualismo pulsionale che mette certe forze in conflitto tra loro e dà luogo alla rimozione o alla repressione o alla sublimazione delle pulsioni. Il primo e forse il più importante dualismo è quello fra principio di piacere e principio di realtà. Le pulsioni cercano dapprima di scaricarsi per le vie più brevi; poi, sperimentando la realtà, imparano a conseguire il soddisfacimento mediante vie indirette e rinvii. Ora la pulsione di autoconservazione, in quanto può soddisfarsi solo con un oggetto reale, effettua molto presto il passaggio al principio di realtà, mentre le pulsioni sessuali, potendo soddisfarsi in modo fantasmatico o adoperando zone somatiche diverse dalle zone genitali e cercando piaceri indipendenti dall'esercizio di una funzione biologica, rimangono più a lungo sotto il dominio del solo principio del piacere di cui costituiscono permanentemente il campo privilegiato, sia pure nelle forme della perversione o je della sublimazione. Ora, dato che il consorzio umano non può sussistere ed evolversi se non a spese, entro certi limiti, degli impulsi istintuali, imponendo cioè all'individuo il sacrificio costituito dalla rimozione, dalla repressione e dalla sublimazione, i termini in cui si pone il problema dell'educazione si presentano chiaramente: da un massimo di rimozione e di sublimazione - solu-
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
zione che caratterizza le società autoritarie- a un minimo di repressione esplicita e a un massimo di libera espansione delle pulsioni, in primo luogo quella sessuale, per le società che tendono alla libertà e alla felicità dei singoli. È a questo punto che la pedagogia ispirata alla psicologia del profondo si trova ad un bivio, ad una scelta che storicamente ha, in genere, cercato di eludere, col solo risultato di avvolgersi in contraddizioni e di esporsi a violenti attacchi su due fronti. Indiscutibilmente, almeno fino a pochissimi anni fa, la strada battuta dalla maggioranza è stata, nonostante tutta una serie di tesi parziali atte a scandalizzare gli orecchi dei benpensanti tradizionali specie nel settore della vita sessuale, quella della moderazione e del recupero della psicoanalisi entro il quadro della società capitalistico-borghese. Prevale cioè la tendenza a dimostrare che « la teoria freudiana implicitamente ritiene che il concedere agli istinti una briglia sciolta sarebbe distruttivo »; che gli istinti naturali farebbero dell'uomo un mostro del tipo di Mister Hyde e che la società deve pertanto «compiere la valida funzione di metter le redini a questi istinti animali », controllarli, inibirli, così da « permettere all'uomo una vita sicura ed armoniosa, in rapporto con gli altri individui » (Richard S. Lazarus). Tipico, sotto questo punto di vista, è l'atteggiamento di Adler. Una volta precisato il carattere fisiologico del sentimento e il carattere patologico del complesso di inferiorità (quale rifiuto di tornare ad impegnarsi nella direzione verso la quale pur tende l'impulso ma lungo la quale in precedenti esperienze si è sperimentato l'insuccesso), sorge l'interrogativo se ciò valga anche per le attività viziose e criminose condannate dal costume e dalla legge. Adler respinge una simile ipotesi ma è chiaro che la distinzione fra orientamento sbagliato e orientamento giusto e la conseguente precisazione che è patologico il non poter riprendere, dopo il fallimento, non già l'orientamento vizioso ma quello positivo, richiamano il problema dei comportamenti devianti e della relatività dei criteri in base ai quali viene identificata la deviazione, col risultato di portare inevitabilmente a conclusioni di tipo conformistico. Così Adler mostrerà che il fallimento e la nevrosi derivano dal tentativo di sottrarsi all'imperativo di adattarsi alla società e di collaborare con essa, e finirà per dichiarare nevrotico tutto ciò che si allontana dalle opinioni accettate dalle classi dirigenti. «Le sue idee,» osserva Raymond de Beker, « si rivelano più che soddisfacenti e preziose per le persone che pongono l'adattamento sociale come obiettivo ideale da raggiungere e che non sentono il bisogno di porre in discussione i valori sui quali questo adattamento è fondato o di comprendere i problemi che vanno al di là di questa sfera. » L'accusa, sotto un certo punto di vista ineccepibile, mossa alla visione freudiana in quanto troppo legata alla sfera biologica e scarsamente sensibile di fronte all'esperienza sociale e culturale nello sviluppo della personalità, si è, di fatto, rivelata idonea a favorire la critica, altrettanto ineccepibile, di aver voluto piegare
z6 www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
il freudismo fino a trasformarlo in uno strumento terapeutico e pedagogico atto a consolidare il sistema capitalistico-borghese. È questa l'accusa che da qualche tempo vien mossa a gran parte dei neo-freudiani (da Carl Rogers ad Abraham Marlow, allo stesso, già citato, Eric Fromm). Sul piano più propriamente pedagogico questa tendenza all'integrazione del freudismo è chiaramente identificabile anche in alcuni dei temi sui quali insiste Erik Erikson: per esempio là dove parla della sicurezza che la madre può trasmettere al bambino in funzione non solo della sua sensibilità per le di lui esigenze ma anche e soprattutto della sua fiducia in se stessa - fiducia che a sua volta le deriva dal sentirsi appoggiata alla stabilità di una determinata cultura - e, in generale, là dove spiega che gli adulti possono guidare i giovani solo quando sono capaci di trasmettere convinzioni profonde e quasi fisiche e dove auspica una stretta solidarietà fra istituzioni e concezione generale del mondo. È però ancora lo stesso Erikson a fornirci lo spunto per il passaggio all'altro punto di vista. Precisamente là dove, contrapponendo il metodo di educazione adottato dagli indiani Sioux Dakota e confrontandolo con quello « occidentale », nota che i primi concedono ai bambini la massima libertà salvo far loro capire, una volta che siano diventati adulti, la necessità di inchinarsi alla tradizione sostenuta dall'opinione pubblica, mentre la civiltà occidentale regolarizza sistematicamente le funzioni e gli impulsi della prima infanzia; radica la regola nel neonato quando è ancora permeabile e gli permette, da adulto, di sfrenare il suo individualismo egoista, sicura di averlo ormai definitivamente socializzato: la stessa pedagogia di impostazione psicoanalitica è esposta al pericolo di essere strumentalizzata in questa direzione. Contro questo slittamento è in corso da alcuni anni una energica protesta, che si proclama fautrice del recupero della tematica pedagogica freudiana più autentica e di cui, indubbiamente, uno dei massimi esponenti è Herbert Marcuse. Il testo base di questo recupero è uno scritto freudiano del I 929, per lungo tempo considerato minore: Il disagio della civiltà. In questo scritto Freud precisa che « la libertà non è un beneficio della cultura: essa era più grande prima di qualsiasi cultura e ha subito delle costrizioni lungo l'evolversi della civiltà». (Risparmiamo al lettore qualsiasi ovvia considerazione circa il carattere dogmatico e utopistico di una concezione di questo tipo: ci limitiamo a segnalarla come paradigmatica.) Una volta accettata la tesi che la civiltà, in qttanto tale, impone rimozioni, repressioni, sublimazioni, e quindi gravi sacrifici dell'impulso, e che il progresso della civiltà costituisce, obiettivamente, un accrescimento di tali sacrifici, ne derivano alcune conseguenze di enorme rilievo nel campo pedagogico: I) La repressione non va solo vista nelle forme macroscopiche e abnormi delle dittature, ma rintracciata anche e soprattutto (in quanto più insidiosa e pericolosa) nelle pieghe delle istituzioni (e quindi anche delle istituzioni educative) più « liberali».
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
z) Ogni tentativo di far passare la repressione societaria per «naturale» o meramente « tecnico-strumentale » deve essere demistificato: esso mira solo a rubare il consenso, in base al principio per cui l'assoggettamento è perfetto solo quando il consenziente è convinto di aver deciso liberamente (sul piano pedagogico si impone, ancora una volta, il richiamo a Rousseau). 3) Se «ogni» civiltà è oppressiva, lo è tanto più quella attuale, incentrata sui due imperativi della massima produzione e del massimo consumo. 4) Comunque, al di là delle critiche specifiche al tipo di lavoro caratteristico della società attuale, resta che la restaurazione del principio del piacere va cercata non tanto nella liberazione «del» lavoro quanto nella liberazione «dal» lavoro. Il punto d'approdo più conseguente rispetto a questa impostazione lo si trova, probabilmente, nel celebre esperimento di Summerhill, dove si parte dal presupposto che « i tabù sessuali sono alla radice della repressione infantile », che « tutti i bambini i quali soffrono di repressioni sessuali hanno lo stomaco duro come un sasso », che « la proibizione di masturbarsi porta a bambini miseri, infelici, che contraggono facilmente raffreddori e malattie », dove si ammette che nelle giornate calde le bambine stiano nude e non si forniscono gli anticoncezionali ai ragazzi « maggiorenni o minorenni che siano » solo perché « sarebbe un modo sicuro per far chiudere la scuola ». Insistiamo nel sottolineare che il nostro non \Tuo l essere un giudizio valutativo: ci interessa però mettere in evidenza la contraddittorietà implicita in principi che possono condurre sia a conclusioni integralmente anarchistiche sia ad una sostanziale integrazione nella società attuale. Si può parlare di superamento dell'antitesi da parte della pedagogia di ispirazione marxista e dell'educazione messa in atto nei paesi socialisti? Il problema è delicato e complesso e in questa sede possiamo solo cercare di metterne a fuoco i termini essenziali. Il marxismo respinge, come astratti, sia l'ottimismo di chi in nome di una « natura umana »presupposta « buona », si sente autorizzato a propugnare una pedagogia della spontaneità, sia il pessimismo di chi, partendo dal principio negativo di una natura originariamente guastata dalla tendenza al male, identifica l'educazione con l'allenamento alla repressione degli impulsi e alla adesione puntuale all'ethos dominante. In una civiltà divisa in classi ogni concezione morale esprime gli interessi di una determinata classe e, mentre la morale della classe dominante ha la funzione di giustificare l'ordine stabilito, quella della classe rivoluzionaria assume la funzione di spietata demistificazione nei riguardi della ideologia della classe egemone: bene e male sono parole che acquistano significato esclusivamente entro questo quadro. Gli stessi precetti elementari, elaborati dallo sviluppo dell'umanità e indispensabili alla vita di ogni collettività, hanno efficacia incerta e limitata: incerta in quanto mezzi analoghi possono servire per il raggiungimento di fini opposti e sono suscettibili, conseguentemente, di valutazioni a volta a volta positive o negative; limitata perché lo scatenarsi della lotta fra
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
gruppi avversi sopprime violentemente tutti i legami morali fra gli individui appartenenti a schieramenti contrapposti. Una morale posta al di sopra delle opposizioni di classe sarà possibile solo dopo che l'opposizione fra le classi (e quindi l'esistenza stessa delle classi) sia stata non solo vinta ma completamente abbandonata nella pratica della vita. Sul piano pedagogico questo porta ad affermare - contro l'attivismo, per il quale ciò che massimamente conta è il metodo attraverso cui si pone in atto una forma di vita ritenuta assolutamente valida - l'importanza suprema del fine. Pur riconoscendo i meriti della pedagogia democratica di stampo deweyano - osserva Dina Bertoni J ovine - « i marxisti trovano che essa è insufficiente perché non elabora una prospettiva in cui le formule libertà, attività, società trovino concretezza stabilendo un più stimolante rapporto fra scuola e società». Altrove, analizzando il pensiero di Antonio Gramsci, la stessa Bertoni Jovine afferma che il vero problema non è tanto quello di stabilire se, nei riguardi dell'immaturo, sia meglio intervenire direttamente con l'autorità o indirettamente mediante suggestioni derivanti da un ambiente opportunamente manipolato, ma quello di chiarire « se l'essere che si propone di offrire la sua guida sia possessore e divulgatore di un più alto ideale umano e rappresenti un modello· di perfezionamento, accettando il quale l'essere inferiore si senta migliorato», e distingue l'« autorevolezza», che ha come fine la conquista dell'autonomia, dall'autoritarismo che mira a formare uomini deboli, conformisti o ribelli. Di qui la giustificazione del « conformismo dinamico », vale a dire di una disciplina imposta, sì, ma allo scopo di far superare all'educando le arretratezze, le chiusure, i pregiudizi dell'ambiente in cui gli è capitato di vivere e nei riguardi dei quali deve imparare ad assumere un atteggiamento non di adattamento ma di rottura e di lotta. Approfondendo una tematica di questo tipo, il maggior esponente della pedagogia marxista polacca, Bogdan Sukhodolski, giunge a precisare il concetto di «impegno» quale nota distintiva della pedagogia socialista. Uomo vivo, egli dice, è soltanto colui che prende parte alle attività che si svolgono al vertice dello sviluppo sociale e culturale dell'epoca nella quale trascorre la vita. L'impegno è impulso ad un tempo intellettuale ed emotivo, è immettersi nella viva problematicità e contribuire al suo sviluppo ed alle sue trasformazioni. L'impegno da un lato lega gli uomini tra loro e col loro tempo, dall'altro fornisce loro la felicità che deriva dall'azione creativa. La contrapposizione fra individuo e civiltà, fra esistenza ed essenza è così superata. Il pericolo implicito in una impostazione di questo genere, che richiama in modo preoccupante quella idealistico-romantica, consiste, a parer nostro, nella separazione dei mezzi dal fine e nella subordinazione dei primi al secondo, col risultato di strumentalizzare la cultura e la scuola. L'affermazione che nei periodi di costruzione e di progresso scuola e cultura devono costituire il « sostegno delle
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
idealità in atto » (An ton Semcnovic Makarenko) è formalmente ineccepibile, senonché la storia di tutti i tempi ha abbondantemente dimostrato che la« idealità in atto » si riduce spesso a qualche autorità politica autoproclamantesi depositaria e interprete unica del valore. Così la distinzione fra autorevolezza ed autorità, nei termini proposti dalla Bertoni Jovine, rischia di risolversi in mero artificio retorico: il problema è quello di stabilire il criterio in base al quale un ideale umano possa essere classificato come superiore ad un altro e un modello possa essere proposto come più degno di un altro di essere imitato. O si dispone di una argomentazione di portata intersoggettiva (e non può essere altro che quella del discorso scientifico e, subordinatamente, dell'esperienza storica) o si cade nel dogmatismo, sia pure con le migliori intenzioni e io perfetta buona fede. IV · EDUCAZIONE E FORMAZIONE SOCIALE
Il campo della sociopedagogia è indubbiamente quello io cui, nel periodo preso in esame, sono stati fatti i progressi maggiori. Tanto più che la stessa psicologia ha rivelato crescente interesse per l'influenza esercitata dall'ambiente sulla formazione della personalità. È stato conquistato un punto fondamentale: quello che riguarda la struttura « essenzialmente » sociale di tutti i fattori che convergono nel processo dell'educazione: educando, educatori, istituzioni, programmi, metodi. Le indagini sono andate e si vanno svolgendo su una molteplicità di piani tra loro strettamente collegati. In primo luogo si tratta di studi che rientrano nella psicologia dell'età evolutiva e mirano a identificare le caratteristiche e le tappe fondamentali del processo di socializzazione entro il quadro del processo di maturaziooe. Si tratta di controllare sperimentalmente l'influenza esercitata sulla formazione dell'individuo dai vari gruppi associativi nei quali egli si trova, successivamente o contemporaneamente, inserito (famiglia, raggruppamenti spontanei extrafamiliari, scuola ecc.). Si passa quindi a considerare come le istituzioni specificamente ed intenzionalmente educative siano state e siano condizionate dalle altre istituzioni sociali e come interagiscano con esse. Infine si devono identificare le forme istituzionali, i contenuti culturali, i metodi che dovranno caratterizzare l'azione intenzionalmente educativa concepita in rapporto alla società attuale, sia che si tenda alla conservazione sia che si miri alla riforma o, addirittura, alla rivoluzione. Ovviamente, in questa sede non sarà possibile una considerazione puntuale e analitica di tutti i piani elencati: ci si limiterà a richiamare alcuni motivi fondamentali e a tentare una valutazione complessiva. L'industrializzazione avanzata porta alla riduzione della permanenza dei genitori nella vita di casa; elimina la possibilità di partecipazione attiva del fanciullo alle operazioni dell'adulto; ritarda l'inserimento del giovane nel mondo del lavoro, rinviando la conquista dell'autosufficienza economica alquanto più io là del
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
raggiungimento della piena maturità psicofisica e in particolare della maturità sessuale. Combinandosi col fenomeno, da essa dipendente, di una urbanizzazione rapidissima, spesso irrazionale (specialmente nei paesi ad economia di mercato), ispirata al criterio di una spietata speculazione, e col carattere centralistico-burocratico della vita politica e amministrativa, essa crea una situazione nella quale è impossibile ogni « allenamento » a una vita attiva e responsabile di comunità. La risposta dei giovani costituisce in questo senso uno dei fenomeni più significativi del nostro tempo. A tutto questo può rispondere la scuola? alla domanda delicatissima e complessa cercheremo di dare una risposta nel capitolo VI del volume nono. Per ora ci limiteremo ad esaminare quello che di più significativo, a parer nostro, è emerso dallo svolgimento del pensiero pedagogico e da tutta una serie di sperimentazioni didattiche e di riforme scolastiche durante gli ultimi decenni. Prima di tutto: scuola a tempo pieno. Anche se il modello gesuitico, rousseauiano e fichtiano del convitto è ormai decaduto, nessun pedagogista che domandi alla scuola di esercitare una funzione formativa, si illude che tale funzione possa esercitare una scoletta di tre o quattro ore giornaliere. Secondariamente: restaurazione dell'uomo integrale mediante la sintesi di lavoro intellettuale e lavoro manuale. La tesi secondo cui «la cultura vera, quella che ancora non ha posseduto nessun uomo, è fatta di due cose - appartenere alla massa e possedere la parola » - costituisce ormai un motivo fondamentale di tutta la pedagogia progressista: motivo animatore della scuola di Washburne e del metodo dei progetti di Kilpatrick, del lavoro a gruppi di Roger Cousinet come della tipografia in classe di Célestin Freinet, della scuola attiva di Ferrière, dei centri d'interesse decrolyani e del collettivo di Makarenko. In terzo luogo: realizzazione di autentiche forme associative con unità di fini, distinzione di compiti (sia sul piano orizzontale sia su quello verticale) e pratica di autogoverno da parte dei giovani. Consideriamo, ora, partitamente e sia pure in modo necessariamente sintetico, i punti qui sopra elencati. Si può considerare universalmente accettata la tesi secondo la quale noi educhiamo per mezzo dell'ambiente e la scuola è l'esempio tipico di un ambiente strutturato intelligentemente con lo scopo deliberato di influenzare le disposizioni mentali, morali e sociali degli immaturi. La struttura dell'ambiente-scuola dovrà risultare ad~guata al tipo di formazione che si vuole realizzare e al tipo di società per il quale si intende formare. Inoltre il principio, da noi più volte richiamato, secondo il quale una riforma nel campo dell'educazione, quando intenda incidere nel vivo, deve investire tutti i piani, in quanto fra essi c'è una stretta solidarietà, comporta che l'adeguazione della scuola ad una società dinamica e democratica deve interessare non solo la dimensione disciplinare e tuttalpiù quella amministrativa ma anche, e in primo
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
luogo, quella didattica, sia nel settore dei contenuti sia in quello del metodo. Sotto questo punto di vista ci sembra, anzi, doveroso osservare che la tanto criticata scuola «vecchia» o «tradizionale» assolveva il suo compito sociale con più coerenza di quanto non faccia la maggior parte delle scuole del nostro tempo che si rivelano spesso in stridente contrasto con le esigenze della situazione storica. Consideriamo, in primo luogo, il « contenuto ». È chiaro che esso può costituire uno strumento dell'autoritarismo non solo per l'ispirazione ideologica che può pervaderlo e per il criterio discriminatorio col quale si può stabilirlo, sottolineando certi fatti e mettendone in ombra altri, scegliendo un punto di vista piuttosto che un altro eccetera, ma per il fatto. stesso che un contenuto prestabilito debba esserci. Alexander S. Neill, per esempio, dichiara aggressivamente: « È tempo di mettere in discussione l'attuale nozione scolastica di studio. È dato per pacifico che un ragazzo debba imparare la matematica, la storia, la geografia, un po' di scienze, un poco di arte ed una certa quantità di letteratura. È ora di renderei conto che il ragazzo medio nutre ben poco interesse per queste cose ... Non oserei mai prendere posizione decisa nei riguardi di ragazze che non frequentano mai le lezioni, specialmente di matematica e di fisica ... La convinzione che l'allievo se non impara spreca il tempo non è nient'altro che una maledizione, una maledizione che acceca le migliaia di insegnanti e la maggior parte degli ispettori scolastici. » Per Washburne, invece, la teoria per cui la scuola dovrebbe rinunciare a fornire nozioni prestabilite e i fanciulli dovrebbero imparare tutto e solo quello che sono in grado di scoprire da sé, è semplicemente « ridicola ». Il discorso appare ancora più chiaro qualora si passi a considerare la questione del metodo. Se volessi i ragazzi obbedienti come schiavi - dice Kilpatrick - se pretendessi di dominarli e di spezzare la loro volontà, propugnerei, per l'insegnamento della lettura e della scrittura il vecchio metodo alfabetico, vero e proprio metodo « spegnitoio », che rende odiosi la scuola e l'apprendimento e costringe gli adulti a servirsi di condizionamenti estrinseci, perlopiù negativi. È un'osservazione illuminante che conferma la nostra tesi della solidarietà fra i vari piani. La polemica contro il manuale acquista nel pensiero di Freinet un significato decisivo. Il manuale si preoccupa solo di servire i programmi ufficiali e di facilitare il lavoro del maestro: raramente è fatto per il bambino. Comunque, anche se fatto bene, il libro di testo è sempre dannoso, in quanto « diventa un mondo a sé, qualcosa di divino, di cui si esita sempre a contestare le asserzioni... I manuali uccidono ogni senso critico ... , preparano l'asservimento del bambino all'adulto e, più esattamente, alla classe sociale che, per mezzo dei programmi e dell'assegnazione dei fondi, dispone dell'insegnamento... Bisogna insegnare che il contenuto del libro non è che un pensiero stampato e, come ogni pensiero, soggetto ad errore e che dunque si deve poter contraddire come si contraddice una persona che parla ».
www.scribd.com/Baruhk
Problemi fondamentali della
peda~Sogia
contemporanea
La strada maestra per liberare il fanciullo dall'asservimento al manuale, per condurlo a una valutazione critica del significato stesso del libro, è quella di guidarlo a « fare » il libro, in collaborazione coi suoi compagni. Ma di quello che si scrive sulla lavagna e sul quaderno ben presto non rimane traccia. « Bisogna trovare un mezzo per legare senza soluzione di continuità il pensiero del fanciullo al testo definitivo. » Così nasce, nel I 924, la « tipografia » nella scuola. Strumento di produzione, la tipografia, con tutti i sussidi ad essa comuni, caratterizza la società scolastica così come in generale gli strumenti di produzione caratterizzano la società umana. Ma veniamo ora alle obiezioni sollevate contro l'indirizzo in questione. Per quanto riguarda la restaurazione dell'uomo integrale per mezzo della unione di lavoro intellettuale e lavoro manuale, sfugge alla totalità dei massimi esponenti del rinnovamento pedagogico dell'area capitalistico-borghese il fatto, pur evidentissimo, che, lavoro autentico essendo solo il lavoro economicamente produttivo, ed essendo, oggi, il lavoro produttivo essenzialmente quello della fabbrica, la sintesi fra lavoro intellettuale e manuale andrebbe realizzata concretamente come sintesi di scuola e fabbrica: altrimenti c'è il pericolo di insabbiarsi nel gioco-lavoro, nell'artigianato pseudo-artistico, nel giardinaggio ecc. A questo pericolo non si sottrae neppure la scuola deweyana la quale, se coglie felicemente il significato che il lavoro assume nella traduzione in linguaggio pedagogico della concezione operativa dell'esperienza e se pure, come abbiamo visto, auspica la ristrutturazione didattica della scuola secondo il « metodo del lavoro » proprio per ovviare ai guasti prodotti dalla divisione del lavoro nel quadro della società capitalistica, non fornisce altra proposta che non sia quella della ri-creazione nella scuola di un artificioso ambiente di tipo pre-industriale. Ben altro è l'insegnamento che ci viene dal pensiero marxiano e dall'esperienza dei paesi socialisti. Marx, fino dal I 847, polemizza, in oggettivo contrasto con Engels, contro una educazione « pluriprofessionale », che si preoccupi di rendere il lavoratore « versatile » e perciò disponibile per essere trasferito da un ramo all'altro della produzione a seconda delle esigenze e nell'interesse esclusivo della produzione. Quello che egli chiede all'istruzione tecnologica- come risulta dalle Istruzioni ai delegati del I 866 - è, sì, che «introduca il fanciullo e l'adolescente nell'uso pratico e nella capacità di maneggiare gli strumenti elementari di tutti i mestieri », ma anche, e in primo luogo, che « trasmetta i fondamenti scientifici generali di ,tutti i processi di produzione». A una pluriprofessionalità che rientra ancora nel quadro della divisione del lavoro e dello sfruttamento borghesi « Marx oppone l'idea dell'uomo completo che lavora non solo con le mani ma con il cervello e che, consapevole del processo che svolge, lo domina e non ne è dominato» (Mario Alighiero Manacorda). Un altro insegnamento marxiano è quello che riguarda la liberazione dell'uomo dali 'asservimento ad un lavoro alienante. Qui, nei testi mandani, è rintracciabile una doppia temati ca: quella della libera-
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
zione « del» lavoro, per cui l'uomo, libero di svolgere di volta in volta l'attività che più gli piace, può ritrovare la gioia di vivere per lavorare al posto dell'angoscia di dover lavorare per vivere (è la tesi contenuta, in forma indubbiamente ancora utopistica, nella Ideologia tedesca) e quella della liberazione «dal» lavoro, frutto di un prodigioso sviluppo tecnologico che concede a tutti la disponibilità di un crescente tempo libero (è la tesi proposta nel terzo libro del Capitale). Svolgendo questi temi marxiani, già nel I92I Pavel Petrovic Blonskij critica aspramente gli « astratti laboratori scolastici », il « metodo del lavoro » applicato alle materie di studio tradizionali, l'organizzazione della scuola « secondo un'economia naturale primitiva» e contrappone a queste soluzioni vagamente populiste o addirittura borghesi, una scuola la quale affronti il lavoro nella sua forma più sviluppata e che il lavoro veda non come nuda tecnica ma come fenomeno sociale. Nel I 96 I Mikhail Nikolaievic Skatkin compendia così le differenze tra la scuola sovietica del lavoro e le scuole dei paesi capitalistici nelle quali anche si insegna il lavoro: I) nella scuola sovietica l 'insegnamento del lavoro e la partecipazione ad esso sono obbligatori, in quanto si mira alla formazione dell'uomo onnilaterale. Ciò non accade nei paesi capitalistici, nei quali si tende a perpetuare la separazione fra scuole per borghesi solo intellettuali e scuole per operai e contadini solo lavoratori manuali; z) nei paesi capitalistici l'insegnamento del lavoro è in funzione dell'apprendimento di un mestiere mentre nella scuola sovietica esso mira a dare la conoscenza dei settori principali e dei principi fondamentali della produzione contemporanea; 3) nei paesi capitalistici la preparazione al lavoro si impartisce di regola separatamente dallo studio delle scienze e, comunque, sulla base di una ristretta preparazione teorica. Nell'uRSS si ritiene che un basso livello di preparazione scientifica generale impedisca una buona preparazione al lavoro nella produzione moderna altamente meccanizzata; 4) infine la scuola sovietica immette gli allievi nelle fabbriche non solo per far loro conoscere la produzione moderna ma anche al fine di formare i giovani secondo l'ideologia rivoluzionaria, laddove, proprio per il pericolo che il contatto con gli operai diffonda tendenze rivoluzionarie nei giovani, la società borghese chiude le porte della fabbrica agli studenti. Questi i principi; ma ben più complessa, a volte tumultuosa e anche contraddittoria, è l'applicazione pratica. Dall'iniziale entusiasmo per gli esperimenti « occidentali» alla scuola del lavoro di Blonskij; dalla teoria della « scomparsa della scuola» di Sciulghin alla « restaurazione » staliniana, al «collettivo» di Makarenko, fino alla riforma del I 9 58, il problema dell'unione del lavoro intellettuale con quello manuale e della formazione dell'uomo onnilaterale costituisce uno dei problemi la cui soluzione soddisfacente appare più ardua. Tanto che, oggi, chi nel mondo borghese cerca lumi nel campo socialista è attratto da altre esperienze. In primo luogo da quella cinese, impegnata in « uno sforzo generale nella rivoluzione culturale, perché gli operai e i contadini divengano degli intellettuali e perché
34
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
gli intellettuali divengano dei lavoratori » o da quella cubana che presenta una massiccia partecipazione di studenti ed intellettuali al lavoro dei campi. Si tratta, però, di paesi ancora ad economia prevalentemente agricola e per di più animati dallo slancio di una esplosione rivoluzionaria ancora recente: ovviamente a questo punto il problema si riapre a nuove riflessioni e discussioni. Sappiamo che uno dei principi fondamentali della scuola attiva è quello secondo il quale un tratto qualsiasi del carattere non può diventare abitudine se non attraverso la sua pratica. La formazione di abitudini sociali di tipo democratico sarà dunque possibile solo in una scuola che si organizzi in gruppo o in un complesso di gruppi funzionanti democraticamente. D'altra parte l'ingresso attivo nel gruppo è possibile solo per il bambino che abbia raggiunto un certo grado di maturazione psichica. Il problema è, dunque, di identificare gli stadi dello sviluppo generale nei quali l'azione comunitaria è prescritta dalla natura stessa e di scoprire e promuovere le forme mediante le quali questa azione può meglio esprimersi fuori e dentro la cerchia comunitaria. Si tratta di due settori di un campo nel quale il materiale raccolto è già immenso e la letteratura sterminata. Il problema dello sviluppo della socialità in dipendenza dalla maturazione complessiva della personalità è al centro di un settore specifico della psicologia dell'età evolutiva. La conclusione a proposito della quale gli studiosi sono pressoché concordi è quella per cui nn verso gli otto anni non ha senso pensare ad organizzare un autentico lavoro di gruppo. Per quanto riguarda le condizioni sociologiche che regolano i lavori a gruppi nelle diverse fasi dello sviluppo generale - i problemi pedagogici sollevati dall'organizzazione dei lavori collettivi, la formazione dei gruppi, le loro dimensioni ottimali, la scelta e la divisione del lavoro e dei compiti (leader, gregario ecc.) -fondamentale è l'opera degli psicologi gestaltisti. Anche la misurazione è stata applicata allo studio dei processi di socializzazione, dando origine ad una disciplina specifica, la « sociometria », con relativi tests, di cui il più noto esponente è Jacob Levy Moreno. Dal lavoro a gruppi nella scuola il passo successivo porta alla concezione della scuola come gruppo. Sorgono a questo punto i concetti di autogoverno e di autogestione. « Dare tanta libertà quanto sia possibile darne senza che si verifichino interferenze con la libertà altrui, » scrive Washburne a questo proposito, «far fare esperienza di riflessione, progettazione ed azione condotta in cooperazione. » DaJla partecipazione alla scelta di un « centro di interesse » o di un « progetto » a quella, ben più impegnativa, della elaborazione del programma e della scelta dei libri di testo, alla scelta di attrezzature e materiali, alla organizzazione della scuola. Si tratta, chiaramente, di un problema estremamente delicato, che coinvolge concetti come quello di maturità, di competenza, di verità ecc. Washburne, del resto, il quale, pure, afferma che «il governo studentesco deve essere effettivo » in quanto sorto da un genuino bisogno sentito dagli alunni, si af-
35 www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
fretta subito a gettare acgua sul fuoco, precis;:tndo che l'autogoverno non deve imitare « forme adulte », deve restare « entro i suoi limiti » paragonati a quelli di uno stato federato, di fronte alla costituzione federale. Il problema dell'autogoverno e dell'autogestione (è chiaro che il secondo termine risulta più esteso del primo, in quanto implicante anche l'aspetto amministrativo ecc.) si è andato, nel corso degli ultimi anni, collocando al centro del dibattito sulla scuola. A chi appartiene, chi deve servire la scuola? A domande come queste la risposta sembra facile, addirittura ovvia: la scuola è della società e deve servire la società. Ma, a parte la considerazione, pure validissima, che storicamente ogni società ha avuto almeno due Bi!dungsidea!e, cioè due fini ben distinti a seconda delle classi, egemone e subalterna (Luciano Gallino) e che pertanto considerare la scuola in funzione della « società nel suo complesso » è dare alla domanda una risposta scarsamente significativa, è chiaro che il problema esige un grado molto maggiore di precisazione. Bisogna stabilire a chi spetta determinare: a) le strutture ed i criteri amministrativi; b) i programmi ed i metodi; c) la disciplina. L'autorità investita dell'uno di questi poteri, o di tutti, può essere lo stato, operante per mezzo di una rete burocratica, oppure un ente locale, o un consiglio eletto ad hoc dagli utenti o un privato. Alla tendenza pedagogistica orientata nel senso di affidare la scuola agli specialisti, in base al principio dell'autonomia dell'educazione- anzi: della funzione di guida della cultura (Condorcet, Dewey)- si è venuta progressivamente sostituendo la tesi della gestione da parte di tutti gli interessati: insegnanti, alunni, familiari degli alunni, esponenti del mondo della produzione, cittadini qualunque. Un motivo che è venuto assumendo progressivamente importanza nel corso degli ultimi decenni - fino ad assumere un peso preponderante - è quello che riguarda il carattere « classista» della scuola nei paesi dell'area capitalistico-borghese. È chiaro che si tratta di una polemica conseguente all'imponente movimento delle masse in tutto il mondo e al concomìtante diffondersi del metodo marxista di interpretazione della storia. Scuola di classe può significare due cose: I) scuola che seleziona in base a criteri di classe; 2) scuola che impone come «verità» quella ch'è solo ideologia a servizio della conservazione. La prima accezione dell'espressione trascina con sé il problema del condizionamento. A sua volta il problema~del condizionamento è stato impostato in due maniere: I) il condizionamento riguarda soltanto la cultura: si ammette cioè che « il fanciullo di una famiglia tradizionale di intellettuali super-i più facilmente il processo di adattamento psicofisico » alla scuola, « sicché entrando già la prima volta in classe, ha parecchi punti di vantaggio sui suoi compagni » ecc... (Antonio Gramsci); 2) il condizionamento investe la stessa intelligenza, non tanto perché i taleQii siano riducibili al bagaglio genetico, quanto perché l'azione dell'ambiente, operando negativamente o positivamente fin dalla nascita, mette un individuo in
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
condizioni di vantaggio o di svantaggio rispetto ad altri vissuti in ambiente diverso. La tesi fu verificata sperimentalmente in Francia nel I 944 mediante una grande inchiesta condotta con la collaborazione di équipes di specialisti di psicologia, statistica, genetica, demografia e sociologia. Senonché le misurazioni dell'intelligenza sono state fatte, finora, con strumenti i quali, anche se presentati come obiettivi, nascondevano il veleno classista. In linea di massima, infatti, si pretese di misurare l'intelligenza secondo tests eminentemente «verbali» mentre è ormai arcinoto che proprio sul piano del diverso grado di possesso della lingua si hanno le più gravi differenze tra appartenenti a classi diverse. Siamo così giunti alla zoqa di frontiera. Le soluzioni possibili appaiono fondamentalmente due: I) realizzare una scuola a tempo pieno, possibilmente nella forma del convitto, che annulli o riduca le differenze di ambiente culturale (è la soluzione auspicata da Antonio Gramsci); z) eliminare le differenze di condizionamento «a monte» ristrutturando radicalmente la società. Ma qui, evidentemente, non siamo più nel campo pedagogico. Si tratta, comunque, di uno dei più importanti insegnamenti forniti dal marxismo alla pedagogia del campo capitalistico-borghese. Per quanto riguarda, invece, l'esperienza scolastica dei paesi socialisti, ci limitiamo, in ordine al problema in questione, a toccare pochi punti essenziali. Nell'uRSS, dopo gli anni in cui la necessità-possibilità di costruire una scuola di massa partendo quasi dal nulla (in condizioni di semianarchia e di gravissima penuria, in un clima di entusiasmo romantico per le esperienze attivistiche occidentali) incoraggia numerosissimi tentativi di liquidazione dei vecchi metodi organizzativi e disciplinari, si ristabilisce a partire dal I 9 3 I la separazione della scuola dalla fabbrica, si restaurano la disciplina, l'autorità degli educatori, la responsabilità personale dei dirigenti. Si rimettono in uso espressioni come « insegnamento » e « controllo » al posto delle altre: « organizzazione dello studio » e « incoraggiamento ». Riappaiono i voti, i certificati, i premi e i castighi, gli esami e perfino le uniformi. Vengono condannati l'autogoverno, l'individualizzazione, l'uso dei tests, la coeducazione dei sessi. Una risoluzione del I936 dichiara che tutta la pedagogia basata sull'attivismo è « piccolo-borghese » e « antimarxista ». Ma anche dopo la fine dell'era staliniana la scuola sovietica non indulge a forme di organizzazione e di disciplina eccessivamente permissive. In questo convergono due linee di forza, pur provenienti da presupposti lontani e in certo qual modo contraddittori. Da un lato l'importanza attribuita ai concetti di impegno e di prospettiva, di cui si è già detto. Dall'altro il presupposto di vivere in una società autenticamente socialista, che ha già liquidato le differenze di classe e che si avvia a gran passi verso la realizzazione del comunismo. Tale presupposto porta a dare per risolti problemi in realtà ancora aperti (citiamo, per tutti, quello 37
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
di portare agli studi superiori tutti i giovani migliori - anche se figli di operai e contadini- e solo i migliori - cioè escludendo gli inadatti anche se figli di grossi burocrati-); e d'altra parte a demandare allo« stato »(cioè alla burocrazia) tutta una serie di iniziative che dovrebbero essere popolari. Perciò, nella scuola, più che autogoverno abbiamo « educazione civica » nel senso di integrazione in una struttura data come ottima. Anche sotto questo punto di vista una parola nuova sembra essere fornita, oggi, dalle esperienze socialiste extraeuropee. V
· IL PROBLE11.\ DELL'INDIVIDl'.\LIZ/..\ZIONE
Col termine « individualizzazione>> (applicato ali 'istruzione o je ali 'educazione) si indicano due complessi di comportamenti distinti, anche se, come vedremo, l'uno è implicato dall'altro. In primo luogo individualizzazione signinca elaborazione di tecniche didattiche tali da permettere all'alunno di acquisire, secondo ritmi e con modalità sue, un contenuto culturale che, comunque, è ancora imposto dall'alto (dalla scuola, dalla società) ed è lo stesso per tutti coloro che frequentano lo stesso tipo di scuola. Ma individualizzazione può significare, anche, organizzazione di un ambiente educativo atto a promuovere il pieno sviluppo di tutte le capacità potenziali dell'alunno, quali esse sono al momento in cui la società inizia nei suoi riguardi un'azione educativa intenzionale. Si tratta del radicale rifiuto del conformismo, della pretesa di modellare tutti gli esseri umani in un unico stampo, conseguente al riconoscimento del fatto che le variazioni sono il solo mezzo per ottenere sviluppo e progresso e che se non tutti i cambiamenti portano a miglioramento, non c'è però miglioramento senza cambiamento. Considereremo ora, in breve, la questione partitamente sotto i due punti di vista. La prima tecnica, proposta dalla pedagogia contemporanea per attuare l'individualizzazione secondo il primo degli anzidetti significati, è costituita dalla formazione di gruppi omogenei. Si tratta, anzitutto, di classi per alunni ritardati. La prima appare a Halle nel r 863. Nel 1901 a Bruxelles, Ovide Decroly apre un laboratorio di psicologia che segna anche la nascita dell'École d'enseignement spécial pour enfants irréguliers (Scuola di insegnamento speciale per fanciulli irregolari). In Francia nel 1908 una legge sancisce l'organizzazione di classi per ritardati, ciechi, sordomuti e instabili. Un passo avanti è rappresentato dal cosiddetto sistema di Mannheim (r9or) destinato a diffondersi attraverso una gamma di modificazioni, in Europa e negli Stati Uniti d'America, che distingue, in primo luogo, dai ragazzi normali, non solo quelli ipodotati ma anche i superdotati, essi pure vittime dell'organizzazione scolastica non differenziata. Fra gli ipodotati si vengono poi distinguendo coloro che rivelano deficienti capacità di apprendimento
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
da coloro che sono invece incapaci di adattarsi al comune regime scolastico a causa di squilibri nella sfera affettiva o in quella della socializzazione. La sistemazione più completa in questa direzione è quella realizzata a Ginevra a partire dal I925 e della quale è_stato promotore soprattutto Robert Dottrens. La scuola ginevrina comprende: I) il ciclo normale degli studi, 2) classi di sviluppo per fanciulli leggermente tardivi, lenti o di scarsa salute, 3) classi speciali per anormali mentali o fisici, 4) classi per fanciulli insofferenti del regime scolastico, 5) classi cosiddette « forti » per i superiori alla media, 6) classi di recupero per fanciulli ritardati per motivi contingenti. Una tappa fondamentale, nella letteratura sul tema dell'individualizzazione, è segnata dal libro del ginevrino Édouard Claparède L'école sur mesure (La scuola su misura, I 920 ). Claparède, accanto alle classi differenziali propone l'istituzione di classi « mobili», nelle quali sono ripartiti gli alunni forti e deboli nelle discipline fondamentali, così che lo stesso alunno può frequentare, per esempio, la classe forte per l'aritmetica e la debole per la lingua, senza essere esposto al pericolo della frustrazione conseguente ad un giudizio di inferiorità globale, tanto più che l'appartenenza al gruppo dei migliori, o degli scadenti, è temporanea. Oltre le classi mobili Claparède suggerisce l'istituzione di sezioni parallele caratterizzate dal fatto che in ognuna di esse si coltivano, accanto alle discipline fondamentali, alcune materie diverse da quelle coltivate nelle altre sezioni. Così si approda al sistema delle opzioni, destinato a diventare predominante nei progetti di riforma attorno alla metà del nostro secolo. I'~ chiaro che tutte le soluzioni fin qui considerate ci pongono davanti un processo di classificazione, sempre più articolato e raffinato, che serra l'individuo sempre più da presso, senza però, appunto in quanto « classificazione», raggiungerlo nella sua peculiarità irripetibile. In questa direzione, invece, e con particolare riguardo al processo di apprendimento, passi decisivi sono stati compiuti dal Dalton Plan e dalla tecnica delle schede elaborata a Winnetka da Washburne e messa ulteriormente a punto a Ginevra da Dottrens. Il Dalton Pian (dalla cittadina di Dalton nel Massachusetts) fu opera di miss Helen Parkhurst ed ebbe il suo collaudo definitivo nel I92o. La Parkhurst ritiene che si debba mettere il singolo alunno in condizioni di potersi dedicare alla materia che lo interessa, quando e per tutto il tempo in cui l'interesse permane. Perciò istituisce dei « laboratori », uno per ogni materia del corso di stu~i, debitamente attrezzati. La lezione viene sostituita dal lavoro individuale che ogni alunno compie, in base ai suoi bisogni ed ai suoi interessi, nel laboratorio adatto, servendosi del materiale e con la possibilità di collaborare coi compagni e di essere aiutato dall'insegnante. Esiste però un programma, anzi: la Parkhurst si vanta che il suo metodo possa essere applicato senza modificare per niente il programma vigente. Esso è diviso in blocchi ed ogni alunno deve raggiungere, alla fine di ciascun mese, il minimo richiesto in tutte le materie: in 39
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
caso contrario gli sarà vietato di procedere anche in quelle che gli sono più congeniali. Nella scuola di Winnetka, Washburne, che ne è il riformatore e il sovrintendente dal 1915 al 1943, elabora una tecnica che riprende alcuni «punti» già fissati da Frederik Burk, suo professore di pedagogia alla scuola normale di San Francisco e che ha come centro una serie di schede proponenti esercizi graduati per difficoltà, « autodidattica », e dei quaderni contenenti le soluzioni esatte degli esercizi stessi, « autocorrezione ». Riteniamo utile per il lettore riportare questi famosi punti, in quanto essi costituiscono un autentico paradigma nel quadro dell'istruzione individualizzata. Eccoli: 1) il materiale da apprendere deve essere articolato in argomenti particolari, preparati in modo da risultare il più possibile semplici e chiari; z) bisogna fornire all'alunno degli strumenti che gli rendano possibile autocorreggersi; 3) i compiti vanno differenziati, curando a parte i fanciulli lenti nell'apprendere; 4) il lavoro deve essere individuale: il singolo alunno deve poter passare, una volta completata una fase di lavoro, a un'unità successiva prescindendo dal ritmo dei compagni; 5) quando un ragazzo è pronto in qualche materia per la classe successiva deve poter proseguire senza cambiare classe; 6) non si fa mai ripetere una classe. L'alunno che non ha completato la sua preparazione in qualche materia alla fine di un anno scolastico, ripartirà, all'inizio dell'anno nuovo, dal punto raggiunto; 7) ogni alunno deve essere stimolato, in momenti a lui particolarmente felici, a brevi periodi di sforzo intenso; 8) non si danno compiti a casa; 9) la preparazione individuale deve essere completata con attività creative e sociali. Finora abbiamo considerato l'individualizzazione attribuendo al termine il primo dei significati illustrati all'inizio di questo paragrafo. Ora è chiaro che, intesa così, l'individualizzazione si presta ad essere sfruttata nel quadro e per i fini dell'educazione più tradizionale, con l'aggravante di rendere i contenuti tradizionali più agevolmente assimilabili, eliminando così o riducendo al minimo i motivi di critica e di contrasto, e di contribuire, perciò, alla piena integrazione dell'individuo nel sistema. Tipico risulta, in tal senso, il caustico giudizio formulato da Kilpatrick nei riguardi del Dalton Plan: « Una delle principali ragioni che hanno contribuito alla diffusione del Dal ton Plan è che la gente trede di fare qualcosa di nuovo mentre in realtà esso non introduce alcuna innovazione nei punti essenziali ». Ma individualizzare il processo dell'istruzione e dell'educazione può anche avere un altro significato, come sappiamo; può infatti voler dire: creare un am-
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
biente nel quale il singolo trovi tutti i sussidi che lo possono aiutare a realizzarsi pienamente, con tutte le sue caratteristiche peculiari. «Non è l'individuo ben equilibrato che noi vogliamo, » scrive a questo proposito Washburne, « ma l'individuo pienamente sviluppato, sviluppato secondo le proprie possibilità naturali, intendendo per possibilità naturali quelle di cui l'individuo dispone guando noi iniziamo nei suoi riguardi un processo educativo organizzato e intenzionale e che sono costituite in parte dal bagaglio ereditario, in parte dall'azione, fortunatamente non organizzata né finalizzata, dell'ambiente. » Abbiamo già, più volte, richiamato l'attenzione del lettore sul fatto che il riconoscimento e addirittura la sollecitazione del libero sviluppo delle caratteristiche peculiari che fanno di ogni individuo un essere praticamente irripetibile, appare, nella storia della civiltà moderna e contemporanea, collegato assai più con la constatazione che le variazioni sono condizione di ogni progresso che non con l'impegno a fornire al singolo la possibilità di autoespressione quale condizione per la sua felicità. In questa impostazione prevalentemente sociologico-oggettiva del problema è la causa principale delle contraddizioni, delle incertezze, dei limiti delle soluzioni proposte. Una lettura attenta dei testi fondamentali sull'argomento, condotta sotto questo angolo visuale, risulta particolarmente stimolante. Lo stesso Kilpatrick che accusa di scarso radicalismo, anzi di sostanziale conformismo il Dalton Pian, è pur sempre quello che, come abbiamo visto, pensa che si debba concedere di fare quel che vuole solo a chi abbia imparato a volere quel che è bene fare. Ma c'è di più: a poche pagine di distanza, nello stesso libro (che già citammo nel paragrafo m), egli ammette che l'educatore, pur di far fare all'educando esperienze «fruttuose» che lo portino a volere il bene, cioè ad essere a un tempo buono e libero, « disponga la scena » e « trucchi i dadi », secondo la più tipica strategia rousseauiana. · Lo stesso Dewey, per il quale «la sociabilità, l'iniziativa, l'innovazione, il dipartirsi dalla routine, l'esperimento ... sono le cose che ci sono preziose con il nome di libertà [e la cui] assenza dalla vita di uno schiavo è ciò che la rende servi le e insopportabile ... », si preoccupa, in numerosissimi luoghi, di distinguere la libertà dal capriccio e, come sappiamo, fissa quale essenziale compito della scuola, guello di « rastrellare tutto ciò che è indesiderabile» dal campo dell'esperienza. Jean Piaget dichiara esplicitamente:« Educare significa adattate l'individuo all'ambiente sociale. Ma i metodi nuovi cercano di favorire l'adattamento facendo leva sulle tendenze proprie dell'infanzia e sull'attività spontanea inerente allo sviluppo mentale ... » (P~ychologie et pédagogie [Psicologia e pedagogia, I 969]). Washburne riconosce che « la questione non è semplice » e non solo distingue gli impulsi momentanei, che « possono essere di corte vedute » e contro i quali sono necessari l'azione di guida e magari l'esercizio dell'autorità, dai bisogni definitivi, il cui rispetto è doveroso se si vuole la felicità dell'individuo, ma elabora 41
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
la famosa teoria del « minimo essenziale comune » secondo la quale, perché possa sussistere una società civile, è indispensabile che i suoi membri posseggano (e quindi che l'educazione trasmetta)« un ideale comune e lavolontàdi raggiungerlo; una base comune di comprensione e di sapere, espressa in una lingua comune, che si parla, si legge e si scrive con facilità; un sistema comune di misure e di numeri e pratica nell'adoperarli; un insieme di convenzioni alle quali ci si conforma». Solo entro questi limiti, dunque, vale l'affermazione, da noi già considerata, secondo la quale un'educazione progressiva mira a realizzare «un individuo pienamente sviluppato secondo le sue possibilità natur~li ». Il punto centrale della questione è, ovviamente, quello che riguarda i limiti entro i quali l'espansione della personalità è considerata accettabile. Si tratta di stabilire un quadro di riferimento: ma su quali basi? Afferma Anna Anastasi, una delle massime autorità nel campo della psicologia differenziale, che « molte affermazioni definite di psicologia generale non sono affatto generali, ma si basano sul particolare comportamento umano che si sviluppa in una particolare cultura » e che « molti libri di testo di psicologia generale potrebbero essere più esattamente definiti testi di psicologia degli americani e degli europei occidentali » di un determinato periodo storico e così via. John Dallard precisa che «per lo psicologo sociale, le tre lettere dell'alfabeto più indispensabili sono r.o.c. (in our culture [nella nostra cultura]) in quanto tutte le descrizioni del comportamento che vengono presentate come aventi valore generale sono di fatto valide solo entro il nostro contesto culturale. Non esistono osservatori «ingenui», nota ancora la Anastasi. Nessuno _può emettere giudizi indipendenti dalla propria esperienza. La differenza che esiste tra due osservatori diversi dipende dai diversi tipi di esperienza vissuti in passato. Il discorso vale anche, e in particolar modo, allorché si affronta la delicatissima questione della « normalità » e della « anormalità ». Messa tra parentesi l'accezione, accolta per lo più in medicina, secondo la quale «anormale» è solo l'individuo i cui caratteri sono tali da rendergli impossibile o quasi il far fronte alle eventuali esigenze vitali, possiamo considerare anormalità il discostarsi dalla « norma » intesa o come uno standard di valori, o come il comportamento della media. Nel primo caso la norma è un ideale teorico, nel secondo si identifica col costume, in entrambi la sua portata è esclusivamente storica. Albert K. Cohen riferisce che un'indagine relativa a diciannove tipi di reati sessuali in centodieci gruppi sociali diversi, ha constatato punizioni varianti da semplici rimproveri e da piccole multe fino alla tortura e alla morte. Perciò parlare di« natura», di comportamento naturale, di un'educazione che accetti ed anzi favorisca le manifestazioni spontanee individuali negli alunni per promuovere lo sviluppo, in loco, della « natura » umana e, quindi, entro i limiti stabiliti da tale « natura », appare ormai un nonsenso. La parola « naturale » scrive Heinz Hartmann- serve solo a contrabbandare come conoscenza oggettiva
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
quelle che sono soltanto delle finalità soggettive. Ma non è possibile una determinazione scientificamente fondata e in quanto tale intersoggettivamente valida pur nel rispetto della libertà di giudizio? Ecco, a parer nostro, uno dei massimi se non il massimo problema della pedagogia contemporanea. Heinz Hartmann, psicoanalista, risponde di no e afferma che ogni fine proposto all'educazione, e sia pure il fine di instaurare un diffuso comportamento ispirato alla ragione, sarebbe comunque proposto per via non razionale. Si tratta di una delicata e complessa questione filosofica su cui ritorneremo nel capitolo vr del volume nono. Abbiamo comunque conquistato un punto di notevole importanza: storicamente, l'espansione della personalità, con le sue caratteristiche originali, risulta accettata e addirittura promossa dalla civiltà moderna purché il suo impulso creatore sia contenuto entro i limiti del sistema vigente. In un acuto e stimolante libro, gli americani Charles J. Brauner e Hubert W. Burns osservano che « quando il desiderio di confort, di sicurezza e di quella tranquillità che deriva dalla mancanza di pensiero divengono una preoccupazione nazionale, l'impulso a rischiare, tanto necessario alla creatività, rimane isolato in pochi individui. Allora la creatività e l'uomo creativo si trasformano in una minaccia. La volontà di rischiare appare tanto anormale che è addirittura considerata come un fatto di follia ». L'uomo è un evento essenzialmente storico e il pretendere di fornirgli un'educazione che lo lasci completamente libero di svolgersi secondo «natura» se non è interessata mistificazione filistea è ingenuo affidarsi alla magia. Del resto, come nota il già citato Heinz Hartmann, « un comportamento passivo degli educatori costituisce un intervento altrettanto quanto un comportamento attivo », « illassismo altrettanto quanto la severità » ecc. Il fanciullo « ingenuo » è un mito che tuttalpiù potrà assumere il significato di un limite. Le abitudini, gli interessi, la stessa struttura psicofisica con la quale egli varca la soglia della scuola, sono state e sono continuamente condizionate da mille e mille stimoli, spesso non avvertiti a livello della coscienza, provenienti dall'ambiente, il che spiega come taluni educatori giungano alla conclusione secondo la quale, dal momento che la famosa « tabula rasa » non esiste, tanto vale che, invece di adeguarsi passivamente al capriccio dei condizionamenti extrascolastici casuali, la scuola si organizzi in modo da « suscitare » determinati interessi. Anche Washburne condivide esplicitamente questo punto di vista che però - il lettore pensi a quanto è stato detto a proposito di Rousseau - cela tutti i pericoli di una perversione dell'educazione progressiva· in chiave di tolleranza repressi va. La constatazione della molteplicità e della storicità, e quindi della relatività, di tutti i modelli, deve essere tenuta presente soprattutto a proposito dei problemi dell'orientamento e della selezione. « Superiorità e inferiorità sono parole che non hanno senso se prese in se stesse, » - afferma Dewey - si riferiscono sempre a qualche modello specifico. « Nelle scuole di retorica in Roma antica, » osservano Brauner e Burns, « Cicerone era la
43
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
personificazione della perfezione; Aristotele sarebbe forse stato un fallito. Al contrario, nella scuola di Aristotele o nell'Accademia di Platone, un Cicerone non sarebbe sopravvissuto. » Spingendo questa impostazione fino al limite del paradosso, si può giungere ad affermare l'individualità del modello. « Ogni essere umano, » dichiara ancora Dewey, « come singolo può essere il migliore per qualche scopo particolare, perciò il più adatto a dar nome e far da guida in quel rispetto specifico. »È chiaro che, a questo punto, il rispetto dei tratti individuali porta non solo alla liquidazione di ogni pretesa di selezione e di orientamento nel campo più propriamente scolastico ma al rifiuto di ogni discriminazione fra comportamenti normali ed anormali, legittimi ed illegittimi. Il che significherebbe la fine della società organizzata. VI
· LA CRITICA ALLA SCUOLA PROGRESSIVA NEL CAMPO BORGHESE
Sarebbe un imperdonabile errore identificare puramente e semplicemente la scuola degli Stati Uniti d'America con la scuola attiva e progressiva. In realtà la scuola attiva e progressiva ha incontrato in America gravi difficoltà nel campo dell'applicazione pratica e vivacissime opposizioni in quello del dibattito teonco. Per quanto riguarda il primo punto è significativo il giudizio emesso, nel 1929, dal pedagogista tedesco Erich Hylla secondo il quale, nonostante l'indiscutibile vivo interesse per l'educazione nuova, nelle scuole degli Stati Uniti perdurano, come dappertutto nel mondo, criteri tradizionali, metodi mnemonici e libreschi. Nei decenni successivi, indubbiamente, si è avuto un notevole aumento delle scuole ispirate genericamente ai principi del progressivismo o fe più specificamente al pensiero deweyano. Ma, come già era capitato a tanti grandi pedagogisti e maestri del passato (basti pensare a Froebel), le applicazioni, attuate spesso in modo superficiale e meccanico, senza fondarsi sopra una seria comprensione del significato delle teorie, si risolsero talora in vere caricature, disponibili per la critica più ovvia. Ciò non toglie che sul piano teorico il dibattito abbia raggiunto un livello notevole, investendo gli aspetti più significativi non solo della pedagogia deweyana, ma anche della filosofia con essa solidale e della cultura contemporanea nel suo complesso. La polemica comincia già negli anni trenta, a seguito della grande crisi del 1929, crisi di cui alcuni studiosi vogliono scorgere le cause non già nelle contraddizioni del sistema capitalistico ma nel difetto di valori etico-culturali che, a sua volta, dipenderebbe dalla affermazione di una filosofia monistico-naturalistica, utilitaristica, edonistica. Nel 1945 dodici membri del corpo accademico dell'università di Harvard pubblicano un « Rapporto » che, ispirandosi abbondantemente al platonismo di 44
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
Whitehead, polemizza contro un'educazione la quale rafforza la perniciosa tendenza della mente a perseguire obiettivi attuali ed auspica un'educazione che, al contrario, spezzi «la presa soffocatrice del presente». Tale liberazione, a sua volta, potrà fondersi esclusivamente sulla riscoperta dei valori eterni, sia pure colti nella loro « inserzione » nel momento storico, cioè sulla sintesi di tradizione e mutamento, con l'accento, però sulla tradizione. Più drastico è l'atteggiamento assunto dalla scuola di Chicago, della quale il più significativo esponente è Robert Maynard Hutchins. La scuola di Chicago va a fondo nella rivendicazione di un principio che, superando il frammentarismo e lo specialismo, il fluire degli eventi e degli individui, ricostruisca un corpo compatto di credenze unificato attorno al «vero» e al« valore».« L'educazione implica l'insegnamento. L'insegnamento implica la conoscenza. La conoscenza è la verità. La verità è dappertutto la stessa. Perciò l'educazione deve essere dappertutto la medesima ... » Nulla di più logico, a questo punto, della convergenza dell'idealismo di Hutchins col neo-tomismo di Mortimer Adler e di Jacques Maritain. « Essi, » scrive Lamberto Borghi, « si son foggiati il fantoccio di un anarchismo educativo promosso dallo scientificismo e contro questo comodo bersaglio scagliano i loro dardi coinvolgendo tutto il movimento del pensiero contemporaneo nella loro condanna e nel loro disprezzo. » La pedagogia deweyana è la pedagogia dell'esistenza e del contingente. Negando la legittimità di ogni azione direttiva da parte dell'adulto e dell'insegnante essa si risolve in una resa a discrezione ai bisogni ed ai capricci dei fanciulli. Inoltre pecca di tecnicismo didattico e di rifiuto della tradizione: in sintesi è la pedagogia della non-cultura. Contro di essa si auspica la rivalutazione dei modelli direttivi perenni, rintracciabili in quei non più di quattro o cinquecento volumi che soli sono stati scritti per tutti gli uomini e trascendono il mutare delle civiltà. Si tratta, come osserva Roberto Mazzetti, di una «operazione di storicismo sapienziale retrospettivo>> considerata l 'unica valida perché l'America esca dalla crisi che la minaccia di rovina. Dopo la seconda guerra mondiale la polemica si acuisce e, scendendo dall'olimpo accademico, assume toni più accesi e forma più rozza. La scuola progressiva paga indubbiamente il prezzo del pressappochismo e della infatuazione dilettantesca. La polemica, però, mentre permette allo studioso attento di cogliere alcune contraddizioni essenziali al movimento pedagogico che fa capo al pensiero di Dewey, rivela nei contendenti scarsa conoscenza di tale pensiero e incapacità di penetra~e nel significato più profondo di una crisi che non è solo scolastica ma investe l'intero sistema economico e sociale. Rileva a questo proposito Oscar Handlin: « Si è manifestata una tendenza crescente ad attribuire i difetti dell'educazione americana ad un'unica causa. Se il piccolo John non sa leggere, se aumenta la delinquenza minorile o se i divorzi si fanno più frequenti, se si crede che i nostri scienziati non riescano a stare al passo con quelli sovietici, la colpa è sempre
45
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
dell'azione corrosiva dell'educazione progressiva.» «Il diavolo,» osserva George Stoddard, « ricompare sotto le spoglie del fantasma del mite, umano, studioso John Dewey, un uomo che ha lavorato tre quarti di secolo per liberare la vita dei giovani dai paraocchi della scolastica e della superstizione medievale. » Ma nell'epoca in cui fu forte la «richiesta di cieca credulità avanzata sotto il regno del terrore di Mc Carthy o dell'idiozia dei Birch »e alla scuola si chiedeva di foggiare anticomunisti fanatici (ma, al tempo stesso, creduli consumatori e astuti venditori) (Brauner e Burns) gli esempi di questo genere sono innumerevoli nella stampa americana. Passata l'ondata del maccartismo, la discussione ha cominciato a farsi più pacata e seria ma non per questo meno grave. In verità la scarsa importanza attribuita ai contenuti, unita alla inevitabile tendenza a trasformare l'attivismo in un pedocentrismo permissivo, non potevano non portare a risultati preoccupanti. «Non poteva mancare di preoccupare le persone responsabili dello sviluppo scientifico e tecnico di quel Paese il fatto che il contenuto e il livello della maggior parte dei corsi di scienze nelle scuole secondarie USA era semplicemente spaventevole. Non appare dubbio che ciò fosse in gran parte dovuto alle mode pedagogiche che erano prevalse tra le due guerre, per cui lo studio delle scienze, reso op?:ionale in nome dei principi della rivoluzione copernicana, veniva scartato dalla maggior parte degli studenti e, d'altra parte, i libri di testo di ogni specifica materia erano scritti non più prevalentemente dagli specialisti delle materie stesse, ma da specialisti in scienze dell'educazione» (Bruno Ferretti). Così già nel 195 5 è avviato un « Project » avente lo scopo di affrontare in modo organico il problema della riforma dei programmi e dei metodi di studio delle scienze e in particolare della fisica: tale progetto viene posto sotto la direzione di un comitato, il Physical science study committee (P.s.s.c.). La messa in orbita del primo Sputnik sovietico, diffondendo l'incubo di una possibile sconfitta nella gara tecnologica col grande rivale, scatenerà una vera ondata di ritorno in campo pedagogico. La più importante iniziativa, e la più seria, nel campo della restaurazione scolastica in usA, è costituita indubbiamente dal simposio tenutosi a Woods Hole, nel Massachusetts, nel settembre I 9 59 e al quale parteciparono trentacinque scienziati (matematici, fisici, logici, epistemologi, psicologi e due soli pedagogisti) sotto la presidenza di Jerome S. Bruner, professore di psicologia ad Harvard. Non possiamo soffermarci, qui, sulle dottrine psicologiche di Bruner. Le critiche da lui mosse a Dewey sono fondamentalmente due: quella di aver ridotto l' educazione a mero adattamento alla società presente e quella di pedocentrismo. Si tratta, come il lettore è in grado di rilevare, di accuse sostanzialmente infondate e che lasciano perplessi circa la conoscenza dei testi deweyani da parte di Bruner o je circa la sua buona fede. Va chiarito, però, che Bruner combatte non tanto contro Dewey quanto contro il pernicioso deweysmo d'accatto. Ci limitiamo a richiamare due punti, centrali, del programma di Woods Hole. In primo luogo l'importanza
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
attribuita al concetto di struttura, da non confondere, nonostante una certa analogia, con i vecchi «concetti generali». La struttura è costituita dall'impostazione logica, dai gangli vitali, dall'organizzazione interna delle varie teorie, materie, discipline, tecniche. La comprensione delle strutture, si dice, rende più interessante una disciplina; rende più facile il ricordo delle nozioni; costituisce la via maestra per realizzare il cosiddetto transfert non specifico; riduce la distanza che separa la conoscenza « superiore » da quella « elementare ». Ed eccoci al secondo punto. La pedagogia nata a Woods Hole accetta pressoché integralmente la psicologia genetica di Piaget, dalla quale trae gli argomenti per una restaurazione della teoria della traducibilità dei contenuti in più linguaggi. Jerome Bruner dichiara di avere «la ponderata convinzione che una qualunque idea si possa tradurre in modo corretto e utile nelle forme di pensiero proprie del fanciullo di età scolastica ». Senonché, ora, non si tratta più di fondare una scuola strutturata per cicli chiusi, sibbene una scuola « a spirale ».In altre parole: si tratta di guidare il bambino a cogliere le strutture della realtà dapprima mediante la manipolazione, successivamente attraverso l'organizzazione delle percezioni e delle immagini, infine mediante la creazione e l 'uso di un apparato simbolico. Evidentemente il significato di « traducibilità » è, qui, profondamente diverso da quello tradizionale. La preoccupazione è, ora, quella di avviare gradualmente il maggior numero possibile di individui ad impadronirsi dell'autentico discorso scientifico. Ma quello che ci sembra di dover maggiormente sottolineare è il fatto che la meta a cui si tende non è tanto la realizzazione di una più sostanziale democrazia, secondo il modello deweyano, quanto la creazione di una élite di tecnocrati capaci di garantire indefinitamente il potere alla classe attualmente dominante. Del resto a far apparire sospetta la pedagogia di Bruner, che pure si fonda su considerazioni psicologico-didattiche molto serie le quali per certi aspetti richiamano alcuni argomenti che abbiamo incontrato occupandoci della scuola sovietica, contribuisce senz'altro la sua « filosofia», incentrata sulla esaltazione della « mano sinistra » e cioè dell'istinto, del simbolismo, delle vie poetiche della conoscenza e soprattutto del «mito», massimo garante dell'azione collettiva. La scuola progressiva non è attaccata, però, solo dai conservatori che auspicano restau_razioni metafisiche, religiose ed autoritarie. Essa è considerata fallita anche da studiosi di tutt'altra impostazione culturale, che aspirano a soluzioni diametralmente opposte e le muovono accuse complementari rispetto a quelle che abbiamo fin qui considerate. Ci limiteremo a citare, per tutti, il giudizio dello psicoanalista Erich Fromm. Nella prefazione allibro di Alexander S. Neill Summerhill, a radica! approach to chi/d rearing (Summerhill, un approccio radicale all'educazione dei fanciulli), Fromm
47
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
ci fornisce una lucida analisi della crisi a cui l'attivismo pedagogico non poteva non andare incontro a causa della sua intima contraddittorietà. Le idee di libertà, democrazia, autodeterminazione - egli dice - messe in circolazione dai pensatori progressisti già nel xvm secolo, hanno cominciato a diventare operanti nel campo dell'educazione durante la prima metà del xx secolo. Si trattava, com'è ormai universalmente noto, di sostituire la libertà all'autorità, di educare il fanciullo senza ricorrere alla forza, facendo leva, invece, sui suoi desideri, la sua curiosità, il suo interesse per il mondo circostante. Senonché negli ultimi anni si è venuto diffondendo, a proposito dei nuovi metodi di educazione progressista, un sentimento di delusione, di disagio e spesso addirittura di avversione. Fromm è d'accordo nell'attribuire questo fenomeno in parte al notevole successo ottenuto in campo educativo nell'Unione Sovietica, dove verrebbero applicati ancora i vecchi metodi autoritari; scorge però la più profonda causa di esso nel « pervertimento » del principio di libertà. Riprendendo motivi ampiamente svolti nelle sue opere fondamentali 1 secondo i quali per il buon funzionamento di una società è indispensabile che l'uomo venga plasmato fin dall'infanzia in modo da rispondere ai bisogni della società stessa - ragion per cui il compito degli educatori consiste nell'ottenere che l'educando giunga a desiderare di agire precisamente nel modo in cui è necessario agire perché un dato sistema economico, sociale e politico venga conservato - Fromm introduce la distinzione fra autorità coercitiva e autorità anonima. La prima è esercitata esplicitamente, ordina di agire in un certo modo minacciando sanzioni per il caso contrario; la seconda tende a celare l'uso della forza, negando addirittura che vi sia qualsiasi imposizione e dando a vedere che tutto è fatto col consenso dell'individuo. «Nel primo caso si impiega la forza, nel secondo la manipolazione psichica. » Si tratta di un processo di trasformazione che ha investito il fatto educativo globalmente, in tutti i campi e a tutti i livelli: dalla famiglia alla scuola, dalla propaganda politica a quella per lo smercio dei prodotti, ai mezzi di informazione di massa e che ha la sua matrice, sul piano strutturale, nelle necessità organizzative della società industriale moderna. Dal campo della produzione a quello dei consumi « il nostro sistema ha bisogno di individui che credano di essere liberi ed indipendenti, ma che, ciononostante, si comportino così come ci si aspetta che essi si comportino; uomini che si inseriscano senza attriti nella macchina sociale, che possano essere guidati senza forza, comandati senza capi e indirizzati senz'altra ambizione che non sia quella di fare le cose come si deve». L'educazione progressista si è risolta precisamente in questo. Ha ricoperto di zucchero la vecchia pillola, non l'ha sostituita con qualcosa di radicalmente nuovo. Al posto di I Manfor himself(L'uomo per se stesso, 1947); The sane society (La società equilibrata, 19~ ~). i
www.scribd.com/Baruhk
P•oblemi fondamentali della pedagogia contemporanea
un'educazione autenticamente non autoritaria si è spacciata l'educazione mediante la persuasione e la coercizione occulta. La rivoluzione pedagogica iniziatasi all'insegna del copernicanesimo, dell'attivizzazione dell'educando, del progresso continuo, appare così svuotata di significato e per questo condannata a fallire.
www.scribd.com/Baruhk
Problemi fondamentali della pedagogia contemporanea
ci fornisce una lucida analisi della crisi a cui l'attivismo pedagogico non poteva non andare incontro a causa della sua intima contraddittorietà. Le idee di libertà, democrazia, autodeterminazione- egli dice- messe in circolazione dai pensatori progressisti già nel xvm secolo, hanno cominciato a diventare operanti nel campo dell'educazione durante la prima metà del xx secolo. Si trattava, com'è ormai universalmente noto, di sostituire la libertà all'autorità, di educare il fanciullo senza ricorrere alla forza, facendo leva, invece, sui suoi desideri, la sua curiosità, il suo interesse per il mondo circostante. Senonché negli ultimi anni si è venuto diffondendo, a proposito dei nuovi metodi di educazione progressista, un sentimento di delusione, di disagio e spesso addirittura di avversione. Fromm è d'accordo nell'attribuire questo fenomeno in parte al notevole successo ottenuto in campo educativo nell'Unione Sovietica, dove verrebbero applicati ancora i vecchi metodi autoritari; scorge però la più profonda causa di esso nel « pervertimento » del principio di libertà. Riprendendo motivi ampiamente svolti nelle sue opere fondamentali 1 secondo i quali per il buon funzionamento di una società è indispensabile che l'uomo venga plasmato fin dall'infanzia in modo da rispondere ai bisogni della società stessa - ragion per cui il compito degli educatori consiste nell'ottenere che l'educando giunga a desiderare di agire precisamente nel modo in cui è necessario agire perché un dato sistema economico, sociale e politico venga conservato - Fromm introduce la distinzione fra autorità coercitiva e autorità anonima. La prima è esercitata esplicitamente, ordina di agire in un certo modo minacciando sanzioni per il caso contrario; la seconda tende a celare l'uso della forza, negando addirittura che vi sia qualsiasi imposizione e dando a vedere che tutto è fatto col consenso dell'individuo. «Nel primo caso si impiega la forza, nel secondo la manipolazione psichica. » Si tratta di un processo di trasformazione che ha investito il fatto educativo globalmente, in tutti i campi e a tutti i livelli: dalla famiglia alla scuola, dalla propaganda politica a quella per lo smercio dei prodotti, ai mezzi di informazione di massa e che ha la sua matrice, sul piano strutturale, nelle necessità organizzative della società industriale moderna. Dal campo della produzione a quello dei consumi « il nostro sistema ha bisogno di individui che credano di essere liberi ed indipendenti, ma che, ciononostante, si comportino così come ci si aspetta che essi si comportino; uomini che si inseriscano senza attriti nella macchina sociale, che possano essere guidati senza forza, comandati senza capi e indirizzati senz'altra ambizione che non sia quella di fare le cose come si deve». L'educazione progressista si è risolta precisamente in questo. Ha ricoperto di zucchero la vecchia pillola, non l'ha sostituita con qualcosa di radicalmente nuovo. Al posto di I
Manfor himself(L'uomo per se stesso, 1947); The sane society (La società equilibrata, 195 5).
www.scribd.com/Baruhk
P•oblemi fondamentali della pedagogia contemporanea
un'educazione autenticamente non autoritaria si è spacciata l'educazione mediante la persuasione e la coercizione occulta. La rivoluzione pedagogica iniziatasi all'insegna del copernicanesimo, dell'attivizzazione dell'educando, del progresso continuo, appare così svuotata di significato e per questo condannata a fallire.
49 www.scribd.com/Baruhk
CAPITOLO TERZO
La ftlosojìa italiana contemporanea DI LUDOVICO GEYMONAT E MARIO QUARANTA
I
• STRUTTURA DEL CAPITOLO
In questo capitolo sulla filosofia italiana contemporanea viene presentata l'attività di tre generazioni di filosofi; quella dei primi decenni del secolo (a integrazione di quanto si trova nel capitolo xx del volume settimo), quella degli anni venti-trenta e infine l'ultima, degli anni quaranta. La caratteristica più evidente dei primi filosofi è stato l'atteggiamento di critica assunto verso il positivismo, parallelo ma convergente con la critica condotta dall'idealismo: il loro punto d'approdo è stato sostanzialmente spiritualistico o metafisica o fenomenistico, comunque lontano da quell'esigenza di uni ficazione delle « due culture », che era alla base del! 'iniziale proposta positivistica. In questo contesto è stata fatta una messa a punto dei complessi motivi - culturali e teorici- che sono alla base delle difficoltà nei rapporti tra scienza e filosofia, riscontrabili anche in quei filosofi che hanno riconosciuto un peso decisivo al sapere scientifico. Sono poi presentati i filosofi che hanno avanzato alcune critiche all'interno dell'attualismo. Essi hanno ripreso la tematica dei rapporti tra scienza e filosofia, senza però giungere a un serio risultato innovativo. Tali critiche hanno indotto questi studiosi ad affrontare alcuni problemi - teorici e storiografici - non affrontati o trascurati dall'attualismo, il quale negli anni trenta andava accentuando sempre più l'aspetto dogmatico-metafisica del suo sistema. Abbiamo segnalato, nel paragrafo xv, quell'orientamento neokantiano che ha assolto una funzione non trascurabile negli anni trenta, con la rivalutazione di un Kant sostanzialmente illuminista, anche se poi molti ne hanno tentato una integrazione di carattere metafisica. L'esito complessivo di tale orientamento non è stato però un serio recupero della problematica scientifica, ma piuttosto l'accentuazione - in direzione antistoricistica - dei valori etici. In questo contesto, una posizione particolare è stata riconosciuta all'attività culturale e teorica di Antonio Banfi, il quale ha svolto un'ampia ed efficace azione di rinnovamento e aggiornamento della cultura filosofica italiana, in direzione anti-idealistica. Nel paragrafo VI abbiamo sottolineato il notevole cambiamento della pro-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
blematica filosofica dei filosofi della terza generazione, rispetto alla precedente: infatti gli orientamenti filosofici che ora si affermano non si richiamano- se non polemicamente- a quelli dominanti nei primi decenni del Novecento. Si avverte un fervore di iniziative culturali che trovano espressione nelle nuove riviste filosofiche e nel rinnovamento di alcune che, durante il fascismo, avevano assolto una funzione positiva, non piegandosi a compromessi con la cultura tradizionale. A queste correnti filosofiche sono dedicati quattro ampi paragrafi. Abbiamo dato una adeguata informazione anche sullo spiritualismo e il neotomismo, la cui importanza non risiede tanto in un rilevante contributo teorico (molto modesto se confrontato con quello dato, ad esempio, dallo spiritualismo francese), quanto in uno politico-culturale. L'Italia infatti, contrariamente alla Francia, in cui le élites dirigenti sono sempre state laiche e di orientamento razionalistico, ha avuto nel secondo dopoguerra un personale politico dirigente cattolico; di qui il rilievo tutto particolare assolto da quelle due correnti. Un posto rilevante è stato assegnato al marxismo italiano, nelle sue diverse articolazioni, con una conclusiva proposta teorica di materialismo dialettico e una precisazione sulla differenza rispetto al marxismo « storicistico » degli anni cinquanta. In questo capitolo non abbiamo inteso offrire una esauriente ricostruzione storica del pensiew dei singoli filosofi, né ripercorrere le vicende culturali suscitate da alcuni significativi lavori filosofici e dai dibattiti che con frequenza e vivacità si sono sviluppati in quest'ultimo dopoguerra. Degli autori abbiamo sottolineato soprattutto gli aspetti che riteniamo più significativi e importanti in relazione al problema gnoseologico e ai rapporti tra scienza e filosofia, in armonia con l'orientamento generale di quest'opera. II
• DIFFICOLTÀ NEI RAPPORTI TRA SCIENZA E FILOSOFIA DURANTE I PRIMI DECENNI DEL SECOLO
Sono ben note le difficoltà incontrate dalla filosofia italiana, nei primi decenni del nostro secolo, a realizzare una solida e fruttuosa collaborazione con la scienza. Senza dubbio tali difficoltà furono in parte dovute al prevalere, nell'anzidetto periodo, dell'idealismo crociano e gentiliano, ma sarebbe inesatto attribuirne tutta la colpa a questi indirizzi-; in verità le radici del fenomeno vanno cercate assai più indietro. Converrà all'uopo ricapitolare anzitutto alcune notizie già esposte in precedenza. Se nella prima metà del secolo XIX soltanto Cattaneo aveva difeso con energia la necessità di aprire la filosofia alle istanze della scienza, si potrebbe pensare che la situazione si sia radicalmente modificata negli ultimi decenni del secolo, quando la cultura italiana fu do~inata dalle concezioni positivistiche. In realtà la modificazione fu più apparente che profonda. In effetti lo stesso capo-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
scuola del positivismo italiano, Roberto Ardigò, difese l'esigenza di collegare scienza e filosofia in una forma molto generica e dogmatica, sicché la sua difesa poté esercitare un ruolo positivo solo « nel contesto di una situazione, come quella italiana, in cui lo stadio della conoscenza e dell'approfondimento delle scienze era relativamente modesto almeno fino alla fine del secolo » (vol. vr, p. zo6). In altri termini; essa si rivelò estremamente debole perché basata su un'accettazione in gran parte acritica (fuorché in alcuni settori particolari come la psicologia) dei « risultati delle scienze contemporanee senza dimostrare alcun interesse verso quei problemi metodologici che proprio in quel periodo si manifestavano nella più avanzata cultura scientifica europea » (id.). La cosa appare sorprendente se teniamo conto che, all'incirca nel medesimo torno di anni, alcuni matematici italiani davano contributi notevolissimi al problema dei fondamenti della loro scienza; basti menzionare i lavori di Eugenio Beltrami sull'interpretazione della geometria non euclidea iperbolica (r866) e quelli di Peano sull'assiomatizzazione dell'aritmetica (r889). Il mancato riconoscimento da parte di Ardigò dell'importanza di tali lavori conferma quanto abbiamo detto più sopra, e spiega d'altro lato il disinteresse di gran parte degli scienziati italiani per il positivismo, malgrado la pretesa di quest'ultimo di presentarsi come la vera filosofia scientifica. E così la vecchia separazione fra scienza e filosofia rimase pressoché immutata. Chi diede un significativo contributo al suo superamento fu invece Giovanni Vailati, uno dei più acuti pensatori dell'epoca, che non proveniva dalla scuola di Ardigò ma da quella di Peano. Come si è detto nel capitolo xr del volume settimo « il problema dei rapporti fra filosofia e scienza è stato al centro del suo interesse, con una posizione polemica sia verso i positivisti sia verso gli idealisti ». Ma la sua scomparsa a soli quarantasei anni, oltreché gli equivoci derivanti dalla collaborazione che intrattenne con Giovanni Papini, impedì alla sua azione di raggiungere gli scopi che si proponeva. Va comunque notato che, malgrado il relativo isolamento in cui viveva (non appartenendo al mondo accademico), egli sentiva di non essere solo nella difesa dell'anzidetto programma di riavvicinamento serio della filosofia alla scienza. Riconosceva infatti di avere un autentico alleato nel grande matematico Federico Enriques, professore di geometria superiore prima nell'università di Bologna poi in quella di Roma, da lui considerato come « facente parte di quel nuovo indirizzo di studi filosofici che tende a far assumere al pensiero contemporaneo un'attitudine tutta nuova di fronte ai problemi cosiddetti "metafisici ", un'attitudine che con nessun'altra si trova tanto in contrasto quanto con quella di disinteressamento agnostico assunta dalla maggior parte dei positivisti ». Purtroppo però neanche Enriques (1871-1946) riuscl ad esercitare un'influenza determinante sulla cultura filosofica italiana, né con le sue opere di pretto interesse teoretico, come I problemi della scienza (19o6) e Scienza e razionalismo (191 z), 52
www.scribd.com/Baruhk
La filosofia italiana contemporanea
che gli meritarono per alcuni anni la presidenza della società filosofica italiana, né con i numerosi e impegnativi contributi da lui dati alla storia della scienza filosoficamente impostata, né con la rivista« Scientia » fondata nel 1907 (di cui viene proseguita tuttora la pubblicazione) che mirava programmaticamente ad approfondire per l'appunto le ricerche filosofico-scientifiche in una moderna visione collaborativa tra filosofi e scienziati. A proposito di questa rivista va anzi notato che essa raggiunse una diffusione assai più ampia all'estero che non in Italia, onde la sua voce, considerata autorevolissima al di là dei nostri confini, rimase pressoché senza eco nell'ambito italiano. Del resto tutta l'opera filosofica di Enriques ebbe, per lo meno dopo la prima guerra mondiale, una circolazione assai maggiore in Francia, Germania e Inghilterra che non in Italia, dove egli finì per essere ricordato e apprezzato - fino a tempi recenti - quasi esclusivamente per i suoi lavori matematici (quale uno dei capiscuola della geometria algebrica). Vale la pena, giunti a questo punto, fermarci ad esaminare brevemente le cause del fallimento del programma enriquesiano, imperniato sulla collaborazione tra filosofi e scienziati in vista di un ammodernamento e approfondimento del razionalismo. Una prima ragione va senza dubbio cercata nell'aspra polemica svolta da Gentile e da Croce contro la concezione filosofico-scientifica del nostro autore (polemica di cui si fece parola nel paragrafo VI del capitolo XI del volume settimo. Ma ne esistono pure altre, che per certo non possono venir fatte risalire all'ambiente idealistico, in quanto sembrano invece dovute a tal une manchevolezze riscontrabili nello stesso pensiero di Enriques. Ci limiteremo a ricordarne due. Una di esse risiede nella mancata comprensione da parte di Enriques dell'importanza spettante alla logica matematica moderna e in generale alla formalizzazione delle teorie; mancata comprensione che trapela dallo stesso volume da lui dedicato ai problemi logici- Per la storia della logica (1922) - e che si tradusse in pratica nella costante freddezza dei rapporti intercorsi fra Enriques e Peano. Purtroppo erano parecchi in quegli anni i matematici, in Italia e non solo in Italia, che guardavano con forte sospetto alle ricerche di logica; ma certo fu particolarmente grave che questo atteggiamento fosse condiviso anche da uno studioso come Enriques che non voleva essere e non era un puro tecnico della scienza. Esso finì per gettare un notevole discredito, fra i « matematici puri », nei riguardi dei matematici che si occupavano anche di altri problemi (logici, storici o filosofici). Abbiamo avuto più volte occasione di ricordare che una profonda diffidenza verso la logica caratterizzò pure, nei primi anni del secolo, la grande scuola matematica francese e in particolare Poincaré, che sostenne in proposito una vivacissima polemica con Couturat (il logico che aveva cercato di introdurre in Francia le idee di Peano e di Russell). Nel capitolo x del volume settimo abbiamo
www.scribd.com/Baruhk
La filosofia italiana contemporanea
poi rilevato che tale atteggiamento esercitò una profonda influenza anche sull'epistemologo Bachelard, inducendolo ad orientare le proprie indagini filosoficoscientifiche su binari pressoché antitetici a quelli dei seguaci di Peano, Russell, Hilbert ecc. Ne è scaturita una certa comunanza di idee fra Enriques e Bachelard (recentemente notata da un acuto studioso del pensiero bachelardiano, Mario Castellana), riscontrabile nelle stesse linee generali del tipo di razionalismo sostenuto dall'uno e rispettivamente dall'altro. Senza scendere in particolari, ci limiteremo ad osservare che, in entrambi i casi, l'accennata chiusura nei riguardi della logica ha notevolmente indebolito la presa di posizione a favore del razionalismo, sembrando per lo meno singolare la pretesa di difendere, nel nostro secolo, i diritti della ragione senza basare questa difesa sul pieno riconoscimento dei meriti acquisiti in questo campo dalle più raffinate ricerche logico-formali. È certo comunque che la grave lacuna non contribuì a rendere incisive (o per lo meno immediatamente incisive) le pur valide critiche sollevate dai due autori in esame contro gli invadenti indirizzi idealistici, spiritualistici, irrazionalistici. Un'altra ragione del fallimento del programma enriquesiano va cercata nell' orientamento psicologistico (complementare di quello antilogicistico) presente nelle opere di Enriques e del resto comune, esso pure, a Bachelard. Lo ritroviamo chiaramente espresso sia negli scritti filosofici sia in quelli storici, e in particolare nell'aureo libretto Il significato della storia del pensiero scientifico (1936) ove Enriques enuncia con eccezionale chiarezza la funzione da lui attribuita a tale storia nonché il metodo con cui ritiene di doverla trattare. Vi leggiamo che il compito ad essa spettante è quello di enucleare la genesi delle idee scientifiche, dei grandi mutamenti da esse subiti, degli « errori naturali» e dei « non-sensi » in cui incorsero anche i maggiori scienziati. È uno studio che ci dimostra la compresenza nei processi conoscitivi sia del fattore razionale sia di quello empirico, e pertanto l'irriducibilità della scienza a uno solo di essi (vuoi il primo, vuoi il secondo). Esso ci permetterebbe ben più della ricostruzione logica delle teorie - che implica sempre, a giudizio del nostro autore, un loro « impoverimento » - di giungere alla « valutazione effettiva delle dottrine scientifiche, in ordine alla loro possibile correzione ed estensione», spiegando lo sviluppo da una teoria all'altra col mostrare che nella mente degli scienziati di un'epoca erano contenute «in germe» le novità scoperte dagli scienziati dell'epoca successiva. Il carattere meramente psicologistico di questa spiegazione è così evidente da non richiedere commento di sorta. Purtroppo esso prestava il fianco alle critiche degli idealisti i quali, accusando Enriques di non conoscere Hegel, sostenevano che questa ignoranza gli impediva di dare un'impostazione moderna (razionale e non soltanto psicologica) alle proptie indagini storiografiche; onde risulterebbero incontestabili, secondo essi, i limiti del suo presunto razionalismo. Se gli sforzi compiuti da Vailati e da Enriques per rinnovare la filosofia italiana alla luce delle recenti rivoluzioni avvenute in campo scientifico ottennero, 54
www.scribd.com/Baruhk
La filosofia italiana contemporanea
come abbiamo visto, dei risultati assai scarsi, ancora minori furono i risultati conseguiti vuoi dagli idealisti, dei quali ci occuperemo nel paragrafo rv, vuoi da altri studiosi che cercarono di lavorare nel medesimo ambito di problemi, da punti di vista differenti. Ci limiteremo a ricordarne due: Antonio Aliotta (18811964) cui va riconosciuto il merito di avere diffuso in Italia una certa conoscenza, sia pure non sempre rigorosa e profonda, dell'empiriocriticismo e della teoria della relatività (La reazione idealistica contro la scienza, 1912), ed Annibale Pastore (1868-1954) che, nella convinzione di ricollegarsi a Peano, ideò un nuovo tipo di logica diretta a tradurre in simboli il principio (da lui detto « di potenziamento ») secondo cui ciascun ente di un « universo » risulterebbe « potenziato » dalle relazioni in cui si trova con gli altri enti di tale universo, onde varierebbe con il variare di questi (La logica del potenziaJnento, 1936). Il quadro, che ci eravamo proposti di tracciare, delle difficoltà incontrate dalla filosofia italiana dei primi decenni del secolo nel proposito di entrare in un fecondo contatto con la scienza potrebbe avere qui termine, se non si fosse assistito negli ultimi tempi al tentativo di recuperare l'opera di Gentile, sostenendo che essa avrebbe avuto notevolissimi meriti anche in questo campo. In altri termini: l'idealismo attualistico non solo non avrebbe mai tenuto un atteggiamento svalutativo nei confronti della scienza, ma anzi avrebbe dato seri contributi sia a mettere « sul piede di parità studi umanistici e studi scientifici, per lo m~no quando i cultori di questi uldmi non sono destituiti di " pensiero scientifico " (cioè quando) gli studi scientifici (vengono) coltivati con l'inclinazione ad una ricerca teorica non aggredita immediatamente dal bisogno dell'applicazione pratica dei suoi risultati », sia a « promuovere l'unità di scienza e storia della scienza» (Antimo Negri). Senonché le prove addotte a sostegno di questa rosea tesi sono così deboli da non meritare nemmeno di venire seriamente discusse: una è costituita dall'esistenza del gruppo de «L'Arduo», una rivista redatta, senza dubbio con ottime intenzioni, da alcuni giovani fisici che combattevano « su un piano gentiliano più che crociano » per identificare la scienza con la filosofia, rivista che rimase peraltro culturalmente tanto isolata da avere una vita brevissima (dal gennaio al dicembre 1914 e poi dall'inizio del 1921 al dicembre del '23) malgrado il favore con cui avrebbe dovuto guardarla il potente capo dell' attualismo; un'altra si basa sul fatto che Gentile, nominato direttore della Scuola Normale di Pisa, fondò gli Annali di tale scuola, articolati in due serie, una dedicata alle Lettere e l'altra ... molto arditamente alle Scienze; la terza fa poi riferimento all'« affetto di padre» con cui l'illustre filosofo dichiarò di vedere nel figlio, il fisico Giovannino, « il continuatore » della propria opera! Si ha l 'impressione, nel leggerle, che chi le ha pietosamente raccolte non abbia la benché minima idea dei grandi dibattiti suscitati in quegli anni dalle autentiche rh-oluzioni scientifiche prodotte si nella matematica e nella fisica; dibattiti nei quali si impegnarono scienziati come Einstein e Bohr, filosofi e storici della scienza come
www.scribd.com/Baruhk
La filosofia italiana contemporanea
Cassirer, Meyerson, Schlick, Reichenbach, Bachelard, e sui quali invece non intervennero mai i numerosi sostenitori dell'attualismo gentiliano (il che è stato forse frutto di onestà, essendo essi stessi ben consapevoli della propria completa ignoranza sull'argomento). III • SINTOMI DI CRISI ALL'INTERNO DELL'ATTUALISMO
Dopo il Concordato del regime fascista con la Chiesa del 1929, all'interno dell'idealismo gentiliano avviene un complesso travaglio critico. L'attualismo subisce un'eclissi; non ha più una posizione culturalmente privilegiata. Il sistema filosofico gentiliano viene criticato sia a opera di filosofi che passano direttamente dall'idealismo allo spiritualismo e di cui parliamo nel paragrafo IX, sia a opera di filosofi, che si autodefiniscono « di sinistra » e che approdano a posizioni problematicistiche o tendenzialmente realistiche. I motivi che presiedono a tale fenomeno sono da rintracciare nel sostanziale fallimento dell'obbiettivo di politica culturale perseguito da Gentile, oltre che nelle aporie interne della sua filosofia, individuate dai giovani critici. Per quanto riguarda la prima questione, Gentile fin dall'inizio del secolo aveva ripreso il programma del moderatismo risorgimentale - che egli ritenne continuato dal fascismo - che consisteva nel tentativo di imprimere nelle masse contadine, e nel fare accogliere ai ceti intermedi, l'idea di una religione del re e della patria cioè dello stato, accanto ma nettamente distinta (se non in contrasto) con quella della Chiesa. Egli intendeva cioè sostituire il cattolicesimo con una filosofia immanentistica ma che accettava la tradizione italiana (cioè quella cattolica), sia pure come momento particolare, di una visione del mondo laica e mondana. Per condurre questa operazione era necessario il personale piccolo-borghese, cioè i maestri, i professori e gli ufficiali dell'esercito, unificati culturalmente tramite la nuova scuola del 1923. Per comprendere la difficoltà di tale programma, va sottolineato il fatto che in Italia - contrariamente a ciò che avvenne in Francia e Spagna - le classi dominanti non riuscirono mai a mobilitare movimenti di massa in difesa dello stato; è mancato cioè un processo rivoluzionario a base nazionale. Gentile ritenne che il fascismo fosse un movimento « rivoluzionario », che poteva sostituire questa mancanza, e condurre così a compimento gli ideali del Risorgimento. Con il Concordato questo progetto non ha più spazio politico; la stretta, organica alleanza dello stato con la Chiesa evidenzia i limiti di autonomia delle classi dominanti italiane, costrette a ricorrere all'aiuto della Chiesa per dare legittimità ideologica e consenso di massa al p-roprio potere. All'interno del personale culturale gentiliano avviene una scissione, tra chi, accettando la nuova situazione, si integra nelle istituzioni, privilegiando la religione come il più alto momento del pensiero; e chi, invece, riconferma e accentua il proprio orientamento laico e propone una «riforma» dell'attualismo in senso più accentuatamente imma-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
nentistico, dal momento che Gentile non riesce a mediare queste due posizioni, che ora si configurano antagonistiche. Ora procederemo alla presentazione del pensiero degli attualisti cosiddetti « di sinistra », mettendo in evidenza soprattutto la loro posizione verso la scienza, il sapet:e scientifico. Mentre Croce e Gentile avevano negato valore alla ricerca scientifica, Ugo Spirito (n. 1896) è stato il primo idealista italiano che abbia sostenuto, in un intervento al vn congresso nazionale di filosofia del 1929, la sostanziale identità di scienza e filosofia. Egli perviene a tale tesi dopo avere evidenziato il limite teorico dell'attualismo, consistente nella contraddittoria esigenza di volere definire la realtà nella sua totalità, ma nel momento in cui tenta di definirla la deve trascendere e perciò considerarla « parte » della totalità. Per fuoriuscire dall'aporia bisogna assumere- come unico principio valido- non la soluzione ma il problema e sostituire al dialettismo metafisica, dogmatico e contraddittorio, un dialettismo problematico, aperto all'indagine della realtà, nella varietà delle sue manifestazioni. Per Spirito, l'atto puro si identifica con i modi concreti in cui si realizza, onde « ne viene di conseguenza, che se la filosofia ha il privilegio di assumere per proprio contenuto l'universale o, che è lo stesso, l'individuale, neppure la scienza può avere il triste destino di essere confinata nell'ambito del particolare o, che è anche qui lo stesso, del generale». Questa posizione iniziale, espressa in Scienza e filosofia (1933) lo conduce poi a sostenere in La vita come ricerca ( r 9 37) che « il concetto di ricerca si identifica senz'altro con quello di scienza», onde la filosofia è l'orizzonte teorico a cui vanno riferiti i risultati della scienza stessa, per trovarvi una giustificazione fondativa. In questo modo risorge la tentazione metafisica che egli intendeva superare, perché si prospetta un sapere metafisica come meta al di sopra della concreta ricerca scientifica. Spirito però non offre alcun :riferimento concreto di tali affermazioni; non fomisce cioè le prove della validità della sua tesi attraverso una effettiva produzione scientifica; si limita al massimo a difendere astrattamente la generica utilità della filosofia per la scienza. Per questo motivo, ripropone vecchi quesiti e richieste metafisiche come quella di « un metodo di carattere veramente universale che trionfi dell'instabilità del pensiero speculativo e lo sostituisca in modo definitivo ». Il fatto è che il nostro autore è pervenuto a riconoscere l'importanza della scienza non attraverso un serio esame delle :reali procedure metodologiche messe in atto dalla ricerca scientifica moderna, né esaminando il valore degli apporti filosofici delle più moderne indagini metodologiche, ma attraverso alcune considerazioni filosofiche sui limiti teot:ici, interni all'attualismo. Egli ha così tentato di integrare il sapere scientifico in una concezione della filosofia che è rimasta sostanzialmente idealistica, sostituendo a una retorica dell'atto un'altra retorica della scienza. Per questi motivi Spirito, che nell'ultima fase del suo pensiero ha riconfermato l'iniziale problematicismo (Storia della mia ricerca, 1971), ha così sostituito a una metafisica dell'atto una metafisica 57
www.scribd.com/Baruhk
La filosofia italiana contemporanea
del finito, non meno inficiata di aporie e di assunzioni dogmatiche della prima. Anche Guido Calogero (n. I9o4) ha condotto una vigorosa autocritica interna all'attualismo, di cui ha messo in evidenza una irresolubile antinomia in La conclusione della filosofia del conoscere (I 9 38). Secondo l'autore la gnoseologia idealistica è contraddittoria perché parte con il proposito di determinare la legge e i limiti ddla conoscenza e conclude asserendo « che non è mai possibile sottoporre il pensiero a tali leggi e limiti, poiché quando questi vengono comunque imposti al pensiero che si fa oggetto di gnoseologia, sono nello stesso atto negati dal pensiero che di tale gnoseologia è il soggetto e l'autore, e che è poi il solo pensiero veramente degno del nome ». Tale contraddizione può essere eliminata solo « sul piano concreto della filosofia della pratica» dove è possibile di<>tinguere la realtà sentita come esistente dalla realtà solamente pensata. Tale passaggio è espresso con il concetto di « presenza », come quel solo trascendentale eh~ non sia contraddittorio perché non è un atto gnoseologico ma è volontà, soggetto concreto accanto ad altri soggetti, onde la conoscenza scientifica è anch'essa prassi, progettazione umana, non contrapponibile alla filosofia. L'accettazione della « presenza » degli altri uomini imporrebbe, come unica norma morale, il principio del dialogo (Logo e dialogo, I95o) che è la condizione stessa della convivenza e di una società « aperta ». Questa identificazione fra il conoscere e il fare rovescia la posizione crociana: infatti mentre per Croce il carattere pratico dei principi della matematica e delle scienze naturali le qualifica come pseudoconoscenze, per Calogero invece l'unica conoscenza possibile è quella di ordine pratico. Questa posizione - come quella di Spirito - di apparente apertura verso la razionalità scientifica, lo induce però a negare qualsiasi autentico valore filosofico alla logica moderna e alle ricerche di metodologia della scienza perché entrambi partono dal presupposto che l'idealismo è l'ultimo e più conseguente risultato della filosofia occidentale, onde la critica alla metafisica non è condotta prendendo l'avvio dalla critica logica del discorso metafisica (come hanno tentato i neo-positivisti), ma piuttosto da un rifiuto della filosofia come teoria. La logica antica- su cui Calogero scrive ampi e importanti studi (l fondamenti della logica aristotelica, I927; Studi sull'eleatismo, I932) sarebbe il punto più alto raggiunto dal pensiero occidentale, che rivela l'interna ragione della sua autodissoluzione, onde non è oltrepassabile che in termini pratici e non attraverso logiche diverse da quella aristotelica. Gentile era pervenuto all'identificazione della filosofia con la storia della filosofia, Calogero invece avanza una riduzione in termini etico-politici, escludendo comunque la possibilità stessa di un discorso epistemologico. Franco Lombardi (n. I9o6) parte da un riesame critico dell'attualismo nei due volumi L'esperienza e l'uomo. Fondamenti di una filosofia umanistica (I935) e Il mondo degli uomini (I 9 35), i cui temi sono poi ripresi - con posizione autonoma in Nascita del mondo moderno (I95 3). Egli - come i due autori precedenti -
www.scribd.com/Baruhk
La filosofia italiana contemporanea
sostiene che « la logica tradizionale del pensiero universale è razionale, pura, poggia su un fondamento che a sua volta è di natura non già razionale o logica, bensì pratica». Siccome anche l'idealismo poggia sugli stessi presupposti, l'attenzione della filosofia deve rivolgersi a quel valore pratico che è alla base di ogni attività dell'uomo. Egli definisce la sua filosofia «umana» - contrapposta a quella « teologica » tradizionale - perché fondata sul valore della libertà; tenta poi di caratterizzare questa libertà in termini diversi da quelli liberai-borghesi e accoglie alcune istanze critiche verso gli ordinamenti istituzionali della nostra società. La sua concezione rimane però nell'ambito dello storicismo idealistico, sia pure con una accentuazione nuova del valore dell'uomo e della sua concreta esperienza. Altri filosofi che rimangono neU 'ambito dell'attualismo, sviluppandone alcuni aspetti sono: Vito Fazio Allmayer(1885-I958) e Giuseppe Saitta (I88I-I965). Il primo ha accentuato- come Lombardi- l'aspetto etico-umanistico dell'attualismo in: Il problema morale come problema della costituzione del soggetto (I942); mentre il secondo ha prospettato un immanentismo conseguenziale in:. La libertà umana e l'esistenza (I 940), e ha condotto una vivace polemica contro la religione e in particolare contro il cristianesimo in: Il problema di Dio e la filosofia dell'immanenza (I95 3). Infine Vladimiro Arangio-Ruiz ( 1887-I952), partendo da una lettura di Carlo Michelstaedter (I887-I91o), accoglie l'attualismo, accentuandone la dimensione morale, la tensione non risolta verso l'unità di teoria e pratica, in: Conoscenza e moralità (I922). Una estesa influenza dell'attualismo è rilevabile negli studi pedagogici con Giuseppe Lombardo-Radice (I879-1938), Ernesto Codignola (I885-1965), Gino Giuseppe Ferretti (I 88o-I95o), Luigi Volpicelli (n. 19oo) e in quelli di filosofia del diritto con Arnaldo Volpicelli (I892-1968), Widar Cesarini-Sforza (1886-I965). IV
• ALTRI INDIRIZZI IDEALISTICI
In questo paragrafo passeremo in rapida rassegna tre gruppi di filosofi. Il primo è formato dagli allievi di Croce, che continuarono ad approfondire la ricerca filosofica, estetica e storica seguendo il suo orientamento filosofico. Il secondo gruppo è formato da quei filosofi che hanno condotto una critica radicale al naturalismo positivistico, pervenendo a posizioni sostanzialmente spiritualistiche. Il terzo gruppo è formato da un certo numero di filosofi che negli anni trenta hanno partecipato attivamente al dibattito filosofico, pervenendo a posizioni teoriche, tra loro anche diverse, ma unificabili da una comune accettazione della tradizione idealistica italiana ed europea come i] fondamentale termine di discussione, vuoi per accoglierne alcune posizioni, vuoi per criticarle o superarle. Il pensiero di quei filosofi che, partendo dall'attualismo, sono pervenuti a posizioni spiritualistiche, è delineato nel paragrafo IX, come già detto. 59 www.scribd.com/Baruhk
La filosofia italiana contemporanea
L'idealismo crociano ha conosciuto altre vicende rispetto all'attualismo gentiliano. Negli anni trenta Croce è riuscito a «trasformare il suo liberalismo in un'istituzione culturale, con la quale bene o male tutti hanno fatto i conti» (Asor Rosa). In questo periodo il nostro filosofo sceglie la storiografia come fondamentale terreno di elaborazione ideologica della « religione della libertà», in cui accogliere le istanze laiche e « realistiche » che emergevano nella cultura italiana, insieme ai motivi di religiosità espressi dal mutato clima politico, sempre però con atteggiamento in latenza critico verso il regime. Egli riesce cosl a mantenere una unità flessibile ma solida tra i suoi allievi, alcuni dei quali provengono da un primo apprendistato gentiliano (come lo storico Adolfo Omodeo e il critico Luigi Russo). Il suo pensiero, anche in anni recenti, è stato largamente utilizzato, da critici letterari, storici della politica e della cultura. Fra i crociani che hanno sviluppato il pensiero estetico ricordiamo: Francesco Flora, che in: I 111iti della parola (I 9 3 I) ha privilegiato il segno verbale e l'estetica come linguistica; mentre Mario Fubini evidenzia l'efficacia della metodologia crociana nella critica letteraria in: U.;Jicio e fortne della critica (I948). Uno sviluppo dell'estetica musicale, sempre in direzione crociana, ha tentato Massimo Mila in: L'espressione musicale e l'estetica (I95o); Bruno Zevi, nel campo dell'architettura: Architectura in nuce (I96o) e Carlo Ludovico Ragghianti nel campo delle arti figurative: L'arte e la critica (I95 3). Nell'ambito più propriamente filosofico segnaliamo: Carlo Antoni: Dallo storicismo alla sociologia (I 940); Alfredo Parente: Il tratnonto della logica antica (I 9 ~ 2); Manlio Ciardo: Le quattro epoche dello storicismo (I 94 7); Adelchi Attisani: Preliminari all'etica dello storicismo (I 948); Raffaello Franchini: Esperienza dello storicistno (I95 3); Vittorio Enzo Alfieri ha dato notevoli contributi alla storiografia filosofica greca. Guido De Ruggiero (I888-I947) è passato da una breve fase attualistica- La scienza come esperienza assoluta (I9I2) - a un accoglimento della concezione storiografica crociana rilevabile nella Storia del liberalismo europeo (1925) ma soprattutto nella Storia della filosofia in I4 volumi, condotta secondo i canoni metodologici e le scelte culturali idealistiche; pertanto quest'opera rimane emblematica dei limiti di tale orientamento. Va ricordato che il De Ruggiero, insieme ad altri, assunse un atteggiamento di critica prima e di aperta opposizione poi, verso il fascismo, aderendo al movimento radical-socialista di « Giustizia e libertà». L'attività del secondo gruppo di filosofi, di cui enucleiamo schematicamente le posizioni più caratteristiche, si situa nel periodo del primo Novecento, quando dominava il positivismo ed essi - sulla base di alcune critiche, tendenti a indicarne limiti e insufficienze - ne proposero una integrazione o una fondazione più rigorosa, con lo scopo di rendere più estesa ed efficace l'influenza culturale del positivismo. Ben presto però ne fuoriuscirono completamente, si fecero critici radicali del positivismo stesso, concorrendo a rinsaldare quel fronte 6o
www.scribd.com/Baruhk
La filosofia italiana contemporanea
unito antipositivistico che ebbe in Croce e Gentile i due più coerenti propugnatori, mentre essi pervennero a conclusioni sostanzialmente religiose o fenomenistiche, in polemica con l'idealismo di cui però mutuarono l'esito finale. A questi filosofi si richiamano, più o meno direttamente, quelli che indichiamo nel terzo gruppo, in cui più esplicito è l'accoglimento della problematica kantiana. L'itinerario filosofico di Bernardino Varisco (1850-1933), da un iniziale positivismo a un aperto spiritualismo religioso, è contrassegnato da queste opere: Scienza e opinioni (1901), I massimi problemi (191o), Conosci te stesso (1910), Dall'uotno a Dio (1939, postumo). Nel primo libro egli esamina con una certa competenza ed efficacia argomentativa l'origine sperimentale e il valore empirico dei giudizi a priori che presiedono alla scienza (la geometria euclidea e non euclidea e la meccanica). Indi propone una « interpretazione meccanica della natura», rigorosamente deterministica, nella persuasione che la scienza debba offrire una spiegazione esauriente e definitiva della realtà che indaga (e in tale pretesa già Vailati segnalava il limite metafisica dell'opera). Questa concezione meccanicistica non esaurisce tutta la realtà, onde accanto alla scienza coesistono le opinioni, cioè le nostre credenze etico-politiche, altrettanto vere di quelle accertabili dalla scienza: tali verità non scientifiche sono oggetto solo di fede. Varisco non ritornerà più a ridiscutere i problemi della scienza, ma piuttosto determinerà il valore (gnoseologico e metafisica) della fede, intesa in senso lato. Egli ritiene che i dati ultimi della realtà siano atomi estesi, impenetrabili, ma con potenzialità psichica, onde è impossibile scindere nettamente la ragione dall'esperienza. Rifacendosi esplicitamente a Leibniz afferma che la realtà è costituita da soggetti, centri di attività e spontaneità, in comunicazione tra loro, sia a livello subconscio che conscio. Tali soggetti richiedono una unificazione che non annulli però la loro autonomia e singolarità: è l'Essere, inteso rosminianamente come realtà indeterminata, comune a tutti i soggetti. Tale Essere non è solo la condizione trascendentale dei singoli esseri, ma è anche determinazione degli stessi esseri. Egli infine tenta di presentare l'Essere come dio, unità ultima cui tendono le singole coscienze, che in dio si inverano, pur rivendicando la loro libertà e autonomia. Anche Francesco De Sarlo (1864-1937) giunge allo spiritualismo partendo dal riconoscimento del primato della psicologia. Egli ha fondato un gabinetto di psicologia sperimentale e dal 1907 al 1917 ha diretto «La cultura filosofica», che, in permanente polemica con l'idealismo, ha rivendicato il valore conoscitivo della scienza. De Sarlo sostiene che se la vita psichica accerta la singolarità di ogni individuo e la sua irriducibilità a pensiero, legittima anche la congettura di un Soggetto assoluto - che può essere dio - come orizzonte teorico fondativo di tutti i soggetti. Ricordiamo queste opere: Metafisica, scienza e moralità (r898), Psicologia e .filosofia (r918). A una concezione relazionistica è pervenuto Cesare Ranzoli (r876-r926), in Il realismo puro (1932, postumo), come punto di 61
www.scribd.com/Baruhk
La filosofia italiana contemporanea
equilibrio fra due soluzioni unilaterali del problema conoscitivo, rappresentate dal positivismo e dall'idealismo. Giuseppe Tarozzi (I866-I958), già allievo di Ardigò, negando valore al determinismo positivistico, rivendica la legittimità della postulazione di un Essere infinito, che integra l'indigenza del finito in una visione spiritualistica, in cui può essere riconsiderata la validità di dio. Ha scritto La ricerca filosofica (I 9 36), L'infinito e il Divino (I 9 5 I). A una concezione neospinoziana giunge Erminio Troilo (I 874-I968) con la proposta di un «realismo assoluto», in Realismo assoluto (I93 I) e Studi filosofici (I942), in cui l'essere e il pensiero salvano, insieme alla loro specificità, la possibilità di un rapporto conoscitivo. Cosmo Guastella (I854-I922), nei tre volumi Le ragioni del fenomenismo (I921-22) conduce un'acuta critica antimetafic:ica, nelle sue diverse forme: da quelle positivistiche (in particolare di Spencer e Taine) a quelle meccanicistiche, per ribadire le ragioni di un radicale nominalismo. Un orientamento filosofico decisamente relativistico e scettico è stato difeso da Giuseppe Rensi (I87I-I94I) e Adolfo Levi (I878-I948) (valente studioso di storia della filosofia), in numerosi scritti, polemici soprattutto verso l'idealismo ottimistico di Croce e di Gentile. Questi filosofi hanno riproposto l'importanza di un'attenta analisi fenomenologica del male - nelle sue diverse forme - che essi ritengono irriducibile a giustificazioni teoriche; hanno sostenuto la funzione pratica dei valori che l'uomo crea in funzione regolativa della propria vita, valori non assoluti ma che mutano in rapporto alle situazioni in cui l'uomo agisce e che sono sempre produttori di opere che accrescono il suo potere sulla realtà. Infine preciseremo le diverse motivazioni e conclusioni che sono alla base del neokantismo di Pantaleo Carabellese (I877-I948), Adelchi Baratono (I875-I947), Giovanni Emanuele Bariè (I894-I956) e Mario Manlio Rossi (I895-I97I). Una delle caratteristiche più evidenti che accomuna i filosofi di quest'ultimo gruppo è un aperto « ritorno a Kant », considerato come il centro cui si rifanno tutte le fondamentali correnti del pensiero contemporaneo. Con motivazioni diverse essi ritengono che l'idealismo contemporaneo costituisca una deviazione rispetto all'iniziale posizione di Kant, a cui pertanto si deve ritornare per rintracciare un momento di equilibrio fra filosofia e scienza, fra etica e ragione, approfondendone la tematica ma sempre nella direzione originaria. Gli stessi esiti raggiunti dal dialettismo idealistico inducono però questi pensatori a respingere la stessa dialettica, come strumento conoscitivo privilegiato; per questi studiosi infatti la postulazione del soggetto trascendentale è sostenuta da Kant nella prospettiva della validità obbiettiva della nostra conoscenza, dell'unità della realtà, umana e naturale. L 'idealismo invece, considerando la ragione un'attività assoluta dello spirito, senza alcun condizionamento dell'esperienza, ci offre una metafisica dell'infinito, che ripropone le note aporie della metafisica prekantiana. Orbene, è indubbio che questo ritorno a Kant acquista un preciso significato antiteologico; è il ritorno a una considerazione più umana della ra62 www.scribd.com/Baruhk
La filosofia italiana contemporanea
gione, all'uomo nella sua finitezza e al carattere problematico della sua esistenza. Questa tendenza, che accomuna, nei loro primi lavori, Luporini e Abbaguano, M.M. Rossi e Paci, Bariè e della Volpe, Preti e Massolo, è stata caratterizzata in questi termini da Ab bagnano: « Kant porta per la prima volta la possibilità sul piano della concreta esperienza umana; nell'opera di Kant, l'intero mondo dell'uomo veniva espresso e fondato in termini di possibilità, possibilità trascendentali cioè condizionatrici e fondanti. Kant ha inteso in ogni campo limitare, cioè determinare, le autentiche posdbilità umane, distinguendole da quelle che non sono autentiche ma puramente fittizie.» L'insistenza sulla finitezza, se permette di superare l'interpretazione metafisico-platonica di Kant che era stata proposta in Italia da Martinetti, in alcuni autori apre ancora la via a integrazioni di ordine metafisica, proprio perché si considera tale finitezza non autosufficiente, ma bisognosa di una fondazione. Un altro risultato dell'assunzione iniziale del kantismo- riscontrabile anche nei filosofi che approderanno al marxismo - è la esclusione di una considerazione dei problemi filosofici della natura; tale sottovalutazione - che giunge talora al silenzio - diversifica nettamente questi filosofi dal neokantismo tedesco. Carabellese parte da una approfondita analisi del pensiero di Kant per sostenere l'unilateralità e perciò la falsità dell'interpretazione realistica e di quella idealistica: la prima, sostenendo l 'inconoscibilità della cosa in sé, esclude la possibilità stessa della conoscenza, essendo il suo oggetto al di fuori di un rapporto conoscitivo; la seconda, incentrando l'attività conoscitiva sulla sola funzione del Soggetto assoluto, esclude la molteplicità dei singoli soggetti e la consistenza della realtà da conoscere. Sono due soluzioni unilaterali dello stesso problema conoscitivo, che va affrontato senza pregiudizi e presupposti, con una rigorosa analisi della nostra effettiva esperienza, da cui emerge che l'oggetto è sempre immanente alla coscienza: non esiste cioè un oggetto costitutivamente diverso dal soggetto, perché entrambi sono riferibili a un originario Oggetto assoluto (il noumeno kantiano, conoscibile dai soggetti), sicché l'alterità va cercata nel soggetto stesso. Essa è costituita dalla molteplicità dei soggetti, l'altro io, «cioè l'altro da me, ma come me, cioè evidentemente il puro tu». L'analisi dell'esperienza conduce Carabellese «a considerare la realtà come un sistema di centri soggettivi in reciproca correlazione, rispecchiantesi in ciascuno d'essi come un immanente ordine obbiettivo» (Banfi). La conoscenza non si arresta al singolo oggetto, ma tende all'essere assoluto. La filosofia è appunto conoscenza unitaria della realtà, sistemazione articolata non solo delle singole regioni dell'essere (le scienze) ma dell'essere puro che, in quanto tale, non è un dato ma l'orizzonte cui tende sempre il pensiero. Fin qui Carabellese rimane nell'ambito di un razionalismo trascendentale, alla ricerca della legge strutturale della realtà, l'idea come struttura del razionale nella sua autonomia, che non va affermato astrattamente ma concretato- secondo Banfì - in analisi dell'esperienza nelle
www.scribd.com/Baruhk
La filosofia italiana contemporanea
sue infinite forme. Carabellese invece è pervenuto a considerare l'Oggetto come dio stesso; anche se questo dio (che non esiste perché l'esistenza è delle cose empiriche) non è riconducibile a nessuna religione. Questo è il salto metafisica prodotto nell'ambito del trascendentale kantiano, anche se per il nostro autore la problematicità rimane il connotato della filosofia, che solo così si distingue dalla religione. Le sue opere più importanti sono: Critica del concreto (1921), Il problema teologico come .filosofia (193 1), Che cos'è la .filosofia? (1942). Baratono, con le sue opere Il mondo sensibile. Introduzione all'estetica (1934) e Arte e poesia (I945), ci offre un originale ripensamento del criticismo, con un privilegiamento della Critica del giudizio di Kant. La sua tesi teorica fondamentale è che la «realtà è il valore dell'esistenza, dell'esperienza sensibile, del dato, perché soltanto qui vi ha certezza: il più universale, il più idealmente vero dei nostri concetti, è reale solo in quanto conviene e si accorda con l'esperienza sensibile, criterio fondamentale della scienza in quanto sapere reale ». Questa è l'unica certezza o realtà assoluta, perché è al limite di quell'esperienza - di~tin zione fra soggetto e oggetto -- che ora è ancora indifferenziata, mentre quando i due termini si antinomizzano inizia il dubbio e la ricerca. La soluzione del problema del «valore» estetico, come costitutivo della sensazione, è insieme l'indicazione di una visione del mondo antisoggettivistica; le esistenze sensibili sono paragonabili alle forme della Gestalttheorie o alle forme eidetiche della fenomenologia. Non sono cioè un momento iniziale del processo conoscitivo come sosteneva Croce - ma un dato costitutivo dell'attività umana, che interviene sempre, quando « noi arrestiamo la nostra volontà, trascendentalmente diretta a nuovi contenuti e rappresentazioni, portandola invece sulla forma, perché il valore riaffiori, e ci faccia gioire dell'essere, assicurandoci che la nostra speranza non è vana e i nostri conati non sono slanci nel nulla ». Giovanni Emanuele Bariè ha esordito con un importante studio su La posizione gnoseologica della 111atematica (I 92 5) in cui ha difeso la dottrina kantiana dalle critiche degli epistemologi e logicisti moderni, pervenendo ad alcune conclusioni, in particolare che «l'interpretazione idealistica della matematica non può essere scossa » dalle più moderne ricerche metodologiche, e che la matematica costituisce «una conoscenza che è qualitativamente inferiore a quella cui mira la nostra ragione ». Negli altri studi, fra cui ricordiamo La spiritualità dell'essere e Leibniz (1933), L'io trascendentale (1948), Il concetto trascendentale (I956), Il neotrascendentalis?no (I 9 58, postumo), ha sempre difeso il trascendentale, come quel principio che è fondativo dell'esperienza, entro cui garantisce l'individualità e l'attività degli esseri particolari. L'essere assoluto o dio, che non è trascendente rispetto alla realtà, può essere tradotto solo nei termini della logica trascendentale. Le logiche elaborate dai moderni studiosi sono solo le diverse tecniche che gli scienziati usano nella ricerca scientifica, ma esse presuppongono una logica che determini le condizioni trascendentali delle molteplicità di tali tecniche, ela-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
barate dalla pm raffinata ricerca scientifica. Esiste pertanto una differenza di fondo tra la sfera della scienza, che abbraccia tutta l'esperienza, il cui criterio di verità è la sperimentazione, e la sfera della filosofia, che comprende il campo dell'essere, il cui criterio di validità è la logica pura, che deve appunto determinare e spiegare la possibilità della sperimentazione (non già quello di sperimentare). Riappare qui quel profondo divario fra scienza e metafisica, fra logica applicata e logica pura, che in Banfi veniva risolto in una filosofia della cultura (umanistica e scientifica), in Bariè invece nella ricerca di una giustificazione metafisica dell'essere, nella persuasione che tale fondazione renderebbe più evidente il principio dell'autonomia del razionale, non solo come struttura di un essere metafisica, ma come legge ideale della conoscenza, che garantisce la razionalità degli esseri individuali, come di tutte le tecniche che la ragione elabora per conoscere la natura. Mario Manlio Rossi fissa la sua« lettura» di Kant nell'opera Saggio sul rimorso (1933) in cui difende il primato dell'etica; indi avanza una critica radicale dello storicismo, e per dimostrare che è possibile trattare la storia al di fuori di ogni precostituita concezione filosofica, scrive dal 19 3 5 numerosi saggi sulla « Nuova rivista storica» (l'unica rivista antifascista di quel settore) e soprattutto i quattro volumi della Storia d'Inghilterra, che propongono una storia di tipo panoramico, libera da schemi teorici ma basata su una rigorosa documentazione. Alla base del suo antistoricismo c'è la persuasione- motivata conclusivamente in A Piea for man (In difesa dell'uomo, 1956)- che la biografia offra l'unica sicura ricostruzione delle vicende umane perché essa indaga la personalità, l'individuo morale, cioè la realtà più autentica dell'uomo. Egli ha proposto alcuni modelli di tale approccio storico in: Swift (1942), Voltaire (1945), Saggio su Berkeley (195 5). Infine Rossi tenta di andare oltre la logica trascendentale, e indaga s-e la logica non implichi un « mondo » sussistente al di là del pensiero umano, di cui questo è partecipe ma non autore. L'esito antologico di questa ricerca è espresso compiutamente nel saggio Per una teoria generale della logica (1959) e in una dottrina dell'uomo e dell'essere, di stampo metafisica in: Lavoratore dell'universo (1947). V
• ANTONIO BANFI
Antonio Banfi è nato a Vimercate (Milano), il 30 settembre 1886, da una agiata famiglia di tradizione liberale. Nel 1908 conclude gli studi presso l'accademia scientifico-letteraria di Milano e si laurea l'anno successivo in filosofia con Martinetti. Nel 1910 prosegue gli studi nella Friedrich Wilhelms Universitiit di Berlino, dove conosce Riehl, Lasson, Spranger, Simmel; a quest'ultimo continuerà a sentirsi, anche in futuro, particolarmente vicino. Dal I9II insegna filosofia presso i licei di alcune città italiane; nel 1924 ottiene la libera docenza. Le sue posizioni politiche si esprimono pubblicamente
www.scribd.com/Baruhk
La filosofia italiana contemporanea
con la firma del « Manifesto » antifascista di Croce (I 92 5). Dopo aver tenuto alcuni corsi di filosofia all'istituto superiore di magistero di Firenze (I930-3 I), vince il concorso alla cattedra di storia della filosofia presso l'università di Genova e dal I932 viene chiamato all'università di Milano, dove insegnerà storia della filosofia fino all'estate I956. Muore a Milano il 22 luglio del I957· Tra le sue opere vanno ricordate: La filosofia e la vita spirituale (I922), Vita di Galileo Galilei (I93o), Vita dell'arte (I947), L'uomo copernicano (I95o), e postumi: La ricerca della realtà, 2 voll. (I 9 59; raccolta dei diciannove saggi più significativi curati dall'autore nel I956). Nel cam_po della morale basterà ricordare: Sui principi di una filosofia della morale (I 9 36). In diritto: I l problema epistemologico nella filosofia del diritto e la teoria kantiana (I 926), Saggio sul diritto e sullo stato ( I93 5). In educazione: Le correnti della pedagogia contemporanea tedesca e il problema di una teoria filosofica dell'educazione (1925), Pestalozzi (I927), Somtnario di storia della pedagogia (I 9 3 I). In arte: Il principio trascendentale dell'autonoMia dell'arte (I 92 7), l probleMi di una estetica filosofica (I 9 32 ). In religione: Lineamenti d'una siste/Jtatica degli studi religiosi (I925). Ha scritto saggi e studi su Simmel, Kant, Hegel, Spinoza, Husserl, la filosofia postkantiana. Significativi i suoi scritti sulla cultura e la vita politica della Cina, raccolti nel volume Europa e Cina (I97I). Negli anni I925-3 I si legò al gruppo culturale che faceva capo alla rivista « Conscientia » di Giuseppe Gangale, e successivamente fu l'animatore del gruppo di giovani che pubblicava la rivista «Corrente di vita giovanile» (I938I94o). Nel I94I prese contatti con il centro clandestino del partito comunista; fu un attivo militante durante la lotta di liberazione nazionale. In quest'ultimo periodo mantenne stretti rapporti di collaborazione politica e culturale con Eugenio Curiel, con cui fondò nel novembre I943 il «Fronte della gioventù per l'indipendenza nazionale e la libertà », che assolse un grande compito di educazione e di organizzazione politica della gioventù italiana nella lotta contro il nazismo e il fascismo. Successivamente concorse a fondare il «Fronte della cultura», e nel marzo I946 la Casa della cultura di Milano, che ebbe come primo presidente Ferruccio Parri. Egli ha fatto conoscere la fenomenologia, l'esistenzialismo, pensatori inglesi e americani, in particolare attraverso la rivista « Studi filosofici». L'approdo di Banfi alla filosofia è partito da vasti interessi culturali, in un momento in cui, come egli stesso dichiara, «chi s'è formato in Europa nei due primi decenni del secolo, ha dovuto rilevare attorno a sé una così radicale, complessa, concreta crisi di cultura, da persuadersi, sin dall'inizio, che validi potevano essere non un suo rigetto di massima o il mito di una soluzione ideale, ma il suo riconoscimento e la sua analisi spregiudicata e profonda, al punto di porne in luce il senso positivo». L'esame approfondito delle più importanti correnti della filosofia contemporanea lo portò a definire un orientamento in cui viene
66 www.scribd.com/Baruhk
La filosofia italiana contemporanea
affermata una razionalità come termine di mediazione fra opposte tendenze (rappresentate sostanzialmente dal positivismo e dall'idealismo). Si tratta di una ragione che non pretende «di cogliere e definire l'Assoluto reale », ma è piuttosto uno strumento che problematizza ogni dogmatizzazione dell'esperienza; è un principio trascendentale che permette di cogliere e comprendere la realtà, nella complessità delle sue varie determinazioni. Questo razionalismo critico è pertanto « destinato non tanto a negare, quanto a risolvere in sé, come parziale, ogni sistema chiuso, ogni metafisica», nell'intento di offrire non una sistemazione esaustiva della realtà e del sapere, ma piuttosto « una sistematica razionale del sapere » : sistematica che « non vuol essere né una classificazione schematica, né una riduzione unitaria», bensì una spiegazione storicamente esatta e razionalmente persuasiva, in cui tutte le distinzioni e differenziazioni (ad esempio fra sapere scientifico e sapere filosofico) siano ricondotte a una matrice razionale comune, a un uso critico della ragione. L'obbiettivo cui essa tende non è quello di offrire una conoscenza dell'oggettività del reale sempre necessariamente parziale e perciò dogmatica - ma di descrivere con esattezza di connessioni razionali la complessa dinamica del mondo della cultura, secondo un principio metodico in cui ragione ed esperienza sono i termini di una dialettica che non trova mai una soluzione unica e definitiva. La filosofia pertanto non è né una superscienza, né lo strumento privilegiato che ci apre le porte a un sapere assoluto, ma « la coscienza della relatività, della problematicità, della viva dialettica del reale ». Si chiarisce così il significato del criticismo banfiano: la ricerca del principio trascendentale della razionalità non si -risolve - come in Kant - nella determinazione di forme immutabili, ma in una legge di sviluppo, che ci permetta una concreta fenomenologia di tutto il mondo della cultura (dell'arte come del diritto, dell'etica come dell'estetica) e della realtà, onde «quanto più realizzo il sapere in funzione del trascendentale teoretico, tanto più l'esperienza si arricchisce e si organizza ». Il razionalismo critico di Banfi si inscrive pertanto in questa esigenza di offrire una concezione del sapere in cui « la filosofia tende a ordinare sistematicamente tutta l'esperienza e tutti i suoi campi». Essa non ha nessuna norma da imporre, perché « è per sua essenza, criticità della ragione, coscienza riflessa della sua autonoma legge di costituzione e di sviluppo ». La sua forza critico-interpretativa sta non solo nell'individuare le dogmatizzazioni cui approdano sia la fenomenologia che il neokantismo di Marburgo, il neopositivismo come l'esistenzialismo, ma anche nel trarre dall'analisi delle antinomie costitutive di ogni regione della realtà, la genesi delle tensioni e l'indicazione di una soluzione, sia pure provvisoria, ma reale; un momento di quell'instabile rapporto tra riflessione pragmatica e riflessione teoretica, che sono i due momenti costitutivi della razionalità. In questa fenomenologia del sapere, in cui filosofia e scienza sono i due aspetti della razionalità in permanente tensione,
www.scribd.com/Baruhk
La filosofia italiana contemporanea
Banfi distingue due momenti fondamentali: uno empirico e un altro razionale. Nel primo viene compresa la scienza, perché vi domina il dato osservativo, sia pure relazionato ad altri dati; nel secondo viene riconosciuta la presenza della filosofia, come «autonomia razionale dell'esperienza». Fra la filosofia e la scienza esiste ancora un rapporto di subordinazione, anche se ambedue i piani del sapere fanno parte di un'articolata e complessa razionalizzazione della realtà e dell'esperienza. Si può pertanto affermare che il razionalismo banfiano attinge le sue motivazioni di fondo non da un esame della metodologia contemporanea, ma piuttosto arriva alla scienza dopo che ne ha ammesso la presenza necessaria e insostituibile nell'ambito della cultura. La posizione filosofica di Banfi, qui riassuntivamente delineata, non è riconducibile in modo completo né al neokantismo, sia quello di Martinetti sia t)uello tedesco (da cui pure prende esplicitamente l'avvio, nel libro teoreticamente più importante, Principi di una teoria della ragione, 1926), né alla fenomenologia. di Husserl (da cui prende importanti spunti il suo pensiero), né infine al marxismo. D'altra parte, non siamo di fronte a una posizione eclettica, perché c'è un principio direttivo, compiutamente espresso e discusso nei due saggi Per un razionalismo critico (1943) e Il problema di una sistematica del sapere (1945) e concretato coerentemente in precise analisi della cultura filosofica italiana ed europea, che Banfi condusse in un trentennio di operosa attività. Bisogna sottolineare che proprio questa posizione filosofica antidogmatica permise a Banfi una apertura verso le più diverse correnti della filosofia europea, sconosciute nell'ambiente accademico italiano. Egli assolse in tal modo una notevole funzione culturale perché fece conoscere e apprezzare alcuni importanti temi del pensiero tedesco degli anni trenta (escluso però in modo completo il neopositivismo ). Questo aspetto della personalità di Banfi è quello che emerge come il più significativo, se si tiene appunto presente la situazione italiana dominata dalle chiusure culturali del fascismo. Nell'ultimo periodo di attività avviene il suo incontro con il marxismo. Non si è trattato di una radicale modificazione delle sue precedenti posizioni, ma piuttosto dell'integrazione di esse con la problema ti ca marxista che non era in contrasto con il suo orientamento, come egli stesso ebbe a precisare: «La dottrina marxista-leninista riempì col suo umanesimo storico e la sua coscienza realistico-dialettica lo spazio che il razionalismo critico aveva liberato da ogni struttura mitico-metafisica e disposto, col wo problematicismo, alla universalità attiva di questa soluzione. » A questo proposito è opportuno formulare alcune precisazioni sul marxismo banfiano, dal momento che è errato considerare tale esperienza sia come il momento conclusivo e riassuntivo di tutto il suo precedente lavoro teorico, sia una integrazione estrinseca, dettata da motivi etico-politici. Banfi perviene al marxismo attraverso una via che non è quella della tradizione italiana (Labriola-Mondolfo68
www.scribd.com/Baruhk
La filosofia italiana contemporanea
Gramsci), né quella accolta dagli altri marxisti italiani e di cui riferiamo nel paragrafo xu. Il marxismo di Banfi si situa nel punto d'intersezione fra una « lettura» di Kant-Hegel nettamente diversa da quella crocio-gentiliana (con cui si sono misurati gli autori sopraddetti), una critica al pensiero di Husserl, espressa anche nell'ultimo scritto(« Husserl e la crisi della civiltà europea», 1957) e una ripresa della tematica sulla « crisi » della civiltà, che alla fine degli anni cinquanta - periodo in cui scrive gli otto più importanti saggi sul marxismo coinvolgeva in vicende drammatiche e laceranti lo stesso « campo socialista », vicende da Banfi intensamente vissute. Egli non accetta né il marxismo che si rifà al Diamat, né quello « storicistico » e sostiene che « la storia non è né un piano provvidenziale o astrattamente razionale, come vorrebbe il pensiero metafisica, né una mera, indifferente serialità di accadimenti, come vorrebbe l'astratto storicismo che è di quel pensiero il mero negativo contrapposto». Nell'analisi della società e della filosofia contemporanee egli perviene alla persuasione che l'« Europa ha perduto la sua essenza umanistica, nel momento stesso in cui essa si traduce in storia d~ll 'uomo come uomo. Giacché la crisi che noi viviamo non è solo crisi storica, ma crisi della storia, della storia vissuta e concepita come destino verso la storia concepita e vissuta come costruzione umana, alla luce della ragione». Ed è qui che si inscrive l'incontro di Banfi con la civiltà cinese, con il marxismo cinese, il quale sarebbe riuscito a offrire una nuova dimensione realistica e dialettica di un « umanesimo non religioso ma etico, non idealista ma naturalista, non individualista ma sociale», in cui le tensioni - sociali e individuali - trovano una mediazione appropriata, perché in Cina « la società è la medi::~trice tra gli ideali e il reale, tra la libertà e l 'impegno ». Ed è significativo che sia stato un marxista cinese, Mao Tsetung a darci « quel magnifico saggio Sulla contraddizione [19 37] che sembra la più esatta e chiara definizione di cosa si debba intendere per dialettica del reale». Il marxismo si configura pertanto non solo come strumento conoscitivo per comprendere la realtà (come, in fondo, era il razionalismo critico), ma anche come risolutore di una autentica crisi di civiltà, di cui tale orientamento progetta un'alternativa più razionale e umana. In questo senso interviene l'originalità del marxismo, «come coscienza della radicalità rivoluzionaria della crisi storica, in cui intimamente si libera e si afferma il senso stesso della storia e della sua dialettica, riconoscimento perciò del momento positivo di quella, il marxismo si inserisce nella storia come leva di azione in una visione unitaria rinnovata del mondo ». Gli scritti sul marxismo di Banfi ripresentano, in un quadro problematico rinnovato, sia problemi affrontati dal razionalismo critico (rapporto ragione-storia, filosofia e vita), sia quelli emergenti dal marxismo come visione del mondo (rapporto del sapere scientifico con il sapere filosofico, il nesso ideologia-politica e quello di teoria-prassi). Su tali problemi Banfi perviene ad analisi profonde e nuove, ponendo in evidenza aspetti e tematiche tuttora di viva attualità, anche se le solu-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
zioni prospettate possono ora apparire largamente superate. È una nuova stagione dell'impegno teorico del nostro autore, strettamente connessa con il suo progetto di riprendere - su queste basi teoriche e ideologiche - la terza serie di « Studi filosofici», insieme all'impegno politico attivo che si esplicò, in particolare, nella sua lunga battaglia dentro e fuori il parlamento per un rinnovamento democratico della scuola. L'eredità del pensiero di Banfi, soprattutto il suo atteggiamento culturale di apertura verso gli apporti più significativi provenienti dalle diverse correnti culturali, è stata fatta propria e sviluppata da numerosi allievi, che esplicitamente si richiamano al suo orientamento, e di cui riferiamo nel paragrafo x: Enzo Paci, Giulio Preti, Remo Cantoni, Giovanni Maria Bertin, Luciano Anceschi, Dino Formaggio, Luigi Rognoni, Fulvio Papi. VI
• PROFONDO RINNOVAMENTO
DELLA PROBLEMATICA FILOSOFICA
La Lotta di liberazione nazionale ha determinato, in Italia, una situazione radicalmente nuova; il profondo e vasto processo economico e politico della società italiana ha coinvolto con la guerra prima e la lotta antinazista e antifascista poi, tutte le classi sociali, creando una unità politica nuova volta a un radicale rinnovamento del paese, diversa rispetto al Risorgimento in cui « la coscienza politica degli italiani era ancora elementare; a poche élites intellettuali ed economiche corrispondeva la passività generale che soltanto l'azione, ed il fascino di qualche eminente personalità riusciva a scuotere. Lo prova Garibaldi ed il suo mito » (E. Curiel). Ora invece la creazione di organismi di lotta, nelle fabbriche e nei luoghi di lavoro, la riorganizzazione dei partiti, hanno permesso un'ampia e cosciente partecipazione di massa alla lotta contro il fascismo. Curiel, nella precisazione dei nessi di continuità e di differenza della Lotta di liberazione rispetto al Risorgimento così prosegue: « La società italiana formata di classi profondamente differenziate non è quindi " popolo " al modo della fase epica del nostro Risorgimento. E questa società così differenziata si dilacererebbe rapidamente e cadrebbe in preda a qualche forma di reazione totalitaria e "plebiscitaria ", qualora i suoi profondi antagonismi non venissero rivolti all'azione politica attraverso l'opera di partiti solidamente ancorati nella tradizione e nella cosciente partecipazione delle varie classi sociali alla vita politica nazionale. Oggi, quindi, la nazione non è nazione di popolo nel senso sopra indicato, ma è " nazione di partiti "; la loro funzione è, sì, di lotta ma anche di composizione di interessi secondari e prospettici di fronte ad uno preminente e urgente nel quale si assommino gli interessi di diverse classi sociali. » In questa precisa analisi che indica nella Resistenza il momento di unificazione politica di diverse classi sociali, coscienti della loro distinzione e della necessità
www.scribd.com/Baruhk
La filosofia italiana contemporanea
di una lotta comune per comuni obbiettivi, sono accennate anche le linee di differenziazione rispetto ad altri, importanti momenti della storia italiana. La sconfitta del fascismo emargina ed eclissa, per il momento, le due componenti fondamentali del trasformismo politico-culturale italiano: quella massonica e quella moderato-democratica; sono così sostanzialmente distrutti i canali di mediazione politica delle forze laiche, radical-borghesi. I partiti politici di massa emergono perciò come i nuovi protagonisti della vita politico e culturale: sostanzialmente la n c, il PCI e il PSI, i cui strumenti di formazione del personale politico e culturale sono rappresentati dall'azione cattolica, dai sindacati, dalle organizzazioni di massa e dall'istituzione tradizionale, la scuola. Come è noto, il blocco della conservazione ha trovato nel partito dei cattolici il ricambio politico fondamentale, perché era l'unico partito di massa che poteva avere una base popolare-contadina e piccolo-borghese. La DC si sostituì ai liberali anche come formazione di partito di ceti medi urbani, ereditandone e garantendone le istituzioni politiche. Infatti, con la decisione di privare la Costituente dei poteri legislativi, veniva stabilito che tutte le istituzioni liberai-borghesi non sarebbero state né soppresse né sostanzialmente modificate. Nell'ambito di questa situazione, schematicamente delineata, possiamo indicare le diverse linee di politica culturale programmate dalle forze laiche e progressiste. Si impone subito una prima e fondamentale osservazione di carattere generale: una delle caratteristiche più evidenti della nuova situazione culturale rispetto a quella precedentemente esistita, è che non siamo più in presenza di un unico indirizzo filosofico dominante. Croce e Gentile avevano effettivamente esercitato una egemonia culturale, erano cioè riusciti a operare una articolata e solida unificazione della cultura borghese, sia conservatrice che reazionaria. L'opposizione al fascismo di Croce, dopo il I 92 5, aveva però rivelato l 'impossibilità, da parte del regime - che fece vari tentativi per neutralizzarlo e averne il consenso - di assolvere un ruolo egemonico su tutta la cultura filosofica italiana, lasciando così aperta una dinamica di contestazione, di critica e di opposizione che si è più o meno sviluppata nei diversi periodi del regime. Così altri centri filosofici, rappresentati dalla « Rivista di filosofia » negli anni trenta e da « Studi filosofici » negli anni quaranta, assunsero tale funzione critica. Orbene, la lotta di liberazione nazionale ha inferto un duro colpo alla tradizione moderata, perché ha saputo recare un validissimo contributo alla creazione di una nuova unità, mai prima realizzata, fra le forze più vive e politicamente più coscienti degli operai, dei contadini e degli intellettuali. A ciò dobbiamo aggiungere il fatto che il progetto politico conservatore di Croce (la restaurazione della monarchia) e anche prima quello difeso da Gentile durante l'ultima fase del regime (di una unità attorno al fascismo e a Musso lini) si sono dimostrati irrealizzabili. L'unità fra filosofia e politica, tante volte retoricamente proclamata dagli idealisti, confermava ora anche la sconfitta di 71
www.scribd.com/Baruhk
La filosofia italiana contemporanea
tutta una politica culturale. I nuovi compiti che attendevano i filosofi, vennero sottolineati assai bene dalla « Rivista di filosofia » nella premessa al primo numero del 1946: « Dopo la conclusione di un periodo decisivo per la storia umana - periodo in cui il filosofo, come ogni altro uomo, ha dovuto mettere da parte i suoi problemi più cari e scendere egli pure nel vivo della lotta per impegnare se stesso, talvolta nella difesa dei più alti valori etici, tal altra più semplicemente nella difesa della sua persona, della sua famiglia e della sua casa occorre che egli torni ai suoi problemi con una serietà più grave, con animo reso più comprensivo e più sincero dal contatto di innumeri esperienze e dolori, con senso più profondo della propria missione e della propria responsabilità. >> L'articolo in parola individuava poi «i due pericoli a cui la filosofia si trova oggi esposta. La tentazione dell'evasione accademica o retorica dell'idea e l'opposta del decadentismo o retorica del sentire >>. La cultura filosofica italiana si è caratterizzata subito per una pluralità di orientamenti, resi possibili dal mutato clima di apertura verso pensatori e correnti prima poco conosciuti o esclusi dalla circolazione culturale. Bisogna inoltre osservare che le nuove correnti che emergono e si affermano, non riprendono affatto, o riprendono in modo indiretto, filosofie precedenti la nascita del fascismo. La fenomenologia, l'esistenzialismo, il neoempirismo, la filosofia della scienza, non hanno infatti solidi motivi di continuità con la cultura italiana del primo decennio del secolo. Questi orientamenti erano sorti nell'ambito della cultura europea degli anni trenta e in un primo momento non avevano avuto che deboli risonanze in Italia; solo ora, in un più aperto e serrato dialogo con la cultura europea, precisano il loro orientamento. Nel breve volgere di un quinquennio (1945-50) si diffonde in tutti gli ambienti un'esigenza sempre più viva di aggiornamento della cultura filosofica e politica. Il primo congresso internazionale di filosofia si svolge a Roma nel 1946 ed è significativamente dedicato all'esistenzialismo e al marxismo. Sorgono riviste che dibattono i temi della cultura scientifica («Analisi», « Sigma », «Methodos »). Emergono nuove problematiche all'interno di ogni campo del sapere: dalla filosofia del diritto alla pedagogia, dalla storiografia alla scienza. Discipline che erano state completamente emarginate o escluse dalla circolazione culturale come la psicologia, la psicanalisi, la sociologia, la linguistica, vengono ora seriamente studiate. In particolare la filosofia della scienza e la storia della scienza, che avevano trovato in Enriques un instancabile difensore, cominciano ad essere attivamente discusse. È un campo in cui si fa subito più evidente lo stacco della cultura italiana rispetto a quella europea; pertanto si traducono libri, si organizzano convegni. A Torino sorge, nel 1946, un Centro di studi metodologici, a Milano un Centro di metodologia e analisi del linguaggio (1945) e a Roma un Centro di sintesi ( r 94 5). In tali organizzazioni, filosofi e scienziati (matematici, fisici,
www.scribd.com/Baruhk
La filosofia italiana contemporanea
biologi ecc.) di diversi orientamenti, si incontrano per una avvertita necessità conoscitiva di approfondimento, di verifica delle proprie proposte di studio e di ricerca. Parallelamente a questo interesse per i problemi metodologici delle scienze, si « riscoprono » filosofi prima troppo rapidamente liquidati dall'idealismo, come Giovanni Vailati. Nel campo della storiografia filosofica si hanno i risultati più cospicui e persuasivi. Si dimostrano rapidamente logori e insufficienti i precedenti canoni interpretativi di stampo idealistico, che avevano portato alla più recisa esclusione di tutta la tradizione scientifica, per privilegiare un ipotetico « primato » italiano. C'è inoltre un diverso apprezzamento di opere recenti e lontane della cultura europea, ora esaminate in una prospettiva nuova. Avviene insomma la definitiva eclissi del filosofo di tipo tradizionale perché cambia il suo ruolo sociale e ideologico-politico, che prima è stato di tipo profetico, nella duplice variante populistica e aristocraticistica. Come sostiene Bobbio, scompare la « figura- così tipica in tutta la nostra storia risorgimentale e post-risorgimentale sino al fascismo incluso - dell'intellettuale mentore o pedagogo, il cui compito principale che lo eleva al di sopra della massa è quello nobilissimo, solenne, sublime, dell'educazione nazionale, quel compito che trae alimento dall'idea che l'Italia è fatta e bisogna fare gli italiani». Questa nuova situazione culturale fu definita con il termine « neoilluminismo », non per caratterizzare un preciso orientamento filosofico, ma piuttosto un modo diverso di fare filosofia, un nuovo atteggiamento verso i problemi dell'uomo e della storia, una maggiore attenzione agli strumenti logico-linguistici del mestiere del filosofo, una più vigile cautela nelle generalizzazioni e uno studio accurato e puntuale delle metodologie delle scienze. Lo sorresse la persuasione che non esiste una razionalità assoluta, attingibile con strumenti extra-razionali, ma che la razionalità è umana e l'uomo progredisce solo potenziandola nella concretezza della ricerca scientifica, nella lotta per liberarla dai risorgenti miti e « idola », insomma dalla permanente tentazione metafisica che esclude la problematicità e l 'inesauribile varietà della realtà e della ricerca. Il neoilluminismo designò non una filosofia nel senso tradizionale, di sistemazione compiuta degli «eterni» problemi, ma una «politica culturale» che ebbe l'obbiettivo di «tradurre i principi in istituzioni vive. Non rifare il mondo, ma partecipando dell'esistente correggerlo» (Bobbio). In questo orientamento si riconobbero il razionalismo critico di Banfi e l'esistenzialismo positivo di Abbagnano, il neopragmatismo di Preti e il nuovo razionalismo di Bobbio e di Geymonat, insieme alle sorgenti tendenze analitiche e fenomenologiche soste~ nute da Rossi-Landi e Paci. Questi filosofi, unificabili più per una certa omogeneità di interessi nella ricerca che per le soluzioni prospettate, sono seriamente impegnati in una profonda opera di aggiornamento della filosofia e di rinnovamento democratico dell'Italia. 73
www.scribd.com/Baruhk
La filosofia italiana contemporanea
11 riferimento all'illuminismo è accolto per il significato polemico che esso ha non solo verso l'idealismo italiano -che ne aveva fatto il suo costante bersaglio polemico - ma anche per la funzione riconosciuta alla ragione e alla scienza come strumenti essenziali per progettare una nuova società. Orbene, questa confluenza di diversi orientamenti filosofici quali risultati ha raggiunto sul piano della politica culturale e della ricerca? Nel campo della storiografia filosofica laica vanno ricordati in particolare i contributi di Mario Dal Pra, Eugenio Garin, Paolo Rossi, Pietro Rossi, Carlo Augusto Viano. Rinascono gli studi sociologici e nel I950 appaiono i« Quaderni di sociologia » diretti da N. Abbagnano e F. Ferrarotti. Riprende ad uscire sia la « Rivista di psicanalisi » (I 94 5) (anche se i primi collaboratori sono prevalentemente stranieri) sia nuove riviste filosofiche di cui diamo informazioni nel paragrafo successivo. Questa rinascita neoilluministica è stata avviata dal già menzionato Centro di studi metodologici, di Torino, sorto per iniziativa di otto studiosi (N. Abbagnano, N. Bobbio, P. Buzano, C. Codegone, E. Frola, L. Geymonat, P. Nuvoli, E. Persico). Attraverso un rapporto di stretta collaborazione e uno scambio culturale frequente e impegnato, questi studiosi sono riusciti a dare un effettivo contributo al rinnovamento della cultura filosofica. I risultati dei dibattiti dei primi anni sono raccolti nei due volumi Fondamenti logici della scienza (I 94 7; con scritti, nell'ordine, di: Geymonat, Persico, Buzzati-Traverso, Buzano, Frola, Abbagnano) e Saggi di critica delle scienze (I95o; con scritti, nell'ordine, di: Abbagnano, Bobbio, Buzano, Codegone, Frola, Geymonat, Nuvoli, De Finetti). L'esame di questi lavori può testimoniare non solo una sicura conoscenza dei risultati più aggiornati raggiunti fuori d'Italia, ma anche un tentativo di rielaborazione e di accertamento di tali nuove tecniche nell'ambito delle singole competenze scientifiche. Inoltre il Centro ha promosso - pubblicandone gli atti - un congresso di studi metodologici (dicembre I952), con sessantasei fra relazioni e interventi, una raccolta organica di saggi su Il pensiero americano contemporaneo, sotto la direzione di F. Rossi-Landi. Negli anni sessanta l'attività si è « specializzata» attraverso approfondimenti critici di campi delimitati del sapere scientifico, riscontrabili in queste pubblicazioni: « Atti del convegno nazionale di logica» dell'aprile I96I; «Atti del convegno sui problemi metodologici di storia della scienza » del marzo I 967; « Atti del convegno sulla metodologia della termodinamica » del marzo I968. Il segno più evidente della presenza culturale del neoilluminismo è dato dal fatto che i contributi filosofici più rilevanti degli anni quaranta-cinquanta, rientrano nell'ambito di tale orientamento, e così pure i dibattiti di politica culturale, di cui riferiamo nel paragrafo xr. Più complesso è il giudizio sul neoilluminismo come « politica culturale », perché nel dopoguerra, dopo che il blocco della conservazione ottenne, nelle
74 www.scribd.com/Baruhk
La filosofia italiana contemporanea
elezioni del I 8 aprile I 948, un amplissimo consenso elettorale, lo spazio politico del riformismo e del radicalismo si restrinse, o meglio, rientrò in larga misura nella stessa dinamica del blocco conservatore perché il riformismo cattolico si saldò con quello sostenuto da una parte minoritaria del movimento operaio (dopo la scissione del PSI del I947), ma sufficiente per garantire la conservazione del sistema sociale. Pertanto le istanze politiche « neoilluministiche » quando non sono state riassorbite dai partiti di governo non hanno trovato adeguata accoglienza negli altri partiti operai, per complesse ragioni che vedremo più oltre. Se sul piano politico i « neoilluministi » non hanno raggiunto risultati consistenti, sul piano culturale la loro azione è stata più ampia e incisiva, anche in ragione dei limiti del personale culturale dei partiti di massa. L'insufficienza più rimarchevole si è avuta sul terreno della lotta per un rinnovamento della scuola. La scuola è rimasta sostanzialmente gentiliana nelle strutture e nei c•mtcnuti. Su questo terreno i neoilluministi non hanno saputo offrire una reale alternativa; questa passività ha permesso al blocco della conservazione di estendere e rafforzare la sua presenza, facilitato dalla struttura gerarchico-autoritaria di tale i!>tituzione, permettendo così il controllo di uno degli strumenti fondamentali ddla formazione delle nuove generazioni, le quali solo nel '68 hanno inizia1o una ribellione di massa contro questa scuola. VII
• LE NUOVE RIVISTE FILOSOFICHE DELL'IMMEDIATO DOPOGUERRA
In seguito all'avanzata delle forze anglo-americane, in Italia veniva concessa l'autorizzazione all'uscita dei giornali, e nei primi mesi del I945 anche al nord non solo i partiti politici, ma anche i locali Comitati di liberazione promossero e diressero decine di giornali in difesa della nuova democrazia che gli italiani stavano conquistando contro l'occupazione nazista e il fasci~mo. Per neutralizzare questa stampa, gli alleati concessero l'uscita delle testate tradizionali- i cosiddetti giornali di informazione - che si erano compromesse con il passato regime. Tale situazione si ripropose anche per le riviste politiche e culturali. Nel breve volgere di alcuni anni, I944-46, molte riviste, espressioni dei partiti e di diverse tendenze culturali, intrecciarono un serrato dibattito politico e ideologico, affrontando tutti i più importanti problemi che la vittoria contro il fascismo apriva. Ne ricordiamo alcune: «Nord-Sud» (D'Ambrosia, Milano), «Lo stato moderno» (M. Paggi, Milano), «Città libera» (G. Granata, Roma), « La nuova Europa» (L. Salvatorelli), « Realtà politica» (B. Bauer), «Nuovo Risorgimento» (V. Fiore, Bari), «L'Acropoli» (A. Omodeo), « Risorgimento Liberale» (M. Pannunzio), «Nuova società» (M. Bonfantini), «Rinascita» (Togliatti), «Conoscere». (B. Widmar). Noi ora ci occuperemo sommariamente delle nuove riviste di filosofia più 75
www.scribd.com/Baruhk
La filosofia italiana contemporanea
significative, che furono pubblicate nel corso del triennio 1945-48. Dopo quella data, che segue una svolta nettamente moderata, cambia la situazione politica e culturale italiana e le riviste assumono caratteri meno significativi di quel panorama culturale cui è dedicato il presente paragrafo. Durante gli anni trenta avevamo assistito al sorgere di numerose riviste letterarie, direttamente organizzate dalle istituzioni fasciste; ma anche quelle che sorgevano per germinazione spontanea, o come espressione di gruppi culturali ristretti e autonomi, si occuparono quasi esclusivamente di letteratura; pochi sono gli articoli di filosofia ivi presenti. Solo «Il Saggiatore » (1930-33) diretto da D. Carella difese il pragmatismo, assunto più come atteggiamento esistenziale che in rigorosi termini filosofici. Fu soprattutto un modo per opporsi al dominante idealismo, rivendicando la legittimità di un pluralismo di posizioni culturali e politiche. Le nuove riviste filosofiche che si pubblicano durante il ventennio in Italia, « non avevano, come si suo l dire, una buona stampa » (Bobbio). Se si escludono le riviste dirette da Croce, Gentile, Martinetti e Banfi, le altre «erano appannaggio di istituti ufficiali o di professori che possedevano insieme con una cattedra, un sistema compiuto, e la filosofia che ne esalava era quasi sempre l'espressione di una società chiusa che parlava di sé e dentro di sé, a guisa di una arcadia di pastori lontani dal mondo» (Bobbio). È indubbio che l'intellettuale tradizionale, di formazione letteraria, assolve un ruolo preciso nella società fascista; la « società delle lettere » degli anni trenta ha un suo spazio politico sia nel momento in cui offre strumenti di consenso per il regime, che in quello contestativo, perché essa accetta comunque una sua autosufficienza ideologica di gruppo, precludendosi un impatto immediatamente politico con la realtà. I dibattiti filosofici, quando si sviluppano, mettono in evidenza tensioni e linee culturali antagonistiche non facilmente mediabili: è il caso di quello sull'esistenzialismo sviluppato su «Primato» (1940-43), la rivista diretta da Giuseppe Bottai, il quale riuscì a convogliare, attorno al fascismo, in una operazione di articolata collaborazione culturale, una grande parte dei letterati italiani. I filosofi che sono intervenuti, da Ab bagnano a Paci, da della Volpe a Luporini, a Banfi e altri, hanno evidenziato posizioni riprese e approfondite nel dopoguerra. La discussione politica che fa da sfondo al dibattito culturale di quegli anni riguarda gli obbiettivi politici e sociali che debbono essere raggiunti attraverso la « democrazia progressiva ». Il movimento operaio e quello comunista in particolare, fin dal vn congresso dell'Internazionale (I 9 35) aveva discusso tale questione, nella convinzione che, fermo restando l'obbiettivo storico dei partiti comunisti, la dittatura del proletariato, la nuova situazione creata dalla guerra antifascista imponeva la creazione di una repubblica di tipo nuovo. Mao Tsetung ha espresso questa posizione nel saggio del 1940, La nuova democrazia, in cui ha affermato che la « repubblica di nuova democrazia » differisce sia dalla re-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
pubblica capitalista di vecchio tipo europeo sia dalla repubblica socialista di tipo sovietico. Analoghi dibattiti avvengono nei gruppi dirigenti dei partiti operai italiani e anche in quelli cosiddetti di « terza forza», e viene trovata una unità sulla base dell'obbiettivo di un regime di repubblica parlamentare, di tipo sostanzialmente prefascista, fondato sull'alleanza politica dei tre partiti di massa ne PSI PCI e l'adesione delle altre forze liberai-democratiche. L'altra interpretazione della «democrazia progressiva», che ha avuto in E. Curiel il suo più coerente teorico, parte dal riconoscimento - conseguente a un'analisi del fascismo come regime reazionario di massa - che solo l'abbattimento delle istituzioni statali fasciste può aprire la possibilità di una democrazia di tipo nuovo, forte dell'adesione degli organismi politici creati nel corso della lotta antifascista e perciò con un equilibrio fra i partiti nettamente favorevoli alle forze popolari. Con i decreti luogotenenziali del '44 e del '46 l'Assemblea costituente venne privata - come già si è detto - del potere legislativo ordinario, che fu invece delegato al governo, per cui non furono abrogate le istituzioni fasciste e su questa base poté essere realizzata una solidarietà fra i tre partiti di massa, interrotta poco dopo dall'inizio della guerra fredda. Le due linee di politica culturale che emersero in questo periodo furono emblematicamente rappresentate dal « Politecnico » di Elio Vittorini, teso alla ricerca di una nuova cultura, che rompesse radicalmente con la nostra inveterata tradizione retorico-umanistica e l'altra, rappresentata da « Società», diretta da Cesare Luporini insieme ad altri, che invece evidenziò i motivi e i momenti di continuità della tradizione storicistica della cultura italiana. Il « Politecnico » rappresenta il progetto politico-culturale più organico elaborato da una parte degli intellettuali antifascisti e democratici per dare consistenza ideologica e concretezza di contributi specifici alla democrazia progressiva. Il giornale diretto da E. Vittorini ed edito da Giulio Einaudi -l'editore della «nuova cultura» di quegli anni - uscì il 29 settembre 1945 e fino al n. 28 (6 aprile 1946) fu settimanale, in formato quotidiano a due colori, con impostazione grafica originale e irrepetibile di AJbe Steiner. Dal n. 29 al n. 39 (dicembre 1947) proseguì come mensile. I redattori furono F. Fortini, F. Calamandrei, V. Pandolfi e successivamente G. Ferrata. «Il Politecnico» nasce alla conclusione di un vasto, articolato lavoro pr-ttico-politico precedente, attuato attraverso il «Fronte della gioventù» e il «Fronte della cultura», due strumenti di organizzazione e intervento politico che nel nord, e a Milano in particolare, avevano assolto una funzione di netta rottura politica, e di una prima organizzazione di strumenti di base poi, di grande rilievo. « Il Politecnico » che si richiama fin dal titolo alla migliore tradizione illuministica italiana rappresentata da Cattaneo, è il punto di convergenza di questo
www.scribd.com/Baruhk
La filosofia italiana contemporanea
lavoro politico, preparato e portato avanti da un vasto schieramento di forze, che però non si identificano in un solo partito, ma piuttosto in un fronte unito contro il fascismo in tutte le sue manifestazioni (sociali, politiche e culturali). Inoltre i diretti collaboratori hanno una precisa storia di lotta politica. Vittorini è uno degli intellettuali che ha partecipato da protagonista alle più importanti discussioni delle riviste dei Guf e letterarie degli anni trenta, sempre in atteggiamento di ricerca conoscitiva e di critica, al limite della legittimità e tolleranza accettate dal regime fascista. Egli ha dato alla cultura antifascista uno dei risultati letterariamente più alti, in cui si è riconosciuta una generazione di giovani, Conversazione in Sicilia del I94I. Anche gli altri collaboratori provengono dalla resistenza: Preti, che imposta e dirige un fondamentale dibattito teorico, proviene da una esperienza militante di opposizione, condotta su « Corrente » (I 9 38-40) e su« Studi filosofici», prima serie (I940-44). Il « gruppo » di Banfi partecipa direttamente al giornale, le cui linee programmatiche erano state discusse inizialmente da Vittorini e Banfi con Eugenio Curie l. La dichiarazione programmatica inizia in questi termini: «Il nostro settimanale si occupa: I) di cose di problemi culturali ma con criterio inteso a soddisfare veramente le esigenze culturali dei lettori; z) ha interessi specifici ma per tutti i campi e tutti gli aspetti della cultura, dalla poesia alla politica e dai problemi sociali alle: arti figurative; 3) ha un indirizzo non formato, ma in via di formazione, che cerca nel contatto con le masse un nuovo volto culturale e non altro presuppone in chi legge che il bisogno di conoscere, volontà di conoscere e capacità di compiere uno sforzo per conoscere. » «Il Politecnico» rimase fedele a questo compito e lo assolse con grande impegno e rigore intellettuale; tentò un'analisi della cultura borghese, in un aperto colloquio con le correnti filosofiche allora dominanti (esistenzialismo, pragmatismo), propose il recupero della tradizione letteraria più avanzata e rivoluzionaria, in un rapporto di tensione critica, per evidenziarne i limiti o gli esiti che dovevano essere superati e trasferiti in una cultura nuova, di rottura. Andò alla ricerca della sconosciuta, autentica realtà sociale e umana dell'Italia postfascista, per indicare le linee di un possibile intervento culturale e politico, per allargare la base di consensi e di lotta per la democrazia progressiva, con un richiamo polemico ai compiti politici dello schieramento democratico verso la spagna. Sviluppò insomma le linee tendenziali di una politica culturale che portava a nuove contraddizioni la politica di un reciproco compromesso intrapresa allora dai tre partiti di massa. Ed è significativo che « Il Politecnico » costituisca ancora un punto di riferimento nell'odierno dibattito, cioè nel momento in cui si ripresentano alcuni dei problemi affrontati e non risolti dal « Politecnico » e da chi ha interrotto quel lavoro. Su Vittorini di quel periodo il giudizio più persuasivo è stato espresso da Francesco Leonetti: «La posizione di Vittorini sul
www.scribd.com/Baruhk
La filosofia italiana contemporanea
lavoro culturale non è quella del materialismo dialettico; tuttavia non contiene qui a nostro avviso, come insuperabili, indicazioni contrarie, mentre più oltre, bloccato il rapporto costruttivo col partito, Vittorini si attesta inevitabilmente nel radicalismo democratico, senz'altro spazio. È vero che Vittorini parla qui a lungo di "autonomia della cultura". E questo concetto è poi diventato di specialismo di destra. In Vittorini assume però un valore di difesa dello " specifico " non ridotto né subalterno o compromesso, in quanto Vittorini non mette in dubbio la priorità dello scopo rivoluzionario. » L 'altra rivista della sinistra, « Società », nei primi sei fascicoli del biennio 1945-46, dà ampio spazio alla letteratura italiana, inglese e russa; pubblica saggi di aggiornamento e di analisi di economia, storia, diritto e alcuni contributi filosofici di Cesare Luporini e Arturo Massolo oltre a documenti, recensioni e rassegne delle riviste politiche; è del tutto assente la problcmatica scientifica. La linea è espressa in editoriali che chiariscono le posizioni e l'C: linee di intervento culturale della rivista. Nel primo numero è affermato: «Come dice il titolo stesso della rivista, noi crediamo, innanzitutto, a una strettissima, a una intima connessione fra cultura e società che la esprime e in cui essa si esprime. » L'analisi de! fascismo «nato dalle viscere della nostra società» è tale da sottolineare ora più i motivi di permanente continuità che quelli di rottura, i pericoli di un ritorno delle vecchie forze che le ragioni di una possibile loro neutralizzazione ed emarginazione, la necessità di avviare da parte degli intellettuali, in stretto rapporto di collaborazione con le forze sociali del lavoro «un immenso lavoro, un'operosa costruzione in uno sforzo costante verso un mondo nuovo e migliore»,, in cui l'accento è posto più sulla necessità di integrazione nella cultura, con compiti non di progetto o proposta alternativa, ma di sollecitazione di dibattiti, di mediazione dei contrasti, in una visione solidaristica con le forze politiche che combattono per restituire all'Italia un regime parlamentare. Pertanto il centro culturale d'interesse è la storia poiché « nessuna conquista nel campo della civiltà umana è possibile, senza un vigoroso e pregnante senso della storia » (R. Bianchi Bandinelli). In questa prima fase C. Luporini porta la critica più radicale al « Politecnico », negando la legittimità stessa della ricerca o dell'ipotesi di una nuova cultura, come anticipazione di una realtà e di contenuti culturali nuovi e ribadisce che il connotato di storicità è intrinseco alla cultura. Con il 1947 « Società» conclude la fase «sperimentale», e può presentarsi, ora che la posizione tendenzialmente antagonistica del « Politecnico » tace, in una nuova serie come «rivista di tendenza», pubblicando nel primo numero dell'annata alcuni scritti filosofici dei Quaderni dal carcere di Gramsci. Veniva così iniziata quella utilizzazione di Gramsci in funzione di una linea culturale, le cui matrici erano diverse e diversamente motivate, perché quegli scritti erano separati dal preciso riferimento politico di lotta leninista condotta da Gramsci durante la sua direzione del partito («Tesi di Lione», 1926) prima, e contro 79 www.scribd.com/Baruhk
La filosofia italiana contemporanea
la teorizzazione del socialfascismo poi, negli anni trenta, quando la teoria del socialfascismo fu rifiutata apertamente da Pietro Tresso, Paolo Ravazzoli, Alfonso Leonetti e anche, dal carcere, da Umberto Terracini e Antonio Gramsci. Al rinnovamento della cultura filosofica ha dato un contributo rilevantissimo « Studi filosofici», diretta da A. Banfi e con la collaborazione di un ristretto ma agguerrito gruppo di redattori, che hanno approfondito con tendenza unitaria, ma differenziata nei contributi, la ricerca nei diversi campi culturali: R. Cantoni, G.M. Bertin, E. Paci, G. Preti, L. Anceschi, D. Formaggio e altri. La linea antiidealistica della prima serie (1940-44) in difesa di un problematicismo volto alla delineazione di una sistematica del sapere aperta alla integrazione delle scienze umane, si radicalizza nella nuova serie (1946-49) nella discussione con l'esistenzialismo, il pragmatismo, il realismo e contro le risorgenti tentazioni spiritualistiche. Banfi precisa subito che « Studi filosofici» «non vuol essere l'esponente di un particolare indirizzo sistematico. Vuole essere piuttosto un organo di ricerca e di analisi critiche, rivolte a porre in piena luce una differenziazione delle sue forme e delle sue direzioni, la problematica filosofica, traendola fuori dall'irrigidimento di posizione o soluzioni dogmatiche o dalla contaminazione di generici valori spirituali ». Il punto d'approdo di questa ricerca è stato un marxismo antidogmatico, inteso come l'orizzonte teorico più adeguato per inquadrarvi la complessa articolazione delle scienze umane. Gli ampi saggi di Banfi (poi raccolti nel volume L'uo1110 copernicano, 1950), di Preti sul neopositivismo, sullo spiritualismo italiano nonché i suoi precisi « panorami scientifici »; gli scritti di Cantoni sul marxismo, quelli di Bertin sull'attualismo, e le integrazioni di Lukacs, Cornu, Geymonat, della Volpe, portano contributi originali e approfondimenti nuovi, a cui è necessario anche oggi riferirsi per comprendere adeguatamente le vicende della nostra recente storia culturale. Un tentativo di aprire un serio dibattito e incontro fra le due culture è condotto da « Analisi » (rassegna di critica della scienza, r 94 5-47) diretta dal fisiologo Giuseppe Fachini, l'astronomo Livio Gratton e Giulio Preti. I redattori - di diversi orientamenti filosofici - precisano subito il loro obbiettivo: « Proporre un luogo di discussione libera per quanti, cultori di discipline scientifiche e filosofiche, abbiano interesse ai problemi di metodologia generale e speciale delle scienze. » È un primo tentativo, che coinvolge scienziati, ricercatori e filosofi, i quali discutono collettivamente i risultati delle loro ricerche e dei loro saggi, in uno stile collaborativo nuovo e insolito per la cultura italiana, che però non avrà una continuità. Nel 1940-41 era uscita da Einaudi la rivista « Il Saggiatore », che aveva pubblicato articoli di alta divulgazione scientifica, informati e precisi. Nel gennaio 1947 esce il primo dei sei fascicoli di« Sigma »(conoscenza unitaria), a cura di Giuseppe Vaccarino e Vittorio Somenzi e collaborazione determinante di Silvio Ceccato. So
www.scribd.com/Baruhk
La filosofia italiana contemporanea
Un indubbio merito della rivista è stato quello di avere pubblicato numerosi e importanti saggi inediti di Eugenio Colorni, la cui ricerca teorica è stata diretta ad una analisi dell'uomo, attraverso l 'utilizzazione dei risultati più persuasivi della psicanalisi e una considerazione della scienza che escluda influenze estranee e fuorvianti (secondo il modello avanzato da Bachelard). Egli ha così proposto una « metodologia non filosofica» di tipo operativistico. I redattori però non sono pervenuti all'operativismo attraverso lo studio degli scritti colorniani ma piuttosto quegli scritti hanno confermato che uno fra i più acuti filosofi dell'ultima generazione stava pervenendo ad analoghi risultati. Alla fine di una prima ricognizione teorica di carattere generale, i redattori annunciano che proseguiranno la ricerca, con allargamento di collaborazioni e con ulteriore approfondimento di « tecnica filosofica », dando origine a un'altra rivista, « Methodos », che infatti inizierà a uscire nel 1949. Nel 1946 esce anche la «Rivista di storia della filosofia», diretta da M. Dal Pra, con lo scopo di « promuovere le ricerche e gli studi di storia della filosofia sul fondamento di indagini filosofiche severamente condotte e in riferimento a problemi di interesse particolarmente vivo nella cultura del nostro tempo». Viene iniziata una revisione della storiografia filosofica idealistica, la quale aveva analizzato e valutato i pensa tori secondo schemi aprioristici; di qui la necessità di un lavoro che « muove dalla coscienza di una maggiore complessità della storia», attraverso un più serio uso delle fonti e un maggior rispetto delle procedure di accertamento dei dati, trascurati o distorti da chi predetermina la ricerca secondo ben definite categorie filosofiche. A partire dal 1949 diventa « Rivista critica di storia della filosofia » e in un aperto, vivace dibattito sull'orientamento filosofico che era sotteso al lavoro storiografico della rivista e solo accennato in modo un po' confuso nell'editoriale di presentazione - il « trascendentalismo della prassi » - ne emergono i limiti e gli esiti metafisici, tanto che questa posizione, che nasceva da una giusta esigenza critica verso un risorgente intellettualismo filosofico, fu abbandonata. Oltre a queste nuove riviste, riprendono a uscire alcune testate del periodo precedente; la« Rivista di filosofia» diretta da N. Bobbio, si afferma subito come uno dei centri più vivi del dibattito teorico e storiografico, con saggi sul pensiero contemporaneo italiano e una dichiarata volontà di aggiornamento critico verso le correnti filosofiche europee e americane. « Scientia » continua la linea di informazione sulla cultura scientifica europea. Altre riviste mantengono il vecchio orientamento, che più marcatamente ne evidenzia l'arcaicità o l'inutilità: riprende a uscire il « Giornale critico della filosofia italiana » che, dopo un fascicolo per il periodo 1944-46, inizia nel 1947 la terza serie come organo della «Fondazione G. Gentile per gli studi filosofici», « Sophia » (1946) di C. Ottaviano, la «Rivista di filosofia neoscolastica » (1945) diretta da A. Gemelli, «Ricerche filosofiche» dirette da D.A. Carbone, l'« Archivio di filosofia» (1945) diretto da 81
www.scribd.com/Baruhk
La filosofia italiana contemporanea
E. Castelli, che diventa una raccolta di monografie su argomenti specifici. Nascono altre riviste di «scuola», nel senso tradizionale del termine: « Teoresi » (1946) di V. La Via e il «Giornale di metafisica» (1946) di M.F. Sciacca. VIII
• L 'ESISTENZIALISMO
Con l'opera di Nicola Ab bagnano Struttura dell'esistenza del 1939, l'esistenzialismo italiano acquista precisi connotati - culturali e teorici - rispetto alle altre forme di esistenzialismo, delineate nel capitolo vrr del volume settimo. Negli anni. precedenti ha costituito un motivo di dibattito, o all'interno della tematica attualistica (Ernesto Grass~: Il problema dellogo, 1935), o di quella fenomenologica (Giulio Grasselli: La fenomenologia di Husserl e l'ontologia di M. Heidegger, 192.8). Anche Banfi ha dibattuto tali problemi, ma con atteggiamento fortemente critico; ne ha indicato il limite nella forma dogmatica in cui pone il problema dell'esistenza, perché « non è visto nell'universalità della sua posizione logica e perciò non è svolto né da un punto di vista soggettivo - come problema dell'intuizione - né da un punto di vista oggettivo - come problema della persona, dell'umanità, della storia, della natura - in tutta la pienezza delle sue forme e dei suoi sensi d'esperienza». Una delle caratteristiche dell'esistenzialismo italiano è lo scarso rilievo che assume il problema religioso; tale problema è stato invece discusso e variamente risolto sia dagli spiritualisti cattolici, alcuni dei quali - come indichiamo nel paragrafo IX - hanno mediato istanze esistenzialistiche, sia da studiosi protestanti, che si richiamarono al pensiero di Barth: G. Miegge, Protestantesimo e spiritualismo (1941) e dalle riviste «Gioventù cristiana», « L'appello» e «Protestantesimo». L'esistenzialismo italiano si rifà alla tematica della finitezza, di ispirazione kantiana, ma senza pervenire a soluzioni nullistiche, rivelando così «un senso molto più vivo dell'operare umano, una concezione molto più positiva della storia, una sensibilità molto più spiccata per le realizzazioni assiologiche» (Pareyson). La polemica- esplicita in Luporini e Massolo - è contro l'idealismo italiano, per la riaffermazione della realtà dell'individuo - naturale e umana - e della società, non risolta spiritualisticamente, come nell'ultima opera gentiliana, ma considerata nella storicità delle sue strutture. Infine è affrontato - con soluzione anti-idealistica - il problema del valore conoscitivo della scienza, negato o irrisolto dalle altre forme di esistenzialismo; esso accoglie istanze ed esigenze della filosofia analitica come del neoempirismo, di cui l'esistenzialismo intende offrire non una fondazione metafisica - sia pure di tipo nuovo - ma un comune orizzonte problematico, incentrato sulla categoria della possibilità. Per tali caratteri l'esistenzialismo italiano si è aperto a un fecondo dibattito con il marxismo di cui ha evidenziato la polemica anti-idealistica e la progettazione di una nuova condizione umana e sociale. (Alcuni filosofi marxisti - Massolo, Luporini - sono passati S.z
www.scribd.com/Baruhk
La filosofia italiana contemporanea
attraverso l'esistenzialismo.) L'unico che ha mantenuto una posizione esistenzialistica, variamente motivata e con successive integrazioni tematiche, è stato Nicola Abbagnano (n. I9oi), già allievo di Aliotta. Egli è pervenuto all'esistenzialismo dopo avere compiuto una serie di complesse ricerche filosofiche e storiografiche, in cui ha indagato la consistenza teorica dei fondamentali orientamenti filosofici antichi e moderni. Nel I923 pubblica Le sorgenti irrazionali del pensiero, o ve sostiene l 'impossibilità di risolvere la realtà, la vita, in termini di razionalità perché permane nell'uomo un complesso di itnpulsi e tendenze che « formano il nucleo centrale e profondo della sua vita ». Egli cerca conferma di questo assunto nei Problemi dell'arte (I 92 5) e nello studio dell'idealismo anglosassone, Nuovo idealismo inglese e americano (I 92 7). Pubblica altri lavori storico-critici: Guglielmo d'Occa/11 (I93I), La nozione del tempo in Aristotele (I933) e teorici: La fisica nuova (I934) e Il principio di metafisica (I936). Questi ultimi due costituiscono l'antecedente teorico del suo esistenzialismo, che è compiutamente espresso in: La stmttura dell'esistenza (I 9 39), Introduzione all' esistenzia!imto (I 942 ), Filosofia, religione, scienza (I947), Esistenzialismo positivo (I948). L'incontro con l'empirismo è testimoniato dalla sua collaborazione al« Centro di studi metodologici » di Torino; il suo avvicinamento a Dewey e la proposta di un neoilluminismo, aperto ai risultati della scienza, sono espliciti nei saggi: Verso un nuovo illuminismo: fohn Dewey (I948), Il nuovo illuminismo (I949), L'appello alla ragione e le tecniche della ragione (I952), saggi raccolti in: Possibilità e libertà (I956). L'ultima sistemazione del suo pensiero, con un privilegiamento dei problemi etico-sociologici, si trova in: Problemi di sociologia (I959), La mia prospettiva etica (I 96 5). Nello scritto su La fisica nuova sostiene che l'esperienza più autentica dell'uomo è quella che avviene nell'intimità del soggetto, prima dell'organizzazione razionale dei dati « oggettivi». Una conferma di questa tesi sarebbe ricavabile secondo l'autore - da un attento studio della relatività. «La fisica relativistica è consapevole che essa ha da fare unicamente con fenomeni; cioè con eventi suscettibili di definizioni e misure fisiche e ripudia e considera affatto priva di senso ogni entità oltre di quella che può essere osservata e misurata. In questo senso la teoria della relatività rappresenta la soggettivazione del mondo fisico. » Il costante riferimento alla posizione di Eddington chiarisce la matrice idealistica di tale interpretazione. Abbagnano ammette la decisiva importanza della scienza, ma come un momento o un livello dell'esperienza, la cui struttura categoriale deve essere fondata &u un principio trascendentale. Questa e altre ricerche lo convincono che dalla descrizione fenomenologica dell'esperienza non si perviene a nessuna forma di antologia, « a nessun ente o sostanza di nessun genere che sia presupposta all'atto del conoscere »; questo principio unitario e unificante deve radicarsi nella costituzione dell'uomo in quanto tale e nel volume La struttura dell'esistenza egli presenta la sua soluzione esistenzialistica: « La filosofia non
www.scribd.com/Baruhk
La filosofia italiana contemporanea
è una sfera delimitata dell'esistenza; è il significato autentico strutturale, la natura dell'esistenza. » Siffatta ricerca dell'autenticità dell'essere non è comunque garantita- secondo il nostro autore- da certezze precostituite. Se l'uomo «cerca l'essere, non lo possiede, non è lui l'essere. Rendersi conto di questa finitudine, scrutarne a fondo la natura è il compito fondamentale dell'esistenzialismo». Accettato che l'esistenza è tensione verso l'essere, Abbagnano rifiuta sia la posizione di Heidegger che qu'ella di Jaspers, perché l'uno configura il punto da cui muove l'essere, cioè il nulla, e perciò l'esistenza è vivere per il nulla; l'altro presenta il punto d'arrivo della ricerca dell'essere come un inevitabile scacco. Il superamento di questa antinomia è offerta dal concetto di struttura: essa è posta al centro dell'analisi di Abbagnano, come «la sola alternativa atta a fondare una analisi esistenziale che non sia la semplice negazione del problema dell'essere». «L'analisi esistenziale è analisi di rapporti», cioè determinazione di condizioni e la condizione trascendentale di tale rapporto è data dalla possibilità: è essa che fonda l'essere come possibilità concreta, progettante. Egli ritiene che solo in questo modo sia salvaguardata la possibilità come condizione permanente di libertà, che non si trasforma mai né nel necessario, né nell'impossibile. La libertà è scelta, possibilità di rapporti, garantita da un'opzione che non è metafisica perché non esclude la ricerca dell'essere, ma è l'unica scelta che rende possibile qualsiasi altra scelta e qualsiasi ricerca che usi gli strumenti della ragione, limitati ma sempre revisionabili e perfezionabili. Questo principio della possibilità del possibile ci conferma insomma che il principio primo non è l'essere ma la possibilità dell'essere, e perciò esso è apertura verso una indagine che abbraccia tutti i campi della realtà. Questo atteggiamento problematico di fronte alla vita non significa né che si procede verso un esito sicuramente negativo, né che si è in grado di superare tutte le difficoltà. Si dovrà pertanto accettare una situazione di rischio: è questo il messaggio di Ab bagnano. « L'esistenzialismo tende a sottrarre l 'uomo all 'indifferentismo anonimo, alla dissipazione, all'infedeltà a se stesso e agli altri: tende a restituirlo al suo destino, e reintegrarlo nella sua libertà.» La libertà è l'ultimo e conclusivo suo tema fondamentale: «L'uomo libero è l'uomo che ha un destino. Il destino è la fedeltà al proprio compito storico, cioè a se stessi, alla comunità e all'ordine del mondo. » L'esistenzialismo di Abbagnano è stato da lui stesso definito «esistenzialismo positivo », proprio per mettere in evidenza che la categoria della possibilità, inerente alla struttura dell'essere e della persona, apre la via a una conclusione positiva: «Pensando, operando, lottando, l'uomo cerca di conquistare l'essere e di possederlo, ma non raggiunge mai la stabilità di una conquista definitiva e di un possesso totale. » Bisogna pertanto accettare questa situazione problematica nella persuasione che l 'uomo abbia gli strumenti conoscitivi per risolverla; una soluzione non conclusiva né che si approssima a un assoluto trascendente, ma pur sempre sufficiente, per affrontare i problemi umani che la vita pone dinanzi a noi.
www.scribd.com/Baruhk
La filosofia italiana contemporanea
È in questo orientamento che si precisa il suo incontro con lo strumentalismo di Dewey, e lo sbocco sociologico ed etico del suo pensiero. La ricerca dell'uomo avviene in un contesto sociale, in cui può realizzare i suoi progetti. «L'uomo ha bisogno dell'aiuto dell'altro uomo, non tanto per conservare la sua vita corporea quanto per essere veramente se stesso. Ma se vuole realizzare la sua unità, se vuole assumere interamente la responsabilità della sua riuscita, l'aiuto degli altri è decisivo. » Nell'ultimo periodo di attività il nostro autore ha scritto ampi studi sulla sociologia, portandovi una sensibilità nuova, in un ambiente, come quello italiano, che ne aveva escluso lo studio. Si tratta però non di ricerche concrete, specifiche, ma di analisi metodologiche generali, utili perché hanno fatto conoscere il pensiero europeo e, in particolare, quello americano, stimolando indagini e discussioni. Fra gli allievi di Ab bagnano ci limitiamo a ricordare: Pietro Chiodi (I 9I 5-7o), Pietro Rossi (n. I93o), Carlo Augusto Viano (n. I929) e Mario Trinchero. Tutti e quattro hanno dato rilevanti contributi nella storiografia filosofica e sociologica. Un altro importante contributo all'esistenzialismo è dato da Enzo Paci (19I I-76). Egli ha partecipato negli anni trenta al dibattito politico-culturale prima su « Urpheus » (I 9 32-33 ), poi su « Cantiere » (I 9 34-3 5); ha discusso il contributo del neokantismo e della fenomwologia e ha approfondito il problema del non-essere e del rapporto uno-molteplice in: Il significato del Partnenide nella filosofia di Platone (I938), in cui sono presenti molti motivi del suo pensiero, fino all'ultima fase. Una prima sistemazione complessiva del suo orientamento è data in: Principii di una filosofia dell'essere (I 939) i cui temi saranno approfonditi e rimessi in discussione in altri scritti: Pensiero, esistenza e valore (I 940), Esistenza ed in1magine(1947), Esistenzialismo e storicisnto (1950), Il nulla e il problema dell'uomo (1950), Esistenzialismo (I 9 53). Nei Principii affronta - con utilizzazione del razionalismo banfiano- il problèma della personalità, della natura e dell'esistenza: «La vita nelle sue forme è tensione tra l'esistenza ed il valore. » L'esistenza è anteriore allo spirito, è «assai vicino all'immediatezza del sentimento e dell'inconscio che appare come natura e rende possibile, nello stesso tempo, lo spirito »: essa è possibilità che tende al valore come suo principio regolativo; la storicità costituisce la sua essenza come temporalità e siccome « esistere nel tempo significa avere dei bisogni: le verità di fatto sono la struttura economico-utilitaria dell'esistenza», onde la filosofia progetta la trasformazione delle situazioni negative in positive, secondo finalità storicamente determinate. L'esistenzialismo di Paci si inscrive così in quello positivo di Ab bagnano; egli cerca di delineare una metafisica del finito, fondata sulla negatività come principio; infatti se l'esistere è costitutivamente bisogno, consumo, «l'essenza metafisica necessaria dell'esistenza è la sua struttura, concepita, in senso lato, come economica, ma proprio questa necessità toglie all'esistenza ogni assolutezza e ogni autonomia». Su di lui ri-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
torniamo nel paragrafo x per delineare la sua conclusiva fase fenomenologica. Cesare Luporini (n. I9o9) è stato in Germania, alla scuola di Heidegger; egli ritiene che l'esistenzialismo non sia un sistema, ma il punto di confluenza di movimenti e di esigenze storicamente precise, « l 'idealismo italiano, la filosofia della vita e la filosofia esistenziale». L'avvio è dato da Kant, di cui Luporini propone una lettura in chiave nettamente anti-idealistica nel primo saggio, Critica e metafisica della filosofia kantiana (I 9 3 5), ed esplicita il suo esistenzialismo in: Situazione e libertà nell'esistenza utnana (I 942, n ed. modificata e aumentata, I 94 5). Il problema dell'esistente è stato posto da Aristotele e da Kant in antagonismo con la linea Platone-Hegel: l 'individuo non è traducibile in termini logico-scientifici: è oggetto dell'esperienza e non della scienza. Kant ha indicato una soluzione ancora valida del rapporto tra ragione ed esperienza, cioè tra « i modi del contemplare (le leggi del pensiero) e i modi del contemplato (le leggi del reale) »; è questo il senso stesso della sua rivoluzione copernicana: l 'attività della ragione « muove sempre da una deficienza, dalla molteplicità, alla ricerca di una sufficienza, dell'unità (incondizionata, assoluta). La deficienza è la finitezza dell'uomo, ossia la sua stessa realtà». L'uomo vive questa irrisolta antinomicità, fra l'atto e il fatto in cui la ragione si definisce nel rinvio a una « irriconoscibile », e perciò urgente, libertà. L'esistenza è appunto «l'immanente esperienza che abbiamo della nostra libertà»; nella duplice accezione trascendentale e come piano della « fattuosità »,cioè del concreto, storico operare che è anche un cooperare con gli altri uomini. La filosofia è antropologia, cioè esame di tale situazione, in cui l'apertura trascendentistica come quella idealistica è respinta perché è una fuga evasiva, edificante, verso una impersonale Ragione in cui le vicende umane non trovano alcuna giustificazione. Luporini rivendica - in diretta e persuasiva polemica con Bontadini -l'immanentismo, come terreno di soluzione del rapporto individualità-socialità, tematizzati da Kierkegaard e Marx: « L 'uno denuncia l 'equivoco dell'uomo cristiano, l'altro l'equivoco dell'uomo nello Stato, indicando la doppia inautenticità, prodottasi storicamente, del mondo cristiano e del mondo borghese. » L'esistenzialismo si configura pertanto come « umanismo reale», come riappropriazione, da parte dell'uomo, della sua dimensione finita, storica, in una tensione problematica verso la progettazione di un futuro. Quest'atto problematico, costitutivo del rapporto pensiero-libertà « è insieme sempre storicità e moralità: in quanto storicità risolve il passato, in quanto moralità determina il futuro ». Sullo sviluppo in senso marxista del pensiero di Luporini ritorniamo nel paragrafo xn. Arturo Massolo (1909-66) ha definito il suo esistenzialismo in: Storicità della metafisica ( r 944): è una critica all'attualismo, alla sua irrisolta tematica della soggettività. Egli riprende l'interpretazione heideggeriana di Kant (Heidey;ger e la fondazione kantiana, 1941) per condurre a radicale critica l'uso idealistico di Kant e proporre così non una filosofia sull'uomo, ma dell'uomo, colto nella fini86
www.scribd.com/Baruhk
La filosofia italiana contemporanea
tezza della sua condizione esistenziale, ma teso alla ricerca del fondamento, a una metafisica, a una trascendenza pura e « in quanto pura, secondo il preciso senso kantiano, essa è originaria, tale, cioè, che da sé originandosi trascende se stessa ». Questa problematica è ripresa e approfondita, con una serrata discussione del problema della deduzione trascendentale soggettiva, nella Introduzione alla analitica kantiana (1946), in cui l'autore perviene a recuperare il significato di una ragione, non in termini illuministici, e perciò intellettualistici, ma consapevole dell'orizzonte metafisico, « che di volta in volta dà una propria configurazione e un suo proprio senso ai singoli problemi, in quanto ne è generatore e non generato». La filosofia assolve così una funzione indispensabile di ricostruzione antropologica perché mette « l'uomo innanzi a un compito che lo singolarizza e gli ritorna il senso della storia misconosciuta dalle filosofie intellettualistiche » (Santucci). Infine Armando Vedaldi (r9rz-6r) ha proposto una integrazione dell'esistenzialismo positivo di Abbagnano, con la tematica economico-sociale nei volumi: Essere gli altri (1948), Struttura della proprietà (1951) e Dire il tentpo (196o). Egli ritiene che «solo spostando la tematica esistenziale in senso politico potrà esser colto l'obbiettivo che l'esistenzialismo si propone», quello appunto di fondare in senso etico-politico la persona. «L'azione esige l'alterità, perché si fonda e si costituisce sugli altri»; di qui la necessità di analizzare la struttura della società; ma per offrire una soluzione personalistica è necessario chiarire il rapporto con il marxismo. Vedaldi ritiene che il diritto di proprietà (non della proprietà privata) deve essere riconosciuto a tutti e inoltre, se il punto di convergenza fra le due correnti può essere rintracciato nella comune polemica anti-hegeliana e nella riaffermazione della finitezza dell'uomo, i motivi di divergenza stanno nella progettazione della società futura. Ambedue tendono a riformare la società, il marxismo però, prospettando la dittatura del proletariato, verrebbe meno - secondo l'autore - alla sua stessa ispirazione dialettica, perché concluderebbe il processo storico. IX
• LO SPIRITUALISMO
CRISTIANO E LA NEOSCOLASTICA
In questo paragrafo indicheremo le linee generali dello spiritualismo cristiano (a cui sono pervenuti quei filosofi che hanno assunto una iniziale posizione idealistica) e della neoscolastica. Gli spiritualisti rivendicano, insieme al riconoscimento della irriducibilità della persona umana, l'assolutezza e trascendenza di dio. Essi accolgono - contrariamente ai neoscolastici - il criticismo moderno, nel senso che tentano di giustificare - sul piano razionale o quello della fede la trascendenza, ma senza negare validità al trascendentale (che aveva condotto, storicamente, all'immanentismo). Mentre i neoscolastici affermano che « vi è armonia logica fra la metafisica aristotelica e il pensiero cristiano» (U. Padovani),
www.scribd.com/Baruhk
La filosofia italiana contemporanea
gli spiritualisti ritengono che partire da Aristotele significhi accettarne il naturalismo, incompatibile con la dottrina cristiana. Nel 1945, per iniziativa del gesuita Carlo Giacon e Umberto Padovani, fu organizzato il primo convegno di quello che poi fu chiamato il Centro di studi filosofici cristiani di Gallarate dove si tennero successivamente annuali convegni di studio, di confronto critico e di dibattito fra spiritualisti e neotomisti, con il duplice scopo di una riorganizzazione culturale del fronte cattolico e di operare quel rinnovamento e approfondimento di temi e di autori che il mutato clima culturale e il nuovo impegno assunto dal movimento cattolico italiano imponevano. Così le due correnti sono giunte a concordare - pur nella diversità di atteggiamenti ·- posizioni comuni contro quelle del pensiero laico, operando inoltre un impegnativo aggiornamento del personale culturale cattolico italiano. Armando Carlini (1878-1959) il cui idealismo, esplicito in La vita dello spirito (19z1), criticato in Il mito del realismo (1934), è abbandonato in Cattolicesimo e pensiero moderno ( 19 53); ha poi pubblicato Che cos'è la metafisica? Polemiche e ricostruzione (1957). Egli ha condotto nel modo più radicale l'autocritica dell'idealismo, tentando una mediazione tra il principio immanentistico dell'attualismo e la teologia cristiana. Il punto di innervazione fra il trascendentale e il trascendente è dato dal soprannaturale, il quale dovrebbe dimostrare l'unità del trascendentale (che è nell'uomo), con il trascendente. La ricerca di Cadini è rimasta nell'ambito di questa dicotomia perché accogliere il soprannaturale in senso teologico significa negare l'autonomia della filosofia, accoglierlo in senso diverso vuol dire non accettare il cristianesimo. Da ultimo egli ha proposto una fondazione non teoretica ma fideistica dell'accettazione della trascendenza. Una via diversa ha scelto il suo allievo Marino Gentile (n. 19o6), espressa negli scritti La problematicità pura (194z), Come si pone il problema metafisica (195 5), Breve trattato di filosofia (1974). Egli sostiene che la metafisica classica- intesa come difesa della perennità dei valori del pensiero antico - risponde più integralmente alla problematicità e criticità sostenute, ma non soddisfatte, dal pensiero moderno. Da tale problematicità pura sorge la necessità ideale di un atto puro che soddisfi in modo adeguato alla richiesta di una integrale aspirazione indigenziale e potenziale, onde il « domandare tutto » che è anche un« tutto domandare » rinvia a una fondazione metafisica. Alla necessità di fuoriuscire completamente dall'attualismo, attraverso il riconoscimento del primato della metafisica è pervenuto anche Michele Federico Sciacca (1908-74), lo spiritualista più fecondo di opere storiografiche (su Platone, Reid, Rosmini, Pasca! ecc.) e teoriche, fra cui Linee di uno spiritualismo critico (1936), Filosofia e metafisica (1973), L'i11teriorità oggettiva (1967), Ontologia triadica e trinitaria (1973). Egli sostiene che la verità fondativa della metafisica, superatrice delle persistenti aporie dello stesso spiritualismo, è l'essere come idea perché esso « è la verità per cui è vero ogni giudizio conoscitivo, morale ed estetico; è il principio primo ed indipendente nell'ordine della conoscenza 88 www.scribd.com/Baruhk
La filosofia italiana contemporanea
umana, di tutta l'attività spirituale ed è perciò il principio metafisica del conoscere, del volere e del sentire, in quanto è il principio di intelligibilità della vita spirituale, dell'esistenza e del reale». Augusto Guzzo (n. 1894) è stato allievo di Sebastiano Maturi (1843-1917), estraneo perciò all'idealismo soggettivo italiano e più aperto al riconoscimento della dimensione religiosa dell'assoluto, inteso come termine ultimo del pensiero e dell'attività umana. Le sue opere filosofiche più importanti sono: Verità e realtà. Apologia dell'idealismo (1925), Giudizio e valore (1928), Idealismo e cristianesimo (1936). Egli riconosce, all'interno dell'atto, la trascendenza del mondo e di dio, onde l'attività spirituale dell'uomo non è limitata alla ricerca del fondamento metafisica; ma si esplica attraverso le opere, che sono « forme » di tale attività produttrice, risposte diverse, personali a quell'esigenza di valore, che in quanto tale richiede la presenza di un Valore fondativo dell'uomo. Di qui la necessità di presentare la complessa fenomenologia delle «forme», attraverso cui l'uomo si manifesta. Guzzo ha tentato di dare una sistemazione complessiva del suo pensiero con un'ampia ricerca in più volumi, di cui sono usciti: L'uomo (1944), L'io e la ragione (1947), La moralità (1950), La scienza (195 5), L'arte (1962). Felice Battaglia (n. 1902) è giunto allo spiritualismo attraverso la meditazione dei temi etico-giuridici dell'attualismo, e la giustificazione di un Valore, fondativo della razionalità della storia. Ha scritto: Diritto e filosofia della pratica (1932), Il valore nella storia (1948), Moralità e storia nella prospettiva spiritualistica (195 3). Altri contributi alla problematica spiritualistica hanno portato Vincenzo La Via (n. 1895), Giuseppe Capograssi (1889-1956), Nicola Petruzzellis (n. 1910) e Renato Lazzerini (1891-1974), con personale accentuazione agostiniano-blondeliana. Per vie personali sono pervenuti a un esito spiritualistico Santino Caramella (1902-72), i due allievi di Varisco: Enrico Castelli Gattinara di Zubiena (n. 19oo), Gallo Galli (1889-1974) e i due allievi di Francesco De Sarlo: Eustachio Paolo Lamanna (1885-1967) e Gaetano Capone Braga (1889-1956). Segnaliamo infine la proposta di un « personalismo » cristiano, incentrato su una «metafisica della persona» - di contro la «metafisica dell'essere» dei neotomisti-avanzata da Luigi Stefanini (I 891-195 6) e da Luigi Pareyson (n. 191 8). In ambedue, la critica dell'idealismo, che avrebbe risolto - o meglio dissolto la persona nell'atto, si accompagna a una iniziale apertura all'esistenzialismo, il quale, come ricerca dell'autenticità della persona, è considerato un'esperienza che avanza, con maggiore acutezza, l'esigenza trascendentistica; oppure è giudicato come l'ultimo, conclusivo approdo del pensiero laico moderno in cui emergono, con più evidente consequenzialità, le sue aporie di fondo. Lo stesso spiritualismo cristiano, che nasce da una critica interna all'attualismo, non lo supererebbe completamente, perché ne accetta i fondamentali termini di discussione. Di qui la necessità, per Stefanini, di partire da una affermazione - e fondazione teorica - della persona, che si definisce nella sua irrepetibile singolarità, come
www.scribd.com/Baruhk
La filosofia italiana contemporanea
sfera autonoma, ma non autosufficiente, della coscienza soggettiva, con una propria vita interiore, onde dall'esperienza dell'uomo emerge l'apertura a un esito metafisica: «L'essere è personale e tutto ciò che non è personale nell'essere rientra nella produttività della persona, come mezzo di manifestazione della persona e di comunicazione tra le persone. » Stefanini ha sviluppato la sua ricerca, in campo storiografico, con i due volumi su Platone (I 9 32-3 5), su V. Gioberti ( r 94 7) e L'esistenzialismo ateo ed esistenzialismo teistico (I 9 52); in quello estetico: Problemi attuali d'arte (I939), Trattato di estetica (I955) e in quello filosofico: Metafisica della forma (I949), Metafisica della persona (I95o), Personalismo filosofico (1962, postumo). Luigi Pareyson parte da un'analisi critica dell'esistenzialismo in: La filosofia dell'esistenza e Carlo ]aspers ( r 940), giungendo a questa conclusione: « La filosofia dell'esistenza dello Jaspers pur portando tanti motivi per una soluzione concreta del problema della persona, non giunge a soddisfare l'esigenza personalistica, che è l'assunto dello stesso esistenzialismo.» Egli sostiene che la persona è singolarità, non autosufficiente ma aperta alla ricerca e bisognosa di una fondazione metafisica. La vita è essenzialmente creazione di forme e « poiché ogni aspetto della forma è relativo, attraverso uno solo di essi l'interpretazione può cogliere la totalità della forma; ma poiché nessun aspetto è esauriente, la forma può sempre esigere ulteriori sforzi di penetrazione ». La ricerca conoscitiva privilegia l'interpretazione perché essa è appunto «conoscenza di forme da parte di persone ». Il compito del filosofo è quello di delineare la complessa fenomenologia della formatività nel campo della critica, della gnoseologia e dell'estetica. Le opere più importanti del nostro autore sono queste: Studi sull' esistenzialismo (I943), Esistenza e persona (195o), Estetica: teoria della formatività (1954), L'estetica e i suoi problemi (196o), Verità e interpretazione (1971). Anche i neotomisti italiani hanno operato un aggiornamento metodologico e culturale, incentrando la critica teorica verso l 'idealismo e realizzando un ampio lavoro di storiografia filosofica, in alternativa a quella idealistica, espresso anche in volumi miscellanei su Vico (1926), Hegel (I932), Spinoza (I934), Cartesio (I937), Malebranche(1938), Galileo(I942), Leibniz(I947)· C'è inoltre una attenzione nuova verso la scienza, ma si è trattato di un fenomeno di breve durata, che non ha apportato risultati significativi. I pensatori neotomisti hanno continuato la loro polemica anti-idealistica e anti-marxista, rinnovando poi le motivazioni contro l'esistenzialismo e il neopositivismo. Il programma dei neoscolastici ha avuto un notevole incremento dopo la fondazione dell'Università Cattolica di Milano (1922), sotto l'attivo impulso di Agostino Gemelli (1879-1959). Emilio Chiocchetti (188o-I95 I) e Francesco Olgiati (1886-1962) hanno dato discussi contributi storiografici rispettivamente su: La filosofia di B. Croce (19I5 2), La filosofia di G. Gentile (1922), Il pragmatismo (1926), La filosofia di G.B. Vico (193 5), e su: L'idealismo di Berkeley ed il suo significato storico (1926), Il significato storico di Leibniz
www.scribd.com/Baruhk
La filosofia italiana contemporanea
(1930), Cartesio (1934), B. Croce e lo storicismo (195 3). Altti contributi storiografici sono venuti da Mariano Campo e Luigi Pelloux. Un impegno più direttamente teoretico ha dato Umberto Padovani (18941968), scolaro di Martinetti, il quale ha sottolineato la necessità di dare una fondazione teologica della storia e di indicare una pratica ascetica per spiegare - e accettare - il male presente nel mondo, male che ha la sua matrice nel mistero del peccato originale e della redenzione. Ha scritto: Il fondamento e il contenuto della morale (1947), Filosofia e teologia della storia (1953). Carlo Giacon (n. 19oo) ha presentato e difeso le tesi fondamentali del tomismo, privilegiando h dottrina dell'atto e della potenza: Le grandi tesi del tomismo (1945). Altri contributi teorici sono stati dati da Amato Masnovo (1880-195 5): Brevi appunti di metodo sul problema della conoscenza (1935); Giuseppe Zamboni (1875-1950): Sistema di gnoseologia e di morale (193o); Cornelio Fabro (n. 1911): Dall'essere all'esistente (1957); Carlo Mezzantini (I 895-1971): Filosofia perenne e personalità filosofiche ( 1942). Un rilievo particolare è riconosciuto a Gustavo Bontadini (n. 1903) il quale è partito da una critica dell'attualismo - a cui riconosce le peculiarità di avere condotto alle estreme conseguenze il dualismo gnoseologico della filosofia moderna, evidenziandone le aporie- per poi proporre una diversa fenomenologia dell'esperienza, colta nell'unità iniziale, in cui realismo e idealismo coincidono, e sviluppata secondo quella reinterpretazione della metafisica classica che ha nel principio di non-contraddizione la sua giustificazione più persuasiva. Le opere principali sono: Saggio di una metafisica dell'esperienza (1938), Studi sull'idealispJo (1942), Indagini sul gnoseologismo tJtoderno (1952), Conversazioni di metafisica, 2 voli. (1971). Lo spiritualismo cristiano e in parte la stessa neoscolastica derivano dalla problematica idealistica e questo determina la caratteristica fondamentale di tali correnti: dall'attualismo infatti ereditano e mantengono una radicale negazione del valore della scienza o quando sostengono una sua strutturale differenza rispetto alla filosofia non fanno alcun riferimento ai caratteri assunti dell'odierna metodologia. La tematica teoretica è incentrata sul problema della metafisica come problema dell'interiorità, sull'autocoscienza e la trascendenza; c'è l'abbandono di ogni serio interesse etico-politico: insomma assistiamo a un reale impoverimento teorico, forse reso possibile dal fatto che « già il pensiero gentiliano era un compromesso fra idealismo e cattolicesimo, ed esso stesso, col crescere di preoccupazioni teologiche, si era andato involvendo verso posizioni sempre più teologiche, scoprendo da ultimo l'elemento dogmatico che era implicito nella sua dottrina» (Preti). Se la polemica contro l'idealismo e in particolare contro la sua concezione della storia del pensiero filosofico li ha indotti a dichiarare una certa autonomia della storiografia filosofica, i risultati di tali ricerche hanno poi rivelato non solo il peso di interessi politico-culturali, connessi con la lotta contro l'idealismo e il marxismo, ma soprattutto un criterio interpretativo non meno arbitrario di quello idealistico e finalizzato alla tesi che « la filosofia scolastica è ... la filosofia »
www.scribd.com/Baruhk
La filosofia italiana contemporanea
(Masnovo). Essi sostengono - in particolare Bontadini - che la storia della filosofia moderna non è che l'eredità di fondamentali distorsioni gnoseologicodualistiche derivate da una acritica accettazione di metodi scientifici estranei alla filosofia come tale; di qui il problema di ritornare alla tematica antologica e metafisica del pensiero classico o medievale. Negli studi storiografici gli spiritualisti hanno privilegiato Blondel e Rosmini, Gioberti e Fichte. Solo Guzzo ha dedicato alla scienza un ampio studio e dalla sua scuola è uscita - per opera di Francesco Barone- la più informata monografia sul neopositivismo, mentre i neoscolastici hanno dato contributi sul pensiero medievale e accentuato la critica alle correnti filosofiche contemporanee. Degna di particolare attenzione l'opera storiografica di Sofia Vanni-Rovighi. X
• LA PENO ME NOLOGIA
La presenza di Husserl nella cultura italiana, fino agli anni cinquanta, è stata assai scarsa e delimitabile con precisione. Husserl è partito - come Vailati affrontando il problema della logistica, del calcolo logico, con sottolineatura dell'importanza decisiva della fondazione psicologica. Vailati invece riconosce subito che l'obbiettivo della logica è quello di emanciparsi dalla psicologia; comunque i rapporti logica-psicologia sono al centro della prima elaborazione del suo pragmatismo, che avviene in continuo contatto collaborativo e di discussione con lo psicologo G.C. Ferrari (1868-1932). Nel 1900 Husserl (Ricerche logiche) indica nella psicologia la fonte dello scetticismo logico e pertanto tenta di prospettare una soluzione del rapporto logica-psicologia diversa da quella presente nell'opera 1:/losofia dell'aritmetica (1891). Nella cultura italiana del primo Novecento, la scuola di Peano- che poteva discutere tali questioni- è stata emarginata presto, e successivamente è prevalso, nelle ricerche di logica, un orientamento psicologistico, a cui non potevano interessare le elaborazioni di Husserl. Solo De Sarlo all'inizio degli anni venti recupera la fenomenologia per reimpostare il problema, ma in termini che riecheggiano la sua adesione a Brentano (Lineamenti di una fenomenologia dello spirito, 1924), mentre successivamente il pensiero di Husserl viene discusso o attraverso la mediazione dell'esistenzialismo o come termine di confronto di autonome posizioni filosofiche (Aliotta, Pastore, De Ruggiero, Stefanini) o infine per un interesse di ricerca (Bobbio, Vanni-Rovighi). Solo Banfi - e poi Preti e Paci- ne accolgono sostanzialmente l'orientamento; nel primo però prevale il « primo » Husserl, da cui trae i motivi più validi per la sua sistematica del sapere. L'ultimo Husserl, quello della Krisis è recensito con sostanziale adesione da M.M. Rossi - il quale procederà in autonome ricerche di storia della filosofia accogliendo la tesi fondamentale di quell'opera. Banfì nell'ultimo scritto (Husserl e la crisi della civiltà europea, 1957) ne aveva evidenziato i limiti metafisici e Preti parla esplicitamente di una «greve metafisica
www.scribd.com/Baruhk
La filosofia italiana contemporanea
idealistica». Solo Paci - dopo una complessa ricerca, di cui abbiamo indicato nel paragrafo VIII la fase esistenzialistica - ritiene che la Krisis costituisca il punto d'approdo del pensiero husserliano, da cui il nostro autore parte per proporre una nuova enciclopedia fenomenologica del sapere, nei due volumi: Funzione delle scienze e significato dell'uomo (1963), Idee per una enciclopedia fenomenologica (1973). Egli perviene a questa posizione sia attraverso un ampio lavoro interpretativo del pensiero di Husserl (Tempo e verità nella fenomenologia di Husserl, I 96 I), dopo aver prospettato una concezione filosofica ( relazionismo ), ispirata al pensiero di Whitehead (Tempo e relazione, 1954, Dall'esistenzialismo al relazionismo, 1957). Paci ha discusso criticamente il pensiero di tutti i più rappresentativi filosofi contemporanei; quello di Whitehead ha in comune con l'ultimo Husserl sia la persuasione che con Galileo ha inizio la crisi del sapere scientifico, con la conseguente ricerca delle essenze costitutive della realtà; gli « eventi », che Paci avvicina al mondo della Lebenswelt. Ora indicheremo brevemente in che cosa consiste la rielaborazione della tematica della Krisis tentata da Paci e la specificità della sua posizione. Egli si richiama alla fondamentale tesi husserliana, secondo cui la crisi della cultura europea si presenta « come un apparente fallimento del razionalismo », perché la manifestazione di tale razionalismo è stato il naturalismo e l'oggettivismo. Orbene, per il nostro autore « l'oggettivismo è la degradazione del soggetto a oggetto, il rovesciamento del soggettivo nell'oggettivo. In queso senso è alienazione dell'uomo», in un senso cioè accoglibile in una prospettiva marxiana. Insomma, « è fallito il cattivo uso della scienza e cioè il naturalismo che rende l'uomo cosa ed oggetto. Questa è la vera crisi della scienza, che è poi una crisi dell'esistenza umana». Di qui la necessità di integrare. la Krisis con una proposta di rifondazione dell'unità delle scienze. È questo il fine della fenomenologia come scienza nuova, in grado di prospettare una risposta risolutiva alla crisi della cuhura europea. Paci procede a una serie di critkhe al neopositivismo e ali 'impostazione stessa che è alla base dell'enciclopedia delle scienze. Il neopositivismo - che sarebbe venuto meno al suo duplice obbiettivo di indicare un fondamento sicuro delle scienze ed eliminare ogni tipo di metafisica - si configura come « profonda crisi sofistica ». Esso indica i limiti di un sapere, ma non può offrirne una alternativa, in quanto nega alla radice la possibilità stessa della filosofia, perché « il discorso filosofico, non verificabile né logicamente né empiricamente, è privo di significato in quanto non è né vero né falso ». Il neopositivismo avrebbe isolato il linguaggio dal mondo della vita, assolutizzando alcune tecniche; esso si muoverebbe in una atmosfera antistoricistica, e in quanto sancisce una chiusura verso il mondo della vita, che costituisce la struttura stessa dell'esistenza, è anche antiumanismo. Il rapporto tra l'esperienza e la matematica, che è al centro dell'epistemologia contemporanea, si risolve - secondo Paci - non attraverso il perfezionamento
93
www.scribd.com/Baruhk
La filosofia italiana contemporanea
dei nostri strumenti conoscitivi, ma con un ricorso all'epoché, che supera tale dualismo in quanto « le scienze e ogni forma di sapere possono tendere all'unificazione perché già all'origine sono implicitamente unite nella concretezza delle operazioni radicate nella percezione e nell' Erlebnis ». Già è stato sottolineato, nel capitolo n del volume settimo dedicato all'analisi della Krisis, che il ricorso al precategoriale come momento fondativo di tutta l'esperienza non risolve affatto il problema del valore conoscitivo della scienza. Limitarsi a sostenere che «la fenomenologia, se critica la scienza, la critica in quanto dimentica il precategoriale », significa scambiare il punto di partenza del processo conoscitivo (comune e scientifico) con il punto d'arrivo. Egli, pur riconoscendo che il processo conoscitivo si instaura nel rapporto fra i dati osservativi e le categorie, ritiene di potere offrire una conoscenza valida, esatta e sicura della realtà, togliendo (epochizzando) il momento categoriale. La filosofia come fenomenologia si presenta allora come « scienza delle operazioni soggettive fondanti » e l'unificazione del sapere « si chiarisce in funzione delle operazioni soggettive e storiche del precategoriale ». Paci precisa infine che « la realtà a cui ogni eidos e ogni scienza si riferiscono è il plenum precategoriale. La struttura delle scienze si presenta in tal modo come continua interrelazione tra regioni eidetiche e come continuo riferirsi delle regioni eidetiche stesse al punto di partenza concreto ». Al di fuori di tale rapporto ogni struttura diventa astratta e perde così il suo valore conoscitivo. L'unificazione delle scienze non è pertanto il risultato di una indagine sulle loro effettive strutture logiche, perché « la natura stessa, così come è concepita, e deve essere concepita, dalla fisica matematica, è una natura categoriale, mentre la natura reale è precategoriale e la prima è fondata sulla seconda ». Questa posizione porta ad escludere - in linea di principio - una seria indagine degli odierni dibattiti metodologici, dei più importanti risultati della epistemologia, nella persuasione che l'unico compito del filosofo sia quello di delineare una metafisica fondativa del sapere scientifico. La Lebenswelt permetterebbe appunto « un tipo nuovo di metafisica nel senso di filosofia prima ma di cui è possibile un'indagine eidetica, strutturale, morfologica ». Su questa base Paci propone un incontro e una integrazione con il marxismo, non solo al fine di consolidare la fenomenologia, con il riconoscimento che « le forme fenomenologiche sono rapporti di produzione, lavoro economico, valore d'uso e di scambio: in ogni caso valore», ma anche al fine di « fondare » la fenomenologia stessa, a cui è finora stata estranea una adeguata considerazione dell'economia. Tuttavia non è uno studio rigoroso dell'economia che viene promosso o condotto; è solo dichiarato il proposito di trattare «il problema della fondazione precategoriale dell'economia politica». Il fenomenologo cioè non deve dare dei contributi scientifici, né delle indicazioni di ricerca specifica, ma solo accertare che la ricerca non si emancipi dai connotati di esperienza da cui deve partire: è la negazione stessa della con-
94 www.scribd.com/Baruhk
La filosofia italiana contemporanea
cezione del sapete scientifico elaborato dal pensiero moderno. Per quanto riguarda il marxismo viene espunta la dialettica e a maggior ragione la dialettica della natura, dal momento che se « la natura è separata dai soggetti che la studiano essa è natura morta, come astratta assunzione di categotie logiche ». Il marxismo è ridotto, al più, a materialismo storico, a esigenza di un cambiamento della società, secondo però un vago ideale etico-politico che si richiama al socialismo. Il privilegiamento del momento precategoriale dell'economia politica può essere considerato pertanto un ritorno a posizioni che si richiamano alla revisione soggettivistica dell'economia politica condotta dalla scuola austriaca dell'inizio del Novecento o anche al concetto di «vitalità» dell'ultimo Croce. Paci ha fondato e diretto la rivista «Aut Aut» (195 1-76) che in un certo senso è diventata l'organo della fenomenologia in Italia. L'orientamento fenomenologico, di ispirazione banfiana, ha trovato una estesa e approfondita applicazione nell'estetica, con una novità di fondo: mentre in Banfì l'estetica costituiva una «regione» di una più vasta realtà problematica, questi allievi tendono a configurare l'estetica come una forma conoscitiva privilegiata, tale da offrirei i lineamenti di una concezione complessiva della realtà, come già aveva tentato Baratono. Luciano Anceschi (n. 19I I), dopo un primo tentativo (AutonopJia ed eteronomia dell'arte. Sviluppo di un proble11ta estetico, I936, n ed. 1..95 9), ha presentato una compiuta proposta estetica, secondo i criteri fenomenologici in: Progetto di una sistematica dell'arte (I962), verificata poi in precisi saggi letterari. Egli sostiene che l'estetica fenomenologica non ha come criterio metodico la ricerca di principi definitivi di valutazione; non si chiede che cos'è l'arte, ma indica le diverse modalità in cui si presenta il prodotto artistico. L'estetica non richiede una fondazione filosofica o sociologica, perché essa ha in sé il principio della sua costituzione. Dirige dal 1952 la rivista« Il V erri», che ha sollecitato indagini nuove, con promozione e difesa dei movimenti dell'avanguardia letteraria. Dino Formaggio (n. I9I4) ha espresso il suo orientamento anticrociano e antigentiliano in: L'arte come comunicazione. Fenomenologia della tecnica artistica (195 3), e ha avanzato la sua proposta di una estetica fenomenologica in: L'idea di artisticità (1962), con approfondimento e teorizzazione dell'arte «come logica della possibilità progettuale »in: Arte (I973)· Luigi Rognoni (n. I9I3) si è interessato dell'applicazione dei criteri fenomenologici alla musica, con particolare interesse ai condizionamenti che anche l'arte d'avanguardia subisce da parte del potere. Ha pubblicato Espressionismo e dodecafonia (I954), Fenomenologia della musica radicale (I966). Al di fuori della « scuola » banfìana, hanno progettato estetiche di orientamento fenomenologico Guido Morpurgo Tagliabue, con Il concetto dello stile (1951) e L'esperienza artistica (I967), e Carlo Diano (1902-72) con Forma ed evento (I 9 52) e Linee per una fenomenologia dell'arte (I 9 52). 95 www.scribd.com/Baruhk
La filosofia italiana contemporanea
Giovanni Maria Bertin (n. I9I2), ha approfondito lo studio dei problemi educativi, in una prospettiva fenomenologica: Introduzione al problematicispto pedagogico (I95 I), Etica e pedagogia dell'impegno (I95 3), Esistenzialismo, marxismo, problematicismo nella pedagogia (I 9 55), L'idea pedagogica e il prin>ipio di ragione in A. Banft (I96I), Educazione alla ragione (I968). Infine Remo Cantoni (n. I9I4) ha portato all'orientamento fenomenologico un contributo di indagini storico-critiche su autori e temi, in cui emerge in modo emblematico la crisi della cultura odierna: Crisi dell'uomo. Il pensiero di Dostojewski (I948); La coscienza inquieta. S. Kierkegaard (I949). Ha approfondito criticamente la concezione della storia, elaborata dalla cultura tedesca contemporanea, in Mito e storia ( r 9 58), che integra il suo primo lavoro pionieristico su Il pensiero dei pnmitivi (1941, n ed. I963). In Umano e disumano (195 8) presenta i lineamenti della sua filosofia, «una filosofia dell'uomo come ente finito e storico, portatore di valori che nessuna potenza metafisica o cosmica, a lui trascendente, può, in sua vece, garantire o fondare». Tale orientamento è ripreso in: Illusione e pregiudizio (I 967) e Antropologia quotidiana (I 97 5). Ha fondato e diretto la rivista «Il pensiero critico» (prima serie: I952-54; seconda serie I959-62), con un programma di aggiornamento della tematica delle scienze umane. Altri lavori ispirati alla fenomenologia husserliana sono dovuti a Giuseppe Semerari e Renzo Raggiunti, autore di un interessante volume su: Husserl, dalla logica alla jrmo1nenologia (I967). XI
• IL NEOEMPIRISMO E LA FILOSOFIA ANALITICA
Già nel paragrafo VI abbiamo dato una valutazione complessiva della politica culturale del neo illuminismo degli anni quaranta-cinquanta; ora tenteremo una valutazione del contributo teorico del neoempirismo italiano. Innanzi tutto va subito notato che in Italia non è possibile indicare un neoempirista « ortodosso », seguace cioè del Circolo di Vienna. Sulla rivista del movimento, « Erkenntnis », non si trova alcun apporto di studiosi italiani (solo Enriques partecipò ad alcune riunioni redazionali); pertanto tale termin~ - o altri equivalenti come neopositivismo --ha assunto in Italia un significato abbastanza esteso, comprendendo metodologi, analisti del linguaggio, filosofi della scienza.! Il neoempirismo si è configurato più come un atteggiamento culturale che come una precisa filosofia, e anche quando i motivi più significativi di tale orientamento sono stati accolti, si sono innestati su posizioni filosofiche affini. I Nel 195 3-54 è stato pubblicato il materiale più significativo - di dibattito e di studio ispirato al neoempirismo. Nel 1953-54, la sezione lombarda della SFI (Società filosofica italiana) organizza a Milano una serie di conferenze sul Circolo di Vienna; vengono promossi da studiosi di Torino e di Milano quottro convegni na-
zionali che hanno per oggetto la discussione del rapporto fra filosofia, scienza e analisi del linguaggio. Inoltre nel I 9 53 sono pubblicati questi libri: L. Geymonat: Saggi di filosofia neorazionalistica; G. Preti: Linguaxgio comune e linguaggi scientifici; P. Filiasi Carcano: Problematica della filosofia odierna; F. Barone: Il neopositivismo logico.
www.scribd.com/Baruhk
La filosofia italiana contemporanea
Quei filosofi che non sono stati direttamente legati alla tradizione filosofica italiana- in cui più radicale è stato il divorzio fra ricerca scientifica e filosofia(Abbagnano, Preti, Geymonat), non hanno aderito integralmente al neoempirismo, ma piuttosto ne hanno proposto una utilizzazione in direzioni diverse. La prima informazione, in certo senso problematica, del Circolo di Vienna si trova nel volume di L. Geymonat: La nuova filosofia della natura in Ger111ania, del 1934, e del 193 5 è il saggio Nuovi indirizzi della filosofia austriaca, considerato dallo stesso Schlick l'esposizione «migliore da un punto di vista neutrale» del Circolo di Vienna. Il libro che più si avvicina al neoempirismo, con introduzione esplicita di elementi critici e indicazione di necessarie integrazioni dell'analisi formalistica, con quella semantica e pragmatica e successivamente con l'introduzione della dimensione storica, è Studi per un nuovo razionalismo, di L. Geymonat ( 194 5). Insomma il neoempirismo si è presentato sostanzialmente come una nuova mentalità filosofica, che aveva abbandonato la retorica idealistica connessa all'altra, di ordine politico, su un presunto primato italiano. Di qui l'urgenza di riprendere fruttuosi rapporti con la cultura dell'area anglosassone, in cui più evidente era il riconoscimento del primato della scienza. Viene proposta una filosofia militante con un'apertura agli orientamenti più diversi (pragmatismo, neopositivismo, filosofia analitica). Non è un'operazione accademica, di recupero nell'ordine culturale, di fermenti nuovi; nella maggioranza si tratta di studiosi in cui la ricerca di nuovi strumenti conoscitivi è unita alla tensione per la trasformazione sociale, oltre che culturale. Un punto di convergenza importante, riscontrabile fra gli studiosi neoempiristi, è costituito dalla concezione della ragione come tecnica di ricerca, esposta in questi termini nel saggio di Ab bagnano L'appello alla ragione e le tecniche della ragione (1952): «Il termine ragione, in quanto indica un'attività o un potere specifico dell'uomo, può essere assunto in due significati fondamentali diversi. Esso può significare: 1) Una qualsiasi ricerca, in quanto tende a liberarsi da presupposti, pregiudizi e inceppi di ogni genere che tendono a vincolarla; z) Una particolare tecnica di ricerca... Ragione in questo secondo senso è per esempio l'organizzazione dei termini e delle proposizioni secondo le regole della sillogistica o secondo altre regole. Ma qualsiasi tecnica di ricerca, comunicabile e dovuta alla iniziativa del ricercante, è in questo senso ragione. La dialettica platonica, la scienz;J aristotelica, l'intuizione evidenziale di Cartesio, la dialettica hegeliana, sono esempi di queste tecniche. » Questa concezione antidogmatica della ragione è stata largamente accolta, con integrazioni e approfondimenti, dagli studiosi neoempiristi, e variamente utilizzata in precise analisi storicocritiche. Vogliamo solo accennare all'efficacia anti-idealistica e, più in generale, anti-assolutistica, assolta da questo uso critico della ragione. L'interpretazione delle teorie scientifiche come tecniche e della stessa storia della scienza come progettazione di tecniche sempre più perfezionate, ha permesso di superare i li97 www.scribd.com/Baruhk
La filosofia italiana contemporanea
miti della metodologia convenzionalista. È indubbio che alcuni studiosi hanno accentuato l'importanza del soggetto nell'attività scientifica; comunque, intendere ogni teoria scientifica come tecnica significa non solo riconoscere che la razionalità non è assoluta, ma appunto uno strumento e in quanto tale sempre più perfezionabile, ma soprattutto che tale strumento ci mette in contatto con la natura, di cui ci permette una conoscenza via via più profonda. In questa concezione la metodologia assume un rilievo del tutto particolare: essa non è più identificabile con la filosofia della scienza - che affronta i problemi più generali sul valore conoscitivo della scienza- ma assolve un compito specifico, nell'ambito della concreta opera dello scienziato. Il metodologo cioè deve contribuire a fare riflettere lo scienziato sulle sue procedure tecniche, conoscitive; sulle trasformazioni e i miglioramenti che si debbono operare; insomma la sua funzion~.: diventa insostituibile sia nel lavoro scientifico sia per la stessa delineazione di una filosofia della scienza che non discetta più in termini generali, ma che sorge sulla base di un serio studio dell'indagine scientifica. Un'altra importante funzione metodica innovativa si è riscontrata nella storiografia filosofica, con un ampliamento del campo di indagine, dal momento che viene meno la differenza strutturale fra ricerche filosofiche e non-filosofiche; è lo stesso oggetto della filosofia che si allarga, senza però perdere il suo spessore teorico. La tendenza antimetafisica del neoempirismo è affermata nel momento stesso in cui si riconosce che l'appello alla ragione è la condizione stessa che esclude la ricerca di una « vera razionalità », attingibile al di fuori di precise tecniche: sono le stesse categorie interpretative idealistiche - come quella « classica » di superamento - che sono riconosciute come- tecniche, e perciò parziali, provvisorie, migliorabili, per cui non hanno alcuno statuto teorico privilegiato perché « la razionalità non si esaurisce in nessuna di queste tecniche isolatamente prese, ma vive nell'umanità che le crea, le sviluppa, le modifica, le :rinnova... non esiste una tecnica di per sé razionale, come non esiste una razionalità assoluta fuori della storia: la razionalità vive unicamente nell'uomo che lavora e lotta per potenziare le proprie idee ed azioni» (Geymonat). Questo movimento neoempiristico è stato un momento significativo nella cultura italiana degli anni cinquanta, in cui si è riconosciuta una generazione di filosofi che poi sono giunti a esiti teorici anche assai differenti; ma il fatto che abbiano contribuito a una seria riforma del filosofare, permette ancora oggi di individuare fra questi un comune, importante progetto di rinnovamento della cultura italiana. Il filosofo più rappresentativo del neoempirismo italiano è Giulio Preti (19II-72), sia perché tale orientamento è rimasto in lui dominante- come egli stesso riconobbe nella sua breve autobiografia filosofica (Il mio punto di vista empiristico, I 9 58) - sia perché ha espresso - di tale filosofia - alcune delle migliori potenzialità critiche. La sua attività filosofica è inscindibile da quella politico-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
culturale, attestata dalla sua presenza determinante nelle riviste più combattive dagli anni trenta agli anni cinquanta. Al fondo è rimasta la lezione banfiana di una filosofia che affonda le ragioni della sua validità nell'individuazione delle tensioni teoriche in vista di un più complessivo progetto politico umanistico di liberazione dell'uomo. I primi scritti indicano una scelta fondamentale, insieme a un impegno mediativo di esigenze diverse, che sarà una caratteristica peculiare del suo « stile » di filosofo: I fondaptenti della logica formale pura nella « Wissenschaftslehre » di B. Bolzano e nelle « Logische Untersuchungen » di E. Husserl (1935), Dialettica e principio di non contraddizione (r937), Tipologia e sviluppo nella teoria hegeliana della storiografta ftlosoftca (1938). Una prim::~ sistemazione del suo pensiero è espressa in due volumi: La fenomenologia del valore ( r 942) e Idealismo e positivismo (1943). In quest'ultima opera Preti tenta una mediazione fra le due posizioni teoriche, nella persuasione che sia possibile espungere le metafisiche costruite sui principi metodici dell'idealismo e del positivismo; al fondo di ambedue, sia pure espressa in linguaggi diversi, c'è un'istanza razionalistica, di unificazione dell'esperienza con la ragione, istanza che è anche alla base del suo dichiarato razionalismo critico. Quelle due correnti ·avrebbero scambiato il principio metodico, che serve per comprendere l'esperienza, con un dato dell'esperienza stessa. Quest'operazione (teorica e culturale) è condotta secondo la prospettiva di un «nuovo» positivismo a cui l'autore riconosce «profonde parentele con la fenomenologia di Husserl, il Circolo di Vienna, e con forme di trascendentalismo critico, quali il pensiero di E. Cassirer e di A. Banfi ». Successivamente approfondisce sia lo studio di alcuni autori, mettendone in rilievo l'intrinseca connessione esistente tra il loro pensiero filosofico e un più complessivo progetto culturale: Pasca! e i giansenisti (1944), Newton (1950), Il cristianesimo universale di G. G. Leibniz (195 3), sia la tematica pragmatistica e neopositivistica, sia infine la problematica storiografica, in un complesso tentativo di ricostruzione filosofica. Egli sottopone a precise e spesso persuasive critiche teoriche le diverse correnti del pensiero contemporaneo, ne chiarisce una possibile utilizzazione quando afferma, a proposito del neopositivismo, che esso manca di « una dialettica trascendentale, come legge generale della deduzione e dello sviluppo fenomenologico delle categorie della scienza ». Secondo Preti la filosofia deve costruire un quadro antologico-formale e, attraverso l'analisi delle strutture dei vari linguaggi, realizzare una autentica cultura, che offra efficaci strumenti conoscitivi e sia soprattutto democratica. In ultima analisi egli rivendica la validità della fenomenologia come analisi del sapere, in cui il compito antidogmatico della filosofia è quello di « esplicitamente delle forme, strutture linguistiche, categoriali ecc., della tradizione »: è la proposta di un trascendentalismo profondamente diverso da quello kantiano o neokantiano poiché ora « non si tratta di forme pure di un coscienza in generale o io penso, bensì di. schemi, scheletri, costruiti dall'uomo, e il perché e il come siano stati costruiti è piuttosto oggetto
99 www.scribd.com/Baruhk
La filosofia italiana contemporanea
di antropologia pos1t1va che non di speculazione filosofica». D'altra parte, la critica filosofica non deve limitarsi a un controllo logico-metodologico o logicolinguistico degli enunciati; anzi essa è anche critica dei presupposti e dei fondamenti, onde evitare il dogmatismo in cui ogni filosofia rischia di cadere. L'attività filosofica si caratterizza pertanto come analisi critica all'interno di ogni campo del sapere, per fare corrispondere il sapere filosofico ai « bisogni di sapere », sempre storicamente determinati e perciò variabili. Questa concezione del filosofare esprime tutta la sua carica innovativa e polemica nel libro Praxis ed et71piris?l10 (1957), pubblicato insieme a: Alle origini dell'etica contemporanea. Ada?JIO Smith ( 19 57). I due testi sono complementari, con una proposta filosofica complessiva, in cui quella teorica del primo si integra con il recupero della migliore tradizione etica dell'illuminismo, insieme alle più moderne analisi logico-linguistiche dell'empirismo contemporaneo inglese presente nel secondo. Anche in questo caso Preti opera una « riduzione » delle correnti discusse, per metterne in evidenza non una integrazione a livello di concezioni del mondo ma a quello metodico-interpretativo, onde il marxismo accolto è quello degli scritti giovanili di Marx, insieme al pragmatismo deweyano e alle istanze logiche del neoempirismo, nella persuasione che alla base sia rintracciabile un progetto sostanzialmente unitario: quello di una cultura aperta alle scienze umane, democratica e tesa a un cambiamento della società. In questo contesto le difficoltà teoriche si stemperano e sono superabili solo se si accerta che « la forma di cultura che esse tendono a produrre deve essere in _sostanza la medesima, altrimenti ogni loro convivenza, anche semplicemente come simbiosi, non sarebbe possibile». In queste opere Preti continua la proposta che aveva già abbozzata sul « Politecnico »: quella di una cultura democratica, accessibile a tutti, nel senso che « tutti possano, senza aver bisogno di rivelazioni privilegiatorie, arrivare a sapere tutto quello che altri sanno. L'essenziale è che non ci siano " autorità ", che la cultura si fondi su qualcosa che tutti possono verificare in comune, " vedere " insieme». Il marxismo dovrebbe appunto costituire la coscienza critica di tale progetto, in un rapporto di collaborazione con le altre forze intellettuali. Questo tentativo di mediazione tra il marxismo e altre forze culturali, in primo luogo il neoempirismo, corrispondeva al nuovo clima culturale sorto dopo il xx congresso del partito comunista dell'Unione Sovietica (1956). Non intendiamo entrare nel merito di tale proposta politicoculturale, né discutere la consistenza teorica di questo libro, che ha determinato una delle più vivaci e feconde discussioni sul finire degli anni cinquanta. Preti ha continuato con l'approfondire gli altri temi teorici di attualità, espressi in particolare in Retorica e logica. Le due culture (1968) e, postumo: Umanismo e strutturalismo (1973). Un interesse particolare assume nel pensiero di Preti il problema della scienza, discusso in molti saggi teorici e storici. Secondo la prospettiva trascendentalista, sopra delineata, Preti riconosce che ogni campo del sapere («universo del discorso») gode di una relativa autonomia, data appunto dalla 100
www.scribd.com/Baruhk
La filosofia italiana contemporanea
sua dimensione trascendentale, cioè dal suo campo di significati, categorie, onde una unificazione di tali universi di discorsi è possibile solo sul piano formale; ne risulta una varietà di campi del sapere coesistenti ma non compiutamente comunicanti fra di loro. Una proposta risolutiva di unificazione del sapere può essere offerta, secondo il nostro autore, da una epistemologia storica o storia della scienza, che si configuri sia come storia del trasformarsi delle strutture del linguaggio scientifico (all'internG di ogni scienza istituzionalizzata), sia come traduzione, riduzione, trasposizione da un universo del discorso all'altro; operazioni sempre legittime e possibili, ma sempre entro limiti, superando i quali si perde la specificità delle singole ontologie regionali. La dimensione della « storicità » non è un connotato antologico della scienza ma una idea regolativa, un ideale del sapere, un'esigenza più che una verità, che costituisce la permanente tensione verso l'appropriazione conoscitiva e pratica della realtà da parte dell'uomo. Anche per la filosofia analitica valgono le considerazioni introduttive al neoempirismo; in Italia il pensiero del secondo Wittgenstein, R yle e Austin, ha subito l'impatto con una tradizione culturale storicistica e con problemi teorici difficilmente assimilabili a quelli della filosofia analitica inglese. Non considereremo i molti lavori di autori italiani sulla filosofia analitica, svolti non con adesione sostanziale a tale orientamento ma per fare opera di divulgazione o di aggiornamento, nell'ambito di posizioni poco convergenti o antitetiche. È il caso degli studiosi cattolici, che per lo più, andando oltre l 'intento informativo, operano lo stesso stravolgimento condotto prima verso l'idealismo, il marxismo ecc., come abbiamo precisato nel paragrafo IX. I filosofi che hanno prodotto saggi e studi di filosofia analitica sono stati: Ferruccio Rossi-Landi, Renzo Piovesan, Uberto Scarpelli, Norberto Bobbio, Amedeo G. Conte e Franco Restaino. Rossi-Landi (n. 1921) ha svolto negli anni cinquanta un ampio lavoro informativo sulla filosofia analitica, con tentativi di utilizzare le nuove tecniche logico-linguistiche in studi specifici, per saggiarne l'efficacia interpretativa e la novità dei risultati ri~petto alla storiografia storicistica. La proposta culturale che avanza alle altre correnti è, più che la definizione di un accordo su qualcosa (principi, concezioni del mondo ecc.), verso qualcosa (la liberazione dei nostri strumenti conoscitivi dai nuovi idola fori; l'uso della lingua e del linguaggio intesi come un insieme di tecniche; la ripresa di una tradizione italiana - che va da Cattaneo a Vailati ecc.). Fra gli scritti di questo periodo segnaliamo: Charles Morris (195 3); l'edizione italiana, con tagli e aggiunte e un saggio introduttivo di: Lo spirito come comportamento, di G. Ryle (1955); La filosofia analitica di Oxford (1955); L'eredità di Moore e la filosofia delle quattro parole (1956); Sul carattere linguistico del filosofare (1957); Universo del discorso e lingua ideale in filosofia (195 8). La sua posizione filosofica è posta all'incrocio di molteplici indirizzi (dalla semi o ti ca di Ch. Morris al pragmatismo americano e quello di Vailati, dall'operativismo di Dingler a Wittgenstein e Ryle- questi ultimi due IOI
www.scribd.com/Baruhk
La filosofia italiana contemporanea
in posizione privilegiata). Nella sua opera più rilevante di filosofo analista, Significato, comunicazione e parlare cotnttne (I 96 I), ha prospettato questo preciso criterio metodico: « Intendo studiare l'apriori nel linguaggio in una direzione ispirata alla kantiana logica trascendentale come indagine non tanto di fatto quanto di diritto. » Il linguaggio, il parlare comune, non è quello quotidiano, ma appunto quello che è presente in ogni situazione linguisticamente significativa, e come tale è presupposta in ogni linguaggio, anche quelli speciali delle scienze. Il suo obbiettivo, di delineare « una metodologia generale del linguaggio e parlar comune in quanto significante », è raggiunto attraverso precise e circostanziate analisi dei fatti linguistici. In questa concezione del filosofare come attività chiarificante anziché come scienza di qualcosa, il linguaggio comune (o ordinario) esprime delle« costanti» insopprimibili dell'esperienza comune che come tali non possono essere considerate pre- o anti-scientifiche, superate o espunte dai linguaggi scientifici. I linguaggi formalizzati sono utilizzati nelle teorie scientifiche ma non sono applicabili al linguaggio comune, la cui struttura ubbidisce a una logica informale, altrettanto complessa e importante della logica simbolica. Successivamente Rossi-Landi ha esteso i suoi interessi e approfondito le ricerche in una direzione marxiana, espressa nelle due raccolte di saggi: Il linguaggio come lavoro e come mercato (I968) e Semiotica e ideoloFJa (I972). Renzo Piovesan (n. I 924) nel volume: Analisi filosofica e fenomenologia linguistica (I96I), e poi in: Filosofia e prassi linguistica (I974), considera come momento culminante della filosofia analitica la teoria degli atti linguistici di John L. Austin. Accentuando, rispetto allo stesso Austin, l'interesse al contesto e agli aspetti pragmatici o « performativi » dell'agire linguistico, vede nel linguaggio non un sistema di segni o un'attività o istituzione autonoma, bensì una complessa modalità del «fare umano» variamente socializzato, istituzionalizzato e tecnicizzato. Altri studiosi hanno applicato l'analisi linguistica in specifici campi del sapere: Norberto Bobbio (n. I9o9) e Uberto Scarpelli (n. I924) nella giurisprudenza. Bobbio è stato -ed è tuttora -l'ideologo più agguerrito del neoempirismo italiano. I suoi interventi politico-culturali hanno determinato alcuni dei più fecondi dibattiti nella cultura italiana; egli ha così svolto con efficacia una funzione di critica costruttiva, con orientamento laico e antifascista, insistendo per un recupero non meramente culturalistico della nostra tradizione illuministica. Allievo di Gioele Solari, negli anni trenta ha pubblicato studi sulla fenomenologia e la filosofia dei valori, e negli anni quaranta: La filosofia del decadentismo (I 944), Introduzione alla filosofia del diritto (I 94 7), con il riconoscimento del primato spettante al concetto di giustizia. Nel I950 ha scritto il «manifesto» analitico per la giurisprudenza: 5 cienza del diritto e analisi del linguaggio, in cui avanza e motiva la nuova proposta di una giurisprudenza come scienza. L'uso delle tecniche analitiche, con indipendenza da scuole e da posizioni acquisite, è esplicito in: Teoria della scienza giuridica (I 9 5o). Altri importanti libri: Politica e cultura (I 9 55), Italia
102
www.scribd.com/Baruhk
La filosofia italiana contemporanea
civile (I 964), Gittsnaturalistllo e positivimto giuridico (I 96 5), Da Hobbes a Marx (I 96 5), Saggi sttlla scienza politica in l t alia (I 969) e infine il fondamentale bilancio dell'empirismo italiano: Empiristllo e scienze sociali in Italia (I 97 3). Scarpelli ha scritto: Filosofia analitica e giurisprudenza (I 9 53) e, con approfondimento e posizione autonoma: Il problmta della definizione e il concetto del diritto (I95 5). Infine ha esteso i suoi interessi nel campo dell'etica con orientamento più esplicitamente analitico e con ampia informazione: Etica e linguaggio (I954), Contributo alla semantica del linguapgio nomtativo (I 9 59), Filosofia analitica, norme e valori (I962), Etica. Linguaggio e ragione (I974).
Ha dedicato importanti lavori storico-critici al neopos1t1v1smo, con aggiornata discussione della tematica analitica e delle scienze umane e con tendenza sincretistica, Paolo Filiasi Carcano (n. I 9 I 2): Antimetafisica e sperimentalismo (I941), Problematica della filosofia odierna (195 3), La metodologia nel rinnovarsi del pensiero contemporaneo (I957), Epistemologia delle scienze umane (1975). XII
• IL MARXISMO
In questo paragrafo ci limiteremo a precisare il pensiero di alcuni filosofi marxisti, che hanno riconosciuto cioè l'autonomia teorica del marxismo, senza proporne integrazioni fondative (vuoi fenomenologiche, vuoi strutturalistiche ecc.), anche se con tali orientamenti questi autori hanno intrecciato un dialogo serrato. Inoltre non discuteremo l'uso del marxismo o di suoi aspetti o di alcuni criteri metodici- fatto da studiosi delle scienze umane. Infine rimarrà fuori dalla nostra messa a punto il pur importante dibattito politico-culturale che si è avuto in questi ultimi trent'anni sia all'interno del marxismo italiano sia nel dialogo che esso ha istituito con le altre correnti filosofiche. Per avere un quadro complessivo del marxismo bisognerebbe analizzare almeno la pubblicistica più significativa degli anni venti e degli anni trenta. Fino all'instaurazione della dittatura, molte riviste teoriche dei partiti operai e di movimento come «Non mollare» (1925), «Il caffè» (1924-25), «Quarto stato» (1925-26), «Ordine nuovo» (1919-25), hanno dato un rilevante contributo di analisi e di discussioni; poi, durante il periodo della dittatura, nell'emigrazione, il dibattito è continuato in un rapporto critico e a volte costruttivo fra le correnti del socialismo europeo e dell'internazionale comunista; basti accennare alla rivista «Stato operaio» (I929-37), a «Politica socialista » (1933-35), ai tredici quaderni di« Giustizia e libertà» (1932-35). Su queste riviste è presente non solo una seria analisi della situazione italiana, del fascismo, ma anche un tentativo di reinterpretazione del marxismo stesso. È evidente che una attendibile presentazione del marxismo italiano non può prescindere dai contributi sopraddetti a cui bisogna aggiungere i lavori di Rodolfo Mondolfo (I877-I976), che è stato in Italia fino al 1938 quando, a causa
www.scribd.com/Baruhk
La filosofia italiana contemporanea
delle leggi razziali, è emigrato in Argentina. Il suo pensiero ha avuto larga diffusione specialmente nell'area socialista. Infine segnaliamo Luigi Dal Pane, l'allievo di Labriola, il quale ha continuato a produrre importanti lavori di storia economica fino a delineare un originale ripensamento teorico del pensiero labriolano. Ricordiamo, oltre all'ormai «classico» Antonio Labriola. La vita e il pensiero (1935, n ed. rivista e aumentata, 1975), Lo sviluppo uonomico d'Italia negli ttlti!lzi cento anni (1962), Orimta!lJenti per lo st11dio della storia economica (1965), La storia come storia de/lavoro (1968), Sulle origini del materialis11Jo storico (1974). Una delle correnti più vive della cultura italiana di questo secondo dopoguerra è stata senza dubbio il marxismo. Come premessa di carattere generale è da accogliere l'osservazione di Banfi, il quale annotava come la quasi totalità dei « filosofi che possono oggi in Italia dirsi marxisti siano giunti al marxismo sopra tutto attraverso l'esperienza della lotta politica e sociale [onde], proprio per l'origine essenzialmente pratica del loro orientamento, teoricamente provengono da vari indirizzi e correnti della filosofia contemporanea ». È indubbio che l'azione politica di unità nazionale, svolta dai partiti operai durante la lotta di liberazione nazionale e anche dopo, è stata uno dei motivi che hanno determinato l'adesione di una larga parte di intellettuali a questi partiti, anche se le loro posizioni teoriche non si caratterizzavano come marxiste. Valga per tutti l'esempio di molti intellettuali raccolti attorno alle numerose riviste politiche e filosofiche, di cui abbiamo parlato nel paragrafo vn. Non intendiamo affrontare la complessa storia dei rapporti fra gli intellettuali e i partiti operai, né esaminare l'itinerario filosofico di coloro che hanno raggiunto, nel corso stesso della loro milizia politica, posizioni definibili marxiste, in senso lato. Ci limiteremo a ribadire che il fatto culturalmente più rilevante, nell'ambito della cultura democratica, è stato senza dubbio la pubblicazione dei Quaderni dal carcere di Antonio Gramsci. Le sue nuove proposte interpretati ve della storia d'Italia e della cultura italiana hanno contribuito a un profondo rinnovamento della storiografia politica e letteraria; in questo campo si sono avuti i risultati più importanti e innovatori. Gli scritti gramsciani sono stati anche al centro di fecondi dibattiti, che si sono estesi alle ricerche sulla scuola, sulla pedagogia e la letteratura. Fino a che punto l'incontro con Gramsci sia stato determinante nell'orientamento dei filosofi marxisti italiani, è ancora una questione aperta ali 'indagine e alla discussione. I più importanti filosofi marxisti, Antonio Banfi, Galvano della Volpe, Cesare Luporini e altri, hanno raggiunto posizioni marxiste, in senso lato, dopo una complessa e assai diversa esperienza culturale, e la loro sistemazione teorica era già sostanzialmente conclusa quando iniziò la conoscenza dei Quaderni dal carcere di Gramsci. Tenuto conto di ciò, va riconosciuto che l'influenza esercitata dal pensiero
104 www.scribd.com/Baruhk
La filosofia italiana contemporanea
gramsciano entro la cultura italiana, in questo venticinquennio, è forse circoscrivibile più nei campi della politica, degli studi storici e letterari, che non in quelli più propriamente filosofici. In questi ultimi anni però assistiamo a una ripresa, con approfondimento storico-critico e riutilizzazione nuova del pensiero gramsciano, in Italia e in Francia, in diretta connessione con una nuova fase di elaborazione politica di intellettuali marxisti legati alla nuova pratica politica di massa. Tali questioni, insieme all'indagine sull'uso che del « gramscismo » è stato fatto negli anni cinquanta, fuoriescono da questo breve paragrafo. Il marxismo di Cesare Luporini è stato recentemente dallo stesso rimesso in discussione nei suoi presupposti teorico-politici, onde l'opportunità di presentare alcuni temi, più che una compiuu esposizione analitica del suo pensiero. La caratteristica di fondo della sua ricerca è costituita da una tesa e sofferta necessità di collegarsi con la pratica politica, di misurarsi cioè con i problemi di un impegno di progettazione politica, non solo come antidoto a esiti intimistici o mistici di certo esistenzialismo personalistico, ma soprattutto conseguente all'accettazione di una dimensione pratico-collaborativa dell'uomo come soggetto storico. Cosicché le sue ricerche segnano momenti di un itinerario filosofico complesso, in cui la ricerca storica, condotta in una zona nuova rispetto alla storiografia idealistica e comunque fortemente innovativa, rinvia a scelte e verifiche teoriche precise, così riassunte dallo stesso autore: « Per alcuni marxisti il fondamento antropologicofilosofico rimane, o almeno deve essere recuperato dal Marx giovanile, del I 844. Il marxismo, in ultima analisi, sarebbe cioè una filosofia dell'uomo, proprio nel senso che questa gli servirebbe da fondamento, penetrando e dilatandosi attraverso tutta la storia. Per altri marxisti, la rivoluzione teorica prodotta da Marx consiste, all'opposto, nella abolizione, attraverso il materialismo storico, di quella Philosophische Grundlage (antropologica). Chi vi parla appartiene a questo secondo gruppo. » I suoi scritti sono: Filosofi vecchi e nuovi (I 942), con il noto saggio su Leopardi - che ha segnato una svolta nella storiografia su quell'autore La mente di Leonardo (I 9 53), I l criticis?JJO di Kant (I 9 55), inserito poi in: Spazio e materia in Kant (I96I), Voltaire e le « Lettres philosophiques » (I95 5), Dialettica e tnaterialiSlno (I974), raccolta organica di saggi dal I95 5 al I972. Fra i contributi
teorici degli anni cinquanta sottolineiamo l'importante lavoro su Kant. Il nostro autore tenta di staccare il pensiero di Kant «dalla successiva ricostruzione metafisico-speculativa » condotta dall'idealismo, che rappresenta una distorsione teorica del suo stesso pensiero, dal momento che « in Kant non si trova mai il personaggio "Io trascendentale", tante volte attribuitogli dagli interpreti sulla scorta dell'idealismo fichtiano e posteriore. Chi conosce e opera, anche per Kant, sono gli uomini e soltanto gli uomini, individui umani viventi ». Egli rimette in discussione così le componenti essenziali del kantismo, nella persuasione che «tutta la filosofia di Kant è caratteristicamente avvolta in un'area di empiricità », ove centrale è la nozione d! possibilità reale, perché essa conduce a riconoscere
105
www.scribd.com/Baruhk
La filosofia italiana contemporanea
l 'importanza gnoseologica del dato oggettivo, onde « al problema critico come ricerca della condizione della possibilità, è perciò sempre correlativa la domanda intorno alla realtà oggettiva o validità soggettiva: di contro alla validità soggettiva (invero intersoggettiva) fondata sul solo a priori». Il concetto di possibilità reale costituisce il centro teorico di Kant, inscindibilmente connesso con la ricerca di una fondazione del sapere scientifico; di qui l 'impossibilità di scindere il rapporto filosofia-scienza, tanto stretto, da indurre Kant a proporre una correzione anti-teologica rispetto allo stesso Newton, per offrire una interpretazione integralmente anti-metafisica del mondo naturale. L'autore può così polemizzare con le critiche di Hegel a Kant e rivendicare la necessità di una sua legittima inserzione nella tematica marxista. Tale istanza è giustificata dal fatto che molti marxisti hanno dato del kantismo più un giudizio ideologico, che una critica teorica; di qui la necessità- per criticare radicalmente l 'idealismo - di recuperare la tradizione filosofico-scientifica nel punto di massima tensione problematica, rappresentata da Kant, il cui pensiero è stato riconosciuto - con troppa facilità anche da alcuni marxisti parte integrante dell'idealismo contemporaneo. Questo atteggiamento critico verso l'idealismo si era successivamente attenuato, fino a giungere a una difesa dello storicismo perché, ora afferma, «lo storicismo appariva l'unica interpretazione del marxismo perfettamente adeguata e corrispondente alla politica del partito (comunista), alla sua linea strategica. Alla linea cioè dell'unità antifascista, della svolta di Saletno, della Costituente, e magari del voto dell'articolo 7 (della Costituzione)». Comunque in quest'ultima fase Luporini sottopone a serrata critica sia lo storicismo che lo strutturalismo, e propone un« ritorno» al Capitale, indagato nel nesso teoria-pratica che esso istituisce e con privilegiamento delle «forme» cioè delle costanti logiche che in Marx sono strettamente collegate fra loro in quanto forme «nella logica (cioè nella interna necessità) di quel determinato modo di produzione ». La critica allo storicismo è radicale, perché - secondo Luporini - esso si risolve completamente in ideologia politica - quasi sempre conservatrice e perché «in fondo ogni storicismo entifica la storia, dice che c'è la storia e finisce, lo confessi o meno, per identificarla con tutta la realtà. Cioè crea un ens rationis ». Non è possibile, all'interno dello storicismo, condurre un'operazione di discernimento fra aspetto metodico e momento ideologico, distinzione che vale per lo strutturalismo, onde di questo è possibile un recupero di alcune tecniche di indagine, ciò che è impossibile fare del primo. Sulla dicotomia storicismo-strutturalismo aveva iniziato un'indagine analoga Preti nell'ultimo scritto del 1971, Luporini la conduce fino in fondo, ritrovando un Marx, rivisto con strumenti di indagine empirico-formale di matrice kantiana. Il nostro autore critka l'antisoggettivismo dello strutturalismo, per riprenderè la tematica della soggettività, in termini nuovi rispetto sia all'impostazione 106
www.scribd.com/Baruhk
La filosofia italiana contemporanea
di Sartre che a quella di Paci. Anzi, mentre Paci ritiene che occorra una nuova :filosofia prima che sia insieme « scienza che studia le operazioni fondanti » del soggetto, per collegarle con la Lebenswelt e superare l'aggettivazione, che « è proprio l'alienazione nei suoi vari significati »; invece Luporini ritiene che il superamento del precategoriale sia la condizione stessa per ripresentare il marxismo nella duplice funzione di conoscenza scientifica e progettazione rivoluzionaria, con al centro la !ematica della « soggettività operaia ». In questo senso egli può dichiarare: « Credo nella meta-fisica nel senso in cui questa parola veniva largamente usata nel Settecento, ossia in quanto considerazione di elementi comuni a campi diversi», ma non in una direzione di interdisciplinarietà, di cui denuncia i limiti ideologici, ma in quello di una « lettura» nuova di « Marx secondo Marx », che lo porta a un giudizio sul Capitale, sostanzialmente divergente da quello proposto da Della Volpe: « Il materialismo storico - concezione della storia- non è propriamente una " scienza ", ma una dottrina critico-scientifica (della società umana e della storia) fondata criticamente», onde il problema della fuoriuscita dal sistema capitalistico non si pone in termini necessaristici, scienti:fico-previsionali, ma in termini fortemente politici (con determinante funzione della « soggettività» operaia e della direzione pratico-rivoluzionaria). « Si tratta dunque di una necessità particolare, e non di una legge evolutiva generale che domini l'umanità e la indirizzi :finalisticamente, dal giorno in cui il primo uomo intraprese a produrre in senso economico. Il carattere ipotetico di tale necessità, che ai tempi di Marx poteva apparire quasi evanescente, è invece drammaticamente sottolineato ai giorni nostri dalla possibilità reale di una guerra sterminatrice e con conseguente suicidio o qua~>i-suicidio del genere umano. » Che è un modo per ribadire il ruolo determinante dell'uomo insieme alla necessità di una ininterrotta analisi di classe (logico-pratica), secondo un'indicazione anche di Labriola: « Solo nello studio co ti diano della lotta di classe, solo nella prova e riprova delle forze proletarie ci è dato conoscere !es chances del socialismo: se no si è e si rimane utopisti anche nel riverito nome di M arx » (Discorrendo di socialismo e di filosofia). Galvano della Volpe (1895-1968) è partito da una critica interna dell'attualismo, espressa nel saggio L'idealismo dell'atto e il proble?JJa delle categorie (I 924), in cui perviene alla conclusione che rimane ancora aperto il problema « di una conciliazione rigorosamente dialettica della relazione degli opposti con quella dei distinti onde render ragione più profondamente della vita dell'Atto, e colmare quelli che paiono i difetti della concezione gentiliana». L'approfondimento qui richiesto viene compiuto attraverso una ricognizione della tradizione idealistica ed empiristica, passata e presente; attraverso un'analisi del problema estetico, in una prospettiva antiromantica, e concluso con la proposta di una logica storica che risolva il rapporto razionale-reale senza privilegiare il primo termine né vani:ficare il secondo. Su questa base avviene l'incontro con il Marx storico e critico
www.scribd.com/Baruhk
La filosofia italiana contemporanea
della società nonché delle procedure logico-idealistiche che tendono a legittimare questa società borghese-capitalistica. I suoi più importanti contributi nel campo della storia del pensiero filosofico sono: Hegel romantico e mistico (I929), La mistica speculativa di M. Eckhart (I93o), La .filosofia dell'esperienza di Davide Hume (2 voli., I933-35). Nel campo estetico ha scritto: Il verosimile .filmico (I954), Poetica del Cinquecento (I954), Critica del gusto (I963). Gli scritti logici e sociologici più importanti sono: C ritica dei principi logici (I 940; poi, Logica come scienza positiva, I 95 6), Discorso sulla ineguaglianza (I 942), La .libertà comunista (I 946), Per la teoria di -un um;nesimo positivo (I 949), Metodologia scientifica. La struttura logica della lqge economica del marxismo (I95 5), Rousseau e Marx (I96r). Nella vasta produzione del nostro autore, la Logica assume un posto centrale e pertanto ci soffermeremo brevemente per indi carne l'orientamento e le tesi principali. Della Volpe nell 'indagine sulla storia della filosofia individua due linee di pensiero, tra loro radicalmente antagoniste : una realistico-empiristica, l'altra idealistico-mistica; quest'ultima non sarebbe mai riuscita a superare (cioè inglobare e giustificare razionalmente) le istanze empiristiche. Pertanto si sono date due proposte di «logica», quella empiristica e quella idealistica, con soluzioni antitetiche al problema del rapporto uno-molteplice. Platone prima e Hegel dopo sono stati i più radicali negatori della positività del non-essere (che si ritrova poi in Leibniz, W olf e nello stesso Kant, sia pure in formulazioni diverse). Anzi« con Hegel il principio della dialettica si rivela del tutto insufficiente e non solo nei confronti dell'istanza anti-eleatica e anti-platonica di Aristotele, ma altresì, in certo senso, nei confronti dell'istanza anti-eleatica e anti-critica di Platone» rivelandosi pertanto « più dogmatico platonico di Platone stesso ». Il primo che abbia condotto una critica radicale della logica hegeliana è stato Marx, il quale ne ha messo in evidenza la funzione mistificatoria. Orbene, secondo della Volpe, Marx non « invera » Hegel, nel senso che ne accetti il metodo e respinga l'« involucro mistico», perché l'uno è parte integrante dell'altro: è la filosofia hegeliana in quanto tale che va respinta, e la dialettica va espunta dalla genesi stessa del marxismo. Un suo accoglimento, anche metodico o parziale (come avviene con Luckacs ), rimetterebbe in discussione il marxismo come concezione scientifica della realtà. Pertanto bisogna riprendere il problema dal versante empiristico - quello che va da Aristotele a Galileo e Hume. Infatti quest'ultimo è il primo che ha sottolineato l'istanza «dell'esistenza in quanto sinonimo del molteplice, o contingente, o irrazionalesingolare ». Della Volpe ritiene che la struttura della nuova logica - la quale deve fondare scientificamente anche l'economia politica - debba essere elaborata portando a nuova consapevolezza le procedure logiche eia bo rate da Aristotele nella critica a Platone e quelle messe in atto da Galileo nella critica ai fisici aristotelici. Il significato di tale filiazione è così espresso dal nostro autore: « Ora che la critica marxiana coincida altresì con la critica galileiana dei fondamenti aprioristici della fisica peripatetica, e però appartenga all'ordine di istanze 108
www.scribd.com/Baruhk
La filosofia italiana contemporanea
critiche da cui nasce la scienza sperimentale moderna della natura; tutto questo significa che essa, col mostrarci implicitamente nell'Hegel moralista e logico apriorista (e non già solo nell'Hegel filosofo apriorista della natura) una sorta di novello Simplicio peripatetico, ci conferma a fortiori l'infecondità e illegittimità dell'apriorismo (non solo hegeliano) nella filosofia in genere, dunque anche nelle cosiddette "scienze morali", aprendoci la prospettiva, ch'è filosofica in quanto scienza sperimentale anche dell'uomo con tutti i suoi problemi. » Il principio strutturale della nuova logica materialistica, fondativa dell'unificazione di esperienza e ragione è quello di « identità tautoeterologica in cui si esprime la reciprocità o circolarità funzionale di ragione e materia (sensazione)». Il valore logico-filosofico di questo principio risiede nel fatto che la contraddizione non è solo una figura logica ma è il connotato della realtà oggettiva. La nuova dialettica, proposta dal nostro autore, è pertanto quella fondata sulle astrazioni determinate, storiche e razionali, presenti anche nelle ipotesi scientifiche delle scienze naturali. Il suo carattere scientifico è intrinseco allo stesso « criterio della presente logica, il criterio della etetogeneità e reciproca funzionalità di ragione (coscienza) e materia, ossia di predicato e soggetto, è infatti risultato tanto di induzione che di deduzione». La conclusione cui perviene è pertanto questa: «Non c'è che una scienza, perché non c'è che un metodo ossia una logica: la logica materialistica della scienza sperimentale galileiana. Onde, dalla legge fisica alla legge morale ed a quella economica e così via, variano le tecniche che le costituiscono quanto varia l'esperienza e la realtà, ma non varia il metodo, la logica, il cui simbolo resta il suddetto circolo concreto-astratto-concreto. » A questa logica sono state elevate diverse critiche nell'ambiente marxista. I problemi sollevati da quest'opera sono del tutto estranei alle più serie e moderne ricerche logiche ed epistemologiche. Un suo allievo, N. Merker ha ritenuto di riassumere in questi termini gli indubbi meriti culturali del nostro autore: « La riscoperta del metodo logico marxiano in economia e l'indicazione su come generalizzarlo a campi sovrastrutturali diversi da quello dell'economia politica, è un titolo di merito che a della Volpe spetta in pieno; e si accompagna legittimamente all'altro, di aver tratto alla luce, cioè di aver reso parlante in tutta la ricchezza delle sue articolazioni ed implicazioni, il testo della critica di Marx alle ipostasi hegeliane e la validità di esse come generale critica materialistico-storica dell'apriorismo. » Alla scuola di della Volpe appartengono: Lucio Colletti, Umberto Cerroni, Nicolao Merker, Mario Rossi, i quali hanno dato contributi alla storiografia filosofica, in particolare della filosofia tedesca, moderna e contemporanea. Un rilevante contributo al marxismo ha dato Aurelio Macchioro (n. 191 5). Dopo alcune ricerche sulla teoria degli scambi internazionali e sugli aspetti monetari del ciclo economico, ha avvertito la necessità, negli anni cinquanta, di un approfondimento della storia del pensiero economico, che dai marxisti italiani era stranamente trascurata. Ha collaborato per oltre un ventennio alle più 109
www.scribd.com/Baruhk
La filosofia italiana contemporanea
importanti rtvlste economiche e di cultura della sinistra, fra cui « Società », « Rivista storica del socialismo », « Studi storici », raccogliendo gli articoli più importanti nell'ampio volume: Studi di storia del pensiero economico e altri saggi (I97o). Ha condotto una puntigliosa ricognizione storico-critica su V. Pareto, A. Marshall, J.M. Keynes; indagini sulle origini della scienza economica e sulla rivoluzione marginalistica, col recupero della migliore tradizione illuministica, da Melchiorre Gioia a Cattaneo. Inoltre ha approfondito le questioni teoriche nei saggi su L'economia politica del marxismo. Egli è pervenuto così a una «lettura» del Capitale di Marx con preoccupazioni ricostruttive, avvicinabili a quelle di Luporini (non dellavolpiane); ha condotto insieme a Bruno Maffi la più rigorosa traduzione del libro primo de Il Capitale, con ampia introduzione e ha compiuto un notevole tentativo di unificare la storia del pensiero economico con la scienza nel saggio: La storia del pensiero economico fra storia e scienza (I974)· Mentre Luporini incentra l'analisi sulla trama logica dell'indagine economica, Macchioro mette in evidenza la duplice e contemporanea demistificazione hegeliano-ricardiana di Marx, perché « si tratta di due arrovesciamenti conseguenti l 'uno dall'altro: la fondazione storica del materialismo storico (contro l'idealismo hegeliano) essendo la stessa operazione che si sviluppa come fondazione della critica dell'economia politica». Di qui la necessità di una chiave interna alla lettura del Capitale, per non trasformare in aspetti dicotomici ciò che in Marx è inscindibilmente unito: il critico dell'economia politica con il rivoluzionario dialettico. Tale «chiave» è indicata nell'utopia del possibile che è la società senza classi, alla cui progettazione hanno lavorato Marx ed Engels, e la cui validità euristica è data dal fatto che « senza l'utopia del possibile i due versanti - il versante teorico e il versante pratico operativo della struttura del Capitale - rimarrebbero disgiunti, in pro del teoricismo addottrinato da un lato e del praticismo dall 'altro ». Nicola Badaloni (n. I924) ha espresso il suo orientamento marxista-storicista sia in ricerche di storia del pensiero filosofico sia in saggi teorici, raccolti con il titolo programmatico: Marxismo come storicismo (I962). Tale contributo ha suscitato negli ultimi anni un dibattito chiarificatore all'interno del marxismo italiano. Inoltre ha pubblicato La .filosofia di G. Bruno (I95 5), Introduzione a G.B. Vico (I96I); Tommaso Campanella (I965); Antonio Conti. Un abate libero pensatore tra Newton e Voltai re (I 968); con questi tre studi ha privilegiato la tradizione che confluisce poi nell'orientamento storicistico, con accentuazione degli aspetti laicomondani rispetto a quelli religiosi e con esclusione della tradizione scientifica. Negli scritti di quest'ultimo periodo si è impegnato nell'analisi delle componenti diverse del marxismo italiano e ha condotto un tentativo nuovo di studio del pensiero di Gramsci: Scienza e .filosofia in Engels e Lenin (I 970), Il marxismo italiano degli anni sessanta (I971), Per il comunismo. Questioni di teoria (I972), Il marxismo di Gramsci. Dal mito alla ricomposizione politica ( 197 5). Nel primo libro egli confronta IlO
www.scribd.com/Baruhk
La filosofia italiana contemporanea
il marxismo con i contributi critici e /o alternativi di Dal Pra, Ab bagnano, Croce, Bobbio, per esaminare quali conseguenze positive possa trarre il marxismo da un impatto con le altre correnti del pensiero contemporaneo. Egli propone una differenziazione-scomposizione fra la metodologia e l'ideologia, presenti nel marxismo: l'una disciplina il momento logico-scientifico, l'altra ne è il prolungamento e insieme la soluzione, scientificamente fondata e controllata. Questo plesso gnoseologico-pratico è determinato dalla dialettica, il cui uso non è metaforico-didattico, ma costitutivo. La dialettica unifica il metodo storico con quello logico, nel senso che individua le contraddizioni reali, oggettive e ne prospetta soluzioni che per essere tali - e non solo ipotesi - abbisognano dell'intervento pratico-ideologico. Le stesse critiche alla posizione di della Volpe sono condotte in funzione di una possibile ricomposizione di motivi e istanze, anche tra loro diverse, perché l'autore ritiene che una tematizzazione della dialettica possa permettere al marxismo di dare una soluzione a quei problemi sorti in contesti storico-teorici fra loro diversi ma egualmente decisivi. Nei saggi su Gramsci, Badaloni tenta di individuare con esattezza le componenti culturali e teoriche del marxismo gramsciano (da Sorel a Croce, a Marx e Lenin) perché proprio « gli effetti di questa fusione fanno del pensiero di Gramsci una delle voci più autorevoli di una via rivoluzionaria in Occidente». Non si tratta pertanto solo di condurre una più rigorosa indagine storico-critica del pensiero di Gramsci, ma di attualizzare l'aspetto metodico del suo pensiero, tentando cioè una ricomposizione nuova degli strumenti teorici e delle tendenze pratico-politiche presenti nel marxismo odierno, in vista di una proposta di marxismo che sia all'altezza dei nuovi compiti teorico-pratici emergenti dall'attuale congiuntura storica. Prima di enunciare e motivare una conclusiva proposta teorica di materialismo dialettico, va sottolineato che anche in Italia, negli anni sessanta, è avvenuta una larga ripresa di studi sul pensiero di Marx, Engels e Lenin. Tale rinascita è indubbiamente legata a complesse motivazioni di ordine politico e altre di carattere teorico, cioè interne a una ridefìnizione della validità del marxismo e del leninismo di fronte alle nuove realtà del mondo contemporaneo. Senza affrontare quest'ultima discussione, sulla cui importanza - e quindi sulla necessità di approfondirla - non nutriamo alcun dubbio, intendiamo ora segnalare solo alcuni fra i contributi più significativi di rivalutazione complessiva del pensiero di Engels, considerato in sostanziale continuità politica e teorica con quello di Marx, e ulteriormente rielaborato da Lenin. L'annosa questione circa la differenza di fondo che esisterebbe fra il pensiero di Engels e quello di Marx (successivamente ripresentata nel rapporto fra il marxismo e illeninismo) è stata ripresentata in Italia in questi anni particolarmente da Lucio Colletti. I contributi più validi si pongono però sul versante opposto; basterà ricordare, oltre al contributo di Badaloni già segnalato, quelli di Eleonora Fiorani, F. Engels e il materialismo dialettico (1971), Compendio engelsiano-leniniano I I I
www.scribd.com/Baruhk
La filosofia italiana contemporanea
(1972), Critica delle interpretazioni di Marx-Engels (1975), e ancora, in collaborazione con Ferdinando Vidoni, Il Giovane Engels: cultura, classe e materialismo dialettico (1974). In questi studi è presente una rigorosa ricostruzione complessiva dell'itinerario politico e teorico di Engels, con esatta indicazione dei «fondamenti gnoseologici della visione del mondo nella quale s'inquadra il materialismo storico » e, con accentuazione polemica, la conferma dell'unità di pensiero fra Engels e Marx e dell'attualità del materialismo dialettico. Sebastiano Timpanaro in Sul materialismo (1970, n ed. ampliata 1975) ha ribadito la validità del materialismo (più che della dialettica), come visione del mondo in cui centrale è il rapporto uomo-natura, nella duplice persuasione che « l'antiengelsismo è un sintomo di idealismo perdurante» e anche se En_gels «non offre soluzioni bell'c pronte per nessuno dei problemi ai quali abbiamo accennato », da lui « bisogna ripartire per affrontarli di nuovo ». Altri contributi, come quello di Ernesto Ragionieri, Il « vecchio » Engels e la storicità del marxismo (1970), hanno evidenziato la continuità di corrette posizioni politiche dell'ultimo Engels rispetto al patrimonio marxiano. Anche i capitoli su Engels e Lenin di quest'opera si pongono esplicitamente come una ripresa e riconferma dell'attualità della linea engelsiana-leniniana, cui si è giunti attraverso un autonomo lavoro all'interno della tematica dell'epistemologia contemporanea, onde indicare poi nel materialismo dialettico lo strumento teorico più idoneo per risolvere i problemi emergenti all'interno del sapere scientifico e per progettare non utopisticamente una nuova società. XIII
• SCIENZA E FILOSOFIA.
RINASCITA DEL MATERIALISMO DIALETTICO
Risulta ormai chiaro, da quanto abbiamo esposto nei paragrafi precedenti, che, tra le varie esigenze messe in moto dal generale desiderio di rinnovamento che pervase la cultura italiana alla fine della seconda guerra mondiale, merita una menzione particolare quella di riuscire finalmente ad aprire le ricerche filosofiche verso la problcmatica della scienza. Fu un'esigenza motivata sia dal desiderio di liberarsi dalla pesante eredità lasciata, in questo settore, dall'attualismo gentiliano (che per un certo tempo era stato considerato, come sappiamo, la filosofia ufficiale del fascismo), sia dal desiderio di aggiornarsi su quanto era stato operato, in proposito, da alcuni fra i più celebri indirizzi stranieri. L'impresa si rivelò tuttavia di notevole difficoltà, da un lato perché la frattura tra filosofia e scienza aveva radici assai più lontane (si ricordi quanto abbiamo accennato nel secondo paragrafo), dall'altro perché nella maggioranza dei casi non si fu capaci di collegarsi ai pochi, ma pur seri, tentativi che già erano stati compiuti in questa direzione nei primi decenni del secolo, ad opera, per esem112
www.scribd.com/Baruhk
La filosofia italiana contemporanea
pio, di Vailati e di Enriques, onde il programma di riavvicinamento della filosofia alla scienza fu guardato con un certo sospetto da chi si preoccupava di difendere la tradizione italiana dall'invadenza delle « mode» d'oltreoceano. Intendiamo riferirei in particolare al sospetto di cui furono circondate, per alcuni anni, le ricerche di epistemologia e di logica, accusate tutte, molto sommariamente, di essere pure e semplici propaggini del neopositivismo. Questa diffidenza fu presente perfino tra le file dei marxisti, dove uno studioso del valore di Galvano della Volpe includeva sì nel proprio programma l'esaltazione del metodo galileiano, ma si guardava bene dal cimentarsi sui grandi problemi filosofici sollevati dalle nuove conquiste della logica, della matematica, della fisica e della biologia. È significativo come il ben giustificato sforzo della scuola dellavolpiana di affermare la propria indipendenza nei confronti del materialismo dialettico sovietico del periodo staliniano, l'abbia condotta non già a tentare di contrapporre alle tesi spesso rozze e dogmatiche di tale materialismo una visione altrettanto materialistica ma più critica e raffinata del mondo naturale, bensì a interessarsi unicamente di problemi «umani» (storici, economici, sociali ecc.) come se l'uomo potesse venire concepito al di fuori della natura, o come se i suoi rapporti con essa potessero venire interpretati esclusivamente quali rapporti di ordine pratico e non anche di ordine conoscitivo. Di qui il ben noto atteggiamento di non-intervento, che tale scuola mantenne (e mantiene) nei dibattiti generali intorno al valore - conoscitivo o no - della scienza, o a quelli specifici intorno al significato - realistico o idealistico della teoria della relatività, della meccanica quantistica, della genetica ecc.; dibattiti nei quali si erano invece cimentati (e continuano a cimentarsi) valenti marxisti di altri paesi, in primo luogo dell'Unione Sovietica. Per parte loro, gran parte degli scienziati italiani hanno preferito mantenersi al di fuori di qualunque dibattito che comportasse un diretto impegno filosofico; ciò non vale ovviamente per tutti, ma senza dubbio nessuno di essi ha assunto una posizione filosofica esplicita e combattiva, come a suo tempo aveva fatto Enriques. Forse la sconfitta da questi subita, nella polemica con Croce e Gentile, li ha dissuasi dal seguire apertamente la sua strada. I più hanno preferito sostenere che le stesse indagini sui fondamenti delle varie discipline scientifiche vanno svolte, almeno da parte degli scienziati, in termini puramente tecnici, filosoficamente pressoché neutrali. È un orientamento che, in non pochi casi, può venire riscontrato perfino nell'ambito dei logici matematici; cosa tanto più singolare se tenhmo conto che fuori d'Italia parecchi logici matP.matici si sono fatti, invece, assertori di ben precisi indirizzi filosofici (non importa se più o meno soddisfacenti); si pensi per esempio a Russell, a Carnap, a Quine ecc. Prescindendo dalle ragioni storiche che hanno condotto a questa separazione tra filosofia e scienza, possiamo dire che, per un lato, essa rivela la giusta preoc-
www.scribd.com/Baruhk
La filosofia italiana contemporanea
cupazione di evitare comunque prese di posizione affrettate e generiche; per un altro lato, però, rivela purtroppo una scarsa comprensione dell'importanza dei problemi filosofico-scientifici. È chiaro infatti, che chi sia veramente consapevole del peso spettante a tali problemi nella cultura odierna non avrà timore di tentarne una soluzione, pur sapendo che essa può soltanto essere provvisoria e parziale. Tra la prudenza e la mancanza di effettivo interesse, il passo è abbastanza breve e non di rado la prima viene proprio invocata per mascherare la seconda. È vero che oggi si parla, da varie parti, di interdisciplinarità, ma è un fatto che essa rimane spesso più nel campo delle aspirazioni che non in quello dei programmi seri. Riguarda, comunque, assai più i rapporti fra materie affini (per esempio fra storia, letteratura, sociologia ecc. oppure tra fisica, chimica, biologia e materie analoghe) che non quelli tra filosofia e scienza. Essa può venire semmai interpretata come il tentativo di porre un freno allo specialismo più sfrenato, dilagante sia nell'ambito delle discipline umanistiche sia in quello delle discipline naturali; compito senza dubbio assai importante, ma diverso da quello ben preciso di cui stiamo discutendo. La realtà è che la via maestra da cui il filosofo viene condotto - e in certo senso costretto - a prendere posizione di fronte alla scienza, risulta costituita oggi come ieri dal complesso dei vastissimi problemi concernenti la conoscenza. È vero che recentemente taluno vorrebbe sostituirla con un'altra, caratterizzata invece dai problemi concernenti il rapporto fra scienza e società, e in particolare il rapporto fra lo sviluppo delle indagini scientifiche e le richieste di ordine pratico che le classi dominanti rivolgono di volta in volta agli scienziati. Ma è chiaro che l'impostazione stessa di quest'ultimo gruppo di problemi (intorno ai rapporti fra scienza e società) dipende a rigore dalla risoluzione che si fornisce ai problemi del gruppo precedente: se infatti si ritiene che la scienza non sia un'attività conoscitiva ma soltanto pratica, sarà facile concluderne che il suo rapporto con le classi dirigenti è di totale subordinazione, mentre la risposta diventa notevolmente più complessa se si attribuisce alla scienza un valore autenticamente conoscitivo; in tal caso in vero non si potrà fare a meno di ammettere che il suo sviluppo non dipende soltanto dalle richieste della società dell'epoca, ma anche dalle informazioni che lo scienziato riesce via via a ricavare intorno agli oggetti indagati. Lo si voglia o no, la scienza si presenta, oggi, come l'espressione più elevata della nostra attività conoscitiva (decisamente superiore alla conoscenza comune e a quella intuiti va); anche se fossimo convinti che questo giudizio è errato, dovremmo discuterlo per confutarlo, e dovremmo discuterlo proprio in sede di esame critico del problema della conoscenza. I filosofi che si rifiutano di affrontare questa discussione sono alla fin fine costretti, per coerenza, a negare l'importanza del problema della conoscenza. Ciò facendo dovrebbero però giustificare come mai esso abbia perso oggi la sua importanza tradizionale; dovrebbero 114
www.scribd.com/Baruhk
La filosofia italiana contemporanea
cioè spiegare che cosa è sopravvenuto perché un problema, che fu per millenni considerato centrale per la filosofia, sia stato improvvisamente collocato ai margini della ricerca filosofica. Crediamo di poter rispondere che la motivazione di tale improvviso mutamento vada cercata nella profonda diversità esistente fra i caratteri delle più avanzate conoscenze scientifiche odierne e i caratteri che per molti secoli vennero attribuiti alla conoscenza in generale e furono ritenuti degni di attenta indagine filosofica. È una diversità dovuta al fatto che le più avanzate conoscenze scientifiche odierne hanno perso da tempo la assolutezza che si pensava propria di qualsiasi conoscenza vera: assolutezza che attualmente non si saprebbe più a quale tipo di conoscenza attribuire (salvo forse a c1ualche vaga intuizione che pensatori isolati credono di aver raggiunta nell'intcrio:ità del proprio animo senza, ovviamente, e:.sere in grado di comunicarla agli altri!). È per l'appunto questa nuova situazione che ha indotto molti filosofi a concludere frettolosamente che il problema della conoscenza ha perso la sua antica rispettabilità ... perché in realtà non si conosce nulla, nel vecchio senso del termine « conoscere». Riteniamo lecito dire che l'odierna rinascita, in Italia, del materialismo dialettico trae proprio origine dal rifiuto della conclusione testé accennata. In altre parole: i fautori di tale rinascita sostengono che dalla constatata impossibilità di continuare ad attribuire, oggi, alle nostre conoscenze più elevate (cioè appunto alle conoscenze scientifiche) i caratteri tradizionalmente attribuiti alla conoscenza in generale, non si possa affatto dedurre « dunque ... non si conosce nulla », ma si debba dedurre invece «occorre rinnovare radicalmente la vecchia nozione di conoscenza». Secondo essi, occorre cioè abbandonare la pretesa che le «conoscenze vere» siano assolute e colgano nella sua totalità il reale oggettivo; visto che la vecchia nozione di conoscenza assoluta è diventata insostenibile, dovremo sostituirle la nozione di « conoscenza dialetticamente vera » cioè di conoscenza perennemente trasformabile, capace sì di cogliere gradualmente la realtà, ma non di esaurirla una volta per sempre. Gli anzidetti fautori di una rinascita del materialismo dialettico aggiungono poi: è incontestabile che la nuova nozione di « conoscenza dialetticamente vera» si ritrova già negli scritti filosofici di Lenin, ma non è perché venne insegnata da Lenin che noi l'accettiamo, bensì perché ci viene suggerita da un'attenta e spregiudicata riflessione sull'effettivo procedere della scienza odierna. Quanto ora detto ci fa comprendere con chiarezza r) per quale motivo l'attuale rinascita in Italia del materialismo dialettico incentri il suo programma filosofico su di una piena e consapevole rivalutazione del problema della conoscenza, z) per quale motivo questo programma faccia perno sui problemi di filosofia della scienza, 3) per quale motivo l'anzidetta rinascita sia caparbiamente osteggiata da tutti gli indirizzi che, qualificandosi sotto un nome o sotto l'altro, sostengono una complèta separazione tra filosofia e scienza. Per quanto riguarda 115 www.scribd.com/Baruhk
La filosofia italiana contemporanea
il secondo di questi punti, va osservato che parecchi difensori del materialismo dialettico prendono proprio le mosse- in Italia e non solo in Italia- da un accuratissimo esame delle moderne, più accreditate, correnti occidentali di filosofia della scienza vuoi per accoglierne e "precisarne alcuni risultati, vuoi per correggerne e integrarne altri che a un attento esame critico si rivelano in contrasto con ciò che ci insegna l'analisi obbiettiva del concreto procedere della ricerca scientifica. Un'impostazione siffatta è ad esempio presente nei membri del cosiddetto « gruppo di Milano » (Enrico Bellone, Ludovico Geymonat, Giulio Giorello, Silvano Tagliagambe e vari altri) la cui adesione al materialismo dialettico scaturisce proprio dallo studio dei problemi della conoscenza scientifica e dalla constatazione che tale materialismo è in grado di delinearne una soluzione più soddisfacente di quella solitamente offerta dalle correnti fenomenistiche, convenzionalistiche ecc. oggi maggiormente conosciute. Contro un tale approccio al materialismo dialettico vengono da alcune parti sollevate due obbiezioni, senza dubbio assai serie: I) che esso trascurerebbe l'impegno ontologico presente nei « classici » del materialismo dialettico, 2) che dimostrerebbe troppo scarso interesse per le conseguenze pratiche (rivoluzionarie) che tali «classici» hanno sempre ricavato dalla filosofia materialisticodialettica. Alla prima abbiezione i summenzionati fautori della rinascita, in Italia, del materialismo dialettico sono soliti rispondere che è impossibile giungere ad una valida difesa dell'antologia materialistico-dialettica se non partendo da una soddisfacente risoluzione (in senso materialistico) dei più difficili nodi della conoscenza scientifica moderna. In altre parole: a loro parere solo uno scrupoloso dibattito intorno alle famose tesi che Lenin denotava coi termini: «approfondimento delle conosc~nze », « flessibilità delle categorie », « inesauribilità della natura » (Lenin scriveva «dell'elettrone») può costituire la base di partenza per la formulazione di una concezione materialistica della realtà non attaccabile dalle solite, volgari, accuse di dogmatismo, accuse che si reggono proprio sull'ignoranza dei legami inscindibili fra antologia e gnoseologia. È del resto significativo che anche i più raffinati studiosi odierni dell'Unione Sovietica, nella loro difesa del materialismo dialettico, prendano le mosse proprio dalla trattazione materialistica del problema della conoscenza e in particolare della conoscenza scientifica. Alla seconda abbiezione rispondono in termini più modesti, ammettendo di non avere ancora sviluppato se non in forma molto schematica le conseguenze pratiche della concezione materialistico-dialettica difesa in sede teorica. Ritengono tuttavia che la scrupolosa chiarificazione teoretica di tale concezione sia indispensabile ad uno sviluppo coerente delle anzidette conseguenze, come hanno validamente sostenuto proprio i classici del marxismo, e lo sia tanto più oggi quando alcuni autori credono di poter difendere un nuovo tipo di rivoluzionarismo sulla base di concezioni non dialettiche e non materialistiche. Abbiamo già 116
www.scribd.com/Baruhk
La filosofia italiana contemporanea
visto, parlando dell'esistenzialismo, che su tali basi sono stati elaborati orientamenti di stampo sostanzialmente spontaneistico e irrazionalistico. Sull'incidenza di questa ripresa del materialismo dialettico nella cultura italiana è, per il momento, pressoché impossibile pronunciare un giudizio seriamente fondato. Sembra lecito, tuttavia, affermare che essa ha aperto una nuova via all'intensificazione dei rapporti tra ricerche filosofiche e ricerche scientifiche. Risulta pertanto difficile negarne l'interesse, per lo meno da questo punto di vista. È auspicabile che i suoi avversari si sentano stimolati a contrapporre - alle sempre più numerose ricerche di epistemologia e di storia della scienza ispirate al risorgente materialismo dialettico - altre ricerche, altrettanto precise e altrettanto valide, anzi possibilmente più valide. Sarà proprio questa dialettica a far progredire la cultura scièntifico-filosofica italhna.
www.scribd.com/Baruhk
CAPI'TOLO QUAR'TO
Biologia e ftlosofta DI
FELICE
MONDELLA
I· PREMESSA
La biologia dall'inizio del nostro secolo ad oggi ha subito un rivolgimento di grande importanza, quasi rivoluzionario. Non vi è stato in essa tuttavia un cambiamento del quadro concettuale paragonabile a quello che si è verificato nella fisica tra il 1890 e il 1930. Si potrebbe anzi dire che già all'inizio del secolo si trovavano presenti sia pure in forma approssimata alcune delle formulazioni teoriche fondamentali che dovevano poi svilupparsi ed essere confermate in questi ultimi decenni con la rifondazione della teoria dell'evoluzione sulla base della genetica e con il sorgere della biologia molecolare. Alla tesi qui accennata della continuità fra questi due periodi si può obiettare che i risultati teorici compiuti dopo il 1930 hanno costituito una svolta improvvisa e quasi inattesa rispetto alla situazione di grave crisi teorica in cui si trovava la biologia nei decenni precedenti e che era già maturata alla fine dell'Ottocento con il declino del darwinismo e il sorgere del vitalismo. Riten.iamo tuttavia di dover rispondere che solo un'analisi approfondita del primo periodo possa condurre ad una esatta comprensione del significato dei risultati del secondo periodo. Se è infatti vero che nella prima fase appaiono chiaramente i condiziona~ menti negativi di una concezione della conoscenza scientifica di tipo fenomenistico e irrazionalistico è però anche vero che attraverso i dibatti filosofici svoltisi in questo periodo emergono anche esigenze di chiarimento metodologico e di analisi critica che risulteranno fecondi per i successivi sviluppi. Questi dibattiti filosofici vertevano soprattutto sul significato e sui limiti del meccanicismo biologico nonché sulle proposte di una concezione organicistica capace di utilizzare tutta la fecondità dell'indagine fisico-chimica sugli organismi, ma nello stesso tempo in grado di caratterizzare le loro proprietà peculiari rispetto ai restanti fenomeni della natura. Il meccanicismo biologico assume nei primi decenni del nostro secolo due forme in parte almeno contrapposte. Da un lato si presenta come uno sviluppo del darwinismo, integrato da una concezione ipotetica su una organizzazione 118
www.scribd.com/Baruhk
Biologia e filosofia
nascosta nel plasma germinale; dall'altro, secondo un'impostazione più vicina al fenomenismo scientific:::>, tale meccanicismo si presenta come la trattazione fisicochimica dei processi attualmente osservabili in laboratorio. La prima forma è legata ad una concezione storica e materialistica della natura, la seconda si pone su un piano apparentemente più neutrale, ma in realtà aperto alle interpretazioni filosofiche di tipo idealistico o spiritualistico. L'organicismo, nella sua forma più valida e convincente, rivendicava nello studio dei viventi il riconoscimento di un livello di organizzazione avente leggi proprie, senza però escludere che tali leggi potessero di principio essere riducibili alle leggi più generali delle scienze inorganiche della natura. Ma il dibattito che portò a riconoscere la validità di questa impostazione organicistica si sarebbe limitato alla semplice rivendicazione della legittimità di un metodo se le svolte decisive della genetica e quelle più recenti della biochimica non le avessero dato un diverso significato. Queste ricerche risultano sostanzialmente in una conferma dell'indirizzo evoluzionistico neo-darwiniano, dell'idea sostenuta da Weismann di un'organizzazione nascosta della materia vivente che può spiegame le proprietà e il comportamento passato e presente degli organismi. In questo capitolo ci soffermeremo in modo più esteso sulle discussioni teoriche e metodologiche sviluppatesi nel primo periodo anche per il loro stretto legame con la cultura filosofica dell'epoca. Nella parte finale accenneremo invece ai risultati scientifici più recenti !imitandoci a rilevare come essi assumano un particolare significato alla luce della problematica teorico-filosofica del periodo precedente. Per comprendere questo significato è importante chiarire che tali risultati, più che una conferma di un generico meccanicismo biologico, rappresentano la convalida di una più ampia concezione materialistica sostenuta alla fine dell'Ottocento da alcuni dei più validi rappresentanti del darwinismo. Che questo materialismo non debba più, come allora, considerarsi rigorosamente meccanicistico, può essere suggerito da una visione più ampia dell'evoluzione degli organismi nella storia della natura e dal fatto che le critiche dell'organicismo e del materialismo dialettico sembrano indicare nel meccanicismo una concezione incapace di interpretare, nel divenire della materia, la produzione delle forme e dei livelli più elevati della natura, quali la vita e le attività sociali e spirituali dell'uomo. II· IL
MECCANICISMO
BIOLOGICO:
DIFFICOLTÀ E
CONTRADDIZIONI
Durante i primi anni del Novecento l'influenza del vitalismo, sia nella formulazione di Driesch sia in quella di altri autori, fu indubbiamente rilevante. Ma ne fu più sensibilizzato il clima culturale filosofico-scientifico in generale che non la maggior parte dei settori più circoscritti delle ricerche biologicosperimentali.
www.scribd.com/Baruhk
Biologia e filosofia
La concezione fenomenistica e convenzionalistica della conoscenza fisicomatematica della natura aveva già contestato alla scienza il diritto di presentarsi come una conoscenza valida ed oggettiva della natura. L'affermazione poi che la vita stessa sfuggiva completamente anche a questo tipo di conoscenza non poteva che accentuare il senso di precarietà e d'incertezza, per l'infrangersi di quel quadro coerente ed unitario che solo pochi decenni prima si pensava di aver fissato attraverso i risultati della fisica meccanicistica e della biologia darwiniana. Da tali precarietà ed incertezze trassero alimento i vari tipi di filosofia della vita di colorazione più o meno irrazionalista e, nel campo stesso della biologia, trassero giustificazione le formulazioni teoriche più disparate ed inconciliabili. Nei primi anni del Novecento questo disorientamento che coinvolgeva i principali problemi teorici della biologia quali l'evoluzione, l'eredità, la selezione, l'adattamento ecc., non impedì il concreto svolgersi di importanti ricerche sperimentali che nel giro di pochi decenni avrebbero chiarito su un piano teorico molte incertezze e fatto giustizia di molte formulazioni non sufficientemente fondate o arbitrarie. Le stesse ricerche di laboratorio più serie dovevano tuttavia trovare giustificazione in alcuni assunti teorici precisi e perciò il dibattito su problemi di carattere generale interessò direttamente non pochi degli autori più seri ed impegnati nella stessa ricerca sperimentale. Il vitalismo, pur non essendo stato accolto favorevolmente dalla grande maggioranza dei biologi, cionondimeno suscitò un ampio dibattito che si protrasse oltre gli anni venti. Tale
12.0
www.scribd.com/Baruhk
Biologia e filosofia
Contro tale concezione - come si è detto nel volume quinto - si erano tuttavia sollevate già negli ultimi anni dell'Ottocento così numerose obiezioni da toglierle parte della sua credibilità scientifica. Fra queste obiezioni vi era quella di principio che tale teoria presupponeva quella stessa finalità degli organismi che pretendeva di spiegare. Le variazioni casuali favorevoli, attraverso la cui selezione si sarebbero originate le strutture finalizzate, dovevano cioè essere prodotte in un organismo già capace di autoconservazione e quindi già dotato di una finalità. A ciò si aggiungeva una difficoltà che poteva forse apparire più importante nel nuovo clima culturale scientifico dell'inizio del secolo. La teoria del plasma germinale, quale era stata formulata da Weismann, Roux e altri, implicava l'esistenza nei cromosomi di strutture ultramicroscopiche stabili, portatrici esclusive dei caratteri ereditari. L'ammissione di tali strutture invisibili, di tale organizzazione nascosta appariva però a molti del tutto ipotetica e congetturale, sulla linea cioè di un atomismo speculativo, inaccettabile in base a quei canoni di scientificità empirico-fenomenologica, su cui la stessa fisica sembrava attestarsi all'inizio del secolo con l'energetismo. Si obiettava inoltre che l'estrema rapidità del ricambio materiale, dimostrata dalle più recenti indagini biochimiche, non permetteva di ammettere strutture molecolari rigide e permanenti. Tale teoria del plasma germinale appariva il risultato di una fase scientifica ancora legata agli studi microscopico-morfologici di tipo descrittivo e sembrava perciò arretrata rispetto alle nuove indagini fisico-chimiche che si potevano svolgere ormai con tecniche sempre più perfezionate e promettenti all'inizio del secolo. Obiezioni di questo tipo venivano avanzate da molti di quegli autori i quali ritenevano che una teoria meccanicistica della vita dovrebbe ormai essere fondata principalmente, se non esclusivamente sulla base di ricerche fisico-chimiche. Fra questi la figura forse più rappresentativa è quella del fisiologo tedesco Max Verworn (1863-1921) autore di un'opera, Allgemeine Physiologie (Fisiologia generale, 1895, vn ed. 1922), che porta come sottotitolo «Saggio su una teoria della vita». Egli sostiene che le difficoltà sin'allora incontrate dalla fisiologia nel fornire una spiegazione fisico-chimica della vita, erano dovute al fatto che si erano studiati i fenomeni complessivi degli organi e non si era ancora approfondita l'attività della cellula che costituisce l'elemento fondamentale di tutti i viventi. Sviluppando una concezione che risaliva già alla seconda metà dell'Ottocento Verworn, con altri autori, riteneva che il ricambio materiale della cellula fosse connesso a delle unità biologiche elementari, cioè a delle macromolecole proteiche, da lui chiamate biogeni. Queste molecole viventi sono diffuse in tutto il plasma della cellula e presentano una specifica labilità, dovuta al fluire dello stesso ricambio materiale. Ciò non impedisce però che la sostanza vivente conservi una forma costante e notevolmente complessa. «Come una caduta d'acqua 12.1
www.scribd.com/Baruhk
Biologia e filosofia
o una fiamma di gas,» egli afferma riprendendo un'antica analogia, «possono avere una data forma per quanto in nessun momento risultino dalle stesse molecole di prima, così la sostanza vivente, malgrado la sua fluidità, può presentare delle differenze di forma, le quali durano finché permangono le cause che hanno prodotto dati aggruppamenti delle molecole organiche. » Poiché tutte le attività della cellula sono espressioni del ricambio fra cellula e ambiente, di un'interazione cioè fra fattori interni ed esterni, il processo dello sviluppo embrionale e della eredità non può essere dovuto, come sostengono winiana. Da tali precarietà ed incertezze trassero alimento i vari tipi di filosofia soltanto della cellula uovo, cioè solo alla sostanza ereditaria del nucleo. «Nell'eredità,» egli afferma, «deve essere trasmessa la sostanza vivente coi suoi caratteristici rapporti di ricambio materiale. E questo è possibile soltanto se vengono trasmessi tutti i termini essenziali della catena del ricambio materiale, pratoplasma e nucleo, vale a dire se è trasmessa un'intera cellula. » Questa radicale opposizione di V erworn alla concezione del plasma germinale, secondo cui la trasmissione ereditaria avviene attraverso i cromosomi del nucleo, culminò in una importante polemica con il Roux il quale sosteneva appunto l'esistenza nell'uovo di «disposizioni», cioè di fattori interni costituenti la causa fondamentale dello sviluppo dell'embrione, che si realizza per una sorta di « autoattività » relativamente indipendente dalle cause esterne. Il V erworn nello scritto Kausale und konditionale Weltanschauung (Concezione causale e condizionale del mondo, 1912) obietta al Roux che la distinzione così posta fra cause interne e cause esterne è puramente fittizia. Ciò che può essere conosciuto di un fenomeno o di un processo sono le sue condizioni, non le cause. E tutte le condizioni, esterne e interne a un determinato processo, sono reciprocamente equivalenti, poiché tutte sono indispensabili per la realizzazione di tale processo. Nessuna è più indispensabile di un'altra. Se non vi sono dunque cause interne e cause esterne dello sviluppo di una cellula non vi sono neppure « disposizioni » e lo stesso concetto di « organizzazione » rappresenta - secondo V erworn - un elemento mistico infiltratosi nella scienza. Senza soffermarci sui successivi sviluppi di questa interessante polemica su « causalismo e condizionismo » - esposta più ampiamente da Ernst Cassirer ci limiteremo ad osservare come essa costituisca una notevole indicazione dell'eterogeneità e a volte contraddittorietà fra teorie che ugualmente si richiamavano al meccanicismo biologico. In tale polemica si può anche individuare un contrasto profondo in cui ci si dibatteva in questo periodo, a proposito della concezione generale della conoscenza scientifica. V erworn era stato allievo di Haeckel e pretendeva di portare la sua teoria della vita come uno sviluppo del monismo del maestro. Ma tale monismo era in realtà il rovesciamento di quello materialistico di Haeckel, compiuto in base alla concezione fenomenistica della scienza. « Dato il fatto indiscutibile che il mondo fisico non è che la mia rappre-
IZZ
www.scribd.com/Baruhk
Biologia e filosofia
sentazione, ne viene logicamente che solo la mia propria psiche esiste veramente. » Questa concezione, scriveva ancora Verworn nel 1895, «fu posta a base dei loro sistemi da Berkeley, e recentemente da Fichte e Schopenhauer, e in tempi recentissimi ad esso applicarono le loro idee sulla conoscenza teoretica A venarius fra i filosofi e Mach fra i naturalisti. Speriamo che questa idea fondamentale, che mena ad un vero concetto monistico del mondo, guadagnando sempre più terreno nella scienza della natura, metta fine al vecchio dualismo fra il corpo e l'anima, quell'antico concetto che ... ai tempi moderni spetta di riabbattere. Una cosa sola esiste- la psiche». Questa posizione filosofica accettata da Verworn poteva non essere del tutto indifferente alla valutazione che egli forniva della teoria del plasma germinale. Come Mach ed Ostwald, partendo da una concezione fenomenistica ed energetistica della fisica si erano opposti all'atomismo di Boltzmann che postulava entità reali invisibili al di là del mondo sensibile, così Verworn si oppone all'idea di un'organizzazione invisibile della materia vivente. Se inoltre l'unica realtà è la psiche, tutta l'interpretazione evoluzionistica degli organismi come risultato della storia della terra veniva a perdere, se non la sua validità scientifica, almeno il suo significato generale per interpretare ia realtà stessa dell'uomo, cioè il suo posto nella natura. Alla concezione neo-darwiniana, oltre al meccanicismo chimico-fisiologico caratteristico di Verworn si contrapponeva, almeno in parte, anche un altro indirizzo presentantesi con altrettante credenziali di modernità e di rigorosa analisi sperimentale e fisico-chimica del problema della vita. Tale indirizzo si proponeva di affrontare lo studio degli organismi in via indiretta cercando di individuare nell'ambito di interazioni fra sostanze organiche e inorganiche non viventi il prodursi di strutture o azioni simili a quelle viventi. Si tratta di un campo di ricerche già sviluppato negli ultimi decenni dell'Ottocento facendo interagire fra loro varie soluzioni chimiche capaci di produrre forme e movimenti simili a quelli di cellule viventi. Se ad esempio una goccia di sostanza oleosa viene posta in una soluzione alcalina, alla superficie di contatto può avvenire, per formazione di sapone, una diminuzione della tensione superficiale della stessa goccia oleosa per cui si producono in essa delle estroflessioni che simulano la forma dei movimenti di un'ameba. Fra i più convinti assertori di queste ricerche, che si estesero ampiamente nei primi decenni del Novecento, vi fu lo zoologo tedesco Otto Biitschli (1848-1920). Convinto che un'indagine fisico-chimica diretta degli organismi anche più semplici possa fornirci ben pochi dati sui processi nascosti che in essi effettivamente si svolgono, egli sostiene che questo tipo di indagini basate su modelli e analogie ci fornisca delle informazioni indirette ma fondamentali per comprendere il costituirsi delle stesse strutture morfologiche viventi. Nello scritto Mechanismus und Vitalismus (Meccanicismo e vitalismo, 1901) egli ritiene, rifacendosi proprio ai risultati di tali sue indagini, di poter replicare in modo efficace alle argomentazioni vitalistiche di Driesch basantisi sui processi
www.scribd.com/Baruhk
Biologia e filosofia
di rigenerazione e regolazione embrionale. Osserva ad esempio come gocce di liquidi in emulsione possano riacquistare la loro originaria forma sferica, dopo l'asportazione di una parte. Riferendosi poi al processo di autoriparazione di cristalli lesionati, che avviene in una soluzione, osserva come in questo caso si verifica che da ogni particella di un cristallo si può ricostituire un cristallo tipico, così che, nel senso di Driesch, anche un cristallo deve considerarsi un « sistema equipotenziale armonico». È interessante osservare che anche Bi.itschli partendo dalle sue indagini fisico-chimiche sul vivente respinge l'idea di Roux e Weismann dell'esistenza di « metastrutture » invisibili del plasma germinale. Contro ogni concezione di questo tipo egli afferma che in generale « una struttura meccanica non può essere la condizione di processi chimici», anche se sappiamo che «la pressione meccanica è sufficiente per provocare nel plasma vivente dei processi di scomposizione chimica ». Pur proclamandosi meccanicista e sostenendo che il corpo organizzato dei viventi è sorto in modo « casuale » ed è stato stabilizzato dalla selezione naturale, Bi.itschli in tal modo si oppone al filone del meccanicismo neo-darwiniano di W eismann che potremmo indicare come « micromorfologico ». Quest'ultimo indirizzo di ricerca era presto destinato a ritrovare una nuova e importantissima fase di sviluppo nelle ricerche di genetica che avevano preso l'avvio all'inizio del secolo specialmente negli Stati Uniti per opera di 'Thomas Hunt Morgan e la sua scuola. A queste indagini tuttavia non cominciò ad essere riconosciuto il loro vero significato di prosecuzione e di sostanziale convalida del neo-darwinismo weismanniano se non dopo gli anni trenta. Molti sino a questo periodo ritengono anzi che i risultati della genetica se non ponevano in dubbio la stessa idea di evoluzione biologica, per lo meno non gettavano alcuna luce importante su di essa. Le divergenze molto forti che in tal modo dividevano nei primi decenni del secolo coloro che ugualmente si richiamavano al meccanicismo biologico e quindi l'estrema difficoltà di costituire in base ad esso un coerente edificio teorico, si riflettono anche nell'opera dell'autore che fu forse il più importante e più combattivo assertore di questo indirizzo, Jacques Loeb (1859-1924), del quale si è già parlato nel volume sesto. Nato da una famiglia ebrea della Renania egli era emigrato nel 1891 negli Stati Uniti ove, in un clima culturale appena sfiorato dalla «reazione idealistica alla scienza », rimase fedele ad un materialismo meccanicistico ancora di impronta ottocentesca. Egli dichiarava con estrema convinzione che « gli esseri viventi sono macchine chimiche, che consistono essenzialmente di materiale colloidale e che possiedono la proprietà di svilupparsi automaticamente, di conservarsi e di riprodursi». Trovava una prova importante di questa sua affermazione nelle stesse ricerche sperimentali che egli aveva già iniziato in Europa, applicnndo stimoli chimico-fisici allo sviluppo dell'uovo e al comportamento animale.
124
www.scribd.com/Baruhk
L 'orientamento verso la luce di questo anellide ( « spirographis ») è uno dei tropismi studiati da ]. Loeb.
Nel primo caso, ad esempio, egli era giunto, variando la concentrazione dell'acqua di mare, ad ottenere lo sviluppo embrionale delle uova di riccio. Questa partenogenesi « sperimentale » poteva costituire una prova a favore del meccanicismo in quanto dimostrava che una tipica funzione vitale, quale la fecondazione normalmente compiuta dallo spermatozoo, poteva essere sostituita dall'azione di processi o stimoli fisico-chimici controllabili. Nel secondo caso, partendo da note osservazioni sulle piante, egli aveva sperimentato la reazione di insetti o di altri animali inferiori a stimoli luminosi chimici ed elettrici concludendo che la loro reazione costituisce un comportamento automatico svolgentesi in modo rigidamente deterministico. I bruchi, ad esempio, si muovono immancabilmente verso una sorgente luminosa anche se la loro fonte di cibo si trova nella direzione opposta. Questi effetti deterministici di un automatismo individuato nel comportamento degli animali, e da lui denominati tropismi, non solo dovevano confutare ogni considerazione psicologica sull'infallibilità dei loro istinti di autoconservazione, ma condurre anche ad una soluzione scientifica e deterministica del libero arbitrio. Col tempo - egli afferma - si giungerà a comprendere come « i nostri desideri e speranze, le nostre delusioni e sofferenze, i nostri sforzi e le nostre lotte sono confrontabili con l'istinto per la luce degli animali eliotropici ». Poteva ~·osi concludere che « la nostra vita sociale ed etica dovrà essere posta su base scientifica e le nostre regole di condotta dovranno essere armonizzate con i risultati della biologia scientifica ». Queste parole venivano pronunciate in un discorso su La concezione meccanicistica della vita tenuto al primo congresso dei monisti riunito ad Amburgo nel 1911. Organizzato dal grande biologo Haeckel parteciparono ad esso migliaia di persone di diversi paesi, ma nonostante l'atmosfera trionfale esso segnava ormai la fine di un movimento di pensiero inficiato da una sostanziale fragilità ed ambiguità teorico-filosofica. Basti ricordare che a presiedere la riunione vi era l'illustre chimico Wilhelm Ostwald che nel 1895 aveva decretato solenne125
www.scribd.com/Baruhk
Biologia e filosofia
mente la fine del materialismo scientifico in nome dell'energetismo, ma aveva però subito una dura sconfitta dovendo ammettere nel 1909 la validità scientifica della teoria atomica e molecolare contro cui egli stesso, con i seguaci della « fisica fenomenologica » ed energetista, si era così a lungo accanito. Di questa sconfitta dell'energetismo certo Loeb poteva valersi per rivendicare la validità del meccanicismo anche in biologia, ma egli non era effettivamente in grado di difendere la sua posizione materialistica su .quel terreno di discussione critico-filosofico ove si era affermata la concezione soggettivistica e convenzionalistica della conoscenza scientifica. Egli rimaneva ancorato al materialismo popolare ottocentesco. Non si rendeva conto, al pari di molti, che proclamare la riducibilità dell'attività psichica e morale dell'uomo a processi fisicochimici aveva costituito più che un preciso risultato scientifico una posizione ideologico-filosofica nella battaglia contro il clericalismo su cui poggiava il potere politico in Germania, in una battaglia che aveva ormai perso molto del suo significato nella nuova situazione storica. Non avvertiva come tale riduzione, pur continuando a costituire un punto di partenza valido per la ricerca scientifica, sul piano teorico-filosofico poteva anche prestarsi alle mistificazioni più pericolose, dal razzismo alla eugenetica, alla più completa sottovalutazione dei fattori socio-economici dell'attività umana. Tale sottovalutazione corrispondeva evidentemente agli interessi ideologici della classe al potere, volti a mistificare l'analisi scientifica delle reali condizioni di esistenza dell'uomo. I limiti teorici del meccanicismo biologico di Loeb oltre che sul piano filosofico possono riflettersi anche sul piano strettamente scientifico. Come molti sostenitori di un meccanicismo di tipo fisiologico, anch'egli infatti sottovaluta la teoria dell'evoluzione, la concezione storica della vita i cui problemi estremamente controversi gli apparivano del tutto insolubili in base a quell'atteggiamento rigorosamente sperimentale che egli rivendicava come l'unico e sicuro metodo della biologia. Pur tenendosi lontano da quella prospettiva storica che occorreva comunque assumere per una coerente comprensione scientifico-materialistica della vita, egli tuttavia di fronte al problema della finalità e dell'armonia funzionale degli organismi assume un criterio interpretativo astorico, ma di tipo darwiniano. Giunge cioè ad affermare che può esistere « soltanto quella limitata frazione di specie che non possiede alcuna grossolana disarmonia nel suo meccanismo automatico di preservazione e riproduzione. Disarmonie ed erronei tentativi sono la regola nella natura, i sistemi armonicamente sviluppati sono una rara eccezione. Ma dal momento che noi percepiamo solo questi ultimi abbiamo l'erronea impressione che l'adattamento delle parti al piano del tutto sia una caratteristica generale e specifica della natura animata che la distingue da quella inanimata ». Questo richiamo agli effetti di una selezione naturale non si rivolge però al passato. Da sperimentatore convinto egli ritiene che « non possiamo considerare nessuna teoria dell'evoluzione come provata a meno che essa ci 126 www.scribd.com/Baruhk
Biologia e filosofia
permetta di trasformare a piacere una specie in un'altra e ciò non è stato ancora realizzato ». Egli avanza perciò l'ipotesi che una estrema variabilità di forme nuove e solo in piccola parte capaci di sopravvivere, possa sorgere attualmente dall'incrocio di specie diverse, e ritiene che ciò possa ad esempio verificarsi nei pesci teleostei; in questo modo il prodursi casuale di strutture armonicamente organizzate si potrebbe considerare come un processo osservabile e controllabile al presente. Con tale ipotesi, egli afferma, «il nostro modo di spiegare l'assenza di un progetto (design) nella natura vivente sarebbe valido anche se non vi fosse nessuna teoria dell'evoluzione o se non vi fosse mai stata una evoluzione». Con questa ipotesi, che si dimostrerà del tutto insostenibile, egli sembra riecheggiare l'atomismo biologico di Diderot di cui, come di tutto il naturalismo illuministico, era un convinto ammiratore, e a cui dedica una delle sue maggiori opere, The organimt as a whole from a physicochemical viewpoint (L'organismo come un tutto dal punto di vista ftsico-chintico, 1916). In questo, come in altri scritti, egli ha il merito di riconoscere l'importanza teorica della nuova genetica mendeliana, ma deve ammettere che «se noi assumiamo che l'organismo non è altro che un mosaico di caratteri mendeliani è davvero difficile comprendere come essi possano connettersi l'un l'altro in un tutto armonico». Per risolvere questa difficoltà egli come altri autori giunge a negare l'azione preminente del plasma germinale del nucleo nello sviluppo dell'organismo, sostenendo invece che nell'uovo «il citoplasma contiene una preformazione approssimata del futuro embrione » e che i fattori mendeliani del nucleo producono solo sostanze attivanti la microstruttura embrionale nascosta nel citoplasma. Senza entrare nel merito della plausibilità scientifica che poteva allora accreditare questa ipotesi si può rilevare come nell'atteggiamento di Loeb si presentava ancora una volta la contrapposizione da noi più volte rilevata tra l'indirizzo meccanicistico di tipo fisiologico e quello, esso pure meccanicistico, di tipo micromorfologico dei neo-darwiniani che ponevano nel nucleo i determinanti dello sviluppo embrionale. A tale profondo contrasto che, come già si è detto, toglieva al meccanicismo biologico la possibilità di presentarsi come un edificio teorico sufficientemente coerente e unitario va aggiunta un'ulteriore difficoltà: quella che sorgeva dal problema dell'origine della vita. Senza soffermarci su questo argomento, ricorderemo soltanto come all'inizio del secolo molti autori tf:ndevano a risolvere questo problema sostenendo che la vita aveva avuto inizio sulla terra giungendovi attraverso germi microscopici da altre zone dello spazio o addirittura sostenendo la sua eternità, coeva a quella stessa del mondo. Quest'ultima tesi venne ribadita con convinzione in questo periodo da uno dei più acuti e vivaci sostenitori del meccanicismo biologico, il tedesco ] ulius Schultz. In uno scritto del I 9 I 3 egli respinge la teoria darwiniana da
www.scribd.com/Baruhk
Biologia e filosofia
lui definita « Chaostheorie » e sostiene invece una « Maschinentheorie » degli organismi. Secondo questa teoria la vita è costituita da una costellazione ordinata di materia da sempre esistente. È inutile, egli afferma, chied~rsi l'origine di tale struttura. Chiedersi le cause dell'ordine è un atteggiamento infantile o comunque inattuale: « Deve perciò essere ben chiaro che un caos primitivo non è comunque più comprensibile di un kosmos primitivo. » Questo rifiuto di una concezione storica della natura e dell'origine della vita si accompagna in lui, in modo molto significativo, con una concezione soggettivistica della conoscenza scientifica che egli esprime con molta chiarezza affermando: «Una materia eternamente ordinata in un determinato senso non può più essere concepita come pura materia, ma solo come fenomeno di un principio spirituale ». III • ALCUNE
OBIEZIONI
AL
VITALISMO
Se il meccanicismo biologico non poteva nel complesso costituire un edificio teorico coerente, esso continuava tuttavia ad essere uno strumento metodologico di ricerca per la quasi totalità dei biologi, rappresentando quell'implicito « materialismo da laboratorio » che Lenin vedeva operante nel lavoro quotidiano dello scienziato, malgrado le distorsioni ideologiche del fenomenismo. Ciò spiega come la grande maggioranza dei biologi abbia rifiutato il vitalismo, anche se tale rifiuto avvenne attraverso un dibattito vivace e interessante per i suoi aspetti filosofico-metodologici. Non potendoci soffermare su di esso ci limiteremo ad indicare alcune delle obiezioni fondamentali che venivano rivolte in particolare alla concezione di Driesch. Fra queste obiezioni forse di maggior interesse è quella secondo cui il vitalismo in quanto tale è inconciliabile con il procedimento deterministico sperimentale universalmente accettato nel mondo scientifico. Questa obiezione può essere illustrata molto chiaramente dalle considerazioni di un illustre biologo americano Herbert Spencer Jennings (1868-1947). Secondo Driesch, egli osserva in un suo articolo del 1913, «due sistemi assolutamente identici in ogni aspetto fisico-chimico, possono comportarsi differentemente sotto condizioni assolutamente identiche, nel caso che i sistemi siano sistemi viventi». Ciò dipende dal fatto che sempre secondo Driesch le condizioni per l'intervento dell'entelechia sono presenti in ogni organismo e in ogni cellula dell'organismo. Ma in tal caso, osserva l'autore americano, «chi sperimenta sugli organismi e raggiunge risultati differenti in differenti casi può trovarsi sulla strada sbagliata se cerca qualche differenza percepibile nei due casi; la diversità dei due risultati può essere dovuta alla diversa operazione dell'entelechia su due sistemi percepibilmente identici»; perciò «lo sperimentatore si troverà sempre nel dubbio se valga la pena di ricercare differenze percepibili che determinino risultati differenti nei due esperimenti ». A questa sorta di « indeterminismo sperimentale » che risultava inevitabile
www.scribd.com/Baruhk
Biologia e filosofia
per chiunque ammettesse l'intervento di un fattore guida non materiale nei processi fisico-chimici dell'organismo, si aggiungeva un'obiezione del tutto teoricofilosofica che aveva dietro di sé una lunga tradizione ma che poteva essere rivolta ancora con efficacia allo stesso Driesch. Dato e non concesso che esista una entelechia nella cellula-uovo, si dovranno anche ammettere entelechie in ciascuna delle cellule embrionali; ma come si può spiegare questa divisione di entelechie? Inoltre, dato il carattere di totalità dell'organismo, bisognerà ammettere o una comunicazione fra le entelechie oppure il governo di una superentelechia. Ma come spiegare tutto ciò? Il Driesch certo si impegnò alacremente per dare a queste domande una risposta. Ma essa evidentemente interessava ormai ben poche persone, almeno fra i biologi. Maggior rilievo potevano avere invece altre considerazioni direttamente legate alla cosiddetta « base sperimentale» delle argomentazioni di Driesch. Roux osservava ad esempio nel 1915 come l'entelechia non potrebbe comunque essere considerata un fattore finalistico, poiché vi sono fenomeni di rigenerazione che dimostrano un carattere del tutto anomalo e disteleologico. È il caso ad esempio di una lucertola a cui, in luogo della coda amputata, ne crescono due. Risultava inoltre sempre più evidente dalle ricerche embriologiche che i fenomeni di regolazione producenti la ricostituzione completa di un embrione rappresentavano piuttosto l'eccezione che la regola. Nella maggior parte delle nuove ricerche sui casi di spostamento o di isolamento delle prime cellule embrionali si ottenevano infatti abbozzi incompleti di embrioni o delle mostruosità. IV • CRITICHE AL MECCANICISMO E AUTONOMIA DELLA BIOLOGIA
Le reali difficoltà incontrate dal meccanicismo biologico e d'altro canto l'insostenibilità del vitalismo, almeno nella sua forma metafisica quale veniva espressa tipicamente nelle opere di Driesch, convinsero diversi autori negli anni successivi alla prima guerra mondiale a proporre una nuova concezione della biologia. Si tratta di vari indirizzi che si presentavano in genere come un superamento dei due contrastanti indirizzi del meccanicismo e del vitalismo. Malgrado una gamma di posizioni molto differenti i sostenitori di questa nuova concezione erano accomunati da un radicale antimeccanicismo e dall'esigenza di rivendicare alla biologia lo status di una scienza autonoma. almeno a livello del metodo. Essi sostenevano un uguale distacco sia dal meccanicismo che dal vitalismo e qualcuno ripeteva con enfasi che il vitalismo traeva la sua ragion d'essere proprio dalla concezione meccanicistica del vivente; si poteva infatti dire che, almeno per Driesch, l'organismo non era che una macchina guidata da un interno fantasma, da un invisibile macchinista che lo dirige e lo regola. Ma in effetti i sostenitori di questo nuovo indirizzo si impegnano molto più ampiamente nella critica del meccanicismo, il quale dominava di fatto i vari indirizzi
www.scribd.com/Baruhk
Biologia e filosofia
della ricerca biologica che non del vitalismo ormai screditato, ma a cui essi riconoscevano il merito di aver posto l'accento su ciò che di specifico e di irriducibile vi è nel mondo della vita. Alcuni di questi indirizzi si alimentavano nel loro complesso di un clima culturale diverso da quello che alla fine dell'Ottocento aveva condotto alle varie forme di vitalismo. I notevoli risultati conseguiti dalle scienze fisiche con l'affermarsi della teoria dei quanti e della relatività, nonché gli sviluppi ottenuti dalla logica matematica, avevano ricreato un'atmosfera di maggior fiducia nella conoscenza scientifica. La crisi della fisica e della biologia verificatasi alla fine dell'Ottocento a molti non appariva più dopo gli anni venti il segno sicuro della bancarotta della scienza, l'affermazione definitiva del carattere fenomenistico di essa e quindi la giustificazione per ogni forma di ripiegamento più o meno irrazionalistico nell'io onde rintracciarvi la radice autentica del conoscere o la sorgente sicura dei valori. La crisi delle scienze della natura che aveva accompagnato il crollo del positivismo, poteva ora apparire come il punto di partenza di una nuova visione scientifico-filosofica della natura o almeno di un modo nuovo e più ampio di concepire la teoria della scienza. D'altro lato questi indirizzi antimcccanicistici della biologia potevano trarre spunto oltre che dalla tematica, che era stata propria al vitalismo, anche da alcuni importanti indirizzi teorico-scientifici che si sviluppavano soprattutto nell'ambito della fisiologia e della medicina. I fenomeni di omeostasi, cioè di stabilizzazione mediante processi regolativi di vari equilibri interni dell'organismo o fra organismo e ambiente, i processi endocrini e neurofisiologici che sono alla base di questa omeostasi e che intervengono a collegare i vari organi e le funzioni degli apparati corporei, indicavano un tipo nuovo di processi integrativi che la tradizionale ricerca di impronta meccanicistica aveva trascurato e che risultavano una espressione dello specifico carattere di totalità del vivente. Tali indirizzi antimeccanicistici si dispiegano fra due posizioni estreme: da un lato proclamano una irriducibilità di principio dei processi biologici a quelli fisico-chimici o addirittura la derivabilità di quest'ultimi dai primi e dall'altro enunciano una irriducibilità almeno di fatto non escludendo per il futuro un successo del meccanicismo. Queste concezioni si caratterizzano in vario modo anche per un forte condizionamento delle rispettive culture nazionali, in particolare quella anglosassone e tedesca in cui ess1 soprattutto trovarono sviluppo. Negli autori anglosassoni, specialmente britannici, si risente in particolare del fatto che la reazione al naturalismo e al positivismo nella seconda metà dell'Ottocento era avvenuta soprattutto sulla base di un idealismo oggettivo di stampo hegeliano, culminato nell'opera di Bradley. In Germania invece la reazione al materialismo monistico di impronta meccanicistica si era svolta anche attraverso il ritorno a Kant secondo una tematica fenomenistica e neocriti-
www.scribd.com/Baruhk
Biologia e filosofia
c1st1ca, a cui non erano mancati anche apporti irrazionalistici, specialmente attraverso il richiamo a Schopenhauer. Va infine ricordato come in Francia la reazione al materialismo sia culminata nell'opera di Bergson in cui si traeva spunto proprio dalla teoria dell'evoluzione per elaborare una visione generale del mondo, in cui la conoscenza fisico-matematica della natura risultava espressione di un'attività intellettiva, !imitatrice e mortificante dell'autentico fondo della realtà colto intuitivamente nell'esperienza soggettiva dell'io. V· ORGANICISMO, OLISMO NEI
PAESI
ED
EMERGENTISMO
ANGLOSASSONI
Fra gli autori che per primi si inoltrarono per questa nuova via vi fu uno dei più illustri ed autorevoli fisiologi inglesi, John Scott Haldane (r86o-1936), appartenente ad una nobile ed influente famiglia ed universalmente apprezzato per le importanti ricerche condotte specialmente sui processi di respirazione e di secrezione renale. Già in uno scritto giovanile risalente al r884 l'autore sosteneva che i processi di adattamento e regolazione fisiologica, in cui appariva chiaramente la tendenza ad uno scopo, non possono essere spiegati nei termini meccanici di causa ed effetto, ma richiedono una nuova categoria, quella della reciprocità. Tale categoria non esprime però tutte le caratteristiche essenziali alla vita; vi può essere, ad esempio, un sistema in cui per una componente « il fatto di far parte del sistema non è essenziale alla sua esistenza, dal momento che essa ha numerose proprietà che le appartengono prescindendo dalla sua relazione con il sistema. Ora nel caso del sistema della vita le parti non sono così indipendenti. Esse sono determinate, non solo per quanto riguarda la loro azione reciproca l'una sull'altra, ma anche per quanto è inerente alle parti in se stesse ... » Nel vivente cioè « non vi è niente nelle parti che non sia una manifestazione del tutto ... In tutto ciò che le parti fanno ed in ciò che esse sono, esse manifestano il tutto ». E solo in quanto determinate dal tutto esse manifestano ciò che sono in se stesse. Già in queste osservazioni possono individuarsi quei principi che poi vennero generalmente ritenuti caratteristici della concezione organicistica, cioè: il tutto determina la natura delle parti, o le parti non possono essere comprese se considerate isolatamente dal tutto. Questi principi, nell'ambito dell'indirizzo filosofico neo-hegeliano a cui si rifà J. S. Haldane, devono essere intesi alla luce del cosiddetto problema delle « relazioni interne » che trovò soprattutto nell'opera di Bradley, Appearence and rea!ity (Apparenza e realtà, 1893), il suo sviluppo più approfondito. Come afferma D. C. Philips, a proposito di questo problema « Bradley sosteneva che quando un'entità A entra in relazione con le entità Bo C essa assume
www.scribd.com/Baruhk
Biologia e filosofia
una certa proprietà o qualità caratteristica P, come risultato di questa relazione. Senza la relazione e quindi senza la proprietà P, sosteneva Bradley, A sarebbe differente, sarebbe non A. Ogni qualsiasi relazione fra A ed ogni altra entità necessariamente determina qualche proprietà di A senza cui A sarebbe differente da ciò che è. Questo è il nucleo della teoria delle relazioni interne: le entità sono necessariamente alterate, dalla relazione in cui esse entrano ». Questa concezione - continua Philips - è del tutto estranea al meccanicismo la cui caratteristica, secondo quanto afferma Hegel è che « qualsiasi relazione intercorra tra i termini è estranea ad essi e non concerne la loro natura: anche se essa coinvolge l'apparenza di un Uno esso non rimane altro che un accostamento, un mescolamento, un ammucchiamento o simili» (nella Scienza della logica). J. S. Haldane accetta dunque l'idea del neo-hegelismo inglese secondo cui la realtà profonda ed autentica è di natura spirituale e quello che si conosce sul piano scientifico riguarda più l'apparenza che la realtà, anche se ciò può rivelarci qualcosa della realtà. « Le generalizzazioni scientifiche, » egli afferma nel I 9 I 5, « non rappresentano la realtà in se stessa, ma soltanto certi aspetti di essa. Esse sono solo gli strumenti con cui noi formiamo il mondo dell'apparenza sensoriale, e nel formarlo esse ci rivelano la sua realtà spirituale. » Poiché questa realtà si compie in modo più elevato nella personalità dell'uomo le categorie psicologiche ce ne daranno una conoscenza più autentica, cioè meno astratta di quanto ce ne diano le categorie biologiche. Non ha perciò senso sostenere una riduzione della psicologia alla biologia, così come non è ammissibile una riduzione della biologia alla fisica, poiché quest'ultima ci dà della realtà una conoscenza ancor più astratta e schematica, cioè più povera.« Il mondo "oggettivo",» egli afferma nel I 9 I 8, « non è altro che il mondo quale è interpretato nella conoscenza ed i mondi fisici o biologici sono solo astrazioni di questo mondo oggettivo. Non solo quando osserviamo fenomeni psicologici in altre persone, ma anche quando studiamo fenomeni naturali di ogni genere, il nostro mondo è un mondo psicologico o un mondo spirituale. » Abbiamo particolarmente insistito nell'illustrare la concezione filosofica di Haldane, poiché questa rende comprensibile l'interpretazione organicistica che egli stesso diede alle sue ricerche fisiologiche e ci fa meglio comprendere il tipo di influenza che egli ebbe nella cultura scientifica del suo tempo. Ciò che colpiva in modo particolare i contemporanei e rendeva in un certo senso oscura la sua posizione era il fatto che egli potesse affermare la sua radicale posizione antimeccanicistica e condurre coerentemente un'attività di ricerca fisiologica che consisteva essenzialmente nell'indagine dei processi di regolazione fisico-chimica dell'organismo. Le sue indagini già negli ultimi anni dell'Ottocento erano infatti dirette a sviluppare il principio enunciato da Claude Bernard, secondo cui l'organismo tende a mantenere costante la composizione del suo «mezzo interno», cioè dei liquidi organici quale il sangue. Studiando in particolare la respirazione,
www.scribd.com/Baruhk
Biologia e filosofia
J.
S. Haldane era così giunto ad individuare con estrema precisione i processi di coordinazione fisiologica che tendono a mantenere costante nel sangue la concentrazione dell'anidride carbonica e più in generale il grado di alcalinità, sia con la stimolazione o l'inibizione del centro respiratorio sia con la variazione della secrezione renale. Per J. S. Haldane ciò che rende i processi fisiologici irriducibili ad una spiegazione meccanicistica non è solo il fatto che essi devono essere individuati singolarmente come attività di un tutto, ma in particolare il fatto che essi non possono essere ricondotti ad una struttura. Egli osserva ad esempio che secondo i meccanicisti l'attività fisiologica che regola il mezzo interno dovrebbe essere ricondotta alla peculiare struttura ultra-microscopica di determinate cellule dell' organismo. « Ora, » egli scrive a questo proposito nella sua opera The sciences and philosophy (Le scienze e la filosofia, 192.9), «risulta che sia il comportamento che la struttura delle unità cellulari dipendono dal "mezzo" locale in cui le cellule sono poste ... D'altro lato è ugualmente evidente che il mezzo ... può considerarsi determinato dall'attività delle cellule. Compiamo perciò un ragionamento circolare se attribuiamo la peculiarità del comportamento cellulare alla loro particolare struttura, dal momento che questa peculiarità, e la struttura che l'accompagna, dipendono dal mezzo locale ». D 'altronde il meccanicismo- osserva J. S. Haldane- deve ammettere che la struttura microscopica della cellula venga mantenuta costante e riprodotta attraverso le generazioni malgrado la !abilità del protoplasma. Ma egli osserva nella citata opera del 192.9: «Di questa riproduzione la teoria meccanicistica non può rendere conto in alcun modo. Neppure con il più grande sforzo di immaginazione possiamo concepire un meccanismo strutturale che continui a riprodursi indefinitamente; e quante più strutture o complessità chimiche noi effettivamente scopriamo od ammettiamo in un organismo, tanto più disperato diviene il problema della sua riproduzione e conservazione dal punto di vista meccanicistico. » Queste affermazioni che potrebbero apparirci anacronistiche in un momento in cui gli studi di genetica ottenevano i primi importanti riconoscimenti, ci confermano il peso della sua rigida impostazione filosofica e del clima antimeccanicistico che dominava ancora l'atteggiamento teorico di alcuni biologi. Egli cercava in effetti di presentare una corretta esigenza della ricerca fisiologica, cioè quella di considerare ogni singolo processo dell'organismo in stretta correlazione con tutti gli altri, come espressione o conseguenza di una concezione metafisica di tipo spiritualistico. Non ci meraviglia quindi che egli, dimostrando l'insostenibilità del meccanicismo in base alla nuova fisiologia, potesse affermare che: «Nonè lontano il tempo quando i nostri successori ricorderanno con meraviglia la superstizione materialistica dei tempi in cui viviamo; poiché il materialismo non è altro che una superstizione allo stesso livello della credenza nelle streghe e nei diavoli. »
www.scribd.com/Baruhk
Biologia e filosofia
La concezione filosofico-scientifica di Haldane ebbe una sensibile influenza nella cultura anglosassone, ma solo in Germania egli trovò un seguace che seppe svilupparla in uno dei modi più rigorosamente conseguenti, cioè lo psichiatra di Amburgo Adolf Meyer-Abich. Secondo l'autore inglese, come si è visto, nel quadro complessivo delle scienze psicologia, biologia, fisica e matematica «rappresentano successivi stadi in cui la nostra esperienza viene sempre più spogliata del suo attuale contenuto mediante un processo di artificiale astrazione ». Meyer-Abich sviluppando in un modo antologico-formale questo principio ritiene che tale gerarchia corrisponda ad una realtà in cui « ogni ambito inferiore o più semplice si lasci per così dire assorbire o aspirare dall'ambito che si t(ova situato ad un grado più elevato e presenta una complicazione maggiore. La realtà nel suo insieme appare così come un tutto avente una organizzazione razionale, come un olismo organico ... Perciò tutte le realtà più semplici si trovano allo stato latente, in potenza nella realtà ultima e più elevata, rappresentata, se si vuole, da dio». Questo rapporto di inclusione del più semplice nel più complesso dovrebbe comportare, secondo l'autore, sul piano della conoscenza, un processo di « semplificazione olistica » per cui si possono dedurre le leggi della biologia da quelle della psicologia, quelle della fisica da quelle della biologia e « al termine di questo processo, si arriva, attraverso gli assiomi della fisica, a quelli della geometria, a quelli delle matematiche e finalmente a quelli della logica». Secondo Meyer-Abich questo programma di conoscenza costituisce il rovesciamento di tutto l'ideale della scienza moderna ed un ritorno ad una visione organicistica di tipo aristotelico. Benché l'autore abbia sostenuto la sua teoria olistica in numerosi scritti, analizzando accuratamente e con ampi e dettagliati riferimenti storico-filosofici i principali problemi della biologia contemporanea, tale teoria non ha avuto un'ampia eco. Egli è comunque rimasto famoso per un esempio volutamente bizzarro di «deduzione olistica », per cui sarebbe possibile derivare la legge galileiana della caduta libera dei gravi da una ipotetica legge di caduta biologica, ad esempio di un gatto capace di precipitare da un albero toccando il terreno con le quattro zampe. Cioè: «Sottraendo dalla formula dell'animale vivo quella che esprime la caduta dell'animale morto si ottiene il coefficiente della caduta tipicamente vitale. E inversamente la legge della caduta, formulata da Galileo, si lascia dedurre dalla formula esprimente la caduta biologica, mediante 'l'eliminazione dei coefficienti tipicamente vitali ... » Le concezioni olistiche sinora illustrate, sostenendo che la realtà è un tutto organico culminante nello spirito, attribuiscono alla biologia ed ancor più alla psicologia un ruolo del tutto privilegiato in quanto conoscenze riguardanti più direttamente l 'uomo il quale, nella sua esperienza interiore, si trova più vicino a tale centro spirituale della realtà. Nella concezione di J. S. Haldane ad esempio il richiamo ad Hegel non comporta l'assunzione di una molteplicità di contraci-
134
www.scribd.com/Baruhk
Biologia e filosofia
dizioni che si svolgono posltlvamente in un processo storico della realtà verso un livello più elevato, ma tali contraddizioni sono inerenti sostanzialmente alla conoscenza logico-scientifica della realtà e rimandano per essere risolte ad una realtà totale che si trova al di fuori di ogni processo storico. In questa prospettiva idealistica la concezione evoluzionistica del mondo organico e più in generale della natura, se pur non veniva respinta, perdeva però il suo significato di spiegazione o di interpretazione storica della realtà come sviluppo dal più semplice al più complesso. Ad esso poteva invece venir contrapposta una derivazione più autentica e del tutto astorica del più semplice dal più complesso, sviluppato su un piano non reale ma ideale. Se ciò risultava dalle suggestioni del neo-hegelismo inglese, esprimendo un tema già presente nella scienza romantica, era tuttavia possibile che questo filone culturale potesse ispirare anche una diversa concezione della realtà più vicino all'idea di uno sviluppo storico e progressivo della natura e dell'uomo stesso. Si tratta appunto di un altro indirizzo di carattere realistico che nell'ambito della cultura anglosassone può configurarsi come un incontro fra il neohegelismo ed il naturalismo evoluzionistico di Spencer. A questo indirizzo realistico in cui parimenti ci si propone il compito di un superamento sia del meccanicismo che del vitalismo appartiene l'opera Holism and evolution (Oiismo ed evoluzione, 1926) di Jan Christian Smuts (1875-1950). Nato in Sudafrica egli aveva compiuto gli studi giuridici in Inghilterra ed alternando poi l'attività di studioso a quella di militare e di uomo politico giunse infine a ricoprire per diversi anni la carica di primo ministro del Sudafrica. L'interesse scientifico-filosofico di Smuts non si limita alla biologia ma si estende ambiziosamente ad una visione globale della natura, che proprio in base alla teoria dell'evoluzione deve essere considerata come un processo di sviluppo ascendente verso gradi sempre più elevati di unità o totalità. Al pari di Spencer egli ritiene di poter individuare empiricamente una legge generale dell'evoluzione che si estende a tutta la natura e ne costituisce il principio fondamentale. Tale legge si identifica con la tendenza ad una sintesi creativa per cui gli elementi costitutivi di una struttura vengono a disporsi in una struttura qualitativamente nuova nella quale aumenta il grado di interazione e di coordinamento unitario. «L'unità d'azione, che è caratteristica della totalità, si mostra nell'accentuato potere di regolazione e correlazione che il tutto risulta possedere rispetto alle sue parti. » Ciò appare chiaramente soprattutto nel mondo dei viventi, ma il carattere di totalità è presente, sia pure ad un grado inferiore, anche nel mondo inorganico. «Così l'acqua come composto chimico è ... un tutto in senso limitato, un tutto incipiente, poiché differisce qualitativamente dai suoi elementi ... idrogeno ed ossigeno in semplice stato di miscela. » Il grado di totalità si eleva attraverso la creatività del processo evolutivo da un minimo del mondo inorganico ad un massimo che attraverso la vita si 135 www.scribd.com/Baruhk
Biologia e filosofia
realizza come mente e persona. La vita e lo spirito non sono quindi separabili dalla materia ma sono un risultato del suo processo ascensionale. La materia « nell'atto di produrre la vita o la mente si mostra tuttavia in un carattere interamente insospettato e non può essere più la vecchia materia ... che era semplicemente veicolo del movimento e dell'energia». Ciò comporta l'abbandono del concetto di materia quale era implicito nel meccanicismo. Il meccanicismo si dimostra inadeguato ad una conoscenza della natura proprio perché non è in grado di spiegare il carattere creativo del suo sviluppo. «Il grande problema della conoscenza, il vero grande mistero della realtà è proprio questo : come possono gli elementi o i fattori a e b incontrarsi, combinarsi e fondersi a formare una nuova unità o entità x differente da ambedue? » Anche a parere di Smuts il meccanicismo « comporta un sistema o combinazione di parti in relazione reciproca, tale che queste parti non perdono la loro identità o indipendenza sostanziale nel ruolo combinato che esse svolgono nel sistema». In tal modo l'azione del sistema «è la risultante delle attività indipendenti di tutte queste parti. Le parti rimangono e l'attività del sistema è la somma matematica delle loro attività ». Tale attività meccanica non può spiegare il sorgere di nuove proprietà, di nuove qualità nel corso creativo dell'evoluzione. Esse possono prodursi solo attraverso un processo olistico in cui « la funzione risultante non è una semplice addizione e composizione degli inalterati elementi funzionali componenti, ma il cambiamento sia degli elementi che del loro risultato finale». Nel processo olistico non solo la sintesi delle parti influenza, realmente costituisce il tutto; ma « il tutto a sua volta imprime il suo carattere su ogni parte individuale, che risente la sua influenza nel modo più reale e più intimo ». Ma se il processo olistico, inteso come «sintesi unitaria», cioè creazione evolutiva di strutture qualitativamente nuove, può avere a livello biologico un plausibile riferimento empirico, tale da convalidare la concezione di Smuts, esso assume invece un'impronta tipicamente filosofica quando viene esteso dall'autore a tutto l'universo. Secondo Smuts infatti questo « si diparte dal carattere meramente meccanico verso la realizzazione dell'olismo quale suo ideale immanente ... La natura dell'universo punta a qualcosa di più profondo, a qualcosa oltre se stesso. Esso ha una tendenza... Esso ha un telos ». L'autore vuole però rifuggire da ogni concezione spiritualistica della realtà ed afferma infatti che «sarebbe un errore ed una falsa denominazione chiamare questa tendenza uno scopo, ed ancor peggio inventare una Mente a cui riferire questo proposito ». Il culmine del processo evolutivo è infatti realizzato soltanto dall'uomo, anche se dall'uomo che si esprime nelle grandi personalità eroiche capaci di lottare per il bene. L'ottimismo romantico ed il realismo naturalistico che si fondono nell'opera di Smuts sembrano l'espressione di un atteggiamento culturale che non
www.scribd.com/Baruhk
Biologia e filosofia
era stato toccato dalle incrinature scettico-irrazionalistiche tipiche della cultura europea. Nella cultura del suo paese infatti, così come in quella di altre nazioni extraeuropee, il naturalismo ottocentesco non aveva incontrato delle violente reazioni ma poteva svilupparsi come l'ideologia di una classe borghese che non aveva visto gravemente minacciato il proprio potere nella società. Sempre nell'ambito di questo indirizzo realistico della cultura anglosassone una posizione concorde con quella di Smuts, nell'ammettere un generale processo ascendente nella storia della natura, è quella dell'evoluzione emergente sostenuta- con un'impostazione esplicitamente metafisica, ma anche con una più complessa articolazione filosofica - da Samuel Alexander e da Conway Lloyd Morgan (rSp-1936). Morgan, che aveva condotto importanti ricerche nel campo della psicologia animale, si era occupato in particolare del problema psico-fisico dal punto di vista della teoria dell'evoluzione. Egli era giunto così a respingere l'idea di una graduale comparsa di nuove proprietà, nel processo di trasformazione della natura, e a sostenere invece che queste si realizzano improvvisamente per una sorta di salto qualitativo. Tale generale processo evolutivo comporta secondo Morgan la distinzione fra proprietà risultanti e proprietà emergenti. Le prime sono ad esempio le proprietà additive di un composto chimico che risultano prevedibili in base alla conoscenza delle parti (come il peso), le proprietà emergenti sono invece quelle non prevedibili in base a tale conoscenza e costituiscono l'effetto qualitativamente nuovo di una relazione che non è semplicemente additiva o meccanica (come le proprietà dell'acqua rispetto a quelle dell'ossigeno e dell'idrogeno che la compongono). La « sintesi relazionale superiore » che viene designata come emergente è conoscibile sul piano scientifico naturale, ma non è spiegabile in termini scientifici. Essa deve essere accettata e riconosciuta con una sorta di « pietà naturale » e se una spiegazione di essa va cercata la si può trovare in termini « sopranaturalistici», cioè in un'attività divina che pervade tutta la realtà. Morgan dunque, pur essendo partito nella sua riflessione da problemi biologici e psicologici posti dalla teoria scientifica dell'evoluzione, giunge ad elaborare una concezione antimeccanicistica ed antimaterialistica ponendosi anch'egli su un piano generale di filosofia della scienza e di filosofia della natura. Più aderenti invece ai concreti problemi della biologia che venivano dibattuti nei primi decenni del Novecento sono le riflessioni di uno dei maggiori rappresentanti dell'organicismo, l'inglese Edward Stuart Russell. Già in uno scritto del 19II egli aveva rifiutato esplicitamente il vitalismo di Driesch in quanto «accettare un'influenza psichica o metafisica su ciò che è fisico significa in effetti negare l'assoluta validità delle leggi fisiche, in quanto, ammettendo ciò, ognuna di esse potrebbe essere alterata da un agente non fisico». Occorre invece riconoscere l'universale validità delle leggi fisico-chi137
www.scribd.com/Baruhk
Biologia e filosofia
miche e sostenere tuttavia che le leggi della biologia non possono essere ridotte al loro livello. Così un fenomeno tipicamente biologico come la migrazione delle anguille in alcune zone dell'Atlantico, durante il periodo della loro riproduzione, può considerarsi determinato da tutti i singoli processi fisico-chimici che lo compongono, tuttavia il significato del fenomeno nella sua globalità non può essere spiegato in base ai singoli processi. Esso è un fenomeno ereditario che ha la base storica nella trasformazione evolutiva della specie. Ora la teoria dell'evoluzione non può avere una spiegazione meccanica poiché la stessa selezione naturale presuppone « certe proprietà peculiarmente vitali, la variabilità e l'eredità, e non pretende di offrire una spiegazione meccanica di queste». Fondare l'autonomia delle leggi biologiche e la loro irriducibilità sopra una particolare concezione del processo evolutivo, rappresentava tuttavia una posizione esposta a troppe incertezze, a tutte le incertezze che dividevano in quel periodo i biologi a proposito di questa teoria. E. S. Russell, che si occupava in particolare di psicologia animale, si orienta quindi, come altri autori di questo periodo, ad individuare la peculiarità del vivente in una proprietà che poteva essere più direttamente evidenziabile, quella psichica. Più precisamente egli afferma che i viventi sono caratterizzati da un'unità psico-fisica irriducibile ad ogni interpretazione materialistica; essi presentano cioè «un'attività sui generis, il cui standard ed esemplare è l'attività di cui noi in quanto individui siamo immediatamente consci ». Giungeva così nel I 924 ad affermare: « Le attività dell'essere vivente dovrebbero essere considerate come una risposta, il termine essendo inteso in un senso speciale e tecnico per designare le reazioni di una individualità psico-fisica ad un ambiente percepito o ad un cambiamento del suo proprio organismo, generalmente in relazione a qualche forza pulsiva o hormé risultante quale tendenza istintiva. » Il termine hormé era stato usato dallo psicologo angloamericano William Mc Dougall (I871-1938) per indicare la tendenza istintiva che si trova alla base di tutta l'attività psichica e che egli inserisce in un'interpretazione animistica della biologia e della psicologia. E. S. Russell, pur avendo aderito a questa concezione psico-biologica, soprattutto nell'intento di elaborare in concreto una biologia funzionale, risente ben presto le difficoltà filosofiche inerenti ad una simile interpretazione e giunge infine ad una concezione organicistica in cui, pur affermando che il punto di vista psico-biologico può essere usato nello studio del comportamento animale, riconosce che non si può tuttavia usare la coscienza come una spiegazione dei processi biologici. L'esperienza dell'unità psico-biologica che l'uomo compie direttamente in se stesso continua comunque a costituire un punto di vista privilegiato per la conoscenza della vita anche se « naturalmente la diretta ed intuitiva comprensione che risulta da questa immediata esperienza del vivente non può costituire l'argomento della biologia, che è una scienza oggettiva». Tale esperienza ci
www.scribd.com/Baruhk
Biologia e filosofia
fornisce però un « criterio con il quale controllare le nostre concezioni del vivente», un criterio che consiste nel concepire appunto l'organismo come «una unità psico-fisica continua o un'individualità che agisce come un tutto in rapporto all'ambiente». Nello svolgersi della ricerca scientifica le varie teorie, sotto l'influenza dell'esigenza analitica imposta fondamentalmente dal meccanicismo, hanno abbandonato questa concezione originaria di derivazione aristotelica sino a negare, con un processo di progressiva astrazione, l'unità stessa del vivente. In tale processo, partendo dall'organismo come un tutto, si astrae innanzitutto dalla soggettiva e privilegiata esperienza diretta per giungere dapprima a concepire l'organismo come una unità psico-fisica e successivamente, astraendo dall'aspetto psichico, per giungere alla « comune concezione "scientifica" dell'organismo come una macchina, o più in generale un sistema fisico-chimico. Questo ci conduce all'astrazione meccanicistica che può tuttavia permanere integrativa, può cioè considerare l'organismo in una certa misura come una unità». Ma l'astrazione meccanicistica, per quanto necessaria all'indagine biologica, porta con sé una perdita irrimediabile. Infatti - secondo E. S. Russell- «l'unità dell'organismo ... non può essere risintetizzabile nella sua originaria completezza dagli astratti componenti distinti dall'analisi. Ciò può essere compendiato nella seguente legge fondamentale del metodo biologico: /'attività del tutto non può essere completamente spiegata nei termini dell'attività delle parti isolate mediante l'analisi, e può essere tanto meno spiegata quanto più astratte sono le parti distinte ». Occorre però cercare di riconsiderare le parti alla luce del tutto e in questo tentativo di ricondurre gli aspetti fisico-chimici alla loro concretezza biologica si può individuare una seconda legge generale del metodo biologico: « Nessuna parte di qualsiasi unità vivente e nessun singolo processo di qualsiasi complessa attività organica possono essere completamente compresi isolando/i dalle strutture e dall'attività dell'organismo come un tutto». Se nessun autore di indirizzo meccanicistico può negare la validità di quest'ultima legge - afferma E. S. Russell - il misconoscimento della prima legge è "invece comune a tutti i meccanicisti e può portare a gravi errori teorici. Fra questi quello contro cui l'autore polemizza più vivacemente - sempre nella citata opera del 1930- è la teoria del plasma germinale di Weismann che pone una sorta di dualismo fra citoplasma e nucleo, concependo il primo come passivo e il secondo come attivo, per la presenza in esso di ipotetiche strutture microscopiche, che costituirebbero - secondo Russell - una sorta di « entelechia materiale». La teoria di Weissmann, così come quella più recente della genetica, «in cui i geni sono considerati come delle entità reali», incorre poi nel grave errore di risolvere l'unità dell'organismo in parti isolate, cioè in una sorta di atomismo biologico che, già all'inizio del secolo, il biologo francese Yves Delage aveva denominato «micromerismo». Queste concezioni non sono 1 39
www.scribd.com/Baruhk
Biologia e filosofia
che il risultato del materialismo (da lui sostanzialmente identificato con il meccanicismo di Laplace), che è una dottrina ormai superata sul piano filosofico, ed un metodo i cui limiti sono ormai evidenti sul piano scientifico. Alla concezione meccanicistica egli contrappone il punto di vista organismico (organismal) già proposto dallo zoologo americano W. E. Ritter che si trovava più vicino ad un pluralismo di tipo aristotelico che al monismo idealistico di]. S. Haldane. Secondo questo punto di vista l'organismo costituisce una realtà sui generis, con un'individualità bio-psichica che è immersa in un processo temporale continuo, con un costante riferimento al passato e al futuro. E. S. Russell ritiene infatti che per elaborare una concezione dell'organismo, adatta in particolare allo studio dello sviluppo embrionale, il contributo filosofico più importante gli derivi dalle opere recenti del filosofo inglese Whitehead. Questi ha rovesciato la posizione materialistica ed invece di « tentare di spiegare la natura dal basso verso l'alto, con l'aiuto di pochi concetti estremamente astratti, affronta il problema dall'altro estremo e generalizza l'idea concreta di organismo, quale risulta dalla esperienza immediata, così che essa si applica giù giù lungo la scala, dall'organico all'ino'rganico nei suoi più minuti dettagli». In tale prospettiva anche i cristalli, le molecole, gli elettroni, sono organismi ma di livello inferiore. Partendo da questa concezione di Whitehead è inoltre possibile affrontare il problema - difficile da chiarire per la concezione organismica del rapporto fra l'attività dell'organismo come un tutto e l'attività dei processi che ne costituiscono la base fisico-chimica. Per Whitehead infatti i viventi in quanto « organismi di organismi » sono costituiti da una continuità gerarchica di livelli e di processi ciascuno dei quali ha un certo grado di indipendenza ma è al servizio del tutto. Ora tale «continuità deve essere considerata come una continuità dall'alto al basso; è impossibile spiegare i modi di azione di qualsiasi livello di unità mediante i modi di azione di qualsiasi livello inferiore; al contrario qualcosa dei caratteri dei livelli più elevati filtra, per così dire, in giù e colora l'azione anche dei livelli più bassi ... Per questo, se non per altra ragione, è impossibile spiegare completamente l'attività globale del tutto nei termini delle attività delle sue unità subordinate e necessariamente astratte». La filosofia di Whitehead - che considera gli elementi reali della natura come organismi e vede la concezione materialistica come una astrazione applicabile alla natura solo in modo parziale e limitato - costituisce dunque per E. S. Russell un notevole sostegno filosofico alla concezione organismica. Tale filosofia le permette di evitare quel dualismo di mente e corpo che ha così a lungo travagliato il pensiero biologico, così come le consente di evitare lo scoglio del meccanicismo. Questo infatti « con il suo uso illimitato del metodo dell'astrazione analitica comporta la disintegrazione dell'organismo in un concatenamento di processi di ordine inferiore, alla cui disposizione e collaborazione, al cui ordine
www.scribd.com/Baruhk
Biologia e filosofia
nello spazio e nel tempo esso non può fornire alcuna chiave. Tale analisi lascia sempre un residuo irrazionale, che è ipostatizzato come un'entelechia o come un agente "controllore" materialistico, quale il plasma germinale». Russell ritiene comunque che la concezione organismica, per quanto sia il giusto punto di vista per trattare scientificamente gli esseri viventi, non pretende di darci una completa comprensione di essi. « Il profondo segreto della vita eluderà sempre una trattazione scientifica; esso può essere puramente sperimentato, immaginato, anche sentito, ma mai completamente spiegato ». VI· INDETERMINISMO
FISICO
E
AUTONOMIA
DELLA
VITA
La critica antimeccanicistica svolta da Russell come dalla maggior parte degli autori finora considerati, si basa sull'assunto che gli organismi presentino una unità o coordinazione specifica delle parti che non può essere adeguatamente rappresentata dall'unità di un sistema fisico-chimico e dall'interazione delle sue parti. Tale unità deve essere invece compresa alla luce di un'interazione o di una coordinazione più complessa e profonda, che si realizza nel modo più tipico al livello dell'esperienza o della conoscenza soggettiva. Accanto a questa definizione dei limiti del meccanicismo biologico vi furono però altri tentativi di caratterizzare la tipicità dei viventi, senza un riferimento all'esperienza soggettiva dell'uomo, ma considerandoli come particolari strutture materiali, che traggono la loro specificità dal fatto che in essi si riscontrerebbe una non validità o un contrasto nei riguardi di alcune leggi fisiche di carattere generale. Ciò è stato affermato in particolare nei riguardi della validità del secondo principio della termodinamica. Secondo questo principio, nel complesso dei fenomeni naturali, il dislivello di temperatura che occorre per trasformare calore in lavoro meccanico va continuamente diminuendo e quindi diminuisce la possibilità di produrre lavoro: si ha cioè una degradazione dell'energia. Già nell'Ottocento il fisico William Thompson e lo stesso Helmholtz avevano posto in dubbio che tale principio fosse applicabile ai processi fisicochimici dell'organismo e questa perplessità non mancò di essere utilizzata in senso vitalistico, individuando cioè nell'eccezione dei viventi a questa legge l'intervento di un fattore vitale. L'affermazione più clamorosa del contrasto fra mondo della vita e secondo principio della termodinamica si ebbe tuttavia con Bergson, nella sua opera Evoluzione creatrice del 1907. L'autore francese riconosce che tale principio indica una direzione dei pròcessi naturali e afferma che: « Il senso verso cui procede questa realtà ci suggerisce qualcosa che si disfa; in ciò vi è senza alcun dubbio uno dei tratti essenziali della materialità. Cosa concludere da ciò se non che il processo per cui questa cosa si fa è diretto in senso contrario ai processi fisici e che essa è allora per definizione stessa immateriale? La nostra visione del mondo
www.scribd.com/Baruhk
Biologia e filosofia
materiale è quella di un peso che cade; nessuna immagine tratta dalla materia propriamente detta ci darà l'idea di un peso che si alza ... Tutte le nostre analisi mostrano nella vita uno sforzo per risalire la china che la materia discende ... » La vita per Bergson è incapace di invertire questa generale direzione delle trasformazioni fisiche, ma può tuttavia rallentarne il corso opponendosi ad essa. Questo tema venne sviluppato pochi anni dopo anche da un autore tedesco, Felix Auerbach (1856-1933) nell'opera Ektropismtts oder die Physikalische Theorie des Lebens (Ectropismo o teoria fisica della vita, 1910). Ai fenomeni entropici di degradazione o discesa si contrappongono nella natura quelli ectropici o di ascesa caratteristici della vita. La lotta della vita contro l'aumento dell'entropia si realizza mediante l'evoluzione delle forme biologiche, l'aumento della loro complessità, la concentrazione e l'accumulo di energia nei più piccoli componenti materiali. La biologia, secondo Auerbach, dovrebbe in tal modo divenire una «fisica dell'evoluzione», cioè una fisica di quei sistemi che sono in grado di operare autonomamente in modo ectropico ed ordinativo utilizzando l'energia libera esterna. Per quanto meno vaghe di quelle di Bergson, le formulazioni di Auerbach non affrontavano ancora in concreto il problema dei rapporti della seconda legge della termodinamica con i processi fisico-chimici del vivente, quali potevano essere precisati a livello delle più recenti indagini fisiologiche. Uno dei primi passi importanti in questa direzione venne compiuto dallo svizzero CharlesEugène Guye in una serie di scritti pubblicati nell'opera Evolution physico-chymique (Evoluzione fisico-chimica, 1922). L'autore osserva che dal punto di vista di un'interpretazione probabilistica del secondo principio, quale era stata formulata da Boltzmann e Gibbs ed ormai universalmente accettata, si può ammettere che almeno in alcune fasi delle funzioni fisico-chimiche del vivente si svolga un processo anti-entropico, cioè contrario al mescolamento sempre più omogeneo delle componenti molecolari. A tale proposito si possono considerare due possibilità. L'una, di carattere vitalistico e metafisica, consisterebbe nell'ammettere che un agente speciale, un vero demone di Maxwell, intervenga agendo sulle molecole isolate, per guidare i processi in una certa direzione. L'altra possibilità, evidentemente più accettabile, è che nel decorso stesso verso stati più probabili possa verificarsi una fluttuazione molto rara. Tale fluttuazione può avere tanto più importanza, può cioè determinare un effetto tanto più rilevante sul processo complessivo, quanto più ristretto è l'ambito omogeneo di molecole in cui essa avviene. Si avrebbe cioè un effetto analogo a quello che si produce in un'esplosione in cui può amplificarsi macroscopicamente una singola fluttuazione molecolare. « Ma,» egli osserva, « allorché dichiariamo che il capriccio delle fluttuazioni potrebbe svolgere un qualche ruolo nell'evoluzione cellullare, ciò non vuol dire che questa evoluzione non sia sottomessa ad alcuna legge. Ciò significa
www.scribd.com/Baruhk
Biologia e filosofia
semplicemente che le leggi di questa evoluzione non sono più necessariamente delle leggi statistiche precise come lo sono quelle della nostra fisico-chimica. » Sarebbero piuttosto delle leggi che riguardano azioni individuali. Ammettere però leggi riguardanti fenomeni individuali poteva apparire una contraddizione in termini, almeno per chi considera la legge come la definizione di una regolare ripetizione di fenomeni, vedendo invece nell'evento individuale qualcosa di irripetibile e di nuovo. Questo tipo di considerazioni veniva in effetti sviluppato dal biologo americano Ralph S. Lillie, per cercare di dare una caratterizzazione dei fenomeni della vita proprio dal punto di vista generale delle leggi della natura. In uno scritto del 1926 egli infatti accetta la tesi secondo cui « caratteristica della vitalità è una certa qualità creativa e non ripetitiva che sembra sovrapposta alla semplice routine puramente fisica richiesta dalle condizioni dell'esistenza organica». Trova perciò che il dilemma al quale ci si trova di fronte nell'interpretazione scientifica dei processi biologici è appunto quello di conciliare l'aspetto di stabilità con quello di novità ed individualità inerenti ambedue agli organismi. Tale dilemma, secondo Lillie, può essere superato ammettendo «qualche fattore che agisce attraverso o dentro la natura, sebbene ristretto nelle sue espressioni naturali da condizioni fisse, quali quelle risultanti in una concezione scientifica, come l'atomismo o le leggi termodinamiche ». In tal caso si assumerebbe un punto di vista del tutto coerente con l'interpretazione fisico-chimica della vita. La possibilità di sviluppare questo punto di vista gli veniva offerta proprio in quegli anni dai risultati più importanti della fisica quantistica, in particolare dal principio di indeterminazione di Heisenberg che appariva come un'affermazione che le particelle micro-fisiche sfuggono all'usuale causalità «esterna» dei fenomeni macrofisici. In un articolo del 1927 Lillie poteva così affermare che nel vivente esiste un in determinismo fisico di tipo microscopico: « Se noi consideriamo un sistema nel quale singoli eventi ultra-microscopici individualmente indeterminati o "liberi"- siano essi movimenti browniani, fenomeni quantici o alcunché di più profondo - hanno in qualche modo la possibilità di controllare effettivamente nel sistema gli eventi macroscopici, esso (a questo livello) potrà apparire come non controllato dall'esterno o libero». Si apriva così la possibilità di considerare il problema della vita organica dal punto di vista di un nuovo indeterminismo ben più profondo e radicale di quello offerto dalle fluttuazioni termodinamiche, cioè dal punto di vista dell'indeterminismo della nuova fisica quantistica. Questa possibilità si realizzò soprattutto per opera del fisico tedesco Pascual Jordan in numerosi scritti che, durante gli anni trenta, suscitarono in Germania una vivace discus"" sione, svoltasi anche sulle pagine della rivista del circolo di Vienna, « Erkenntnis ». Senza soffermarci su tale discussione è possibile riassumere le considerazioni di Jordan in alcuni punti essenziali. 143
www.scribd.com/Baruhk
Biologia e filosofia
In primo luogo l'autore tedesco accettava la concezione di Heisenberg e Bohr secondo cui il principio di indeterminazione stabilirebbe in modo definitivo l'esistenza di fenomeni microfisici non soggetti a causalità o «liberi», ciò che costituiva evidentemente una posizione non condivisa da tutti gli autori impegnati nella discussione teorico-filosofica sulla nuova fisica. In secondo luogo J ordan sosteneva, più o meno esplicitamente, che i processi vitali fossero essenzialmente caratterizzabili mediante quel sentimento di libertà che viene vissuto nell'esperienza soggettiva, cioè mediante una sorta di spontaneità imprevedibile. Ma ciò urtava evidentemente contro l'accertata stabilità e regolarità dei processi biologici evidenti anche nei fenomeni di reazione e di adattamento. In terzo luogo, e qui ci si presenta la fase più propriamente scientifica dell'opera di Jordan, egli riteneva che nel vivente si realizzassero dei processi di amplificazione o rafforzamento tali da trasformare l'effetto di un singolo evento microfisico sino al livello del comportamento macroscopico dell'organismo. Questa ipotesi poteva trovare appoggio in dati sperimentali recenti della ricerca biologica. Ad esempio il prodursi di mutazioni ereditarie per l'urto di particelle o radiazioni elettromagnetiche su ambiti ristretti del materiale ereditario; tali mutazioni risultavano dall'apporto di uno o pochi quanti di energia e producevano un effetto di amplificazione coll'insorgenza di caratteri ereditari nuovi o coll'uccisione dell'organismo. Tali processi di amplificazione, che secondo J ordan dovevano caratterizzare la base fisica del funzionamento dell'organismo, si mostrarono però, ad una più precisa analisi critica, del tutto marginali rispetto al comportamento globale dell'organismo e alle strutture funzionali che lo determinano. VII· IRRAZIONALISMO DEL
MONDO
E IN
VISIONI
BIOLOGICHE
GERMANIA
Sin dall'inizio del secolo nell'ambito della cultura tedesca il nuovo vitalismo non solo aveva provocato un ampio dibattito filosofico e metodologico, che suscitò l'interesse anche dei biologi più qualificati, ma aveva inciso profondamente nella cultura filosofica in generale alimentando « filosofie della vita » di impronta più o meno irrazionalistica. Queste filosofie si svilupparono negli anni precedenti e in quelli successivi la prima guerra mondiale e a loro volta influenzarono il pensiero biologico tedesco in forme che per vari aspetti richiamavano temi della filosofia della natura romantica. Oltre che dal vitalismo uno dei punti da cui muovevano le correnti di tipo irrazionalistico, che alimentavano le filosofie della vita, fu il diffondersi della concezione fenomenistica della scienza e quindi della convinzione che il significato autentico non solo dell'uomo e della storia, ma anche della stessa natura, 144
www.scribd.com/Baruhk
Biologia e filosofia
sfuggendo alla conoscenza di tipo scientifico, doveva essere cercato in un ambito diverso di esperienza spirituale. La ricerca del valore e del significato della vita deve cioè orientarsi verso il mondo irripetibile della storia, in un orizzonte in cui le istanze più immediate dell'uomo tendono ad assumere un valore universale di norma o di eventi esempla·ri. Ma la vita creatrice di valori, che risulta da queste esperienze dell'uomo è ben diversa dalla vita quale ci viene presentata nelle scienze biologiche dalla con1 >scenza di tipo meccanicistico della natura. La scienza stessa sorge secondo Mach dal bisogno dell'uomo di organizzare in modo economico i dati dell'esperienza sensoriale per garantire la sopravvivenza biologica. In tale luce la critica della nuova fisica risultava la conferma più sicura del carattere fenomenistico della conoscenza e ci si poteva chiedere alloracon il biologo tedesco Raoul H. Francé - che altro è la materia « se non il "mondo come rappresentazione" di Schopenhauer, al quale soltanto, con i filosofi moderni, si può ricollegare la nuova fisica? Ma Schopenhauer è il tipico filosofo biologo, poiché tutta la sua immagine del mondo, sia quello delle rappresentazioni, sia quello della volontà, si riduce all'affermazione: il mondo sussiste solo per l'uomo, ed egli lo conosce solo attraverso la sua capacità vitale. Anche per lui è la vita il giudice supremo ». Già con Nietzsche, attraverso l'iniziale richiamo a Schopenhauer e la successiva interpretazione etica del darwinismo, la vita era stata posta come l'ambito originario e irriducibile dell'affermazione dell'uomo, al di là di ogni dettato della morale e della ragione. Ma anche questa di Nietzsche non poteva essere la vita irrigidita e impoverita degli schemi scientifici della biologia. Nella Genealogia della morale egli affermava infatti che «l'idiosincrasia democratica contro tutto ciò che domina e vuole dominare sembra essersi impadronita di tutta la fisiologia e la dottrina della vita, evidentemente a suo danno, poiché ha fatto sparire il suo concetto fondamentale, quello della vera e propria attività. Sotto la pression<: di questa idiosincrasia si pone invece in primo piano l'adattamento, cioè un'attività secondaria, una pura reattività, si è anzi definita la vita stessa come un sempre più finalizzato adattamento interno alle circostanze esterne (H. Spencer) ». Ma la potenzialità libera della vita sfugge ad ogni interpretazione utilitaristica cosicché, secondo Nietzsche: «In tutto il darwinismo inglese si respira come un'aria soffocante da sovraffollamento inglese, come un sentore di bisogno e ristrettezze da povera gente. » Man mano che si afferma nei primi anni del nuovo secolo questa idea della vita, che può essere colta in modo privilegiato nell'azione eroica o nel disinteressato gioco della fantasia, il tema del darwinismo come interpretazione utilitaristica della natura, come proiezione artificiosa degli schemi concettuali dell'economia politica nel mondo delle piante e degli animali, ritorna sempre. più nella cultura tedesca. A questo tema si aggiungeva la critica dell'idea di progresso, di una concezione derivante dall'ottimismo illuministico che si voleva
www.scribd.com/Baruhk
Biologia e filosofia
mascherare sotto le sembianze della teoria scientifica dell'evoluzione dei viventi. Queste considerazioni vengono ribadite in Germania specialmente durante la prima guerra mondiale, in quel clima generale di lotta ideologica che impegnava non pochi intellettuali a schierarsi in una organizzata denigrazione culturale delle nazioni nemiche. Fra questi vi fu anche il filosofo Max Scheler il quale scriveva nel 1915 che il principio di utilità, enormemente sopravvalutato sia dai darwinisti che dai teisti, ha negato e mortificato ogni considerazione estetico-soggettiva degli animali e anche delle piante: « Le forme delle loro parti fogliari, ancor più delle forme e della ricchezza di colori degli animali indicano alla radice sconosciuta della vita un principio regolativo puramente estetico che si svolge fantasiosamente. » Ma la sempre più salda convinzione dell'esistenza di un fondo originario e sconosciuto della vita, di cui la conoscenza scientifica non costituiva che il riconoscimento fenomenico, doveva condurre a forme estreme di irrazionalismo che riecheggiavano più o meno direttamente alcuni dei motivi più oscuri della scienza romantica. Esemplare ci sembra in questo senso la concezione filosofica del paleontologo tedesco Edgar Dacqué (1878-1945). Per questi la spiegazione meccanicistica della natura termina sempre in un ignorabimus, poiché individua processi che sono in ultima analisi casuali e senza senso. Ma al di là dell'apparenza fenomenico-meccanica della natura vi è una realtà profonda, l'anima del mondo, di cui l'uomo stesso è parte. Tale realtà può essere colta solo con una manifestazione dall'interno verso l'esterno cioè come un simbolo, che ha trovato espressione anche nelle saghe e nelle leggende dei popoli più antichi. Si apre così al Dacqué una visione magica della natura in cui egli riscopre il disegno mitico, di impronta neo-platonico-romantica, di una caduta della natura e dell'uomo da un loro stato paradisiaco di unità ideale a cui segue un ritorno attraverso un'ascesi di impronta mistico-cristiana. Ciò spinge l'autore in alcune sue opere- ad esempio in Leben als Symbol (Vita come simbolo, 1928)- ad interpretare la storia evolutiva delle stesse forme biologiche in funzione dell'uomo. L'uomo infatti come idea costituisce sia la forma originaria dei viventi sia la causa interna del loro processo evolutivo. Se la vita pura esiste come idea dell 'uomo allora quella che si realizza nel mondo fisico degli organismi non può che essere impura, cioè contaminata nella dimensione demoniaca della materia. Ma, egli afferma: « Poiché lo scopo della vita umana è il ritorno alla pura idea interiore di uomo, nella storia della natura il compiuto distaccarsi del mondo animale deve nello stesso tempo costituire il distacco sempre più protratto delle potenze demoniache dall'uomo stesso. » «L'animale perciò, se vogliamo coglierlo nella sua intima essenza, deve costituire per noi il simbolo dello sviluppo dell'uomo come natura, il simbolo del demoniaco, e allora l'uomo stesso deve per noi costituire il simbolo del sacro, della sua origine. » La concezione antirazionalistica e antimeccanicistica, che permette di ritro-
www.scribd.com/Baruhk
Biologia e filosofia
vare nei simboli della natura vivente l'oscura vicenda della caduta e del riscatto dell'uomo, è secondo Dacqué una prerogativa originale della cultura tedesca. La quale poteva in quel periodo certamente offrire lo spazio per simili atteggiamenti irrazionalistici, che furono gli stessi che alimentavano la mitologia della razza e l'ideologia del nazismo. L'esigenza di riattingere nel passato, nella tradizione della cultura tedesca, le indicazioni per una nuova interpretazione della natura, se da un lato sfociava nel misticismo più oscurantistico, dall'altro poteva ravvivare alcuni temi suggestivi ed importanti elci periodo romantico quali furono espressi. nell'opera scientifica di Goethe. Gli studi naturalistici del grande poeta tedesco non erano stati mai dimenticati in Germania. Haeckel ed altri avevano visto nei suoi scritti biologici, non senza gravi forzature, un precorrimento della teoria dell'evoluzione e più giustamente le idee di un pensatore libero ed aperto ad una concezione monistica della realtà naturale. In un momento di crisi del darwinismo e di generale polemica contro il meccanicismo si era portati ora a rivalutare in Goethe, oltre che il tenace avversario della conoscenza esclusivamente fisico-matematica della natura, l'assertore di una conoscenza intuitiva delle forme viventi, percepite dai sensi e colte intellettualmente come idee, l'iniziatore di un indirizzo autonomo e fecondo di ricerca biologica, la morfologia. Questa disciplina era stata posta da Haeckel alla base della sua opera evoluzionistica, con il grande disegno degli alberi filogenetici e l'applicazione del principio che l'indagine dello sviluppo embrionale doveva fornire indicazioni decisive per la loro stessa costruzione. Ma gli alberi filogenetici di Haeckel apparvero in molti punti il risultato della trasposizione storica di strutture morfologiche attuali, che venivano disposte in una successione senza una precisa indicazione cronologica; a volte con l'inclusione di forme del tutto ipotetiche e congetturali. Nonostante il grande stimolo costituito da quest'opera di Haeckel, all'inizio del secolo se ne riconobbero chiaramente i difetti e si fece valere la giusta esigenza di una più rigorosa riformulazione di tali alberi filogenetici, ripartendo da un preciso ed accurato studio comparativo delle forme organiche per riconoscerne tutti gli aspetti, prima di interpretarle storicamente. Veniva cioè ad essere rivalutata in funzione della stessa teoria dell'evoluzione l'analisi morfologica pura e nel 1919 Adolf Naef poteva così affermare: «La morfologia idealistica non è stata, nella storia della scienza soltanto la premessa per l'introduzione della filogenetica ... ; essa deve avere ancora oggi la precedenza su questa per ragioni logiche. » Ma la rivalutazione della morfologia, nell'ambito degli studi evoluzionistici, non significava ancora collocare questa disciplina in una posizione privilegiata nello studio dei viventi. Vi erano anzi alcuni, fra i più illustri cultori di essa, come il botanico Karl Goebel (185 5-1932), i quali asserivano che la morfologia rappresenta solo una fase iniziale della ricerca biologica, per cui si può di147
www.scribd.com/Baruhk
Biologia e filosofia
re che « morfologico è ciò che non è ancora stato spiegato in modo fisiologico». Convinto oppositore di questa idea fu invece il giovane botanico Wilhelm Troll il quale non solo rivendica l'irriducibilità della morfologia ma sostiene che soltanto su di essa la biologia può costituirsi come una scienza autonoma. La fisiologia procede secondo un metodo analitico causale caratteristico della scienza fisico-meccanica della natura, scienza che ha trovato nell'opera di Kant la sua più profonda giustificazione filosofica. La morfologia invece procede, non mediante la spiegazione causale, ma mediante la « rappresentazione » della forma, la quale realizza la sua espressione più pura nel tipo. Attraverso il tipo come struttura originaria, si conosce quel piano costitutivo generale degli organismi che condiziona la loro maggiore o minore somiglianza e che compone gli organi nella totalità della loro disposizione caratteristica. Questo procedimento della morfologia, che permette di cogliere la molteplicità delle forme come una sorta di necessario sviluppo ideale del tipo, costituisce una forma irriducibile di conoscenza che ha trovato in Goethe la sua più compiuta teorizzazione. Ma perché la visione meccanicistica della fisiologia si contrappone in modo irriducibile a quella ideale della morfologia? Il motivo di ciò, secondo Troll, consiste nel fatto che « il tipo non è la somma delle sue componenti, degli organi dell'organismo, esso è più di questi e non si lascia comprendere in essi, non si risolve in essi». Non si nega con questo l'importanza della fisiologia ma ci si limita ad affermare che essa ha come compito « la spiegazione dei processi meccanici dell'organismo, ma non la spiegazione meccanica dell'organismo». Il tentativo di Troll di fondare l'autonomia della scienza biologica sulla morfologia può considerarsi emblematico di un clima culturale in cui molto accentuata era la polemica contro il meccanicismo ed emergeva nella psicologia la tematica della forma, ma non costituì tuttavia un punto di riferimento importante per il successivo svolgimento della biologia. Più rilevante e molto più feconda di sviluppi fu invece l'impostazione di un altro autore tedesco, Jakob von Uexkull (1864-1944), il quale movendo anch'egli dal problema della forma giunse a individuare l'autonomia della biologia nel carattere di soggetto che ogni vivente presenta rispetto al suo ambiente. Egli aveva iniziato la sua attività scientifica verso la fine dell'Ottocento specializzandosi nella fisiologia comparata del sistema nervoso e trovandosi così in netta opposizione rispetto alle pretese di una psicologia comparata di derivazione darwiniana, che postulava l'esistenza di una indimostrabile ed inconoscibile psiche animale. Proseguendo tale indagine egli era giunto all'inizio del secolo a convincersi che la biologia può assumere il ruolo di scienza autonoma se si pone come compito lo studio dei rapporti fra organismo e ambiente, analizza cioè l'azione del mondo esterno sull'animale e la « controazione di esso». Nella sua opera del 1909 Umwelt und Innenwelt der Tiere (Ambiente e mondo interno degli animali), come in alcuni scritti precedenti, egli esprime la sua netta
www.scribd.com/Baruhk
Biologia e filosofia
oppos1z10ne non solo alla psicologia animale, ma anche al tipo di conoscenza concettuale astratta caratteristica dei procedimenti fisico chimici su cui si fonda l'analisi fisiologica. La biologia, diversamente dalla fisiologia, può avere nello studio dei viventi una specifica autonomia in quanto in essa vi avrebbe un ruolo privilegiato « l'intuizione spaziale della struttura morfologica del piano costitutivo. È questa forma di intuizione che ci permette di conoscere e paragonare l'organismo e la macchina riscontrando in esso una finalità, una conformità ad un piano ». È nella struttura morfologica che noi posslamo rilevare la connessione reciproca fra organi ricettori ed organi di movimento, per cui l'attività dell'animale appare come un «fascio ordinato di riflessi», e l'organismo nel suo complesso «come una macchina a risposta». Uexkiill giunge a sostenere che nella rete nervosa dell'animale sono presenti dei «nuclei oggettuali » in cui si realizza la sintesi degli stimoli ambientali, in modo da ricomporre in essi quegli oggetti dell'ambiente da cui gli stessi stimoli provengono. I processi biologici svolgentisi secondo il piano costitutivo di collegamento fra organi recettori ed effettori, rappresentano il « mondo interno » degli animali dal quale deve essere esclusa ogni dimensione psichica. Ad esso si contrappone un mondo esterno o meglio l'ambiente ( Umwelt) che è quella parte del mondo circostante che interagisce con gli organi dell'animale. Attorno al 1910 si ha una svolta decisiva nel pensiero di Uexkiill. Egli abbandona cioè l'idea che la vita interna dell'animale debba essere concepita soltanto come uno schema spaziale intuibile, costituito dalle reti nervose, dagli organi collegati attraverso di esse e dai relativi processi. Afferma invece che tale vita interna deve essere concepita come l'attività immateriale di un « soggetto». Giustifica questo mutamento radicale di prospettiva soprattutto in base alla considerazione che nel comportamento degli animali interviene uno schema temporale. Quando ad esempio il riccio di mare e la conchiglia del pellegrino colgono l'avvicinarsi del loro nemico, la stella di mare, occorre ammettere in essi . una percezione di movimento, il che comporterebbe l'intervento di uno schema temporale. Ora i caratteri percepiti di tipo temporale, secondo Uexkiill, non si lascerebbero rappresentare nel cervello mediante rapporti spaziali; occorre quindi ammettere nell'animale una dimensione peculiare che pur non essendo una psiche in senso proprio è tuttavia un'attività funzionale soggettiva immateriale, analoga a quella che secondo Kant permette all'uomo di costituire il suo mondo fenomenico. Da questo nuovo punto di vista la vita interna dell'animale diviene un centro di soggettività che si proietta, per così dire, in un mondo individuale (Umwelt) ritagliato nell'ambiente circostante. Tale mondo individuale del soggetto animale si suddivide in un mondo percepito (Merkwelt) ed in un mondo effettuale (WirkungJwelt) che corrisponde agli atti compiuti dall'animale. L'organismo 149
www.scribd.com/Baruhk
Biologia e filosofia
cessa così di essere una macchina a risposta ed il compito della biologia non è più quello di stabilire l'azione dell'ambiente sull'animale e le controazioni su di esso, ma quello di ricostruire quel mondo individuale che ciascun animale ricompone, come una porzione sua propria, entro l'ambiente circostante puramente fisico in cui è situato. La biologia diviene dunque una scienza autonoma con un suo oggetto specifico, «la soggettività del mondo proprio di ciascun animale». Secondo l'autore in questo modo si d-introduce nella considerazione scientifica quella dimensione qualitativa, di colori, suoni, odori, ecc., che la scienza fisica moderna aveva escluso privilegiando le qualità primarie quantitative e respingendo le qualità secondarie soggettive. In una serie di scritti di carattere divulgativo pubblicati nel 1913 col titolo Bausteine zu einer biologischen Weltanschauung (Elementi per una visione biologica del mondo) l'autore giunge a prendere apertamente posizione sul piano filosofico contro il materialismo in difesa di un idealismo che avrebbe necessariamente in Kant il suo punto di riferimento. «All'epoca della trattazione fisico-chimica del mondo che conduceva al materialismo, » egli osserva, « segue ora naturalmente la trattazione biologica del mondo. Essa costituisce la via diretta verso l'idealismo. » Alla domanda posta sinora: qual è il posto dell'uomo nell'universo? si aveva la risposta: «Un complesso di atomi scagliati in giro da forze meccaniche.» Ora invece alla stessa domanda è possibile rispondere: « L 'uomo e la natura che lo circonda costituiscono insieme un'unità armonica secondo un piano, in cui tutte le parti stanno in una reciproca azione finalizzata. » La finalità che appare nell'organismo, ovvero la loro conformità ad un piano, non può sorgere come l'effetto di una struttura o di processi puramente materiali. A questo riguardo egli concorda, almeno in parte, con le argomentazioni di Driesch e giunge ad ammettere che lo sviluppo embrionale possa essere guidato dai geni cromosomici, i quali da un lato con la loro azione fanno presa sulle sostanze e le forze della materia e dall'altro appartengono ad un piano del tutto extra-materiale. Tale piano extra-materiale, che egli individua nell'azione coordinata dei geni, è da lui concepito come un'idea, come un progetto intelligente secondo il vitalismo di Reinke, piuttosto che come una sostanza dinamicamente attiva, quale l'entelechia di Driesch. Il ris~ltato è comunque la sconfitta dell'interpretazione darwiniana della finalità, il crollo del materialismo proclamato da Haeckel. La nuova biologia dischiude finalmente la prospettiva di un mondo di valori negati dalla concezione meccanicistica e materialistica che ha respinto dalla natura ogni idea di finalità e l'ha depauperata di quegli aspetti di qualità e forma che sorgono nell'esperienza soggettiva. « Se esistono solo forze fisiche e chimiche,» afferma nella citata opera del 1913, «allora la conformità ad un piano che noi vediamo è solo apparenza. Allora il mondo che ci circonda, con 150
www.scribd.com/Baruhk
Biologia e filosofia
le sue migliaia di forme e di colori, . . . con tutte le sue disposizioni etiche ed estetiche svanisce in una danza di atomi, ove non regna altro che il numero. Al posto del crudele Jehova, che nel medioevo reggeva il mondo, abbiamo posto un nuovo idolo, il numero. Se ne vedranno le conseguenze, solo che esso domini completamente le masse e le metta in movimento. » Uexkiill non si limitò comunque a proclamare una nuova visione del mondo capace di rovesciare il materialismo in nome di una nuova biologia. Negli anni successivi continuò le sue indagini teoriche e sperimentali giungendo nel 1920 a pubblicare la sua opera più importante, Theoretische Biologie (Biologia teorica), in cui approfondisce gli aspetti filosofici e metodologici del suo programma di ricerca. «Lo scopo della biologia,» egli afferma, «consiste nell'ampliare i risultati delle ricerche di Kant in due direzioni: I) considerare il ruolo del nostro corpo, particolarmente dei nostri organi di senso e del nostro sistema nervoso centrale; 2) indicare i rapporti degli altri soggetti (gli animali) con gli oggetti. » In quest'opera egli cerca di sviluppare un'analisi gnoseologica delle qualità fondamentali ed elementari che costituiscono il mondo percepito dell'uomo e rappresentano un punto di partenza insostituibile anche per la ricostruzione del mondo percepito di tutti gli altri soggetti animali. Ad esempio la percezione dello spazio può essere ricondotta a due qualità o segni: i segni di luogo che determinano la collocazione nello spazio delle varie sensazioni, ed i segni di direzione che condizionano la sensazione di movimento. Così pure la percezione del tempo deve essere ricondotta ad un segno istantaneo che indica il più breve istante di tempo durante il quale l'ambiente non varia in modo percepibile (e che ha evidentemente una durata diversa nei vari animali). In base a queste e ad altre regole conosciute nell'uomo, in base all'analisi della struttura morfologica di ogni particolare animale, in base soprattutto al suo comportamento rispetto alla variazione degli stimoli circostanti ci è così possibile ricostruire il suo mondo proprio o individuale caratteristico per ogni specie. Si giunge ad esempio a stabilire che le api percepiscono delle forme in quanto « si posano di preferenza sopra le figure a forma aperta, come stelle e croci, ed evitano quelle a forma chiusa, quali i cerchi e i quadrati ». Mediante una figura l'autore cerca di rappresentare il mondo circostante dell'ape distinguendolo dal suo mondo soggettivo o individuale. « Sul prato fiorito che l'insetto sta esplorando,» scrive ancora in un'opera del 1934, «i fiori sbocciati alternano con le gemme e coi boccioli: considerando ora il prato in quanto sfera soggettiva dell'ape risulta evidente che i fiori hanno, in generale, aspetto di stelle o croci, mentre i boccioli rappresentano forme chiuse di cerchi: e ciò spiega il valore biologico della preferenza dimostrata dall'ape; poiché sono i fiori aperti che la interessano e non quelli chiusi.» Questa, così come numerose altre ricerche svolte per molti anni da Uexkiill sugli animali, vengono sempre a collocarsi in una concezione generale in cui si precisa sempre meglio l'opposizione
www.scribd.com/Baruhk
Biologia e filosofia
tra la visione biologica del mondo e la visione meccamc1st1ca delle scienze di tipo fisico-chimico. Secondo tale concezione il comportamento dell'animale in un determinato ambiente non può più essere espresso' attraverso relazioni di causa ed effetto, ma come un rapporto di un soggetto nei riguardi di uno o più oggetti che sono « portatori di significato » e presentano una determinata « tonalità » corrispondente ad una specifica funzione percettiva ed effettuale. Il rapporto soggetto-oggetto viene così ad essere considerato come una totalità ove ogni elemento si compone armonicamente. Tale composizione può essere rappresentata mediante lo schema di un circuito funzionale in cui gli organi recettori e quelli effettori del soggetto si collegano ai caratteri percepiti e ai caratteri effettuali di un determinato oggetto. Ma oltre che con l'uso di rappresentazioni schematiche Uexkiill sempre più ama esprimere il rapporto soggetto-oggetto con una terminologia musicale più plastica ed intuitiva. In uno scritto del 1930 egli affermava per esempio che « la bocca di leone e il calabrone svolgono un duetto la cui partitura è già data sin dall'inizio per due voci. Nel duetto bocca di leone-calabrone non si tratta di una melodia di suoni, ma di una melodia di forme, così come di odori e di colori, che viene a distribuirsi ora su una ora su ambedue le parti. La partitura è però già data prima del duetto poiché essa dominerà anche tutti i futuri duetti, sinché vi sarà un calabrone ed una bocca di leone - essa è una legge di natura ». In questa prospettiva egli ribadisce sempre più che: «È un tentativo vano ricondurre queste leggi della vita a leggi fisiche e chimiche o volerle spiegare partendo dalla vita civile con i suoi tentativi ed errori o la sua lotta per l'esistenza; essi sono fattori naturali del tutto autonomi e spontanei, che hanno il primato su tutte le leggi inorganiche, le quali ad essi devono subordinarsi - contrariamente a quanto si è ora ammesso. La vita infatti domina su tutto. » La concezione scientifica e filosofica di Uexkiill costituisce forse l'espressione più originale dell'indirizzo anti-meccanicistico della biologia tedesca. L'interesse di questo autore non è però volto come in Driesch alla dimostrazione « sperimentale » o alla elaborazione filosofica di un vitalismo il cui significato finisca con l'essere più rilevante al di fuori che all'interno della biologia stessa. Per lui la scoperta di una soggettività, e quindi di una « immaterialità » degli organismi animali, non è tanto il risultato di una dimostrazione, che pretenda di essere rigorosa, quanto la scelta di un punto di partenza per un nuovo programma di ricerca scientifica nel campo della biologia e nello stesso tempo una scelta filosofica per una visione del mondo. Visione del mondo strettamente legata al clima culturale in cui l'interesse dominante era per il problema della vita quale veniva colto direttamente nell'esperienza dell'uomo e della sua cultura.
www.scribd.com/Baruhk
VIII· DAL PROBLEMA DELLA TOTALITÀ ALLE
TEORIE
E
DELL'ORGANIZZAZIONE
DELLA
FORMA
BIOLOGICA
In Germania una collocazione più precisa del problema della biologia nell'ambito della conoscenza complessiva della realtà doveva attuarsi anche lungo un indirizzo di ricerca in cui non erano in gioco rovesciamenti così violenti di posizione, come quelli che sfociavano nelle formulazioni più o meno irrazionalistiche delle filosofie della vita. Tale problema venne cioè affrontato da altre posizioni nelle quali, scontato il superamento del monismo materialistico, ci si rifaceva anche al fenomenismo empiristico o ad una tradizione filosofica prevalentemente di tipo kantiano, cercando di precisare in una prospettiva storica e in un modo più critico anche il ruolo e il significato rispettivo delle varie forme di cultura fra cui rientrava la stessa scienza. Fra gli autori che considerano il problema biologico da un punto di vista di questo tipo ricorderemo innanzitutto Julius Schaxel (1887-1943), professore di zoologia a J ena, impegnato anche nella lotta politica fra le file del partito socialdemocratico tedesco, il quale, accettate le posizioni del marxismo, scelse di emigrare nell'Unione Sovietica all'avvento del nazismo. Nella sua opera più importante, Grundziige der Theorienbi!dung in der Biologie (LineallJenti di Jorlllazione delle teorie biologiche, 1919, II ed. 1922) egli denuncia con estrema incisività la situazione di crisi e di confusione teorica della biologia contemporanea, ma esprime anche la speranza che un corretto approccio filosofico metodologico possa condurre ad una formulazione più rigorosa e soddisfacente dei problemi biologici. Egli risente in particolare l'influenza del filosofo neo-kantiano Heinrich Rickert, che aveva studiato il rapporto fra conoscenza storica rivolta all'individuo e conoscenza della natura rivolta alle leggi generali. Schaxel rileva innanzitutto come la confusione teorica nel campo della biologia non solo ha favorito le varie speculazioni irrazionalistiche della filosofia della vita ma è essa stessa il risultato di formulazioni e contrapposizioni dogmatiche che ostacolano lo sviluppo teorico della biologia. Dopo un'ampia e dettagliata analisi critica di queste formulazioni egli giunge ad individuare tre concezioni fondamentali della vita, nessuna delle quali può però ritenersi del tutto soddisfacente. La prima concezione, quella fisico-chimica o energetista è inaccettabile poiché non tiene sufficientemente conto del fatto che i « processi vitali o sostanze vitali non si danno come tali nella natura, ma solo come fenomeni parziali di singoli esseri viventi ». La singolarità o l'individualità di un evento è in generale, secondo l'autore, il tipico oggetto della storia, dove viene vista come inseparabile da una universale considerazione di valore. Ma la concezione storica della vita, espressa in modo caratteristico dal darwinismo, non riesce a cogliere l'individualità dei viventi. In tale concezione il divenire degli organismi è assunto come un pro-
153
www.scribd.com/Baruhk
Biologia e filosofia
cesso meccamc1st1co, come un'accumulazione di caratteri, in cui si introduce più o meno surrettiziamente l'idea di progresso. In ogni caso tale concezione storica della vita, pur cercando di individuare delle leggi, non indica niente di preciso sul reciproco rapporto delle parti e sulle cause esterne del processo evolutivo; lascia cioè aperti i due problemi fondamentali: quello dell'origine delle variazioni e quello della conservazione della struttura dell'organismo. La terza concezione, infine, quella organismica, cerca di render conto del carattere di autoconservazione del vivente, dell'autonomia della vita. Ma così facendo, secondo Schaxel, essa deve basarsi in ultima analisi sull'esperienza intuitiva vissuta dall'io e sfociare fatalmente nel vitalismo, inaccettabile dal punto di vista scientifico. L'esigenza valida di una biologia teorica, secondo Schaxel, dovendo individuare una legalità propria della vita, va perciò incontro, nella concezione organismica, al dilemma di sciogliere ciò che è tipico della vita nella psicologia o nella concezione meccanicistica. Sembra dunque inevitabile la conclusione che: «La concezione fondamentale organismica pone l'essenza della vita in epifenomeni che, se pur presenti, rimangono fuori dell'ambito di indagine della scienza naturale. » La conclusione scettica nei riguardi delle tre fondamentali concezioni della vita, meccanicistica (energetistica), storica e organismica non impedisce però a Schaxel di formulare un programma di indagine critico-metodologica che possa permettere una rifondazione della biologia. In tale programma risulta essenziale per l'autore anche un'indagine storica dell'intricato edificio teorico in cui si configurano attualmente i vari problemi della biologia, attraverso la quale le usuali espressioni di questa scienza possano provare una sicura utilizzazione nella ricerca dopo una purificazione critica ed una loro nuova definizione. L'opera di Schaxel, pur nel suo accentuato scetticismo, esprimeva con passione e acutezza una esigenza di riflessione critica sulla biologia contemporanea che già era avvertita da altri autori e che egli riuscì efficacemente a stimolare e a diffondere, specialmente nei paesi di lingua tedesca. Fra questi autori va ricordato in primo luogo il biologo e filosofo Emil Ungerer che si propone una trattazione « logica » della biologia, cioè una chiarificazione dei concetti fondamentali di questa scienza partendo dalla contrapposizione di vitalismo e meccanicismo e cercando una via per superarla. Per svolgere questo compito egli si rifà direttamente all'analisi che Kant svolse del concetto di vivente specialmente nella Critica del giudizio. Da questa analisi risulta una caratterizzazione del vivente che può essere schematizzata in tre punti. 1) In esso le parti sono possibili solo mediante il rapporto col tutto, z) le parti si connettono in modo tale nell'unità del tutto da essere reciprocamente causa ed effetto l'una dell'altra, 3) il vivente risulta in tal modo un prodotto della natura organizzato e capace di auto-organizzarsi. 154
www.scribd.com/Baruhk
Biologia e filosofia
La trattazione scientifica del vivente, secondo Kant, non può giungere fino alla spiegazione delle sue proprietà come un meccanismo. Il vivente è infatti « un prodotto della natura in cui tutto è reciprocamente scopo e mezzo », nel quale cioè, contrariamente a quanto avviene nel mondo inorganico, si ha una causalità ascendente, per cui l'effetto agisce (diremo oggi in modo circolare) sulla causa, e non solo una causalità di tipo discendente} per cui l'effetto deriva o discende dalla causa. Il rifiuto di una spiegazione meccanicistica della vita dovrebbe spingere Kant verso un « vitalismo metafisica», che non è tuttavia accettabile nella considerazione della natura da lui ritenuta valida. In tale considerazione si deve perciò ammettere un giudizio teleologico solo regolativo della ricerca e non costitutivo dell'oggetto naturale stesso. In questa prospettiva kantiana, secondo Ungerer, perciò «l'organismo deve essere giudicato come se il processo delle sue parti fosse determinato dal tutto ». Ma proprio con questo « come se » si può esprimere la impossibilità per Kant di legittimare una causalità diversa da quella meccanica e quindi la necessità che sembra da lui suggerita di assumere il concetto di totalità come puramente descrittivo e «caratterizzante» dell' organismo. Dall'analisi di Kant risulta inoltre l'indicazione che non esiste nella natura una pluralità di scopi, ma che soltanto l'organismo deve essere considerato come scopo di se stesso. Individuare nella finalità o nella conformità ad uno scopo la categoria fondamentale per caratterizzare il vivente costituisce inoltre un atteggiamento inadeguato ed aperto a gravi inconvenienti. In particolare con il termine scopo (Zweck) si può surrettiziamente implicare una denotazione psicologica, cioè uno scopo voluto consciamente o inconsciamente. Ungerer conclude perciò che « non scopi si danno nella scienza della natura organica, ma solo uno scopo, cioè la conservazione della totalità di un oggetto in divenire ». L'autore riconosce che diversi biologi avevano già considerato l' autoconservazione come la caratteristica fondamentale del vivente. In particolare il Roux nel 1905 aveva definito i viventi come «corpi naturali che si modificano per cause ad essi inerenti, ma parimenti si conservano relativamente immutati per cause esse pure loro inerenti, malgrado il ricambio materiale e le circostanze esterne ». Il concetto di totalità indica in conclusione un nesso reciproco delle parti che permette la conservazione dell'organismo e come tale si pone su un piano puramente scientifico descrittivo senza alcuna compromissione con le spiegazioni meccanicistica o vitalistica, che Ungerer stesso considera finora non dimostrate e tendenzialmente metafisiche. Nella sua opera scientifica più importante di questo periodo Die Regulationen der Pflanzen (La regolazione delle piante, 1919, n ed. 1926) l'autore non si limita a formulare l'analisi ed il programma metodologico ora ricordato, ma applica tale programma dettagliatamente ai processi regolativi della fisiologia vegetale.
www.scribd.com/Baruhk
Biolo~ia
e filosofia
Se all'Ungerer va riconosciuto il merito di avere distinto nell'ambito delle discussioni biologiche il piano metafisica da quello critico-metodologico, attribuendo il concetto di totalità a quest'ultimo piano con una portata puramente descrittiva, più discutibile appare invece l'equiparazione da lui avanzata del meccanicismo e del vitalismo come soluzioni parimenti metafisiche, misconoscendo il loro diverso significato sia nell'ambito concreto della ricerca sia rispetto ad una visione filosofico-scientifica della natura. Nello stesso periodo in cui Ungerer proponeva col concetto di totalità un criterio descrittivo sul quale imperniare una trattazione autonoma dei problemi biologici, un altro autore, lo psicologo Wolfgang Kohler (già esaminato nel volume sesto), affrontava i rapporti fra fisica e biologia in base ad una nuova elaborazione del problema della Gesta/t (forma) che già da alcuni anni costituiva il campo di indagine in una delle più importanti scuole di psicologia. Nella sua opera Die pi?Jsischen Gestalten im Ruhe und im stationarem Zustand (Le for!lle fisiche in riposo e in stato stazionario, 1920) egli afferma che non solo in psicologia ma anche in fisica vi sono particolari strutture in cui il tutto è più della somma delle parti. Non è questo certamente il caso delle macchine per le quali, secondo l'autore, conoscendo le parti e la loro interrelazione, noi possiamo conoscere i movimenti complessivi e per le quali si può dunque dire che il tutto è uguale alla somma delle parti. È il caso invece di sistemi in cui sono le proprietà del tutto a determinare lo stato delle parti; come in un conduttore elettrico di forma elissoidale in cui la distribuzione delle cariche alla sua superficie non risulta in modo additivo dall'aggiunta o dalla sottrazione di nuove cariche, ma è determinato dalla forma o configurazione del conduttore stesso. Nel caso infatti dell'aggiunta o della sottrazione di cariche la loro nuova distribuzione dipende dalle condizioni di tutti i punti del sistema, in modo tale che il nuovo equilibrio raggiunto nella distribuzione si può dire che dipenda dalla forma fisica del sistema. Altri sistemi analoghi a questi non sono rari in fisica ed in essi secondo Kohler si realizza una sorta di autoregolazione dinamica. Se la proprietà per cui un tutto è più della somma delle parti è effettivamente verificata in alcuni sistemi fisici, è allora possibile, secondo Kohler, superare la radicale diversità che sembra esistere fra corpi inorganici ed esseri viventi, aprendo la via ad una nuova trattazione fisica dei problemi biologici. L'autore era particolarmente interessato alla possibilità che i processi fisiologici del sistema nervoso, che potevano essere assunti come correlati degli eventi psichici percettivi delle forme, potessero essere interpretati dal punto di vista di forme fisiche; in tal modo si apriva la possibilità di ammettere un isomorfismo fra processo fisiologico e processo percettivo, nel senso che tale processo fisiologico costituirebbe un caso particolare diforma fisica. Oltre che a queste considerazioni sul sistema nervoso, negli anni successivi l'autore si volse anche ai problemi più generali della biologia ed in parti-
www.scribd.com/Baruhk
Biologia e filosofia
colare dell'embriologia, che continuava a costituire l'argomento più attuale di ricerca sperimentale e di discussione teorica. Contro le argomentazioni vitalistiche di Driesch egli osserva che la dipendenza della proprietà o della funzione di una parte dalla sua dislocazione rispetto al tutto, non è caratteristica solo dei sistemi viventi ma anche delle forme fisiche. Nelle macchine infatti la coordinazione dei processi non dipende dalle forze che vi sono impegnate ma da particolari vincoli o disposizioni conformi al disegno della macchina; nelle forme fisiche invece tale coordinazione dei processi dipende dalle stesse forze del sistema. Ciò risulta essere, secondo l'autore, una proprietà comune a tutti i sistemi in cui, per il secondo principio della termodinamica, si tende a raggiungere uno stato di equilibrio. In questi stati di equilibrio si avrebbe, contrariamente alla « distribuzione meccanica » dovuta a strutture fisse, una distribuzione stazionaria risultante dalle condizioni dinamiche del sistema. Per i sistemi dinamici di questo tipo, in cui la tendenza ad uno stato di equilibrio è dovuta a forze interne, si può dire che ogni parte del sistema è determinata dalle altre parti. Secondo Kohler in tali sistemi è possibile ammettere, dal punto di vista fisico, la realizzazione di una tale complessità per cui essi giungano a regolarsi, cioè da condizioni iniziali differenti pervengano ad un identù-o stato finale. Questo tentativo di precisare le condizioni generali per la realizzazione, in un sistema fisico, di alcune proprietà che sembrano essere tipicamente vitali, suscitò un ampio dibattito durante gli anni venti in Germania e trovò una eco anche nell'opera di uno dei maggiori teorici della biologia del Novecento, Ludwig von Bertalanffy. Nato nei pressi di Vienna nel 1901, questi svolse la sua attività scientifica e di insegnamento nell'ateneo di questa città sino al 1948, allorché si trasferì nel Canada. Nella sua prima opera importante, che ha come titolo Kritische Theorie der Forntbildung (Teoria critica della morfogenesi, 1928), viene espressa in termini ancor più radicali quella stessa situazione di crisi teorica della biologia che era già stata denunciata dall'opera di Schaxel del 1919· Il bersaglio prediletto dell'autore è il meccanicismo biologico che malgrado gli attacchi del vitalismo e le sue interne difficoltà rimaneva ancora per molti l'unico edificio teorico valido della biologia. Egli tenta innanzitutto, senza peraltro riuscirvi in modo del tutto convincente, di mostrare la auto-contraddittorietà degli stessi principi fondamentali del meccanicismo biologico. Ad esempio ·Vi sarebbe contraddittorietà fra la riduzione dei processi vitali a processi fisico-chimici da un lato e dall'altro lato l'uso di concetti come finalità, evoluzione, selezione, del tutto estranei alla scienza della natura inorganica e che portano con sé implicitamente delle considerazioni di valore. Vi sarebbe inoltre contraddittorietà nell'uso stesso del concetto di «macchina organica» che da un lato dovrebbe essere una « macchina che si costruisce da sé, ... che non esiste
www.scribd.com/Baruhk
Biologia e filosofia
per un determinato scopo» mentre dall'altro «nel concetto di macchina vi è già quello di teleologia per la cui eliminazione viene pensata ... ». A ciò si aggiunga che « non vi è alcuna macchina la quale si complichi nel corso del tempo per l'influenza del mondo esterno. Solo la trasformazione di tipi ed organi già esistenti è comprensibile in termini fisico-chimici, non il sorgere di nuovi tipi, di nuovi organi ». Il fallimento del meccanicismo, oltre che dall'uso contraddittorio o ambiguo dei suoi stessi concetti, risulta peraltro dalla totale insufficienza del principio di selezione naturale che dovrebbe costituire il cardine della teoria evoluzionistica, e anche dalla contraddizione fra questa teoria e i risultati della genetica mendeliana. Riservandoci di ritornare più avanti sul problema della selezione e sull'iniziale contrasto tra genetica e teoria dell'evoluzione, ci limitiamo ad osservare come la valutazione del Bertalanffy era condivisa da non pochi studiosi che ancora in questo periodo continuavano a vedere nei risultati della nuova genetica formulazioni di carattere puramente congetturale e comunque nel loro complesso più favorevoli alla teoria della fissità che non a quella della trasformazione della specie. L'autore giungeva così ad affermare, a proposito delle ipotesi formulate negli studi s':lll'eredità nel moscerino nell'aceto, che «per la spiegazione di un semplice fatto, l'eredità nella Drosophila melanogaster, è necessaria una serie di ipotesi complesse delle quali la successiva supera o limita sempre la precedente. Bisogna confessare che queste catene di ipotesi presentano una sgradevole somiglianza con l'assunzione di epicicli sempre più complessi, quale veniva richiesta dal sistema tolemaico ... ». Ma anche accettando i risultati complessivi della genetica si deve concludere che « noi ci troviamo qui nel punto dove la crisi della biologia attuale appare più chiaramente. Due dei più riconosciuti e importanti settori della biologia: la teoria dell'evoluzione e dell'eredità, si trovano in netta opposizione. La genetica procede dal principio della costanza, la teoria dell'evoluzione da quello opposto della trasformazione». Non potendosi dunque accettare né la conclusione meccanicistica né tantomeno quella vitalistica, ci si trova nella biologia di fronte ad una bancarotta del pensiero scientifico analoga a quella che nel 1926 aveva proclamato in Germania il filosofo Hugo Dingler a proposito delle scienze inorganiche della natura. Il giovane Bertalanffy ritiene tuttavia che una via della speranza sia ancora aperta per la costruzione di una biologia teorica, cioè di una scienza della vita organica che non sia mera raccolta di scoordinate analisi sperimentali. Carattere fondamentale della vita è l'organizzazione, la conformità ad un piano come affermava von Uexkull, la forma (Gestalt) di un tutto irriducibile alla somma delle parti, come affermava Kohler, una totalità che tende a conservarsi come affermava Ungerer. È dunque sul concetto di organismo che deve accentrarsi lo sforzo di rinnovamento teorico della biologia. Esso è qualcosa di originario, di primitivo, corrisponde a ciò che è nella fisica l'energia: « Teleologia e unità teleologica
www.scribd.com/Baruhk
Biologia e filosofia
nella biologia corrispondono ai concetti fisici di causalità e di energia, ove "unità teleologica" è solo una descrizione e tanto poco una qualitas occulta, quanto "energia" nella fisica moderna, la quale non indica un misterioso "agire", ma è solo un'espressione del rapporto causale. » Secondo l'autore infine «l'organismo è causalmente inesplicabile, non perché esso sia un problema chimico particolarmente complesso, ancor meno perché esso sia qualcosa di metafisica (come intendono il meccanicismo e il vitalismo) ma semplicemente perché "organismo" è una forma di pensiero peculiare, un concetto originario che né permette né comporta un'ulteriore soluzione». In questo scritto di Bertalanffy si rivela, secondo un'impostazione fenomenistico-empiristica, lo stesso atteggiamento anti-meccanicistico di fondo che assumeva le sue estreme formulazioni irrazionalistiche nelle già ricordate filosofie della vita. Al nostro autore è certo estraneo un atteggiamento irrazionalistico, ma non è estraneo un pessimismo nei riguardi di quel pensiero moderno che ha identificato il progresso della scienza con quello delle scienze inorganiche e della tecnologia. Nella conclusione della sua opera egli confessa apertamente la sua personale preoccupazione a questo riguardo. « Il grande sviluppo della fisica, l'epoca della tecnologia con i suoi trionfi e le sue disillusioni rispetto al progresso reale dell'umanità, il meccanicismo della biologia ed il disprezzo per la vita individuale nella società moderna - costituiscono tutti differenti espressioni dello stesso spirito di una epoca. » « Dal punto di vista pratico la grande guerra ci ha mostrato fino a che punto si è giunti con i mezzi che le scienze inorganiche hanno posto nelle nostre mani. » Forse si è ora pervenuti al termine dell'epoca della meccanica ed il nuovo movimento nella biologia che pone al centro del proprio interesse la vita organica può essere il segno di un auspicabile cambiamento della cultura. « Allora la conoscenza e la conquista della vita porrà rimedio ai danni creati dalla dedizione unilaterale all'inorganico nel mondo e in noi stessi. L'era della tecnologia sta diventando sazia di se stessa, speriamo che un'altra era organismica segua ad essa aprendo nuove prospettive per l'umanità ». Vi è in queste parole l'eco pessimistica di un'opera famosa, Il tramonto dell' occidente, di Oswald Spengler, che aveva impressionato il giovane biologo austriaco; ma la speranza che una nuova biologia possa contribuire ad un'immagine più valida del mondo non abbandona Bertalanffy negli anni operosi che seguiranno. Nel 1932 appare il primo volume di una delle sue opere più importanti, Theoretische Biologie (Biologia teorica), in cui il programma dell'organicismo viene chiarito con notevole ampiezza. Negli anni che separano le due opere citate l'autore - attraverso i contatti con la scuola neo-positivistica, in particolare con Reichenbach, e anche con la lettura dell'opera dell'inglese Woodger, su cui ritorneremo più avanti - viene infatti acquisendo un atteggiamento più cauto e filo-
www.scribd.com/Baruhk
Biologia e filosofia
soficamente maturo di fronte al problema generale dei fondamenti della biologia. In quest'opera egli distingue innanzitutto tre stadi della ricerca biologica. Un primo stadio puramente classificatorio e comparativo, un secondo stadio, ancora di carattere prevalentemente descrittivo, sul quale si vengono a stabilire leggi analitico-causali di tipo fisico-chimico, leggi riferentisi alle relazioni di totalità del vivente ed anche la ricostruzione dei processi storici di trasformazione storica degli organismi. Il terzo stadio infine, che si trova solo ai suoi inizi, è quello della «biologia teorica», nella quale si stabiliscono delle leggi di carattere più generale da cui si possano dedurre le leggi empiriche del secondo stadio. Mentre nella fisica questo terzo momento, cioè la formulazione di leggi o principi generali, è già ampiamente sviluppata da secoli, la biologia si trova da questo punto di vista in una fase « pre-copernicana » se si prescinde dalla genetica che - egli ora riconosce - « si avvicina maggiormente al traguardo di una scienza elaborata teoricamente ». L'esigenza di una sistemazione teorica è ben poco avvertita dai biologi che ritengono ancora, contrariamente a quanto avviene in fisica, che i risultati dell'indagine possano essere ottenuti solo per via induttivo-sperimentale. Vi è anzi tra essi una marcata diffidenza verso ogni teoria, giustificata almeno in parte dagli abusi e dalle speculazioni del passato e del presente. È però necessario, come già aveva detto Schaxel, che anche lo specialista si persuada che « non esiste in realtà la descrizione pura di una raccolta di dati, ma che in ogni descrizione è già insita una teoria e nessuna osservazione si realizza senza problema, per cui dalla domanda dipende il tipo di risposta ». Come per Schaxel anche per Bertalanffy il primo compito che ci si deve porre per costruire una biologia teorica è quello di analizzare criticamente le teorie biologiche. Fra queste in primo luogo quelle di carattere più generale e che più hanno coinvolto nella loro ambiguità e nel loro dogmatismo la ricerca biologica, cioè il meccanicismo e il vitalismo. Bertalanffy, per quanto tenda a presentare la sua concezione come un superamento di ambedue queste posizioni, si impegna soprattutto in una discussione approfondita del meccanicismo, che contrariamente al vitalismo rappresentava ancora una reale minaccia alla costruzione di una biologia autonoma da lui auspicata. Nel complesso della sua analisi egli non parte però da un esame storico preciso delle reali formulazioni del meccanicismo biologico, come aveva fatto Schaxel, ma piuttosto da una astratta schematizzazione di esso che se meglio si presta a mostrarne le insufficienze si presta anche ad una sua artificiosa deformazione. La forma tradizionale di meccanicismo che egli critica è infatti quella per cui « le leggi dell'organico sono le leggi fisico-chimiche; cioè l'essere... organico viene completamente spiegato conoscendo in modo fisico le parti ed i processi singoli » ed eventualmente la sua struttura fisico-chimica. Questa definizione di meccanicismo biologico è alquanto riduttiva ed imprecisa in quanto sembra escludere le « relazioni fra le
www.scribd.com/Baruhk
Biologia e filosofia
parti ed i processi», esclusione che non appare giustificata da un esame delle opere di autori meccanicisti quali ad esempio Weismann o Loeb. Sulla base di tale definizione è comunque possibile a Bertalanffy riconoscere alcune insufficienze fondamentali del meccanicismo biologico. Fra queste quella forse più importante è la cosiddetta trattazione so!JJmativa esemplificata nell'atteggiamento del fisico «il quale considera la tempesta che abbatte l'albero come la somma dei movimenti di tutte le particelle dell'aria, il calore di un corpo come la somma dell'energia cinetica delle molecole ecc. ». Questa trattazione sommativa sarebbe implicita nella concezione sostenuta già da tempo secondo cui « la completa conoscenza chimica della "sostanza vivente" ci renderebbe comprensibili le proprietà dell'organismo». Altro esempio di trattazione sommativa sarebbe la concezione del darwinismo per il quale il corpo è « risolto in un complesso di proprietà che ... si modificano indipendentemente l'una dall'altra». Concezione quest'ultima difficilmente attribuibile a Darwin stesso e certamente non sostenuta da Weismann e nemmeno da Roux che avevano ammesso, per spiegare l'origine delle variazioni, una competizione, una sorta di lotta interna fra parti dell'organismo. Si può certo riconoscere con Bertalanffy che la trattazione sommativa può aver rappresentato un limite, un pericolo metodologico dell'indagine meccanicistica, quando questa ha trascurato l'interazione tra le parti, ma non si può concordare con l'autore nell'affermazione che tale trattazione sommativa costituisca una precisa caratteristica delle forme storiche di meccanicismo biologico. E ciò sembra essere ammesso implicitamente dallo stesso Bertalanffy quando crede di polemizzare con i meccanicisti sostenendo che « la caratteristica della vita non sta in qualche particolarità di singoli processi vitali, ma in un determinato ordine di tutti questi processi ». Affermazione questa che ben pochi dei cosiddetti meccanicisti avrebbero mai pensato di negare. Il carattere, almeno in parte, capzioso, della critica di Bertalanffy al meccanicismo risulta anche dall'attribuzione ad esso di un'altra tesi: la teoria del vivente macchina (Maschinentheorie des Lebens). Ora questa teoria, per quanto appartenente alla tradizione storica del meccanicismo, è nell'Ottocento sostenuta da ben pochi autori, fra cui il Lotze che la inserisce in una chiara visione creaziQnistica e spiritualistica della natura. Anche il vitalista Reinke sostiene che l'organismo deve essere inteso come il prodotto di strutture meccaniche invisibili. In effetti la teoria del vivente macchina viene reintrodotta nella biologia tedesca soprattutto da Driesch per caratterizzare in termini polemici la concezione di una « organizzazione nascosta », cioè della struttura invisibile del plasma germinale sostenuta da Weismann e Roux. In particolare Driesch parte da questa interpretazione per concludere 1n modo vitalistico che una macchina, la quale sia strutturata diversamente nelle tre dimensioni dello spazio, non può rimanere la stessa se le si tolgono parti, se si spostano queste parti o se essa viene divisa.
www.scribd.com/Baruhk
Biologia e filosofia
Questa deformazione polemica del meccanicismo biologico operata da Driesch è ripresa dal Bertalanffy che, attribuendolo a Weismann, dimentica come l'architettura nascosta del plasma germinale sostenuta da quest'ultimo autore era concepita sul modello atomistico di particelle vitali (biofori) capaci di riprodursi, di aggregarsi e disgregarsi secondo strutture prodotte dalle forze interagenti tra le particelle stesse. Il nostro autore sottovaluta inoltre il fatto che uno dei maggiori rappresentanti dell'indirizzo meccanicistico, cioè il Roux, abbia cercato di sostenere l'organizzazione nascosta del plasma germinale proprio per interpretare i vari processi di regolazione dimostrati sperimentalmente. Bertalanffy per giustificare il proprio rifiuto del meccanicismo giunge così a polemizzare contro la fantomatica teoria dell'organismo-macchina affermando: « Non possiamo più considerare fondamentali per la vita queste rigide strutture-macchina, poiché la ricerca moderna ha dimostrato regolazioni in misura insospettata. La "capacità al tutto" agente liberamente appare ovunque come primaria, l'irrigidimento a "macchina" come secondario. » Osserva inoltre che « una macchina può essere attrezzata solo per determinati casi, può solo reagire a determinati interventi; non può rispondere finalisticamente a richieste per cui non è stata prevista ». La confutazione del meccanicismo come quella del vitalismo, su cui non ci siamo soffermati, apre all'autore la via per esporre la sua concezione organismica quale superamento di ambedue le accennate posizioni. La vita secondo l'autore non deve essere considerata come la proprietà di una « sostanza vivente » ma come la proprietà di un sistema costituito dall'organismo stesso. Essa deve essere cioè concepita come la totalità dei rapporti e delle interazioni esistenti fra i singoli processi dell'organismo. Giunge a questa conclusione movendo dalle considerazioni svolte da vari autori negli anni precedenti, in particolare da Kohler. In base alle indagini di questi sulle forme fisiche egli giunge a chiedersi: « In che senso si può dire in generale che il tutto è più della somma delle parti? » La risposta egli osserva è più semplice di quanto possa sembrare, cioè se noi «conosciamo l'insieme delle parti riunite nel sistema e le relazioni sussistenti fra di esse - allora il comportamento del sistema è spiegabile mediante quello delle parti». Ciò vale secondo l'autore sia per una forma fisica nel senso di Kohler sia per il sistema organismo oggetto della biologia. Quello che è veramente importante, per la fondazione di una nuova biologia organismica, è il fatto che il vivente risulta essere un sistema particolare dotato di proprietà specifiche, esso è cioè « un sistema organizzato secondo un ordine gerarchico e costituito da un gran numero di parti diverse in cui un gran numero di processi è ordinato in modo tale che ... esso permanga nel suo proprio stato e vi venga ristabilito e i processi stessi conducano alla produzione di sistemi simili ». Tutto ciò nel costante ricambio energetico materiale delle sue parti e attraverso i perturbamenti dovuti alle condizioni esterne.
www.scribd.com/Baruhk
Biologia e filosofia
Bertalanffy si chiede giustamente a questo punto se una simile concezione dell'organismo sia conciliabile con il meccanicismo. « Se una simile concezione venga chiamata meccanicistica o meno è una questione di gusto o di definizione. Essa non è meccanicistica nella misura in cui le leggi organiche sono specificamente biologiche, cioè non sarebbero semplici applicazioni di leggi inorganiche; essa può però essere detta "meccanicistica" nella misura in cui quelle specifiche leggi biologiche potrebbero essere ricondotte alle leggi elementari fisiche, quanto quelle dei restanti campi della fisica. » Bertalanffy chiarisce il significato di questa riducibilità meccanicistica citando un passo di Reichenbach del 193 r: «Che le leggi conosciute della fisica siano sufficienti alla comprensione del processo vitale, anche un fisico ben poco oserebbe affermarlo; poiché è sempre risultato che con la scoperta di un nuovo campo di indagine della fisica sono diventate necessarie nuove leggi fisiche ... Si potrebbe formulare il problema nel senso che le leggi che reggono il processo vitale devono essere di tipo fisico. Ma che cos'è una legge di tipo fisico? Abbiamo avuto l'esperienza che ... la stessa fisica ha mutato il tipo delle sue leggi... Non si vede perché anche nell'indagine dell'organico non possa sopravvenire un simile cambiamento.» Se dunque, sia pure in una accezione epistemologicamente più moderna, la stessa concezione organicistica potrebbe essere definita meccanicistica, come si spiega l'accanimento di Bertalanffy contro il meccanicismo biologico tradizionale? Una delle ragioni di ciò va forse ravvisata nel fatto che la forma più importante di questo meccanicismo, identificabile con il darwinismo, portava con sé una implicita interpretazione materialistica della natura contro la quale Bertalanffy come gran parte della cultura tedesca si schierava con profonda convinzione. Proprio per superare questa concezione materialistica appariva molto importante anche per Bertalanffy la definizione della biologia come una scienza autonoma. Da questo punto di vista quindi più che insistere su una virtuale o futura riconducibilità delle leggi biologiche a quelle del mondo inorganico risultava importante elaborare in modo preciso un programma di rifondazione epistemologica e scientifica della biologia. Questo programma secondo l'autore doveva prendere l'avvio sul piano scientifico da due principi teorici generali. Il primo di questi principi afferma la conservazione del sistema organico in equilibrio dinamico e può considerarsi il risuli.ài.o di formulazioni più o meno precise dovute a vari autori fra cui Spencer, Fechner e Roux. Il secondo principio afferma che nell'organismo esiste un ordine gerarchico, cioè al disopra dei livelli inorganici, degli atomi e delle molecole vi sono livelli « organici » costituiti da componenti cellulari, cellule, organismi. Ciascuno di questi livelli organici possiede leggi sue proprie come quelli inorganici. Anche questo principio non risultava completamente nuovo. All'inizio del secolo esso era stato già indicato da Oskar Hertwig e più recentemente dall'inglese Woodger. Con la definizione di queste leggi o principi teorici generali
www.scribd.com/Baruhk
Biologia e filosofia
della biologia Bertalanffy ritiene di fondare lo studio dell'organizzazione del vivente come sistema, cioè come un « complesso di elementi in interazione ». Ma questa organizzazione che viene posta quale oggetto specifico della ricerca biologica non è l'organizzazione nascosta postulata nella teoria del plasma germinale o nella «meccanica dello sviluppo». È una organizzazione di processi o più precisamente di variabili osservabili; il che comportava l'allineamento della ricerca biologica all'ideale di scientificità della fisica fenomenologica che verso la fine dell'Ottocento si era opposta all'atomismo. In tal modo l'autore giunge sia pure implicitamente alla conclusione che i processi di finalità del vivente non richiedano più per essere spiegati una mieto-struttura nascosta e neppure un diretto riferimento al processo storico di sviluppo del plasma germinale, come aveva sostenuto il darwinismo con Weismann. Per questa nuova impostazione l'autore riconosce il recente contributo dato dalla teoria della forma di Kohler la quale «ha il grand~ merito di riconoscere che un'organizzazione di processi è possibile non solo sulla base di condizioni strutturali fisse ma può risultare dalla interazione clin<Jn1ica entro il sistema totale». Questa teoria così come le formulazioni di altri autori, quali il Fechner nell'Ottocento, hanno cioè il merito di aver suggerito la possibilità che la finalità organica possa costituire un caso particolare nel decorso eli un processo fisico verso uno stato di equilibrio. Questo programma di trattazione « sistemica » dell'organismo, con le implicazioni di carattere filosofico e scientifico sopra accennate, impegnò negli anni successivi l'attività di ricerca di Bertalanffy e portò ad alcuni risultati importanti anche per gli sviluppi più recenti della biologia. Fra questi risultati quello più significativo da un punto di vista teorico generale fu raggiunto dall'autore negli anni quaranta con la trattazione degli organismi come « sistemi aperti », nell'intento di sviluppare un'energetica generale dell'organico. Nei sistemi chiusi trattati sin'allora dalla cinetica chimica e dalla termodinamica classica la tendenza dei processi comporta un aumento di entropia; nei sistemi aperti in cui si ha invece uno scambio di sostanze materiali e di energia con l'ambiente i processi irreversibili in esso svolgentisi possono portare ad una produzione minima di entropia. In essi si può cioè avere con una diminuzione di entropia la transizione verso stati di maggior eterogeneità e complessità, il che costituisce una caratteristica fondamentale dei sistemi biologici. Inoltre, mentre un sistema chiuso tendendo ad un equilibrio stabile non può fornire lavoro, pn sistema aperto si trova in una sorta di equilibrio instabile, cioè in uno stato quasi stazionario che permette di fornire lavoro. Un esempio può essere quello di un serbatoio di acqua che pur contenendo una grande quantità di energia potenziale può fornire lavoro solo se si ha un continuo flusso verso il basso di acqua, cioè se il sistema è aperto ed è in stato non stabile ma di « equilibrio fluente». Un'altra caratteristica di un sistema aperto di grande importanza dal punto di vista biologico sarebbe quella della « equifinalità », per cui uno stato finale identico può essere raggiunto par-
www.scribd.com/Baruhk
Biologia e filosofia
tendo da stati iniziali differenti. Come afferma l'autore nella sua opera del 1949 Das biologische W'eltbild (L'immagine biologica del mondo) la « equifinalità è la conseguenza necessaria di processi che si compiono in sistemi aperti allorché essi raggiungono uno stato quasi stazionario. Dal momento che vi è in tali sistemi una immissione ed emissione, una composizione e demolizione di componenti materiali, lo stato semi-stazionario raggiunto alla fine non dipende dalle condizioni iniziali ma soltanto dai rapporti fra immissione ed emissione, composizione e demolizione ». La teoria dei sistemi aperti venne applicata anche a problemi più particolari della biologia, come l'accrescimento, il metabolismo, la morfogenesi, ma soprattutto costituì un punto di partenza per un nuovo importante indirizzo di ricerca fisica, la termodinamica dei processi irreversibili sviluppatasi negli ultimi trent'anni. Nel complesso il programma di Bertalanffy per una biologia organismica, capace di individuare esatte leggi biologiche di carattere generale trattando gli organismi come sistemi, non ha fornito tutti i risultati che l'autore poteva sperare. Come si vedrà più oltre le più importanti conquiste della biologia negli ultimi decenni si sono avute proprio a livello di quella struttura o organizzazione nascosta, che costituiva il campo di ricerca del meccanicismo con la teoria del plasma germinale di Weismann e contro la quale nei primi decenni del secolo si erano volte le varie concezioni organicistiche fra le quali quella stessa di Bertalanffy. Non sembra quindi casuale che dall'ultimo dopoguerra l'autore abbia progressivamente abbandonato il campo di ricerca biologico per un nuovo programma di indagine anch'esso suggestivo e non privo di interessanti sviluppi. Quello cioè della teoria generale dei sistemi che sviluppandosi su un piano logico-matematico cerca di stabilire le leggi generali valide per i sistemi più complessi ma anche più differenti, da quelli biologici, psicologici, sociologici a quelli di interesse tecnologico o puramente astratto. Anche da questo nuovo campo di indagine, a cui egli si è dedicato con la passione e l'impegno che caratterizzano la sua originale personalità, egli si attende una nuova unità nella concezione del mondo. Tale unità sembra però rispondere piuttosto all'ideale di una conoscenza matematico-pitagorica del mondo e non appare direttamente conciliabile con quella concezione dello sviluppo storico della natura, della vita e dell'uomo a cui hanno dato un contributo di grande rilievo le ricerche sulla genetica e la teoria dell'evoluzione degli ultimi decenni. Nello stesso periodo in cui Bertalanffy elaborava la sua concezione organismica, usciva in Inghilterra un'opera che per molti aspetti giungeva a conclusioni analoghe a quelle che il biologo austriaco doveva pubblicare nello scritto ricordato del 1932· L'opera porta come titolo Biologica! principles. A critica! stucfy (Principi biologici. Uno studio critico, 1929) e benché di notevole importanza epistemologica, per l'estensione e le difficoltà della trattazione, non ha trovato fra
www.scribd.com/Baruhk
Linee generali dello sviluppo delle scienze matematiche e fisico-chimiche nella seconda metà dell'Ottocento
:radicali :rivolgimenti ve:rificatisi nella disciplina in esame durante gli ultimi anni del secolo scorso e i primi del nostro: :rivolgimenti che fecero capo a due teorie il cui significato, non solo pe:r la scienza ma in generale pe:r la filosofia, non viene più contestato oggi da nessuno. Intendiamo :riferirei alla teoria della :relatività e alla fisica quantistica. Pu:r :rinviando in seguito il difficile compito di discutere, in tutta la loro ampiezza, il significato scientifico e le implicanze culturali di tali teorie, ci proponiamo di cominciare fin d'ora ad esporle (nelle loro grandi linee) proprio per po:rne in luce i profondi nessi con gli ultimi sviluppi della fisica classica. Ad esse dedicheremo i capitoli XIII e XIV della sezione ottava. II · LA MATEMATICA
Come si è accennato nel paragrafo precedente, qui ci limiteremo a fornire qualche :rapidissima notizia sugli sviluppi più tecnici della matematica, lasciando ad altri capitoli il compito di esporre con maggiore ampiezza i progressi conseguiti nel settore dei fondamenti e della cosiddetta « logica matematica ». È chiaro che furono proprio questi ultimi progressi ad avere le maggiori :ripercussioni nel campo della cultura filosofica, ed è ben comprensibile quindi che essi occupino un posto di speciale importanza nella nostra trattazione. Occorre tuttavia che il lettore tenga presente, almeno nelle sue linee generalissime, il panorama complessivo degli studi matematici, se non vuole farsi un'idea inadeguata di questo campo tanto importante del pensiero scientifico moderno. Non v'è dubbio che la gran maggioranza dei matematici della seconda metà dell'Ottocento ebbero in :realtà un interesse piuttosto scarso (o addirittura nullo) pe:r i problemi logici e pe:r i dibattiti concernenti la fondazione della lo:ro scienza; essi usavano sì, nelle proprie argomentazioni, un :rigore dimostrativo nuovo, totalmente sconosciuto ai grandi maestri del Settecento, ma non sentivano ancora -come si sente oggi -la necessità di precisare la natura di tale :rigore. Non pe:r questo la lo:ro opera può venire da noi sottovalutata o, peggio, passata sotto silenzio; ciò costituirebbe un'arbitraria amputazione del concetto di cultura, e un nuovo motivo di incomprensione t:ra il filosofo -impegnato in un esame generale delle categorie del conoscere - e il ve:ro e proprio scienziato. T:ra i grandi rami della matematica fu soprattutto l'analisi a conseguire, nell'epoca che stiamo esaminando, alcuni fondamentali progressi tecnici; questi ebbero un'importanza enorme e :riuscirono a fare della disciplina in esame un edificio grandioso ed armonico, giudicato dai contemporanei pressoché perfetto. Quando si pa:rla di « analisi classica » ci si suoi :riferire p:rop:rio ad esso, e si intende sottolineare- con l'aggettivo «classica»- che tale edificio :rappresenta una fase ben più matura e scientificamente valida di quella in certo senso fantasiosa e turbolenta del Settecento. x66
www.scribd.com/Baruhk
Linee generali dello sviluppo delle scienze matematiche e fisico-chimiche nella seconda metà dell'Ottocento
Il successivo trapasso dall'analisi classica alla cosiddetta analisi moderna fu contrassegnato da due notevolissimi eventi che nel presente paragrafo non prenderemo in considerazione: la creazione della teoria degli insiemi e il graduale riconoscimento - da parte dei matematici puri - della funzione essenziale spettante, nella loro scienza, alla vera e propria logica. Poiché si è deciso di rinviare ad un altro capitolo la trattazione di questi due argomenti, sarà opportuno rimandare ad esso anche l'esposizione delle ricerche sul concetto di numero che ne costituiscono la premessa diretta. Trattasi di temi che esigono un tecnicismo minore di quello richiesto dai capitoli specifici dell'analisi, e sarà quindi possibile esaminarli più in dettaglio. Qui ci limiteremo a indicare poco più che i titoli delle grandi branche dell'analisi classica (nel senso stretto del termine). Le pochissime parole che diremo intorno ad esse varranno comunque, per un lato, a fornire al lettore una qualche idea sulla vastità del mirabile edificio, per un altro lato, a fargli intravvedere le linee dì fondo, lungo le quali le stesse ricerche dell'analisi classica porteranno a quelle, assai più astratte, dell'analisi moderna. Come abbiamo or ora accennato, tutto il grande sviluppo dell'analisi nella seconda metà dell'Ottocento prese l'avvio dalla svolta in senso rigoristico operatasi qualche decennio prima in questa disciplina (ricordammo nel quarto volume che il merito di tale svolta risale a Gauss e ad Abel, ma soprattutto a Cauchy). In seguito ad essa, l'analisi non si accontentò più di ricavare il significato dei propri concetti da intuizioni più o meno vaghe della geometria o della meccanica (per esempio dall'intuizione di curva continua, di velocità, di accelerazione, ecc.), ma cercò di determinarlo con la massima cura mediante precise definizioni esenti da ogni possibile equivoco. Fu proprio questo nuovo impianto ciò che permise di compiere una trattazione davvero soddisfacente dei principali capitoli in cui il vasto argomento si era venuto articolando. Consideriamo, a titolo d'esempio, la teo:ria delle funzioni. Già sappiamo dal volume qua:rto che Cauchy aveva dato un importante contributo all'ampliamento di questo tema- centrale per tutta l'analisi - con la creazione della cosiddetta teo:ria delle funzioni di variabile complessa. O:rbene, nella seconda metà dell'Ottocento non si assiste solo a un mirabile sviluppo del nuovo capitolo, ma anche ad una rip:resa - su basi completamente :rinnovate - della vecchia teo:ria settecentesca delle funzioni di variabile :reale che, trattata in fo:rma :rigo:ristica, :rivela ben presto una fecondità pe:r l'innanzi imprevedibile. Allo studio delle due teorie contribuiscono tutti i maggiori analisti dell'epoca, e in particolare il tedesco Karl Weie:rstrass che occupa -nella storia dell'analisi durante la seçonda metà del secolo - una posizione dominante, analoga a quella che aveva occupato Cauchy nella p:rima metà di esso. 1 Accanto a lui vanno rico:r1
Per la biografia di Weierstrass rinviamo al capitolo xn del prossimo volume.
www.scribd.com/Baruhk
Biologia e filosofia
mente nell'analisi chimica dei processi, non può ignorare come il cibo giunga allo stomaco ed il fatto che in esso vi possa giungere un alimento piuttosto che un altro. Per quanto la chimica della digestione astragga usualmente da ciò, si tratta pur sempre di questioni biologiche che sono necessariamente inerenti ai processi della nutrizione. Un altro significato di spiegazione meccanica è costituito dall'interpretazione dell'organismo secondo l'analogia con una macchina costruita dall'uomo. La superiorità di questa concezione rispetto a quella precedente sta nel fatto che essa cerca di prendere in considerazione tutto l'organismo, in quanto una macchina costruita dall'uomo è un tutto, una singola cosa individuale. Essa presenta cioè la necessaria unitarietà che permette un'analogia con l'organismo vivente. « Se noi esaminiamo le teorie vitalistiche troviamo che anch'esse usualmente impiegano l'analogia con una macchina ma nel senso ... che la loro macchina ha un meccanico. I sostenitori del meccanicismo materialista cercano di avere una macchina ma senza un meccanico ed il loro problema è quello di mostrare come sia possibile avere una macchina che si produce, funziona, si ripara e regola da sola e alla fine si divide in due, senza un meccanico. » Se per Cartesio la teoria dell'organismo-macchina non presentava difficoltà poiché dio stesso era il meccanico che aveva creato tutte le macchine, per questi materialisti le difficoltà sono ben maggiori, poiché essi devono affrontare il problema dell'evoluzione di queste macchine e quindi della loro origine. Woodger è convinto che «abbandonando il realismo ingenuo ed il materialismo scientifico ci si possa trovare in una posizione migliore per cogliere ... l'organismo e lo sviluppo (sia dell'individuo che della specie), che presentano tante difficoltà dal punto di vista materialistico. E quando io parlo qui di materialismo,» continua l'autore, « ... intendo una teoria che crede che il mondo sia costituito di piccole masse dure, troppo piccole per essere viste ad occhio nudo, urtantesi l'un l'altra. È questa teoria che è così difficile riconciliare con le nozioni di organizzazione e di sviluppo e con i risultati della fisica moderna ». Per superare l'antitesi fra meccanicismo e vitalismo occorre dunque abbandonare i presupposti più o meno impliciti che sottendono il tradizionale atteggiamento degli scienziati e cercare di compiere uno sforzo metodologico per comprendere meglio il significato di ciò che si intende per « spiegazione in biologia» o meglio se sia possibile un'alternativa all'antitesi sopra ricordata, cioè una spiegazione puramente biologica. Si può dire in generale che una spiegazione comporta sempre un processo di analisi che ci porta a individuare delle entità poste fra loro in determinate relazioni; ad esempio l'analisi chimica stabilisce fra delle parti un rapporto di composizione chimica. In questo come in altri casi la spiegazione comporta inoltre il riferimento a qualcosa di già noto, per esempio ad entità ipotetiche non percepibili, come gli atomi. Ma tali entità ipotetiche non sono logica~~tente priori-
www.scribd.com/Baruhk
Biologia e filosofia
tarie rispetto a ciò che noi percepiamo nella realtà da esaminare. Quando ad esempio noi abbiamo spiegato certe proprietà dell'acqua mediante la formula H-0-H, « ciò che è venuto prima e ciò che noi realmente e indubitabilmente conosciamo al riguardo dell'acqua sono le sue varie proprietà, cioè la persistenza che esse manifestano nel flusso deg:i eventi. Ciò che è venuto dopo ed è stato inferito era la formula ipotetica per la sua composizione ». Le proprietà dell'acqua non spiegate dalla formula, o da altre enunciazioni fisico-chimiche, rimangono un fatto bruto irriducibiie ad ogni schema. In modo analogo in biologia l'uso di entità esplicative chimiche comporta una « astrazione dalle entità di un livello di organizzazione superiore a quello chimico ed in tal caso l'uso di nozioni chimiche non può essere esaustivo di questi livelli superiori ». Le molecole studiate cioè dal biochimico a ben vedere sono o parte di un'organizzazione gerarchica o artefatti. In conclusione «come le molecole hanno proprietà diverse da quelle degli atomi, così le parti organizzate dell'organismo che si autoriproducono hanno proprietà caratteristiche che possono essere scoperte solo studiando queste stesse parti, non le parti costituenti ». Da queste considerazioni risulta così di fondamentale importanza per lo studio del vivente il problema dell'organizzazione. I biologi hanno in genere trascurato questo aspetto fondamentale, a differenza dei fisici che si sono occupati, ad esempio nella cristallografia del quarzo, dell'organizzazione di livello superiore a quello chimico. I biologi dimostrano, secondo W oodger, di trascurare del tutto l'esistenza dei livelli di organizzazione interni alla cellula e a un vivente pluricellulare; ad esempio quando affermano, come fanno usualmente, che la cellula è l'unità della vita o che l 'organismo è un aggregato di cellule. Occorre in generale tener presente che « i cristalli sono solo un tipo di una larga classe di entità aventi organizzazione sopra il livello chimico, la quale include organismi viventi, macchine, e opere d'arte». Dimenticando questo principio di carattere generale, nell'analisi biologica si giunge a trascurare l'esistenza di relazioni non chimiche, cioè il fatto che « l'organismo è analizzabile in sistemi di organi, tessuti, parti di cellule. Vi è una gerarchia di parti componenti o "relata" in una gerarchia di relazioni organizzanti. Queste relazioni e i relata possono essere studiati solo al loro proprio livello e non semplicemente nei termini dei livelli inferiori poiché questi non costituiscono le unità della relazione». Partendo poi dall'idea generale che un'organizzazione è «una cosa individuale durevole avente parti» ne risulta la necessità di prendere in considerazione per questa organizzazione non soltanto una gerarchia spaziale di livelli ma anche la sua dimensione temporale. Da un punto di vista filosofico egli sostiene infatti che gli « oggetti esistono nel regno della conoscenza e che nel regno della natura "esistono letteralmente" soltanto storie con le loro qualità». L'organizzazione del vivente comporta dunque un cambiamento continuo; esso è par-
www.scribd.com/Baruhk
Biologia e filosofia
zialmente e temporalmente differenziato, cioè « la differenziazione temporale i: seriale, irreversibile o non ritmica, anche se parti spaziali possono mostrare cambiamenti ritmici. Nel suo sviluppo temporale il vivente compie una continua elaborazione, termine con il quale si può identificare ogni processo in cui nuove parti o nuovi modi di caratterizzazione si producono nel corso della storia dell' organismo ». Esempi ne sono la sintesi organica, la divisione, la differenziazione intra ed inter-cellulare. A questo punto l'autore può svolgere alcune importanti osservazioni sul problema del tutto e delle parti mostrando quanto eccessiva fosse l'importanza che ad esso attribuivano quasi tutti i sostenitori dell'organicismo. Egli osserva che da un punto di vista biologico «un tutto è capace di un'esistenza indipendente, non sta cioè in una relazione organica quale parte di un tutto più complesso (eccetto il caso di organismi sociali) ma ha naturalmente un ambiente che è inorganico e con cui le relazioni sono in larga misura contingenti». Il carattere più importante delle mutue rehzioni fra le parti costituenti un organismo è il fatto che « queste relazioni sono relazioni interne così che le proprietà di una parte sono differenti quando questa è collocata nella gerarchia organica da quando essa è rimossa da esse». Queste relazioni interne sono caratterizzate dal fatto di non essere « contingenti come le relazioni del tutto rispetto al suo ambiente organico». Woodger svuota così, muovendosi su un terreno di analisi metodologica, gli atteggiamenti più radicali dell'organicismo di ]. S. Haldane e E. S. Kussell. Nella sua opera egli si propone esplicitamente di mostrare i limiti del tradizionale meccanicismo metodologico e di rivendicare l'importanza dello studio dell'organizzazione. Se nella ricerca biologica si privilegia in modo esclusivo il metodo fisico-chimico si rischia infatti di non cogliere delle leggi importanti dei processi organici; e a questo proposito egli osserva giustamente: « Cosa avrebbe ottenuto Mendel se, trattando l'ibridazione, fosse partito dall'assunto che le nozioni puramente biologiche erano irrilevanti o improprie ed avesse formulato qualche vaga e non controllabile supposizione sulla natura fisico-chimica delle cellule germinali?» Woodger non tende come Bertalanffy alla fondazione di una biologia autonoma ma vuole soprattutto esporre « le ragioni per cui è desiderabile che qualche biologo dedichi la propria attenzione allo sviluppo di un modo biologico di pensare », diverso da quello puramente fisicochimico. Egli non può tuttavia sottrarsi alla questione cruciale se i concetti puramente biologici ancora usati nella neurologia, nell'embriologia e nella genetica verranno sost; tuiti da concetti puramente fisico-chimici. Ma a questa domanda si limita sobriamente a rispondere: a•;petta e vedi. Pur mostrando questo atteggiamento prudenziale egli non manca tuttavia di avanzare delle precise riserve per quanto riguarda una spiegazione meccanicistica del processo della evoluzione biologica. Se si deve ammettere che questa si è realizzata mediante un aumento di organizzazione si deve anche riconoscere
170
www.scribd.com/Baruhk
Biologia e filosofia
che l'unico aumento di questo tipo da noi effettivamente conosciuto è solo quello a livello dell'organizzazione cellulare nello sviluppo dell'embrione. I cambiamenti studiati dalla genetica non costituiscono infatti secondo Woodger un aumento di organizzazione, ma solo una variazione nella caratterizzazione delle proprietà osservabili nei viventi. Egli ritiene inoltre che non si possano considerare i geni come i componenti fondamentali dell'organismo, allo stesso modo in cui le particelle fisiche compongono un corpo. Non potrà perciò essere una diversa organizzazione dei geni quella che potrà spiegare l'aumento di organizzazione evolutiva. Essi non possono poi identificarsi con molecole chimiche, poiché possiedono la proprietà di riprodursi e « sembrano essere organismi viventi in miniatura ». Più che essere considerati gli elementi ultimi dell'organizzazione biologica essi dovranno piuttosto essere concepiti come gruppi di atomi aventi fra loro un'organizzazione. W oodger ritiene in ogni caso che i geni siano entità postulate per interpretare i rapporti statistici delle leggi mendeliane, entità che non sembra possano inserirsi nel processo embrionale. Ritiene cioè che i geni siano portatori di caratteri stabili e fissi, siano il risultato di un processo spazio-temporale di organizzazione delle parti organiche, ma non le parti coinvolte in questo processo di organizzazione, quale noi osserviamo nello sviluppo embrionale e dobbiamo supporre in quello storico dell'evoluzione. I geni sono pertanto una sorta di cristallizzazione di un processo continuo, quello appunto dell'organizzazione dell'attività vitale che risulta essere una realtà ultima. Senza soffermarci sulla complessa analisi del problema genetico ed embriologico svolto dall'autore, ci limiteremo a ricordare come essa gli venga ispirata ancora dalla filosofia di Whitehead. Egli infatti fa propria la concezione di questo filosofo quando in Scienza e mondo moderno afferma: « La sostanza originaria od il materiale, da cui muove una filosofia materialistica è incapace di evoluzione. Questo materiale è per se stesso la sostanza ultima. L'evoluzione, secondo la teoria materialistica, è ridotta al ruolo di essere un'altra parola per la ù..:c~crizione dei cambiamenti delle relazioni esterne fra porzioni di materia. Ma non vi è niente che si evolva poiché un insieme di relazioni esterne è altrettanto valido di un altro insieme di relazioni esterne. Vi può essere solo cambiamento, senza scopo e senza progresso, ma il punto centrale della dottrina moderna è l'evoluzione di organismi complessi da stati antecedenti di organismi meno complessi. La dottrina proclama apertamente una concezione dell'organismo come fondamentale per la natura. Essa pure richiede un'attività sottostante un'attività sostanziale - esprimentesi nell'incorporamento individuale ed evolventesi negli aspetti dell'organismo. » W oodger appare perciò convinto che la nozione di particella materiale, come viene intesa comunemente dagli scienziati, non può costituire la «parte» che entra nelle relazioni di organizzazione crescente del processo evolutivo:
www.scribd.com/Baruhk
Biologia e filosofia
« Una cosa materiale persistente, » egli afferma, « ... offre poco aiuto per interpretare l'evoluzione, è per se stessa, secondo il professar Whitehead, un fatto arbitrario alla base dell'ordine della natura. Ma se voi trasformate il vostro problema in un postulato, assumendo l'evoluzione come fondamentale, come un processo in cui i modi di persistenza sono progressivamente raggiunti, allora la cosa materiale persistente è per se stessa interpretata come il risultato di un'evoluzione e non è più un fatto arbitrario ». In conclusione il rifiuto di concepire il processo evolutivo come il risultato dell'organizzarsi di particelle materiali ultime, costituisce per Woodger una conseguenza del rifiuto del materialismo meccanicistico ai cui sostenitori egli rimprovera «la tendenza a dimenticare l'esistenza dell'astrazione, ad assumere gli astratti come concreti e a supporre che essi siano esaustivi ». L'indagine epistemologica del nostro autore, svolta nell'opera ora esaminata movendo dalla tematica dell'astrazione, lo condusse negli anni successivi a compiere un'originale analisi logico-formale dei concetti della biologia. Nell'opera The axiomatic method in biology (Il metodo assiomatico nella biologia, 1937) egli estende la teoria dei tipi di Russell ai problemi della genetica, dell'embriologia e della classificazione formalizzando la struttura a livelli delle entità biologiche. In un'opera successiva e più conosciuta BiolOJ!,Y and language (Biologia e linguaggio, 1952), egli si dedica ad una ricostruzione del linguaggio della genetica formulando in modo simbolico il procedimento inverso dai dati di osservazione ai livelli più alti della teoria. Questi più recenti contributi dell'autore sono stati per ora apprezzati più dai logici che non dai biologi. In effetti quella grave situazione di crisi della biologia degli anni venti da cui era nata la riflessione epistemologica del nostro autore, così come quella di altri, doveva gradualmente risolversi negli anni successivi con l'affermarsi della genetica e della biologia molecolare, che sostanzialmente confermavano la validità della concezione darwiniana soddisfacendo anche alcune esigenze di base espresse dall' organicismo. Per questi motivi il contributo epistemologico più importante di Woodger ci sembra legato ai già ricordati Principi biologici del 1929, scritto che, pur essendo limitato all'ambiente culturale anglosassone, rappresenta forse l'opera più importante nel dibattito apertosi all'inizio del secolo e destinato in buona parte ad esaurirsi negli anni trenta. L'autore non solo fornisce con questo scritto un apporto esemplare di chiarificazione linguistica su alcune formulazioni biologiche di carattere generale, ma approfondendo la tematica dell'astrazione giunge a superare la contrapposizione delle relazioni interne e delle relazioni esterne di origine neo-hegeliana sulla cui base J. S. Haldane ed E. S. Russell erano giunti a negare la possibilità di una compiuta conoscenza concettuale della vita. In tal modo anche il problema del tutto e delle parti viene a perdere l'enfasi con cui era stato posto nel periodo precedente, risolvendosi nel problema dell'organiz-
www.scribd.com/Baruhk
Biologia e filosofia
zazione, in cui la struttura a livelli e la sequenza seriale delle parti possono essere affrontate nei termini di una «descrizione definitoria» o anche di una trattazione formale delle relazioni fra le parti stesse. Un particolare rilievo al concetto di organizzazione era stato dato, in collaborazione con lo stesso Woodger, anche da Bertalanffy, il quale lo poneva ambiziosamente alla base di una fondazione della biologia come scienza autonoma. L'autore austriaco tuttavia, per influenza specialmente di Kohler, interpretò questo tema soprattutto nei termini di « sistema organico capace di autoconservazione». Questa interpretazione ebbe fecondi sviluppi nell'ambito della !ermodinamica dei processi biologici, ma rimaneva ancora legata ad un tradizionale fenomenismo fisico per il quale le variabili di un sistema organizzato dovevano di preferenza essere variabili osservabili e non entità ipotetiche. Ma proprio le entità ipotetiche che la genetica andava studiando, cioè i geni, tra gli anni venti e trenta, dovevano dimostrarsi delle microstrutture materiali realmente presenti nell'organizzazione della cellula. Il concetto di organizzazione come struttura a livelli sviluppato da Woodger poteva così, malgrado le esitazioni dell'autore, costituire una indicazione sostanzialmente più valida per le nuove indagini genetiche e chimiche della cellula. Il concetto di organizzazione proposto invece da Bertalanffy, così come il generale atteggiamento di fenomenismo fisico ancora diffuso nella cultura tedesca, dovevano portare ad una sottovalutazione delle sopraindicate ricerche genetiche e biochimiche. IX · DALL'ORGANICISMO AL MATERIALISMO DIALETTICO
L'opera epistemologica di Woodger esprimeva chiaramente il superamento dell'idealismo e del fenomenismo compiutosi nella cultura inglese nei primi decenni del secolo e si pronunciava apertamente per una concezione realistica della conoscenza naturale. Ma egli rifiutava di identificare il suo realismo con il materialismo, poiché questo nei termini di Whitehead comportava una concretizzazione malposta, cioè il privilegiare un particolare tipo di astrazione, quello della meccanica classica, che concepiva la materia come una realtà ultima occupante spazio, impenetrabile, immutevole. La realtà ultima doveva invece essere concepita come una « attività nascosta », un processo fluente che si concretizza nell'apparenza delle cose durevoli. Senza voler entrare nella complessa discussione metafisica che portava Whitehead a negare il materialismo, si può osservare che difficilmente nella ricerca concettuale di un elemento ultimo per comprendere la n!J.tura, si sfugge ad un processo astrattivo; e quindi alle contraddizioni che inevitabilmente sorgono con gli altri successivi processi astrattivi che l'analisi scientifica continuamente ci impone in questa ricerca. Queste considerazioni che· potevano indicare un passaggio dal realismo non materialistico di Woodger al materialismo dialettico non furono chiaramente
173
www.scribd.com/Baruhk
Biologia e filosofia
sviluppate ma risultarono implicite nell'accettazione che alcuni biologi inglesi fecero del materialismo dialettico rifacendosi proprio all'organicismo di questo autore. Vogliamo parlare in particolare dell'illustre biochimico ed embriologo di Cambridge Joseph Needham. Questi giunse al marxismo dopo una fase di sostanziale agnosticismo filosofico espresso in una serie di brillanti saggi raccolti nel 1929 in un libro che portava come titolo The sceptical biologist (Il biologo scettico). In tali saggi l'autore esprime la convinzione che la pretesa, avanzata verso la fine del secolo scorso, che la conoscenza scientifica di tipo meccanicistico possa costituire un sapere incontrovertibile e oggettivo rispetto ad ogni altra forma di conoscenza filosofica e religiosa si è dimostrata un sogno. Ciò non toglie che nell'ambito della biologia l'atteggiamento meccanicistico debba essere considerato l'unico scientificamente valido. Ciò che ad esso si oppone, come l'organicismo di J.S. Haldane, non può essere- secondo Needham- considerato dal punto di vista della scienza ma si colloca su un piano filosofico. Anche l'idea di finalità, come quella di organismo, ricade nello stesso ambito della filosofia. « La finalità non è un concetto metrico; nessuna scala metrica è stata ancora proposta per lo sforzo di una blastula per crescere in un pulcino; la causa finale, per quanto interessante sia il suo operare per il filosofo, non può essere espressa in un linguaggio intelligibile per il lavoratore scientifico. » In sostanza Needham pone un confine invalicabile fra scienza e filosofia, ciascuna autonoma nel proprio ambito. «La visione scientifica del mondo ed il metodo d'astrazione col quale si giunge ad essa è un modo autonomo e autentico di trattare ciò che è reale nel mondo in cui viviamo; essa non è uno strumento di pura utilità pratica, né è d'altro lato una filosofia, ancor meno la vera filosofia. Non è un'arte, non è una religione, non è una storia, non è una filosofia; è qualcosa di differente da tutte queste, è una speciale parte ed attività dello spirito umano. » La convinzione che il discorso scientifico sia del tutto estraneo alla temadca proposta dalla stessa critica filosofica della scienza viene però abbandonata da Needham, insieme alla sua rigida concezione meccanicistica, dopo un'attenta considerazione dell'opera di Woodger del 1929 e degli scritti di von Bertalanffy. In un articolo del I 9 32 pubblicato sulla rivista italiana« Scientia » egli, come aveva sostenuto Eugenio Rignano fondatore della stessa rivista, ammette la necessità di una riflessione teorica sulla scienza che ponga ordine nella massa confusa di dati sperimentali che si vengono accumulando; « noi corriamo... il grande pericolo di essere così fortemente impegnati nella ricerca di nuovi fatti che non ci resta più un momento per riflettere su ciò che già possediamo ». A differenza della fisica la biologia lavora ancora secondo un'impostazione concettuale ottocentesca e per superare le vecchie difficoltà sembra che un nuovo terreno di indagine debba essere costituito dal concetto di organizzazione. Bertalanffy e W oodger indicano la necessità di ritrovare in che consista l'organizzazione e ciò che sono nella loro essenza le relazioni organizzatrici. « L'organizzazione sola, 174
www.scribd.com/Baruhk
Biologia e filosofia
non lo si ripeterà mai troppo, non è una spiegazione; è il problema più attraente e più difficile della biologia. Un giorno esso si unirà alla fisica dello spazio e del tempo. » Nell'opera Order and !ife (Ordine e vita, I 9 36) egli riconosce che: « Il durevole merito che ha avuto il vitalismo ... è stato quello di attrarre continuamente l'attenzione sulla reale complessità dei fenomeni; e di opporsi alla tendenza così comune presso i meccanicisti, di avanzare ipotesi semplicistiche. » «Io stesso, » afferma, « un tempo sostenevo opinioni che, sebbene molto differenti dal vitalismo ... portavano alle stesse conclusioni. Io consideravo la natura della organizzazione biologica come un problema puramente filosofico e lo escludevo dalla biologia scientifica». Ora il punto di vista dell'organicismo che si propone di studiare in modo autonomo i vari livelli o i componenti complessi dell'organismo, senza escludere che essi possano tradursi in termini fisico-chimici, è assai simile a quello del materialismo dialettico, concezione che, egli rileva, sebbene ampiamente applicata in URSS alla biologia, non ha avuto influenza nella cultura scientifica occidentale. Il materialismo dialettico, secondo quanto nel 1931 aveva affermato in un congresso internazionale B. Zavadovsky, « affermando l'unità dell'universo da una parte e dall'altra la multiformità qualitativa delle sue espressioni in differenti forme di moto della materia » ritiene « necessario rinunciare, sia alla semplicistica riduzione di alcune scienze in altre, sia ad una netta demarcazione tra le scienze fisiche, biologiche e storico-sociali ». Nel seguito del suo libro Needham mette in rilievo come in uno studio biochimico dei processi di sviluppo embrionale i rapporti di organizzazione si riscontrano dal livello molecolare a quello anatomico, per cui si deve ammettere che «l'ordine biologico, simile all'ordine cristallino, è una conseguenza naturale delle proprietà della materia ed un modo caratteristico della loro manifestazione ». Egli si dichiara inoltre d'accordo nell'ammettere con K. Sapper che «il qualitativamente nuovo nella struttura deriva si dalle proprietà degli elementi che vi partecipano, ma che alcune di queste proprietà possono effettivamente operare in congiunzione con certi specifici stati di complessità ». Il materialismo dialettico per Needham non rappresentava tuttavia solo un modo più generale e più comprensivo di intendere le esigenze scientificamente accettabili dell'organicismo. Esso rappresentava anche la condizione di continuità fra lo studio scientifico della natura ed una comprensione razionale dello sviluppo storico della società quale veniva proposto dal marxismo. Ed a questa concezione aderivano in Inghilterra negli anni trenta diversi studiosi spinti dall'esigenza di assumere un atteggiamento di responsabilità politica di fronte all'affermazione del fascismo in Italia ed in Germania e alla dura guerra per la difesa della democrazia in Spagna. Questo atteggiamento risulta molto chiaramente in un successivo scritto del nostro autore, Integrative leve/s. _A reva!uation of the idea of progress (Livelli integrativi. Una riva!utazione dell'idea di progresso, 1937),
175
www.scribd.com/Baruhk
Biologia e filosofia
nel quale egli svolge sostanzialmente un confronto fra il marxismo e la filosofia evoluzionistica di Spencer. L'esistenza di livelli di organizzazione nell'universo, di successive forme di ordine in una scala di complessità crescenti è ormai universalmente accettata. « Un netto cambiamento del liv":llo di organizzazione spesso significa che ciò che erano delle totalità ad un livello inferiore diventano parti a quello nuovo, ad esempio cristalli proteici nelle cellule, cellule negli organismi metazoici, e organismi metazoici nelle unità sociali.» L'esistenza delle relazioni di organizzazione, non rappresentano più oggi un aspetto misterioso, da affrontare in termini animistici simili a quelli proposti dal fisiologo J. S. Haldane, ma possono essere affrontati nella biologia a livello scientifico (come egli ha mostrato nella sua precedente opera Ordine e vita). D'altra parte le leggi dei livelli di organizzazione « non sono probabilmente riducibili alle leggi che reggono il comportamento di un livello di complessità inferiore. Sarebbe corretto dire che il vivente differisce dal non vivente di grado e non di genere poiché è su un piano superiore di complessità di organizzazione, ma sarebbe anche corretto dire che esso differisce di genere dal momento che le leggi di questa organizzazione superiore operano soltanto a questo livello. Se lo spazio permettesse un esame più preciso si potrebbero trovare in questo campo dei buoni esempi della concezione hegeliana del passaggio della quantità nella qualità ». La tesi che l'ordine biologico è comprensibile in base all'ordine inorganico, ma nello stesso tempo differente da esso, è dunque il punto di convergenza fra organicismo e materialismo dialettico. « Questa filosofia da Lenin è stata denominata la teoria più profonda dell'evoluzione biologica, la teoria delle trasformazioni della natura e dell'origine del qualitativamente nuovo, in realtà, la metodologia naturale della scienza stessa. È stato sorprendente, » continua il Needham, « scoprire che le sue conclusioni in un punto di massimo interesse per il biochimico, il significato della transizione dal non-vivente a vivente, tendono a coincidere con quello che questi ha elaborato indipendentemente seguendo onestamente le indicazioni del senso comune scientifico. » E cioè che attraverso un decorso temporale «nello sviluppo dell'organismo individuale come in quello dell'organismo in generale il progresso si è sviluppato da una complessità inferiore ad una superiore, da una organizzazione più bassa ad una più alta». Questa idea di progresso nello sviluppo storico della natura è presente anche nel pensiero di Spencer in cui alcuni concetti, come «integrazione della materia» nello svolgimento evolutivo, per molti aspetti coincidono con la nostra idea di successivi livelli di organizzazione. Ma l'idea di progresso nella società si ferma per Spencer all'ideale di sviluppo della particolare classe borghese a cui egli apparteneva, senza vedere che « lo stesso carattere predatorio che egli descriveva nelle società primitive ... saturava anche le società più altamente sviluppate che 176
www.scribd.com/Baruhk
Teorie
l Generazione
Il Generazione
dell'ereditarietà dei caratteri acquisiti
111 Generazione
...
Schemi che rappresentano opposte concezioni dell'ereditarietà; quella lamarckiana che ammette la trasmissione dei caratteri acquisiti e quella Jveissmanniana che la nega: illustrazioni da The facts of !ife (Londra 1953) di C. D. Darlington.
egli chiamava di tipo industriale». Molto più coerente e compiuta è invece l'idea di progresso dal punto di vista del materialismo dialettico secondo il quale non sarebbe forse eccessivamente azzardato dire che «la transizione dall'individualismo alla comune proprietà delle risorse produttive del mondo da parte dell'umanità è un passo simile per sua natura alla transizione dalla proteina alla cellula vivente, o dal primitivo stato selvaggio alla prima comunità, essendo così chiara la continuità fra ordine organico, biologico e sociale ». In questo saggio Needham non vede dunque nel materialismo dialettico solo una concezione generale della natura che permette di interpretare i risultati scientifici che conducono all'organicismo, ma anche una comprensione dello sviluppo sociale in cui l'idea di progresso possa trovare una base obiettiva nella continuità fra il mondo della natura e quello della storia umana. Un impegno più ampio nei riguardi del materialismo dialettico possiamo trovare in uno dei maggiori biologi inglesi del nostro secolo, J. B. S. Haldane (I 89z- 1964), figlio dell'illustre fisiologo di cui si è a lungo parlato nelle pagine precedenti. Alla sua formazione iniziale nel campo della fisiologia e della biochimica egli seppe unire una notevole preparazione di tipo matematico e genetico che gli permise di dare contributi scientifici di primissimo ordine in diversi campi di specializzazione biologica. Fu insieme al russo Oparin fra i primi ad affrontare nei termini della biochimica più moderna il problema dell'origine della vita che è giunto ai nostri giorni a costituire un settore universalmente riconosciuto di rigorosa indagine teorica e sperimentale. Oltre a ciò si possono ricordare i suoi fondamentali studi matematici sulla genetica della popolazione che condussero dopo gli anni trenta ad una rivalutazione scientifica del problema dell'evoluzione dal punto di vista della selezione naturale formulato da Darwin.
177
www.scribd.com/Baruhk
Biologia e filosofia
Già questo tipo di contributi scientifici indicano chiaramente come la sua attività fosse animata fin dall'inizio da un preciso interesse per una interpretazione materialistica dei fenomeni naturali e per una lotta politico-culturale in suo favore. Egli appartenne infatti dal 1924 alla Rationalist Press Association e si iscrisse poi, convintosi della validità del marxismo, al Partito comunista inglese nel r 9 37. La sua attività giornalistica di carattere scientifico e politico fu enorme. Più di trecento articoli uscirono sul « Daily worker », il quotidiano del suo partito che egli lasciò nel 1948; quando cioè il partito comunista sovietico sostenne ufficialmente il lamarckismo di Lysenko mettendo al bando tutta la genetica mendeliana che aveva respinto la teoria della eredità dei caratteri acquisiti. Lo scritto più impegnativo da lui dedicato al materialismo dialettico è The tnarxist philosophy and the sciences (La filosofia marxista e le scienze, 1938). «Un marxista non deve temere troppo di compiere errori, » egli scrive nella prefazione di quest'opera, che si pone il compito ambizioso, ma anche polemico di una analisi di tutte le scienze alla luce dei principi materialistici enunciati da Marx, Engels e Lenin. Il marxismo non pretende di essere una conoscenza definitiva della realtà: «Il massimo che un marxista può dire a favore del marxismo è che esso è la migliore e più vera filosofia che può essere stata prodotta nelle condizioni sociali del xrx secolo.» Il marxismo non manca di un aspetto teorico-sistematico, ma i particolari della sua teoria risultano dall'applicazione del suo metodo alle situazioni concrete. « Esso non postula nulla dietro la materia e perciò abbandona la metafisica. Esso certamente postula una inesauribile riserva di proprietà della materia ma non più di ciò.» Come afferma Lenin: «È perciò totalmente assurdo che il materialismo debba sostenere la realtà "inferiore" della coscienza o debba necessariamente aderire ad una "visione meccanicistica del mondo" secondo una materia in movimento, e non ad una elettromagnetica o anche a qualcuna estremamente più complicata. » Diversamente da Needham egli affronta con coraggio e spregiudicatezza il problema della dialettica. « La dialettica che è un'unità appare come una collezione di regole a lume di naso, l'una o l'altra delle quali viene applicata ovunque è possibile.» Questo punto di vista di cui sono responsabili anche autori sovietici, egli spera possa essere dissipato anche dalla sua opera. « Se non è così,» egli afferma, «)a colpa è tutta mia non di Marx, Engels e Lenin. » Ci soffermeremo solo su uno. dei tanti problemi scientifici che egli considera dal punto di vista, ad esempio, di uno dei principi della dialettica: quello della unità degli opposti. Si tratta del problema se un vivente possa essere considerato una macchina. Egli concorda con la soluzione data dagli organicisti secondo cui i viventi possiedono una unità che non si trova in una macchina, ma ritiene che sia possibile chiarire meglio questo problema partendo proprio dall'accennato principio della dialettica. Si può cominciare col definire una macchina come un tutto, il cui comportamento può essere completamente spiegato mediante le proprietà individuali
www.scribd.com/Baruhk
Biologia e filosof-ia
delle parti e nel quale in genere ognuna di queste parti può essere sostituita. Da un certo punto di vista si può inoltre dire che l'opposto di una macchina è un individuo, nel senso etimologico di ciò che non può essere diviso. « Ora è probabile, » egli afferma, « che dal punto di vista della moderna teoria fisica sia una macchina che un individuo siano delle astrazioni. Non esiste una cosa al cento per cento macchina o al cento per cento individuo, poiché noi non possiamo attualmente isolare nessun sistema completamente dal resto dell'universo. Perciò anche se la nostra conoscenza di una cosiddetta macchina è sufficientemente accurata, vi sarà sempre qualcosa di non spiegato mediante le proprietà interne del sistema che noi stiamo studiando ». Allo stesso modo si può dire che un individuo vivente non è al cento per cento indivisibile, infatti qualcuna delle sue parti può essere sostituita ed esso stesso può essere diviso nei primi stadi embrionali. Si può anzi dire che per il complesso degli organismi vi è un progresso verso una individualità più completa sia nello sviluppo embrionale che in quello della specie. « Questo, » egli conclude, « è il tipo di aiuto che voi potete ottenere una volta che ammettiate che queste affermazioni apparentemente opposte abbiano in se stesse un certo senso.» Nell'opera citata Haldane cerca in sostanza di mostrare, senza eccessive forzature, come i principi della dialettica siano presenti nel procedere scientifico e nei processi naturali malgrado di essi, nel senso comune che accompagna il lavoro scientifico, non vi sia una chiara consapevolezza. L'interesse di quest'opera è quindi molto più nella concretezza e nell'analisi critica dei vari problemi che egli affronta che non in un approfondimento filosofico generale del problema del materialismo dialettico. X · LA GENETICA E LA STRUTTURA MATERIALE DEL «GENE»
Il ritorno al materialismo scientifico verificatosi con alcuni dei maggiori biologi inglesi negli anni trenta non rappresentava soltanto un incontro fra filosofia marxista ed una impostazione dell'organicismo sviluppatosi in un clima filosofico più favorevole al realismo e a un'analisi critica della scienza. Tale ritorno si basava in modo essenziale sulle importanti conquiste ottenute in campo scientifico soprattutto con gli studi della genetica sul problema dell'eredità. Queste ricerche, accresciutesi in modo enorme dali 'inizio del secolo, hanno costituito il terreno più fecondo di risultati teorici per tutta la biologia, riscattandola dalla crisi dei primi decenni del secolo e permettendo specialmente nel periodo più recente una unificazione di diversi indirizzi di ricerca che apparivano completamente separati. Come il concetto di molecola ha costituito nell'ultimo Ottocento il punto di unificazione tra meccanica e termodinamica (con la teoria cinetica dei gas) e 1 79
www.scribd.com/Baruhk
Biologia e filosofia
successivamente fra fisica e chimica, così si può forse affermare che il concetto di gene in biologia ha costituito il punto di unificazione fra morfologia, sistematica, teoria dell'evoluzione da un lato e lo studio fisico-chimico e fisiologico del vivente dall'altro. Questi risultati hanno significato sul piano scientifico-filosofico, anche una sostanziale convalida del materialismo o del meccanicismo biologico che alla fine dell'Ottocento assumeva la sua forma più coerente con la concezione evoluzionistica neodarwiniana di Weismann e di altri autori. La genetica ha infatti permesso già negli anni trenta di riconoscere la validità della concezione sostenuta da Weismann di un'organizzazione nascosta nella struttura dei cromosomi, che questo autore insieme ad altri aveva formulato in via prevalentemente deduttiva, per spiegare soprattutto lo sviluppo embrionale, l'insorgenza di nuove variazioni oltre la trasmissione dei caratteri ereditari. Negli stessi anni con alcuni sviluppi matematici della genetica si è potuto iniziare anche una sostanziale convalida della teoria evoluzionistica della selezione naturale e più recentemente si è raggiunta una precisa conoscenza della struttura chimico-fisica elementare della materia vivente. I principi teorici fondamentali della genetica sono contenuti in una memoria, Versuche iiber Planzenf?ybriden(Ricerche su ibridi di piante).pubblicata nel I866 dall'abate Gregor Mendel (I822-I884) e rimasta sconosciuta fino all'inizio del nostro secolo. L'autore, che aveva una buona preparazione matematica e biologica, trascorse la sua vita nel convento di Brno in Boemia dedicandosi nelle ore libere a studi naturalistici, tra cui l'ibridazione delle piante. Queste ultime ricerche furono fondamentali per la biologia moderna. Uno degli aspetti più geniali, nell'analizzare gli effetti degli incroci, fu - da parte di Mendel - la scelta di caratteri appaiati e contrastanti, presenti in modo stabile in piante della stessa specie ed il calcolo statistico della distribuzione di questi caratteri nelle successive generazioni. Fecondando ad esempio piante di piselli a semi lisci con il polline di piante a semi rugosi risultavano nella prima generazione (F1) tutti i piselli a semi lisci, cioè la manifestazione di uno solo dei due caratteri che Mendel chiamò dominante. Lasciando poi riprodurre per autofecondazione i semi ibridi così ottenuti riscontrò nella successiva generazione (F2) la ricomparsa del carattere rugoso (recessivo) in I /4 dei piselli e di quello liscio (dominante) nei restanti 3/4, secondo un rapporto I : 3. Con questi ultimi piselli a seme liscio ottenne poi una successiva generazione (Fa) nella quale si aveva I /4 di piselli lisci che manteneva costante il carattere nella sua discendenza, I /4 di piselli rugosi che si comportava allo stesso modo ed infine 2/4, cioè la metà, che si presentava con il carattere dominante liscio, ma nelle successive generazioni si separava di nuovo nei due opposti caratteri esattamente come quelli della generazione F 2 . Riassumendo Mendel affermava che «gli ibridi formano semi aventi l'uno o l'altro dei due caratteri contrastanti e di questi una metà sviluppa di nuovo la forma ibrida, r8o
www.scribd.com/Baruhk
Biologia e filosofia
mentre l'altra metà fornisce piante che rimangono costanti e conservano i caratteri dominanti e quelli recessivi in parti uguali». Si comportano cioè secondo il rapporto 2 : I : I (o anche I : 2 : I). Analizzando poi l'ibridazione di piante aventi più coppie di caratteri contrastanti concluse che ciascuna coppia si comportava in modo indipendente dalle altre seguendo la stessa regola di distribuzione della prima coppia. Mendel rilevò in primo luogo, da questi esperimenti, la non fusione cioè l'indipendenza dei caratteri nelle cellule germinali. Nell'ibrido liscio rugoso (F1) esistono pari potenzialità per il carattere liscio dominante (A) e per quello rugoso recessivo (a) sia nelle cellule maschili sia in quelle femminili. Quando queste si uniscono si devono avere quattro combinazioni AA, Aa, aA, aa; ciò spiega la proporzione tra i caratteri che appaiono nella generazione Fz , cioè il rapporto 3 : I. Le due combinazioni AA ed aa non variano più ma rimangono costanti mentre quelle con il doppio carattere Aa possono costantemente riprodurre le stesse quattro possibilità come si realizzava nella generazione F3 . Si poteva così concludere che ognuno dei caratteri contrastanti poteva separarsi o segregarsi in cellule germinali differenti e che per ogni altro paio di caratteri questa segregazione era indipendente da quella degli altri. Lo stesso Mendel interpretò questo comportamento statistico formulando anche l'ipotesi che a ciascun carattere osservato corrispondesse un elemento contenuto nelle cellule riproduttive e che questi elementi possono collegarsi in modo durevole o provvisorio negli organismi discendenti senza venire alterati. Egli non riuscì tuttavia a richiamare l'attenzione del grande botanico Niigeli sull'importanza delle sue indagini benché ormai molto diffusa fosse l'idea che gli organismi dovevano essere costituiti da unità biologiche elementari. Questa idea non era però ancora collegata ad alcuna ipotesi precisa sul comportamento delle cellule riproduttive. Solo negli anni ottanta dopo un'accurata descrizione del comportamento dei cromosomi si giunse con Weismann e Roux ad ammettere che in questi fossero contenuti delle disposizioni o dei determinanti dei caratteri ereditari. Ma l'interesse degli autori citati non era comunque volto a stabilire dei legami precisi fra tali fattori ed il modo di trasmissione dei caratteri ereditari stabili, ma piuttosto ad interpretare, in base ad un'ipotetica architettura di questi fattori determinanti, lo sviluppo dell'embrione e l'insorgenza delle variazioni a carattere evolutivo. Lo stesso tipo di problema venne affrontato già dagli anni ottanta anche dal botanico olandese Hugo De V ries (I 848- I 9 3 5) il quale ammetteva che nelle cellule germinali esistono delle unità biologiche elementari (pangeni) responsabili dei caratteri ereditari e capaci con il loro mescolamento attraverso la generazione di produrre l'insorgenza di nuovi caratteri ereditari. Riteneva inoltre che ciascuna di queste unità poteva variare indipendentemente dalle altre e doveva quindi essere possibile riscontrare tali variazioni con l'osservazione in natura. 181
www.scribd.com/Baruhk
Biologia e filosofia
Dedicandosi per lunghi anni ad accurati controlli su un grandissimo numero di piante egli giunse in modo inatteso a scoprire le cosiddette mutazioni, cioè delle variazioni brusche, in cui vari caratteri comparivano tutti insieme a costituire in modo armonico una nuova razza o specie vegetale. In base a questa osservazione egli diede una nuova interpretazione dell'evoluzione, negando che questa avvenisse attraverso l'accumularsi di piccole variazioni come aveva sostenuto Darwin. Nel condurre le sue ricerche estremamente accurate sugli ibridi delle piante egli giunse insieme ad altri autori anche alla riscoperta delle leggi di Mendel, di cui si diede comunicazione nel I9oo. La riscoperta delle leggi di Mendel, che avveniva sotto lo stimolo diretto del problema biologico dell'evoluzione, doveva divenire presto un campo di ricerca del tutto autonomo i cui risultati potevano in parte venir interpretati in senso antievoluzionistico. Fra i primi sostenitori di questo nuovo indirizzo di ricerca va ricordato l'inglese William Bateson (I86I-I926) che introdusse il termine gene e definì nel I9o2 i caratteri antagonisti presentantisi accoppiati con il termine allelomorfi (alleli); la cellula derivante dalla fusione di quelle riproduttive o gameti, dotati di alleli opposti, venne da lui chiamata eterozigote; quella derivante dalla fusione di gameti dotati di alleli uguali veniva invece definita omozigote. Nei primi dieci anni del secolo un intenso lavoro di ricerca portò alla verifica generale dei principi di Mendel in numerose specie vegetali e anche animali. Ciò avvenne pur dovendosi reinterpretare tali principi ed ammettere eccezioni importanti ad essi. Ad esempio il principio di dominanza non si dimostrò completamente valido per tutti i caratteri, ma si riconQbbero numerosi casi di «eredità intermedia » che potevano tuttavia essere sempre spiegati in base al principio di segregazione e di ricombinazione dei geni. Un contributo teorico di grande importanza per chiarire il significato della trasmissione mendeliana dei caratteri fu dovuto al danese Wilhelm Ludwig Johansen (1857-I927); egli si era dedicato allo studio delle variazioni quantitative delle piante sotto l'influenza della teoria dell'eredità di Galton (di cui si è già parlato nel volume sesto). Questi aveva cercato di dare una formulazione rigorosamente matematica alla concezione dell'eredità continua o per mescolamento, sostenendo la cosiddetta teoria dell'eredità ancestrale per cui ogni individuo deriverebbe I /4 delle sue caratteristiche da ogni genitore, I ji6 dai nonni, I j64 dai bisnonni ecc. Galton era giunto anche a stabilire il principio di regressione secondo il quale un determinato carattere, come la statura, tende ad allontanarsi dalla media dei genitori per spostarsi o regredire verso quella media della popolazione. In tal modo genitori molto alti tendono ad avere figli meno alti di loro e l'inverso accade per genitori di piccola statura. Johansen, volendo controllare questi principi, cercò in una popolazione di fagioli autofecondantesi di selezionare quelli di dimensioni estreme ma giunse 182.
www.scribd.com/Baruhk
Biologia c filosofia
ad un punto in cui il processo di selezione non permette più di ridurre o aumentare la dimensione media della discendenza. Per quanto si continuasse a selezionare ad esempio il fagiolo più grande questo produceva una discendenza in cui si aveva sempre uno stesso valore medio di dimensioni. Si erano così ottenute delle linee pure in cui la selezione era completamente inefficace. In tali linee pure in cui si aveva una fluttuazione intorno ad un valore medio i fattori ambientali esercitavano un effetto puramente transitorio ed ogni cambiamento evolutivo avrebbe potuto compiersi soltanto per una mutazione cioè per una alterazione della linea pura. Questa individuazione sperimentale della linea pura poteva essere interpretata ammettendo una costanza dei fattori ereditari ma anche una loro diversa llJanifestazione dovuta alle condizioni ambientali. Johansen giunse così nel 1909 ad una revisione del concetto statistico di tipo formulato da Quetelet. Il tipo che può essere descritto in termini statistici è un « tipo apparente » cioè un fenotipo. Il termine fenotipo, secondo l'autore, può perciò essere usato per «indicare la peculiarità personale di qualsiasi individuo. Il fenotipo di un individuo è la somma totale di tutti i caratteri che esso esprime. Il singolo organismo ... ha il suo fenotipo cioè appare come una totalità di caratteri che sono determinati dall'interazione fra "predisposizioni ereditate e fattori dell'ambiente" ». Con il fenotipo si deve perciò ammettere anche una costituzione ereditaria cioè il genotipo; questo termine indica il fatto, non l'ipotesi «che differenti zigoti provenienti dalla fecondazione possono ... avere qualità diverse, cioè che anche in condizioni di vita del tutto simili possono svilupparsi individui fenotipicamente diversi». Johansen ammette che il genotipo sia costituito da elementi ereditari, cioè da geni; ad essi deve essere però attribuito soltanto un carattere astratto: sono cioè soltanto delle unità di calcolo. Nella sua opera del 1909 egli scrive a questo proposito «in nessun modo abbiamo il diritto di definire il gene come una struttura morfologica nel senso delle gemmule di Darwin o biofori o determinanti od altri concetti speculativi morfologici di questo genere ». Pronunciandosi così chiaramente contro l'idea che i geni siano delle strutture materiali egli esprime chiaramente quella concezione fenomenistica della scienza che abbiamo visto essere così diffusa nei primi anni del secolo, e alla quale egli rimase fedele sino ai suoi ultimi scritti. Un importante risultato degli studi genetici nel primo decennio del Novecento era stato quello di negare la corrispondenza univoca fra un gene e un carattere in base alla scoperta che diversi geni potevano avere una influenza sullo stesso carattere (eredità polimorfa) e che uno stesso gene poteva influire su caratteri diversi. Si poteva perciò chiaramente ammettere che i caratteri dell'organismo risultavano dall'interazione dei diversi geni, superando così una concezione angustamente meccanicistica. Più faticosa doveva invece essere la strada per giungere alla conclusione cui si opponevano gli anti-meccanicisti o comunque i sosteni-
www.scribd.com/Baruhk
Biologia e filosofia
tori di un fenomenismo scientifico, secondo cui ai geni corrisponde una struttura materiale fisico-chimica. Il primo passo importante in questa direzione doveva stabilire una stretta connessione fra il meccanismo di divisione dei cromosomi e la distribuzione dei caratteri mendeliani. Ciò avvenne nei primi anni del secolo quando l'americano Walter S. Sutton (r877-1916) ed il tedesco Theodor Boveri (r862-191 5) giunsero contemporaneamente - come afferma Curt Stern - a questa considerazione: «Gli elementi, cioè i geni si presentano appaiati così come i cromosomi. I membri di ciascuno di t]uesto paio di geni segregano al tempo di formazione delle cellule germinali, così che ognuna di queste cellule riceve soltanto uno dei due geni. I cromosomi ugualmente si presentano appaiati e si separano al momento della formazione della cellula germinale, distribuendosi, soltanto uno di ciascun paio, a un uovo o a uno spermatozoo. I membri di differenti paia di geni si ricombinano a caso al tempo della segregazione. Differenti paia di cromosomi possono fare lo stesso ... » Ma la definizione di un parallelismo fra l'analisi statistica di distribuzione dei fattori ereditari ed il comportamento dei cromosomi non costituiva ancora una prova che i geni fossero parti materiali di questi stessi cromosomi. Si poté in una prima fase stabilire soltanto che ciascun cromosoma presenta una precisa individualità dal punto di vista della realizzazione dei caratteri ereditari. Ciò risultava da alcune ricerche embriologiche dello stesso Baveri, il quale osservò che una distribuzione anomala dei cromosomi nelle prime cellule di un embrione portava ad uno sviluppo irregolare dei loro caratteri. L'efficacia dei cromosomi nel determinare caratteri ereditari fu anche accertata nello stesso periodo, cioè nei primi anni del Novecento, stabilendo che il sesso era prodotto dall'assenza o dalla presenza di determinati cromosomi nelle cellule germinali. Un passo molto importante sulla via che doveva portare a riconoscere il gene come parte materiale del cromosoma venne compiuto dopo il 1910 soprattutto con gli studi svolti dalla scuola americana di Thomas H unt Morgan (I 8661945) sul moscerino della frutta Drosophila. Uno dei punti fondamentali di questa ricerca era la constatazione che poiché esistono più geni di quanti siano i cromosomi era necessario ammettere che ad uno stesso cromosoma fossero legati diversi geni. Ciò comportava un processo di associazione fra più caratteri ereditari che costituiva una eccezione alle conclusioni di Mendel, ma che venne effettivamente osservato. Supponendo quindi che più geni fossero disposti nello stesso cromosoma si accertò che anche tanti erano i gruppi di geni associati quanti i cromosomi. Questa associazione presentava tuttavia delle eccezioni estremamente frequenti. Si verificava cioè uno scambio fra i geni associati in un cromosoma e quelli del cromosoma a lui appaiato, cioè del suo omologo, scambio che avveniva secondo una frequenza caratteristica. Si giunse a concludere che questa frequenza di
www.scribd.com/Baruhk
Biologia e filosofia
scambio poteva costituire una misura della distanza dei geni fra loro, ammettendo che questi fossero disposti in modo lineare lungo un cromosoma come tante perle su un filo. Con queste ipotesi si costruirono anche delle mappe cromosomiche nelle quali si stabiliva la posizione reciproca dei geni della Drosophi!a. Si pervenne così negli anni venti a formulare la «teoria classica del gene», per cui questi venivano considerati delle entità disposte a coppie nello stesso punto di ciascuna coppia di cromosomi omologhi, secondo una successione lineare caratteristica. Pur mantenendo la stessa posizione su un cromosoma si poteva ammettere uno scambio di segmenti fra i cromosomi omologhi la quale poteva condurre a ricombinazioni dei geni stessi. Questi importanti risultati riassunti nell'opera di Th.H. Morgan, The theory of gene (La teoria del gene, 1926) erano principalmente derivati da dati statistici sull'analisi delle ibridazioni più che da una indagine microscopica esauriente sul comportamento dei cromosomi. Esse quindi non fornivano ancora una prova definitiva che il gene costituisse una parte materiale del cromosoma, determinante i caratteri ereditari. In tal modo nel 1930 E. S. Russell riprendendo i rilievi di Jo hansen poteva affermare che « le assunzioni metodologiche della teoria del gene sono molto simili a quelle della teoria di Weismann. Vi è la stessa convinzione profondamente radicata che l'eredità deve essere spiegata mediante la trasmissione di una sostanza stabile, il plasma germinale, secondo i principi materia. listici che sono accettati come la sola base di una biologia scientifica ». Come la teoria di \1C'eismann - continua l'autore - quella del gene « postula delle unità materiali indipendenti, sebbene sia sparita la semplice :relazione fra determinante e determinato. A queste unità, i geni, si giunge con un processo di :reificazione di differenze ... Sebbene ... piuttosto privi di qualità, come conviene alla loro funzione di simboli, si assume che essi in qualche modo "determinano" la comparsa dei caratteri dell'organismo». Queste perplessità sulla specifica struttura materiale dei geni e sulla loro capacità determinante dovevano però cadere di fronte alle sempre più accurate indagini citologiche sul comportamento dei cromosomi, specialmente nelle ghiandole salivari della Drosophi!a dove essi si presentano in dimensioni gigantesche e quindi particolarmente utili alla ricerca. Da queste indagini risultò chiaramente che lo scambio dei geni associati era effettivamente dovuto allo scambio di porzioni di ciascun cromosoma (crossing over) durante la divisione cellulare (meiosi) che precede la formazione dei gameti. Verso la fine degli anni venti a questi risultati si aggiungevano quelli altrettanto importanti sulla realizzazione di mutazioni mediante irradiazioni da parte specialmente di Hermann Joseph Miiller. Queste mutazioni ottenute con notevole intensità mediante radiazioni erano in genere le stesse riscontrabili in condizioni normali nella Drosophi!a, ma apparivano con una frequenza molto più elevata. Da queste e da altre considerazioni, come ad esempio la produzione di aberrazioni cromosomiche per
www.scribd.com/Baruhk
Biologia e filosofia
effetto delle stesse radiazioni, risultava ormai impossibile negli anni trenta negare che ai geni corrispondesse una struttura materiale cioè che essi non fossero strutture fi.sico-chlmiche ultra-microscopiche direttamente responsabili della produzione dei caratteri ereditari. XI · LA GENETICA E LA NUOVA TEORIA DELL'EVOLUZIONE
Nei primi decenni del Novecento il problema dell'evoluzione degli organismi costituisce uno dei punti caratteristici della crisi teorica che investiva la biologia. Quasi nessuno poneva più in dubbio che i viventi si fossero trasformati nella storia della terra partendo da forme più semplici e neppure ci si lasciava scoraggiare dalle gravi difficoltà che si incontravano nello stabilire attraverso i :resti fossili o le indagini morfologiche l'effettiva successione e suddivisione degli organismi nelle varie epoche geologiche. Molti autori continuavano ad occuparsi del problema dell'evoluzione, ma sempre più ardua appariva una decisione sulle cause effettive di questo indiscutibile processo storico della vita. Uno degli aspetti più dibattuti era quello dell'efficacia della selezione naturale e la maggior parte dei biologi, pur non escludendo l'incidenza di questo fattore nel processo evolutivo, lo riteneva insufficiente per una sua adeguata spiegazione. Con una polemica spesso carica di prevenzioni ideologiche si ripeteva che la selezione non poteva spiegare il sorgere delle variazioni, tesi questa che poteva essere attribuita solo in parte a Weismann, per la sua teoria della selezione all'interno del plasma germinale, ma in genere a nessuno degli interpreti di Darwin. Il tedesco Ludwig Plate (1862-1937) nella sua opera del 1907 Selectionprinzip und Probleme der Artbildung (Principio di selezione e problema della formazione della specie) riporta le obiezioni più frequentemente sollevate contro questo principio. Ne ricorderemo alcune: 1) i caratteri anatomico-strutturali costituenti l'organizzazione di un vivente non sono adattativi, non presentano cioè qutll'utilità che può spiegarli in base alla selezione; 2) le singole variazioni di piccola entità non rappresentano caratteri tali da costituire un vantaggio o uno svantaggio, tali cioè che su di esse possa far presa la selezione; 3) non è possibile controllare in natura oggettivamente quali caratteri siano utili o meno, e abbiano quindi un valore selettivo; 4) la teoria della selezione si basa sul caso. Come affermava polemicamente Driesch nel 1905 è cioè la teoria per cui si possono costruire case lanciando sassi. In termini più precisi è estremamente improbabile che le differenti variazioni necessarie alla formazione di un organo complesso (ad esempio l'occhio) siano comparse in modo concomitante (problema della coadattazione). Queste obiezioni venivano fatte proprie, in vario modo, dalla grande maggioranza degli studiosi dell'evoluzione e comportavano quindi un sostanziale ripudio della concezione neo-darwiniana, sostenuta oltre che da Weismann da pochi altri autori fra cui l'americano Th. H. Morgan. Per spiegare la trasformat86
www.scribd.com/Baruhk
Biologia e filosofia
zione storica degli organismi si preferiva ricorrere a quello stesso ordine di fattori causali che già erano stati proposti nell'ultimo periodo dell'Ottocento, articolandoli ed arricchendoli in modo sempre più complesso secondo i risultati che venivano ottenuti nei vari indirizzi di ricerca biologica. Nell'estrema eterogeneità di tali teorie, che non è qui possibile riassumere, i fattori causali sopra indicati possono essere ricondotti a due gruppi fondamentali. Al primo gruppo si rifacevano le varie posizioni di tipo neo-lamarckiano. Esse potevano essere meccanicistiche o vitalistiche, potevano interpretare le trasformazioni come effetto indiretto delle funzioni di adattamento oppure come risultato dell'azione diretta dei fattori fisici ambientali sugli organismi stessi. Tutte comunque sostenevano la cosiddetta eredità dei caratteri acquisiti; ipotesi difesa molto appassionatamente soprattutto da autori francesi, da pochi altri tedeschi ed inglesi e per un certo periodo da quelli sovietici, ma che non poté venir confermata da dati sufficientemente validi e si trovava soprattutto in contrasto con la nuova genetica che si veniva ormai imponendo in tutti i paesi durante gli anni trenta. Un altro indirizzo teorico dell'evoluzione postulava l'esistenza delle cosiddette cause interne, secondo una concezione per molti aspetti simile al preformismo settecentesco e già elaborata nell'Ottocento da Kolliker e Nageli. Si sosteneva in particolare che nella materia vivente primitiva erano già ordinate tutte le potenzialità o disposizioni di quelle forme che erano poi destinate a comparire nelle varie epoche. Il grado di adattamento di queste forme poteva essere nei vari casi molto diverso, secondo l'ambiente in cui capitava che esse si producessero; alla selezione naturale restava solo il compito di eliminare quelle non idonee a questo ambiente. Un altro indirizzo che poteva considerarsi nuovo e che venne molto dibattuto all'inizio del secolo era quello del mutazionismo, proposto, come si è già precedentemente ricordato, dall'olandese De Vries. Le razze o le specie sorgono già complete di tutti i loro nuovi caratteri per mutazione, cioè per un salto improvviso. Questa concezione, che l'autore basava su precise osservazioni condotte su alcune piante, venne direttamente coinvolta nelle nuove ricerche della genetica e si dimostrò che i casi addotti a suo sostegno non erano che il risultato di una ibridazione complessa. Era perciò difficile considerare un evento di questo tipo come una spiegazione generalizzabile dell'insorgenza di tutte le nuove variazioni evolutive. In base alle ricerche di genetica, d'altronde, l'aspetto che risultava più evidente nei primi anni del secolo era la stabilità e non la variazione dei caratteri ereditari. Le esperienze di Johansen, che avevano condotto ad individuare le linee pure, vennero infatti assunte da alcuni come una dimostrazione della stabilità della specie e soprattutto della insufficienza del processo di selezione. Non mancarono tuttavia tentativi per sostenere la teoria dell'evoluzione in base al nuovo « mendelismo ». Fra questi quello forse più paradossale e sconcertante
www.scribd.com/Baruhk
Biologia e filosofia
venne compiuto dallo stesso Bateson, in un famoso discorso tenuto nel 1914 alla British Association. Bateson, che era stato in Inghilterra il più convinto propugnatore del mendelismo contro la scuola biometrica di Galton e Pearson ed un assertore del carattere discontinuo delle variazioni evolutive, sosteneva l'ipotesi che un gene dominante indica la presenza di qualcosa che è assente nel corrispondente allele recessivo. Nel discorso sopra ricordato Bateson, secondo quanto scrive Julian Huxley nel 1942, «assumendo in primo luogo che il cambiamento nel plasma germinale è sempre dovuto ad una mutazione ampia ed in secondo luogo che ogni mutazione è una perdita, da un qualcosa di dominante ad un nulla recessivo, concludeva che tutta l'evoluzione è semplicemente un disfacimento. L 'ipotetica ameba ancestrale conteneva - effettivamente e non solo potenzialmente- l'intero complesso dei fattori ereditari. L'espulsione di differenti porzioni di questo complesso liberava le potenzialità di quello, questo o altro gruppo o forma di vita. La selezione e l'adattamento venivano relegati ad un ruolo trascurabile ». Da tale concezione di carattere speculativo, simile alle teorie dell'evoluzione per cause interne, si distinguevano nettamente altre formulazioni, secondo le quali le mutazioni di lieve entità individuate nelle ricerche sulla Drosophila o su altri organismi dovevano costituire il punto di partenza della variabilità evolutiva. Contro questa teoria si argomentava che queste mutazioni avevano troppo spesso un carattere nocivo o regressivo e che comunque si ricorreva sempre all'efficacia della selezione naturale che ormai appariva screditata come fattore evolutivo per tutte le tradizionali difficoltà, a cui si è già sopra accennato. Gli sviluppi sempre più importanti della genetica ma soprattutto l'applicazione ad essa dei metodi matematici, elaborati specialmente nell'ambito della biometria, dovevano però condurre nel giro di vent'anni ad una totale trasformazione del problema dell'evoluzione. Tale trasformazione, che può considerarsi rivoluzionaria per la biologia del nostro secolo, si basava su un nuovo indirizzo di ricerca, la cosiddetta genetica delle popolazioni. Il presupposto più importante di questa teoria è la considerazione dei geni non come fattori ereditari legati alle cellule germinali che producono un singolo individuo, ma come un insieme di fattori comuni ad un gruppo numeroso di indi ddui (gene tic pool) e in grado di distribuirsi e di ricombinarsi entro tutto il gruppo, per effetto degli incroci riproduttivi. I geni vengono cioè considerati come entità astratte trattate secondo grandi numeri in modo analogo alle molecole di una miscela di gas contenuta in un recipiente. Alla base di questa trattazione dei geni di una popolazione, considerati come un unico insieme, è stato posto esplicitamente negli ultimi anni un principio generale di equilibrio, che svolge per la genetica delle popolazioni una funzione analoga a quella che svolge in fisica la definizione di un gas ideale. Tale principio stabilisce che la frequenza dei geni non si altera, ad esempio nel caso di due geni x88
www.scribd.com/Baruhk
Biologia e filosofia
allelomorfi A e a, se sono osservate le seguenti condizioni: 1) la frequenza relativa di A e a non è alterata da mutazioni; z) nessuno dei genotipi in cui sono presenti questi geni è avvantaggiato l'uno rispetto all'altro (cioè nessuno ha più probabilit:i dL.essere riprodotto); 3) non vi è migrazione di questi geni rispetto ad altre popolazioni; 4) la popolazione è indefinitamente grande. Questo principio di equilibrio, designato con i nomi di G. H. Hardy e W. Weinberg (due autori che lo formularono all'inizio del secolo molto tempo prima che se ne riconoscesse l'importanza), definisce una popolazione ideale completamente stabile in cui non si ha cioè alcun processo evolutivo. Ma proprio il fatto che queste condizioni di equilibrio non sono verificate nelle popolazioni reali permette di spiegare il processo evolutivo, ~ioè il modificarsi della composizione e della frequenza dei geni delle popolazioni e quindi la creazione di razze. Quando poi fra queste razze viene a crearsi un isolamento riproduttivo (gli individui di esse non possono cioè più accoppiarsi in modo fecondo), isolamento dovuto a cause geografiche, ecologiche, a variazione di comportamento, ecc., si ha allora la produzione di nuove specie. Le prime trattazioni a cui si deve la rinascita della nuova teoria dell'evoluzione, mediante la trattazione matematica della genetica delle popolazioni, risalgono alla fine degli anni venti. Vanno ricordate The genetica! theory of natura! selection (La teoria genetica della selezione naturale, 1929) dell'illustre statistico inglese Ronald A. Fisher (1890-1962) ed alcuni articoli dell'americano. Sewall Wright. Anche J. fl. S. Haldane diede un contributo decisivo a questa indagine ed espose i suoi risultati- già nel 1932 in un'opera di carattere divulgativo- The causes of evolution (Le cause della evoluzione), in cui chiaramente individua l'importanza teorica di una rifondazione della concezione evoluzionistica sulla base della selezione naturale. «Noi dobbiamo ... accuratamente distinguere,» egli afferma in quest'opera, « tra due dottrine completamente diverse che Darwin ha popolarizzato, quella della evoluzione e quella della selezione naturale. È del tutto possibile sostenere la prima e non la seconda. Similmente nei confronti delle dottrine del grande contemporaneo di Darwin, Marx, è possibile adottare il socialismo senza il materialismo storico. » Nel nuovo indirizzo di ricerca veniva infatti concordemente riconosciuto che il fattore fondamentale dell'evoluzione di una popolazione è la selezione naturale; cioè il venir meno della seconda delle condizioni di equilibrio sopra ricordate per cui accade effettivamente che alcuni genotipi hanno più probabilità di essere riprodotti. In questa nuova concezione generale, detta recentemente anche teoria sintetica dell'evoluzione e dall'inizio neo-darwinismo, la selezione naturale non viene più concepita restritti~amente nei termini darwiniani di sopravvivenza del più adatto nella lotta per l'esistenza, bensì in modo più generale come riproduzione differenziale. La competizione non è cioè intesa necessariamente in
www.scribd.com/Baruhk
Biologia e filosofia
termine di lotta cruenta ma come idoneità a lasciare una prole più numerosa. Cioè gli individui che hanno più successo riproduttivo permettono che le loro caratteristiche genetiche diventino più frequenti nel pool genetico della popolazione successiva. La selezione naturale, che condiziona questa riproduzione differenziale, è dovuta a tutti i complessi e spesso ancora sconosciuti rapporti di interazione fra gli individui di una popolazione e l'ambiente. Da ciò risulta una conseguenza molto importante: il processo evolutivo che si compie per effetto di tale selezione non può risultare casuale ma è necessariamente orientato, guidato in senso adattativo rispetto all'ambiente. Le variazioni genetiche che producono il rapporto più favorevole degli organismi rispetto a tale ambiente tendono cioè a promuovere il loro successo riproduttivo e quindi a stabilizzarsi. Nelle generazioni successive la selezione naturale impedirà alle combinazioni favorevoli di disperdersi ed accrescerà la loro frequenza in una popolazione. In tal modo nuove combinazioni geniche potranno imporsi, cioè potranno sorgere razze e specie nuove, solo se compatibili con lo stato delle condizioni ambientali. Tale effetto direzionale e adattativo della selezione naturale, ormai riconosciuto chiaramente da tutti gli studiosi di questo indirizzo, può realizzarsi solo se la variabilità viene conservata o accresciuta nell'insieme di una popolazione. Questa variabilità si produce allorché vengono meno le altre tre condizioni ideali di equilibrio ·di una popolazione: si abbia cioè insorgenza di nuove mutazioni (e anche di ricombinazioni geniche); migrazione in una data popolazione di nuovi geni; infine un numero ridotto di individui della popolazione, per cui nella riproduzione può verificarsi un casuale alterarsi della frequenza genica (deriva genetica). L'incidenza relativa di questi fattori di variabilità non è facilmente definibile in via teorica ed è ancora oggetto di discussione, anche perché spesso dipende da differenti circostanze che vanno analizzate singolarmente. Nel complesso la variabilità genetica rappresenta il materiale su cui opera la selezione. Tale variabilità può considerarsi casuale, non nel senso che tutti i suoi effetti siano equiprobabili, ma nel senso che essa avviene nelle più diverse direzioni anche sfavorevoli che non risultano predeterminate da regole conosciute. Il fatto che molti di tali effetti di variabilità siano nocivi o comunque non realizzino caratteri apparentemente utili non costituisce più una grave obiezione alla teoria della selezione naturale, poiché si sa che tali effetti possono essere il prodotto collaterale di sistemi genetici favorevoli nel loro complesso. Nella nuova teoria dell'evoluzione non si ritiene infatti più possibile parlare di un'azione della selezione su un singolo carattere o su un singolo gene. La selezione, come afferma Simpson, « agisce su ciascuno in un contesto più ampio o agisce sulla combinazione di tutti i geni. Il sistema genetico di una popolazione è cioè, in vario modo, un sistema singolo interagente. Tutti i suoi geni e cromosomi, nel loro costante rimescolamento, devono tendere verso la più efficace riprodu-
www.scribd.com/Baruhk
Biologia e filosofia
zione della popolazione in quanto tale, come un tutto e non necessariamente verso quella più efficace per un individuo o l'altro». Con questi brevi cenni si sono indicati solo alcuni dei complessi problemi che la nuova teoria dell'evoluzione ha affrontato a partire dagli anni trenta per opera soprattutto di alcuni fra i maggiori biologi anglosassoni quali Theodor Dobzhansky, Julian Huxley, George G. Simpson, Ernst Mayr. Negli ultimi due decenni essa si è venuta sempre più sviluppando ed affermando attraverso una ampia messe di contributi teorici ed anche sperimentali. Nei suoi confronti perciò è divenuto sempre più difficile sostenere le teorie tradizionali di tipo lamarckiano o quelle che si rifanno a cause interne del processo evolutivo. Le resistenze maggiori nei riguardi della nuova teoria si sono avute specialmente nell'ambito della cultura francese, sovietica ed in parte in quella tedesca. Si è insistito soprattutto nell'affermazione che la nuova teoria può spiegare adeguatamente tutt'al più la microevoluzione, cioè la formazione delle specie, ma è del tutto inadeguata per la spiegazione della macroevoluzione, cioè della formazione dei grandi gruppi sistematici compiutasi nelle passate epoche geologiche. Queste obiezioni non muovono comunque da concezioni alternative di carattere generale che possano ritenersi più consistenti e fondate. Esse possono tutt'al più confermare come ancora ampi e complessi siano i problemi da affrontare; problemi che d'altronde costituiscono uno dei settori di indagine della biologia a cui è riconosciuto in alcuni paesi non solo un completo status di legittimità scientifica ma anche un notevole interesse di carattere teorico e filosofico. Questo interesse verte soprattutto sulla conclusione più importante che può essere tratta dalla nuova teoria della evoluzione. Cioè sul riconoscimento del carattere creativo della selezione naturale. Questa non può essere più ridotta ad un fattore negativo di pura eliminazione, ma è un processo che, secondo le parole di R. A. Fisher, rende altamente probabile un evento inizialmente poco probabile. Ciò sembra costituire la conferma sul piano scientifico dell'antica idea materialista che l'ordine può sorgere dal disordine, il più complesso dal più semplice, la finalità dal caso per il solo effetto delle complesse interazioni che costituiscono lo sviluppo storico della natura. XII · CONCLUSIONE
Le conoscenze che si sono oggi raggiunte sull'insieme dei processi vitali attraverso l'indagine della loro evoluzione storica, delle loro strutture fisicochimiche elementari e delle ipotetiche condizioni della loro origine sulla terra ci portano ad escludere che per la loro complessiva interpretazione scientifica si debbano adottare dei criteri diversi da quelli con cui si interpretano i restanti fenomeni naturali. Questa conclusione può essere da qualcuno considerata meccanicistica, ma noi riteniamo più corretto definirla materialista.
www.scribd.com/Baruhk
Biologia e filosofia
Il termine meccamc1smo può essere legittimamente usato nella sua accezione più ampia per indicare una priorità logica di un certo settore della scienza su altri; ma occorre rilevare che tale priorità deve essere sempre considerata storicamente come sviluppo più avanzato di una disciplina sopra un'altra e non come la conoscenza privilegiata della dimensione più vera ed autentica della realtà naturale. Indicare quali siano gli aspetti veri ed autentici della realtà naturale non spetta ad un'unica disciplina ma è il compito storico inesauribile di tutta la conoscenza scientifica di cui la biologia non sembra rappresentare una fase puramente transitoria, ma l'indagine di un aspetto particolare del mondo naturale avente caratteristiche sue proprie. Che queste caratteristiche della vita debbano essere studiate partendo dall'esigenza di una comprensione unitaria dei fenomeni naturali è un'acquisizione irrinunciabile della razionalità scientifica. È però altrettanto vero che i programmi e le formulazioni del meccanicismo biologico hanno troppo spesso inteso questa comprensione unitaria per i fenomeni vitali in modo astratto ed unilaterale. In modo da favorire il sorgere di interpretazioni irrazionalistiche della realtà o comunque una mistificante scissione fra conoscenza del mondo della natura e conoscenza del mondo della vita e in particolare dell'uomo. Queste conseguenze sono state da noi illustrate specialmente nella cultura dei primi decenni del nostro secolo. È per questo che si ritiene più corretto caratterizzare il tipo di comprensione che la scienza attuale ci offre dei fenomeni della vita come materialistico. Con il termine materialismo si esprime una concezione realistica della conoscenza scientifica e, in una visione più ampia dei suoi risultati, la convinzione che la natura ha prodotto storicamente la vita ed il mondo sociale e spirituale dell'uomo. Giustificare questa concezione non è certo compito specifico della scienza biologica, ma il risultato di una riflessione complessiva su tutto il procedere storico della ricerca filosofico-scientifica. Per quanto riguarda la biologia, riconoscere i propri risultati come congruenti con il materialismo, piuttosto che con il meccanicismo, significa specificamente non porre limiti di metodo e di schemi concettuali all'indagine del fenomeno della vita, riconoscere la capacità della biologia di estendersi, nell'articolazione con altre scienze, alla comprensione dell'uomo; significa infine ·attribuire al riconoscimento della storicità della natura e alla inesauribilità della materia altrettanto valore che al criterio di astrazione formale della conoscenza scientifica.
www.scribd.com/Baruhk
CAPITOLO QUINTO l
La logica nel ventesimo secolo (l) DI CORRADO MANGIONE
Questo capitolo si presenta come estremamente arduo, e per l'autore e per il lettore, visti gli enormi sviluppi che in molteplici direzioni la logica ha conosciuto nel nostro secolo, e che ne fanno oggi una delle discipline scientifiche più feconde e per metodi e per risultati. Prima di iniziare il vero e proprio momento espositivo crediamo dunque opportuno delineare brevemente le linee direttive lungo le quali la nostra esposizione intende muoversi, per dare al lettore un orientamento globale sulla disposizione della materia. I criteri secondo i quali è possibile seguire lo sviluppo della logica nel nostro secolo sono evidentemente molti e talora decisamente diversi fra loro: ad esempio, si può pensare di organizzare il discorso per temi, oppure si può svolgerlo con particolare attenzione ai problemi che la logica ha seguito nel suo sviluppo, o che si è trovata a dover affrontare ed eventualmente risolvere dall'inizio del secolo a oggi; si sarebbero potuti privilegiare alcuni autori particolarmente significativi, o alcuni risultati particolarmente pregnanti per questo sviluppo; e così via. Ci è tuttavia sembrato che seguire uno qualsiasi di questi criteri, o in generale qualunque altro che non rendesse evidente l'effettivo susseguirsi delle problematiche, delle concezioni e delle tecniche nell'ambito delle quali, o servendosi delle quali, quelle problematiche venivano affrontate, avrebbe portato certamente a una esposizione forse più agile o più « elegante » ma ben difficilmente avrebbe messo il lettore non specialista nelle condizioni di seguire almeno in linea di principio la problematica specifica della logica, quale veniva organizzandosi in modo sostanzialmente autonomo e originale. Ci siamo così decisi a presentare le vicende della logica di questi ultimi settant'anni periodizzandole di decennio in decennio fino alla seconda guerra mondiale, fino a quando cioè nella logica stessa si determina (a nostro parere) una netta diversificazione di orizzonte, dopo che essa ha decisamente « assorbito » tutti quei fattori problematici (in particolare, alquanto paradossalmente, le antinomie) che avevano per così dire presieduto alla sua rinascita, ed elabora temi specifici, ancor oggi oggetto di ricerca. I Questo capitolo è stato scritto nel I 97 2 ed è comparso come capitolo XIII del volume sesto nella prima edizione di quest'opera. Esso
ha subito minori variazioni per questa edizione nella quale è stato aggiunto, a mo' di complemento, il capitolo III del volume nono.
www.scribd.com/Baruhk
La logica:·nel ventesimo secolo (r)
Questa periodizzazione ha comportato tuttavia in molti casi la necessità di ripetizioni o la frammentazione dei diversi contributi di uno stesso autore; non ci resta che da augurarci che questo ci sia perdonato dal lettore in cambio, vogliamo illuderci, di una maggior facilità di comprensione. Abbiamo invece unificato la trattazione del periodo post-seconda guerra mondiale perché temi e problemi che emergono dagli anni cinquanta in poi sono in definitiva quelli della ricerca logica attuale. In questo secondo grande periodo, in particolare, abbiamo isolato alcuni specifici indirizzi o capitoli della ricerca accennando alla loro portata ed evoluzione nei limiti consentitici dal non voler scendere in dettagliate e talora molto complesse esplicitazioni di tipo tecnico. Nei periodi precedenti abbiamo invece tentato di chiarire entro certi limiti anche questo ultimo aspetto, nella convinzione che i concetti fino ad allora emersi, e che ovviamente costituiscono la naturale base per la comprensione di quelli odierni, non siano tanto un bagaglio di conoscenze specifico, ma debbano ormai far parte delle normali conoscenze di qualunque persona, specialista o no, che voglia interessarsi della situazione culturale che la circonda attualmente. Ne viene che il capitolo sarà cosl organizzato. A un primo sguardo d'insieme che costituirà una specie di introduzione di riferimento generale (paragrafo I) seguirà un secondo paragrafo dedicato alla logica negli anni dal I9oo al I92o, quindi un paragrafo (m) dedicato alla logica negli anni venti, e un paragrafo (rv) dedicato· alla, logica negli anni trenta. Il decennio I 940-5 o sarà sostanzialmente inglobato nel paragrafo successivo (v), dedicato alla logica nel dopoguerra. Naturalmente, éome al solito, questa suddivisione cronologica non sarà sempre rigidamente osservata, in particolare ogniqualvolta ragioni di completezza o di maggiore e più armonica comprensione consiglieranno o di anticipare certi sviluppi e risultati o viceversa di posticipare la trattazione di altri. Rimandiamo comunque il lettore al capitolo III del volume nono nel quale vengono ripresi « aggiornati » e fo approfonditi tutta una serie di temi trattati nelle prossime pagine. I • LA CRISI DEI FONDAMENTI
Con la pubblicazione delle Grundlagen di Hilbert e dei Grundgesetze di Frege, la grande stagione della ricerca logica del XIX secolo può dirsi conclusa: punto d'arrivo di tutto un secolo di indagini sui fondamenti della matematica, queste opere, malgrado il valore paradigmatico che non tardarono ad assumere, non rappresentarono però il punto di partenza diretto della ricerca logica del nuovo .secolo. Tra di esse e i lavori di Russell, Whitehead, il « secondo » Hilbert e Brouwer, si frappone un diaframma che segna una frattura netta e un deciso mutamento dell'orizzonte problematico. Questo fatto nuovo è costituito dalla crisi dei fondamenti, che si aprl nel I902 con la scoperta da parte di Russell della contraddittorietà della teoria canto194
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
riana (e fregeana) degli insiemi.l Aveva così inizio una nuova fase dell'indagine sui fondamenti, caratterizzata dall'emergere di problemi e posizioni che solo in modo indiretto e mediatamente si ricollegano alle ricerche del xix secolo. Sono questi problemi e queste posizioni che costituiscono i punti di riferimento iniziali dell'indagine logica contemporanea. Del paradosso di Russell e del suo significato per il lavoro di Frege abbiamo già avuto occasione di parlare nel capitolo xxn del volume quinto; è giunto ora il momento di riprendere l'argomento e di vedere come non solo il lavoro di Frege ma tutto quanto un modo di concepire e fare la matematica ricevesse un grave colpo da quella scoperta. L'antinomia che Russell era riuscito a derivare dal v principio dei Grundgesetze mostrava inequivocabilmente che l'assunzione dell'esistenza, per ogni condizione linguistica, dell'insieme di tutti e soli gli oggetti che la soddisfano, portava a contraddizione ed era pertanto inaccettabile. In questo modo « vacillava sui suoi fondamenti » non solo la ricostruzione fregeana dei numeri naturali, ma tutta quanta la teoria cantotiana degli insiemi, alla cui base si trova un principio di comprensione per la costruzione di insiemi analogo a quello fregeano. Con essa si trovavano compromessi tutti quegli sviluppi matematici che, dalle prime applicazioni di Cantor allo studio degli insiemi di punti, erano stati il maggior titolo della teoria degli insiemi per un concreto riconoscimento da parte del mondo matematico. Se al I congresso internazionale dei matematici tenuto si a Zurigo nel I 897, Jacques Hadamard (1865-I963) e Adolf Hurwitz (1869-1919) avevano fornito prove concrete delle grandi possibilità che era lecito aspettarsi dalla teoria cantoriana per lo sviluppo dell'Analisi, al IV congresso, tenutosi a Roma nel 1908, Henri Poincaré (1845-1912) parlava ormai della Mengenlehre come di una malattia, «un meraviglioso caso patologico » che, ben lungi dal poter offrire aiuti al corpus della matematica, necessitava essa stessa di cure urgenti. All'origine di questo brusco mutamento di prospettiva non stava però la sola antinomia di Russell; altre se ne erano aggiunte, più gravi da vari punti di vista. Il paradosso russelliano colpiva, diciamo così, il carattere troppo liberale ed illimitato della definizione cantoriana di insieme come estensione di proprietà arbitrarie. In questo senso esso era letale per il sistema fregeano in cui il concetto di proprietà non poteva essere limitato a meno di perdere decisamente il suo carattere logico generale, ma lo era molto meno per la pratica matematica allora corrente. Tutto sommato il matematico non parlava mai, in concreto, di proprietà di insiemi arbitrari, ma sempre di insiemi di punti, di numeri ecc. di I Il I902 è l'anno in cui Russell, come sappiamo, comunicò a Frege l'antinomia scoperta nel sistema dei Grundgesetze; in questo senso esso segna la data « ufficiale » di apertura della crisi dei fondamenti, in quanto si è già detto che almeno dal I 895 (Cantor) e ancora nel I 897 (BuraliForti) si era a conoscenza di antinomie nella
teoria degli insiemi. Ovviamente, l'associare Frege (o anche Dedekind) a Cantor relativamente alla « teoria degli insiemi » ha solo un significato metaforico riferito alla. presenza essenziale nelle rispettive teorie di tutti questi autori del concetto di insieme (estensione di un concetto, sistema).
195
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
insiemi cioè appartenenti a un insieme già dato. Nella pratica, quindi, il paradosso di Russell aveva un riflesso limitato e poteva, pur con una certa disinvoltura, essere considerato come non pertinente. Lo stesso Cantar, che pure nei suoi progetti mirava a una teoria generale degli insiemi astratti e non solo degli insiemi di «qualche cosa», degli insiemi concreti, l'aveva considerato tutto sommato un ostacolo non insormontabile, quando, prima ancora di Russell, ci si era imbattuto. 1 L'insidia maggiore proveniva da altre ambiguità, più sottili, implicite nell'idea degli insiemi come estensioni di proprietà, così che il paradosso di Russell diveniva la spia di una fra le tante oscurità implicite nell'idea cantoriana e fregeana d'insieme, ma non era certo l'unica. Questo non tardò a venire alla luce quando nel 1905 Julius Konig (18491 9 I 3), in circostanze abbastanza drammatiche, presentò il suo famoso argomento sull'impossibilità di considerare la potenza del continuo come un alef. La tiimostrazione, come Konig dovette riconoscere, era sbagliata, ma una volta ridotta alle sue giuste proporzioni si trasformava in una nuova antinomia ben più resistente all'analisi di quella russelliana. Fatto oltremodo significativo, proprio nello stesso anno anche il francese Jules Richard presentava l'antinomia che porta il suo nome. Entrambi i paradossi, quello di Konig e di Richard, si incentravano sullo stesso problema e sostanzialmente si possono considerare uno la variante dell'altro. Anche se, nella letteratura, fu l'antinomia di Richard che più spesso venne citata, è in quella di Konig che l'impasse risultava in forma più drastica e, almeno apparentemente, più disastrosa. Il ragionamento di Konig è estremamente diretto. Si supponga vera l'ipotesi del continuo di Cantar; allora il numero cardinale di .9(N).) 2 l'insieme dei numeri reali, è un alef, quindi è bene ordinabile. Consideriamo ora la famiglia di tutti i sottoinsiemi di N compresi in .9(N) e definibili utilizzando un linguaggio basato su un alfabeto finito (un alfabeto in altri termini analogo a quello di qualsiasi lingua naturale) che per ipotesi deve poter esprimere tutti i nostri concetti logici e matematici. Chiaramente, questa famiglia essendo per necessità numerabile, non potrà coincidere con tutto .9(N), che è più che numerabile per il teorema di Cantar. Prendiamo ora il primo elemento di .9(N) non incluso nella famiglia dei definibili; questo è possibile in quanto per ipotesi .9(N) è bene ordinato e quindi il complemento della famiglia dei definibili rispetto a ~9"(N) ha un minimo e non è vuoto. Sia a l'elemento in questione: in quanto primo degli elementi non definibili, a sarà non definibile; d'altra parte la locuzione «primo dei non definibili» è un'espressione del nostro linguaggio che definisce r Ovviamente Cantar non si era imbattuto nel paradosso eli tutte le classi, ma come sappiamo in quello del massimo numero cardinale (o del massimo numero ordinale) che come vedremo sono per così dire di una stessa categoria logica. 2 Ricordiamo che l'ipotesi ristretta del continuo di Cantar consisteva nell'affermare
l'uguaglianza del numero cardinale dell'insieme potenza di un insieme numerabile con l'alef successivo ad ~0 , ossia con ~ 1 • Qui N è al solito l'insieme dei numeri naturali; i?Jl(N) è allora l'insieme di tutti i sottoinsiemi di N ossia, appunto, l'insieme di tutti i numeri reali.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
a: a è quindi definibile. Ci si trova così di fronte ad una contraddizione che pone in antagonismo i due pilastri della costruzione cantoriana: la concezione degli insiemi come estensioni di proprietà specificate da condizioni linguistiche da una parte, e dall'altra l'ipotesi del continuo come affermazione della possibilità di fondere in un'unica nozione (quella di alef) la considerazione cardinale e ordinale degli insiemi. Fatto ben più grave, l'argomento, diversamente da quello di Russell, non si riferisce a insiemi astratti individuati entro l'universo di tutti gli insiemi, ma ad insiemi concreti, parti di una collezione ben delimitata come quella dei numeri naturali, che costituisce addirittura il primo gradino della scala cantoriana del transfinito. A questo punto, le alternative che sembravano aprirsi erano egualmente scoraggianti. Se si lasciava cadere la possibilità di ben ordinare gli insiemi ci si trovava di fronte a difficoltà insormontabili nello sviluppo delle parti più elementari della teoria del transfinito; in particolare, cadendo di conseguenza anche la confrontabilità dei cardinali, risultava praticamente impossibile risolvere anche i più semplici problemi di aritmetica cardinale. Questa via, in altri termini, se poteva salvare la teoria cantoriana dei cardinali e degli ordinali numerabili, vanificava la parte più ambiziosa della teoria del transfinito togliendole il suo principale strumento dimostrativo. D'altra parte, se si attribuiva al paradosso il significato di dimostrazione della sostanziale indeterminatezza del concetto generale di « insieme definito » ci si trovava in una situazione ancora più imbarazzante. Negare infatti un significato determinato e univoco al concetto di « insieme definito » significava togliere determinatezza anche al principio cantoriano di considerare come dato ogni insieme individuato da una proprietà formulata linguisticamente. Come nel caso del paradosso di Russell, ma in una forma più sfuggente, ci si trovava di fronte alla necessità di negare un significato preciso al concetto di individuazione mediante una condizione linguisticamente definita, di negare significato, quindi, alla stessa nozione cantoriana di insieme. Entrambi questi paradossi, ma del resto anche quelli più o meno contemporanei di Burali-Forti e di Richard, colpivano le nozioni centrali, dal punto di vista matematico e logico, della teoria cantoriana; ma quel che più conta, proprio quelle nozioni che erano direttamente coinvolte nella ricostruzione fregeana e dedekindiana delle strutture classiche dei numeri naturali e reali. Se ora teniamo conto del valore paradigmatico che queste ricostruzioni avevano avuto come esempi della possibilità di determinare (ricostruire) i concetti matematici fondamentali su basi puramente logiche o comunque libere da presupposti empirici o psicologici, ci si può rendere conto dell'effetto disastroso che i paradossi ebbero non tanto sulla pratica matematica, che come abbiamo visto ne fu colpita solo in parte, ma sulla stessa concezione della matematica che i lavori di Frege, Dedekind e Cantor avevano portato avanti. La possibilità di creare concetti non era poi così « libera » come Cantor aveva supposto: dovevano esistere con197
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dizioni limitanti di cui sembrava difficile affermare la natura puramente logica. Le antinomie a questo riguardo sembravano non lasciare scampo: o si rinunciava a concepire come determinato in modo assoluto, puramente logico, il concetto di insieme come estensione di una proprietà, o si doveva ammettere che c'era qualcosa di profondamente sbagliato nella analisi logica che si era condotta. In entrambi i casi la questione riguardava ormai non più la sola teoria degli insiemi, ma la natura stessa della costituzione dei concetti matematici. Di fronte a questa nuova situazione gli atteggiamenti furono diversi a seconda del ruolo che si assegnava alla teoria degli insiemi e del significato logico generale che si dava ai suoi concetti base. Per i creatori dell'approccio logicista, come è naturale, l'effetto fu drammatico: Frege riconobbe il sostanziale fallimento del suo programma e cessò di fatto ogni attività in questo senso specifico; Dedekind, non meno compromesso di Frege, per lungo tempo si oppose alla ripubblicazione di Essenza e significato dei numeri, e abbandonò definitivamente l'impresa. All'estremo opposto la posizione di alcuni matematici, come ad esempio A. Schonflies che ricorrendo a una netta distinzione fra matematica e logica riteneva di poter uscire dalle difficoltà relegando i paradossi nell'ambito della pwblematica puramente filosofica. Accanto a queste posizioni, estreme in senso opposto, si situano i veri e propri tentativi di risposta alle antinomie. La storia del loro articolarsi e della problematica cui diedero origine coincide ormai con la storia della logica almeno per i primi trent'anni del nostro secolo, ed è compito dei prossimi paragrafi darne una presentazione non del tutto approssimativa. Qui vogliamo tuttavia tracciare un panorama generale di tale sviluppo, che ne indichi per sommi capi le grandi linee direttive e i loro collegamenti. Se questo ci porterà di necessità a istituire distinzioni e antitesi troppo drastiche potrà permettere però di avere una visione d'insieme del mutuo intrecciarsi di problematiche e posizioni che ad un'analisi più dettagliata potrebbero sembrare del tutto irrelate. Come si è visto sopra, l'aspetto più rilevante dei paradossi era il fatto che essi colpivano la connessione stabilita da Frege, Cantor e Dedekind fra logica e matematica; in altri termini, veniva messa in crisi la possibilità di definire con un vocabolario e principi puramente logici, privi di riferimento a dati esterni, e quindi assoluti, i concetti matematici fondamentali. Chiarito questo, è anche ovvio che le posizioni che emergeranno in seguito alla scoperta delle antinomie vorranno tutte rispondere a una domanda di fondo: che rapporti esistono fra logica e matematica, in che senso la matematica può essere una scienza certa? Cronologicamente, la prima risposta sufficientemente articolata, almeno a livello programmatico, è quella di un netto rifiuto ad ogni possibile fondazione della matematica su basi logiche con la conseguente affermazione dell'autonomia dalla logica dei concetti matematici fondamentali. È questo, sostanzialmente, il punto di partenza di Poincaré, punto di partenza comune della posizione « empi-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
rista » della scuola degli analisti di Parigi 1 quanto più tardi del ben più radicale intuizionismo brouweriano. Corollario immediato di questa posizione doveva poi essere l'individuazione di una «fonte» dei concetti matematici (almeno di quelli alla base della pratica matematica classica, teoria degli insiemi esclusa) che ne garantisse l'oggettività, o in altri termini la possibilità di studio rigoroso. La risposta a questo problema, seppure con enfasi diverse, è comune tanto a Poincaré quanto a Luitzen Egbertus Jan Brouwer (I 8 8 I- I 966): la matematica ha un contenuto suo proprio che le proviene direttamente e senza mediazione dall'intuizione ed è come tale indipendente tanto dall'esperienza sensoriale quanto dalla strutturazione logica. In questo senso, la logica non è che una veste che per scopi di comunicazione viene imposta a contenuti che ne sono del tutto indipendenti. La logica rimane quindi una pura forma, irrimediabilmente vincolata a strutture linguistiche e come tale niente affatto normativa nei riguardi di contenuti che provengono da ben altra fonte, l'intuizione appunto. Scompare così il ruolo creativo della logica come capace di ricostruire e addirittura creare ex twvo i concetti matematici di base. In questa prospettiva le antinomie sono le eloquenti illustrazioni di come, una volta affidatisi al puro gioco formale della logica e dell'apparato linguistico, ci si possa imbrogliare come in uno scioglilingua. Per Poincaré, i paradossi non colpiscono minimamente la matematica «vera» quella fondata su precisi dati intuitivi, proprio perché la nozione d'insieme cantoriana è una creazione puramente logico-linguistica sprovvista di contenuti intuitivi. Il problema diviene allora quello di giustificare la pratica matematica isolandone i contenuti intuitivi; solo a questo patto infatti, questa posizione« intuizionistica » (in senso lato) non si risolve in un puro e semplice nominalismo. Affermare che la matematica ha contenuti intuitivi è una cosa; individuare tali contenuti e giustificarne lo statu.r è un'altra cosa. È proprio nella risposta a questa domanda fondamentale che le posizioni di Poincaré, della scuola di Parigi e di Brouwer si distanziano tra loro e dalle tesi di Kronecker, storicamente contemporanee alla creazione di Cantar. Alla base di tutte queste concezioni sta un unico concetto, pur diversamente caratterizzato: quello di costruzione (matematica); ed è sulla sua base che si articola l'intera analisi del contenuto intuitivo della matematica. Come infatti per Frege e per Cantor esisteva il problema di definire i vari enti matematici partendo da semplici dati della logica, così per queste forme di costruttivismo e intuizionismo il problema centrale è quello di costruire a partire da dati intuitivi i concetti base della matematica classica. È a questo livello che le posizioni divergono; pur accettando tutti come dato l'esistenza della succesr I cui aderenti vengono anche detti « semiintuizionisti » riservando la qualifica di « intuizionisti » o « neointuizionisti » ai seguaci della dottrina di Brouwer. Fra i semiintuizionisti
1
francesi della scuola di Parigi vanno ricordati Émile Bore! (1871-1956), René Baire (1874-1932) e Henri Léon Lebesgue (1875-1941).
99
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
sione dei naturali concepita come possibilità in potenza di iterare la stessa operazione di passaggio al successore, diverse sono le posizioni sul come, da questa totalità infinita potenziale, si possono ottenere altri enti, altre totalità. In questo caso è dall'analisi diretta dell'attività intuitiva che scaturiscono le risposte al problema. Come osserva Poincaré, se si concepisce la creazione degli enti matematici come correlato dell'attività intuitiva risulta evidente che l'unico modo per ottenere da enti dati nuovi enti è quello di definire questi ultimi in modo contenutisticamente sensato a partire dai primi. In altri termini, è possibile ottenere oggetti matematici solo ricorrendo ad enti già dati senza far riferimento a totalità non ancora costruite, quindi in particolare alla totalità cui gli enti definiti devono appartenere. È questo quel principio del circolo vizioso che costituisce il punto di partenza della posizione cosiddetta predicativista. Su questa base, Poincaré, come gli analisti della scuola di Parigi e lo stesso Brouwer basano la loro critica alla teoria cantoriana e ai tentativi (di Russell come di Zermelo) di porre rimedio alle antinomie. Una volta accertato, proprio mediante l'insorgere dei paradossi, che l'unico modo per fondare al di fuori di ogni dubbio la matematica è quello di riportarsi all'analisi dell'attività matematica che è alla sua base, e una volta riconosciuto che l 'intuizione pone come dati dei contenuti solo se è in grado di afferrarne le modalità di costruzione, risulterà chiaro che ogni riferimento alla totalità degli enti matematici, o anche dei soli insiemi, era destituito di ogni senso intuitivo; si riduceva ad un semplice gioco linguistico il quale anche se, opportunamente regolato, poteva non portare ad antinomie, risultava comunque privo di contenuto. Alla operazione di potenza cantoriana e al suo principio di comprensione, Poincaré opponeva così il principio del circolo vizioso come criterio di significatività, di specificazione d'insiemi. Se l'analisi di Poincaré, pur nella sua fecondità come strumento di individuazione dell'origine delle antinomie, sembrò ai non costruttivisti come Bertrand Russell (I 872-I97o) e Ernst Zermelo (I 87I-I95 3) (e allo stesso Konig) una limitazione troppo pesante per la definizione degli insiemi, per i costruttivisti in senso proprio come Brouwer non poteva, viceversa, essere ancora sufficiente. La critica di Poincaré, infatti, in ultima istanza, aveva colpito solo un aspetto del realismo e « logicismo » cantoriano, e cioè la sua pretesa di affermare l'esistenza di enti (o insiemi) sulla semplice base della loro definibilità (e non costruibilità) a partire da enti già dati. La sostituzione al concetto di definibilità, puramente formale, di quello basato sull'analisi intuitiva di costruzione partendo dal principio del circolo vizioso aveva eliminato proprio questa assunzione, mostrandone il significato puramente linguistico. Nell'analizzare però il concetto di costruzione Poincaré, secondo Brouwer, si era pur sempre fondato su considerazioni linguistiche e logico-formali; egli aveva infatti ammesso che un insieme
200
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
(o un ente qualsiasi) definibile in modo finito esclusivamente in termini di enti già dati poteva essere considerato come dato, come intuitivamente comprensibile. Era proprio questo, a parere di Brouwer, il limite del predicativismo di Poincaré, questa sostanziale accettazione di una nozione ancora « linguistica » e formale di costruzione, non sorretta, o meglio, sostituita da un'analisi diretta dell'effettiva attività intuitiva. In questo modo Poincaré, come anche Borel e Baire, avevano potuto accettare come fondata, anche se con esitazioni e tentennamenti, larga parte della teoria classica del continuo. Pur ricollegandosi esplicitamente al loro lavoro, Brouwer, ad iniziare dagli anni attorno al 1910, tentò appunto l'impresa più audace di ricostruire la matematica ex novo, basandosi su un'analisi diretta del concetto di costruzione e rigettando così ogni forma di compromissione con la matematica classica o con l'atteggiamento logicista. Nella sua lunga vita e con l'aiuto di numerosi collaboratori, Brouwer riuscì così a creare una vera e propria matematica il cui significato va cercato proprio nella fondazione intuitiva e non puramente linguisticoformale che si trova alla sua base. Il salto dalla posizione di Poincaré è così molto netto: Poincaré e gli stessi semiintuizionisti francesi si erano posti il problema di ricostruire la maggior parte possibile della matematica classica basandosi sul criterio della «costruibilità» (ma abbiamo visto con che limitazioni) dei suoi concetti base; per Brouwer il problema è quello di creare una nuova matematica, abbattendo i « rami secchi » nati da puri giochi linguistici privi di contenuto intuitivo genuinamente costruttivo. Cade così la teoria cantoriana degli insiemi, cade la teoria stessa del continuo classico. Alloro posto, in un lungo giro d'anni, Brouwer riuscì a sostituire altri concetti base, quali quelli di spiegamento, di specie e infine quello di successione di libera scelta, che permettono di costruire una vera e propria teoria intuizionista del continuo. Alla base di questi concetti, come abbiamo detto, sta la posizione fondamentale dell'intuizionismo di netto rifiuto di ogni contaminazione e imposizione da parte dell'apparato logico e linguistico. Questo non significa ovviamente che Brouwer non usi strumenti dimostrativi, ché ciò sarebbe negare la natura esatta del pensiero matematico; ma afferma recisamente che la logica non ha una legittimità sua propria che sia superiore a quella data dai contenuti matematici specifici. La logica classica di cui ancora si era fidato Poincaré è un'estrapolazione puramente linguistica da situazioni specifiche, da metodi dimostrativi validi concretamente in ambiti più ristretti. Brouwer così rigetta il principio distintivo della logica classica, il terzo escluso, appunto come un'illecita estrapolazione non valida in generale. Se infatti l'uso del terzo escluso è lecito su domini finiti in guanto in questo caso non fa che riflettere un atto intuitivo ben preciso (la possibilità cioè di costruire un controesempio di un'affermazione non vera sul dominio in c1uestione) il suo impiego non è invece ammissibile in un dominio infinito o in generale in presenza di proprietà non dominabili intuì201
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
tivamente e non effettivamente decidibili. Con questo, la critica brouweriana raggiunge il suo punto più decisivo: il rifiuto della logica classica stessa come contenutisticamente non giustificata. Non si può immaginare contrapposizione più netta con l'atteggiamento logicista. Se infatti per Frege la logica classica era al di fuori di ogni dubbio, forma in grado di costituire gli stessi contenuti matematici, per Brouwer essa non solo risulta subordinata e secondaria rispetto all'operare matematico concreto, ma addirittura non accettabile. Dalla crisi dei fondamenti concepita come crisi del rapporto tra legittimità logica e matematica, emerge così una posizione che, con una chiarezza e un'articolazione sino ad allora mai viste, poneva per la prima volta il problema della validità stessa delle tradizionali leggi logiche. Soprattutto dopo la codificazione dei principi della logica e dell'aritmetica intuizioniste ad opera di Arend Heyting (n. I 898) verso il I93o, la posizione di Brouwer diventerà una delle correnti centrali della ricerca logica di questo secolo. In senso lato si può affermare che sotto lo stimolo della sua critica si giunse alla chiarificazione di concetti quali quello di computabilità, costruzione ecc., allo studio di logiche più deboli di quella classica, ed in generale all'interesse sempre "più articolato per il contenuto costruttivo delle singole teorie matematiche. Non è esagerato dire, in altri termini, che proprio alla critica intuizionistica si deve in gran parte l'estendersi e l'approfondirsi dell'analisi resa necessaria dai paradossi. Lo stesso formalismo, come pure il logicismo, come vedremo, pur partendo da posizioni nettamente diverse, ricevettero potenti stimoli alla propria autochiarificazione dal confronto diretto col predicativismo prima e con l'intuizionismo poi. Ed è proprio da un tentativo di riprendere in chiave logicista il principio del circolo vizioso di Poincaré che prese appunto le mosse Bertrand Russell in collaborazione con Alfred North Whitehead (I86I-I947) 1 nel suo tentativo di costruire su basi logiche l'intero edificio della matematica classica, teoria degli insiemi inclusa. I Principia mathematica, la cui prima edizione risale al I 9 I o- I 3, nascono infatti all'insegna di questa doppia influenza: da una parte l'analisi fregeana della logica e dei fondamenti dell'aritmetica, dall'altra i dibattiti suscitati dal predicaI Pur essendo opera di collaborazione, i Principia mathematica devono in massima parte a Russell il loro impianto « filosofico » logicista nell'accezione qui intesa. Questa conclusione può ricavarsi e dalle dichiarazioni dei due autori e dall 'i m postazione e dal contenuto dei lavori di Russell anteriori ai Principia che verranno citati nel paragrafo II. I; Whitehead concorse attivamente e pesantemente al lavoro comune soprattutto per quanto riguarda la parte più propriamente tecnica. Va ricordato tuttavia che già nel I898 Whitehead aveva pubblicato A treatise on universal algebra with applications (Trattato di algebra universale con applicazioni) che, secondo Couturat che lo recensì nel I9oo, portava alla «conclusione filosofica»
che tutta la matematica è fondata sull'algebra della logica. A nostro parere tuttavia questo trattato di Whitehead va riguardato piuttosto come una prima, moderna e sistematica presentazione della matematica intesa come «lo sviluppo di tutti i tipi di ragionamento formale, necessario e deduttivo », e nella quale presentazione Whitehead sembra esplicitamente trascurare la « controparte » filosofica della questione, salvo eventualmente che nella parte introduttiva. Ecco perché noi, parlando in generale di logicismo, ci riferiremo essenzialmente a Russe!!. Naturalmente ciò non significa che Whitehead non abbia sviluppato una sua propria « filosofia ». Si veda per questo il capitolo v del volume settimo.
202
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
t1v1smo di Poincaré e più in generale dai paradossi. Il logicismo di Russell si pone come punto di confluenza di questi due filoni di ricerca; più radicale per alcuni versi di quello fregeano, esso presenta nel contempo problemi e aspetti tecnici che ne fecero ben presto un punto di riferimento obbligato nell'indagine dei fondamenti non solo per i logicisti, ma per tutti coloro per i quali la questione dei rapporti fra matematica e logica non poteva risolversi così drasticamente come era stato fatto da Poincaré e dai semiintuizionisti. L'obiettivo centrale dei Principia è infatti quello di mostrare come, una volta analizzato opportunamente il meccanismo delle antinomie, fosse possibile ricostruire l'edificio della matematica classica a partire da nozioni e principi logici. È questo il logicismo russelliano. Se da una parte esso può considerarsi la ripresa, poste le dovute precauzioni contro le antinomie, del programma fregeano, dall'altra costituisce un fatto decisamente nuovo, alla cui origine stanno elementi e stimoli eterogenei. Per Russell, diversamente che per Frege, non esistono eccezioni alla riduzione della matematica alla logica: teoria dei numeri, analisi, teoria del transfinito, geometria, sono tutte in egual grado diverse articolazioni di un contenuto logico unico, diverse organizzazioni (o esplicitazioni) di quelle «forme» che costituiscono l'oggetto ed il contenuto stesso della logica. In questo senso il logicismo russelliano nasce come esplicito bilancio ed interpretazione di tutto il lavoro sui fondamenti fatto nel secolo precedente e si pone quindi in modo naturale come antagonista delle nuove concezioni predicativiste e semiintuizioniste che partivano da ben altra analisi di quello stesso lavoro. L'assunto di fondo, per Russell, è infatti il carattere di organizzazione formale e di schematizzazione di contenuti extralogici di ogni concetto e teoria matematica. Ben ]ungi quindi dal trovare il proprio significato nel collegamento con specifici contenuti matematici (intuizione della successione dei naturali ecc.) le singole teorie matematiche trovano la loro ragion d'essere e la loro determinatezza nel tipo di schemi generali astratti che individuano. Il loro ruolo nel sistema della conoscenza umana è appunto quello di fornire e rendere esplicite queste forme. Che poi queste, per ragioni del tutto contingenti e legate alla natura particolare del mondo della nostra esperienza o intuizione, risultino applicabili oppure no, di volta in volta, ad ambiti specifici e limitati, non toglie nulla al loro carattere puramente logico e astratto: la natura di scienza esatta della matematica discende da questo loro carattere, e non dalla connessione con particolari ambiti intuitivi. Dire però che le singole teorie matematiche non hanno un contenuto specifico offerto dall'intuizione o dall'esperienza non significa per Russell che l'intero edificio della matematica non abbia contenuto e sia un puro sistema formale. Sono le stesse forme, isolate e definite in termini logici generali, che costituiscono il contenuto della matematica nel suo complesso, ed è in questo senso che la matematica non è che un aspetto della logica e su di essa si fonda. L'obiettivo, il contenuto della logica, è così costituito dalla totalità delle forme
www.scribd.com/Baruhk
La logica·nel ventesimo secolo (1)
e degli schemi considerati nella loro universalità, di cui il matematico fa uso in ambiti determinati: i teoremi della logica (e della matematica) sono tutti gli enunciati universali, veri, riguardanti le sole costanti logiche fondamentali; sono forme pure, svincolate da ogni riferimento particolare. In questo senso, il ribaltamento rispetto alle concezioni semiintuizioniste è completo: la logica ritorna al suo posto centrale, riconfigurandosi come in Frege, ma in maniera ben più determinata, come costitutiva degli oggetti stessi della matematica. Ma che cosa è la logica? È questa la domanda fondamentale a cui Russell, e dopo di lui tutto il logicismo post-fregeano, era costretto a dare una risposta per salvare il senso del programma generale. Per Frege la logica si poteva configurare come un edificio compatto e sostanzialmente unitario fondato da una parte sulla esplicitazione dei canoni di inferenza, dall'altra sui principi (il principio v dei Grtmdgesetze) che stabilivano le condizioni necessarie e sufficienti affinché un concetto, specificato facendo ricorso al solo significato delle costanti logiche, potesse considerarsi determinato e quindi possibile oggetto di predicazione. In questo modo tutti i possibili concetti astratti purché determinati, e quindi tutte le possibili forme, venivano ad essere costrutti pienamente dominabili una volta che si fossero stabiliti i significati delle costanti logiche fondamentali: era questa la « grande logica ». Con la scoperta delle antinomie però risultava chiaro che ciò non era possibile e che solo apparentemente questo edificio logico era così netto nelle sue articolazioni fondamentali. Le alternative che si aprivano erano due, come avevano chiaramente sottolineato Poincaré e i semiintuizionisti: o si rinunciava all'idea della matematica come studio delle forme e quindi al programma logicista, oppure si dichiarava inaccettabile la logica usata da Frege e ci si sobbarcava l'onere di costruirne una plausibile e adeguata al programma. Il grande contributo di Russell sta nell'aver mostrato come la seconda alternativa fosse praticamente realizzabile, ridando così significato al programma logicista. Non deve stupire allora che sia proprio dal principio del circolo vizioso di Poincaré che prende le mosse la nuova analisi russelliana e la sua teoria dei tipi ramificati. Questa teoria, che Russell adottò nei Principia dopo tante esitazioni, non significa affatto una rinuncia al programma ed una conversione a una visione basata sul sintetico a priori o sull'intuizione, quanto la presa di coscienza della necessità di analizzare all'interno gli stessi concetti di proposizione, di universalità ecc. che Frege aveva assunto come inanalizzati. È il primo passo di quella ricostruzione globale dei concetti logici fondamentali che il logicismo avrebbe posto come suo obiettivo. L'atteggiamento con cui Russell si pone di fronte al problema è infatti decisamente « sperimentale »; in conformità alla sua visione generale della logica (e della matematica) come scienza delle forme astratte definite ricorrendo a un dato 204
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
vocabolario di idee logiche primitive e sulla base di pochi principi logici fondamentali, egli si impone come metodo esclusivo quello di passare in rassegna il dominio sterminato di concetti, schemi definitori e dimostrativi in pratica usati nell'intera matematica, di analizzarne l'articolazione interna, per giungere infine all'isolamento delle idee e dei principi fondamentali. Questo gli permette di raggiungere due obiettivi: da una parte l'individuazione dei concetti base in grado di evitare le antinomie, dall'altra la prima vera unificazione e ricostruzione della matematica sulla base di un esiguo numero di concetti e principi logici fondamentali. Certo, sfondo di tutto questo enorme lavoro sono i contributi dell'analisi logica del secolo xrx, ma mai si era raggiunta la concreta dimostrazione ostensiva di come di fatto poche idee primitive e pochi assiomi potessero permettere la ricostruzione di tutta quanta la matematica classica, teoria del transfinito e geometria incluse. In questo senso, meriti e demeriti intrinseci della teoria dei tipi a parte, i Principia !Jlathelllatica costituiscono una pietra miliare nella storia della logica di questo secolo. Nei tre volumi di cui sono costituiti, l'unificazione di tutta la matematica classica sulla base di alcuni assiomi e nozioni fondamentali (siano poi queste puramente logiche o no) non è affermata a parole, ma realizzata in concreto. Questo aspetto non va dimenticato se si vuole afferrare il senso che illogicismo russelliano (e post-russelliano) hà avuto nella storia di questo secolo. L'obiettivo è quello di realizzare la ricostruzione di tutta la matematica, di unificarla sulla base di pochi concetti primitivi costituendo una « grande logica » come fondazione del pensiero astratto nella sua globalità. Di fronte a questa meta finale, le singole soluzioni adottate (teoria dei tipi ramificati, teoria dei tipi semplici ecc.) hanno un significato di tentativi di analisi, di esperimento, non di riduzione decisiva. Diversamente dai neointuizionisti e poi dai formalisti, il logicismo, quello di Russell soprattutto, non parte da assunzioni di fondo che poi cerca di rendere esplicite o di realizzare, ma si pone piuttosto come un lavoro di approssimazione, di adeguazione attraverso il raffinamento dell'analisi; e questo spiega le sue ambiguità di fondo e le sue incertezze. La teoria dei tipi ramificati presentata da Russell e Whitehead nei Principia è l'esempio più significativo di questo atteggiamento. Non diversamente da Poincaré, Russell, come si è detto, identifica nelle definizioni impredicative l'origine delle antinomie e assume come criterio di significatività degli enunciati il principio del circolo vizioso. Solo che, diversamente da Poincaré, non concepisce questo principio come giustificato dalla necessità di sostituire, alle pure definizioni, costruzioni che per loro stessa essenza debbono essere predicatiYamente definite, ma lo vede come un criterio generale che fissa i limiti di significatività degli enunciati, o meglio alcuni di questi limiti: quelli sufficienti per evitare i paradossi. Alla necessità di concepire le funzioni enunciative come 205
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
disposte in una doppia gerarchia di tipi e di ordini, Russell giunge pertanto dall'analisi dei domini di significatività delle funzioni enunciative, anche quest'ultima condotta non sulla base di una nozione generale del concetto di campo di significatività, ma a partire dalla semplice constata7:ione « empirica » che. in qualunque modo si concepisca il significato di una forma enunciativa, per evitare i paradossi basta supporre che i domini di significatività siano disposti in una gerarchia, cosicché gli enunciati (o gli enti) paradossali vengono eliminati come non significanti. Certo Russell è convinto che l'idea di fondo della teoria dei tipi, di disporre tutti gli enti logici (funzioni enunciative, enunciati ecc.) in una scala secondo il grado di complessità, è un'idea naturale, intuitiva: l'universo risulta così concepito come disposto in una gerarchia il cui gradino più basso è costituito dagli enti logicamente semplici, inanalizzati, e ogni altro gradino è ottenuto dai precedenti collezionando e facendo riferimento alle totalità dei livelli più bassi. D'altra parte, però, ben lungi dal concepire questo quadro intuitivamente abbastanza plausibile come una descrizione adeguata della situazione, egli è perfettamente consapevole che l'ambiguità tipica delle nozioni logiche fondamentali (vero, falso, universalità, totalità ecc.) porta a non poter ricostruire concetti ed enunciati validi di uso essenziale. Diversamente da Poincaré, Russell, pur essendo il primo a costruire una vera e propria teoria predicativista (perché tale è la teoria dei tipi dei Principia una volta che non si postuli la riducibilità) non è affatto dell'idea che solo i ragionamenti e le definizioni predicativisti siano validi. Tutta la matematica classica, alla cui ricostruzione egli mira, fa uso essenzialmente di procedimenti non predicativisti. Il contrasto tra queste due posizionipredicativismo dell'apparato logico e non predicativismo della matematica che si vuole ricostruire - viene risolto da Russell postulando l'assioma di riducibilità che afferma la possibilità di trovare per ogni funzione enunciativa una funzione predicativa equivalente, in modo da poter dare un senso anche a quegli enunciati che predicativi non sono: è quindi possibile riprodurre entro la teoria dei tipi così allargata tutti i ragionamenti non predicativi validi nella matematica classica. Per strano che possa apparire, è solo un appello alla sua necessità in questo recupero che Russell porta a difesa dell'assioma: è lo stesso tipo di giustificazione che usa pure per gli altri assiomi che è costretto a postulare, quello dell'infinito («esistono infiniti individui distinti») assunto per poter definire i numeri naturali, e quello della scelta («assioma moltiplicativo »). Nessuno di questi assiomi, per quanto intuitivamente plausibile, ha alcuna cogenza di logica necessità; eppure Russell non si sente costretto a rinunciare alla sua tesi fondamentale per cui la matematica è logica. A tutte le obiezioni la sua risposta è sempre la stessa: questi assiomi sono presentati come risultato di un'analisi che potrà in futuro risultare troppo rozza, ma posseggono un grado induttivo di plausibilità molto zo6
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
alto. Non c'è nulla di strano in questo per Russell: il dominio dei concetti logici non ci è immediatamente noto; la logica che li studia è quindi in buona parte una scienza che li costruisce mediante un lavoro di analisi della realtà, delle intuizioni concettuali in uso, del tutto simile a quelle del fisico che procede con approssimazioni induttivamente giustificate. L'essenziale è che l'analisi e i concetti « teorici » cui essa porta S>iano in grado di spiegare la realtà data, di ricostruirla. Il resto, come dirà il più grande logicista dopo Russell, Frank Plumpton Ramsey (1903-1930) è questione di «dettaglio», di perfezionamenti successivi che non possono vanificare la tesi di fondo. In questa posizione c'è una forte dose di ambiguità, inevitabile d'altra parte dopo il crollo del programma logicista nella forma fregeana ad opera dei paradossi. La necessità di ridefinire l'idea stessa di logica portava come conseguenza oscillazioni dovute alle esigenze contrastanti di non assumere una logica troppo ricca da ingenerare paradossi e di averla però sufficientemente potente da permettere una descrizione della matematica classica. La soluzione russelliana era un esempio di questa ambiguità, come fu ben presto realizzato da più parti. Nel suo tentativo di ricostruire la matematica su base logica Russell come abbiamo visto era stato costretto a postulare fra i suoi assiomi il principio di riducibilità, l'assioma di scelta e quello dell'infinito. Tutti questi assiomi in un modo o nell'altro facevano assunzioni il cui carattere esistenziale trascendeva decisamente ogni norma di verità logica plausibile e si ponevano così come innegabili assiomi di carattere extralogico o sintetico, come non tardò ad obiettare lo stesso Poincaré. La fondazione russelliana, in altri termini, poteva salvare l'idea logicista di una grande logica, come edificio unitario in cui ricostruire tutta la matematica, solo a patto di estendere la nozione di logica sino a comprendere principi di carattere sintetico. In che senso si poteva parlare ancora di logica con simili assunzioni? Lo stato logico di questi assiomi risultava nettamente problematico, e lo sforzo del logicismo post-russelliano fu proprio quello di mostrare come, mediante un'analisi ulteriore della base logica e del meccanismo dei paradossi fosse possibile o chiarirne lo status logico o, più decisamente, eliminarli. Le tappe di questa ricerca di una precisazione del concetto di logica, segnarono tutte, in un modo o nell'altro, lo sfaldamento dell'edificio unitario dei Principia. Il punto centrale della controversia rimarrà pur sempre l'assioma di riducibilità, assioma che diversamente da quello dell'infinito o della scelta sembrava da una parte giustificato più che altro da considerazioni ad hoc, non motivate da un'analisi diretta dei concetti fondamentali, dall'altra introduceva nel sistema dei Principia un'assunzione esplicitamente esistenziale, un'ipotesi del tutto ingiustificata a priori, proprio sulla natura delle funzioni proposizionali. È significativo che proprio su questo assioma, che costituisce il trait d'union tra una concezione realista ed una predicativista, si siano concentrati gli interessi dei logicisti dopo i Principia. Le alternative a proposito dell'assioma riaprivano così una 207
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dicotomia di fatto non risolta tra atteggiamento realistico e costruttlvlstlco. Il primo passo verso questa separazione venne compiuto dal polacco Leon Chwistek (1884-1944) in alcuni lavori del 1923-24. In essi, rigettando decisamente l'assioma di riducibilità, Chwistek faceva emergere dai Principia una teoria dei tipi costruttivi che si poneva come precisazione delle idee predicativiste di Poincaré. In questo modo l'atteggiamento predicativista prendeva il sopravvento e illogico polacco era così costretto a rinunciare a parte della matematica classica la cui ricostruzione, senza riducibilità, risultava impossibile. Chwistek andava più in là, sostenendo la possibilità di derivare dal principio di riducibilità il paradosso di Richard. La dimostrazione, come fu sottolineato tra gli altri da Ramsey, era erronea, però metteva in luce un'ambiguità sottile presente nel sistema: in che senso l'assioma di riducibilità, che annullava «a meno di equivalenze » la distinzione tra funzioni predicative o meno, non vanificava proprio quell'applicazione del principio del circolo vizioso che permetteva di risolvere le antinomie? Il fatto centrale, messo in luce da Ramsey nel I 926, stava in questo: le antinomie possono classificarsi in due categorie: quelle riguardanti nozioni matematiche (antinomia di Russell, di Burali-Forti ecc.) e quelle riguardanti nozioni logiche e linguistiche generali (antinomia di Richard, di Konig ecc.). Queste ultime hanno la proprietà di fare riferimento a contesti non estensionali come le prime. In altri termini, non è possibile date due funzioni proposizionali estensionalmente equivalent,i (tali cioè che per argomenti uguali abbiano valori uguali) e affermato che una delle due è definita in un dato modo, affermare che anche la seconda lo è. Nozioni come quella di definibilità (su cui si fonda il paradosso di Richard, come quello di Konig) non ammettono la sostituibilità di funzioni estensionalmente equivalenti; proprio perché esse fanno riferimento alle condizioni linguistiche con cui le funzioni sono specificate, la semplice equivalenza estensionale non è sufficiente per avere la sostituibilità in questi contesti. In questo senso il principio di riducibilità non implica paradossi come quello di Richard. Esso postula la possibilità di avere per ogni funzione non predicativa una predicativa estensionalmente equivalente; ma per derivarne un paradosso è necessario che l'equivalenza sia più stretta, e riguardi il modo di definizione, cosa questa che l 'assioma di riducibilità non fa. Se questo mostra come il principio non sia contraddittorio, pone però in luce una limitazione di altro tipo. La « grande logica » di Russell, per poter ricostruire l 'intero edificio della matematica classica, è costretta a espungere come irrilevanti distinzioni fondamentali, riguardanti nozioni come quella di definibilità, che fanno centro attorno alla intensione dei concetti. Come ammette lo stesso Ramsey, l'eliminazione della considerazione di queste distinzioni (con la conseguente possibilità di poter superare le antinomie del secondo tipo) trasforma la logica di Russell in un « sistema simbolico » che non può più aspirare a presentarsi, come avveniva per 208
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
quello di Frege, quale «analisi del pensiero» (non psicologicamente inteso). È accettando questa rinuncia che Ramsey nel 1925 giunge finalmente apresentare un sistema che, rigettando l'assioma di riducibilità, riesce d'altra parte a fondare l'intera matematica classica. Il sistema di Ramsey è in certo senso l'opposto di quello di Chwistek. Mentre quest'ultimo considerava come rilevanti le distinzioni intensionali e per questo rifiutava la riducibilità mantenendo però le distinzioni tra ordini delle funzioni proposizionali, Ramsey elimina anch'egli la riducibilità, rifiutando però d'altra parte anche la distinzione in ordini. La grande scoperta di Ramsey è infatti questa. Una volta considerate come non pertinenti a un sistema logico, e quindi non da ricostruirsi in esso, nozioni intensionali quali quelle coinvolte nei paradossi di secondo tipo, rimangono da superare solo i paradossi del primo tipo. Ma per far questo non occorre gerarchizzare le funzioni proposizionali in ordini e tipi, basta limitarsi a questi ultimi. L'universo viene quindi stratificato solo in base alla complessità antologica, « estensionale » delle funzioni, e non secondo la complessità intensionale delle loro definizioni. La teoria dei tipi semplici che così emerge riesce a raggiungere i due obiettivi che Russell si era posto: l'eliminazione dei paradossi e la fondazione della matematica classica. A prezzo però di una rinuncia: quella di considerare come non degne di studio da parte della logica le distinzioni intensionali. In Russell queste erano presenti attraverso la gerarchia degli ordini, ma venivano sostanzialmente lasciate da parte (via riducibilità) una volta che si trattava di fondare la matematica. Ramsey accentua così questo aspetto della « pratica » di Russell, eliminando tout court la distinzione. Ma è lecito espungere dalla logica simili considerazioni? L 'altra via, quella di Chwistek, che questa rinuncia non richiede, sembrava d'altra parte disperata o, come disse Russell, «eroica» in quanto imponeva la rinuncia alla matematica classica. Se il sistema di Ramsey non presentava questa difficoltà ne presentava quindi un'altra, che riguardava la nozione stessa di logica, che sempre più si andava discostando dal progetto fregeano di grande logica, come sistema generatore di tutti i concetti astratti. Con Ramsey il logicismo giungeva così a una impasse che ne segna in certo senso la fine. Con eccezionale lucidità Ramsey esamina una per una le possibilità che rimangono aperte. Abbiamo già parlato della riduzione estensionale e quindi realistica che la sua eliminazione degli ordini aveva portato. Ma un altro problema generale si prospetta. Per Russell, abbiamo visto, la logica era l'insieme di tutti gli enunciati universali veri riguardanti solo costanti logiche; ma in che senso formulazioni del genere erano legittimamente concepibili come leggi logiche? Questa soluzione rientrava nell'idea russelliana di logica come studio di tutti i possibili schemi astratti, ma un'idea del genere non risultava più accettabile una volta che si concepiva la logica non più come « grande logica » ma come sistema simbolico la cui natura logica doveva risultare da altre considerazioni. Sulla scia di Ludwig Wittgenstein (r889-1951)
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Ramsey è quindi portato alla identificazione della logica come l'insieme delle leggi riguardanti le costanti logiche non semplicemente vere, ma tautologiche. Questo era l'esito naturale di una ricerca della natura della logica che gradatamente, a partire dallo stesso Russell, era stata costretta a restringere sempre più il suo orizzonte. A mano a mano, i principi esistenziali erano stati indeboliti e la logica, la « grande logica » tendeva sempre più a restringersi a pura teoria inferenziale complementata da uno schema di comprensione vincolato dalle restrizioni sui tipi. Entro questa prospettiva gli altri assiomi critici di carattere esistenziale vennero a perdere sempre più plausibilità. Così, era costretto ad ammettere Ramsey, accadeva per l'assioma dell'infinito, la cui natura era decisamente non tautologica, così per la scelta, che solo attraverso una drastica reinterpretazione poteva risultare accettabile. Nel suo saggio del 1926 Ramsey concludeva con una dichiarazione di sostanziale scacco: il logicismo nella sua forma forte vedeva così la sua fine. Con Ramsey ha termine la grande impresa, e se anche dopo di lui altre voci si alzarono per richiamare il programma fu solo, per così dire, in forma debole, come appello generale (e talora generico) alla eventuale possibilità di considerare la matematica come articolazione di un linguaggio logico generale, come un sistema organizzato sulla base di metodi dimostrativi puramente logici. Il tentativo di giustificare gli stessi assiomi come leggi logiche però scompare. Se anche più tardi si intrapresero, con Willard Van Orman Quine (n. 1908) ad esempio, tentativi di costruire sistemi logici generali, la tesi logicista della natura analitica o più in generale logica degli enti matematici sempre più andò perdendo sostenitori. Altre posizioni emersero, da una parte il costruttivismo e in particolare l'intuizionismo, ma soprattutto il formalismo che proprio negli anni in cui Ramsey scriveva andava prendendo forma definitiva. Da più punti di vista il formalismo, nella formulazione che Hilbert ne diede negli anni venti, si può considerare l'erede, in senso del tutto particolare, del progetto logicista di una giustificazione della matematica classica, teoria degli insiemi inclusa. Comune è la convinzione che alla base dell'articolazione teorica di ogni disciplina matematica debba essere la logica classica nella sua forma piena, senza restrizioni imposte da considerazioni di carattere costruttivo; comune è la rivendicazione della possibilità di fondare l'intera matematica storicamente data su basi indubitabili e certe; comune infine è la valutazione della teoria cantotiana come culmine della matematica classica, al contempo ramo specifico e sfondo concettuale unitario «paradiso (nelle ben note parole di Hilbert) da cui nessuno ci deve scacciare ». In questo senso, i lunghi dibattiti che nel corso del suo sviluppo il formalismo ebbe ad intrecciare con l'intuizionismo brouweriano costituiscono una nuova fase di quella lotta che già all'inizio del secolo aveva contrapposto il realismo (pro grammatico) di Russell al predicativismo di Poincaré e della scuola 210
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
francese. Anche in questa nuova fase sono due diverse concezioni che si trovano contrapposte: da una parte l'approccio costruttivista che mira esplicitamente alla costruzione di una matematica che sia fondata non più su schemi logicolinguistici esterni, ma su contenuti dati da costruzioni mentali; dall'altra l'approccio «classico» che concepisce il problema dei fondamenti come giustificazione di una matematica già esistente (quella classica appunto) e attraverso l'analisi dei suoi procedimenti dimostrativi e definitori cerca di portarla al di là di ogni dubbio, di renderla «affidabile» ricostruendola entro un sistema con modalità «sicure». Il fatto nuovo che il formalismo porta è però nel modo in cui questa giustificazione viene concepita, un modo che rende il confronto con il costruttivismo brouweriano più diretto e stringente. Per illogicismo, l'abbiamo visto, la via per fondare la matematica era quella dimostrarne la natura logica e quindi garantita a priori: l'affidabilità della matematica classica diveniva quindi un corollario immediato della semplice circostanza che, essendo la logica il canone stesso della legittimità, ogni legge logica risulta di per sé legittima. La travagliata storia della « grande logica » di tradizione fregeana da Russell a Ramsey mostrava però chiaramente che i principi necessari per una ricostruzione della matematica classica trascendevano di gran lunga le pure assunzioni logiche: riducibilità, infinito, scelta, erano assiomi francamente sintetici, assunzioni la cui validità non poteva certo accettarsi come autoevidente. In questo senso la « gran de logica » non offriva più garanzie di affidabilità delle stesse singole teorie particolari che voleva fondare e diveniva essa stessa una teoria matematica qualsiasi, bisognosa di giustificazione. Del resto, già prima che con Chwistek e Ramsey il logicismo mostrasse le sue difficoltà, si erano levate voci contro il tentativo russelliano di affrontare i paradossi, via l'inglobamento di tutta intera la matematica classica e in particolare della teoria degli insiemi in un unico grande sistema logico; queste obiezioni non giungevano da parte predicativista, ma da matematici quali Zermelo, Felix Hausdorff, Konig, che proprio richiamandosi ai lavori di Hilbert sui fondamenti della geometria invocavano una fondazione assiomatica della teoria degli insiemi, fondazione che non si ponesse come « grande logica » ma come specifica teoria matematica determinata da assiomi riguardanti oggetti matematici e nozioni logiche generali. Nello spirito, queste obiezioni non erano motivate da precise ragioni filosofiche quanto dalla netta convinzione che, essendo la teoria degli insiemi una teoria matematica e non un sistema logico, come tale andava trattata. Per Zermelo, come per Konig, i problemi centrali offerti dalla teoria cantotiana non erano tanto quelli delle antinomie, quanto quelli più specificatamente matematici della giustificazione di assunzioni fondamentali come il principio di scelta. Come le obiezioni predicativiste mostravano chiaramente, il problema dei paradossi era un aspetto di un problema più generale: quello dell'esistenza degli enti matematici. L'« insieme» di tutti gli ordinali e l'insieme di scelta erano en-
2.11
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
trambe collezioni la cui esistenza non era accettabile dal punto di vista predicativista; solo che, se il primo era nettamente fonte di contraddizioni e matematicamente « irrilevante », non così si poteva dire per il secondo, la cui esistenza era necessaria per lo sviluppo della teoria cantoriana. È su queste basi che nel 1908 Zermelo dava una sistemazione assiomatica della teoria degli insiemi, nel tentativo di caratterizzare l'universo cantoriano imponendo assiomaticamente condizioni sulla esistenza degli insiemi: la definizione di un universo mediante specificazioni di proprietà di chiusura formulate assiomaticamente veniva così a contrapporsi alla russelliana definizione e costruzione all'interno della «grande logica ». Si trattava di una decisiva applicazione del metodo assiomatico hilbertiano che ben presto, almeno per i matematici, costituì, malgrado le lacune portate in luce da Abraham A. Fraenkel (1891-1965) e Thoralf Skolem (1887-1963) in particolare nel 1922, la «vera» risposta al problema delle antinomie a preferenza della soluzione russelliana. Al fondo delle due impostazioni, quella assiomatica di Zermelo e quella russelliana, stava una dicotomia che già conosciamo dai dibattiti di Frege e Hilbert sui fondamenti della geometria e che è una distinzione essenziale per capire come Hilbert nel suo programma finitista pensasse di risolvere definitivamente il problema della fondazione della matematica. Per quanto riguarda l'affidabilità della matematica classica come l'esistenza degli enti matematici (due aspetti di un medesimo problema) il punto di partenza per Hilbert non è la considerazione di un sistema unitario in cui tutti i principi di formazione di oggetti matematici siano riuniti, quanto le singole teorie matematiche poste in forma assiomatica. L'affidabilità come l'esistenza matematica, in altri termini, non riguardano concetti od enti presi uno per uno ma piuttosto teorie, sistemi di enunciati. Per Hilbert l'intera matematica non è che il repertorio dei teoremi matematici storicamente dati, repertorio logicamente articolato e diviso in rubriche opportunamente ordinate che sono le teorie assiomatiche. Non esiste contenuto specifico, intuizione fondamentale, ma una pura intelaiatura logica, una rete che collega enunciati a enunciati, teorie a teorie. Sono appunto queste ultime le unità in cui si articola il discorso matematico e non i concetti o i costrutti come per Russell e Brouwer. Fondare la matematica significa quindi fondare le singole teorie e questo a sua volta significa dimostrare la loro noncontraddittorietà. Le singole teorie, come sistemi di enunciati, non sono che codificazioni di condizioni che noi poniamo sull'esistenza di enti tra loro legati da date relazioni, appartenenti al « modello » che vogliamo descrivere. In questo senso una teoria ha come criterio unico per la propria giustificazione dal punto di vista dell'accettabilità la noncontraddittorietà delle condizioni che pone: solo a questo patto è lecito considerare come « esistente » il dominio degli oggetti che essa vuol descrivere. Esistenza degli enti matematici e affidabilità delle teorie vengono così a coincidere.
2.12.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Per Hilbert, parlare dell'esistenza di un dato ente (che non sia concretamente dato) non è che usare un'espressione metaforica per dire semplicemente che le condizioni che lo specificano non sono contraddittorie: si tratta di un 'esistenza ipotetica, ideale, un « come se » vincolato da una condizione materialmente significante. In questo modo i problemi tipici del dibattito tra predicativisti e logicisti si traducono in un altro problema che non riguarda più le eventuali impredicatività in cui si può incorrere nella definizione degli enti, bensì la contraddittorietà delle condizioni che li determinano. Ma come stabilire questa noncontraddittorietà? È su questo punto fondamentale che Hilbert compie il passo decisivo per una risposta alle critiche intuizioniste. La soluzione hilbertiana si basa sulla constatazione che esiste una differenza di fondo fra i vari enunciati matematici: da una parte gli enunciati la cui correttezza è immediato riconoscere, basati come sono su contenuti materiali immediatamente apprendibili, dall'altra enunciati che non godono di questa immediatezza. Si tratta di una distinzione basata sull'evidenza e verrebbe quindi facile pensare ad una sostanziale convergenza con la distinzione intuizionista fra enunciati costruttivamente significanti e non. Ma non è così; per Hilbert non esiste, come abbiamo detto, contenuto specifico -offerto da intuizioni fondamentali- proprio ad ogni singola teoria, ma piuttosto un'unica distinzione: quella fra enunciati che si riferiscono ad oggetti concreti, configurazioni spazio-temporali, ed enunciati che fanno riferimento a totalità infinite o più in generale ad oggetti astratti. Non solo, ma esiste un 'ulteriore specificazione: gli enunciati immediatamente evidenti sono quelli che parlano di oggetti concreti solo per quel che riguarda loro proprietà effettivamente dominabili, concretamente verificabili mediante manipolazione. Questi enunciati fanno parte di una matematica originaria, di un nucleo primitivo del pensiero su cui non esistono dubbi, legato com'è alla semplice manipolazione concreta di oggetti: è questa la matematica ftnitista, dotata di contenuto materiale e per la quale non si pone il problema di noncontraddittorietà. Anche dal punto di vista intuizionista questa parte della matematica non presenta problemi. Quello che va notato è però che per gli intuizionisti la matematica « sicura », dotata di contenuto si estende al di là di questi confini, in quanto l'intuizione fondamentale della successione numerica e la nozione generale di costruzione permettono di garantire la sensatezza di teorie, quali quella dei numeri naturali (intuizionisticamente concepita) in cui il principio di induzione, alla Poincaré, risulta costruttivamente accettabile. Non così per Hilbert, che in modo più radicale pone il confine dell'evidenza immediata sul finito e non sul costruttivo. Ogni riferimento infinito non ha un immediato significato materiale e quindi richiede una giustificazione di qualche sorta: anche l'aritmetica intuizionista, al pari di quella classica di Peano, necessita di una fondazione. I suoi enunciati riferentisi ad una totalità infinita (anche se solo potenzialmente tale) sono ideali, non materiali.
213
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Tutte le teorie matematiche quindi che non fanno riferimento nei loro assiomi ai soli oggetti spazio-temporali, sono teorie ideali, prive di contenuto materiale. Per fondarle occorre dimostrare che è lecito assumere che esse abbiano un contenuto, vale a dire, in conformità a quanto detto sopra, dimostrare la loro non contraddittorietà. Perché però questa dimostrazione abbia un significato e sia accettabile occorre che si svolga entro quella parte della matematica, la finitaria, che, avendo questo contenuto, è certa. Una dimostrazione del genere non ci porta, russellianamente, a costruire « significati » (contenuti) ma a garantire che è lecito operare «come se» questi ci fossero. Questo è un aspetto essenziale della posizione hilbertiana: il formalismo non mira a giustificare i singoli asserti o le singole teorie costruendo per essi da una base data e con metodi sicuri un contenuto, ma piuttosto vuole dimostrare che l'assunzione dell'esistenza di contenuti è materialmente giustificata su base finitista. Proprio perché l'obiettivo riguarda la teoria nel suo complesso, tutte le limitazioni motivate da considerazioni intuizioniste sulla logica che si può assumere entro le teorie perdono valore, in quanto tutto il peso della fondazione viene scaricato sui metodi che si usano nelle dimostrazioni di noncontraddittorietà, le quali ultime, proprio in quanto debbono essere giustificate in modo puramente finitista e in definitiva combinatorio, a fortiori soddisfano le restrizioni costruttiviste sulla logica. La differenza fondamentale è che queste restrizioni non vengono più poste sulla teoria matematica in oggetto, ma sulla « metateoria »che ha come oggetto di studio proprio la teoria. La distinzione è profonda, in quanto porta in primo piano un concetto nuovo, quello delle teorie come oggetti e quindi della fondazione come analisi che si svolge con un linguaggio e con metodi diversi da quelli codificati dalle singole teorie. La fondazione cessa così di essere la ricostruzione entro un sistema unico per tutte le teorie e formulato nello stesso linguaggio e sullo stesso livello, per trasformarsi nello studio di esse come oggetti entro un linguaggio che non è il loro e dentro una teoria che non deve riprodurre i loro « contenuti » quanto dimostrarne la non contraddittorietà. Il nucleo dell'approccio formalistg sta appunto in questa distinzione fra un linguaggio-oggetto (quello delle teorie) e un metalinguaggio (quello della matematica finitista che si configura come metateoria). Con questo perde senso l'idea di una «grande logica» come sistemazione unitaria di tutti i concetti astratti. La distinzione fra linguaggio e metalinguaggio, fra teoria e metateoria, comporta l'abbandono del progetto di una ricostruzione globale della matematica entro una teoria che raccolga in sé tutti i principi esistenziali necessari; la matematica finiti sta assomma sì in se stessa il carattere fondante come la logica russelliana, ma si connette alle singole teorie non via un inglobamento, quanto piuttosto attraverso la loro sussunzione come oggetto di studio. Con Hilbert si assiste quindi al frantumarsi della « grande logica »
214
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
in varie « sottologiche » concepite questa volta come pure teorie inferenziali, come apparato deduttivo delle varie teorie matematiche. In questo modo la nozione di logica assume quella determinatezza che Ramsey notava mancare nella sistemazione russelliana. I Grundziige der theoretischen Logik (Lineamenti di logica teoretica), pubblicati da Hilbert e Wilhelm Ackermann (1896-1962) nel 1928, costituiscono la «canonizzazione» di questa rottura e l'avvio verso quella concezione dei sistemi logici come semplici sistemi inferenziali che è oggi corrente. In questo volume, per la prima volta, non viene presentato un sistema logico unico, ma di versi sistemi, quello degli enunciati, dei predicati del primo ordine, del secondo ordine ecc. ciascuno singolarmente studiato nelle sue proprietà metateoriche. Lo stesso avviene per le teorie matematiche che vengono ora formulate entro linguaggi specifici, su diverse basi logiche, ma sempre singolarmente considerate. Pur nelle mutate condizioni cui poi accenneremo, questa sistemazione articolata troverà la sua più completa espressione nelle Grundlagen der Mathematik (Fondamwti della matematica) di Hilbert e Paul Bernays (n. 1888) che verranno pubblicate in due volumi nel 1934 e 1939 rispettivamente, e costituiranno un punto di riferimento obbligato per l'indagine posteriore (anche relativamente ai rapporti con l'intuizionismo che solo qualche anno prima aveva ricevuto una sistemazione assiomatico-formale ad opera di Arend Heyting). Sotto l'influenza hilbertiana, gradatamente l'interesse dei logici si sposta, ed emergono nuovi problemi tutti legati alla idea di fondo della logica come indagine delle teorie formulate entro linguaggi formali specifici: non si tratta solo del problema della consistenza, ma anche di quello della completezza, della decidibilità, tanto delle teorie in generale quanto in particolare dei sistemi di logica pura; tutti problemi che acquistano senso solo una volta che si accetti la distinzione hilbertiana fra teoria e metateoria. Alla base di questa nuova concezione sta l'idea delle teorie come puri sistemi formali, oggetti combinatoriamente organizzati, appartenenti alla matematica finitista. Un sistema formale per Hilbert è dato dalla specificazione di un linguaggio, concepito come un alfabeto finito corredato da regole per la formazione dei termini e delle formule (corrispettivi formali dei nomi individuali e degli « enunciati ») e da un apparato deduttivo costituito da un insieme finito, o per lo meno finitamente dominabile, di assiomi e di regole: i primi semplici formule, le seconde relazioni effettivamente specificate fra formule. In questo modo teorie e sistemi logici trovano la loro rappresentazione materiale nei sistemi formali. Come tali essi divengono oggetti concreti, adeguati alle considerazioni della matematica finitista. È entro quest'ultima che si può formulare il problema della consistenza dei sistemi formali (delle teorie) concepito come studio delle loro proprietà combinatorie; e dal momento che la noncontraddittorietà è, fra queste, una proprietà che riguarda l'insieme delle formule dimostrabili, ne viene che il momento centrale delle considerazioni metateoriche riguarderà proprio la struttura delle dimostrazioni, 215
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Tutte le teorie matematiche quindi che non fanno riferimento nei loro assiomi ai soli oggetti spazio-temporali, sono teorie ideali, prive di contenuto materiale. Per fondarle occorre dimostrare che è lecito assumere che esse abbiano un contenuto, vale a dire, in conformità a quanto detto sopra, dimostrare la loro non contraddittorietà. Perché però questa dimostrazione abbia un significato e sia accettabile occorre che si svolga entro quella parte della matematica, la finitaria, che, avendo questo contenuto, è certa. Una dimostrazione del genere non ci porta, russellianamente, a costruire « significati » (contenuti) ma a garantire che è lecito operare «come se» questi ci fossero. Questo è un aspetto essenziale della posizione hilbertiana: il formalismo non mira a giustificare i singoli asserti o le singole teorie costruendo per essi da una base data e con metodi sicuri un contenuto, ma piuttosto vuole dimostrare che l'assunzione dell'esistenza di contenuti è materialmente giustificata su base finitista. Proprio perché l'obiettivo riguarda la teoria nel suo complesso, tutte le limitazioni motivate da considerazioni intuizioniste sulla logica che si può assumere entro le teorie perdono valore, in quanto tutto il peso della fondazione viene scaricato sui metodi che si usano nelle dimostrazioni di noncontraddittorietà, le quali ultime, proprio in quanto debbono essere giustificate in modo puramente finitista e in definitiva combinatorio, a fortiori soddisfano le restrizioni costruttiviste sulla logica. La differenza fondamentale è che queste restrizioni non vengono più poste sulla teoria matematica in oggetto, ma sulla « metateoria » che ha come oggetto di studio proprio la teoria. La distinzione è profonda, in quanto porta in primo piano un concetto nuovo, quello delle teorie come oggetti e quindi della fondazione come analisi che si svolge con un linguaggio e con metodi diversi da quelli codificati dalle singole teorie. La fondazione cessa così di essere la ricostruzione entro un sistema unico per tutte le teorie e formulato nello stesso linguaggio e sullo stesso livello, per trasformarsi nello studio di esse come oggetti entro un linguaggio che non è il loro e dentro una teoria che non deve riprodurre i loro « contenuti » quanto dimostrarne la non contraddittorietà. Il nucleo dell'approccio formalist~ sta appunto in questa distinzione fra un linguaggio-oggetto (quello delle teorie) e un metalinguaggio (quello della matematica finitista che si configura come metateoria). Con questo perde senso l'idea di una «grande logica» come sistemazione unitaria di tutti i concetti astratti. La distinzione fra linguaggio e metalinguaggio, fra teoria e metateoria, comporta l'abbandono del progetto di una ricostruzione globale della matematica entro una teoria che raccolga in sé tutti i principi esistenziali necessari; la matematica finitista assomma sì in se stessa il carattere fondante come la logica russelliana, ma si connette alle singole teorie non via un inglobamento, quanto piuttosto attraverso la loro sussunzione come oggetto di studio. Con Hilbert si assiste quindi al frantumarsi della « grande logica »
2.14
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
in varie « sottologiche » concepite questa volta come pure teorie inferenziali, come apparato deduttivo delle varie teorie matematiche. In questo modo la nozione di logica assume quella determinatezza che Ramsey notava mancare nella sistemazione russelliana. I Grundzuge der theoretischen Logik (Lineamenti di logica teoretica), pubblicati da Hilbert e Wilhelm Ackermann (I 896-I962) nel I928, costituiscono la «canonizzazione» di questa rottura e l'avvio verso quella concezione dei sistemi logici come semplici sistemi inferenziali che è oggi corrente. In questo volume, per la prima volta, non viene presentato un sistema logico unico, ma di versi sistemi, quello degli enunciati, dei predicati del primo ordine, del secondo ordine ecc. ciascuno singolarmente studiato nelle sue proprietà metateoriche. Lo stesso avviene per le teorie matematiche che vengono ora formulate entro linguaggi specifici, su diverse basi logiche, ma sempre singolarmente considerate. Pur nelle mutate condizioni cui poi accenneremo, questa sistemazione articolata troverà la sua più completa espressione nelle Grundlagen der Mathematik (Fondammti della matematica) di Hilbert e Paul Bernays (n. I 888) che verranno pubblicate in due volumi nel I934 e I939 rispettivamente, e costituiranno un punto di riferimento obbligato per l'indagine posteriore (anche relativamente ai rapporti con l'intuizionismo che solo qualche anno prima aveva ricevuto una sistemazione assiomatico-formale ad opera di Arend Heyting). Sotto l'influenza hilbertiana, gradatamente l'interesse dei logici si sposta, ed emergono nuovi problemi tutti legati alla idea di fondo della logica come indagine delle teorie formulate entro linguaggi formali specifici: non si tratta solo del problema della consistenza, ma anche di quello della completezza, della decidibilità, tanto delle teorie in generale quanto in particolare dei sistemi di logica pura; tutti problemi che acquistano senso solo una volta che si accetti la distinzione hilbertiana fra teoria e metateoria. Alla base di questa nuova concezione sta l'idea delle teorie come puri sistemi formali, oggetti combinatoriamente organizzati, appartenenti alla matematica finitista. Un sistema formale per Hilbert è dato dalla specificazione di un linguaggio, concepito come un alfabeto finito corredato da regole per la formazione dei termini e delle formule (corrispettivi formali dei nomi individuali e degli « enunciati ») e da un apparato deduttivo costituito da un insieme finito, o per lo meno finitamente dominabile, di assiomi e di regole: i primi semplici formule, le seconde relazioni effettivamente specificate fra formule. In questo modo teorie e sistemi logici trovano la loro rappresentazione materiale nei sistemi formali. Come tali essi divengono oggetti concreti, adeguati alle considerazioni della matematica finitista. È entro quest'ultima che si può formulare il problema della consistenza dei sistemi formali (delle teorie) concepito come studio delle loro proprietà combinatorie; e dal momento che la noncontraddittorietà è, fra queste, una proprietà che riguarda l'insieme delle formule dimostrabili, ne viene che il momento centrale delle considerazioni metateoriche riguarderà proprio la struttura delle dimostrazioni, 215
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
e in definitiva il concetto stesso di dimostrazione proprio di ogni sistema formale. Da qui il nome di teoria della dù!lostrazione (Beweistheorie) che Hilbert stesso dà all'analisi, nel suo senso, dei sistemi formali. Come tale la Beweistheorie deve far parte della matematica finitista e ne costituisce un'applicazione: principi e metodi dimostrativi devono essere mutuati da quest'ultima che così diviene il nucleo a cui si deve ridurre, attraverso la mediazione della teoria della dimostrazione, ogni studio delle teorie matematiche. Anche se, paradossalmente, Hilbert postulandone a priori la determinatezza non si preoccupò mai di dare una definizione esplicita di « matematica finitista », il programma generale risultava sufficientemente determinato e articolato da permettere sviluppi logico-matematici precisi e fruttuosi, sicché la Beweistheorie hilbertiana divenne per tutti gli anni venti il fulcro della ricerca logica (assieme, non va dimenticato, alla matematica intuizionista che proprio in quel periodo veniva costituendosi). Questo ruolo di guida lo perderà solo all'inizio degli anni trenta, quando la scoperta dei teoremi limitativi da parte di Kurt Godei (n. 19o6) mostrerà come, nella sua formulazione originaria, il programma hilbertiano fosse destinato al fallimento: non è possibile giustificare teorie forti almeno quanto l'aritmetica senza ricorrere nella metateoria ad assunzioni più potenti, e quindi trascendenti la matematica finitista. Con questo anche il formalismo trova il suo scacco definitivo. Il risultato di Godei ha un significato centrale nella storia della logica di questo secolo, a parte il suo enorme interesse intrinseco, proprio per questo fatto: esso costituisce la linea di demarcazione fra due epoche diverse della ricerca logica, la prima che giunge fino agli anni trenta, legata a programmi e in sostanza (se si esclude l'intuizionismo) vincolata al progetto di una giustificazione della matematica classica su basi indubitabili, la seconda che prende appunto le mosse dalla constatazione dell'impossibilità di una tale giustificazione. Con il 1930 (salvo l'intuizionismo che ha una sua particolare concezione del problema dei fondamenti) l'epoca delle grandi scuole finisce e il discorso non si articola più su programmi ma su temi, proprio quei temi peraltro che erano emersi dallo sviluppo dei vari programmi. È un periodo che solo superficialmente può apparire meno unitario del precedente. Sottostante a tutta la ricerca logica postgodeliana è il tentativo, una volta accertata l'impossibilità delle varie riduzioni proposte dalle scuole, di appurare i limiti delle varie concezioni ossia i loro ambiti di applicabilità. Non si cerca più di dimostrare che «tutta la matematica » è fondabile sulla logica, sulla matematica finitista, su quella costruttivista ecc., ma si indaga più direttamente su come questi vari elementi compaiano nell'edificio globale o nelle singole teorie. I grandi filoni della ricerca- teoria della ricorsività, semantica e teoria dei modelli, teoria della dimostrazione, teoria degli insiemi- tematizzano ciascuno alla sua maniera queste varie componenti: dalla finitista (teoria della ricorsività) alla infinitaria (teoria dei modelli, teoria 216
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
degli insiemi) alla costruttivista o più in generale a quelle intermedie fra la infinitista e la finitista (intuizionismo, teoria della dimostrazione). Così è anche per lo studio della stessa logica inferenziale; la codificazione, nel 19 31, della logica intuizionista apre la strada al diffondersi di un interesse, del resto già presente precedentemente, per le logiche diverse da quella classica, le loro possibilità e i loro legami reciproci: anche questo è un tema importante della ricerca logica postgodeliana. Questa riconsiderazione delle alternative possibili d'altra parte non va vista come l'abbandono di programmi o l'adozione di una pratica senza principi; si tratta piuttosto di un approfondimento dei temi stessi alla base dei programmi e di una loro applicazione alla stessa pratica della matematica. Questo aspetto, presente soprattutto nella teoria dei modelli, mostra chiaramente un nuovo tipo di legame con la matematica, non più mediato dal problema dei fondamenti, ma direttamente innestato nel concreto lavoro di ricerca. In questo nuovo panorama quindi applicazione ed analisi concettuali autonome si intrecciano indissolubilmente sullo sfondo di un problema comune, quello della natura della matematica e del pensiero astratto, di cui costituiscono articolazioni in diversa maniera significative. F: forse proprio in questo intergioco tra attività critica e pratica teorica, tra studio dei fondamenti e ricerca sul campo che sta a nostro parere il genuino significato della ricerca logica degli anni posteriori al trenta. II · I
PRIMI VENTI ANNI DEL SECOLO VENTESIMO
Il periodo immediatamente successivo alla scoperta dell'antinomia di Russell come ab biamo detto è caratterizzato da un rinnovato interesse per lo studio della sistemazione logica in senso lato delle teorie matematiche, cui si aggiungeva ora di diritto la teoria degli insiemi, e in particolare, della stessa logica inferenziale. Il concetto di insieme (classe) non poteva più, infatti, essere considerato- come aveva fatto Frege -- un concetto di tipo logico dato immediatamente, né era sufficiente l'elaborazione « strumentale» come quella che di esso aveva fatto Dedekind. Le antinomie avevano appunto mostrato chiaramente che neppure la complessa trattazione cantoriana era sufficiente; e agendo da potente catalizzatore verso tutta una nuova area di ricerca, esse rendevano necessaria una maggior cautela nella trattazione sistematica di determinate teorie, e comunque dei fondamenti della matematica. Ovviamente - come è stato ampiamente esemplificato nel paragrafo I - i vari ricercatori interpretarono in modi diversi queste « raccomandazioni » derivanti dalla scoperta delle antinomie, vale a dire tentarono di armonizzare la ormai necessaria cautela con il vasto orizzonte che si apriva alla ricerca, sullo sfondo di differenti concezioni generali circa quello che era lo statltS della matematica e della logica e circa l'interpretazione da dare a quella che veniva detta la fondazione
2.17
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
della matematica. Ne viene allora che la chiave generale per la comprensione delle numerose e talora confuse proposte di soluzione dei grandi problemi sul tappeto vada ricercata in questo periodo (e in effetti, abbiamo visto, per i primi trent'anni del Novecento, fino cioè ai risultati di Godei) nella distinzione che fin dai primissimi anni del secolo si stabilisce in modo abbastanza netto fra le tre « scuole » o concezioni sulla natura e sui fondamenti della matematica trattate nel paragrafo r: la scuola logicista, la scuola formalista e la scuola intuizionista. Questo non significa naturalmente che ogni autore di questo periodo si possa inserire nell'una o nell'altra di queste scuole: alcuni critici ad esempio propongono di aggiungere alla tripartizione precedente un quarto indirizzo - detto genericamente « cantorismo » - nel quale comprendere quegli autori che pur non inquadrandosi compiutamente ed esplicitamente in nessuna delle tre scuole suddette, tuttavia partecipano attivamente alla ricerca logica di questo periodo soprattutto per quanto riguarda la problematica più direttamente connessa con la teoria degli insiemi cantoriana. Anche in questi casi tuttavia il riferimento obbligato per la discussione resta una o !]iù delle concezioni precedenti, e molto spesso gli appartenenti a questa eventuale quarta scuola riconoscono, almeno implicitamente, la loro adesione all'una o all'altra delle tre correnti principali. Si può quindi affermare che sostanzialmente la storia della logica nei primi trent'anni del Novecento si rifletta nelle vicende delle varie scuole, dei loro rapporti e delle connesse ambiguità. In generale le discussioni, tanto nella teoria quanto nella pratica, si sviluppano su temi quali le definizioni, le dimostrazioni, le costruzioni (matematiche) che in sostanza riflettono altrettanti tentativi di articolare il discorso sull'esistenza degli enti fllatematici, che resta sempre il tema centrale, direttamente e imperiosamente posto dalla scoperta delle antinomie. Come primo esito di queste discussioni si avrà in generale una separazione abbastanza netta fra quella che possiamo chiamare una concezione logica della fondazione, attenta alla ricerca e all'individuazione delle assunzioni e delle forme di argomentazione in base alle quali ricostruire la matematica; e la concezione matetJJatica della fondazione che concentra la propria attenzione sui contenuti della matematica, dando poi eventualmente risposte estremamente differenziate circa il modo di isolarli o di considerarli. Particolarmente interessante, in questa seconda prospettiva, la distinzione fra assunzioni e procedimenti dimostrativi. Va da sé che queste classificazioni sono in generale assai sfumate, salvo forse che nel caso degli intuizionisti. r) Il logicismo di Bertra11d Russe!! La figura di Bertrand Russell è culturalmente di una complessità sconcertante e ben difficile sarebbe condensare in poche pagine gli spunti e i temi che la sua varia e copiosa produzione scientifico-filosofica offre. Del resto si è già parlato a lungo di lui e nel capitolo v del volume settimo e nel paragrafo preceZI8
www.scribd.com/Baruhk
La logica·nel ventesimo secolo (r)
dente; qui ci possiamo quindi limitare a entrare brevemente nel merito della sua attività di logico. Da questo punto di vista egli inizia come partigiano della logica idealista di Francis Herbert Bradley (1864-1924) e finisce come sappiamo per diventare - almeno nel primo scorcio del secolo - uno dei massimi animatori della rinata logica matematica . .Come noto Bradley rifiutava di annettere alcuna importanza alla logica formale intendendo egli con ciò tanto la sillogistica di marca aristotelica quanto la più recente «logica equazionale » di Jevons e quindi sostanzialmente la logica matematica di Boole. Compito della logica è per Bradley quello di render conto del ragionamento in generale: da questo punto di vista, pur riconoscendo che il sillogismo era un tipo importante di ragionamento, esso era pur sempre un tipo, il quale inoltre, basandosi sulla tradizionale analisi della proposizione in soggetto/predicato, era insufficiente proprio perché la natura fondamentale del rapporto inferenziale è relazionale. Analogamente, dal momento che la logica booleana è limitata dalla sua natura matematica a trattare con problemi «che si adattano a un ragionamento numerico », essa non era a suo parere in condizioni di dare alcun disegno, adeguato o no, del ragionamento in generale. La logica - per Bradley - non intende dare semplicemente dei principi del ragionamento ma efFettivi canoni o tests di inferenza; ma d'altra parte non è possibile pensare di dare un repertorio completo delle inferenze valide, a causa della infinitezza di queste ultime: così stando le cose non risulta possibile dare neppure i tanto decantati canoni. Infine - momento ancor più centrale- il ragionamento e l'inferenza non possono mai essere formali perché non si possono mai dare principi puramente formali, poiché ogni principio contiene qualcosa di materiale. Secondo Bradley insomma « la logica formale e la matematica trattano con problemi di generalità inferiore rispetto a quella della logica come disciplina filosofica ». E la causa della non accettazione della logica formale da parte di Bradley sta proprio in questa sorta di inadeguatezza filosofica che egli le riconosceva. Ora nel suo primo periodo, in particolare all'epoca della pubblicazione di An essay on the foundations of geometry (Saggio sui fondamenti della geometria, I 897) 1 Russell è fortemente imbevuto di questa concezione della logica. Dichiara infatti che « in logica ho appreso per lo più da Bradley e, quindi, da Sigwart e da Bosanquet »; avendo tuttavia alle spalle una solida e profonda formazione matematica, egli voleva dimostrare l'essenziale irrilevanza, per la metafisica e l'epistemologia, dei moderni sviluppi matematico-formali della logica, a differenza appunto di Bradley (e di quanti altri!) che, in totale mancanza di quella preparazione, assumevano tale irrilevanza per garantita. Nello stesso volume, inoltre, Russell è « kantiano », nel senso che - pur con le dovute distinzioni sulle quali sarebbe qui superfluo insistere - vuole difendere l'apriorità della geometria euclidea (ossia la sua necessità per l'esperienza I
Una versione rielaborata della dissertazione di fellowship tenuta a Cambridge nel 1895.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
dello spazio) che la scoperta delle geometrie non euclidee da una parte e la costituzione autonoma della geometria proiettiva dall'altra avevano come sappiamo messo in discussione. Allo scopo Russell pone alla base dell'intera costruzione alcuni principi di geometria proiettiva che egli ritiene essere a priori e che permettono di ottenere tutti i teoremi della proiettiva stessa; da tali principi proiettivi egli ricava quelli metrici che « caratterizzano » tanto la geometria euclidea quanto le non euclidee.! Russell tuttavia è convinto che un altro « pericolo » alla teoria kantiana possa provenire dalla teoria del transfinito di Cantar, secondo le indicazioni di Couturat; ma ancora nel I 897, quando recensisce l'opera del francese, egli ribadisce di non accettare la teoria cantoriana che, indipendentemente dalla sua utilità matematica, mai avrebbe potuto avere «validità filosofica». Tuttavia, pur ammirando gli sforzi di Couturat nel difendere «una causa così impopolare» concorda con lui su una cosa: che se avesse avuto ragione Cantar allora avrebbe avuto torto Kant. Questo, brevemente, il quadro del Russell « precongressuale ». Avviene quindi la svolta del 19oo, col congresso internazionale di filosofia e l'incontro con Peano e la sua scuola di cui si riferisce nel capitolo v del volume settimo. Egli ritorna dal congresso con convinzioni metafisiche diverse e inizia l'anno stesso la stesura di The principles oj mathematics (I principi della matematica) nel contempo studiando le opere di Peano, di Cantar, e rileggendo Frege, prima frettolosamente accantonato data l'inusitata difficoltà della sistemazione simbolica. Nel 1901 pubblica un articolo, On the notion oj order (Sul concetto di ordine), dove sostiene che i matematici moderni, in particolare Cantar, hanno sviluppato in modo tale l'idea di ordine che i filosofi non possono più a lungo ignorare tale sistemazione, che peraltro è di centrale importanza dal momento che « i filosofi hanno in generale professato una teoria delle relazioni che, se corretta, renderebbe le successioni logicamente impossibili ». Russell vuoi qui rigettare il dogma filosofico fino ad allora accreditato (in particolare proprio dal suo maestro Bradley che di questo aveva fatto un cardine della sua metafisica) che le relazioni siano in realtà stati interni delle cose, e ciò proprio in virtù del fatto che ad esempio «essere una successione indipendente è avere un posto distinto fra le entità». Di qui viene anche un deciso e ormai definitivo attacco contro la logica soggetto f predicato. La versione logica di tale distinzione non fa in effetti che riprodurre quella metafisica fra sostanza e qualità, e basta allora, per superare questo punto di vista, considerare che esiste un terzo tipo di entità, le relazioni appunto. Con questo nuovo tipo di discorso Russell inizia dunque la stesura dei I Louis Couturat (I868-1914), un matematico e filosofo francese (che avremo occasione di ricordare più avanti) già a quel tempo acceso sostenitore della nuova logica alla Peano e della teoria degli insiemi cantoriana, vede quest'opera di Russell come «l 'Estetica trascendentale di Kant, rivista, corretta e completata, alla luce
della Metageometria » e quindi decisamente ammirevole; anche se del tutto sbagliata: Couturat infatti già nel 1896 in De l'inftni mathématique (Dell'infinito matematico) aveva intrapreso la refutazione della filosofia della matematica kantiana sulla base delle nuove teorie dell'infinito di Cantar.
220
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Principi. 1 Ma nel 1902 scopre la famosa antinomia che comunica a Frege e che noi abbiamo visto nel volume quinto. La soluzione di questa antinomia lo affatica per vario tempo, fra continue oscillazioni. Comunque, quando nel r 90 3 il volume viene pubblicato, in un'appendice Russell propone per la sua soluzione un abbozzo di quella che sarà la teoria dei tipi. L'opera si chiude con la promessa di un secondo volume; questo non verrà mai scritto ma nel frattempo, rinsaldatasi l'amiCizia e la collaborazione di Russell con Whitehead 2 viene dai due progettata una seconda opera fondamentale, che rappresenterà il naturale punto di riferimento per almeno un ventennio di successivi studi logici. Alludiamo ai Principia lJJathematica, scritti appunto in collaborazione dai due autori, e concepiti in un primo momento come secondo volume dei Principi, quindi progettati in quattro volumi di cui solo tre videro la luce fra il 1910 e il 1913. La strutturazione e lo sviluppo puntuale dei volumi in questione sono oltremodo complessi e pesanti 3 e noi ce ne interesseremo solo per quanto riguarda più da vicino il nostro discorso relativo alla crisi dei fondamenti e al superamento delle antinomie. Non si può tuttavia non ribadire il fatto che i Principia rappresentano l'effettiva concretizzazione della tesi logicista anche nel senso «sperimentale » di offrire una precisa ricognizione di quanta matematica si potesse ricostruire in questo nuovo linguaggio logico generale, senza che in essa sorgessero delle contraddizioni. In altri termini, dopo che già al tempo dei Principi Russell era giunto alla determinazione di accettare la teoria degli insiemi cantoriana, prospetta ora con Whitehead una organizzazione logica della matematica I Essi furono pubblicati nel I903 come primo di due volumi, il secondo dei quali avrebbe dovuto essere « dedicato esclusivamente ai matematici » (a differenza del primo che « si rivolge in egual misura al filosofo e al matematico»). Questo secondo volume non fu mai scritto ed il suo contenuto si ritroverà nei Principia mathematica di cui parleremo più avanti. I Principi furono pubblicati in seconda edizione nel I937 e da allora hanno conosciuto sette ristampe, la ultima delle quali nel I957· L'opera è divisa in sette parti più due appendici: r. Gli indefinibili della matematica; II. Numeri; m. Quantità; IV. L'ordine; v. Infinità e continuità; vr. Spazio; VII. Materia e moto. Appendice A: Le teorie aritmetiche e logiche di G. Frege; Appendice B: La teoria dei tipi. Russell afferma che l'opera ha due scopi principali. Il primo è « quello di provare che tutta la matematica tratta esclusivamente di concetti definibili in termini di un numèro piccolissimo di concetti logici fondamentali e che tutte le proposizioni di tale scienza sono deducibili da un numero piccolissimo di principi fondamentali»; il secondo è « la spiegazione dei concetti fondamentali che la matematica accetta come indefinibili». 2 Si veda la nota a pag. 202.
3 Russell dirà nella sua autobiqgrafia che si trattò di un grossissimo sforzo intellettuale (protrattosi dal I9o2 al I9Io), che poté essere concluso a prezzo di molte crisi ed enorme fatica: « Così andai avanti finché il lavoro non fu terminato, ma la mia mente non si è mai riavuta del tutto dallo sforzo fatto. Da allora la mia capacità di addentrarmi in difficili astrazioni è decisamente diminuita e questo è uno, se non l'unico, motivo del nuovo orientamento delle mie attività» (si veda il capitolo v del volume settimo). Alla prima edizione del 19I0-13 fece seguito una seconda del I927 con numerose ristampe, l'ultima delle quali è del I968. I tre volumi editi (un quarto, che doveva essere dedicato alla geometria, non fu mai scritto) sono suddivisi, nella seconda edizione, come segue. Un'ottantina di pagine iniziali del I volume sono destinate alla prefazione e alle introduzioni (alla. prima, rispettivamente alla seconda edizione) nelle quali vengono esposte la teoria dei tipi e quella delle descrizioni. Quindi la materia è disposta in sei parti nei tre volumi, nell'ordine seguente: r. Logica matematica; II. Prolegomena all'aritmetica cardinale; m. Aritmetica cardinale; IV. Aritmetica delle relazioni; v. Serie; vr. Quantità.
221
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
per constatare- si può dire sperimentalmente- quanto nel nuovo linguaggio si può di essa impunemente trascrivere. È sostanzialmente questo il programma logicista di Russell e Whitehead che viene svolto avendo allo sfondo l'idea di una «grande logica», una logica unificante, e unificata, che stabilito opportunamente il suo linguaggio e le sue regole di inferenza deve consentire di trascrivere deduttivamente tutta la matematica. Abbiamo posto l'accento sul carattere « sperimentale» di quest'impresa non solo in riferimento al fatto che nella mutata situazione determinata dai metodi ora disponibili per superare ed evitare almeno le antinomie note, l'opera di Russell e Whitehead si presenta come la concreta esplicitazione e realizzazione di un programma, così come nella vecchia situazione si presentavano i Grundgesetze di Frege, ma tenendo anche presente il successivo sviluppo della logica che comporta in certo senso una connotazione negativa nei riguardi dell'opera di Russell e Whitehead. È in effetti una situazione che ricorda le obiezioni di Bradley contro i logici formali: questi avrebbero stabilito dei «canoni» interpretandoli in modo tale che «chi li segue è salvo e chi non li segue è dannato». Orbene lo sperimentalismo di Russell consiste proprio in questo che, giunti a certi oggetti ultimi, siano essi proposizioni o connettivi o concetti (in particolare di tipo semantico), la logica non ha più modo di indagarne la natura o lo status, ma deve accettarli così come sono e costruire su di essi. Questa situazione si presenta come bloccante in particolare riguardo a tutta una serie di tentativi che si riagganciavano al filone schroderiano e che avevano come fine quello di stabilire la decidibilità rispetto alla validità di certi stock di espressioni simboliche pensate e interpretate su domini astratti. E in effetti la semantica soggiacente ai Principia è appunto quella del senso comune e non vi è alcun accenno, il minimo spiraglio, che possa far pensare alla possibilità che tali concetti fondamentali possano essere ulteriormente indagati da un punto di vista logico. La granitica e complessa costruzione dei Principia deve comprendere tutto: al di là non si può andare. Tutto ciò che è possibile fare a questo riguardo è semplicemente porre distinzioni e rapporti, non assumere nuovi oggetti di indagine. La necessità di evitare le antinomie è responsabile dell'enorme macchinosità della cosiddetta teoria dei tipi ramificata, che costituisce il substrato linguisticodeduttivo dei Principia. Con Whitehead, Russell si era deciso ad adottare tale teoria, che aveva già compiutamente esposto nel 1908, dopo vari tentennamenti che nel 1905 l'avevano anzi portato a scartare decisamente questa soluzione prospettandone altre tre possibili che vengono da lui considerate in quell'anno nell'articolo On some dijjiculties in the theory of tratzsftnite numbers and order rypes (Su alcune d~lfìcoltà nella teoria dei numeri e dei tipi d'ordine transftniti). Si tratta: I) della cosiddetta teoria zig-zag; 2) della teoria della limitazione di grandezza e 3) della cosiddetta « no-classes theory »(teoria senza classi). A noi non interessa qui presentare nei dettagli queste teorie, né discuterle in partico222
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
lare, visto che come si è già detto Russell finisce poi con lo scartarle,per tornare alla teoria dei tipi (che, si noti, non è neppure nominata nell'articolo del 1905). Ci limiteremo quindi a concise caratterizzazioni, per lo più dello stesso Russell, e annoteremo invece alcune osservazioni di Poincaré sulle stesse che ci sembra diano una sufficiente idea delle polemiche allora correnti. Secondo la teoria zig-zag, dunque, « le definizioni (funzioni proposizionali) determinano una classe quando esse sono molto semplici, e cessano di farlo quando sono complicate e oscure ». 1 La teoria della limitazione di grandezza richiede come è ovvio che una classe possa esistere solo se, per così dire, « non è troppo grande »; per esprimerci metaforicamente con Russell, « non esistono cose come la classe di tutte le entità ». 2 Secondo la « no-classes theory », ancora in accordo con la denominazione stessa, « classi e relazioni sono completamente bandite »; ciò va inteso nel senso che invece di parlare di una data classe come estensione di tutti gli oggetti che soddisfano una data funzione proposizionale, si può direttamente limitarsi a considerare la funzione proposizionale stessa e tutte le sostituzioni in essa. 3 Comunque, le difficoltà inerenti a tali soluzioni (in particolare a quest'ultima, che sembrò per un certo tempo raccogliere i favori di Russell) portano come già accennato Russell stesso a ritornare alla teoria dei tipi, che egli presenta succintamente già nell'articolo del 1908 Mathematicallogic as based on the theory of types (Logica matematica fondata sulla teoria dei tipi), e sul quale sostanzialmente ci fonderemo per schizzare una presentazione della teoria. Va premesso che all'epoca della pubblicazione di questo articolo l'elenco delle antinomie esplicitamente enunciate si era allungato di molto, dopo l'antinomia di Burali-Forti, quella di Cantar, e ovviamente l'antinomia per eccellenza, quella di Russell: si erano riesumate antiche antinomie come quella del mentitore, e altre erano state costruite. L'articolo di Russell inizia proprio con una elencazione delle antinomie fino ad allora note e crediamo convenga riprendere questo quadro per comodità r Ma chi può decidere se una definizione può essere riguardata come sufficientemente semplice per essere accettabile? Questa è la domanda che si pone Poincaré e alla quale, dice, non si trova in Russell alcuna risposta precisa o lontanamente accettabile, se non un vago appello all'assenza di contraddizione. Dunque, conclude Poincaré, la teoria è ben oscura; e, aggiunge ironicamente, « in questa notte, un solo chiarore; è la parola zig-zag». Per il concetto di funzione proposizionale si ricordi quanto detto nel capitolo xn del volume sesto. 2 Ancora Poincaré, esposta questa teoria, osserva che, secondo essa, « può darsi che una classe sia infinita, ma occorre che non lo sia troppo ». E qui ci ritroviamo nella stessa difficoltà precedente: quando far cominciare quel « troppo »? « Ben inteso, » conclude Poincaré,
« questa difficoltà non viene risolta e Monsieur Russell passa alla terza teoria. » 3 In proposito è interessante riportare l'intero passo di Poincaré: «Nella no-classes theory è proibito pronunciare la parola classe rimpiazzando la con varie perifrasi. Che mutamento per i logicisti che non parlano che di classi e di classi di classi! Devono rifare tutta la logistica. Ci si figura che aspetto avrà una pagina di logistica una volta soppresse tutte le proposizioni nelle quali si parla di classi? Non resteranno che pochi sopravvissuti sparsi in mezzo a pagine bianche. Apparent rari nantes in gurgite vasto. » Ricordiamo che il termine « logistica » venne proposto da Couturat e altri al congresso internazionale di filosofia del r904 per designare la nuova logici matematica.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
del lettore. La disposizione che daremo alla presentazione delle varie antinomie segue un criterio che verrà giustificato nel paragrafo ru. 3. I) Antinomia di Russell o della classe di tutte le classi che non sono elementi di se stesse. Abbiamo presentato e discusso tale antinomia nel capitolo xrr del volume sesto. 2) Antinomia di Burali-Forti o del massimo numero ordinale. Vale l'osservazione precedente. 3) Antinomia di Cantor o del massimo numero cardinale. Come sopra. 4) Antinomia delle relazioni. È una variante di quella di Russell e può essere espressa come segue. Sia T la relazione che sussiste fra le relazioni R e S ogniqualvolta R non è nella relazione R con S. Allora, qualunque siano le relazioni R e S, « R non sta nella relazione R con S » è equivalente a « R sta nella relazione T con S ». Se ora diamo tanto a R quanto a S il valore T, otteniamo l'equivalenza antinomica « T non sta nella relazione T con T» è equivalente a « T sta nella relazione T con T». 5) Antinomia di Epimenide il mentitore. Si può dare in numerose forme. La più semplice ci sembra la seguente. Un uomo dice «Io mento ». È chiaro che se dice la verità mente e se mente dice la verità. La proposizione in questione risulta cioè vera se e solo se è falsa. 6) Antinomia di Berry o del più piccolo numero intero non nominabile in un certo numero finito n di sillabe. Supponiamo ad esempio n= 30; allora l'antinomia risulta dal fatto che se si definisce «il più piccolo numero intero non nominabile in meno di trenta sillabe» si è nominato con meno di 30 sillabe un numero che non dovrebbe godere di questa proprietà. 7) Antinomia di Konig o del più piccolo ordinale non definibile. È stata presentata nel paragrafo r. 8) Antinomia di Richard. È analoga alla precedente, ma preferiamo presentarla come segue (Poincaré). Consideriamo tutti i numeri decimali che si possono definire con un numero finito di parole della lingua italiana; questi numeri formano un insieme E che si vede facilmente essere numera bile (cioè di numero cardinale ~ 0). Supponiamo quindi di aver enumerato gli elementi di E e definiamo un numero N come segue. Se l'n-esima cifra decimale dell'n-esimo numero di E è rispettivamente o, I, 2, 3, 4, 5, 6, 7, 8, 9
prendiamo come n-esima cifra decimale di N I, 2,
3, 4, 5, 6, 7, 8,
I, I,
rispettivamente. È allora chiaro che N non coincide con alcun elemento n di E, ossia non appartiene ad E; d'altra parte in quanto numero definito con un numero finito di parole della lingua italiana dovrebbe appartenere ad E per la stessa definizione di E. 224
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
9) Per completezza, perché verrà nominata nel seguito, illustriamo anche l'antinomia di Hermann Weyl (1885-195 5) del termine « eterologico »malgrado essa non fosse ancora nota al tempo in cui Russell scriveva il suo articolo. Supponiamo dunque di chiamare auto logico un aggettivo (predicato) che si applica a se stesso, eterologico un aggettivo che non si applica a se stesso. Così ad esempio «breve» è auto logico perché la parola (attenzione!) «breve» è effettivamente breve; « lungo » è allora evidentemente etero logico in quanto la parola « lungo » è breve, ossia non è lunga; « deutsch » è autologico (la parola è tedesca) mentre «tedesco» è eterologico; e così via. Orbene chiediamoci: l'aggettivo« eterologico » è autologico o etero logico? Se è auto logico si applica a se stesso e quindi (per la definizione stessa di eterologi co) è etero logico; se viceversa è eterologico non si applica a se stesso e quindi (per tale definizione) è autologico. Nell'elenco precedente sono comprese alcune delle antinomie correnti nei primi dieci anni del secolo e dovrebbe essere chiaro che esse non rappresentano che una semplice selezione da un'infinità di antinomie costruibili. Russell ritiene di poter individuare in esse una radice comune che egli descrive come « autoriferimento o riflessività », e che conviene chiarire rielaborando le stesse parole di Russell tanto sono esplicite ed esaurienti: se ltttle le classi, ammesso che non siano elementi di se stesse sono membri di una classe w, lo stesso deve valere per w, e analogamente per la contraddizione in termini di relazioni. Nel caso del paradosso di Burali-Forti (e di quello di Cantor con gli immediati e opportuni cambiamenti) la successione il cui numero ordinale causa la difficoltà è proprio la successione di ltttti gli ordinali. L'osservazione di Epimenide deve includere se stessa nel suo proprio ambito; nel caso di nomi e definizioni, i paradossi risultano dal considerare la non nominabilità e la non definibilità come elementi nei nomi e nelle definizioni. In definitiva, « in ogni contraddizione viene detto qualcosa intorno a ltttte le classi di un qualche tipo, e da ciò che viene detto sembra generarsi un nuovo caso che nello stesso tempo è e non è dello stesso tipo dei casi che erano ltttti implicati in quanto viene detto ». Questa osservazione porta Russell ad escludere l'esistenza di totalità che, se ammesse come legittime, potrebbero immediatamente essere « ampliate » mediante l'aggiunta di nuovi elementi definiti in termini delle totalità stesse; sono infatti proprio totalità di questo genere che risultano essere presupposte, implicate in ognuno dei casi sopra esposti di antinomie. È cioè chiaro che Russell, riprendendolo come sappiamo da Poincaré (che l'aveva espresso per la prima volta nel 1906 nel corso di una discussione circa l'antinomia di Richard) assume come fondamentale il principio del circolo vizioso: « Tutto ciò che implica ltttto di una collezione non deve essere un elemento della collezione » o, in modo più sofisticato: « Se, ammesso che una collezione abbia un totale, essa contenesse membri definibili solo in termini di quel totale, allora la detta collezione non ha totale». 225
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Più semplicemente, non si può accettare una definizione di un ente quando in questa definizione venga implicata la totalità (la classe) cui quell'ente appartiene, o, in modo più restrittivo, quando nella definizione stessa si faccia ricorso a termini la cui definizione è possibile soltanto facendo riferimento alla classe cui l'ente da definirsi appartiene. Sarebbe ad esempio un'operazione illegittima, possibile causa di antinomie, la definizione di un numero reale che facesse riferimento alla classe di tutti i numeri reali (cui ovviamente appartiene quel particolare numero che si vuoi definire). Se chiamiamo impredicative definizioni di questo tipo, ciò equivale in definitiva ad ammettere che l'origine di tutte le antinomie vada ricercata nell'ammissione di tali definizioni che quindi, conclude Russell, non possono essere accettate come legittime. Il nostro sistema logico dovrà essere congegnato in modo da non permettere la formazione di siffatte definizioni. A questo proposito è tuttavia opportuno fare due osservazioni. La prima è che le definizioni impredicative costituiscono una reale difficoltà solo per il matematico (o per il filosofo della matematica) che professi una concezione concettualista della sua scienza, una concezione cioè che, qualunque sia la sfumatura con la quale viene accettata, comporti la convinzione che le definizioni (o più in generale i sistemi matematici) costituiscano gli enti di cui parlano. In questo caso infatti è ovvio che non è possibile riferirsi correttamente e sensatamente a una totalità che, per così dire, vado costituendo passo per passo. Nessuna difficoltà rappresentano invece le definizioni impredicative per un matematico di ~once zione realista: in questo caso infatti con le mie definizioni non faccio che descrivere oggetti che preesistono al mio atto definitorio, che sono già autonomamente costituiti e indipendenti dal linguaggio che io uso per descriverli. La seconda osservazione è che in modo naturale, una-volta accettato il principio del circolo vizioso come regolatore della possibilità di considerare definitoriamente totalità, diviene essenziale fare una distinzione fra « tutti » (inglese: al!) e «uno qualunque» (inglese: at!)), o se si vuole fra « tutti» inteso in senso cumulativo e «tutti» inteso in senso distributivo (ogni). È chiaro infatti che solo la prima accezione ha per così dire potere totalizzante e può condurre ad antinomie violando il principio del circolo vizioso, il che invece non avviene parlando distributivamente di un qualunque elemento in senso generico. In termini tecnici questa distinzione viene rispecchiata con l 'uso del quantificatore universale per la prima accezione totalizzante (con il ricorso cioè, in termini peaniani, alle variabili apparenti) o con l'impiego delle variabili libere, non vincolate da ·quantificatori (variabili reali in terminologia peaniana) nel secondo caso. Quest'ultima osservazione ci introduce direttamente in quella che è la teoria dei tipi ramificata adottata da Russell e Whitehead nei Principia. L 'universo del discorso viene riguardato come stratificato in vari livelli o tipi: quando parliamo di tutti gli oggetti che soddisfano una data condizione, dobbiamo intendere 2.26 www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
solo oggetti di un dato tipo, sicché le classi di questi oggetti devono essere omogenee per quanto riguarda (il tipo de) i loro elementi. Allora quando ad esempio dico «tutte (al/) le cose rosse» mi riferisco alla totalità delle cose rosse di UiJ certo tipo, mentre quando dico «ogni (any) cosa rossa» mi riferisco indifferentemente a una qualunque cosa rossa, indipendentemente dal tipo; solo che nel primo caso individuo una classe, nel secondo no. Questa tipizzazione viene effettuata per proposizioni, funzioni proposizionali, classi; in generale nel seguito ci riferiremo tuttavia alla tipizzazione in classi, che ci sembra prestarsi meglio a esemplificare intuitivamente la situazione. L'universo viene dunque diviso in tipi nel modo seguente. Al tipo I apparterranno gli individui, al tipo 2 le classi di individui, ossia elementi del tipo 2 saranno classi i cui elementi sono individui; al tipo 3 apparterranno classi di classi di individui, ossia classi i cui elementi sono a loro volta classi di individui; al tipo 4 apparterranno classi di classi di classi di individui, ossia classi i cui elementi sono classi di classi, i cui elementi sono classi di individui; e così via per ogni tipo finito. Abbiamo sottolineato quel « finito » perché Russell e Whitehead affermano esplicitamente che non si possono con questa costruzione raggiungere tipi infiniti (transfiniti). È chiaro che questa tipizzazione basta già da sola ad escludere tutta una serie di antinomie, ad esempio quella di Russell, quando si convenga che la relazione di appartenenza possa sussistere solo fra enti di tipi opportunamente diversi e si traduca questa convenzione nel linguaggio. Così ad esempio si può convenire, come fanno Russell e Whitehead, che se xn rappresenta un oggetto di tipo n, sia sensato scrivere xn E xn+l, dove xn+l rappresenta un oggetto del tipo immediatamente successivo a n, mentre siano prive di significato espressioni quali xn E xn o xn E xn+p (con p intero positivo diverso da I). Ora, nella definizione di un individuo o di una classe di un dato tipo può succedere di far riferimento ad altre classi (totalità), il che viene indicato tecnicamente, come dicevamo, dal fatto che nell'espressione definitoria compaiono variabili apparenti, vincolate cioè da un quantificatore universale o esistenziale. D'altra parte proprio questa evenienza pone le premesse per possibili definizioni impredicative; avendo accettato il principio del circolo vizioso è necessario quindi evitare situazioni di questo genere, vale a dire il linguaggio deve essere costituito in modo da escludere intrinsecamente questa possibilità. È a questo scopo che alla suddivisione in tipi si sovrappone un'ulteriore suddivisione in ordini, nel senso che oggetti di uno stesso tipo possono essere di ordini diversi a seconda delle espressioni definitorie che li individuano. Esemplificando, per comodità, per oggetti di tipo 2 (ossia per classi di individui) avremo ad esempio: classi di tipo
2
di ordine
I
nella cui definizione non si fa riferimento alla totalità degli oggetti di tipo 1 (ossia nella cui
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
espressione definitoria non intervengono quantificatori che vincolano variabili per oggetti di tipo I) classi di tipo
2
classi di tipo
2
di ordine
2
nella cui definizione, oltre a eventuali variabili libere per oggetti di tipo I, compare anche almeno un quantificatore che vincola variabili per oggetti di ordine I
di ordine 3
nella cui definizione, oltre a eventuali quantificatori come sopra, compare almeno un quantificatore che vincola variabili per oggetti di ordine 2, e così via per tutti gli ordini finiti. 1 Naturalmente una tale distinzione in ordini si ha per ogni tipo, senza contare che la questione viene ulteriormente complicata dal fatto che ad esempio un oggetto di tipo 2 (ossia una classe di oggetti di tipo I) può essere definita da un'espressione contenente quantificatori che vincolano variabili per oggetti di tipo 3 o di tipi superiori. Naturalmente non ci interessa proseguire nei dettagli di questo argomento alquanto ostico: è importante però aver chiaro che mentre la distinzione dei tipi ci informa per così dire circa il livello dell'universo stratificato in cui si trova un dato oggetto, quella degli ordini ci dice invece « come » è stato possibile raggiungere quel dato oggetto. Per usare una felice espressione di Casari, mentre il tipo ci informa circa la complessità insiemistica di una classe, l'ordine ci informa invece circa la sua complessità concettuale. È questa sovrapposizione degli ordini ai tipi che dà la cosiddetta «ramificazione» della teoria; Russell e Whitehead fanno vedere come, tramite essa, si riesca effettivamente a evitare le antinomie, ma realizzano anche, nel contempo, come teoremi cruciali della matematica classica o della teoria degli insiemi non siano più suscettibili di dimostrazione nel loro nuovo contesto: per non fare che alcuni esempi, non è più possibile dare una soddisfacente definizione di identità, 2 non è più possibile dimostrare il teorema di Cantor (secondo il quale, come si ricorderà, la cardinalità dell'insieme potenza di un insieme dato è strettamente maggiore della cardinalità dell'insieme stesso), non è più possibile definire il concetto di numero r In termini di funzioni [proposizionali] la cosa viene così espressa nei Principia: «Non arriveremo a funzioni di ordine infinito in quanto il numero degli argomenti e delle variabili apparenti di una funzione deve essere finito e pertanto ogni funzione deve essere di ordine finito. Dato che gli ordini delle funzioni sono definibili solo passo per passo, non vi può essere alcun processo di " passaggio al limite " e non possono darsi funzioni di ordine infinito. » La stessa cosa vale ovviamente per i tipi.
2 Volendo infatti definire l'identità in senso leibniziano, si dovrebbe poter esprimere che due enti di uno stesso tipo sono identici quando godono · delle stesse proprietà, o, in termini di classi, quando simultaneamente appartengono (o non appartengono) alle stesse classi. Ma anche qui ci si trova a dover far riferimento a tutte le classi, mentre il linguaggio « ramificato » ci permette di parlare soltanto di tutte le classi di un dato ordine.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
reale dell'Analisi classica (alla maniera di Cantar o di Dedekind), né lo stesso concetto di numero naturale. Il fatto è che, una volta « etichettato » un oggetto oltre che col tipo anche con l'ordine, non sarà più possibile parlare di tutti gli oggetti tout court, ma il quantificatore universale sarà sempre relativizzato (a un tipo e) a un ordine: in altri termini, noi potremo ad esempio avere espressioni del genere « tutte le classi di un dato ordine che contengono l'oggetto x» (e analogamente per il quantificatore esistenziale); mentre i teoremi o le definizioni sopra ricordate comportano un essenziale riferimento a tutte le classi. Nel caso particolare della ricostruzione dell'Analisi, come osserva Casari, la difficoltà si traduce ora « ... nell'esistenza di numeri reali di ordini diversi e ... nell'impossibilità in generale di trattare con sufficiente libertà gli insiemi di numeri reali. Più particolarmente, non si potrà mai parlare di tutti i reali che soddisfano una certa condizione ma sempre e soltanto di tutti i reali di un dato ordine che soddisfano quella condizione ». È proprio per superare queste difficoltà prospettate dalla ramificazione, che Russell e Whitehead introducono l'assiotna di riducibilità, il cui senso, in modo non tecnico, può essere chiarito all'incirca come segue. Per rendere sostanzialmente inoperante la distinzione in ordini nell'ambito di un tipo, è ragionevole pensare di individuare un ordine per così dire particolarmente rappresentativo, che permetta cioè, una volta stabilita una proprietà per un certo elemento (di quel tipo e) di quell'ordine, di poterla «impunemente» estendere a ogni ordine; Russell e Whitehead ritengono di poter individuare questi ordini particolari in quello che per ogni tipo essi chiamano l'ordine predicativo di quel tipo: quell'ordine che individua enti del tipo dato facendo riferimento a elementi dell'ordine immediatamente precedente. In un certo senso ciò significa che i differenti ordini di un tipo possono essere ridotti all'ordine più basso di quel tipo. Se chiamiamo ora predicativo un elemento di un certo tipo (nel nostro caso, una classe) quando è determinato, descritto, da una condizione predicativa, l'assioma di riducibilità viene a dire che per ogni classe di enti di un certo tipo esiste una classe predicativa che è equiestensiva con essa. In termini di funzioni proposizionali in una variabile, indicando una funzione predicativa con un punto esclamativo che segue la lettera funzionale, l'assioma di riducibilità assume nei Principia la seguente forma:
(ossia [qualunque sia la funzione rf>] esiste una funzione predicativa tf; che risulta ad essa equivalente per ogni valore della variabile x). È chiaro allora che una volta stabilite relazioni e proprietà per classi predicative sarà possibile estendere queste relazioni e proprietà a ogni ordine grazie appunto al dettato dell'assioma di riducibilità. Ma si rivela allora anche evidente che la ramificazione viene sostanzialmente
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
vanificata da questo assioma e a questo punto si può innestare tutto un discorso che noi, in termini generali, abbiamo già fatto nel paragrafo 1. Non riprenderemo quindi questo discorso e termineremo invece con un breve accenno alla sistemazione logico-linguistica dei Principia cui dovremo riferirei in seguito. Anche se sistematica e puntuale, la presentazione dell'apparato linguistico e deduttivo dei Principia è ben lontana dal soddisfare le attuali esigenze di rigore (alle quali è paradossalmente assai più vicino Frege). Pur essendo inteso - è stato già detto - come sistema globale, il sistema logico dei Principia viene presentato in modo graduale, operando di fatto una separazione fra logica enunciativa, logica predicativa e logica dei tipi, come potremmo dire noi oggi. Per il primo aspetto vengono introdotte variabili proposizionali p, q, r ... e i due connettivi primitivi di negazione (-,) e disgiunzione (V). Sulla base di questi viene definito il connettivo di implicazione (--+), che da Russell viene inteso come conseguenza logica: « Quando una proposizione q segue da una proposizione p, sicché se p è vera anche q deve essere vera, diciamo che p it11plica q. » Vengono date regole di formazione per le espressioni e regole di derivazione che a partire da 5 assiomi permettono di sviluppare la « teoria della deduzione » per quanto riguarda proposizioni « elementari » ossia proposizioni o funzioni proposizionali nelle quali non intervengono quantificatori. Successivamente si estende tale teoria al caso in cui si abbiano costrutti linguistici nei quali vengano vincolate tramite il quantificatore esistenziale o universale una o più variabili. Anche per questo caso vengono date regole specifiche di formazione e di derivazione. Naturalmente in questo caso occorrerà una complessa descrizione per la corretta assegnazione del tipo e dell'ordine alle varie espressioni: si avrà cioè in tutta la sua portata la controparte simbolica della teoria dei tipi ramificata, che termina appunto con l'enunciazione dell'assioma di riducibilità. Gli assiomi dell'infinito e l'assioma moltiplicativo vengono quindi introdotti successivamente, quando cioè il loro impiego sarà necessario per lo sviluppo della teoria degli insiemi. 1 2.) Il «primo» Hilbert e Zermelo Nel capitolo XII del volume sesto abbiamo già parlato dell'introduzione di una nuova, moderna concezione dell'assiomatica da parte di David Hilbert, concretamente applicata, nelle sue Grundlagen der Geometrie (Fondamenti della geometria) del 19oo, a una assiomatizzazione della geometria elementare. I Diversamente da quanto avveniva per Frege che riusciva a dimostrare l'esistenza dell'insieme dei numeri cardinali grazie all'ammissione di classi non omogenee rispetto al tipo (che cioè potevano avere contemporaneamente come elementi enti di tipo diverso), Russell e Whitehead debbono introdurre come assioma l'affermazione che dispongono di un tipo infinito,
ossia di infiniti elementi distinti di un qualche tipo. La cosa avviene in genere assumendo come assioma l'affermazione che esistono infiniti elementi di tipo I (individui). L'assioma della scelta viene assunto nella forma equivalente di assioma moltiplicativo: il prodotto di infiniti insiemi non vuoti e disgiunti è diverso da zero. Si veda anche in proposito il paragrafo u.z.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Sempre nel I9oo, nell'articolo Uber die Zahlbegri.ff(Sul concetto di numero), Hilbert presenta un sistema di assiomi per i numeri reali; e ancora in quell'anno, nella sua celebre relazione Mathematische Probleme. Vortrag gehalten auf dem internationalen Mathem~tiker Kongress zu Paris Igoo (Problemi fllatematici. Conferenza tenuta al congresso internazionale dei matematici a Parigi, Igoo) egli pone fra i problemi che sfidano il mondo matematico quello della dimostrazione della noncontraddittorietà (o coerenza, o consistenza: useremo questi tre termini come sinonimi) di quel sistema di assiomi, dopo aver mostrato come anche il problema della consistenza della geometria fosse riconducibile al problema della consistenza del sistema dei numeri reali. Dopo la pubblicazione dell'antinomia di Russell è chiaro che la questione della noncontraddittorietà acquisti dal punto di vista di Hilbert ancor maggiore e fondamentale significato sinché anch'egli interviene nella discussione sui fondamenti con un articolo del 1904 dal titolo Uber die Grundlagen der Logik und der Arithmetik (Sui fondamenti della logica e dell'aritmetica) che forma oggetto di una comunicazione presentata al terzo congresso internazionale dei matematici, tenuto ad Heidelberg dall'8 al I3 agosto I904. È un articolo che ha un'importanza del tutto particolare, perché non solo rappresenta la prima enunciazione, dopo la scoperta delle antinomie, di un tentativo di soluzione delle stesse tramite il metodo assiomatico e una connessa dimostrazione di consistenza, ma anche perché è l'unica presa di posizione di Hilbert sul problema in questo periodo. Egli infatti tornerà sull'argomento relativo ai fondamenti della matematica solo oltre dieci anni più tardi, prima nel I 9 I 7 con Axiomatische Denken (il pensiero assiomatico) e quindi negli anni venti con numerosi lavori che vedremo in un prossimo paragrafo. Già in questo articolo del 1904 tuttavia vengono avanzati metodi, temi e problemi che saranno poi centrali nell'effettiva presentazione della matura Beweistheorie hilbertiana. Per prima cosa Hilbert chiarisct: la fondamentale differenza che esiste nel caso ci si impegni a dimostrare la consistenza della geometria e quella invece dell'aritmetica. È proprio nel secondo caso, ossia relativamente all'aritmetica, che si hanno le note diversificazioni nelle posizioni dei vari autori: « infatti, alcune delle difficoltà nei fondamenti dell'aritmetica sono di natura diversa da quelle che si sono dovute superare quando si sono stabiliti i fondamenti della geometria. Esaminando i fondamenti della geometria ci fu possibile lasciare da parte certe difficoltà di natura puramente aritmetica; ma non sembra lecito ricorrere ad alcun'altra disciplina fondamentale quando si tratta di affrontare la questione dei fondamenti dell'aritmetica». Le principali difficoltà in questo senso vengono messe in luce da Hilbert mediante una breve disamina critica dei punti di vista dei vari autori. Non si può affrontare il problema, secondo Hilbert, dal punto di vista dogmatico di Kronecker, che vede sì nel concetto di numero intero la reale fon-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dazione dell'aritmetica, ma considera tuttavia i numeri naturali come dati immediatamente, eliminando così alla base la possibilità e la necessità di condurre ulteriori indagini sugli stessi; 1 né è possibile un tentativo di fondazione eJJJpirista come quello di Helmholtz, la cui pretesa che i numeri vengano astratti dall'esperienza viene secondo Hilbert superata dalla semplice constatazione dell'esistenza di numeri « arbitrariamente grandi », che non è possibile in alcun modo mutuare dall'esperienza. Particolarmente profonde sono per Hilbert le ricerche di Frege e Dedekind: ma il primo, accettando senza limitazioni il principio di comprensione, si espone come noto all'insorgenza di paradossi; analogamente il secondo, perseguendo un tipo di fondazione trascendentale (perché nella dimostrazione dell'esistenza di insiemi finiti fa ricorso alla nozione di totalità di tutti gli oggetti), si espone all'insorgere di una «inevitabile contraddizione». Anche il tentativo di Cantor di superare le antinomie a lui note mediante la distinzione fra molteplicità consistenti e inconsistenti trova il suo limite nella soggettil'ità dei criteri proposti per operare questa distinzione. Le difficoltà messe in luce nei tentativi dei vari autori sopra considerati possono essere superate a parere di Hilbert ricorrendo al metodo assiomatico. A noi non interessa qui seguire passo passo la costruzione del sistema che Hilbert presenta bensì accennare a quella che è l'essenza del metodo proposto in questo articolo per dimostrarne la consistenza. Brevemente, il problema si articola come segue: assunti certi assiomi relativi a oggetti extralogici definiti, ed esplicitate delle regole di deduzione, si prova che gli assiomi godono di una data proprietà; si fa quindi vedere che le regole di derivazione accettate « conservano » questa proprietà, danno cioè luogo a teoremi che sono proposizioni che godono di quella proprietà; si mostra allora che una eventuale proposizione contraddittoria non godrebbe di quella proprietà sicché,. dal momento appunto che le regole la conservano, dai detti assiomi non può dedursi alcuna contraddizione. In questo caso diciamo che le nozioni definite implicitamente dagli assiomi sono consistenti o « esistono consistentemente ». Il metodo presentato da Hilbert viene oggi estensivamente impiegato ed è ovvio che si tratta di una sorta di dimostrazione per induzione. Questo punto sarà centrale per le critiche che Poincaré muoverà a questo primo tentativo hilbertiano: come è possibile giustificare tramite un'induzione la coerenza di un sistema assiomatico come quello dell'aritmetica, di cui proprio l'assioma di induzione è una proposizione fondamentale? Altro elemento importante dell'articolo del 1904 è come dicevamo la presentazione, non organica e sistematica, ma non per questo meno esplicita, di quelle che saranno caratteristiche distintive della posizione formalista hilbertiana matura ; esse sono essenzialmente le seguenti: r Vedremo che nella misura in cui gli intuizionisti si rifaranno a Kronecker, articolandone tuttavia il discorso in modo sistematico,
non sarà così facile per Hilbert « eliminare » la loro posizione.
www.scribd.com/Baruhk
La logica-nel ventesimo secolo (r)
1) Necessità di sviluppare parallelamente logica e matematica: « L'aritmetica è spesso considerata una parte della logica e le tradizionali nozioni logiche fondamentali sono usualmente presupposte quando si tratta di stabilire una fondazione dell'aritmetica. Se tuttavia osserviamo attentamente, ci rendiamo conto che nell'esposizione tradizionale delle leggi della logica sono già usate certe fondamentali nozioni aritmetiche, per esempio il concetto di insieme e, in certa misura, lo stesso concetto di numero. Così d troviamo involti in un circolo vizioso e ciò accade perché se si vogliono evitare i paradossi è necessario uno sviluppo parzialmente simultaneo delle leggi della logica e di quelle d eli 'aritmetica. » z) Riduzione dell'aritmetica a un sistema di formule sulle quali operare per derivazione. 3) Assunzione dell'esistenza extralogica di «oggetti fondamentali» che sono in generale « oggetti di pensiero » e delle loro combinazioni. Naturalmente Hilbert ritiene di poter così superare quelle che erano le deficienze messe prima in luce per gli altri autori: ad esempio, una volta dato il sistema d'assiomi, va osservato che «negli assiomi gli oggetti arbitrari che prendono il posto delle nozioni " ogni '' o " tutti '' della logica ordinaria rappresentano solo quegli oggetti di pensiero e le loro mutue combinazioni che a questo stadio sono presi come primitivi o che debbono essere ancora definiti», il che ovviamente comporta quella limitazione alla generalità fregeana fonte di antinomie. Non solo ma «nella derivazione di conseguenze dagli assiomi gli oggetti arbitrari che occorrono negli assiomi possono quindi essere sostituiti solo con tali oggetti di pensiero e con loro combinazioni. Va inoltre notato che quando si aggiunge un oggetto del pensiero e lo si prende come primitivo, gli assiomi previamente assunti si applicano a una più ampia classe di oggetti e devono essere opportunamente modificati». In altri termini il metodo assiomatico consente i più sottili controlli per quanto riguarda il rapporto di « conseguenza » e quindi relativamente alla possibilità di assegnare, tramite la dimostrazione di noncontraddittorictà, «un significato definito e un contenuto» a nozioni («oggetti del pensiero») che di per sé ne sono prive. Nozioni di questo tipo sono ad esempio per Hilbert «insieme», « rappresentazione », « trasformazione », « relazione », « funzione », « infinito » ecc.; per tutte queste si devono considerare opportuni assiomi e col metodo precedente si possono riconoscere essere « consistentemente esistenti ». Naturalmente possiamo così dimostrare anche l'inconsistenza di talune nozioni. In entrambi i casi- e questo è un ulteriore punto centrale dell'approccio hilbertianociò che dobbiamo fare è « ... considerare la dimostrazione stessa come un oggetto matematico, precisamente [come] un insieme finito i cui elementi sono connessi mediante proposizioni che affermano che la dimostrazione conduce da ... rcerti assiomi a un dato teorema] ». Si noti che nella presentazione hilbertiana qui schizzata, il concetto fonda-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mentale è quello di insieme « ... sicché contrariamente alla concezione attuale, la nozione di elemento di un insieme appare solo come un prodotto susseguente della nozione stessa di insieme ». Ma fino a che punto il concetto di insieme è « chiaro » o, per dirla con Hilbert, « esiste consistentemente »? È proprio a questo problema che tenta di rispondere, facendo uso del metodo assiomatico, una delle più interessanti figure di questo periodo, il matematico tedesco Ernst Zermelo. 1 Zermelo esordisce con un articolo del 1904, Beweis, dass jede )l1enge wohlgeordnet werden kann (Dimostrazione che ogni insieme può essere bene ordinato), presentando in esso una dimostrazione della proposizione che Cantar aveva creduto a più riprese di aver provato dopo averla congetturata, ossia la proposizione circa la confrontabilità di cardinali, o se si vuole del fatto che ogni cardinale è un alef. Zermelo riesce nello scopo in modo assai semplice perché assume per la prima volta esplicitamente un nuovo principio, che abbiamo già ripetutamente ricordato nel volume precedente, noto come postulato (o principio) delle infinite scelte, postulato di Zermelo, assioma moltiplicativo o semplicemente come assioma di scelta; e in effetti Zermelo dimostra appunto che questo principio implica il teorema del buon ordinamento. A parte l'andamento tecnico della dimostrazione è per noi interessante la considerazione finale di Zermelo che, riconosciuto a Erhard Schmidt il merito di avergli suggerito l'impiego del principio di scelta, afferma: «La presente dimostrazione si basa ... sul principio che anche per una totalità infinita di insiemi esistono rappresentazioni che associano a ogni insieme uno dei suoi elementi o, espresso formalmente, che il prodotto di una totalità infinita di insiemi, ognuno dei quali contenga almeno un elemento, è esso stesso diverso da zero. Questo principio logico non può) a rigore) essere ridotto a uno pùì semplice) n1a esso è applicato ovunque senza esitazione mila deduziom matematica» (corsivo nostro). Il principio in questione sollevò immediatamente una vera selva di discussioni. Qui ci limiteremo intanto a osservare che la dimostrazione di Zermelo venne resa pubblica solo qualche mese dopo che Konig aveva presentato al congresso di matematica quella che lui considerava una dimostrazione del fatto che il continuo non poteva essere ben ordinato. Conosciuta la dimostrazione di Zermelo, Konig scopre un errore nella propria e la ritira o meglio, come abbiamo ampiamente visto nel paragrafo I, ne ricava un'ulteriore antinomia. In secondo luogo, r Non si può collocare Zermelo in una scuola determinata delle tre che conosciamo; anzi è proprio a suo riguardo che alcuni critici individuano un quarto indirizzo, « insiemistico » o « cantoriano ». In effetti però, anche se Zermelo agisce come matematico puro, che tenta di risolvere le difficoltà prospettate dalle antinomie con la presentazione di un sistema matematico operativo, egli condivide in certo senso con Russell l'atteggiamento circa il contenuto del sistema matematico (e la posizione realista, anche se molto
ingenua, di fondo), con lo stesso Poincaré una concezione potremmo dire kantiana della matematica come fatto globale e infine con Hilbert almeno la fiducia nel metodo assiomatico, se non addirittura la necessità dello stesso. D'altra parte poiché il grosso impatto di Zermelo nella ricerca successiva deriva essenzialmente dalla sua costruzione del primo sistema assiomatico per la teoria degli insiemi, abbiamo ritenuto lecito e opportuno associarlo a Hilbert.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
già nel189o Peano, in uno dei suoi fondamentali lavori Démonstration de l' intégrabilité des équations dif!érentielles ordinaires (Dimostrazione dell'integrabilità delle equazioni differenziali ordinarie), riassumendo la dimostrazione e riferendosi a un dato passaggio, afferma: «Siccome non si può applicare un'infinità di volte una legge arbitraria con la quale a una classe a si fa corrispondere un individuo di questa classe, si è formata qui una legge detertninata con la quale a ogni classe a, sotto opportune ipotesi si fa corrispondere un individuo di questa classe. » In altri termini Peano vede chiaramente il principio di scelta come autonomo, ma lo rigetta come principio di dimostrazione. Ancora nel 1908, nel Formulario, è di questo parere: «In questa dimostrazione occorre scegliere un numero infinito di volte un cubo fra più cubi, il che non è lecito se non si dà una legge generale di scelta. » Nel 1906 nell'appendice del lavoro Super theorema de Cantor-Bernstein et additione (St~l teorema di Cantor-Benzstein e appendice) egli esamina il paradosso di Richard e le osservazioni in proposito di Poincaré, e afferma sostanzialmente che il principio non è impiegabile perché solo l'assunzione di elementi arbitrari in numero finito è una forma di argomentazione riconducibile al sillogismo che è in effetti, per lui, l'unica forma di dimostrazione. Allora: in molti casi il principio di Zermelo è riconducibile al sillogismo e va bene, in altri casi non si sa eliminare il postulato di Zermelo ma allora « la dimostrazione non è ridotta a forme comuni di ragionamento; la dimostrazione non è valida, secondo il valore comune del vocabolo "dimostrazione''». Per ogni dimostrazione in cui intervengano infinite scelte arbitrarie egli, per così dire, sospende il giudizio: « La nostra opinione è indifferente. Il teorema precedente è simile al teorema di Gol d bach ... » ossia è una pura congettura. A queste e altre numerose obiezioni Zermelo replicò, e talora duramente, nel 1908 presentando una nuova dimostrazione del teorema del buon ordinamento (sempre basata ovviamente sul principio di scelta) in Nette Beweis fiir die Miiglichkeit einer Wohlordnung (Nuova dimostrazione per la possibilità di un buon ordinamento), dimostrazione che ricorreva questa volta a una generalizzazione del concetto di catena (introdotto, come abbiamo visto nel volume sesto, da Dedekind). Prima di presentare il sistema assiomatico di Zermelo vale la pena di soffermarci brevemente sulle risposte ad alcune obiezioni perché ci sembra mettano bene in luce l'aspetto di fondo, il senso stesso della polemica. Ze:çmelo distingue le varie obiezioni raggruppandole in quattro tipi fondamentali, due dei quali possono essere riguardati come « metateorici » ossia sono diretti contro l'assunzione del principio di scelta o l'impiego delle definizioni impredicative, gli altri due sono più direttamente « teorici » ossia matematici nel senso che tendono direttamente a mettere in luce eventuali errori nella stessa dimostrazione di Zermelo. Da che parte stia Zermelo ci sembra risulti chiaro quando egli osserva che « il numero relativamente alto di critiche contro la mia breve nota [quella del I 904] testimonia il fatto che, evidentemente, contro
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
il teorema che ogni insieme può essere ben ordinato si hanno forti pregiudizi. Ma il fatto che a dispetto di un esame meticoloso ... nella mia dimostrazione non fu possibile mettere in luce alcun errore matematico e che le obiezioni sollevate contro i miei principi sono mutuamente contraddittorie ... mi lascia sperare che nèl tempo queste resistenze saranno superate». Ma vediamo le obiezioni al principio di scelta, per noi particolarmente interessanti in quanto Zermelo le confuta sostanzialmente con una polemica contro Peano; il quale in questo contesto - a parte la sua indiscussa preminenza come matematico - appare in definitiva come un conservatore, che tende a dare limitazioni conclusive e definitive a un sistema, e mostra di non avvertire che il suo era tempo di « sperimentazioni » disinvolte e spregiudicate all'occorrenza, tese a costruire per il futuro piuttosto che a rifinire per il passato. Abbiamo accennato alle obiezioni di Peano: sostanzialmente consistono nel non riconoscere al principio di scelta la « dignità » di principio di dimostrazione dal momento che «dimostrare» voleva per lui dire semplicemente ed esclusivamente «ricondurre a sillogismi » (affidandosi in ciò, è chiaro, a tutta una pesante e antica tradizione) e il principio in questione non sempre ammetteva tale riduzione. Zermelo reagisce duramente a questa obiezione: «Per rigettare tale principio fondamentale [il principio di scelta appunto] si dovrebbe accertare che non vale in qualche caso particolare, oppure derivare da esso una contraddizione », non fare appello all'autorità di schemi certamente privilegiati e sperimentati ad abundantiam ma non per questo dimostrati esaustivi. « Anche il Formulaire [Formulario] di Peano, » ribadisce Zermelo, « che è un tentativo di ridurre tutta la matematica a "sillogismi " ... si basa su un certo numero di principi indimostrabili. » Peano riconosce che il principio di scelta non è deducibile dai suoi, ma questo è tutto per lui: «L'idea che eventualmente il suo Formulaire potrebbe essere incompleto proprio in questo punto, dovrebbe, dopo tutto, suggerirsi da sola e poiché in matematica non esistono autorità infallibili, dobbiamo tener conto anche di questa necessità e non rigettarla senza un esame obiettivo.» Evidentemente Peano individua i principi su cui basa il Formulario analizzando i processi di inferenza riconosciuti come corretti nel corso della storia e accetta tali principi per la loro ez,idenza. Ora anche Zermelo riconosce che il suo principio è stato usato da molti matematici (Dedekind, Cantar, Bernstein, Schonflies, Konig ecc.), ma ritiene l'evidenza un criterio del tutto soggettivo; tale non è al contrario il fatto che il principio sia o no necessario per la scienza, il che Zermelo sostiene presentando una lista di problemi matematici non risolubili senza l'impiego del principio in questione. «Bandire dalla scienza fatti e problemi fondamentali per il solo motivo che essi non possono essere trattati per mezzo di certi principi prescritti, sarebbe analogo a proibire l'ulteriore estensione della teoria delle parallele in geometria perché si è riconosciuto indimostrabile l'assioma su cui si fonda questa teoria. In effetti i principi devono
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
essere giudicati dal punto di vista della scienza, e non la scienza dal punto di vista di principi fissati una volta per tutti. » Altro tipo di obiezione riguarda la questione delle definizioni impredicative, e ha quindi come naturale controparte Poincaré, le cui posizioni come abbiamo già visto avevano fortemente influenzato anche Russell. Oltre che in sé, l'obiezione e la susseguente discussione di Zermelo assumono qui particolare interesse perché: I) portano Zermelo a esplicitare il suo realismo per quanto riguarda la questione dell'esistenza degli enti matematici; z) consentono di riconoscere con chiarezza una sua concezione in certo senso kantiana (in accordo in questo con Poincaré) della matematica nella sua globalità; 3) servono a mettere in luce la netta distinzione osservata da Zermelo tra principi (fatti extramatematici di contenuto generale) e dimostrazioni (fatti strettamente matematici e come tali sottoponibili ai controlli più accurati e spietati). Dicevamo dunque che Zermelo concorda con Poincaré nel ritenere la matematica una scienza « produttiva basata sull'intuizione»; egli non obietta quindi contro la polemica che in quegli anni Poincaré stava conducendo, come abbiamo già ampiamente accennato e come vedremo ancora nelle prossime pagine, contro i logicisti; ritiene tuttavia, e questo lo riguarda direttamente, che Poincaré identifichi la teoria degli insiemi con la logistica che egli combatte e alla quale « nega ogni diritto di esistenza ».. Ora finché Poincaré mantiene il discorso sul piano filosofico, poco male, afferma Zermelo: in questo caso, praticamente nessun matematico ha qualcosa da obiettare. Ma « egli intraprende a combattere le dimostrazioni matematiche con le armi della logica formale, avventurandosi così su un terreno nel quale i suoi avversari sono più forti di lui ». Ma veniamo ora al punto in questione. Sappiamo che per Poincaré una definizione è predicativa e logicamente ammissibile solo se essa esclude tutti gli oggetti che dipendono dalla nozione definita, ossia che in qualche modo possono essere determinati da essa. Orbene una definizione di quest'ultimo tipo (quella di intersezione di tutte le catene, che è a sua volta una catena) interviene in modo cruciale nella seconda dimostrazione di Zermelo, che quindi, secondo Poincaré, è errata. Qui Zermelo reagisce se possibile ancor più decisamente in quanto non è il principio di scelta che si mette in discussione, ma la correttezza stessa della sua dimostrazione, ossia l'unico e vero argomento sul quale ha ragione di non ammettere dubbi. A Poincaré Zermelo risponde sostanzialmente: a) con una professione di realismo che, come osservavamo parlando di Russell, vanifica l'obiezione stessa delle definizioni impredicative; b) sostenendo che dimostrazioni impredicative non sono caratteristiche della teoria degli insiemi ma si ritrovano in tutta la matematica e c) ritorcendo l'accusa di circolarità alla stessa definizione di Poincaré. Dopo tutto, dice Zermelo, « uri oggetto non è creato attraverso una tale "determinazione "; piuttosto ogni oggetto può essere determinato in un'ampia varietà di modi, e queste differenti determinazioni non danno luogo a nozioni
237
www.scribd.com/Baruhk
La logica-nel ventesimo secolo (r)
identiche, ma soltanto equivalenti, ossia nozioni aventi la stessa estensione. In effetti è proprio l'esistenza di nozioni equivalenti ciò che Poincaré sembra aver trascurato nella sua critica ... Una definizione può ben basarsi su nozioni equivalenti a quella da definirsi; in effetti in ogni definizione deftniens e deftniendum sono nozioni equivalenti e la stretta osservanza della richiesta di Poincaré renderebbe impossibile ogni definizione e quindi tutta la scienza ». 1 Le altre obiezioni che gli vengono direttamente da parte matematica tendono a far vedere, ad esempio, come sulla base del risultato di Zermelo possa ricostituirsi l'antinomia di Burali-Forti. A noi non interessa qui seguirle; 2 ci limitiamo solo a mettere in evidenza che Zermelo sostiene e dimostra l'infondatezza di tali obiezioni accennando a quello che sarà il suo sistema assiomatico per la teoria degli insiemi che verrà pubblicato nello stesso anno; e conclude osservando che a causa delle antinomie è ormai chiaro « ... che non è permesso trattare l'estensione di un concetto arbitrario come un insieme e che di conseguenza l'usuale definizione di insieme è troppo ampia. Ma se nella teoria degli insiemi ci limitiamo a un certo numero di principi stabiliti come quelli che costituiscono la base della nostra dimostrazione - principi che ci permettono di formare insiemi iniziali e di derivare nuovi insiemi da quelli dati - allora tutte le contraddizioni possono essere evitate ». Questi dunque sono i criteri di fondo in base ai quali Zermelo presenta nel 1908 in Untersuchungen uber die Grttndlagen der lvfengenlehre, 1 (Ricerche sui fondamettti della teoria degli insiemi, 1), il primo sistema assiomatico di teoria degli insiemi. Da questo punto di vista Zermelo opta per una soluzione di tipo hilbertiano e non solo perché assume il metodo assiomatico ma anche perché, a differenza di Russell che concepiva un linguaggio logico generale per la descrizione di tutta la matematica, Zermelo si muove in un tipo di linguaggio che semplicemente gli serva alla trascrizione della teoria degli insiemi (sia poi o meno in questa possibile, a sua volta, una trascrizione dell'intera matematica). Altre differenze con Russell: questi vede il discorso nell'ambito di un contesto filosofico generale, Zermelo offre una soluzione di tipo matematico, operativo, alla questione delle antinomie che avevano messo in crisi una teoria matematica; Russell fa ovviamente un radicale discorso di tipo logicista, Zermelo di tutta la problematica relativa ha semr Si noti che in questa sua risposta a Poincaré, Zermelo concorda con le critiche che allo stesso Poincaré aveva in proposito sollevate Peano. 2 È interessante riportare le parole conclusive di Zermelo sull'argomento: «Ad eccezione di Poincaré, la cui critica, basata sulla logica formale - una critica che minaccerebbe l'esistenza di tutta la matematica - non ha finora avuto seguito, tutti gli oppositori possono essere divisi in due classi. Quelli che non hanno nulla da obiettare alle mie deduzioni protestano contro
l'impiego di un principio gene.rale indimostrabile, senza riflettere che tali assiomi costituiscono la base di ogni teoria matematica e che inoltre quello che io ho introdotto è anche peraltro indispensabile per l'estensione della scienza. Gli altri critici che si sono convinti di questa indispensabilità per una più profonda conoscenza della teoria degli insiemi, fondano le loro obiezioni sull'antinomia di Rurali-Forti, che in effetti è senza significato dal mio punto di vista, perché i principi che io impiego escludono l'esistenza di un insieme W [di tutti gli ordinali).»
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
plicemente preso atto del fatto che occorre superare delle difficoltà precise e lascia addirittura del tutto indeterminata la logica soggiacente il suo sistema. Proprio questo punto, tuttavia, si rivelerà una lacuna non indifferente della sua costruzione. Il problema per Zermelo è essenzialmente quello di « chiarire » il concetto di insieme facendo sì che vengano evitati insiemi che appaiono « troppo grandi » per poter essere ammessi, pena appunto la comparsa delle antinomie (con l'accortezza di non dare a quel « troppo grande » una carica soggettiva o di « reale » confronto di grandezze; da questo punto di vista ne vedremo una precisazione «tecnica», da parte di von Neumann, nel paragrafo III.z. Per ora «troppo grande » vuol dire solo « che comporta contraddizione ». Del resto anche Russell come sappiamo aveva pensato a una soluzione del genere quando aveva accarezzato l'idea di evitare le antinomie con la teoria della « limitazione di grandezza»: si tratta sempre e comunque di evitare le «esistenze scomode»). È chiaro che la cosa si otterrà, tra l'altro, limitando la portata di quel principio di comprensione secondo il quale, come si ricorderà, a ogni proprietà corrisponde un insieme, che Russell aveva appunto dimostrato contraddittorio. Zermelo provvede a questa limitazione assumendo al suo posto un principio di separazione o di isolamentv secondo il quale è ammessa la comprensione delle proprietà solo nell'ambito di insiemi già precostituiti, nel senso che la loro esistenza o è stata postulata o può essere dimostrata nel sistema. Dovrebbe risultare ovvio che questa proposizione costituisce un reale indebolimento della primitiva portata del principio di comprensione (pur conservando forza sufficiente a realizzare una certa parte significativa della teoria di Cantar) solo a patto che nel sistema che si considera non si assuma o comunque non sia possibile dimostrare l'esistenza della classe totale: «isolare» nella classe totale equivale infatti ad assumere la comprensione generalizzata. Zermelo deve quindi escludere tale classe dal suo sistema e questo gli riesce molto felicemente dimostrando un teorema che vedremo subito dopo aver presentato il sistema assiomatico nel corso di alcune considerazioni che faremo su di esso. Poiché il sistema assiomatico di Zermelo, che indicheremo con 3, fornì lo spunto e la base di partenza per tutta una serie di potenziamenti e precisazioni che si avranno soprattutto negli anni venti, noi ci riserviamo di darlo nella sua forma simbolica in un prossimo paragrafo, !imitandoci qui a descrivere ed enunciare gli assiomi in linguaggio comune e in modo informale. Intuitivamente Zermelo vede la sua teoria riferita a un dominio B di individui o oggetti, fra i quali vi sono degli insiemi; quegli oggetti del dominio che non sono insiemi vengono detti elementi primitivi o Urelemente. Come relazioni fondamentali fra gli oggetti del dominio egli assume la relazione di appartenenza a E b che ovviamente può aver luogo tra insiemi (ossia nel caso che a e b siano entrambi insiemi) o fra Urelemente e insiemi (ossia nel caso che a sia un el e-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mento primitivo e b un insieme); tale relazione cioè non può aver luogo fra Urelemente ossia nel caso che tanto a quanto b siano Urelemente. In termini di questa relazione fondamentale di appartenenza si definisce la relazione a s; b di inclusione fra insiemi ossia che può sussistere solo quando a e b siano etttrambi insiemi. Sulla base di queste relazioni fondamentali Zermelo enuncia otto assiomi e precisamente i seguenti (che noi riportiamo in terminologia moderna pur parafrasando direttamente l'enunciazione zermeliana). 1) Assioma di estensionalità Se ogni elemento di un insieme JJ è un elemento di un insieme N e viceversa, allora M = N. Si noti che questo assioma vale solo per insiemi e afferma sostanzialmente che un insieme è determinato dai suoi elementi.
z) Assioma degli insiemi elementari Esiste utt insieme (.fittizio), l'insieme vuoto o, èhe nott contiene elementi. Se a è un oggetto del dominio allora esiste l'insieme {a} il cui solo elemento è a; se a e b sono due oggetti qualunque del dominio allora esiste sempre un insieme {a, b} che contiene come elementi solo a e b. Questo assioma assicura l'esistenza di insiemi particolarmente semplici: l'insieme vuoto appunto, l'insieme unità di ogni elemento (sia o no questo elemento un insieme del dominio) e l'insieme coppia di due elementi qualunque (siano essi o no insiemi) del dominio. 3) Assioma di separazione Ogniqualvolta la funzione proposizionale P( x) è definita per tutti gli elementi di un insieme M, il1 possiede un sottoinsinm liJ p che coJttiene tutti e soli gli elementi x di M i quali soddisfatto la proprietà P(x).l Questo assioma è particolarmente delicato. Esso esprime infatti quella limitazione del principio di comprensione che abbiamo sopra chiamato principio di isolamento. Il perché della denominazione dovrebbe risultare chiaro proprio dall'enunciazione dell'assioma che infatti consente di isolare nell'ambito di un dato insieme M quegli elementi x E M che godano di una data proprietà P. Oltre alle osservazioni in generale già fatte sopra se ne impongono alcune particolari relative proprio alla formulazione di questo assioma. In esso interviene il concetto di «proprietà definita» che è assai problematico in quanto non è assolutamente specificato da Zermelo. Anzi, mette proprio in evidenza una lacuna fondamentale della sua presentazione, l'assenza cioè di una base logico-linguistica chiaramente ed esplicitamente precisata, quando nel tentativo di caratterizzare questa nozione Zermelo afferma che « una questione o asserzione P è detta essere definita se le relazioni fondamentali del dominio, per mezzo degli assiomi 1 Si osservi che propriamente non si tratta in questo caso di un assioma bensì di uno sche-
ma di assiomi. Si veda anche la nota 26r.
www.scribd.com/Baruhk
2
a pag.
La logica nel ventesimo secolo (1)
e delle leggi universalmente valide della logica [corsivo nostro] determinano senza arbitrarietà se essa vale o non vale ». Qui non solo risulta la necessità di un riferimento a una base logica esplicitata (quali sono queste leggi universali, come entrano nella determinazione della «definitezza», ecc.) che manca nel sistema zermeliano, ma si prospetta il problema, una volta superata questa lacuna, di vedere come definire opportunamente questa nozione. Vedremo che questo sarà uno dei nei del sistema 3 che più affaticherà negli anni venti gli insiemisti. Già sulla base di questi assiomi, Zermelo è in grado di dimostrare il teorema che gli esclude la possibilità di antinomie, teorema secondo il quale « ogni insieme M possiede un sottoinsieme M 0 che non è un elemento di M», vale a dire che stabilisce che non ogni elemento del dominio può essere elemento di uno stesso insieme, e che pertanto il dominio B stesso (il quale per sua stessa definizione contiene tutti gli elementi) non è un insieme: non può quindi isolarsi nella classe totale, ossia il principio di separazione è effettivamente più debole del principio generalizzato di comprensione, e non permette la derivazione dell'antinomia di Russell. È soprattutto a questo terzo assioma dunque che è affidato il compito di evitare le antinomie; e il passo in cui Zermelo fa quest'affermazione è interessante perché allude chiaramente a una sorta di suddivisione delle stesse, che si rivelerà fondamentale, come avremo occasione di vedere nel paragrafo III+ Conviene quindi riportare tale passo, o almeno i suoi momenti più salienti: «Dando un'ampia libertà nel definire nuovi insiemi, l'assioma III in un certo senso fornisce un sostituto per la definizione generale di insieme... Esso differisce da tale definizione poiché contiene le seguenti restrizioni. In primo luogo un insieme non può mai essere definito indipendentemente... ma deve essere sempre separato come sottoinsieme da insiemi già dati; così nozioni contraddittorie come" l'insieme di tutti gli insiemi" o "l'insieme di tutti i numeri ordinali", e con essi i "paradossi ultrafiniti ", per usare un'espressione di Hessenberg, sono esclusi. In secondo luogo, ... il criterio definitorio deve sempre essere definito ... (ossia per ogni singolo elemento x di M le relazioni fondamentali del dominio devono determinare se esso vale o no) col risultato che, dal nostro punto di vista, tutti i criteri come "definibile con un numero finito di parole" e quindi "l'antinomia di Richard" e "il paradosso della denotazione finita" svaniscono. Ne segue anche però che, a volere essere rigorosi, prima di ogni applicazione dell'assioma III noi dobbiamo dimostrare che il criterio P(x) in questione è definito; nelle considerazioni che seguono questo verrà in effetti dimostrato tutte le volte che non sarà evidente. » 4) Assioma dell'insieme potenza A ogni insieme T corrisponde un altro insieme f!IJ(T) detto insieme potenza di T, i cui elementi sono tutti e soli i sottoinsiemi di T, compreso T stesso e l'insieme vuoto.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Si può comprendere la portata di questo assioma, in particolare in riferimento alla teoria dei numeri cardinali, se si ricorda il teorema di Cantar dato nel capitolo xn del volume sesto. 5) Assioma della riunione A ogni insieme T corrisponde un insieme U T che contiene co1ne elementi tutti e soli gli elementi degli elementi di T. 6) Assioma della scelta Se T è un insieme i cui elementi sono tutti insiemi mutuamente di~giunti e non vuoti, allora la riunione U T include almeno un sottoinsieme S che ha tmo e un solo elemento in comune con o,gni elen~ento di T. 7) Assioma dell'infinito Esiste nel dominio almeno un insiente Z che co11tiene l'insieme vuoto o come elemento e che con ogni stto elemento a contiene anche fa}, insieme unità di a. Zermelo è quindi il primo ad avvertire la necessità della postulazione dell'esistenza di un insieme infinito. Si noti che la formulazione precedente comporta che nel dominio B sia compreso almeno l'insieme fo, fo}, {{o}}, f{ fo}}}, ff{fo}}}} ,... }. Per chiudere questo primo approccio a Zermelo riportiamo le sue stesse parole sulle questioni più generali relative al suo sistema: « ... intendo mostrare come l'intera teoria creata da Cantar e Dedekind può essere ridotta a poche definizioni e a sette principi, o assiomi, che sembrano essere mutuamente indipendenti [corsivo nostro] ... N o n sono ancora stato in grado di dimostrare rigorosamente che i miei assiomi sono consistenti, ntalgrado ciò sia certamente essenziale [corsivo nostro]; mi sono dovuto limitare a mettere ancora in evidenza che le antinomie finora scoperte svaniscono tutte se si assumono come base i principi qui proposti ... »
3) I « semiintuizionisti »francesi e il «primo » Brouwer Nel primo decennio del nostro secolo è molto vivace in Francia la discussione sui fondamenti della matematica che vede impegnati fra gli altri i componenti della scuola degli analisti di Parigi (i « semiintuizionisti » francesi) oltre che Poincaré, Pierre Boutroux (r88o-r922), Louis Couturat ecc. Gli scambi di idee estremamente vivaci, talora ironici, vertono sostanzialmente su due argomenti fondamentali: la nuova logica di Peano e Russell e la teoria degli insiemi cantodana, in particolare la questione della scelta sollevata da Zermelo. Ci limiteremo in proposito ad alcuni cenni anche perché la cosa è stata ampiamente toccata nel paragrafo r, con particolare riguardo a Poincaré da una parte e all'olandese Brouwer dall'altra, il quale pur se in qualche modo in continuità col semiintui-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
zionismo, propone un ben più radicale e articolato programma noto appunto, per distinguerlo dall'altro, come neointuizionismo o semplicemente intuizionismo. Lo spunto alle discussioni viene senz'altro dal matematico e filosofo Louis Couturat, che si presenta un po' come l'entusiasta assertore della nuova logica, soprattutto in funzione antikantiana. La polemica Couturat-Poincaré-Russell si svolge soprattutto sulla Revue de métaphisique et de morale. Couturat inizia con la Logique mathématique de M. Peano (Logica matematica di Peano, 1899), quindi pubblica nel 1904 un lungo articolo, La philosophie de la mathématique de Kant (La filosofia kantiana della matematica) e nel 1906 Pour la logistique. (Réponse à M. Poùzc·aré) (Per la logistica. Risposta a Poincare'). Poincaré da parte sua vi scrive tra il 1905 e il 1906 una serie di articoli che vengono poi ristampati con minime variazioni nei volumi La valeur de la science (Il valore della scienza, 1905), La science et l'hypothèse (La scienza e l'ipotesi, 19o6) e Science et tnéthode (Scienza e metodo, 1908). Nella polemica, Russell interviene nel 1906 pubblicando sempre sulla stessa rivista l'articolo Les paradoxes de la logique (l paradossi della logica). Ricordiamo infine, del 1905, le Cinq lettres sttr la théorie des ensembles (Cinque lettere sulla teoria degli insiemi), nelle quali Hadamard-Borel, Baire-Hadamard, Lebesgue-Borel, Hadamard-Borel e Borel-Hadamard si scambiano appunto i loro punti di vista sulla teoria degli insiemi, e in particolare sull'assioma di scelta. Abbiamo già parlato a lungo di Russell e del suo rapporto con Poincaré; di Couturat non resta 1 che dire che talora il suo entusiasmo per la nuova logica e teoria degli insiemi, professato in modo un po' trionfalistico, può aver messo in secondo piano quella che poteva essere l'elaborazione di un pensiero personale. Caratteristico comunque della sua attività intellettuale è il tentativo di ribaltare, con questi nuovi strumenti concettuali, l'impostazione della filosofia della matematica kantiana, col corollario che l'intuizione sarebbe stata definitivamente bandita dalla matematica. Ma certamente alcune enfatiche e categoriche affermazioni di Couturat, che si dichiara modestamente semplice « relatore di sì grandi maestri» (intendendo Peano e Russell) non solo avrebbero probabilmente messo « in difficoltà i maestri stessi » (Poincaré) ma oltre a offrire lo spunto all'intervento di Poincaré nella polemica non gli risparmiano frecciate velenose e sarcastiche (anche se certamente del tutto fuori luogo e «antipatiche») da parte di quest'ultimo. 2 Riprendiamo invece brevemente Poincaré, che rientra largamente nell'ambito della scuola degli analisti francesi, anche se con forti differenze (che comunI In questa sede. Altrimenti sarebbe forse non privo di interesse tentare di portare alla luce i tratti salienti del pensiero autonomo di Couturat, al di là delle sue stesse frequenti dichiarazioni di « dipendenza ». 2 A proposito dell'articolo su Kant: «Si vede bene che è il centenario della morte di Kant »; a proposito delle « ingenue illusioni » di Cou-
turat sulla logistica che avrebbe messo « i trampoli e le ali » dopo che Peano aveva pubblicato, dieci anni prima, il Formulario: «Come, sono dieci anni che avete le ali, e non avete ancora volato! »; senza contare apprezzamenti personali assai più pesanti che non mette veramente conto di riportare.
243
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
que anche gli altri esponenti presentano fra loro), per poi vedere come Brouwer interviene già nel I 907 nella discussione sui fondamenti della matematica in modo del tutto autonomo e originale. Se, con Heyting, consideriamo « intuizionisti » in matematica quegli studiosi che accettano i due seguenti principi: I) la matematica non ha solo un significato formale, ma anche un contenuto; e z) gli oggetti matematici sono afferrati immediatamente dallo spirito pensante, sicché la conoscenza matematica è indipendente dall'esperienza; se accettiamo questa caratterizzazione. allora si può a buon diritto affermare che, almeno in senso lato, la scuola francese prelude a quello che oggi è noto appunto come intuizionismo. Vi sono tuttavia notevoli differenze che soprattutto riguardano la concezione dell'esistenza degli enti matematici. Da una parte infatti si può ritenere che gli oggetti matematici esistano indipendentemente dal nostro pensiero, ma noi concluderemo alla loro esistenza soltanto per mezzo di una costruzione, ossia assumeremo come esistenti quegli enti matematici per i quali disponiamo di una costruzione matematica; questo atteggiamento è grosso modo comune ai semiintuizionisti francesi 1 (come lo era stato di Kronecker, e lo sarà di Skolem); già Poincaré tuttavia, hilbertianamente, accetta l'eqmvalenza esistenza = dimostrazione di consistenza. Più radicale ancora, vedremo, sarà Brouwer, per il quale gli oggetti matematici non hanno alcuna esistenza indipendente dal pensiero umano, o comunque è ingiustificato assimilare tale esistenza con un procedimento di dimostrazione matematica. Il problema di fondo che Poincaré affronta sullo spunto, come dicevamo, dell'articolo di Couturat sulla matematica di Kant è sostanzialmente il seguente: è possibile ridurre la matematica alla logica senza fare appello a principi che sono propri della matematica? La scuola logicista, che si sforza di dimostrare questo con l'aiuto della matematica dell'infinito attuale di Cantor, è andata incontro secondo Poincaré solo a degli insuccessi, confermati dalle antinomie, e non miglior sorte ha avuto il tentativo del I904 di Hilbert. La ragione di questi insuccessi, anzi ]a ragione di principio per cui non sono possibili né la riduzione logicista né quella formalista della matematica, è sostanzialmente unica: la matematica ha alla sua base, kantianamente, giudizi sintetici a priori, che non ammettono quindi una eliminazione dell'intuizione o del «con· tenuto » della matematica stessa. In particolare, e questo spiega intanto l 'impossibilità logicista della riduzione, il principio veramente « creativo » della matematica, quello che ci fa ottenere « più » di quanto non sia contenuto nelle premesse dei nostri ragionamenti è proprio quel principio di induzione matematica che i logicisti hanno assunto come definitorio dei numeri naturali (vedi assiomi di 1 Con forti sfumature diverse. Secondo Lebesgue, ad esempio, per dimostrare che un insieme non è vuoto si deve nominare esplicitamente almeno un suo elemento. È chiaro comunque quale doveva essere, con questi presup-
posti, l'atteggiamento nei riguardi della stragrande maggioranza dei risultati della teoria cantoriana degli insiemi, e in particolare nei riguardi dell'assioma di scelta.
244
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Peano) immettendosi così in un in eliminabile circolo vizioso. Più sottile è la critica a Hilbert. Poincaré riconosce i successi di Hilbert nell'assiomatizzazione della geometria, perché anche lui ammette la definizione per postulati, ma solo nel caso in cui si sappia dimostrare la coerenza dei post11lati stesJi: ora ciò risulta possibile per i sistemi geometrici proprio perché la dimostrazione ha qui quel carattere relativo di cui abbiamo più volte parlato, che « scarica» appunto sull'algebra e in definitiva sull'aritmetica tutte le difficoltà. Ma di fronte a un sistema di assiomi per l'aritmetica, dal momento che non può procedersi ad una verifica diretta a causa dell'infinità dei numeri naturali, è ancora necessario servirsi del ragionamento per ricorrenza, ossia in ultima analisi all'induzione matematica, che è ancora una delle proposizioni che noi ci ripromettiafno di giustificare. Anche in questo caso siamo quindi di fronte a uno scacco di principio, a un evidente circolo vizioso .1 D'altra parte anche la stessa giustificazione logicista dell'induzione come si è visto - presenta nella sostanza, a livello di definizioni, quello stesso circolo vizioso che Poincaré ritrova a livello deduttivo nell'approccio formalista. I motivi, o meglio, il motivo essenziale che porta a queste impasses viene illustrato da Poincaré a partire dal paradosso di Richard che già conosciamo. Lo stesso Richard aveva proposto una soluzione al riguardo; Poincaré la elabora e la fa sua presentandola appunto come la « vera soluzione » (contro la quale, abbiamo visto, polemizzano anche Peano e Zermelo). Riferendoci all'esposizione già data nel paragrafo n. I, la risposta di Richard e Poincaré è semplice: E è l'insieme di tutti i numeri che si possono definire con un numero finito di parole e senza introdurre la nozione dell'ùtsieme E steHo. Se non si osserva questa precauzione la definizione di E contiene un circolo vizioso dal momento che non si può r È qui opportuna qualche considerazione che potrà essere compresa compiutamente quando parleremo del programma « maturo» di Hilbert, ma che tuttavia può essere intesa - crediamo almeno nelle sue linee generali, tenuto conto di quanto detto nel paragrafo 1. Anche se nel 1905, quando Poincaré avanzava queste osservazioni, Hilbert non aveva ancora espresso chiaramente la distinzione fra matematica e metamatematica, Poincaré riconosce per così dire la presenza di due applicazioni dell'induzione matematica, una nel sistema, l'altra nella metateoria del sistema stesso; e ritiene che una dimostrazione di consistenza possa giustificare la prima di queste induzioni, ma non certo la seconda. Hilbert risponde a questa osservazione solo nelr922 in Neubegriindung der Mathematik (Erste Mitteilung) (Nuova fondazione della matematica. Prima comunicazione) sostenendo che solo una delle due (la seconda) è una forma di induzione irriducibile. Successivamente distingue fra una induzione « contenutistica » (e quindi giustificata, che è alla base della dimostrazione di consistenza) e una «formale» (quella
dell'aritmetica), distinzione che tuttavia abbandona dopo qualche anno. La risposta di Hilbert, in quanto si limita a porre la distinzione senza determinarne le modalità, è chiaramente non soddisfacente come del resto venne fatto notare da molti autori a lui legati, come ad esempio Hermann Weyl e Thoralf Skolem (che propendono per Poincaré), Wilhelm Ackermann (che pone l'induzione fra i principi più delicati e questionabili dell'impostazione hilbertiana). Jacques Herbrand identifica l'induzione contenutisticamente giustificata e quindi applicabile nella metamatematica come quella che si applica alle sole formule aperte (senza quantificatori). Il problema della induzione rimarrà un punto basilare per il formalismo, in quanto legato com'è al passaggio dal finito all'infinito (dagli esempi alla conclusione universale) risulta decisivo per la determinazione stessa del significato del finitismo hilbertiano. In altri termini, è proprio dal tipo di induzione che viene ammesso a livello metamatematico che si può determinare la nozione di «finito » che si assume (si veda il paragrafo rv.4).
245
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
definire l 'insieme E tramite se stesso. Orbene, per evitare circoli viziosi di questo tipo occorre servirsi solo di definizioni predicative, considerando impredicative quelle definizioni che appunto contengono un circolo vizioso. Abbiamo già visto come Russell assuma questo principio del circolo vizioso come elemento di salvaguardia dalle antinomie e come invece tanto Peano che Zermelo controbattano alla pretesa di Poincaré di limitarsi, per così dire, a una matematica predicativa. Comunque, una volta stabilito questo, Poincaré conclude che è proprio l'affermata esistenza dell'infinito attuale che dà origine alla possibilità stessa di definizioni impredicative; è dunque all'infinito attuale che in ultima analisi vanno riportate queste recenti difficoltà apparse nella logica e nella matematica: «non esiste infinito attuale; i cantoriani l'hanno dimenticato e sono caduti in contraddizione ». Brouwer interviene nella discussione fra Poincaré e Russell con la pubblicazione, avvenuta nel I 907, della sua tesi dal titolo Stti fondamenti della matematica, 1 buona parte della quale è appunto dedicata all'oggetto di quella disputa. Brouwer non concorda con nessuna delle parti in causa. Non è d'accordo col tipo di intuizionismo professato da Poincaré perché ritiene che la fonte reale delle difficoltà della logica (e della teoria degli insiemi, e in definitiva, come vedremo, della posizione di Hilbert) vada ricercata semplicemente, ma più radicalmente, nella « confusione fra atto di costruzione matematica e linguaggio della matematica ». In altri termini, il logicista non fa che creare solo una struttura linguistica, dà origine a un complesso di parole che in nessun caso possono essere effettivamente calate nella matematica reale che è rigidamente alinguistica. E lo stesso Poincaré mostra di cadere in questo errore quando accetta l'identificazione di esistenza matematica con assenza di contraddizione. In realtà, per Brouwer, esistere matematicamente significa essere costruito intuitiva111ente e « se un linguaggio ausiliario è esente da contraddizioni non solo non ha in sé alcuna importanza, ma neppure è certamente un criterio di esistenza matematica ». I rapporti tra matematica e logistica vengono ulteriormente chiariti da Brouwer presentando i primi stadi di una potenziale infinità di passi che si incontrano nel graduale sviluppo della matematica e della logica. Noi possiamo riassumer li come segue:
Primo stadio:
pura costruzione di sistemi matematici intuitivi « che se applicati sono espressi esternamente nella vita e visti nel mondo come matematici »;
Secondo stadio: aspetto linguistico della matematica, ossia il linguaggio, scritto o parlato, della matematica; I Come ormai consueto in quest'opera, daremo nella lingua originale (con traduzione relativa) i titoli di lavori in lingua tedesca, fran-
cese o inglese. Per tutte le altre (danese, russo, olandese ecc.) riporteremo il titolo direttamente in italiano.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Terzo stadio:
in esso lo stesso linguaggio diviene oggetto di studio, ossia si ha una visione matematica del linguaggio, del quale si notano le costruzioni e strutture logiche, fermo restando tuttavia il fatto che le costruzioni di relazioni fra questi elementi sono ancora puramente matematiche;
Quarto stadio:
è lo stadio nel quale, non considerando il significato degli elementi linguistici dello stadio precedente, si può costituire una « matematica del secondo ordine » che è appunto un sistema logistico;
Quinto stadio:
è per così dire lo stadio meta teorico del precedente nel quale cioè viene enunciato esplicitamente un linguaggio in cui formulare i principi di un sistema logistico;
Sesto stadio:
è quello che impareremo a conoscere come « metamatematica » hilbertiana, nel quale cioè la matematica stessa viene riguardata come un linguaggio, sicché si potranno considerare gli elementi di questo stadio in un
Settimo stadio: nel quale si avrà per così dire una« matematica del terzo ordine», il che porterà naturalmente al momento linguistico di questa nuova matematica, in un Ottavo stadio: e così via all'infinito. L'unico vero e possibile fondamento di tutta questa costruzione resta comunque per Brouwer la matematica «reale» che a sua volta si fonda sull'intuizione, anzi, come Brouwer dice, su una « sovraintuizione » di uno scorrere continuo del tempo, che è il fondamento stesso del continuo misura bile del matematico. Questa intuizione fondamentale è l'intuizione «dell'unità nella differenza, della persistenza nel mutamento ». In quanto ai rapporti con « l'intuizionismo » kantiano, Brouwer ritiene che ad esempio i principi della geometria non siano « sintetici a priori », dal momento che a suo parere la mente umana potrebbe applicare all'esperienza qualunque tipo di geometria essa scegliesse. Gli unici veri principi a priori e sintetici sono collegati alla « sovraintuizione » di cui si diceva prima dell'unità nella pluralità nel tempo. Base della matematica diventa allora il solo scorrere del tempo che determina anche in certo senso quali sono i giudizi sintetici a priori che rendono possibile la matematica stessa, ad esempio: la possibilità di sintesi matematica, il pensiero dell'unità nella molteplicità e la costruzione successiva indefinita di nuove unità nella molteplicità; la possibilità di « interpolazione », ad esempio la concezione della connessione di due diversi elementi di uno stesso tutto; il principio di induzione matematica. 2.47
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
È chiaro allora che sono le leggi della logica a dipendere dalla matematica e non viceversa; la matematica reale è un «costruire privo di parole», mentre la logica, per quanto aspetto matematico essa si dia, studia solo parole, non costruzioni matematiche. In questo processo di costruzione la contraddizione è impossibile; se i logicisti hanno incontrato antinomie, esse sono state originate dall'aver ritenuto valide in generale leggi logiche che in effetti possono valere per il finito, e in quanto leggi logiche appunto applicabili solo alle parole, non alle costruzioni matematiche. Vedremo più avanti quali leggi generali Brouwer mantiene; egli mette tuttavia subito in crisi la legge del terzo escluso, che non può essere applicata al processo di costruzione matematica, ma solo a un momento linguistico, alle parole. È chiaro che non accettare questo principio esclude le antinomie (o, per essere esatti, un certo tipo di antinomie, almeno in prima approssimazione). E infatti limitiamoci a esemplificare la cosa per l'antinomia di Russell e per comodità ricorriamo a una presentazione simbolica. Indichiamo con R (da Russell) la classe di tutte le classi che non si appartengono, ossia R = {x l x f/= x}. Abbiamo allora
xER+--+xf/=x donde, sostituendo R a x
RE R+--+ R f/= R Per la legge del terzo escluso però
RER V Rrf=R
(z)
Ora se R E R, allora R rf= R per la (I); se R rf= R allora, sempre per la (I) RE R. In entrambi i casi RE R e R f/= R e quindi per la (z) ossia la contraddizione. La «soluzione» di Brouwer consiste allora semplicemente nel non ammettere la cruciale legge (z). Terminiamo qui queste prime considerazioni sull'intuizionismo brouweriano che, come si può chiaramente vedere, sono fino a questo punto di carattere più specificamente « distruttivo »; la pars construens della logica e della matematica neointuizionista si avrà, come vedremo nel paragrafo III. 5, soprattutto negli anni venti. 4) Riepilogo. La scuola italiana Gettiamo ora uno sguardo riassuntivo su questo primo, cruciale periodo della costituzione della nuova logica. Sono ormai emersi gli indirizzi che caratterizzeranno le ricerche almeno fino agli anni trenta, in particolare fino alle scoperte di Godei. Le varie scuole hanno ormai avanzato più o meno efficacemente e compiutamente i punti centrali delle rispettive concezioni e sarà storia
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dei prossimi anni vedere come queste saranno approfondite o comunque elaborate. Vogliamo qui riassumere brevemente le varie posizioni per quanto riguarda il problema nodale dell'esistenza degli enti matematici conducendo il discorso da un punto di vista « astratto » relativamente ai presupposti delle varie scuole, senza cioè considerare le eventuali differenze fra esponenti di uno stesso indirizzo. Innanzitutto un'osservazione preliminare relativa al rapporto, già chiaramente delineatosi, tra matematica e logica nelle varie concezioni. Abbiamo visto che a questo riguardo si giunge, dai logicisti agli intuizionisti, a posizioni del tutto contrapposte. Per i logicisti questo rapporto è di tipo prioritario a vantaggio della logica: la matematica è riconducibile alla logica, la quale ha, nei riguardi della prima, un ruolo garante di fondazione: tutta la matematica è risolvibile, senza residui o principi propri, in principi e strutture logiche. Vi è quindi la mediazione, per così dire, dei « formalisti » hilbertiani, per i quali è necessario non parlare di dipendenza dell'una scienza dall'altra, ma piuttosto si tratta di sviluppare parallelamen'te le due scienze in questione. Se infatti non è possibile eliminare dai fondamenti della logica riferimenti di tipo aritmetico o insiemistico, non è neppure possibile sviluppare tali discipline al di fuori di una precisa ed esplicita sistemazione della logica nei suoi principi e nelle sue strutture inferenziali. Infine vi è il ribaltamento, rispetto alla primitiva posizione logicista, dell'intuizionismo brouweriano: né la filosofia né qualunque altra scienza, e quindi in particolare non la logica, possono fondare la matematica, che viceversa si costituisce a partire da un'intuizione generale e fondamentale di tipo immediatamente apprensibile da parte del soggetto. È semmai sulla controparte linguistica della matematica data come fatto intuitivo originario che può costruirsi una logica. Detto questo, veniamo all'altro punto per noi interessante che ci sembra, in collegamento con quanto già detto, di poter riassumere come segue. Per Russell, o comunque per i logicisti in generale, è il problema della forma che viene in primo piano. Un unico grande sistema formale, la grande logica, deve rendere conto di tutto il contenuto della matematica; qui la logica viene soprattutto intesa, in senso globale, come espressione della massima getteralità, o se si preferisce, come espressione della massima possibilità di generalizzazione. L'esistenza degli oggetti matematici diventa quindi automaticamente qualcosa di garantito dalla possibilità di definizione nell'ambito di un tal sistema la cui correttezza e completezza formale (intese in senso intuitivo) conferiscono e determinano il contenuto stesso della matematica. In opposizione a questo « contenutismo formale » sono accomunati - pur se con sfumature e concezioni di fondo peraltro notevolmente diverse - tanto i formalisti hilbertiani e Zermelo quanto gli intuizionisti. Secondo queste concezioni si tratta di esplicitare dei co11tenuti matematici che vengono tuttavia visti in modi completamente diversi nei due casi, e precisamente come corrispettivi di insiemi di enunciati, siano essi assiomi o regole (per la deduzione di altri enunciati da enunciati dati) nel caso di Hilbert 2.49
www.scribd.com/Baruhk
La logica·nel ventesimo secolo (r)
e (in senso lato) di Zermelo, o come corrispettivi di atti mentali, di costruzioni nel caso di Brouwer (e, con le opportune precisazioni, anche di Bore! e Poincaré). Nel primo caso ne viene che l'esistenza si risolve in consistenza di insiemi di enunciati o sistemi assiomatici, mentre nel secondo caso, la risoluzione dell'esistenza degli oggetti matematici sta proprio, ovviamente, nella possibilità di costruzione. E in fin dei conti è proprio sul contenuto e il tipo di quella « possibilità >> che si differenziano tra loro le varie posizioni intuizioniste. Prima di chiudere questo paragrafo, vogliamo fare ancora un accenno alla scuola italiana, che, salvo che con Peano e Cesare Burali-Forti (1861-1931), è stata nominata solo di sfuggita. E in effetti, se un altro nome si deve aggiungere è soltanto quello di Alessandro Padoa (1868-1937) che fra il 1900 e il 1904 presenta una serie di risultati sulla definibilità dei concetti che opportunamente elaborati sopravvivono ancora oggi nei trattati di logica moderna. Un altro nome vorremmo poter aggiungere, quello di Giovanni Vailati (1863-1909), la cui prematura scomparsa ha privato indubbiamente l'ambiente culturale italiano del periodo di un possibile apporto certamente significativo; e diciamo « vorremmo » per due opposti motivi: da una parte perché egli era una fra le poche figure con una visione globale della cultura, con interessi assai vari (anche se alquanto dispersivi) e certamente non «provinciale»; dall'altra perché Vailati in effetti pur facendo parte della scuola di Peano non si interessò che marginalmente di logica. Va aggiunto che nel 1905 vedeva la luce quella Logica come scienza del concetto pt~ro di Benedetto Croce che parrebbe offrire- se non l'unica- almeno la ragione principale del totale decadimento di una scuola pur apparentemente tanto « vitale » come quella peaniana. Non è qui il caso di valutare e analizzare le influenze e i condizionamenti che l'opera complessiva di Croce ebbe sulla cultura, anche scientifica, italiana (si veda il capitolo XI del volume settimo). Non possiamo tuttavia esimerci dal notare come ben difficilmente si riesca a trovare in un'altra opera un repertorio così vasto e nutrito di inesattezze, superficialità, di vere e proprie insulsag- gini per quanto riguarda la logica « formalistica » - come Croce la chiama e i vari tentativi di riformarla « ... il più solenne dei quali è la già ricordata Logica matematica, denominata anche calcolatoria, algebrica, algoritmica, simbolica, nuova analitica, calcolo logico o Logistica ». 1 E mentre in tutte le ctJltttre europee I Ovvio che « formalistica » vuol essere un dispregiativo il cui impiego Croce ritiene di poter giustificare con dovizia c.li motivazioni. A parte il fatto che per lui « ora è il bel tempo dei Peano, dei Boole [sic!], dei Couturat » e che per lui « la stessa dottrina della quantiftcazione del predicato » è stata un po' il « lievito » della « riforma » della logica, è sconsolante vedere come uno scrittore così acuto, brillante e profondo possa cadere semplicemente nel ridicolo per una totale mancanza di informazione spicciola, banale (che ov-
viamente diventa grossa responsabilità culturale quando, ed è questo il caso, ha una chiara origine dogmatica). In particolare tutto il terzo capitolo della sezione seconda della prima parte di quest'opera di Croce è un coacervo di tali amenità ! È chiaro quindi che se ci occupiamo di Croce in questo contesto è soltanto per l'indubbia influenza e per il grosso condizionamento che egli ha esercitato (e parzialmente continua a esercitare) sulla cultura italiana.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
(basti pensare a quella francese, o inglese, o tedesca) tutta una serie di studiosi affrontava con serietà e rigore i profondi problemi che erano stati sollevati dalle antinomie, dagli sforzi per superarle, dalle diverse concezioni che si dividevano il campo intorno al problema dell'esistenza degli enti matematici, da noi invece il saggio di Pescasseroli, il genio universale della filosofia italiana decideva che « se come scienza del pensiero la Logistica è cosa risibile, degna veramente dei cervelli che l'hanno costruita [e abbiamo avuto occasione di nominare in queste pagine alcuni di quegli inetti e limitati cervelli che tale brutta azione avevano commesso] ... non è poi nostro assunto esaminarla in quanto formulario provvisto di pratica utilità; e su questo punto ci restringiamo a insistere sopra una sola e assai semplice osservazione ». Da Leibniz in poi, osserva sostanzialmente Croce, « questi nuovi congegni sono stati offerti sul mercato: e tutti, sempre li hanno stimati troppo costosi e complicati, cosicché non sono finora entrati né punto né poco nell'uso. Vi entreranno nell'avvenire? La cosa 1/0it sembra probabile, e, ad ogni modo, è fuori dalla competenza della filosofia e appartiene a quella della pratica riuscita: da raccomandarsi, se mai, a commessi viaggiatori che persuadano dell'utilità della nuova merce e le acquistino clienti e mercati. Se molti o alcuni adotteranno i nuovi congegni logici, questi avranno provato la loro grande o piccola utilità. Ma la loro nullità filosofica rimane, fin da ora, pienamente provata » (corsivo nostro). Scusi il lettore la lunga citazione che tuttavia ci sembrava troppo significativa e paradigmatica. E naturalmente solo su questo si potrebbe parlare a lungo; ma tempo e spazio possono essere impegnati, a nostro parere, in modo assai più proficuo sicché ci si può limitare a osservare - a parte l'impressionante, quasi profetico potere di previsione di cui Croce fa sfoggio in questo passo che probabilmente l'accenno « economicista » è stato stilato di getto, avendo presente il « mercato » di Pescasseroli, o, a essere compiacenti, quello italiano. Per quanto riguarda infine il rapporto della logica con la filosofia (e sempre, per essere brevi, su pure basi pragmatiche) va invece tutto bene: purché Croce a quella « filosofia » premetta un « mia »: perché allora è certo che la logica matematica non vuole avere nulla a che fare con la sua filosofia. Purtroppo, a nostro parere, la situazione sta in termini ben più gravi e complessi, perché non può imputarsi solo a Croce la decadenza della scuola logica italiana; Croce piuttosto interviene nel decretare per le scienze in generale - e quindi per la logica in particolare - l'esclusione dalla «area culturale», relegandole a mere manipolatrici di pseudoconcetti. Ma tutto ciò avviene con la decisiva e colpevole complicità degli scienziati italiani. Per quanto in particolare riguarda la logica, il suo declino inizierà paradossalmente proprio con Peano, con la sua « sordità », immediatamente ereditata dai suoi «scolari», verso una collocazione più generale dell'enorme problema2.51
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
tica che lui stesso aveva contribuito a sollevare nel mondo. E ciò sembra dovuto alla sua tendenza a «chiudere» un sistema, una ricerca, un'impresa, se necessario forzatamente, invece di spingersi fino alle estreme conseguenze sperimentali di nuovi tentativi, principi, metodi: è forse un malinteso senso di « onestà intellettuale » che lo porta a escludere dai suoi discorsi ogni considerazione che non sia, come lui stesso dice, di « stretta pertinenza matematica ». Peano, che già dovette combattere in patria contro coloro che ritenevano frutto di « senilità » la sua produzione e i suoi interessi logici, ci appare inevitabilmente conservatore e provinciale non appena ci si affacci oltre i confini italiani; e ciò non solo perché come ebbe a scrivere nel 1915 «la logica matematica, utile nei ragionamenti matematici (ed in questo senso io ne feci uso) interessa pure la filosofia », portando poi Louis Couturat come esempio in proposito; ma anche soprattutto perché sempre nello stesso articolo (Importanza dei simboli in matematica) afferma testualmente: « ... se giuste sono dunque le critiche di Eugenio Rignano contro coloro che considerano la logica matematica quale scienza in sé, i cui lavori, è verissimo, sono spesso poco proficui; invece più non lo sarebbero all'indirizzo di coloro ... che considerano la logica matematica come uno strumento utile per risolvere questioni matematiche resistenti ai metodi com1111i » (corsivi nostri). Come unico commento basterà qui ricordare al lettore che solo due anni prima era comparsa la prima edizione dell'ultimo volume dei Principia. Del resto le stesse formule di « disimpegno » di Peano sono estremamente illuminanti in questo senso. Quando, ad esempio, a proposito del paradosso di Richard, egli dichiara emblematicamente che « exemplo de Richard non pertinet ad mathematica sed ad linguistica » ciò rappresenta per lui un modo di liquidare una questione che non solo non lo interessa. come matematico perché ha varcato i limiti della sua competenza (ché qui ancora potremmo parlare di «onestà intellettuale») ma che respinge come uomo di cultura perché è al di là della sua stessa apertura mentale. Si pensi soltanto che la sua affermazione sopra riportata agirà non come freno, bensì come potente catalizzatore, come lievito, per un autore ben diversamente disposto, quel F. P. Ramsey di cui avremo occasione di parlare in un prossimo paragrafo. Senza neppure ricordare le parole di Zermelo sopra viste - e che ci sembrano quanto mai appropriate- non può non colpire la singolare vicenda intellettuale di un uomo come Peano - indubbiamente grande matematico e grande logico- destinato a fornire spunti di apertura a Russell, a Ramsey, a Couturat, a tutto un mondo culturale insomma, e tuttavia decisamente bloccato a livello di una propria elaborazione culturale autonoma, di un inserimento dei suoi stessi metodi e problemi in un più ampio contesto. Fatalmente, questa visione ristretta venne ereditata - grazie anche a una robusta dose di puro « accademismo » che alla nostra cultura universitaria non ha certo mai fatto difetto - dai suoi « scolari ». A leggere articoli, conferenze, lavori di ogni tipo, degli allievi di Hilbert (che non è certo matematico di levatura inferiore a quella di Peano ), ad esempio
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
di un Paul Bernays,di unJohn vonNeumann(1903-1957) non si troveranno mai locuzioni come « il g:rande Hilbert» o « come ha definitivamente mostrato il nostro maestro Hilbert » o alt:re di questo teno:re che con tutta tranquillità e :regolarità abbondano invece negli scritti di un Burali-Fo:rti, o di un Padoa, o di un Vacca (ovviamente con la sostituzione Hilbert-Peano): si tratta, nel p:rimo caso di discutere, approfondire, :rielabo:ra:re, supe:ra:re un :risultato che o si sa essere di Hilbert o si :riconosce come tale pe:r dovuta co:r:rettezza; nel secondo invece si t:ratta di magnificare anzitutto il risultato del « maestro », quindi di aggiungere modestamente, con le dovute cautele, qualche briciola. È chia:ro che la causa di tale situazione non può farsi risalire a Peano, ma a tutto un ambiente che del :resto solo oggi (1972) tende in generale a scomparire. Comunque, pe:r terminare, riteniamo che le seguenti pa:role di Burali-Fo:rti, t:ratte dalla seconda edizione (1919) della sua Logica matematica, mostrino con sufficiente chiarezza come la cultura italiana- anche specifica- dell'epoca si fosse estraniata dai grandi temi allora dibattuti dalle va:rie scuole e si fosse già :rinchiusa in un provincialismo masochistico senza respiro né sbocchi. Burali-Fo:rti dunque si augu:ra che la sua fatica possa avere migliore fortuna di alt:re e nel contempo dichiara che volendo ((presentare al lettore la logica simbolica in azione, cioè come strumento di analisi e di scrittura abbreviata [e qui è difficile non da:r :ragione a Croce!] mi so n potuto :risparmiare l'enorme [!] fatica di stabilire un sistema completo di proposizioni primitive; tanto più che è dubbio se tale enorme fatica potrebbe essere coronata da successo, visto che i tentativi fatti finora sono ben lontani dall'aver dato risultati esaurimti » (corsivo nostro). Dove appunto è chiaro che gli italiani
non :ricercavano o sperimentavano ma o avevano « risultati esaurienti » oppu:re niente! E la nota finale mi sembra addirittura proponga quel triste e speriamo o:rmai lontano e superato anelito autarchico-nazionalista che ben alt:ro peso avrebbe dovuto pu:rt:roppo ave:re sulla nostra vita politica e sociale: « E a proposito di merce ntera,- afferma Burali-Fo:rti- conviene fa:r nota:re come, specialmente dagli italiani ( !), si citi e si usi il caotico e impreciso sistema geometrico dell'Hilbert, quasi non esistessero i sistemi semplici, chiari e precisi (ma sono italiani!) e ben superiori a quello dell'Hilbert, di M. Pie:ri. » Pe:r concludere tuttavia con una nota di ottimismo vogliamo di:re che da quando, attorno agli anni sessanta, è rinato in Italia un ce:rto interesse pe:r la logica, molti ambienti matematici e filosofici hanno via via mostrato nei suoi :riguardi un'ape:rtu:ra semp:re maggiore. Non che oggi la situazione sia :rosea: ma si può ce:rto affe:rma:re che ove anco:ra allignino posizioni alla Bu:rali-Fo:rti, esse sono destinate o a mo:ri:re pe:r consunzione di mo:rte naturale, o a essere violentemente estirpate dalle nuove generazioni che non accettano etichette o confini statici e p:recostituiti.
www.scribd.com/Baruhk
III · GLI ANNI VENTI
Lasciamo quindi da parte l'ambiente italiano, ormai decisamente emarginato dalla ricerca logica, e osserviamo piuttosto che i problemi sul tappeto sono molti e complessi, dopo questa prima, rinnovata fase di indagine sulla logica e sui fondamenti della matematica; ai sostenitori delle varie scuole si prospetta dunque un intenso lavoro di chiarificazione, elaborazione e approfondimento di tale complessa problematica. Il punto di riferimento obbligato, ancora agli inizi degli anni venti, è sempre costituito dai Prittcipia mathematica (che vedranno la seconda edizione fra il 1925 e il I927) riguardati- oltre che, ovviamente, come manifesto della scuola logicista - come momento operativo di trascrizione logica di tutta la matematica, con la preoccupazione centrale di evitare i paradossi. Abbiamo visto quale sia il prezzo pagato da Russell e Whitehead per questo ambizioso programma: a parte locali e contingenti lacune di chiarezza o rigore, si tratta più intrinsecamente della notevole complessità e pesantezza della teoria dei tipi ramificata e delle necessarie, assai impegnative assunzioni che gli autori dei Prirtcipia sono costretti a fare: assioma di riducibilità, assioma moltiplicativo, assioma dell'infinito. La natura esplicitamente esistenziale di questi assiomi faceva sorgere in modo naturale la domanda circa l'estensione stessa del campo logico nel cui ambito doveva, secondo la tesi logicista dei Prittcipia, essere riportata tutta la matematica. Detto in modo diverso, quello che in certo senso possiamo assumere un po' come leitmotiv per la ricerca logica e fondamentalista di questo nuovo periodo è il problema (che riceverà una risposta decisamente diversa da quella implicitamente intesa da Frege e Russell) che può esprimersi con la domanda: cos'è la logica? e qual è il suo linguaggio? Orbene uno degli esiti generali più caratteristici e significativi della ricerca negli anni venti sarà proprio quello di giungere a riconoscere la possibilità di frantumare la « grande logica » di Frege e Russell per interessarsi di calcoli particolari, impieganti linguaggi ad hoc; o in diretta critica nei riguardi della logica dei Prittcipia, o sotto la spinta dell'atteggiamento matematico-assiomatico, si accoglierà cioè come fatto acquisito l'opportunità (se non addirittura la necessità) di istituire linguaggi e «logiche» diversi per descrivere e parlare di «mondi» diversi. Tanto i lavori dell'americano Emil Leon Post (1897-1954) relativi alla logica enunciativa intesa come sistema formale autonomo, quanto la proposta di logiche « non classiche » avanzata da Clarence Irving Lewis (I883-1964) e da alcuni esponenti della scuola polacca, come infine la canonizzazione dei vari calcoli data nel 1928 da Hilbert e Ackermann possono infatti essere riguardati come momenti diversi di questa esigenza. Per quanto più specificamente riguarda le tre scuole di filosofia della matematica, le loro vicende in questo periodo sono altamente differenziate. Per la scuola intuizionista, oltre ai numerosissimi interventi di Brouwer, o di chiari-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mento e riedificazione di una matematica intuizionista o di polemica in particolare contro la scuola formalista, questo periodo farà assistere a un primo e interessantissimo tentativo di formalizzazione della « logica » (e della matematica) intuizioniste; questo tentativo oltre ad anticipare risultati che matureranno compiutamente, come vedremo, all'inizio degli anni trenta, renderà possibile l'instaurarsi di un primo concreto e fruttuoso confronto fra le idee intuizioniste e quelle delle altre scuole. Si assiste invece ad una sorta di « ridimensionamento » della scuola logicista che, pur difesa ancora con vigore da Rudolf Carnap (1891-1971) proprio verso il 1930, giunge sostanzialmente a un punto morto tanto a causa di critiche «esterne » quanto per i profondi ripensamenti che autori qualificantisi essi stessi come logicisti, primo fra tutti F. P. Ramsey, vengono pubblicando in questi anni. Questo decennio è invece particolarmente favorevole alla scuola formalista che vede Hilbert e tutta una schiera di collaboratori, fra i quali Ackermann, von Neumann, Bernays e altri impegnati nell'esposizione ed elaborazione della piattaforma teorica definitiva di tipo formalista e nella presentazione di numerosi, interessanti e assai promettenti risultati parziali che portano lo stesso mondo matematico alla sostanziale pur se implicita convinzione circa la completa e pressoché certa attuazione del programma hilbertiano. Ulteriore caratteristica di questo decennio l'intenso lavoro sulla teoria degli insiemi: in questo campo viene portata a una sistemazione pressoché definitiva (nel senso che ancor oggi la riteniamo valida) la base assiomatica che- come abbiamo visto- Zermelo aveva presentato nel 1908. I nomi che qui emergono sono quelli di Fraenkel, von Neumann e Skolem. A proposito di quest'ultimo autore, che avremo occasione di menzionare spesso nelle pagine che seguono tanto fondamentali e molteplici sono stati i suoi interessi e i suoi risultati, a stretto rigore cronologico avremmo anche dovuto far cenno a tutto un aspetto della sua produzione che si aggancia a un teorema di Lowenheim del 1915 e che non solo ha riflessi sulla stessa concezione assiomatica, ma rappresenta anche la continuità con un'altra possibile linea di approccio alla logica che si riallaccia direttamente a Schroder. Ci è sembrato però più opportuno rimandare l'esame di questo aspetto al paragrafo IV, dedicato agli anni trenta, al periodo cioè nel quale, grazie alle riflessioni di Godei e ai risultati da lui raggiunti, si potrà considerare una confluenza fra queste due alternative.
I) La rottura della «grande logica». Logiche «non classiche» Abbiamo visto come alla sistemazione dei Principia fossero state sollevate notevoli critiche. Quelle cui finora abbiamo accennato e che prenderemo in esame più dettagliato in paragrafi successivi, riguardavano tuttavia quasi esclusivamente la concreta realizzazione del sistema logico dei Principia in rapporto al programma logicista professato dai suoi autori (in particolare, ovviamente, 255
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
da Russell). Oltre però a rappresentare un potente stimolo alla discussione fra scuole e alla ricerca in questa direzione, i Principia diedero lo spunto a tutta un'altra serie di riflessioni, solo apparentemente più locali, e che sfociarono in varie proposte alternative che avranno un enorme peso nello sviluppo successivo della logica. Le indagini in questa seconda direzione possono farsi cominciare con il Survry of rymbolic logic (Panorama di logica simbolica, 1918) dell'americano Lewis e proseguono in effetti per tutti gli anni venti, con notevoli contributi di autori americani e soprattutto degli studiosi della cosiddetta scuola polacca. In quest'ordine di idee- come dicevamo - può situarsi anche la « canonizzazione » della frattura della grande logica di Frege e Russell che si ebbe nel 1928 con i Grundziige der theoretischen Logik (Lineamenti di logica teorica) di Hilbert e Ackermann. Occupiamoci, per cominciare, di quell'aspetto della questione che può individuarsi nell'osservazione che già nel 1920 faceva l'americano Post del fatto che «nella teoria generale della logica costruita da Whitehead e Russell ... per fornire la base per tutta la matematica, esiste una certa sottoteoria che è unica nella sua semplicità e precisione e, malgrado tutte le altre parti dell'opera si fondino su questa sottoteoria, essa è completamente indipendente da quelle ». Post allude qui alla logica delle proposizioni ossia a quella parte del sistema logico dei Principia che riguarda semplicemente le connessioni inferenziali che possono stabilirsi considerando come « dati iniziali » proposizioni non analizzate (e non funzioni proposizionali) quando esse vengano variamente collegate fra loro tramite i normali connettivi logici. L'interesse che muove Post in questa sua osservazione, le motivazioni che lo spingono a proporre le generalizzazioni cui accenneremo sono per sua dichiazione esplicita puramente formali, sicché le estensioni generalizzanti cui egli giunge sono semplici e naturali estensioni suggerite dalla struttura stessa della teoria così isolata, senza alcuna preoccupazione per le eventuali interpretazioni logiche che tali risultati possono o meno avere. Quest'atteggiamento consente a Post, tra l'altro, di cogliere ed esplicitare la distinzione fra il linguaggio della teoria che è oggetto di studio e il linguaggio nel quale si conduce lo studio della teoria stessa; di tracciare cioè una consapevole linea di demarcazione fra teoria e metateoria - per usare una terminologia oggi corrente - o se si preferisce, nel caso particolare, fra logica e metalogica: «Vogliamo qui porre l'accento sul fatto che i teoremi di questo lavoro vertono sulla logica ma non sono inclusi in essa ». Questo atteggiamento « metamatematico » sarà caratteristico della posizione hilbertiana mentre il discorso metamatematico stesso diverrà oggetto di studio approfondito per la scuola polacca. Naturalmente la parte proposizionale della logica era nota almeno dal tempo di Frege come sistema autonomo, e in effetti già da Boole come interpretazione del proprio sistema formale; e anzi tipiche ricerche di « economicità » delle as-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
sunzioni e dei termtm fondamentali avevano portato Henry Maurice Sheffer (1883-1964) nel 1913 a ridurre a uno solo i connettivi proposizionali e Jean Nicod (1893-1924) nel 1917 a ridurre a un solo assioma la base assiomatica proposizionale. Ma tutto ciò era sempre inteso come semplificazione operativa o di principio all'interno del sistema di Russell (o, nel caso di Frege, come primo passo verso la «grande logica»). Merito di Post è invece quello di aver isolato il sistema di logica proposizionale (o enunciativa, come anche diremo) come una teoria assiomatica e deduttiva autonoma, nell'aver cioè assunto come unico oggetto di indagine, senza altro contesto, una teoria costruita su una porzione estremamente limitata del linguaggio «universale» dei Principia, e nell'aver distinto i due livelli linguistici della teoria e della metateoria come piani su cui muoversi separatamente. Si noti che questo linguaggio proposizionale, evidentemente il «minimo» linguaggio logico disponibile, ha tuttavia indubbiamente un potere espressivo assai ampio; può parlare, per così dire, di « mondi » assai disparati e diversi tra loro o viceversa può essere interpretato in una grande varietà di « mondi », di universi del discorso. Solo che esso è assai superficiale e poco incisivo, nel senso che non riesce a convogliare informazioni sufficientemente dettagliate sui mondi di cui eventualmente parla. Di questa limitazione è evidentemente conscio lo stesso Post quando auspica un prosieguo del suo lavoro su teorie logiche espresse con linguaggi più « sottili e ricchi di informazione». Post dà una versione estremamente precisa della logica proposizionale dei Principia tanto dal punto di vista assiomatico, quanto dal punto di vista delle tavole di verità. Nel primo caso assume, come nei Principia, i due soli connettivi di negazione (-----,) e disgiunzione ( V ), sulla base dei quali, a partire dalle lettere proposizionali, si costituiscono tutte le rimanenti formule del linguaggio; nel secondo caso dà una versione rigorosa delle tavole di verità a due valori. Il sistema proposizionale è caratterizzato da un certo numero finito di assiomi che risultano essere tautologie, e da due regole di inferenza: il modus ponens o regola di separazione, che dai teoremi d e d--+ @ permette di derivare il 1-d, l-d-+@) teorema @ ( 1-@ e la regola di sostituzione, secondo la quale a ogni
lettera indicante una proposizione (lettera o variabile proposizionale) si può sostituire qualunque altra formula del linguaggio. Il calcolo è organizzato in modo tale che a partire dagli assiomi, ossia da tautologie, si possono ottenere, applicando le regole di deduzione, dei teoremi che si rivelano a loro volta essere tautologie. Ciò si esprime dicendo che il sistema è valido (ossia dà luogo solo a teoremi che sono logicamente validi). Si pone allora in modo naturale la domanda inversa: è il nostro calcolo in grado di farci ottenere come teoremi tutte le tautologie? È intuitivo il nome di completezza se mantica (o, in terminologia più recente, adeguatezza) che si dà a questa proprietà di una teoria, che, nel caso 257
www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
ne goda, viene appunto detta (semanticamente) completa o adeguata. 1 Post dimostra che il sistema proposizionale è completo in questo senso. 2 Nella sua dimostrazione ottiene anche una procedura di decisione per la logica proposizionale e cioè un metodo meccanico grazie al quale, data una qualunque formula proposizionale, è possibile stabilire in un numero finito di passi se tale formula è un teorema oppure no. Post dimostra inoltre che il sistema da lui considerato è consistente, ossia che in esso non è possibile dimostrare contemporaneamente una formula d e la sua negazione ---, d. 3 Una prima generalizzazione considerata da Post riguarda da una parte sistemi con un numero finito qualunque di connettivi, dall'altra sistemi con un numero finito qualunque di assiomi e fo regole di inferenza. Una seconda generalizzazione riguarda invece la considerazione di « tavole di verità » (che vengono ora dette più appropriatamente« matrici») con un numero finito qualunque di valori, ossia consiste, dal punto di vista interpretativo, nel considerare la teoria di logiche proposizionali con un numero finito di « valori di verità » maggiore o uguale a 2. Da un punto di vista intuitivo ciò significa evidentemente prendere in esame, accanto ai due tradizionali valori di verità Vero e Falso, anche altri valori di verità come potrebbero essere ad esempio « incerto », « indifferente», « ìndeterminato » e simili; si tratta cioè di considerare, in linguaggio moderno, logiche polivalenti, invece della classica logica bivalente. Va ribadito tuttavia che per Post queste generalizzazioni si presentano come naturali dalla teoria dei Principia sistemata rigorosamente e non comportano minimamente la preoccupazione di una eventuale interpretazione logica. Converrà esaurire questo primo aspetto della questione, considerando subito quella suddivisione in linguaggi e calcoli logici che i Grundziige di Hilbert e Ackermann rendono generale e paradigmatica. Il criterio di suddivisione è già stato implicitamente accennato: possibilità espressive dei linguaggi anche in relazione al tipo di analisi che consentono di fare del contenuto che sono destinati a esprimere. La prima grande distinzione avviene quindi tra linguaggio enunciativo, i cui elementi base sono proposizioni non analizzate e i soliti connettivi, e /in_ I Ove non sorgano confusioni diremo anche semplicemente completezza invece di completezza semantica; la ragione della necessità, almeno in certi contesti, della qualificazione, consiste nel fatto che più avanti accenneremo a un altro tipo di completezza che verrà detta sintattica. 2 In effetti, oltre alla proprietà sopra definita, per la quale non introduce una denominazione particolare, Post introduce altre due nozioni di «completezza». Secondo la prima (detta oggi completezza nel senso di Post) un sistema è completo se ogni sua formula diventa dimostrabile ogniqualvolta noi aggiungiamo come assioma una qualunque formula non dimostrabile nel sistema; la seconda è quella che noi oggi
diciamo completezza funzionale (e a questa proprietà Post riserva il nome di completezza) e consiste nel fatto che ogni funzione di verità può essere scritta in termini dei due connettivi primitivi da lui assunti. 3 Post introduce anche un'altra nozione di consistenza, detta talora consistenza nel senso di Post: un calcolo che contiene variabili proposizionali è consistente in questo senso se in esso non può essere dimostrata una singola variabile proposizionale. Post dimostra che il sistema da lui considerato è consistente anche in questo senso. Si noti che i due concetti coincidono per sistemi che ammettano la negazione come connettivo.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
guagg,io predicativo in cui le proposizioni sono pensate analizzate nelle loro componenti predicativa (o più in generale relazionale) e soggettiva; oltre ai connettivi proposizionali il linguaggio predicativo comprende gli operatori logici di quantificazione. Nell'ambito del linguaggio predicativo interviene una distinzione ulteriore a seconda che si convenga di applicare la quantificazione alle sole variabili individuali (potendo così esprimere nel linguaggio frasi come, ad esempio « per tutti gli individui...» o «esiste almeno un individuo tale che ... ») oppure si intenda estendere la quantificazione anche a variabili predicative (sicché diventano esprimibili frasi quali « per tutte le proprietà (di individui) ... » o « esiste almeno una proprietà (di individui) tale che ... »). Si ottiene così il linguaggio predicativo del primo ordine (quantificazione limitata) o del secondo ordine (quantificazione estesa). Dovrebbe essere chiaro com'è possibile continuare in questa gerarchia; va detto però che raramente si avverte la necessità di linguaggi di ordine superiore al secondo e che in generale il linguaggio del primo ordine, pur essendo una porzione molto limitata del linguaggio comune, è sostanzialmente sufficiente per esprimere almeno la maggior parte delle teorie matematiche interessanti. 1 Dal punto di vista simbolico, che ci permetterà di presentare poi i calcoli logici, potremmo porre le cose come segue. Il linguaggio proposizionale consta di un insieme infinito numerabile di lettere proposizionali (destinate a essere interpretate su proposizioni, o meglio su valori di verità) p, q, r, s ... dei connettivi --,, 1\, V , --+, ~. di simboli ausiliari quali le parentesi, la virgola ecc. Per costruire su questo « alfabeto » il sistema deduttivo del calcolo proposizionale, occorre definire le formule, gli assiomi e dare le regole di inferenza. Intuitivamente le formule sono quelle, fra tutte le espressioni che possono farsi componendo linearmente segni dell'alfabeto, che vogliamo considerare come sintatticamente significanti (è chiaro peraltro che esse saranno scelte in modo tale da risultare « significanti » anche da un punto di vista semantico, sotto opportune interpretazioni standard); gli assiomi sono quelle, fra le formule, che noi scegliamo come elementi iniziali del procedimento dimostrativo. Le formule sono così definite: I) ogni lettera proposizionale è una formula; 2) se d e !!J sono formule allora anche --, d, d 1\ !!J , d V !!J , d --+ !!J , d~ !!J sono formule; 3) nient'altro è una formula. Gli assiomi sono I 5 divisi in cinque gruppi, ognuno dei quali regola il comportamento di un connettivo. Assiomi dell'implicazione I) P--+(q~p) z) (P--+(P--+ q))--+(P--+ q) 3) (P-+ q)--+ ((q-H)--+ (p--+ r)) I Altri possibili criteri, che danno luogo ad altri tipi di linguaggi, ad esempio ai linguaggi
infinitari, sono venuti alla ribalta molto di recente e verranno accennati più avanti (paragrafo v).
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
Assiomi della congiunzione 4) PA q_, P 5)PAq_,q 6) (p_,q)_,((p_,r)_,(p_, q A r)) Assiomi della disgiunzione 7)P_,PVq
8) q_, p v q 9) (p_,r)_,((q_,r)_,(p V q--H)) Assiomi dell'equivalenza
IO) II) 12)
(p~q)_,(p->,q)
(P~ (P~
q)_, (q_, p) q)_, ((q_, p)_, (p_, q))
Assiomi della negazione I3) (p_, q)-->,(-, q->,-,p) I4) p_,-, -,p
I5)-,-,p->,p Come regole assumiamo la regola di separazione e la regola di sostituzione. 1 Per la logica del primo ordine avremo come possibile naturale estensione ad esempio la seguente. Il linguaggio comprende: à) un insieme infinito numerabile di variabili individuali x 1 , x 2 , x 3 , ... x. , ... ; b) le lettere proposizionali, che verranno ora indicate per comodità con ~' Pf, ~ , ... ; delle lettere predicative (almeno una) indicate con P; dove i (~ o, finito) è un indice di differenziazione e k (~ I, finito) indica il numero di posti della lettera predicativa (si potranno considerare le lettere proposizionali come lettere predicative « degeneri » assumendo per k - come noi faremo - valori finiti maggiori o uguali a zero); i connettivi proposizionali (-,, A , V , ---+, ~) e i quantificatori (3, V). Le formule saranno ora così definite: a) se P1 è una lettera predicativa a k posti e x 1 , x 2 , ... , X~: sono variabili, allora P~ (x1 , x 2 , ... , x~:) è una formula (formule atomiche); b) se d è una formula, -, d è una formula; se d e ~ sono formule anche d A ~ , d V ~ , d_, ~ , d~ ~ sono formule; se d è una formula e x una variabile, allora anche Vxd e 3xd sono formule; c) nient'altro è una formula. I Come sistemazione assiomatica abbiamo in realtà riportato quella di Hilbert e Bernays, Grundlagen der Mathematik (Fondamenti della matematica, z volumi; I934-1939)- Naturalmente questo sistema è equivalente ai numerosi sistemi proposizionali allora correnti e che si differenziavano fra loro e per le diverse assunzioni « linguistiche » (numero dei connettivi) e per le diverse assunzioni« deduttive» (assiomi e regole). Attualmente si preferisce in generale dare tali sistemi a livello meta/inguistico, usando cioè nella enunciazione
degli assiomi variabili metalinguistiche che possono essere immaginate sostituite in modo uniforme da formule linguistiche qualunque. Questo permette di eliminare la regola di sostituzione. Un esempio di tali sistemi, basato su due connettivi e tre assiomi, è il seguente: w--+(~M.:...,.w)
(w--+(~--+ 'W))--+ ((w--+ ~M)--+ (w--+ 'W)) (---, ~--+ ---, w)--+ ((---, 1M--+ w)--+ ~M))
con la sola regola del motlus ponens.
z6o www.scribd.com/Baruhk
La logica-nel ventesimo secolo (I)
Gli assiomi del calcolo predicativo sono ora: I) gli assiomi enunciativi (opportunamente formulati nel nuovo linguaggio); 2) \fxP(x)-" P(y) 3) P(y)-" 3xP(x) (o ve abbiamo adottato evidenti abbreviazioni); oltre alla regola di separazione si aggiungono altre due regole che possono indicarsi compendiosamente con i seguenti schemi d -"&B(x) &B(x)-"d e d___, \fx&B(x) purché in entrambi gli schemi x non figuri libera in d. Occorrerà, naturalmente, una regola di sostituzione per variabili individuali libere e una per variabili predicative. 1 Ovviamente in questo contesto, l'esplicitazione formalizzata di una teoria in un dato linguaggio comprenderà, oltre che gli assiomi logici, anche assiomi specifici per la teoria, ossia delle proposizioni formalizzate la cui interpretazione è destinata per così dtre a limitare le possibili realizzazioni della teoria stessa a quelle che appunto ne soddisfano gli assiomi. Assumiamo per ora questi termini in senso intuitivo (con perfetta aderenza storica del resto, ché infatti la precisazione rigorosa dell'aspetto semantico interpretativo non sarà un risultato acquisito che negli anni trenta). Ad esempio per il caso dell'aritmetica avremo un sistema elementare del tipo seguente (che indicheremo come sistema \.P, da Peano). I) Un qualunque sistema di assiomi per il calcolo dei predicati con identità 2) Assiomi specifici 2.I \lx (---,s(x) =o) 2.2 '\f x\fy(s(x) =s(y) -'t X= y) 2.3 d(o)/\ \fx(d(x)-"d(s(x)))--+ \fxd(x) 2.4 Vx'lly(x+o=x f\x-ts(y)=s(x-1-- y)) 2.5 \fx'\fy(x·o=of\x-s(y)=((x-y)+x)) 2 I Ricollegandoci alla nota precedente, si adotta ad esempio un sistema come il seguente: I) Gli assiomi enunciativi 2) Gli assiomi 'v'x.W(x)-> .W(y); 'v'x(.W-> al')->(.W-> 'v'x !?l); (con opportune limitazioni sulle variabiliy e x) e con, oltre alla regola di separazione, la sola regola
di generalizzazione ~ , e una di sostituvx.W
zione per variabili individuali libere. Nel seguito ci riferiremo sempre, all'occorrenza, a questi sistemi « più semplici » ribadendo tuttavia la loro equivalenza espressiva e deduttiva col sistema di Hilbert-Bernays qui presentato. A questo propo-
sito va ancora aggiunto che al primo ordine si conviene in generale di considerare l'identità come un predicato costante il cui comportamento è regolato da opportuni assiomi (di solito 2). È quindi ormai uso comune inserire tale predicato (e gli assiomi relativi) nella parte logica di una teoria: si parla allora, in questo caso, di teorie con identità o di teorie elementari. 2 Ovviamente facciamo l'ipotesi di aver stabilito il linguaggio in modo tale da poter esprimere, e in modo sensato, ossia come formule, gli assiomi precedenti. Intuitivamente, « s (x) » va letto come « successore di x », gli altri segni sono intesi nel loro significato usuale. 2. I afferma allora che o non è successore di alcun numero;
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Tanto nei Grundziige quanto nella conferenza di Bologna del I927, Hilbert porrà (in linea con l'aspirazione di Post) in modo esplicito il problema della completezza semantica per la logica dei prediçati (è ogni formula predicativa logicamente valida derivabile sintatticamente nel corrispondente sistema formale?) e quello della completezza sintattica per l'aritmetica (presa una qualunque formula chiusa d della teoria dei numeri si ha ~d oppure ry---, d nel sistema formale?). La risposta a entrambe queste domande verrà data solo qualche anno dopo, agli inizi del trenta, da Kurt Godei e avrà come vedremo ripercussioni catastrofiche per il programma hilbertiano, che prenderemo in considerazione nel paragrafo III+ L'altro aspetto della «rottura» cui si accennava si ha con le cosiddette logiche «non classiche». In questo caso da una parte si ritiene (con Lewis) che il linguaggio dei Principia (anche al solo livello proposizionale, che è l'unico preso in considerazione da questo autore) sia ineliminabilmente troppo povero e grossolano per esprimere le reali connessioni inferenziali; in particolare, il connettivo di implicazione materiale non rende in modo compiuto e soddisfacente la relazione di deducibilità: occorrono connettivi «più potenti». D'altra parte si ritiene che il concetto di verità classico, tradizionalmente bivalente, sia troppo rigido, come accennavamo, per tradurre tutta una serie di situazioni reali: i connettivi abbisognano di interpretazioni diverse e più sfumate. Si vedrà peraltro che questi due aspetti sono fra loro intimamente connessi, come del resto è facile intuire. Cominciamo con la logica modale di Lewis, il cui primo sistema viene presentato come dicevamo nel ' I 8 (ma la sistemazione viene criticata da Post che vi scoprì un errore) e quindi in forma definitiva nel '3 2 in Symbolic Logic (Logica simbolica) scritto da Lewis in collaborazione con Cooper Harold Langford (I 89 5I 96 5). Va notato che lo sviluppo di questo aspetto della logica, che come vedremo è uno dei tratti caratteristici della ricerca degli ultimi decenni, lungi dall'essere un fenomeno tipico e originale del periodo che stiamo qui considerando, in effetti riprende dopo secoli di abbandono una tradizione profondamente radicata nella logica antica e medioevale. Prima dell'inizio dell'era moderna non era mai venuta meno la convinzione che lo studio delle nozioni modali -necessario, possibile, contingente, impossibile - rientrasse a pieno diritto nell'ambito della logica. Anzi la prima trattazione sistematica delle modalità si ritrova, accanto alla logica 2.2 che se due numeri hanno successori uguali sono uguali; 2.4 e 2.5 definiscono induttivamente le operazioni di somma e prodotto; 2.3, infine, esprime l'assioma di induzione ossia afferma che se o gode della proprietà espressa da una certa formula .9/ e se per un qualunque numero, se esso gode di quella proprietà anche il suo successore ne gode, allora tutti i numeri godono di quella proprietà. Si noti che 2.3 non è un assioma bensì uno schema (metalinguistico) di assiomi, dal
quale cioè si possono ricavare infiniti assiomi sostituendo ad .9/ (variabile metalinguistica) una qualunque formula con una variabile libera del linguaggio. 2.3 non esprime completamente il contenuto del principio di induzione; per farlo dovrebbe essere esteso a tutte le proprietà (e non solo a quelle esprimibili nel nostro linguaggio) ma sappiamo che per poter esprimere ciò occorrerebbe passare al secondo ordine. Riprenderemo più avanti la questione.
262
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
degli enunc1at1 categorici, nell'Organon aristotelico. Va osservato tuttavia che nell'opera di Aristotele, in cui viene sviluppata una teoria notevolmente matura e articolata del sillogismo modale, manca una definizione rigorosa e univocamente determinata delle nozioni modali fondamentali. Negli Analitici infatti Aristotele sembra intendere il possibile come « ciò che non è né necessariamente falso né necessariamente vero », mentre nel De interpretatione propende per la definizione del possibile come « ciò che non è necessariamente falso ». Questa seconda accezione è quella ereditata da Teofrasto, suo successore alla direzione del Liceo, e con lui da tutta la logica successiva. A partire da Teofrasto i rapporti di interrelazione tra le modalità si possono esprimere mediante un quadrato di opposizioni così costruito : Necessario ( D p) Impossibile (-, O P)
C><J
Possibile ( O p) Contingente (-, D p) 1 e mediante le definizioni: DP =-, O -,p e O P = -, D-, p. Ma già la corretta « lettura » degli enunciati modali presenta dei problemi. Per usare la terminologia dei medioevali, le modalità si possono intendere come modalità de dicto o sensu composito oppure come modalità de re o sensu diviso: nel primo caso la modalità viene intesa come attributo di un enunciato (ad esempio « 'Socrate corre' è possibile») mentre nel secondo caso è intesa come modo della predicazione, ossia dell'attribuzione di un predicato al soggetto (« Socrate è possibile che corra »). Secondo Oskar Becker e secondo Innocenza Bochenski, Aristotele intende le modalità come modalità de re. La questione del rapporto fra i due tipi di modalità non era comunque oggetto di discussione tanto nell'antichità quanto nel medioevo cristiano, in cui continuava ad esser viva e operante la distinzione tra enunciati modali ed enunciati de inesse o de puro inesse (ossia categorici). Analisi ragguardevoli delle modalità si ritrovano in Pietro Ispano, Abelardo, Alberto Magno e nell'opuscolo De modalibus propositionibus attribuito a S. Tommaso. La logica araba del medioevo è pure interessata alle modalità ma con sfumature diverse, che derivano dall'eredità dei megarici e degli stoici e dalla loro tendenza a legare le modalità allo studio del tempo (in questo atteggiamento interviene anche l'interesse per i problemi del fatalismo e della r La definizione qui adottata del contingente è più comprensiva della definizione, pure di uso corrente, secondo cui una proposizione è contingente quando per stabilire la sua verità o falsità è decisiva l'esperienza (e pertanto quando non è né necessaria né impossibile: --, O p/\
1\ --,O p). Nella logica antica e medioevale la nozione era ancora più equivoca: molto spesso il contingente veniva identificato con il possibile, o viceversa. Secondo Bochenski questa confusione si ritrova anche in Teofrasto.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
predestinazione: per il fatalista ciò che accade accade necessariamente, e cioè P~
o p).
Questa tradizione si esaurisce con l'era moderna. Le modalità cessano di essere di competenza della logica e passano nell'area della filosofia: i modi della predicazione (così sono ormai considerate le modalità) non riguardano tanto le proposizioni quanto i giudizi, considerati come gli atti mentali che vengono espressi nella proposizione. Questo modo di intendere le modalità trova la sua espressione più caratteristica nell'Analitica trascendentale kantiana, in cui le modalità. compaiono come categorie dell'intelletto dedotte appunto dalla tavola dei giudizi. La circostanza più interessante dal punto di vista storico non è però l'abbandono della tradizione logico-modale nell'era moderna, quanto piuttosto il fatto che la logica formale del xrx secolo e gli stessi Principia mathematica nascono ignorando completamente le modalità e persino il problema di una loro eventuale collocazione nell'ambito della logica. E la cosa può risultare tanto più sorprendente quando si pensi che non mancavano gli strumenti, in particolare a partire dall'algebra delle classi di Boole (e quindi di Schroder) per la fondazione di una logica delle modalità. Senza addentrarci nella questione, notiamo che la cosa dipende, nel caso ad esempio della sistemazione logicista, e dall'aver ammesso una rigida semantica proposizionale, per cui ogni proposizione, estensionalmente, può solo interpretarsi o come vera o come falsa (e non ad esempio come talora vera e talora falsa ossia come possibile) e nell'aver introdotto su questa base i connettivi logici, in particolare l'implicazione materiale, come funzioni di verità ancora considerate estensionalmente. L'eco di questi problemi si ritrova nelle due opere citate che segnano la nascita- o la rinascita- della logica modale contemporanea, e cioè il Survry di Lewis e la Symbolic logic di Lewis e Langford. Il bersaglio polemico diretto di Lewis non era però tanto il «dogma» della bivalenza, quanto l'implicazione materiale di Russell; egli infatti si propone di «sviluppare un calcolo proposizionale che non è ristretto a relazioni estensionali o materiali... ed è basato su una relazione di implicazione che non ha queste proprietà peculiari». Le «proprietà peculiari» alle quali allude Lewis sono i cosiddetti paradossi dell'implicazione materiale che si ricavano direttamente dalla sua stessa definizione e possono esprimersi dicendo che una proposizione vera è implicata da qualunque proposizione [P~ (q~ p)] o che una proposizione falsa implica qualunque proposizione [-,p~ (p,-+ q)] o, ancora, èhe di due qualunque enunciati p e q uno implica sempre l'altro o viceversa. Inoltre, se con Lewis si definisce «P è consistente con q» come «p non implica la falsità di q» [-,(P~-, q)] e «q è indipendente da p» come «p non implica q» [-,(P~ q)], allora in termini di implicazione materiale due (o un numero finito di) proposizioni qualunque (in particolare: un sistema di assiomi per il calcolo proposizionale) non possono
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mai essere contemporaneamente consistenti e indipendenti. (Si noti che ciò significa che se si interpretasse la relazione di implicazione materiale come relazione di deducibilità, non avrebbe senso richiedere contemporaneamente l'indipendenza e la consistenza degli assiomi.) Ora, secondo Lewis, ciò deriva dall'aver limitato lo studio della logica al momento estensionale trascurando le relazioni intensionali (ossia di contenuto) fra le proposizioni, sicché « è particolarmente desiderabile che la logica delle proposizioni sia sviluppata in modo tale che venga incluso il significato usuale di " implica ", che è intensionale ». Egli vuol quindi sviluppare un calcolo basato su un significato di « implica » in modo tale che «"p implica q" sia sinonimo con "q è deducibile da p"». Orbene, Lewis si propone appunto, col suo calcolo, di essere aderente al significato usuale di « implica » che includa fra le sue proprietà la relazione di consistenza come sopra definita. Ora secondo Lewis q è deducibile da p non quando «P___, q» è vera bensì quando essa è necessariamente vera ossia quando è una tautologia del sistema, o ancora quando è impossibile che sia falsa. Il sistema della deducibilità introdotto da Lewis era quindi destinato a essere anche un sistema delle modalità logiche. In esso, in luogo dell'implicazione materiale compare la relazione di deducibilità sotto forma di una «implicazione stretta» rappresentata dal simbolo « ~ » e che in termini di implicazione materiale può definirsi come segue
p
~q =
---,
o (p 1\ ---,q)
ossia
o(p___,q)
(dove il segno O sta per « possibile » e il segno D per « necessario »). La teoria dell'implicazione materiale si ricava come sottosistema del sistema dell'implicazione stretta, senza che sia possibile identificare le due relazioni in quanto mentre è possibile dimostrare (p ~q) ~(p ____,q) non è invece derivabile come teorema l'affermazione inversa (p ____,q) ~(p ~q). Lo stesso vale per gli altri quattro sistemi, via via deduttivamente più forti, che Lewis costruisce sulla base del primo aggiungendo come assiomi enunciati che, per quanto plausibili intuitivamente, non sono derivabili nel sistema iniziale. Se, con Lewis, identifichiamo con Sr il sistema di base in cui vengono canonizzati «gli stretti principi dell'inferenza deduttiva», gli altri sistemi (Sz-S5) si presentano come specificazioni ottenute dal sistema originale mediante la postulazione di ulteriori proprietà della relazione d'implicazione. Queste proprietà non risultano dalla pura nozione di inferenza deduttiva, ma riflettono situazioni generali che possono presentarsi in casi specifici. Abbiamo così la tavola seguente, in cui si dà il sistema Sr e vengono schematizzati i rapporti tra i vari sistemi: Assiomi di Sr I. (p 1\ q) ~(q 1\ p) z. (P/\ q) ~p 3· P ~(P/\ P)
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
((p 1\ q) 1\ r) ---?. (p 1\ (q 1\ r)) ((p ---?. q) 1\ (q ---?. r)) ---?.(p ---?. r) 6. (p 1\ (p -?, q)) -?, q l Naturalmente al sistema sono associate delle regole che possono ad esempio essere: una regola di sostituzione (del tutto analoga a quella data nel caso del calcolo classico); una regola di sostituzione di equivalenti stretti (sostituendo a una sottoformula di un teorema una formula ad essa strettamente equivalente si ottiene ancora un teorema); una regola di aggiunzione (se due formule sono teoremi anche la loro congiunzione è un teorema); una regola di separazione del tutto analoga a quella classica (riferita però qui, ovviamente, all'implicazione stretta). Si ha allora Sr _____. Sz (= Sr + O(P/\ q)---?. OP) Sz _____. S3 ( = Sr +(p ---?.q) ---?. ( 0 P ---?. 0 q)) S3 _____. S4 ( = Sr + 0 0 p ---?. 0 p) S4 _____. S5 (= Sr +O p---?. D O p) dove la freccia indica che il sistema a destra è deduttivamente più forte di quello a sinistra e il simbolo « + » sta a indicare che il sistema in questione si ottiene da Sr con l'aggiunta degli assiomi indicati. Fatto importante, i sistemi sono distinti e gli assiomi « supplementari » risultano quindi indipendenti dal sistema base, cosicché rappresentano, come nell'intenzione, genuine specificazioni ulteriori delle proprietà della relazione di implicazione; che tipo di specificazioni in particolare non è immediato vedere considerando solamente gli assiomi. Il loro significato semantico non è chiaro intuitivamente e questo spiega come Lewis (e il suo allievo William Thutwill Parry cui si deve la prima analisi dettagliata dei mutui rapporti fra i sistemi) fosse costretto, per ottenere le menzionate dimostrazioni di indipendenza, a ricorrere all'uso di «tavole di verità» con più di due valori di verità (matrici) per i singoli connettivi, costruite ad hoc, caso per caso. L'esigenza dei singoli assiomi aggiuntivi era così frutto, più che di considerazioni semantiche sistematiche, di analisi di carattere tutto sommato « sperimentale ». Il problema di un'analisi semantica completa dei sistemi modali Sr-S5 rimarrà l'ostacolo più grave alla diffusione delle idee di Lewis e la ragione principale di una loro « subordinazione »alla nascente logica polivalente. Ancora la logica modale è infatti la motivazione diretta e più immediata da cui prende le mosse Jan Lukasiewicz ( 1878-1956) per l'introduzione delle logiche polivalenti, la cui prima apparizione risale a una brevissima memoria (una pagina) da lui presentata nel 1920, Sulla logica trivalente. In questa occasione egli motiva la cosa in termini generali, in quanto ritiene che la logica trivalente che ivi presenta abbia soprattutto impor4· 5.
I Gli altri connettivi devono pensarsi introdotti per definizione a partire da ---, , (\ e O come segue (ex V ~) = ---, (---, ex l\ ---, ~); (ex --s ~)
=
---,
l\ (~
O
(ex l\ ---, ~) O ex = ---,
---s ex);
z66 www.scribd.com/Baruhk
ex == ~ ex.
O ---,
=
(ex
---s
~) l\
La logica-nel ventesimo secolo (r)
tanza teoretica come invito a costruire un sistema di logica non aristotelica (pi tardi preferirà suggerire il nome non crisippea). « Se questo nuovo sistema c logica abbia importanza pratica, » prosegue, « si vedrà solo quando i fenomer logici, in particolare quelli delle scienze deduttive, saranno esaminati più a fond e quando le conseguenze della filosofia indeterministica, che è il substrato scier: tifico della nuova logica, potranno essere confrontate con i dati empirici. Successivamente restringe queste motivazioni in termini più precisi, affermand, ad esempio che « il sistema di logica trivalente deve la sua origine a certe ricerch da me condotte sulle cosiddette proposizioni modali e sulle nozioni di possibi lità e necessità strettamente connesse ad esse », fino ad affermare decisamente « ... come fondatore dei sistemi di logica proposizionale polivalenti affermo eh teoricamente questi sistemi non sono stati sviluppati sulla base del convenzio nalismo o relativismo, ma sono emersi da ricerche logiche relative alle proposi zioni modali e ai concetti annessi di possibilità e necessità ». 1 Lukasiewicz prende quindi le mosse dalla considerazione delle proposi zioni modali « È possibile che p», che egli simbolizza con Mp, « Non è passi bile che p» (NMp) «È possibile che non p» (MNp) e «Non è possibile eh non p» (ossia è necessario che p, NMNp). 2 Ora egli nota tre proposizioni mo dali direttamente derivate da principi classici della modalità 3 altamente plau sibili da un punto di vista intuitivo, e che tuttavia portano, se interpretate clas sicamente, a risultati « spiacevoli » o addirittura a contraddizioni. Tali proposi zioni sono: I. Se non è possibile che p, allora non p:--,<> p-+-, p [CNMpNp] II. Se si suppone che non p, allora (sotto questa ipotesi) non è possibil che p: --,P-+--,<> p [CNpNMp] III. Per qualche p: è possibile che p ed è possibile che non p: 3 p (<>p l /\<)-,p) p.:pKMpMNp] r Si ricordi in proposito quanto detto su Post circa la sua presentazione delle logiche polivalenti. Dirà Lukasiewicz, attorno al 1930: «È vero che Post ha indagato i sistemi proposizionali polivalenti da un punto di vista puramente formale, tuttavia non gli è riuscito di interpretarli logicamente. I ben noti tentativi di Brouwer che rigetta la validità universale della legge del terzo escluso e quindi rifiuta molte tesi dell'ordinario calcolo proposizionale non hanno finora condotto a un sistema basato intuitivamente. » Per quest'ultima considerazione si osservi che, al tempo in cui Lukasiewicz scriveva la sua nota non era stata ancora pubblicata la « formalizzazione » di Heyting della logica e della matematica intuizioniste. Nel 1952 in On the intuitionistic theory of deduction (Sulla teoria intuizionista della deduzione) dirà invece: «Mi sembra che fra i sistemi di logica polivalente finora noti la teoria intuizionista sia il più intuitivo ed elegante. »
2 Scritture di questo tipo intervengon nell'ambito del cosiddetto «simbolismo polacco introdotto appunto da Lukasiewicz, che permei teva di evitare l'uso delle parentesi nelle formul semplicemente premettendo gli operatori propc sizionali ai loro argomenti: così invece di scr: vere -,oc, oc 1\ ~, oc V ~, oc-> ~, oc +-> ~, Luk~ siewicz scriveva rispettivamente N<X, Koc~ A<X~, Coc~, Eoc~. E ad esempio una formul quale (<X->,~)->(-, y+->a) viene resa in not~ zione polacca come CCocN~ENya. Per cc modità del lettore noi renderemo le formule nell nostra abituale notazione, indicando semmai ancJ. la notazione polacca. 3 Ad esempio, Ab oportere ad esse vah consequentia; A esse ad posse vale t consequentia; c per contrapposizione da quest'ultima, Ab no posse ad non esse va/et consequentia.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
l teoremi II e III hanno conseguenze « non piacevoli »; ad esempio dal secondo si può ricavare «se è possibile p allora p» (se è possibile che il paziente muoia allora muore), dal III si può derivare un teorema secondo il quale ogni proposizione è possibile (con risultati del tipo « è possibile che 2 sia primo » e «è possibile che 2 non sia primo»). Ma si giunge addirittura a contraddizione considerando congiuntamente le proposizioni II e III. Infatti, utilizzando le conseguenze prima dette dei due teoremi si ha per separazione
0P-7P OP -·-----
p
ossia si ottiene semplicemente p; ogni proposizione risulterebbe così essere un teorema il che come sappiamo è un possibile modo per esprimere la contraddizione di un sistema proposizionale. Ora queste leggi conducono a contraddizione solo se sono interpretate in un sistema di logica classica ove si assuma la bivalenza delle proposizioni, ove cioè si assuma che una proposizione possa avere come valore soltanto il V ero o il Falso. Lukasiewicz introduce allora una logica trivalente e sulla base della definizione O p = --,p---+ p [M p = CNpp] (dovuta all'allora suo allievo Alfred Tarski) riesce a far vedere che « tutti i tradizionali teoremi della logica proposizionale modale possono essere stabilitì senza contraddizione nel calcolo proposizionale trivalente ». Va notato però che in questo modo, differentemente da Lewis e dai suoi sistemi SI -S 5, la logica modale veniva a presentarsi come un sottosistema di quella classica e quindi non come una sua generalizzazione. Se così Lukasiewicz riusciva a dare un'analisi semantica precisa della nozione di sistema modale, era solo a patto di una rinuncia; proprio quella rinuncia che Lewis non era disposto a fare e che lo spingeva a ritenere che l'approccio polivalente di Lukasiewicz non fosse in grado di fornire una risposta soddisfacente al problema della caratterizzazione generale della nozione di inferenza deduttiva. Sarà solo molto più tardi, verso il 1959, che ottenendo una semantica adeguata la logica modale riuscirà a svincolarsi dalle limitazioni che la logica polivalente le imponeva, e a presentarsi in modo autonomo. Va tuttavia considerato il fatto che- come si è visto- l'orizzonte nel quale si pone Lukasiewicz è estremamente vasto, legato com'è, in fondo, al problema del determinismo e del libero arbitrio; e la costruzione di queste nuove logiche polivalenti gli sembra offrire una soluzione a quella « costrizione razionale » cui è sottoposta la scienza fondata « sulla logica aristotelica». « Questa nuova logica,» afferma infatti Lukasiewicz, «introducendo il concetto di possibilità oggettiva, distrugge il vecchio concetto di scienza basata sulla necessità. I fenomeni possibili non hanno cause, per quanto essi stessi possano essere l'inizio di una catena causale. L'atto di un individuo creativo può essere libero e al tempo 268
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
stesso influenzare il corso del mondo. La possibilità di costruire sistemi logici diversi mostra che la logica non è ristretta alla riproduzione dei fatti ma è un libero prodotto dell'uomo come un'opera d'arte. La coercizione logica si dissolve proprio alla sua sorgente. » A parte comunque questo riferimento filosofico per così dire « tradizionale », Lukasiewicz e tutta una schiera di collaboratori - fra i quali vanno ricordati almeno Adolf Lindenbaum (1904-1941), Alfred Tarski (n. 1902) e Mordchaj Wajsberg (1905-1941)- generalizza e sistematizza fra il 1920 e il 1930 i risultati sulle logiche polivalenti, che vengono fra l'altro presentati in un articolo del 1930, a firma di Tarski e Lukasiewicz, dal titolo Untersuchungen iiber den Aussagenkalkiil (Ricerche sul calcolo proposizionale). Qui vengono considerate logiche Ln a un numero finito qualunque o infinito numera bile di valori (ossia per n uguale a un numero naturale qualunque o n = ~ 0), dando formule generali per le tavole di verità dei connettivi di implicazione e negazione. Ma al di là di questi risultati relativi alle logiche polivalenti (che abbiamo richiamato per chiudere in certo qual modo il discorso) quello che è caratteristico di questo articolo è l'impostazione di tipo metamatematico, o meglio metalogico, che riflette l'indirizzo di ricerche di un decennio della cosiddetta scuola polacca 1 orientate verso lo studio globale « della più semplice disciplina deduttiva, il calcolo proposizionale ». r Si dovrebbe in realtà parlare di due scuole logiche polacche, con caratteristiche e tendenze assai diverse fra loro, e che fanno capo rispettivamente e originariamente alle università di Cracovia e a quella di Leopoli (le uniche università polacche sotto la dominazione asburgica). La matrice della scuola di Cracovia è nettamente scientifica (matematica) e sembra doversi far risalire all'attività di Jan Sleszynski e quindi del fisico Stanislaw Zaremba, dei quali fu allievo quel Leon Chwistek di cui si è già ampiamente parlato, a proposito della sua proposta di « revisione » della teoria ramificata dei Principia, con la sostituzione ad essa della teoria semplice dei tipi. Allievi di Chwistek furono W. Hepter e J. Herzberg (massacrati, come molti altri studiosi polacchi dell'epoca, dai nazisti) che diedero a loro volta notevolissimi contributi a quello che John Myhill (n. 1923) chiama« il più importante tentativo mai compiuto per stabilire la non contraddittorietà della matematica». La scuola di Leopoli viceversa (che verrà poi detta di Leopoli-Varsavia perché alcuni dei suoi maggiori rappresentanti si trasferiranno appunto a Varsavia) ha matrice nettamente filosofica e può farsi risalire all'attività di Kasimierz Twardowski (r886-1938) il quale, pur non essendo professionalmente un logico, a partire dal 1895 preparò col suo insegnamento «la base per lo sviluppo futuro in senso logico, abituando i suoi numerosi allievi all'uso del metodo
scientifico in filosofia, istillando nelle loro menti un grande rispetto per il pensiero chiaro e per la precisione espressiva e in generale fecondando il pensiero filosofico coi risultati di un abito intellettuale scientifico» (Jordan). Dal 1906 si affianca a Twardowski il giovane allievo Lukasiewicz che già nel 1910 pubblica l'articolo Il principio di non contraddizione in Aristotele, impostato secondo lo stile delle moderne ricerche di logica, malgrado il vero e proprio inizio delle ricerche sistematiche in questa direzione vada posto, secondo Zbigniew A. Jordan, negli anni immediatamente successivi alla prima guerra mondiale e abbia come sua prima fase uno studio approfondito dei Principia mathematica: nel 1927 Zygmund Zawirski pubblica in Il rapporto fra logica e matematica alla luce delle ricerche moderne un riassunto del manifesto logicista. Fra gli allievi di Lukasiewicz della prima generazione vanno ricordati almeno Tadeusz Kotarbinski (n. r886) e Kazimierz Ajdukiewicz (r89o-r963). Nel 1912 giunge a Leopoli Stanislaw Lesniewski (18861939) che qui si accosta alla problematica della logica moderna. Nel 1915 Lukasiewicz si trasferisce a Varsavia dove viene raggiunto, dopo la seconda guerra mondiale, da Le8niewski. I due diventano gli ispiratori indiscussi della scuola logica di Varsavia, alla quale appartengono appunto, fra gli altri, Tarski (che diventa docente nel 1926) e quindi Lindenbaum, Wajsberg ecc.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Questa tendenza alla considerazione metamatematica delle teorie nasce in Lukasiewicz e per motivi filosofici precisi; con l'apporto dei suoi collaboratori, in particolare di Tarski, formatosi in un mondo matematico in cui campeggia Waclaw Sierpinski e che «ha assorbito sino in fondo quell'atteggiamento insiemistico infinitario che caratterizza quell'ambiente e si esprime nei " Fundamenta mathematicae ", il discorso tende ben presto ad allargarsi» (Casari). Nell'ambito cioè della costituzione di una « metascienza » generalizzata, ossia non più limitata alla logica proposizionale e con il massimo impiego di metodi insiemistici infinitari, questo indirizzo troverà negli anni trenta il suo naturale sbocco nella sistemazione della semantica tarskiana (si veda il paragrafo Iv), e, quindi, negli anni cinquanta, nella teoria dei modelli (si veda il paragrafo v). z) Le critiche al sistema di Zermelo. Proposte alternative Nel paragrafo 11.2 abbiamo presentato in modo informale il sistema assiomatico con cui Zermelo riteneva di poter ricostruire la teoria cantoriana degli insiemi evitando nel contempo le antinomie. Avevamo anche accennato a quelle che erano state le considerazioni di Zermelo sulla consistenza e sull'indipendenza del proprio sistema di assiomi. Vogliamo ora riferire sui risultati del complesso e assiduo lavoro di rielaborazione critica del sistema zermeliano che ha luogo in modo decisivo proprio nel decennio che stiamo qui considerando. Va detto subito che nulla di più di quanto affermato da Zermelo si ottiene relativamente alla coerenza del sistema: anche nell'ambito delle rinnovate riflessioni dei vari autori di questo periodo non si ricostruiscono cioè nel sistema le note antinomie, ma non si guadagna in alcun senso un qualche contributo alla certezza della sua supposta coerenza. Non molto significativi anche i risultati riguardanti l'indipendenza: Fraenkel dimostra nel 1922, nell'articolo Zu den Grundlagen der Cantor-Zermeloschen Mengenlehre (Sui fondamenti della teoria degli insiemi di Cantor-Zermelo) che l'assioma zermeliano degli insiemi elementari può essere «ridotto» nel senso che basta postulare l'esistenza dell'insieme coppia fx, yJ per gli elementi x ey distinti in quanto poi da questa assunzione, assieme con gli assiomi di isolamento, di potenza e di estensionalità, si può derivare l'esistenza dell'insieme vuoto e dell'insieme unità fx} per ogni elemento x. Contributi significativi vengono invece dati alla struttura stessa della teoria soprattutto ad opera di Skolem, Fraenkel e von Neumann sulla base di precise critiche che ora vedremo; quest'ultimo inoltre presenta una versione alternativa che funge da punto di partenza per tutto un nuovo modo di vedere la teoria degli insiemi, e che negli anni trenta troverà eco soprattutto in Bernays e Godel. Le critiche alla edificazione della teoria così come l'aveva presentata Zermelo sono sostanzialmente di due tipi: I) da un lato vengono messe in evidenza lacune di tipo metodologicofilosofico riguardanti il concetto imprecisato di « proprietà definita » (che come
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
si ricorderà interveniva nell'assioma di isolamento di Zermelo) e la piattaforma antologica assunta da Zermelo stesso come riferimento generale della propria teoria; 2) d'altro lato sono evidenziate certe «debolezze» riscontrate nel sistema zermeliano che si concretizzano in due aspetti tra loro in certo senso opposti: da una parte infatti il sistema di Zermelo non permette di assicurare l'esistenza di determinati assiomi che si dimostrano indispensabili per una ricostruzione quanto più possibile completa della teoria di Cantar; dall'altra, viceversa, esso non consente di escludere l'esistenza di altri insiemi per così dire altamente indesiderabili, ancora in riferimento al modello intuitivo cantoriano. Cominciamo dal primo tipo di obiezioni. Il concetto di « proprietà definita », si ricorderà, era stato introdotto da Zermelo per eliminare quelle antinomie che (come vedremo nelle prossime pagine; ma si ricordi il paragrafo r) oggi chiamiamo, seguendo Ramsey, linguistiche (mentre per evitare le antinomie logiche era sufficiente la « relativizzazione »della comprensione). È chiaro che la stessa vaghezza del concetto non permetteva una esaustiva ispezione di tutte le eventuali proprietà allo scopo di determinare se esse fossero o meno « definite ». Si imponeva quindi una precisazione del concetto di « proprietà definita » e tale chiarificazione e precisazione venne intrapresa da Skolem e da Fraenkel indipendentemente l'uno dall'altro nei primissimi anni del venti. La soluzione di Fraenkel viene presentata brevemente nell'articolo del I922 Der Begriff « definit » und die Unabhangigkeit des Auswahlaxioms (Il concetto «definito» e l'indipendenza dell'assioma di scelta) e più estesamente nell'articolo Untersuchttngen iiber die Grundlagen der Mengenlehre (Ricerche sui fondamenti della teoria degli insiemi) del I 92 5. Il suo metodo, che consiste nel precisare il concetto di definitezza attraverso un particolare impiego della nozione di funzione, è alquanto complicato e non è stato mantenuto nell'uso; il metodo invece che poi è stato universalmente accettato risale a Skolem, che lo presenta in un importantissimo articolo del I 922: 1 Einige I Questo articolo di Skolem è in effetti estremamente ricco di profonde osservazioni e sulla problematica della teoria degli insiemi in particolare e sul metodo assiomatico in generale. In esso infatti Skolem discute i seguenti 8 punti: I) istituendo una teoria assiomatica degli insiemi Zermelo si fonda sul concetto di dominio, il che comporta inevitabilmente una certa circolarità; z) la questione della « proprietà definita » di cui si riferisce nel testo; 3) il fatto che in ogni assiomatizzazione della teoria degli insiemi le nozioni insiemistiche assumono in modo inevitabile un carattere ?i relatività (Skolem considera questo il punto più Interessante del suo lavoro - è infatti la prima enunciazione del cosiddetto « relativismo » di Skolem - e lo fonda sul teorema di Lowenheim del quale, come già detto, parleremo nel paragrafo IV); 4) il fatto che il sistema di Zermelo non è sufficiente ad assicurare una soddisfacente fon-
dazione per la teoria cantoriana, il che porta all'enunciazione dell'assioma di rimpiazzamento visto nel testo; 5) il problema delle definizioni non predicative in rapporto alla questione della dimostrazione di consistenza degli assiomi della teoria degli insiemi; 6) il problema della non univoca determinazione del dominio B da parte degli assiomi di Zermelo (anche questo punto è assai importante perché sulla base delle argomentazioni in esso condotte, Skolem avanza in nota la congettura che sia impossibile decidere certe proposizioni, in particolare quella esprimente l'ipotesi (ristretta) del continuo cantoriana); 7) la necessità dell'impiego dell'induzione matematica per «l'indagine logica di sistemi di assiomi dati astrattamente » in particolare relativamente alla loro coerenza (è in questa occasione che Skolem sostiene l'insufficienza delle argomentazioni di Hilbert contro le obiezioni di Poincaré); 8) il
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Bemerkungen zur axiomatischen Begriindung der )IJ.engenlehre (Alcune osservazioni sulla fondazione assiomatica della teoria degli insiemi). Il metodo di Skolem è estremamente semplice e lineare e interviene intrinsecamente, per così dire, nella natura stessa della difficoltà che con l'introduzione del concetto di «proprietà definita» Zermelo voleva evitare. Esso consiste essenzialmente nel pensare precisato il linguaggio logico e specifico della teoria degli insiemi e nell'assumere quindi che siano linguisticamente proprietà definite certe particolari espressioni costruibili per mezzo di tale linguaggio. Più precisamente, Skolem immagina la teoria degli insiemi formalizzata in un linguaggio predicativo del primo ordine con identità, le cui costanti (operazioni) logiche siano r) la congiunzione indicata con giustapposizione, 2) la disgiunzione indicata con V ; 3) la negazione, indicata con --,; 4) la quantificazione universale, indicata con V; 5) la quantificazione esistenziale indicata con 3 1 e che abbia come costanti descrittive il solo simbolo E ; allora «per proposizione definita intendiamo ora un'espressione finita costruita da proposizioni elementari della forma a E b e a = b per mezzo delle cinque operazioni menzionate », in altri termini, una qualunque formula del linguaggio precisato come sopra. Si noti che inserito così nel linguaggio l'assioma di isolamento, questi cessa di essere un assioma per diventare uno schema di assiomi, vale a dire una prescrizione metalinguistica in virtù della quale una infinità di espressioni - e precisamente tutte quelle aventi le caratteristiche strutturali descritte dallo schema- vengono dichiarate assiomi. La seconda obiezione del primo tipo viene sollevata da Fraenkel nel primo degli articoli del 1922 sopra menzionati. Dice Fraenkel che « ... tra le" cose" del " dominio B '' dalle quali traggono la loro esistenza gli insiemi in virtù degli assiomi, possono trovarsene anche di origine non matematica ·o addirittura di origine non concettuale. Tale caratteristica è inutile dal punto di vista dell'edificazione della matematica e almeno da questo punto di vista, va quindi riguardata come in soddisfacente». Fraenkel cioè rimprovera a Zermelo l'eccessiva liberalità con cui ritiene che sia nello spirito cantoriano l'ammettere «cose qualunque » come entità di partenza dalle quali dovrebbero poi costituirsi gli insiemi grazie agli assiomi. Ora Fraenkel osserva che l'unica caratteristica che da un punto di vista logico va richiesta alle entità fondamentali è quella di essere costituite in modo tale da non ammettere elementi, ossia chè nessun'altra entità del dominio sia loro elemento. D'altra parte l'insieme vuoto gode proprio di questa senso dell'assunzione del principio di scelta fra gli assiomi, che lo porta a giustificare quei matematici che eventualmente non lo accettano, sulla base del fatto che la maggior parte dei matematici desidera in fin dei conti che la loro scienza « tratti con operazioni di calcolo effettuabili e non consista di operazioni formali su oggetti chiamati così o cosà ». Skolem sostiene insomma un atteggiamento costruttivo vicino a quello intuizionista.
Molto interessante è infine la conclusione cui Skolem giunge e cioè che non si debba pensare che il metodo assiomatico abbia quelle caratteristiche di assolutezza che molti sembrano accordargli e in particolare che in nessun caso « gli assiomi della teoria degli insiemi costituiscono la fondazione ideale per la matematica ». I Si noti che Skolem impiegava ancora, in questo articolo, la notazione di Schroder.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
carattenstlca e quindi Fraenkel propone che l'unica « sostanza» elementare ammessa a livello iniziale sia esattamente l 'insieme vuoto. Ciò viene ottenuto formalmente enunciando l'assioma di estensionalità, che come si :ricorderà Zermelo limitava a insiemi, in modo tale che valga per ogni elemento del dominio. Ne risulta immediatamente che due «cose» qualunque prive di elementi vengono a coincidere fra loro e in particolare ognuna di queste cose coinciderà appunto con l'insieme vuoto. Per quanto :riguarda le obiezioni del secondo tipo, dirette cioè contro i limiti di :ricostruibilità della teoria di Canto:r nel quadro ze:rmeliano, esse si concretavano sostanzialmente nelle seguenti osservazioni. Da una parte nel sistema di Ze:rmelo non era dimostrabile l'esistenza di un insieme quale il seguente M
=
{I, f!J(l), f!J(f!J (l)),
fJJ
(f/J (f/J (!))), ... }
il cui primo elemento I è un insieme infinito la cui esistenza è assicurata dall'assioma dell'infinito e ogni elemento successivo è l'insieme potenza del precedente. Si noti che ognuno degli elementi di M esiste in virtù dell'assioma dell'insieme potenza: quello di cui non si :riesce a dimostrare l'esistenza è proprio M nel suo complesso, considerato come insieme (è abbastanza agevole infatti concludere in 3 dall'esistenza dell'insieme M all'esistenza della classe totale). Sotto opportune ipotesi questa situazione comporta per così dire l'impossibilità di considerare cardinali sufficientemente grandi e desiderabili ovviamente in una teoria del transfinito che voglia essere una :riproduzione fedele della teoria cantoriana. Pe:r rimediare questa deficienza Skolem propose, nell'articolo del '22 sopra citato, il cosiddetto assioma di ritnpiazzamento (o di regolarità o di sostituzione) che da allora è divenuto un'assunzione canonica nella teoria degli insiemi. Tale assioma afferma nella sua sostanza che se si ha un insieme a e una funzione f definita su a, allora esiste un insieme a' di tutti e soli i valori di f per argomenti tratti da a; o in altri termini, se il dominio di una funzione è un insieme tale è anche il suo codominio. Nello stesso periodo Fraenkel in almeno tre articoli: Uber die Zermelosche Begriindung der Mengenlehre (Sulla fondazione zermeliana della teoria degli insiemi, I 92 I), Axiomatische Begriindung der transftniten Kardinalzahlen I (Fondazione assiomatica dei numeri cardinali transftniti, l, I922) e nell'articolo del I922 citato a pag. 270, proponeva una soluzione analoga a quella di Skolem. L'altra obiezione del secondo tipo riguardava come accennato il fatto che nella teoria di Zermelo non e:ra postulata, è vero, ma neppure era esclusa l'esistenza di insiemi cosiddetti straordinari, segnalati pe:r la prima volta da Dimitry Mirimanoff nel I9I7 in Les antinomies de Russe!! et de Burali-Forti et le problème fondamenta! de la théorie des ensembles (Le antinomie di Russe!! e di Burali-Forti e il problema fondamentale della teoria degli insiemi), caratterizzati dal contenere una catena discendente infinita o un ciclo di insiemi legati dalla :relazione di apparte-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
nenza. Se a è uno di tali insiemi si avrà ad esempio che esistono infiniti insiemi a1 , a 2 , .. • tali che
Per superare tale difficoltà, dopo vari infruttuosi tentativi di Fraenkel, legati al problema più generale della categoricità della teoria degli insiemi, nel 1928, in Ober die Deftnition durch transftnite Induktion und verwandte Fragen der allgemeinen Mengenlehre (Sulla definizione per induzione transftnita e questioni connesse della teoria generale degli insiemi) e in Die Axiomatisierung der Mengenlehre (L'assiomatizzazione della teoria degli insiemi), von Neumann propose di aggiungere un assioma, detto assioma di fondazione (o anche principio di restrizione, o assioma del regresso infinito escluso) il quale postula che ogni insieme non vuoto a contiene un elemento d che non ha con a alcun elemento comune. Si vede facilmente che questo esclude il regresso infinito di cui sopra e comporta quindi che i nostri insiemi sono tutti costruiti a partire da elementi base (insieme vuoto o Urelement o altro) mediante applicazione delle operazioni esplicitamente previste dagli assiomi. La « somma » di tutte queste precisazioni, prima fra tutte il riferimento di Skolem al linguaggio del primo ordine, faceva così emergere un ben determinato sistema assiomatico per la teoria degli insiemi, sistema che, almeno fino alla comparsa dei lavori di von Neumann, sarebbe rimasto il punto di riferimento costante per le ricerche nel ramo (e che comunque costituisce ancor oggi uno dei riferimenti standard in teoria degli insiemi). È quindi opportuno per comodità del lettore concludere questo excursus con una presentazione della versione formalizzata di un tale sistema, che indicheremo con la siglia 33'6 (in omaggio ai principali protagonisti della sua costituzione; si noti tuttavia che è ormai invalsa nell'uso la denominazione «sistema 33' » che inspiegabilmente trascura di ricordare gli apporti decisivi di Skolem). Supponiamo di aver stabilito un linguaggio del primo ordine in modo tale che le espressioni che ora daremo (esclusi ovviamente i due schemi presenti nell'elencazione e per i quali valgono le osservazioni precedentemente fatte) risultino formule di quel linguaggio 33'6 I (Assioma di estensionalità)
'l!z (zExf--+ zEy)---+ x= y 33'6z (Assioma dell'insieme-coppia) ---, x= y---+ ::lz 'l! w (wEzf--+ w= x v u; = y) 3 3'6 3 (Assioma dell'insieme-riunione) ::JyyEx---+ ::lz 'l!w (wEz+---> ::Ju (wEu 1\ uEx)) 33'64 (Assioma dell'insieme-potenza) ::Jy 'l!z (zEyf--+ 'lfw (wEz---+ wEx)). 33'65 (Schema d'assiomi di isolamento) 274
www.scribd.com/Baruhk
La logica:·nel ventesimo secolo (r)
Ogni espressione della forma: 3y Vz (ZEY~ ZEX 1\ 1X(z)) è un assioma purché IX non contenga libera la variabile y. 3666 (AssiotJla di scelta) Vy Vz ((yEx 1\ zEx 1\ ---,y = z)~(3wwEy ;, ---, ::Jw (wEy 1\ wEz)))~3u3y(yEx~3wVv(v = w~vEul\ vEy)).
3667
(Assioma dell'infinito)
3z(Vx(---,3yyEx->xEz)l\ VxVy((xEzl\ Vw(wEy~w= x))~_yEz)).
3668
(Schema d'assiomi di rimpiazzamento) Ogni espressione della forma
\:j_y Vz Vw (IX (.y, z) 1\ IX (y, w)~ z = w)~ ~ 3u Vz (zEu~ 3y (yEx 1\ IX (y, z))) è un assioma purché IX non contenga libere x e u. 3669 (Assioma di fondazione) ~)'v E x~ 3z (zEx 1\ V w (wEz~---, WEX) Vogliamo ora occuparci dell'altra tipica impostazione della teoria assiomatica degli insiemi che nasce in questo periodo ad opera del già tanto citato von Neumann, il quale negli anni venti dedica alla questione almeno sei fondamentali lavori. In uno di questi, del I 92 5, E in e Axiomatisierung der Mengenlehre (Una assiomatizzazione della teoria de,r;li insiemi) egli presenta un nuovo modo di assiomatizzare la teoria che ha notevoli caratteristiche di naturalezza perché evita l'introduzione di alcune condizioni necessarie per il sistema di Zermelo ma tuttavia altamente non intuitive, prima fra tutte il fatto che nella teoria di Zermelo, pena il ricadere nelle contraddizioni, non esiste la classe totale. Von Neumann ottiene questo risultato avendo come sfondo la convinzione che le antinomie non traggano origine dall'assumere l'esistenza di un insieme in corrispondenza ad ogni proprietà, come appunto richiesto dall'assioma di comprensione, bensì dal fatto che tale insieme venga sostanzializzato, che gli si attribuiscano cioè quelle caratteristiche che possono essere riassunte semplicemente dicendo che l'insieme in questione può essere oggetto di predicazione, ossia può figurare come elemento di altre classi, molteplicità, insiemi. Ne viene allora che si potrà ammettere senz'altro l'esistenza di una molteplicità in corrispondenza a ogni proprietà ma che occorrerà successivamente aver cura che non tutte queste molteplicità possano a loro volta essere elementi di altre molteplicità; in termini tecnici più precisi, occorrerà fare una netta e rigorosa distinzione fra quelli che oggi vengono chiamati insiemi e quelle che invece vengono chiamate classi: allora ogni insieme è una classe, ma non tutte le classi sono insiemi.! Nei terr Si noti che così facendo von Neumann riprende sostanzialmente la distinzione cantoriana
fra molteplicità consistenti (insiemi) e molteplicità inconsistenti (classi).
275
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mini che abbiamo sopra impiegato dovrebbe venir naturale esprimere la cosa dicendo che mentre tutti gli insiemi possono essere argomenti di predicazione, ciò non vale per le classi; in termini più generali, esistono delle «cose» che non sono « argomenti ». Si comprende quindi come von Neumann conduca la sua assiomatizzazione in termini di funzioni piuttosto che di insiemi: la prima nozione è infatti abbastanza ampia da includere la seconda; più precisamente si tratta di due concetti del tutto equivalenti, dal momento che una funzione può essere riguardata come un insieme di coppie ordinate, e gli insiemi come funzioni particolari (funzioni caratteristiche) ossia come quelle funzioni che possono assumere due e solo due valori distinti. Afferma von Neumann: «La ragione per cui ci discostiamo dal modo usuale di procedere è che ogni assiomatizzazione della teoria degli insiemi usa la nozione di funzione (assioma di isolamento, assioma di rimpiazzamento ... ) e così è formalmente più semplice basare la nozione di insieme su quella di funzione che non viceversa. » Precisata questa terminologia, von Neumann prende le mosse dalla considerazione di due domini distinti, quello delle funzioni e quello degli argomenti, e si chiede immediatamente: quali funzioni sono nello stesso tempo argomenti? Osservando che qui « funzione » e « argomento » vanno intesi in senso puramente formale, ossia senza che venga loro attribuito uno specifico significato, si può pensare di considerare astrattamente « cose di tipo I » e « cose di tipo II» e chiedersi allora: quali cose sono di tipo I-n? (è chiaro che se ad esempio per « cose di tipo I » intendiamo « argomenti » e per « cose di tipo n » intendiamo « funzioni » porsi la domanda precedente significherà appunto chiedersi: quali funzioni sono anche argomenti? e quindi, per quanto già detto, quali classi sono anche insiemi?) Per rispondere, con von Neumann, a questa fondamentale domanda, fissiamo arbitrariamente un argomento A e conveniamo che una funzione è anche un argomento quando, per così dire « non lo è troppo spesso » ossia quando non si comporta in modo tale da assumere «per troppi argotllenti » un valore diverso da quello prefissato A. Poiché, prosegue von Neumann «un insieme sarà definito come una funzione che può assumere solo due valori, uno dei quali è A, questo è un adattamento ragionevole del punto di vista di Zermelo ». È chiaro che il discorso di von Neumann non fa sostanzialmente che riprodurre, nella nuova terminologia, la constatazione che in un qualche senso (pena cioè il sorgere di antinomie) non possono esistere insietlli «troppo grandi» («funzioni troppo ampie» nella sua terminologia). L'essenziale novità di questa sistemazione è tuttavia duplice: I) esistono cotllunque « cose » troppo grandi (saranno appunto le classi); z) si riesce a « dare una misura » a questo vago concetto di «troppo grande». Un tipico oggetto di questo genere è infatti, ad esempio, la classe totale; orbene von Neumann postula l'esistenza della classe di tutti
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
gli insiemi 1 e stabilisce con un altro assioma che condizione necessaria e sufficiente affinché una classe non sia un insieme (una funzione non sia argomento, o una cosa di tipo II non sia anche di tipo r, non sia cioè di tipo I-II) è che essa sia rappresentabile sulla classe totale. In termini più usuali, per riassumere, la nostra teoria parla di due tipi di molteplicità: gli insiemi e le classi proprie (o semplicemente classi); ogni insieme è una classe ma non viceversa: una classe è un insieme se e solo se non è rappresentabile sulla classe totale; o ancora una molteplicità è una classe propria se e solo se è equipotente con la classe totale. Sarebbe assai interessante, ma ci sembra fuori luogo in questa sede, discutere e presentare nei particolari il sistema assiomatico di von Neumann; ci limiteremo quindi ad alcune considerazioni generali. Von Neumann costituisce la propria teoria fondandola su sei gruppi di assiomi: I. Assiomi introduttivi (4 assiomi); II. Assiomi aritmetici di costruzione (7 assiomi); III. Assiomi logici di costruzione (3 assiomi); IV. Assiomi delle cose di tipo I-II (z assiomi); V. Assiomi dell'infinito (3 assiomi); VI. Assiomi di «categoricità» (4 assiomi). Il gruppo di assiomi di gran lunga più « potente » e caratteristico del sistema vonneumanniano è il IV; l'assioma IV.r afferma appunto l'esistenza della classe di tutti gli insiemi, mentre il IV.z dà la «misura» di cui sopra si parlava ed è di potenza veramente eccezionale: da esso si possono derivare l'assioma di isolamento, l'assioma di rimpiazzamento e il teorema del buon ordinamento. È lecito dunque, a proposito di un assioma così potente, chiedersi come appunto fa von Neumann se esso non sia eventualmente causa di antinomie. Von Neumann fa vedere che così non è con una serie di considerazioni troppo complesse per essere qui riportate. Va detto tuttavia che centrale in questa dimostrazione è la costruzione di una funzione 1/J, detta appunto 1/J di von Neumann, la quale è così definita sugli ordinali, assumendo come valori insiemi
7/J(o)=0 1/J (a. + r) = 1/J (lim r~-y) = Y<À 1 In effetti un successivo assioma afferma semplicemente: tutte le cose di tipo I sono cose di tipo I-11. 2 Intuitivamente, questa funzione, definibile nell'ambito della teoria, genera (ma è più esatto dire descrive nella teoria) un universo di insiemi a partire dall'insieme vuoto e applicando l'operazione di passaggio all'insieme potenza per ogni passo successivo (per ogni ordinale successore: passi I) e z)). Per poter essere iterata nel transfinito, giunti al primo ordinale limite (w) si prosegue facendo la riunione di tutti gli insiemi ottenuti fino a quel passo. Quindi si ricomincia di nuovo il processo di potenziazione fino a un nuovo ordinale limite, arrivati al quale si riunisce, e così via. Si dice che la funzione individua la
(1/;(a.)) U 1/; (a.y)
[l}J
2
y<À
gerarchia cumulativa dei tipi semplici Mr1. : è infatti evidente dalla definizione della funzione che una volta che un insieme è stato « raggiunto » a un determinato livello (numero ordinale) tale insieme sarà presente a tutti i livelli successivi (cumulatit•ita); ed è inoltre ovvio che le operazioni in base alle quali la gerarchia procede sono per così dire puramente insiemist!che, non riguardano cioè in alcun modo le espressioni definitorie degli insiemi generati (semplicita). La gerarchia sarà così costituita per i primi passi: M 0 = 0, M, = { 0} , M 2 = {0, {0}}, M 3 = {0, {0}, {{0}}, {0, {0}}}, ... , Mn, ... M"', M"'. 1 , ... Mr1. ... , per ogni ordinale <X. Si può facilmente verificare l'affermazione precedente circa la cumulatività e associare in modo univoco a ogni insieme
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
L'impostazione di von Neumann verrà ripresa negli anni trenta da vari autori fra i quali Rafael Mitchel Robinson in The Theory oj classes, a modiftcation of von Neumann' s system (La teoria delle classi, una modificazione del sistema di von Neumann, 1937) il quale mantiene l'originale impostazione di von Neumann in termini di funzioni, e in particolare da Paul Bernays in una serie di lavori fra il I 9 37 e il I 9 58 e da Kurt Godei in un suo fondamentale lavoro del r 940 che vedremo in un prossimo paragrafo. Questi due ultimi autori ritornano tuttavia a un linguaggio più usuale (non in termini di funzioni cioè) mantenendo della teoria di von Neumann la distinzione classe /insieme. Sistemi di questo tipo vengono indicati nella letteratura come sistemi ~THB<» (von Neumann-Bernays-Godel). Come esempio di sistema 91~0) preferiamo qui riportare il sistema L' impiegato da Godei nel I94o, al quale dovremo riferirei nel paragrafo IV. r. Godei stesso riconosce che il suo sistema è dovuto essenzialmente a Bernays ed è equivalente a una particolare versione del sistema originale di von Neumann. Da un punto di vista formale il sistema di Godei si presenta come una logica applicata del primo ordine con identità, con tre predicati extralogici costanti, due monadici, Cx e Mx rispettivamente per «x è una classe» e «x è un insieme », uno diadico x E y ossia la solita relazione di appartenenza. Godei adotta poi lettere minuscole per indicare insiemi e maiuscole per classi. Si hanno cinque gruppi di assiomi Gruppo A A r. Cx A 2. XEY~Mx A 3· \tx(xEX~xEY)~X = Y A 4· \tx \ty 3z(uEz~(u =x V u = y) Gruppo B (assiomi delle classi) Br. 3A\tx\ty(<x,y>EA~xEy) B 2. \tA\tB3C\tx(xEC~xEAI\xEB) B 3· \fA 3B \tx(xEB~-, xEA) B 4· \t A 3B \t x (xEB~ 3y ( EA) B 5· \tA3B\tx\7)(EBI\xEA) B 6. \fA 3B \tx ~y( <x,y> EB~ EA) B 7· \t A 3B \tx \ty Vz (<x,
portune condizioni che certi « segmenti » di questa gerarchia sono modello della teoria degli insiemi, ossia ne soddisfano gli assiomi. Si tenga ben presente tuttavia che la teoria stessa descrive questi suoi modelli ma non è in grado di dimostrare che essi sono tali.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
c
2. V x 3y Vz \;fu (zEu 1\ UEX~ zEy) C 3· Vx3y(Vz(zEu-tzEx)~uEy)) C 4· VxVA(UnA-t3yVu(u~~3v(vExl\ EA))) Gruppo D (fondazione) 3x (xEA) ~ 3y (yEA 1\ \;fu-, (uEy 1\ uEA)) Gruppo E (scelta) 3A (UnA 1\ V x(~ (yEx) ~ 3z (zEx 1\ < z, x> EA))) 1
3) Logicismo: la «revisione» di Ramsry Le varie critiche che da più parti erano state mosse alla sistemazione dei Principia, in particolare le critiche appuntate contro l'assioma di riducibilità, ma anche quelle concernenti l'enorme complessità della teoria. dei tipi ramificata, o l'indebito privilegio concesso all'implicazione materiale, o ancora l'assunzione degli assiomi moltiplicativo e dell'infinito, per non citarne che alcune, avevano seriamente minato la fiducia degli studiosi nella soluzione logicista; questo naturalmente anche per il graduale imporsi di altre concezioni, l'intuizionista e la formalista, che proponevano di risolvere in modo totalmente diverso quello che era il nodo centrale della speculazione fondamentalista del logicismo, ossia il rapporto fra logica e matematica. Una critica dettagliata e profonda dell'atteggiamento logicista inserita in un contesto filosofico molto ampio e complesso conduce nel 1921 Ludwig Wittgenstein col suo Tractatus logico-philosophicus (Trattato logico-ftlosoftco, edizione inglese, 1922, con prefazione di Bertrand Russell). Non ci tratterremo in particolare su questo autore visto che gli è dedicato il capitolo VIII del volume settimo. Ci basterà qui notare come nella sua opera Wittgenstein proponga in modo dettagliato ed esplicito la teoria delle funzioni di verità, precisando in particolarè il concetto di tautologia e come nella sua opera esponga sostanzialmente la tesi che tutta la matematica possa essere considerata una teoria di identità tautologiche. Ancora ricorderemo come Wittgenstein critichi implicitamente la complessità della teoria dei tipi ramificata dei Principia, facendo alcuni accenni che possono essere interpretati nel senso dell'adozione di una teoria semplice (ossia senza ramificazione in ordini) per la soluzione delle antinomie. Vogliamo piuttosto esaminare il pensiero di un grande matematico, economista, logico e filosofo di marca dichiaratamente logicista, i cui possibili ulteriori contributi furono purtroppo tragicamente bloccati da una morte prematura. r Non staremo a spiegare assioma per assioma, anche perché il lettore dovrebbe essere a questo punto in grado di darne una « lettura » almeno approssimata, di comprendere cioè il significato generale di ogni singolo assioma. Ci limiteremo dunque a chiarire che il simbolo <x, _v> rappresenta la coppia ordinata dei due oggetti x e y, ordinata nel senso che in generale < x, y > #
# < y, x>. Inoltre Un (A) che può leggersi come « la classe A è univoca », esprime la caratteristica «funzionale» di una classe di coppie (relazione) ossia significa che se nella classe A sono contenute due coppie ordinate< x,y > e < w, y > aventi la prima componente diversa e la seconda uguale, allora deve risultare x = w.
2 79
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
Alludiamo a Frank Plumpton Ramsey che, come dicevamo, muove una critica « interna » al logicismo ossia, come dichiara esplicitamente nel saggio The Joundations of ntathematics (l fondamenti della matematica) del 192 5, si propone di «fornire un'esposizione soddisfacente dei fondamenti della matematica secondo il metodo generale di Frege, Whitehead e Russell. Seguendo questi autori io sostengo che la matematica è parte della logica, ed appartengo così a quella che si potrebbe chiamare la scuola logicista in contrapposizione alla scuola formalista e a quella intuizionista ». Oltre che per il suo tentativo di riportare il logicismo all'attenzione degli studiosi, Ramsey è quindi interessante anche per la valutazione che egli dà della situazione delle ricerche sui fondamenti di questo decennio. Quando ad esempio riconosce che il logicismo è in declino, è esplicito: « Ho quindi preso i Principia mathematica come base per la discussione e per una revisione; e credo di aver scoperto come, usando l'opera di Ludwig Wittgenstein, li si possa liberare dalle gravi obiezioni che li hanno fatti respingere dalla maggioranza delle autorità tedesche in materia, che hanno abbandonato l 'approccio russelliano ai problemi della logica. » La matematica pura, sostiene Ramsey, può essere riguardata dal punto di vista delle sue idee o concetti o dal punto di vista delle sue proposizioni. Distinzione essenziale dal momento che la grande maggioranza degli studiosi «hanno concentrato l'attenzione sulla spiegazione dell'una o dell'altra di queste categorie supponendo erroneamente che alla soddisfacente spiegazione dell'una sarebbe immediatamente seguita quella dell'altra». Così i formalisti (Hilbert e la sua scuola) hanno concentrato la loro attenzione sulle proposizioni della matematica col risultato di trame una teoria « disperatamente inadeguata »: i concetti della matematica infatti possono essere chiariti proprio dal fatto che essi « si presentano al di fuori della matematica, nelle proposizioni della vita quotidiana »; da parte loro gli intuizionisti sostengono una teoria che comporta «dichiaratamente la rinuncia a molti dei più fruttuosi metodi dell'analisi moderna, per l 'unica ragione, mi sembra, che tali metodi mancano di conformarsi ai loro pregiudizi privati. » 1 Veniamo ora all'intervento di Ramsey sulla sistemazione dei Principia. I logicisti si sono concentrati sull'analisi dei concetti della matematica e li hanno ricondotti alla logica; ne hanno dedotto che le proposizioni matematiche sono quelle proposizioni vere in cui compaiono solo concetti matematici o logici, giusta la definizione russelliana dei Principi della matematica. Ma la questione non è ancora risolta, a parere di Ramsey, perché Russell è «ancora ben lontano da un'adeguata concezione della natura della logica simbolica a cui era stata ridotta la matematica ». Ora, contrariamente a Russell che riteneva caratteristica delle I Per inciso, questo giudizio pesantemente ironico, se non sprezzante, sugli intuizionisti, mostra bene, da una parte, l'incomprensione che in quel periodo regnava verso di loro; ma mette
anche in evidenza, dall'altra, come fosse ormai necessario rendere «confrontabili>> metodi e risultati di questa scuola con quelli delle altre.
.280
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
propos1z1oni matematiche semplicemente la « completa generalità » ossia ne dava per così dire una caratterizzazione' in termini di contenuto che veniva riportato a una « forma » assunta come intuitivamente data, Ramsey viceversa ritiene che il contenuto delle proposizioni matematiche « deve essere completamente generalizzato e la loro forma deve essere tautologica » dove si vede chiaramente l'intervento del pensiero di Wittgenstein. La contrapposizione non potrebbe essere più netta: « i formalisti trascuravano completamente il contenuto e rendevano la matematica senza significato, i logicisti trascuravano la forma e facevano consistere la matematica in qualunque generalizzazione vera; solo tenendo conto di entrambi i punti di vista e considerando la matematica come composta di generalizzazioni tautologiche noi possiamo ottenere una teoria adeguata ». Ramsey ritiene, rafforzando se possibile la tesi di Wittgenstein, che la matematica consista di tautologie. Se per matematica intendiamo la trascrizione che di essa si fa nei Principia, allora si tratterà di far vedere che le stesse proposizioni fondamentali dei Principia sono tautologie, dal momento che le regole di deduzione ammesse conducono da tautologie a tautologie. La difficoltà è data, come è ovvio, da una parte dall'assioma di riducibilità, che risulta chiaramente essere una proposizione contingente, ossia né una tautologia né una contraddizione; ma anche le altre assunzioni esistenziali prospettano difficoltà che a parere di Ramsey non sono però intrinseche e dipendono piuttosto dal modo di trattare alcuni concetti fondamentali nello sviluppo dei Principia. Ramsey affronta quindi questo problema avendo come mira quella di ridurre un calcolo estensionale come quello di Russell e Whitehead a un calcolo di funzioni di verità. Quali sono allora i difetti che egli ravvisa nei Principia e che vuole evitare grazie alla teoria della tautologia? Essenzialmente i tre seguenti. I) La teoria dei Principia non consente di considerare tutte le classi infinite poiché pretende che ogni classe sia definita da una funzione proposizionale, sicché non possiamo occuparci di classi (o insiemi) infinite, se ne esistono, che non siano definibili o definite da funzioni proposizionali. D'altra parte, osserva Ramsey, anche se non possiamo definirle, è chiaro che a queste classi « indefinibili » si fa necessariamente riferimento in locuzioni quali « per ogni classe » o « esiste una classe tale che » ossia in espressioni quantificate rispetto a simboli di classe. Potremmo certo convenire di limitare il nostro universo del discorso in modo da escludere le classi « indefinibili »; ma così facendo altereremmo in modo essenziale il senso delle locuzioni precedenti. D'altra parte è chiaro che non sarebbe corretto, pena la distruzione della « apriorità e necessità che sono l'essenza della logica», limitarsi a considerare solo classi definibili. Il primo grave difetto dei Principia è proprio quello di non aver considerato la possibilità che esistano classi indefinibili, contravvenendo così, tra l'altro, all'atteggiamento estensionale della· matematica moderna. L'errore consiste « nel dare una definizione di classe che si applica solo alle classi definibili, di modo 281
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
che tutte le proposizioni matematiche su alcune o tutte le classi vengono interpretate in modo scorretto». A questo primo errore è direttamente legato il problema relativo all'assioma moltiplicativo; esso infatti «se rettamente interpretato è una tautologia, ma frainteso al modo dei Principia mathematica diventa una proposizione empirica significante che non vi è ragione di supporre vera ». z) Il secondo difetto dei Principia è il mancato superamento delle antinomie. Abbiamo già descritto come Russell pensasse di superarle tramite la teoria ramificata dei tipi e abbiamo già notato come in effetti quest'ultima consista di due parti che possiamo chiamare la tipizzazione vera e propria e la ramificazione (ordini). Ora, osserva Ramsey, «queste due parti vennero unificate perché erano entrambe dedotte, in modo alquanto approssimativo, dal 'principio del circolo vizioso'». La soluzione che Ramsey propone consiste nel considerare le antinomie distinte in due gruppi. Il gruppo A comprende l'antinomia di Russell, di Burali-Forti, di Cantor ecc. fino alla n. 5, mentre il gruppo B contiene l'antinomia del mentitore, l'antinomia di Richard, ecc., secondo l'elencazione che delle antinomie abbiamo tàtto nel paragrafo rr. r. La distinzione tra i due gruppi avviene sulla base dei seguenti criteri. Le antinomie del gruppo A (che oggi vengono dette, dopo Ramsey, antinomie logiche) sono tali che «se non si prendessero provvedimenti contro di esse si presenterebbero negli stessi sistemi logici o matematici». In esse, si ·noti, intervengono solo concetti logici o matematici e il loro presentarsi significa appunto che ci deve essere « qualcosa di sbagliato» nella logica o nella matematica che noi adottiamo. Le antinomie del gruppo B, viceversa, « non sono puramente logiche e non possono venir enunciate in soli termini logici; poiché tutte contengono qualche riferimento al pensiero, al linguaggio o al simbolismo che non sono termini formali, ma empirici ». l È implicita nel discorso di Ramsey quella distinzione linguaggio fmetalinguaggio oggi generalmente accettata come elemento fondamentale di chiarificazione nella costruzione dei sistemi formali. La ramificazione dei tipi, dalla quale come sappiamo dipende l'assunzione dell'assioma di riducibilità russelliano, potrà cioè essere evitata come parte del sistema, ossia apparterrà alla sfera tJJetalinguistica del sistema stesso, nel quale verrà invece mantenuta la tipizzazione semplice. 3) Il terzo grave difetto che Ramsey riscontra nei Principia è connesso con la definizione di identità. Russell ~ come abbiamo notato - faceva dipendere essenzialmente questa definizione dall'assioma di riducibilità, in quanto assumeva per definizione che due « cose » sono identiche se e solo se hanno in comune le proprietà predicative (dal che poi l'assioma garantiva l'estendibilità a tutte le proprietà). Ora Ramsey ritiene che questa dipendenza non esista e che r È a questo punto che Ramsey accredita a Peano l'aver riconosciuto questa distinzione. Ne
abbiamo parlato, come il lettore ricorderà, alla fine del paragrafo rr.4.
2.82.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
il vero difetto di questa definizione sia analogo a quello già riscontrato per le classi al punto r): si tratta cioè di una interpretazione scorretta dell'identità «in quanto non si definisce il significato per cui il simbolo dell'identità viene effettivamente usato»; e come il primo difetto aveva un'immediata influenza sull'assioma moltiplicativo, questo relativo all'identità riguarda direttamente l'assioma dell'infinito. Vediamo ora brevemente come Ramsey ritiene di poter superare queste difficoltà presentate dai Principia per poter ancora sostenere la possibilità di realizzare il programma logicista. Il punto centrale della sua revisione consiste in una nuova definizione di funzione predicativa (che non va confusa con quella di Russell, che in questo contesto Ramsey chiama elementare). Ramsey parte dalla considerazione che l'essere una proposizione elementare o no (ossia predicativa o no nel senso di Russell) non è una caratteristica reale della proposizione stessa, bensì del suo modo di espressione, vale a dire una stessa proposizione può essere espressa sia come proposizione elementare che come proposizione non elementare. Spostato così l'accento sul momento linguistico-simbolico, si tratta di assegnare per le funzioni di funzioni un campo di simboli che « non è fissato oggettivamente ma dipende dai nostri metodi di costruire simboli ». Per definire questo campo di simboli si può seguire il metodo di Russell, che Ramsey chiama soggettivo, ossia si può definire il campo delle funzioni che possono essere costruite in un certo modo (ad esempio con il semplice uso di un particolare connettivo) oppure si può usare quello che Ramsey chiama il metodo oggettivo e che fa suo; questo secondo modo consiste grosso modo nel trattare le funzioni di funzioni esattamente come si trattano le funzioni di individui; in altri termini Ramsey propone di determinare i simboli che possono essere posti ad argomento di una funzione di funzione « non secondo il metodo della loro costruzione, ma secondo il loro significato ». Con queste premesse, Ramsey introduce il concetto di funzione predicativa intendendo con ciò « una funzione che è una qualsiasi funzione di verità di argomenti che, finiti o infiniti in numero, sono tutti o funzioni atomiche di individui o proposizioni» (corsivo nostro). Si noti che questa definizione dipende in modo essenziale dal concetto di funzione di verità di un numero infinito di argomenti e quindi comprende in modo proprio le funzioni dei Principia che come si ricorderà potevano riguardarne solo un numero finito. È proprio qui che c'è il salto fra il metodo «costruttivo» dei Principia e il metodo «dei significati» di Ramsey. Ramsey mostra che questa sua nozione di funzione predicativa da un lato permette di tener conto di ogni funzione (anche cioè di quelle che non possiamo effettivamente esprimere data la finitezza dei nostri mezzi linguistici) e d'altro lato non porta a contraddizioni. Ciò premesso Ramsey giunge a una gerarchia per tipi e ordini delle funzioni, dove, come al solito, i tipi riguardano gli argomenti mentre, indipendentemente dal tipo, l'ordine riguarda i valori, ma sotto-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
linea« l'essenziale distinzione fra ordine e tipo: il tipo di una funzione è una sua caratteristica reale che dipende dagli argomenti che la funzione può assumere; ma l'ordine di una proposizione o di una funzione non è una caratteristica reale, bensì quella che Peano chiama una pseudofunzione ».A questo punto si dimostra in modo molto simile a quello dei Principia che vengono evitate anche le contraddizioni del gruppo B; ma l'apparente analogia non deve ingannare perché, ribadisce Ramsey, «per me le proposizioni iri se stesse non hanno ordine; sono solo differenti funzioni di verità di proposizioni atomiche - una totalità definita che dipende solo da quante proposizioni atomiche ci sono. Gli ordini e le totalità illegittime intervengono solo con i simboli che usiamo per simbolizzare i fatti in modi variamente complicati ». Col che viene messo in evidenza in che senso il gruppo B di contraddizioni dipenda essenzialmente dalla componente linguistica. Abbiamo sopra accennato all'esistenza di precisi rapporti, secondo Ramsey, di queste tre lacune dei Principia con quelli che sono gli assiomi « critici » della sistemazione di Russell e Whitehead e cioè con l'assioma di riducibilità, l'assioma moltiplicativo e l'assioma dell'infinito rispettivamente. Nella nuova visione di Ramsey la prima difficoltà viene eliminata nel modo più radicale perché la sua introduzione delle funzioni predicative e in estensione rende semplicemente superfluo l'assioma di riducibilità, eliminando come fa dal contesto interno del sistema la ramificazione per ordini che viene a essere una sovrastruttura esterna alla costruzione stessa. Concependo le classi nel suo senso Ramsey mostra come l'assioma moltiplicativo diventi una tautologia, mentre l'accettazione dell'assioma dell'infinito viene a dipendere dal fatto che, nella interpretazione di Ramsey, esso viene ora a esprimere semplicemente che esiste un numero infinito di individui e non, come in Russell e Whitehead, che esiste un numero infinito di individui distinguibili. Grazie all'interpretazione mutuata da Wittgenstein ne risulta che l'assioma stesso o è una tautologia o una contraddizione. In altri termini noi «non possiamo dire nulla» per quanto riguarda il numero degli individui che esistono perché ogniqualvolta tentiamo di farlo scriviamo o una tautologia o una contraddizione. Noi possiamo fare solo asserzioni numeriche su universi limitati, non su tutto l'universo della logica. Dopo questa sommaria presentazione del tentativo effettuato da Ramsey per il recupero della posizione logicista, è opportuno concludere con qualche osservazione, relativa allo stato generale della ricerca sui fondamenti di questo periodo, e quindi al rapporto delle varie scuole fra loro. Almeno in un primo momento Ramsey ritiene ovviamente corretta la tesi logicista, ove su di essa si intervenga con le vedute di Wittgenstein per quanto riguarda quella che abbiamo chiamato la tesi dell'estensionalità. Da una parte infatti egli non riesce a capacitarsi del rifiuto intuizionista del terzo escluso (né nella forma radicale e diretta di Brouwer, né in quella più mediata, ma a suo parere altrettanto mutilan-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
te per la matematica, che ne dà Weyl). Né ammette- su base wittgensteiniana - l'eliminazione delle proposizioni generali ed esistenziali operata da Weyl e alla quale si associa Hilbert. La concezione intuizionista che esse non siano affatto proposizioni e che quindi abbisognino di un substrato costruttivo, o quella formalista secondo la quale in queste proposizioni vanno individuati gli « elementi ideali » della nostra espressione linguistica della matematica non lo soddisfano; ad esse oppone la tesi di Russell (corroborata però dalla visione di Wittgenstein) secondo la quale tutte le proposizioni esprimono accordo o disaccordo con possibilità di verità di proposizioni atomiche, o in altri termini, sono funzioni di verità di proposizioni atomiche. Da questo punto di vista, dal momento che una proposizione universale o esistenziale esprime solo il fatto che una almeno, o tutte, le proposizioni considerate siano vere, non ha alcun valore o alcun peso la circostanza che questo insieme di proposizioni sia finito o infinito. Tuttavia, e in particolare disc;utendo lo status dell'assioma dell'infinito, Ramsey conclude con una nota di pessimismo. A suo parere il problema è posto in questi termini: una giustificazione logica della matematica pura è assai problema ti ca perché « ... Brouwer e Weyl dicono che ciò non è possibile e Hilbert propone di giustificarla come un gioco condotto sulla carta, con segni privi di significato»; d'altra parte ritiene che il suo stesso tentativo di ricostruirt' la teoria di Whitehead e Russell « ... superi molte difficoltà, ma ... è impossibile considerarlo come del tutto soddisfacente ». E questa accennata insoddisfazione si trasforma in un graduale allontanamento dalla posizione logicista. Nel I 929 con l'articolo Mathematics, foundations of (Matematica, fondamenti della) scritto per la q-esima edizione dell'Enciclopedia britannica si può notare un suo ulteriore avvicinamento al finitismo hilbertiano. Va del resto notato che già nell'articolo On a problem of formallogic (Su un problema di logica formale) del 1928 egli aveva preso in considerazione un tipico problema dell'indirizzo formalistico, il problema della decisione del quale aveva risolto un caso particolare facendo ricorso a un risultato assai profondo, oggi noto appunto come teorema di Ramsey, che interviene in numerosi e importanti campi della ricerca contemporanea. 1 r Una formulazione del teorema di Ramsey può essere data come segue. Dato un insieme A, indichiamo con P 2 (A) l'insieme di tutti i sottoinsiemi di A che contengono esattamente due elementi (coppie non ordinate). Allora il teorema afferma che data una scomposizione di P 2 (A) in due insiemi M e N, P 2 (A) = M U N, se A è infinito (il caso finito non offre alcuna difficoltà) è sempre possibile trovare un sottoinsieme infinito Ao diA talecheP2(A 0 )s; MoP2(A0 ) s; N. Ramsey in effetti ne dimostra una versione generalizzata nel senso che assume un numero finito qualsiasi di insiemi « scomponenti » A e i sottoinsiemi di A da lui considerati possono avere qualunque cardi-
nalità finita purché prefissata (considera cioè P n(A) per n finito prefissato qualunque). Come si nota il teorema è una generalizzazione del famoso teorema dei cassetti di Dirichlet, secondo il quale se un insieme viene scomposto in un numero finito di insiemi A 1 , A 2 , ••• An , ossia A = A 1 U A 2 U ... U An , allora almeno uno degli Ai è infinito. Malgrado l'apparente semplicità, il teorema di Ramsey richiede per la sua dimostrazione il ricorso all'assioma di scelta. Oltre all'applicazione indicata da Ramsey stesso, il teorema ne ha di recente ottenute numerose altre in particolare nell'ambito della teoria dei modelli. Inoltre le generalizzazioni del teorema a cardinalità partico-
www.scribd.com/Baruhk
La logica-nel ventesimo secolo (1)
4) Hilbert e la scuola formalista Vogliamo ora riferire brevemente (tenendo ovviamente conto di quanto detto nel paragrafo r) su quell'indirizzo che negli anni venti sembra senza dubbio primeggiare, e che sembra avere le migliori credenziali per risolvere definitivamente il problema dei fondamenti della matematica. Alludiamo alla corrente formalista (anche se formalisti contemporanei, ad esempio Haskell B. Curry (n. I9oo), propongono di chiamarla, più precisamente, hilbertismo) e il primo nome che qui si presenta naturale è ovviamente quello di David Hilbert, di cui abbiamo già visto le prime prese di posizione. In particolare si ricorderà la polemica con Poincaré, originata dalla memoria hilbertiana del I904, a proposito del principio di induzione. Dopo un lungo periodo di silenzio in questo campo, Hilbert riprende la questione dei fondamenti a partire dal I 9 I 7 con Axiomatische Denken (Il pensiero assiomatico), una conferenza tenuta a Zurigo, e in tutta una serie di conferenze e scritti viene precisando sempte più durante questo periodo quelli che sono i tratti fondamentali e caratteristici della sua scuola. Ricordiamo fra gli altri :Neubegriindung der lv!athematik (erste Mitteilung) (Nuova fondazione della matematica, prima comunicazione, da una conferenza a Copenhagen-Amburgo, I922), Die logischen Grundlagen der Mathematik (I fondamenti logici della matetJJatica, I923, da una conferenza a Lipsia del I922), Uber das Unendliche (Sull'infinito, I926, da una conferenza a Miinster del I925), Die Grundlagen der MathetJJatik (l fondatJJenti della tJJatetJJatica, I927, da una conferenza ad Amburgo), ProbletJJe der Grundlegung der MathetJJatik (ProbletJJi della fo11dazione della tJJatetJJatica, I928, da una conferenza a Bologna) e dello stesso anno, in collaborazione con Ackermann, i Grundziige, di cui si è parlato, ove veniva codificata la struttura dei calcoli logici ancor oggi corrente. Particolarmente importante la conferenza sull'infinito, nella quale si ha forse la più completa enunciazione della teoria hilbertiana, come pure il susseguente articolo del I927, a sfondo più polemico nei riguardi degli intuizionisti. Oltre alla versione organica della logica dei Grundziige, Hilbert ha già in preparazione verso la fine del decennio quella che sarà l'esposizione cardinale della Beweistheorie, che si concretizza nei due volumi delle Grundlagen der Mathematik (FondatJJenti della tJJatematica), scritti in collaborazione con Bernays e che vedranno la luce nel decennio successivo, nel I934 e I939 rispettivamente. Oltre ai diretti collaboratori di Hilbert già ricordati, è obbligo menzionare in questo contesto autori come Weyl e Skolem- che hanno nella loro produzione o nel loro atteggiamento di fondo vari punti di contatto con la posizione hilbertiana. Una soddisfacente esplicazione del problema dei fondamenti della maternalari sono alla base della moderna teoria delle partizioni (transfinite) sviluppata in special modo, a partire dagli anni cinquanta, da Pau! Erdos, P. Rado e altri, e che tuttora presenta interessantissimi problemi sia dal punto di vista strettamente matematico, sia da quello fondazionale. Nel contesto della generalizzazione del teorema a cardi-
nali qualunque, si sono definiti i cosiddetti « cardinali di Ramsey » che hanno particolare importanza nello studio degli assiomi forti dell'infinito (si trova ad esempio che ogni cardinale misurabile è un cardinale di Ramsey, ma che il primo cardinale di Ramsev non è misurabile; si veda il · paragrafo v). ·
286
www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
tica passa necessariamente, a parere di Hilbert, attraverso l'analisi e la chiarificazione di quello che è il concetto cardine, la nozione critica in tutto lo sviluppo della matematica: l'infinito. L'Analisi lo aveva solo apparentemente eliminato dalla sua problematica specifica, dopo che da essa erano state bandite le vaghe idee connesse con la nozione di infinitesimale; tuttavia l'infinito rientra ancora nella formulazione delle proposizioni matematiche (in particolare -della stessa Analisi) ogniqualvolta si hanno espressioni che fanno riferimento a tutti i numeri reali o si afferma che esistono numeri reali che godono di date proprietà. Se chiamiamo allora problema dell'infinito quello che appunto consiste nella chiarificazione ed eliminazione di questo concetto dalla matematica, vediamo che tale problema, malgrado gli sforzi degli analisti dell'Ottocento, permane ancora aperto alla critica moderna. Fine della ricerca di Hilbert 1 è quello di far vedere come è altrettanto apparente, è solo una fafon de parler, l'infinito nel senso delle totalità infinite. Anche la via di soluzione del problema è indicata dal processo di rigorizzazione dell'Analisi: come allora si era riusciti a ridurre a operazioni col finito le operazioni con gli infinitesimali, così oggi « i modi di inferenza che
impiegano l'infinito devono in generale essere sostituiti con processi finiti che danno precisamente lo stesso risultato » (corsivo nostro). È questo il proposito della teoria di Hilbert, che si pone così, a suo parere, come naturale continuazione dell'opera di Weierstrass. È, come ognuno vede, l'enunciazione del programma o comunque dell'esigenza finitista che caratterizza appunto il formalismo hilbertiano. Il · massimo tribunale posto a giudicare la correttezza dei nostri comportamenti deduttivi è l'assenza di contraddizione: pena lo scadere in una vuota metafisica, è necessario concedere, secondo Hilbert, che una volta che una nozione sia stata introdotta e non porti a contraddizione tale nozione è fermamente stabilita e acquisita per la matematica. E ciò comporta che « una chiarificazione definitiva della natura dell'infinito è divenuta necessaria, non semplicemente per l'interesse particolare delle singole scienze, ma piuttosto per l'onore dell'intelletto umano stesso». Malgrado scienze naturali quale la fisica, o matematiche come la geometria, portino alla conclusione probabile che la realtà è finita, tuttavia ciò non toglie che « l'infinito abbia un posto ben giustificato nel nostro pensiero » e quindi assuma tutto l'aspetto di un concetto indispensabile. Esempi illuminanti in questo senso sono dati dall'algebra, dalla geometria proiettiva e in particolare dall'Analisi che, a ben guardare, è null'altro che «una sinfonia dell'infinito». Ma la teoria che ci permette di penetrare più a fondo il significato della nozione di infinito è senza dubbio la teoria cantoriana degli insiemi, e in particolare la teoria cantodana dei numeri transfiniti. Hilbert accetta ovviamente la distinzione infinito attuale /infinito potenziale e, con Cantar, ritiene che solo col primo abbiamo a che fare col «vero» infinito. Ma il presentarsi delle antinomie impone l'elaborazione di una nuova teoria, nella fattispecie ovviamente la Beweistheorie, che I
E non solo, in particolare, del discorso Su/l'infìnilo, ma della concezione globale di Hilbert.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
superi le difficoltà (abbiamo già accennato alle obiezioni di Hilbert verso le altre soluzioni). Le motivazioni e i criteri sulla base dei quali egli ha istituito la propria teoria sono duplici: I) è necessario indagare con cura i modi di costituire concetti e i metodi di inferenza fruttuosi; 2) è necessario rendere le inferenze quanto più affidabili (« sicure ») è possibile. Ora, tutto ciò si può ottenere solo a patto di riuscire veramente a chiarire la nozione di infinito. Hilbert accetta quindi un primo principio direttivo, secondo il quale, in accordo con Kant, egli sostiene che « la matematica dispone di un contenuto certamente indipendente da ogni logica e non si può quindi assicurarle una fondazione con i soli mezzi della logica». Abbiamo già visto che con la teoria della dimostrazione si trasforma ogni proposizione matematica in una formula che può essere esibita concretamente; e ciò che in questo procedimento va assunto come dato « sono certo oggetti extralogici che sono intuitivamente presenti come esperienza immediata antecedente a ogni pensiero »; sicché nella teoria della dimostrazione « gli assiomi e le proposizioni dimostrabili ... sono copie dei pensieri che costituiscono la matematica ordinaria come sviluppata sino a oggi». Orbene, se l'inferenza logica deve dare affidamento, deve essere possibile « osservare questi oggetti completamente in tutte le loro parti, e il fatto che essi accorrano, e che essi differiscano l'uno dall'altro e che si susseguano, o siano concatenati, è immediatamente dato in modo intuitivo, assieme agli oggetti, come qualcosa che né può essere ridotta a qualcos'altro, né richiede tale riduzione. Questa è la posizione filosofica fondamentale} il requisito per la matematica e} in generale} per ogni pensiero} comunicazione} comprensione scientifici» (corsivo nostro). Certo la teoria dei numeri può essere sviluppata solo sulla base di considerazioni contenutistiche, ma è altrettanto certo che questo non esaurisce la matematica. Tuttavia si può pensare di ridurre la matematica tutta ad altrettanta sicurezza attenendosi al « modo finitista » di pensare. E ciò si ottiene definitivamente con un secondo principio, in base al quale gli oggetti che consideriamo non hanno in sé alcun significato anche se ovviamente sono posti come significanti qualcosa. Essi servoao solo a comunicare asserzioni. Prendiamo ad esempio il celebre teorema di Euclide che afferma che fra p, intero primo, e p! + I esiste certamente un numero primo. Tale teorema è finitista perché la sua enunciazione può essere evidentemente tradotta nella disgiunzione finita «p + I è primo, oppure p+ 2 è primo, ... , oppure p! + I è primo ». Orbene si fa paradossalmente un « salto » nel transfinito dando una formulazione meno forte di questo teorema, dicendo ad esempio semplicemente: esiste un numero primo maggiore di p; in questo caso infatti la disgiunzione precedente si trasforma in 288
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
una disgiunzione con un numero infinito di termini. Dal punto di vista finitista quindi un'espressione esistenziale della forma 3xPx non è ammissibile; analogamente ci immettiamo nel transfinito negando una proposizione universale, e quindi, dal punto di vista finitista, questa non è un'operazione lecita: nel transfinito non valgono le leggi della logica aristotelica. Ora Hilbert vuole conservare quello che è l'usuale procedere matematico, nel quale appunto si fanno ordinariamente affermazioni esistenziali e si negano proposizioni universali; e vuole allora risolvere le difficoltà sopra prospettate proprio ricordando di essere un matematico. Sicché analogamente alla procedura usata in altre parti della matematica, 1 egli propone di riconoscere, accanto alle proposizioni finitarie, delle proposizioni ideali per «mantenere le regole dell'ordinaria logica aristotelica, formalmente semplici ». La matematica diventa cioè « un inventario di formule, in primo luogo formule alle quali corrispondono le comunicazioni contenutistiche delle proposizioni finitarie (quindi, in massima parte, uguaglianze e disuguaglianze numeriche) e in secondo luogo altre formule che in se stesse non significano niente e che sono gli oggetti ideali della nostra teoria». Già il diverso atteggiamento nei riguardi della portata e dell'importanza della logica classica segna una netta differenziazione con l'atteggiamento intuizionista; in particolare, afferma Hilbert, il terzo escluso «è conseguenza dell'assioma logico sull'e [si veda più avanti] e non ha mai causato il minimo errore »: privare il matematico di questo principio sarebbe come togliere il telescopio all'astronomo. Ma ancora, all'affermazione di Brouwer, il quale « dichiara (proprio come Kronecker) che le proposizioni esistenziali sono in sé prive di significato a meno che esse non contengano anche la costruzione dell'oggetto di cui si asserisce l'esistenza; ... il loro impiego, per lui, fa degenerare la matematica in un gioco», corrisponde una chiarissima enunciazione del significato profondo del formalismo hilbertiano: « il valore delle dimostrazioni puramente esistenziali consiste precisamente nel fatto che loro tramite si possono eliminare costruzioni individuali e molte costruzioni differenti sono sussunte sotto un'idea fondamentale, cosicché risulta chiaramente solo ciò che è essenziale alla dimostrazione; brevità ed economia di pensiero sono la raison d' étre delle dimostrazioni d'esistenza». Si noti che Hilbert parte dalla constatazione che già la matematica elementare contiene due tipi di formule, le reali e le ideali, e da ciò giunge alla concezione delle formule come proposizioni ideali; da una parte il terzo escluso interviene in procedimenti non accettabili dal punto di vista finitista: infatti ad esempio non si può, da questo punto di vista, accettare l'alternativa che una formula generale o è soddisfatta da ogni numero oppure esiste un numero che non la r Ad esempio in algebra, con l'introduzione dei cosiddetti « numeri ideali » o in geo-
metria proiettiva, con l'introduzione dei cosiddetti «elementi impropri» o all'infinito.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
soddisfa, perché ciò equivarrebbe a negare un'asserzione generale. D'altra parte Hilbert, come si è appena visto, non vuole rinunciare alla logica classica e ciò gli viene appunto consentito dall'introduzione delle proposizioni ideali con l'unica condizione di noncontraddittorietà. È la presenza delle proposizioni ideali che comporta la necessità di formalizzare anche le operazioni logiche e la nozione stessa di dimostrazione. È qui di grande importanza il fatto che sia già stato sviluppato un calcolo logico, le cui formule sono a loro volta proposizioni ideali ossia anch'esse vanno private del loro contenuto (significato) originario. Quindi segni logici e matematici, il cui riferimento contenutistico è rimpiazzato dalla pura e asettica manipolazione combinatoria. Questa è la transizione dall'intuitivo al formale che ora resta compiuta definitivamente da una parte dagli assiomi e dall'altra dal calcolo logico (cioè per quanto riguarda il contenuto da una parte e la deduzione dall'altra). Si giunge quindi in modo naturale alla formalizzazione della stessa nozione di dimostrazione, di cui si dà una caratterizzazione ancora oggi corrente e cioè: una dimostrazione è null'altro che una successione finita di espressioni del nostro linguaggio tali che ognuna di esse o sia un assioma o sia ottenuta da espressioni precedenti, sulla base di regole di deduzione formalmente esplicitate. Hilbert può quindi dire che nella sua teoria «l'inferenza contenutistica viene rimpiazzata dalla manipolazione di segni secondo le regole; in questo modo il metodo assiomatico raggiunge quel grado di affidabilità e di perfezione che esso deve possedere se deve divenire lo strumento fondamentale di tutte le ricerche teoretiche ». Per quanto di particolare riguarda l'aritmetica egli assume come assiomi quelli del calcolo proposizionale oltre agli assiomi predicativi che, regolando l'uso dei quantificatori, vengono quindi riguardati come assiomi transfiniti (ideali); a questi si aggiungono ovviamente gli assiomi specifici dell'aritmetica, ad esempio, gli assiomi di Peano. Si osservi che già nel I 92 ~ Hilbert fa notare che gli assiomi transfiniti (i due assiomi predicativi che abbiamo dato nel paragrafo n r. I.) sono entrambi derivabili da un singolo assioma d (a)--+ d (e (d)), 1 dove e è la funzione transfinita di scelta, cioè una funzione che fra tutti gli eventuali individui che soddisfano d, ne sceglie uno. Ora l'impiego degli elementi ideali è soggetto come dicevamo a una sola condizione, quella della coerenza (non contraddittorietà) nel senso che la loro aggiunzione al vecchio dominio non deve comportare contraddizioni. Ma a questo punto la cosa ha un significato ben preciso. Infatti dal principio di contraddizione che Hilbert assume nella forma {d--+ (f!81\---, f!8)}--+---, d si ricava la formula (d--+---, d)--+ f!8, vale a dire, sulla base della regola di separazione: se nella teoria è derivabile una contraddizione, ossia una espressione della forma d 1\---, d per una qualche d, allora è possibile derivare nella teoria qualunque r Questo assioma, dice Hilbert, «contiene il nucleo di uno dei più controversi assiomi della
letteratura matematica, ossia l'assioma di scelta».
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
formula 81, ad esempio la formula I =1- I. Dimostrare allora la coerenza del sistema significherà mostrare che I =1- I non è una formula dimostrabile. È chiaro che nel caso particolare dell'aritmetica è necessario ricorrere a una dimostrazione diretta di questo tipo, non essendo ulteriormente possibile applicare il metodo di «scaricare» la questione verso l'aritmetica stessa, metodo che tanti servigi aveva reso per altre teorie (geometria, fisica, ecc.). La Beweistheorie non è solo importante per la matematica, ma, ritiene Hilbert, per problemi generali di carattere fondazionale: « come esempio del modo con cui si possono trattare le questioni fondazionali, voglio scegliere la tesi che ogni problema può essere risolto ... Infatti, in matematica non esistono ignorabimus. Ora la mia teoria della dimostrazione non può specificare un metodo generale per risolvere ogni problema matematico; un tale metodo non esiste. Ma la dimostrazione che l'assunzione della risolubilità di ogni problema matematico è consistente rientra nel] 'ambito della nostra teoria. » Questa ipotizzata possibilità di risolvere tutti i problemi matematici, nella quale è facile vedere da parte intuizionista un ulteriore asserzione equivalente del principio del terzo escluso, sarà un altro punto di insormontabile attrito tra le due posizioni, come presto vedremo. Ma per terminare questa presentazione delle idee di fondo di Hilbert per quanto riguarda la sua teoria della dimostrazione, vogliamo ricordare come a partire da concezioni che riecheggiano chiaramente (con la mediazione kantiana) le problematiche booleane relative alle «leggi del pensiero» particolarmente evidenti ad esempio quando Hilbert afferma che « l'idea fondamentale della ... teoria della dimostrazione è null'altro che descrivere l'attività del nostro intelletto, di fare un protocollo delle regole secondo le quali procede effettivamente il nostro pensiero »; a partire dicevamo da concezioni di questo tipo, Hilbert si ritiene in questo periodo già in condizione di poter anticipare quella che sarà la « soluzione finale » delle ricerche sui fondamenti: « la matematica è una scienza senza ipotesi. Per provarlo non ho bisogno di dio, come fa Kronecker, o dell'assunzione di una speciale capacità del nostro intelletto relativa al principio di induzione matematica come fa Poincaré, o dell'intuizione originaria di Brouwer o, infine, come fanno Russell e Whitehead, degli assiomi dell'infinito, di riducibilità, o di completezza, che in effetti sono assunzioni contenutistiche che non possono essere giustificate con una dimostrazione di consistenza. » Per quanto riguarda le acquisizioni specifiche della Beweistheorie, è Ackermann che sfrutta in particolare la teoria dell'operatore r:: e ritien~ di aver dimostrato per suo mezzo in Begriindung des tertium non datur mittels den Hilbertschen Theorie der Widerspruchfreiheit (Fondazione del tertium non datur per mezzo della teoria hilbertiana della noncontraddittorietà, 1927) la coerenza dell'Analisi; successivamente si accorge di aver commesso un errore nella dimostrazione e il risultato viene ridimensionato nello stesso anno da von Neumann nell'articolo Zum Hilbertschen Beweistheorie (Per la teoria della dimostrazione di Hilbert), nel quale
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dà una dimostrazione di noncontraddittorietà per un sistema ristretto, ossia l'aritmetica senza induzione, o meglio con l'induzione limitata a proprietà particolari, la cui espressione linguistica non contenga quantificatori (proprietà, in altri termini, che non si riferiscono alla totalità dei numeri naturali). Già sulla base di questi risultati parziali, come si è più volte accennato, i formalisti - ma sostanzialmente il mondo matematico in generale - pur con le dovute cautele nutrivano serie speranze (peraltro motivate) per l'esito finale della loro impresa, come mostrano chiaramente le seguenti parole di von Neumann, scritte nel 1930: «Malgrado la consistenza della matematica classica non sia ancora stata dimostrata, una tale dimostrazione è stata trovata per un sistema matematico alquanto più ristretto, che è strettamente correlato a un sistema che Weyl aveva proposto prima della concezione del sistema intuizionista, ma più ristretto della matematica classica. Così il sistema di Hilbert ha superato il primo test di efficacia: è stata stabilita con metodi finitari costruttivi la validità di un sistema matematico non finitario, non puramente costruttivo. Se qualcuno riuscirà ad estendere questa garanzia al sistema più impegnativo e importante della matematica classica, potrà dirlo solo il futuro. » Una posizione in certo senso intermedia tra Hilbert e Brouwer, e che conviene qui richiamare, assume Hermann Weyl, che già nel 1918 in Das Kontinuum, kritische Untersuchungen iiber die Grundlagen der Ana!Jsis (Il continuo. Ricerche critiche sui fondamenti dell'Analisi) si era decisamente pronunciato per una « restrizione » dell'Analisi, avendo riconosciuto insuperabile la difficoltà legata alla predicatività; qualificava infatti l'analisi impredicativa (nella quale cioè siano ammessi procedimenti o definizioni impredicative) come « una casa costruita sulla sabbia» in un sorta di «paradiso dei logici». Weyl è convinto che il fondamento ultimo del pensiero matematico sia «la rappresentazione dell'iterazione, della successione dei numeri naturali » e identificata l'eccellenza della matematica stessa nel fatto « che in quasi tutti i suoi teoremi ciò che è per sua natura infinito viene ricondotto a una decisione finita», ribadisce che «questa infinità dei problemi matematici riposa però sul fatto che la successione dei numeri naturali e il concetto di esistenza che ad essa si riferisce ne costituiscono la base ». Come si vede, una posizione decisamente orientata verso il neointuizionismo brouweriano, che tuttavia si sviluppa in modo assai originale, con la creazione di due sistemi di Analisi predicativa che non è possibile qui descrivere compiutamente. Ci limitiamo a osservare che intuitivamente questi due sistemi 1 vengono edificati a partire da un « dominio operativo » costituito da un certo numero di categorie fondamentali di enti, per i quali sono date determinate proprietà e determinate relazioni primitive. A partire da questi dati si costituisce la teoria tramite: un processo logico « che consiste nel generare, a partire da un dato stock r Il primo dei quali è « sostanzialmente equivalente alla teoria ramificata dei tipi senza
assioma di riducibilità e l'altro assai più debole» (Casari). ·
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
iniziale di proprietà e relazioni primitive che si riferiscono agli enti di determinate categorie iniziali, tutta una gamma di nuove proprietà e relazioni riferite agli stessi enti » (Casari); e un processo matematico attraverso il quale « si può passare - a partire da un certo insieme di proprietà e relazioni, riferite a certi enti - alla costituzione di nuove entità ideali» (Casari). Nel 1927 tuttavia in Diskussionbemerkungen zu dem zweiten Hilbertschen Vortrag [1927] iiber die Grundlagen der Mathematik (Commenti sulla seconda conferenza di Hilbert sui fondamenti della matematica) assume una posizione più mediata nel senso che pur difendendo Brouwer da alcune critiche di Hilbert, egli mette in evidenza nel contempo la portata e il significato dell'approccio hilbertiano. In particolare, 1) si oppone ad Hilbert (in favore dell'intuizionismo, ma sostanzialmente di Poincaré) sulla questione della giustificazione dell'induzione matematica; non stima cioè soddisfacente la risposta di Hilbert a Poincaré, malgrado veda parecchi punti di convergenza fra i due; 2) concorda con Brouwer nel concepire la matematica come costituita da « proposizioni reali >> e ritiene che egli abbia visto per primo « esattamente e in tutta la sua portata come in effetti ci si era ovunque allontanati dai limiti del pensiero contenutistico»; 3) concorda tuttavia con Hilbert nell'ammettere la possibilità di trattare con proposizioni ideali tramite le quali la matematica va al di là « di stati di cose intuitivamente accertabili». Ci sembra infine che le seguenti parole conclusive di Weyl ben rispecchino e l'atteggiamento generale del periodo e la sua propria posizione: « Se le vedute di Hilbert prevarranno sull'intuizionismo, come sembra in effetti debba avvenire, allora vedo in ciò un difetto decisivo dell'attitudine filosofica della fenomenologia, che così si dimostra insufficiente per la comprensione della scienza creativa anche nell'area della conoscenza che è la più primaria e la più aperta all'evidenza, la matematica.» Per finire, non si può passare sotto silenzio l'attività, in questo contesto, del norvegese Thoralf Skolem. Abbiamo già incontrato questo pensatore, che opera sostanzialmente isolato, nel paragrafo m.2, a proposito della teoria degli insiemi; e abbiamo già avvertito che lo incontreremo ancora nei prossimi paragrafi. Qui vogliamo brevemente considerarlo da due punti di vista: uno - sostanzialmente già toccato - riguarda la sua specifica e operativa tendenza alla «rottura» della grande logica; l'altro invece è collegato più strettamente al finitismo hilbertiano (e a successive ricerche specifiche) attraverso le idee da lui avanzate nell'articolo Begrundung der elementaren Aritmethik durch die rekurrierende Denkweise ohne Anwendung scheinbarer Veriindlichen mit unendlichen Ausdehnungsbereich (Fondazione dell'aritmetica elementare per mezzo del modo ricorsivo di pensare, senza l'impiego di variabili apparenti varianti su domini infiniti), pubblicato nel 1923, ma scritto per sua esplicita dichiarazione già nel 1919, «dopo aver studiato l'opera di Russell e Whitehead » ossia i Principia. In questo articolo Skolem presenta un nuovo possibile modo di sviluppare
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
l'aritmetica eliminando in certo senso alla radice la nozione stessa che produceva i paradossi ed era responsabile della complessità della teoria ramificata dei tipi intesa ad evitarli: la nozione di totalità (attuale) infinita, o, linguisticamente, l'impiego dei quantificatori illimitati per variabili individuali. Ecco come lo stesso Skolem presenta il suo piano di lavoro: «Se consideriamo i teoremi generali dell'aritmetica come asserzioni funzionali e assumiamo come base il modo ricorsivo di pensare, allora questa scienza può essere fondata in modo rigoroso senza l'uso delle nozioni 'sempre' [tutti] e 'qualche volta' [almeno uno] ... si può assicurare una fondazione logica per l'aritmetica senza l'uso di variabili logiche apparenti. In verità sarà spesso vantaggioso introdurre variabili apparenti, ma richiederemo che queste variabili varino solo su domini finiti, e per mezzo di definizioni ricorsive saremo allora sempre in grado di evitare l'uso di tali variabili. » Naturalmente l'impiego delle sole variabili libere o «reali» come le abbiamo a suo tempo chiamate (o di variabili apparenti vincolate da quantificatori limitati) diminuisce di molto la « potenza espressiva » del linguaggio impiegato (che noi possiamo assumere essere un linguaggio elementare per l'aritmetica): ad esempio si può esprimere e dimostrare che esistono infiniti numeri primi servendoci del teorema di Euclide ricordato qualche pagina addietro perché esso afferma per ogni numero primo dato l'esistenza di almeno un altro numero primo entro limiti numerici precisati; ma non potremo ad esempio esprimere che esistono infinite coppie di primi gemelli (ad esempio, (5,7), (II,13) ecc. ossia primi della forma (p, p z)). Orbene Skolem tenta di ridurre questa limitazione impiegando schemi ricorsivi per l'introduzione di nuove funzioni o relazioni e impiegando nelle dimostrazioni l'induzione matematica come, regola, ossia ammettendo conclusioni della forma P(x) ogniqualvolta si siano verificate le premesse P( o) e P(x) ~ P(x').l Appunto questo è ciò che Skolem chiama il « modo ricorsivo di pensare » ed il sistema basato su questi principi è grosso modo quello che oggi noi diciamo aritmetica ricorsiva primitiva. La verificabilità e costruttività intrinseca del metodo portano Skolem (e lui stesso lo. dichiara, anche se ribadisce l'indipendenza) assai vicino all 'intuizionismo; in effetti tuttavia l'aritmetica primitiva ricorsiva è ancor più ristretta dell'aritmetica intuizionista e il suo accentuato carattere finitista la porta più precisamente nell'ambito di una concezione hilbertiana. E Hilbert e Bernays che nel 1 volume della loro Grundlagen danno un'ampia esposizione delle idee di Skolem, riconoscono che il contesto appropt:iato per la formalizzazione del discorso metamatematico (in altri termini, il discorso contenutistico e «sicuro») è proprio l'aritmetica ricorsiva primitiva di Skolem.
+
1 Un esempio di definizione ricorsiva è quello di somma dato dalle equazioni x + o = x; (x + y') = (x + .Yl'· Ancora, la relazione « < » fra numeri naturali viene di solito definita come segue: x 3z (x+ z =.J!); il quantificatore può essere eliminato mediante la definizione ri-
corsiva; x
www.scribd.com/Baruhk
...
La logica nel ventesimo secolo (r)
Ma avremo occasione di interessarci più da vicino dell'argomento nel paragrafo IV.
5) Brouwer e la scuola intuizionista Abbiamo già delineato le posizioni di Brouwer e il suo intervento nei primi anni del secolo, nelle discussioni sui fondamenti della matematica. Negli anni venti la produzione scientifica di Brouwer è copiosissima e da una parte è diretta alla presentazione di tutta una serie di concetti e risultati della matematica intuizionista, dall'altra a una vigorosa polemica contro la concezione hilbertiana in tema di fondazione della matematica (abbiamo visto come il logicismo fosse ormai, in certo senso, «sconfitto»). In questo periodo il senso della polemica riceve per così dire una prima possibilità di precisazione che verrà definitivamente « canonizzata », come vedremo, negli anni trenta, pur se in una situazione del tutto diversa per quanto riguarda la Beweistheorie. Il fatto nuovo è rappresentato dal primo tentativo di formalizzazione del calcolo intuizionista avvenuto nel 1925 ad opera di Andrei Nikolaevich Kolmogorov (n. 1903) con l'articolo Sul principio del" tertium non dc.tur ".Va anche detto subito che Brouwer guardò con sospetto questo primo tentativo e non cambiò atteggiamento neppure riguardo ai successivi lavori in questo senso di Heyting negli anni trenta e che noi vedremo in un prossimo paragrafo; a quella sede rimandiamo anche una succinta presentazione dei concetti fondamentali della matematica intuizionista, limitandoci qui a ribadire le posizioni di Brouwer in particolare appunto nei riguardi del formalismo, e quindi ad esporre il lavoro di Kolmogorov. Si ricorderà che il momento fondamentale del pensiero di Brouwer, che fa sì che la sua posizione sia tanto originale e « scomoda », nel contesto delle ricerche sui fondamenti, è che oggetto della matematica sono degli elementi che richiedono una forma particolare di logica: si tratta precisamente delle costruzioni (matematiche) mentali. La matematica si identifica con la parte esatta del nostro pensiero e la sua unica fonte è l'intuizione, da non intendersi quest'ultima in senso metafisica o mistico, bensì come capacità di considerare separatamente determinati concetti e conclusioni che intervengono normalmente nel nostro pensare abituale. In particolare, ogni teorema logico non è che un teorema matematico di estrema generalità: vale a dire, la logica è una parte della matematica e non può quindi 1n alcun modo servire per la fondazione di quest'ultima. Questa convinzione di fondo, che ha riflessi immediati sulla concezione brouweriana dell'esistenza degli enti matematici,! comporta inoltre tutta una serie di prese di posizioni estremamente originali, relative alla logica e al linguaggio, e che da una parte rendono la concezione intuizionista estremamente suggestiva, dall'altra tutto sommato difficilmente confutabile. I Si ricordi che il programma brouweriano riguarda proprio l'indagine delle costruzioni matematiche mentali in quanto tali, senza riferimento
alle questioni relative alla natura degli oggetti costruiti, come se questi oggetti esistessero indipendentemente da noi.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Per quanto riguarda il linguaggio, la matematica ne è in linea di principio indipendente, e questo per il semplice motivo che il pensiero di un'entità e la costruzione mentale non hanno alcun bisogno di essere connesse con espressioni linguistiche. Ovviamente il linguaggio mantiene il suo alto valore di comunicazione delle esperienze matematiche dei diversi ricercatori, ma quel che in definitiva conta è proprio il sistema matematico che ogni singolo ricercatore edifica per così dire nella sua mente. Nell'atto çlella comunicazione linguistica agli altri, nessun linguaggio può garantire da malintesi, fraintendimenti od errori intrinsecamente connessi appunto a ogni forma di espressione linguistica. In altri termini, non esiste un linguaggio non equivoco per la matematica. Su questo tema della separazione netta fra matematica e linguaggio, che è peculiare della concezione brouweriana, ecco cosa lo stesso Brouwer dice, in una conferenza tenuta nel marzo 1928 dal titolo Mathematik, Wissenschaft und Sprache (Matematica) scienza e linguaggio): «Non esiste quindi anche per la matematica pura nessun linguaggio sicuro 1 ossia nessun linguaggio che escluda il presentarsi di fraintendimenti e che con l'accuratezza assicuri la libertà dall'errore (ossia dallo scambio di entità matematiche diverse). Né si può migliorare questa circostanza sottoponendo, come fa la scuola formalista 1 a una considerazione matematica la stessa lingua matematica (cioè il sistema di segni che serve ad altri uomini per nominare costruzioni di matematica pura), attribuendole con manipolazioni l'adeguatezza e la stabilità di uno strumento materiale o di un fenomeno della scienza esatta e si riferisca di essa in una lingua di secondo ordine o superlingua. E infatti, in primo luogo questa superlingua (poiché si riferisce a un insieme finito e dominabile di oggetti concreti e alla matematica pura di un sistema finito da essi astratta) può certo, grazie all'uso della lingua matematica, mettere al riparo da errori o fraintendimenti; ma proprio per l'essenza stessa della lingua non con sicurezza assoluta; in secondo luogo, anche se si verificasse appunto la certezza assoluta non sarebbe per nulla eliminata la possibilità di fraintendimenti nei riguardi delle pure costruzioni matematiche alluse attraverso una tale lingua matematica esatta. » In altri termini, l'intuizionista non è interessato al lato linguistico formale della matematica, ma soltanto a quel tipo di ragionamento che appare in matematica. Ne risulta immediatamente, come meglio vedremo in queste pagine, l'impossibilità di una convergenza fra formalismo e intuizionismo sulla base di una formalizzazione della matematica intuizionista. Se infatti si intende la formalizzazione come un linguaggio per la matematica, non si eliminano, per la natura stessa generale del linguaggio, possibilità di errori o malintesi; se invece per formalizzazione si intende una struttura matematica particolarmente semplice, allora sorge il pericolo che il sistema formale non sia in grado di rappresentare pienamente il dominio della matematica, con la conseguente necessità di ampliare il sistema ogniqualvolta si è messi di fronte a una nuova scoperta. La questione ci porta direttamente anche all'altro aspetto caratteristico della
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
pos1z10ne intUlZlOnista, che riguarda appunto il rapporto tra logica e matematica. Infatti a parere di Brouwer questa fiducia dei formalisti nei poteri «magici» del linguaggio deriva dalla loro convinzione circa la completa e indubitabile validità della logica classica. Tale fede ha un'origine molto antica, sulla base della quale sono state storicamente messe in evidenza alcune forme privilegiate di passaggi da proposizioni a proposizioni, che sono poi state cristallizzate nei cosiddetti principi logici, quali ad esempio il principio di identità, il principio di contraddizione, il principio del terzo escluso e il principio del sillogismo. Ora questi principi assolvono pienamente la loro funzione se impiegati a livello linguistico ordinario o anche in un linguaggio scientifico le cui asserzioni siano tuttavia « controllabili ». Ma si passa poi da ciò al caso nel quale le proposizioni ottenute tramite tali principi vengono considerate come acquisite proprio solo in forza dei principi stessi, ossia anche quando esse non siano suscettibili di essere vagliate attraverso un controllo diretto. E questo in particolare avviene proprio nel caso del principio cruciale per Brouwer, il principio del terzo escluso, al quale si accorda questa fiducia anche « ... nella forma estesa secondo la quale un evento precedente viene assunto come avvenuto non soltanto sulla base dell'assurdità, ma anche semplicemente dell'impossibilità pratica di trovare un'altra spiegazione per un fatto da stabilirsi». In definitiva, la fiducia accordata ai principi logici, e in particolare al principio del terzo escluso, trae in effetti la sua ragion d'essere dal carattere essenzialmente finito dell'organizzazione della conoscenza umana, e trova soltanto in ciò la sua giustificazione ultima. In altri termini la logica umana è finita, i suoi principi valgono senza limitazioni solo nel caso in cui si applichino a sistemi di qualunque tipo ma finiti: per poter attuare un'estensione di tali principi al caso infinito si rende necessaria una verifica della loro validità; e questo riesame mostra in particolare che il principio del terzo escluso non presenta questa validità universale. Accettare quindi in generale tali principi senza alcuna verifica, estendere con leggerezza la loro portata dal finito all'infinito comporta e contraddizioni ben note (che secondo Brouwer non possono essere eliminate mediante una semplice « rielaborazione » degli assiomi) e l'introduzione nella matematica di «proposizioni ideali» che dal punto di vista della concezione contenutistica brouweriana sono semplicemente null'altro che «parole vuote». In definitiva, per quanto riguarda il rapporto della logica con la matematica, dal punto di vista intuizionista le conclusioni di un ragionamento non derivano dall'impiego di schemi logici prefissati e cristallizzati, ma si impongono, per così dire, per la loro stessa evidenza (è chiaro che gli schemi logici possono, peraltro avere una loro importanza per sistematizzare la materia, cosa però questa che Brouwer afferma con una certa reticenza). Ne risulta che da un lato la matematica è del tutto indipendente dalla logica, dall'altro che la logica matematica è null 'altro che una matematica applicata.
297 www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Vediamo con un esempio, che prendiamo da Heyting, una giustificazione della non validità del terzo escluso. Consideriamo le due definizioni: I) k è il massimo numero primo tale che anche k - I è primo, oppure k = I se tale numero non esiste; n) l è il massimo numero primo tale che anche l - z è primo, oppure l = I se tale numero non esiste. Si vede subito che I) è una definizione «costruttiva», ossia permette di individuare effettivamente il numero che definisce (in questo caso k = 3), mentre per l'intuizionista n) non è una definizione (non individua cioè il numero l), perché non sappiamo se il numero delle coppie di numeri primi gemelli è finito o no; se tuttavia si ammette il terzo escluso (come appunto fa il matematico «classico») la successione di primi gemelli (p, p + z) risulta necessariamente finita o infinita e quindi anche la n) definisce senza ambiguità un numero (indipendentemente dal fatto che noi sappiamo dire o no di quale numero si tratti). Si vede anche chiaramente come H punto centrale della filosofia della matematica sia anche per Brouwer il problema dell'esistenza degli enti matematici. Se la matematica è un'attività mentale che per quanto connessa ad operazioni formali non può assolutamente essere assorbita ad esse, gli oggetti matematici saranno soltanto costruzioni mentali che il soggetto conosce per introspezione. Due - abbiamo visto - sono i fondamenti di questa filosofia: noi sappiamo che possiamo pensare a entità separate le une dalle altre e sappiamo che siamo capaci di pensare successioni indefinitamente protraentesi di tali entità. Queste nozioni sono immediatamente presenti alla nostra mente, non abbisognano di alcuna spiegazione o fondazione; esse sono la «sorgente» del concetto di numero naturale e « la matematica comincia dopo che sono stati costituiti i concetti di numero naturale e di uguaglianza fra numeri naturali». L'assioma di induzione completa va riguardato come un teorema generale (di immediata e semplice « dimostrazione » intuizionista) sui numeri naturali, e tutti gli altri assiomi di Peano sono semplicemente evidenti. È quindi questa nozione elementare di numero naturale che l'intuizionista assume come fondamentale per la sua matematica, considerandola come una nozione familiare e nota a ogni « creatura pensante», sulla base della quale effettuare costruzioni (matematiche) mentali. Per tale nozione gli intuizionisti non reclamano « alcuna forma di certezza o di definitezza in senso assoluto, che sarebbe irrealizzabile », ma sostengono che essa «è sufficientemente chiara per costruirvi sopra la matematica». In particolare allora un teorema matematico viene a esprimere un fatto puramente empirico: esso afferma che è stata effettuata una certa costruzione. Come abbiamo già avvertito, rimandiamo a un prossimo paragrafo la presentazione di concetti fondamentali della matematica intuizionista. Prima di esporre l'accennato lavoro di Kolmogorov, per quanto in parti-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
colare riguarda il rapporto intuizionismo /formalismo (che ha tutto sommato in questi anni tutto l'aspetto di un «dialogo» fra sordil vogliamo ricordare che nel I927 Brouwer nell'articolo lntuitionistische Betrachtungen iiber den Formalismus (Considerazioni intuizioniste sul formalismo) propone quattro punti che, ove fossero accettati, porrebbero fine alla diatriba sui fondamenti e renderebbero il propendere per l'intuizionismo o per il formalismo solo «una questione di gusto ». Mette conto di riportare - con minime modificazioni rispetto al testo brouweriano - t quattro punti in questione ( « intuizioni» li chiama Brouwer). I) « La differenziazione, nei lavori formalistici, fra una costruzione dell' 'inventario delle formule matematiche' (visione formalistica della matematica) e una teoria intuitiva (contenutistica) delle leggi di questa costruzione, col riconoscimento inoltre che per quest'ultima teoria è indispensabile la matematica intuizionista dell'insieme dei numeri naturali. » 2) «Il rifiuto dell'applicazione meccanica del principio del terzo escluso e il riconoscimento: I) del fatto che l'indagine delle basi giustificative del principio in questione e del suo ambito di validità costituisce un argomento essenziale delle ncerche sui fondamenti della matematica; 2) del fatto che nella matematica intuitiva (contenutistica) questo principio è valido solo per sistemi finiti. » 3) «L'identificazione del principio del terzo escluso col principio della risolubilità di ogni problema matematico. » 4) «Il riconoscimento del fatto che la giustificazione (contenutistica) della matematica formalistica per mezzo della dimostrazione di consistenza contiene un circolo vizioso, poiché questa giustificazione si fonda sulla correttezza (contenutistica) della proposizione che dalla consistenza di una proposizione segua la correttezza della stessa, ossia sulla correttezza (contenutistica) del principio del terzo escluso. » Dopo che Brouwer mostra, con precise citazioni testuali, che le prime due di queste «intuizioni» sono sostanzialmente accettate nella letteratura formalistica ritiene che anche il terzo punto sia sostanzialmente aperto (il lettore confronti le parole di Hilbert in proposito alla fine del paragrafo nr.4) vale a dire dal suo punto di vista - suscettibile di « ripensamento » da parte di Hilbert. È chiaramente il quarto punto quello cruciale, sul quale (a parte forse il caso isolato di von Neumann) i formalisti non sono disposti a cedere; solo due anni prima Hilbert aveva decisamente affermato: «No, se giustificare una procedura significa qualcosa di più che dimostrare la sua consistenza, ciò può solo significare determinare se la procedura stessa assolve i compiti per i quali è istituita. » I Dice Heyting, presentando i due come avversari irriducibili: « Come Brouwer non poteva sopportare di vedere la matematica, questo gioiello prezioso dello spirito, divenire un gioco di segni privo di significato, analogamente era impossibile per Hilbert sacrificare le più belle
parti di questo maestoso edificio a una mania di sottigliezza. » In effetti non poche discussioni erano sterili in quanto a termini linguistici uguali venivano dati spesso, dalle due parti, significati radicalmente diversi.
2 99
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Per concludere, almeno per ora, quello che era l'aspetto in definitiva puramente « verbale » della polemica - prima cioè che intervenissero precisi e rigorosi risultati a privarla di molto del suo contenuto - niente ci sembra più appropriato delle parole con cui Brouwer termina l'articolo del '27: « ... Il formalismo non ha ricevuto che benefici dall'intuizionismo e ancora ne può attendere per il futuro. La scuola formalistica dovrebbe quindi accordare un certo riconoscimento all'intuizionismo, invece di polemizzare contro di esso con accenti beffardi... Inoltre la scuola formalistica dovrebbe riflettere sul fatto che nel contesto del formalismo finora non è stato propriamente garantito nimte della matematica (poiché, dopo tutto, la dimostrazione matematica di consistenza per il sistema di assiomi manca, oggi come ieri) mentre l'intuizionismo ... ha già innalzato di bel nuovo molte delle teorie matematiche con certezza al di fuori di ogni dubbio. Se dunque la scuola formalista ... qualifica come modesto l'intuizionismo dovrebbe ... non essere ad esso inferiore in questo riguardo. » Veniamo ora brevemente all'articolo di Kolmogorov che, come si è più volte detto, consente per la prima volta di stabilire un concreto collegamento fra l'intuizionismo brouweriano e le altre concezioni (in particolare, ovviamente, con il formalismo ì al di là delle enunciazioni verbali dei vari programmi. Kolmogorov prende le mosse da un sistema ,5 1 di logica proposizionale classica, presentato da Hilbert inDie logische Grundlagen der Mathematik (I fondamenti logici della matematica, I 92 3), consistente e completo e costituito dai sei assiomi I) P-+ (q-+ p)
2) {P-+(P-+q)}->(P-+q) {P-+(q-+r)}-+ fq-~(p-+r)J 4) (q-+r)-+ f(p-+q)-+(P-+r)J 3)
5) P-+(---,p-+q) 6) (p-+q)-+ f(---,p-+q)-+q}
~
a,,iomi deli 'implicrudone
assiomi della negazione
con le regole di separazione e sostituzione. Ora, volendo Kolmogorov stabilire « una logica generale del giudizio » ritiene necessario disporre di principi (assiomi) che possano applicarsi a ogni e qualunque giudizio (da lui qui inteso semplicemente come proposizione) e che quindi debbono essere costituiti senza fare appello a nessun'altra proprietà dei giudizi stessi che non sia quella fondamentale stabilita già da Aristotele: il poter essere considerati dal punto di vista della verità o falsità. Ciò posto (dando un primo accenno a possibili interpretazioni intuizioniste dei connettivi), riconosce la validità per questa logica generale dei primi 4 assiomi di ,5 1 . 1 Le cose non r Essi costituiscono un sistema positivo implicazionale e Kolmogorov si chiede nel suo articolo (lasciando aperta la questione) se tale sistema sia completo, ossia se tutte le implicazioni
tautologiche positive (cioè senza negazione) possano essere ottenute a partire da quei quattro assiomi. Oggi sappiamo che la risposta alla questione è negativa, in quanto per ottenere un si-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
stanno così per la negazione; questo connettivo (applicato a un giudizio) può essere interpretato, dice Kolmogorov, in due modi: I) come proibizione di considerare quel giudizio come vero; z) pensando il giudizio come l'attribuzione di un predicato a un soggetto, come l'affermazione che il predicato è incompatibile col soggetto. Nell'ambito della logica generale che Kolmogorov vuol costruire solo la prima interpretazione è corretta; 1 ma «l'usuale tradizione in logica è stata quella di passare dalla prima interpretazione alla seconda, riguardata come più primitiva. Nell'applicazione ai giudizi matematici ciò risulta essere impossibile ». Ne discende che nessuno dei due assiomi della negazione del sistema ,5 1 può essere mantenuto (si noti che il secondo esprime proprio la legge del terzo escluso). Egli allora propone un sistema lB (da Brouwer) costituito dai primi 4 assiomi di Hilbert con l'aggiunta dell'unico assioma (7) (p --+ --+q)--+ {(p--+----. q) ~----.p} , che è adeguato appunto alla prima interpretazione sopra data (in breve: assurdità) della negazione. 2 Ora egli indica con .5 (da Hilbert) il sistema costituito dagli assiomi I, z, 3, 4, 7, 8; si ha così il vantaggio che il sistema .5 viene ottenuto « dal sistema lB della logica generale dei giudizi con la sola aggiunta dell'assioma della doppia negazione; ciò facilita considerevolmente ulteriori ricerche». Il sistema lB di Kolmogorov non coincide con quello che darà Heyting qualche anno dopo, ed è oggi noto come sistema minima/e. Kolmogorov non si preoccupa di dare una analoga versione completa della logica dei predicati intuizionista, malgrado dalle considerazioni che svolge in proposito si possa facilmente ottenere quello che sarà il sistema di Heyting salvo un assioma (e precisamente l'assioma 5 di Hilbert che Heyting invece accetterà). Va comunque osservato che l'idea veramente centrale ed estremamente importante che muove il lavoro di Kolmogorov consiste nel prospettare (anche se in modo non sempre limpido ed esplicito) la possibilità di una traduzione della matematica classica nella matematica intuizionista. Ancor oggi, osserva Hao Wang «ciò non è stato stabilito con certezza per quanto riguarda l'Analisi classica e la teoria degli insiemi. D'altra parte, non sembra irragionevole affermare che Kolmogorov prevedeva che il sistema della teoria dei numeri classica è traducibile nella corrispondente teoria intuizionistica e quindi è intuizionisticamente consistente ». Riprenderemo questo argomento nel prossimo paragrafo IV.
stema completo occorre aggiungere ai quattro assiomi un ulteriore principio, detto legge di Peirce: ((p---+ q)---+ p)---+ p. r Essa, come dice Kolmogorov, fu introdotta per la prima volta da Brouwer nel 1923. Questi definisce « la negazione come assurdità » e si fonda sulla seconda interpretazione « poiché per derivare un giudizio negativo riducendolo a
contraddizione dobbiamo già disporre di qualche giudizio negativo »; ma è nello stesso tempo più ampia di questa interpretazione. 2 Kolmogorov fa anche vedere come non sia intuizionisticamente accettabile la legge della doppia negazione (8)-, -, p---+ p (che di fatto è equivalente al terzo escluso) mentre sia derivabile nel sistema !B l'implicazione opposta p---+-, -, p.
301
www.scribd.com/Baruhk
La logica·nel ventesimo secolo (x)
6) Conclusione sugli anni l'eJJti Tirando le fila del discorso svolto in questo paragrafo, ci sembra di poterlo riassumere affermando che la situazione dello sviluppo della ricerca logica e sui fondamenti è andata via via perdendo quel carattere di «fluidità» che l'aveva ancora caratterizzata nei primi anni del decennio e ha invece acquisito alcuni punti fermi: la sistemazione della teoria degli insiemi divenuta ormai un riferimento centrale della ricerca, sia pure solo come sistema fondazionale (restando peraltro alquanto « sterile », fino a questo momento, come puro sistema matematico); il deciso imporsi di due delle tre concezioni iniziali di filosofia della matematica, il formalismo e l'intuizionismo, che pur nelle violente polemiche presentano tuttavia maggiori e stretti collegamenti di quanto i sostenitori stessi dei due indirizzi non siano forse disposti ad ammettere: il primo quasi in attesa della definitiva consacrazione, il secondo come pressante, coerente e « ragionevole » richiamo a una matematica « reale » senza compromessi. Non è certo casuale che tre rappresentanti dei diversi indirizzi partecipino nel 1930 a un simposio sui fondamenti della matematica, con tre memorie dal titolo assai significativo, che verranno pubblicate nel 1931 sulla rivista Erkennt-
nis: Die logizistische Grundlegung der Mathematik (La fondazione logicista della matematica) di Rudolf Carnap, Die intuizionistiche Grundlegung der Mathematik (La fondazione intuizionista della matematica) di Arend Heyting e Die formalistische Grundlegung der Mathematik (La fondaziOJte formalista della matematica) di John von Neumann. Queste note si presentano infatti come un vero e proprio bilancio del decennio da noi considerato in questo paragrafo III. È subito chiaro che il compito più difficile spetta a Carnap: deve difendersi da troppe obiezioni e giustificare profonde difficoltà intrinseche all'approccio logicista; deve nel contempo stabilire più stretti rapporti con le altre due concezioni da cui sostanzialmente è stata emarginata quella da lui rappresentata. È proprio per questo che Carnap insiste sul « costruttivismo » del metodo logicista, il quale non postula ma costruisce i numeri reali; e tale tendenza costruttivistica - che costituisce a suo parere un fondamentale punto di contatto con l'intuizionismo 1 - non viene inficiata dalla presenza delle definizioni impredicative, almeno se si accetta l'analisi che di queste fa Carnap. Più stretto ancora se possibile - sempre a parere di Carnap - il collegamento con i formalisti che, oltre a esplicarsi a livello metodologico, diventa pura coincidenza all'interno dei sistemi concreti: qui anche i logicisti sono formalisti. Si noti che Heyting non fa il minimo accenno né alla posizione formalista, né, tanto meno, alla logicista: si limita a esporre succintamente le posizioni intuizioniste specie ora che egli stesso ne ha dato una formulazione « formale »; propone un 'interpretazione dei connettivi logici basata sulla concezione (che egli fa risalire ai fenomenologi) 1 Carnap ammette tuttavia anche l'esistenza di notevoli divergenze tra i due indirizzi: i logi-
cisti accettano, a differenza degli intuizionisti, logiche del secondo ordine.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
di una proposizione come « intenzione » (di una costruzione) che è linguisticamente espressa dalla proposizione stessa; e con molta semplicità e altrettanta sicurezza conclude: « avremo raggiunto il nostro scopo se avremo mostrato che l'intuizionismo non contiene assunzioni arbitrarie. Ancor meno esso contiene proposizioni artificiali come quelle usate per evitare i paradossi logici. Piuttosto, una volta adottata la sua attitudine di base, l'intuizionismo è l'unica via possibile per costmire la matematica» (corsivo nostro). Von Neumann viceversa (che potremmo definire il «più intuizionista » dei formalisti) mette in luce una specie di collegamento operativo tra i risultati dei vari indirizzi ascrivendo tuttavia in particolare alle recenti indagini degli intuizionisti il merito della trasformazione dei problemi relativi ai fondamenti della matematica da vaghe questioni di carattere filosofico-epistemologico in problemi precisi: « Come risultato di tre importanti progressi nella logica matematica (precisamente: la sottile formulazione di Brouwer dei difetti della matematica classica; la minuziosa ed esatta descrizione di Russell dei suoi metodi (tanto i buoni quanto i cattivi); e i contributi di Hilbert alla ricerca matematico-combinatoria di questi metodi e delle loro relazioni) sono sempre più questioni matematiche non ambigue, non questioni di gusto, che devono essere investigate nei fondamenti della matematica. » Dà quindi un'esemplare e stringata caratterizzazione del metodo hilbertiano e della sua idea di fondo: « .. . anche se gli enunciati della matematica classica dovessero risultare falsi quanto a contenuto, cionondimeno la matematica classica comporta una procedura internamente chiusa che opera secondo regole fisse note a tutti i matematici e che consiste fondamentalmente nel costruire successivamente certe combinazioni di simboli primitivi che sono considerati 'corretti' o 'dimostrati'. Questa costruzione inoltre è 'finitaria e direttamente costruttiva'». Pone quindi l'equazione finitismo = intuizionismo c ne conclude che « sebbene il contenuto di una proposizione matematica classica non possa essere sempre (ossia in generale) verificato finitamente, il modo formale col quale noi arriviamo alla proposizione lo può. Di conseguenza, se vogliamo dimostrare la validità della matematica classica, il che in linea di principio è possibile solo riducendola al sistema finitistico valido a priori (ossia al sistema di Brouwer) allora dobbiamo investigare non enunciati, ma metodi di dimostrazione. Dobbiamo riguardare la matematica classica come un gioco combinatorio giocato con i simboli primitivi e dobbiamo determinare in modo finitamente combinatorio a quali combinazioni di simboli primitivi conducono i metodi di costruzione o 'dimostrazioni'». Pur concludendo per così dire con una professione di fede formalista è chiaro quindi che von Neumann assegna un posto di primo piano alle indagini e alla stessa concezione intuizionista. Vogliamo solo ricordare brevemente, per finire, le proposte di Carnap per superare le difficoltà dellogicismo. Allo scopo Carnap distingue nel programma
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
logicista una parte relativa ai concetti della matematica (che possono essere ottenuti- secondo la tesi logicista- da concetti logici mediante definizioni esplicite) e una parte relativa ai teoremi della matematica (che possono essere derivati da assiomi logici mediante deduzioni puramente logiche). Per quanto riguarda il primo punto (essenzialmente la definizione dei concetti di numero naturale, reale ecc.), precisati i concetti logici di fondo, riconosce che la definizione di numero reale presenta difficoltà che a suo parere «né illogicismo, né l'intuizionismo, né il formalismo hanno ancora superato ». In particolare un grave problema in questo senso è quello delle definizioni impredicative. Per quanto riguarda il secondo punto si prospettano almeno tre grosse difficoltà. La prima è la necessità delle assunzioni esistenziali (infinito e scelta) richieste per la dimostrazione di alcuni teoremi; e la sua gravità è data dal fatto che « la logica tratta solo con entità possibili, e non può fare asserzioni sul fatto se qualcosa esiste o non esiste ». Carnap comunque ritiene di poter aggirare questa difficoltà ricorrendo al discorso ipotetico (ossia condizionale in quanto opposto a categorico): se esistono certe strutture, allora si può concludere logicamente all'esistenza di certe altre. La seconda, maggiore difficoltà è ovviamente rappresentata dall'assunzione dell'assioma di riducibilità, che viene da Carnap riportata - via discorso sulla ramificazione - sulla terza questione problematica, rappresentata dalle definizioni impredicative. 1 A questo proposito Carnap non accetta la soluzione di Ramsey che trova la sua base in un realismo concettuale, o, come dice Carnap, ipotizza un « mondo platonico o ve le idee esistono di per sé ... indipendentemente da se e come le pensiamo ». E contrappone alla « matematica teologica » di Ramsey la « matematica antropologica » degli intuizionisti, con i quali in particolare concorda sul fatto che « la finitezza di ogni operazione, dimostrazione o definizione logico-matematica non è richiesta a causa di alcuni fatti empirici accidentali nell'uomo, ma per la natura stessa del soggetto». Si tratta allora di ottenere i vantaggi della soluzione di Ramsey evitando tuttavia la sua soluzione assolutista. Orbene, « se rigettiamo la credenza che è necessario passare attraverso tutti i casi individuali e piuttosto rendiamo chiaro a noi stessi che la verifica completa di un enunciato su una proprietà arbitraria non significa nulla di più ché la sua validità logica (più precisamente tautologica) per nulla arbitraria, giungeremo alla conclusione che le definizioni impredicative sono logicamente ammissibili ». Il fatto che si sappia o meno decidere se una proprietà definita impredicativamente sia valida o no per un caso particolare può dipendere da molte cose, ma r Carnap illustra le difficoltà che la ramificazione comporta per la teoria dei numeri reali dal momento che non si può avere né un'ammissibile definizione né un'ammissibile proposizione che si riferisca a tutti i numeri reali senza qualificazione di ordine, e così enuncia quello che per lui
è il più difficile problema dei fondamenti: «come possiamo sperare di sviluppare la logica se da una parte dobbiamo evitare il pericolo di definizioni prive di significato o impredicative e dall'altra dobbiamo ricostruire in modo soddisfacente la teoria dei numeri reali [Analisi]? ».
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mai dalla impredicatività; e se questa sua soluzione è valida, il logicismo è riuscito a liberarsi dalla stretta di Scilla (assioma di riducibilità) e Cariddi (vari ordini di numeri reali). Ma, si può dire, il gioco era ormai fatto. I riferimenti erano ormai intuizionismo e formalismo: il decennio successivo decreterà addirittura anche la « fine » del formalismo, almeno inteso in senso hilbertiano; e la grande avventura logi· cista, in effetti, viveva già soltanto della sua storia gloriosa.
IV · GLI ANNI TRENTA
La « consistenza » delle varie scuole all'inizio degli anni trenta dovrebbe risultare chiaramente dalle considerazioni svolte alla fine del paragrafo precedente: un comune riferimento tanto dei logicisti quanto dei formalisti alle concezioni intuizioniste, troppo cogenti (anche se «scomode» ed enunciate molto spesso in modo oscuro e contorto, specialmente da Brouwer) per essere ign~ rate; ma mentre nel discorso di Carnap si avverte un chiaro tentativo di recupero e di rilancio di tutta una problematica, il discorso di von Neumann esprime invece, pur con le dovute cautele, una sostanziale convinzione circa la espletabilità del programma della sua scuola. E in effetti gli anni trenta si aprono con un risultato, il teorema di completezza semantica di Godei (r93o) che sembra confortare anche da un punto di vista generale questa convinzione; pur se un altro teorema dimostrato da Lowenheim nel r9r 5 e variamente elaborato da Skolem nel '2o e nel '22 (sicché è oggi conosciuto come teorema di Lowenheim-Skolem) e che è ormai giunto il momento di richiamare, gettava indubbiamente dell'acqua sul fuoco di questi entusiasmi. Ma la sorte decisiva del programma hilbertiano veniva in tutto altro senso segnata solo un anno più tardi da un secondo, importantissimo lavoro di Godei, che conteneva quello che viene detto il « teorema di Godei » per antonomasia e che decretava l'impossibilità di principio di una dimostrazione finitista della coerenza della teoria dei numeri. Accanto a questi risultati fondamentali, negli anni trenta si hanno altri due avvenimenti rilevanti, di importanza centrale per lo sviluppo della logica contemporanea: alludiamo alla già varie volte citata « formalizzazione » della logica e della matematica intuizioniste ad opera di Heyting e alla sistemazione rigorosa della semantica dei linguaggi (dei sistemi) formali ad opera di Tarski. In particolare per quest'ultima questione è qui opportuno fare già in sede introduttiva un passo indietro, richiamando brevemente lo sviluppo dell'altro filone logico, non inquadrabile sostanzialmente in alcuna delle scuole che conosciamo, filone che sappiamo risalire a Schroder e essere caratterizzato appunto da un approccio semantico, interpretativo, alla logica e più in generale alle teorie
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
formali (in contrasto con l'altro approccio - di tipo logicista e formalista che pur con sfumature e concezioni diverse si svolge, come abbiamo visto, sostanzialmente su base sintattica). L'approccio di questo filone è indubbiamente molto intuitivo. Si tratta, certo, di dare per prima cosa una sistemazione formalmente soddisfacente delle teorie (con canoni sostanzialmente e genericamente di rigore matematico): da questo punto di vista, era stato naturale per gli autori di questo filone assumere - se pure a livello intuitivo e non rigorosamente teorizzato - una « gerarchia » dei linguaggi, che di norma venivano da essi espressi in notazione schroderiana (ossia nel linguaggio « relazionale »; si pensi a Skolem) e scoprire la grande flessibilità ed espressività di quello che noi abbiamo chiamato « linguaggio predicativo del primo ordine» (con o senza identità). Ma le proprietà generali di questi linguaggi, o delle teorie tramite essi descritte, venivano poi indagate non in termini delle nozioni sintattiche di « assioma », « dimostrazione », «regola di inferenza», « noncontraddittorietà » e così via, bensì in termini di nozioni semantiche intuitive quali quella di « dominio di interpretazione », « soddisfacibilità », « validità », « verità », ecc. In particolare la stessa nozione di contraddittorietà non veniva assunta quindi nel suo significato sintattico, bensì in quello semantico di «non soddisfacibilità » (e analogamente la nozione di noncontraddittorietà veniva invece intesa come soddistàcibilità). Questi termini semantici non hanno ovviamente nulla di misterioso e venivano intesi nel loro immediato contenuto intuitivo: se abbiamo una teoria espressa nel linguaggio del primo ordine, questa può essere interpretata in domini diversi, vale a dire si può assumere un insieme qualsiasi come universo del discorso della teoria e collegare (interpretare, appunto) i segni linguistici con (su) elementi del dominio o con (su) relazioni o operazioni fra elementi del dominio e così via. Così tàcendo, le formule del linguaggio, in particolare le formule chiuse (ossia senza variabili libere) divengono proposizioni relative al dominio stesso e come tali possono risultare vere o false. Orbene, si dirà (intuitivamente, se non addirittura banalmente) che una formula è vera in un certo dominio se tramite un'opportuna interpretazione del linguaggio (in cui la formula è espressa) su quel dominio essa si trasforma appunto in una proposizione vera (in quel dominio); una formula sarà in generale soddisfacibile se esiste un dominio che via interpretazione opportuna la rende vera; non soddisfacibile nel caso contrario; infine si dirà t'alida se comunque si scelgano un dominio e un'interpretazione del linguaggio su di esso la formula in questione risulterà vera. Analogamente, una teoria (ossia, in essenza, un insieme di formule) sarà soddisfacibile (noncontraddittoria) se esiste un dominio che soddisfa i suoi assiomi (che rende vere tutte le formule che costituiscono gli assiomi della teoria), non soddisfacibile (contraddittoria) nel caso contrario. Nel caso in cui la teoria è soddisfacibile su un dato dominio si dice che essa ammette un modello, costituito da quel do-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
mtmo con le relazioni e operazioni opportunamente definite su di esso (e sotto opportune interpretazioni). Ora il problema era appunto che tutta questa concettualizzazione semantica veniva usata in senso assolutamente intuitivo: i logici e i matematici « si intendono» quando usano termini semantici di quel tipo, che d'altra parte sono preferibili ai concetti sintattici puramente formali perché sono contenutisticamente più rilevanti anche se a prezzo del ricorso, in essi implicito, a concetti insiemistici assai impegnativi (nel senso di assai poco costruttivi, non perfettamente dominabili) come ad esempio quello di insieme qualunque o sottoinsieme qualunque di un insieme qualunque. Nessuna meraviglia allora, in particolare, che non si ponesse per questo filone la questione del rapporto fra i due approcci possibili allo studio delle teorie, ossia che non si ponesse neppure implicitamente la questione di un'eventuale coincidenza fra formule (semanticamente) «soddisfacibili » e formule (sintatticamente) «dimostrabili». E si noti che, in generale, un problema (o una dimostrazione) di completezza (semantica) consiste nel chiedersi se (nel dimostrare che) ogni formula valida è (formalmente) dimostrabile in un dato sistema formale. In questo ordine di idee Leopold Lowenheim (1878-1943) aveva dimostrato nel 1915 in Uber Moglichkeiten im Relativkalkiil (Sulle possibilità nel calcolo dei relativi; si ricordi la terminologia peirciana) un teorema che possiamo enunciare come segue: se una formula del primo ordine è so d disfacibile, allora tale formula è soddisfacibile in un dominio infinito numerabile. Vale a dire, se mai si può trovare un dominio D in cui una formula F (« scritta » in un linguaggio) del primo ordine è soddisfacibile, allora esiste un dominio D' che contiene un'infinità numera bile di elementi (e che può quindi essere identificato una volta per tutte, ad esempio, con l'insieme N dei numeri naturali) in cui F è soddisfacibile («interpretando» opportunamente le costanti predicative contenute in F). La portata di questo teorema è enorme, come avremo occasione di mettere in evidenza. Nel 1920, 1922 (e in altre occasioni) Skolem dà ulteriori dimostrazioni e generalizzazioni del teorema di Lowenheim. Nella memoria del 1920 Logischkombinatorische Untersuchungen iiber die Erfiillbarkeit oder Beweisbarkeit mathematischer Sèitze nebst einem Theorente iiber dichte Mengen (Ricerche logico-combinatorie sulla soddisfacibilità o dimostrabilità delle proposizioni matematiche e un teorema sugli insiemi densi) Skolem osserva che la logica di Lowenheim è « fondata sulla teoria degli insiemi » e malgrado, come risulta dal titolo stesso della nota, consideri i due aspetti della questione sopra elucidati, la sua «incapacità» a vedere la possibilità dell'organizzazione della logica su basi diverse da quella insiemistico-semantica - pur se lo porta a notevoli risultati che saranno poi fondamentali per la stessa teoria della dimostrazione - gli impedisce di porre in modo naturale il problema della completezza, dei cui precedenti storici, anteriori al risultato di Godei, vogliamo ora brevemente occuparci.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
ln questo ordine di idee cominciamo con l'esporre alcuni dei risultati significativi (che oltre al problema che qui ci interessa avranno connessioni più generali) presentati da Skolem in questo lavoro.! Egli dimostra per prima cosa che ogni formula F di un calcolo elementare può essere posta in modo effettivo (ossia tramite trasformazioni eseguibili « meccanicamente » e in un numero finito di passi) in quella che oggi si dice appunto forma normale di Skolem per la soddisfacibilità; si può cioè trovare una formula F' priva di quantiftcatori (ossia con sole variabili libere; diremo una tale formula matrice) tale che F è soddisfacibile se e solo se la formula (F*)
è soddisfacibile. In F* - che è appunto la forma normale di F - il complesso di quantificatori che precede F' viene detto prefisso; e F* si dice in forma totalmente prenessa (o anche, come diremo semplicemente, prenessa, se il contesto non potrà far sorgere equivoci) ossia tale che non contiene variabili libere e tutti i suoi (eventuali) quantificatori precedono tutti i suoi (eventuali) connettivi.2 F. proprio sfruttando questa « normalizzazione » delle formule predicative che Skolem dimostra, facendo uso dell'assioma di scelta, una versione« più forte» del teorema di Lowenheim e precisamente: F essendo una formula come sopra, se F è soddisfacibile in un dominio D allora F è soddisfacibile in un sottodominio numerabile D' di D, restando inalterata (in D') l'interpretazione che le lettere predicative di F avevano in D. Skolem generalizza quindi il teorema a insiemi qualunque, anche infiniti numerabili, di formule predicative (e quindi essenzialmente a teorie).3 1 Si osservi che Skolem non lavora qui nell'ambito di un preciso sistema formale, ma svolge le sue considerazioni a livello intuitivo o al più in un contesto linguistico (quello di Schroder, appunto) genericamente precisato. Già questa considerazione gli impedisce addir:ttura di porre il problema della completezza (sem:mtica) che ha necessariamente come controparte rigorosa un ben preciso sistema formale. Noi comunque enunceremo i risultati nell'ambito della logica dei predicati del primo ordine con identità (come del resto oggi usuale). 2 Non daremo qui una definizione rigorosa e precisa di « formula in forma prenessa », ma ci limiteremo a fare un esempio che dovrebbe chiarire la situazione. Si noti comunque che nella sua sostanza il teorema di Skolem qui discusso signitca che in ogni formula del calcolo predicativo è possibile « separare » la sua parte proposizionale (o booleana: la matrice) dalla sua parte predicativa (il prefisso); e in proposito si ricordi quanto detto parlando di Peirce nel capitolo xn del
volume sesto. Sia ora F, ad esempio, la formula P(x,y) -+ 3y [Q (x) -+ (3x Q (x)--> R (y)). Le trasformazioni cui si accenna nel testo permettono di associare a F la formula F*: 3 w 'v'z {(P(x,y)--> --> [Q (w)--> (Q (z)--> P(111))]} in forma prenessa. 3 Questo teorema, che viene oggi normalmente detto di Lowenheim-Skolem, è al centro di tutta una serie di indagini dedicate dagli anni venti in poi al problema della categoricità delle teorie formalizzate; cioè della possibilità di ottenere teorie con un modello solo, unico a meno di isomorfismi (e già abbiamo visto che lo stesso Skolem lo utilizza in questo senso). Come tale esso è uno dei teoremi fondamentali della logica matematica e ha ottenuto numerose generalizzazioni che si possono sostanzialmente dividere in due gruppi: i) teoremi di LowenheimSkolem « all'insù » (upward nella terminologia inglese) e ii) teoremi di Lowenheim-Skolem « all'ingiù » (d01vnward nella terminologia inglese). I primi stabiliscono l'esistenza, per ogni modello infinito Wl di una teoria ::r. (espressa entro un dato
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Nel 1922 invece (nel già citato articolo Alcune considerazioni sulla fondazione assiomatica della teoria degli insiemi, si veda la nota 1 a pag. 271 e il paragrafo m.2) Skolem dà una nuova dimostrazione, senza impiegare questa volta l'assioma di scelta, della forma potremmo dire « originale » del teorema di Lowenheim (che tuttavia generalizza anche ora a insiemi qualunque, anche numerabili, di formule predicative); dimostra cioè che se M è un insieme qualunque di formule predicative del primo ordine e se M è so d disfacibile (ossia se sono simultaneamente soddisfacibili tutte le formule di M) allora M è soddisfacibile nel dominio dei numeri naturali (ovviamente sotto opportuna interpretazione delle costanti predicative occorrenti nelle formule di M). Questa seconda dimostrazione (nella quale tuttavia è riscontrabile una lacuna decisiva) è fondata su un metodo di « approssimazione » che grosso modo consiste nel far vedere che per ogni numero naturale k si possono costruire « soluzioni di livello k » per una data formula F, ossia si possono assegnare individui (numeri) che la soddisfano; e nel ricavare quindi un'estensione nel numerabile per almeno una di queste soluzioni (è proprio nella mancata giustificazione di questo passaggio che consiste la lacuna cui sopra si accennava). Nel 1928 infine, nell'articolo Vber die mathematische Logik (Sulla logica matematica) Skolem sembra affrontare esplicitamente il problema della completezza perché definisce una procedura di refutazione (intuitivamente: di non accettazione, di falsità) di una formula predicativa F qualunque e afferma che tale procedura è completa nel senso che F è refutabile se e solo se F è non soddisfacibile: si noti che o ve fosse precisato rigorosamente e senza ambiguità il contesto formale di riferimento e i concetti occorrenti in questo enunciato, ciò equivarrebbe a dimostrare la contrapposizione del teorema di completezza. Malgrado la dimostrazione sia in effetti lacunosa, tanto da questo quanto da successivi risultati di Skolem, ad esempio quelli contenuti nell'articolo Vber einige Grundlagenfragen der Mathematik (Su alcune questioni circa i fondamenti della matematica, 1929) si sarebbe potuto dimostrare molto facilmente il teorema di completezza; vedremo di chiarire tra breve perché questo non sia avvenuto. linguaggio) di sue estensioni Wl', ancora modelli di X e aventi cardinalità t per ogni t maggiore della cardinalità m di Wl. I secondi stabiliscono l'esistenza di sottostrutture del modello 9Jl che siano ancora modelli della teoria di partenza X e che abbiano cardinalità t infinita minore o uguale alla cardinalità m di 9Jl e maggiore o uguale alla cardinalità m' dell'insieme delle costanti extralogiche di :r. Come si può vedere, il teorema originale di Lowenheim-Skolem rientra nel secondo gruppo, mentre il primo risultato nella direzione i) si deve a Tarski e risale al r 934· Questo risultato dipende essenzialmente dal teorema di completezza (o di compattezza) dimostrato da Godei per il caso numerabile e da Malcev per il caso generale. I limiti descrittivi delle teorie elementari non riguardano quindi le sole sotto-
strutture ma anche le estensioni, che al pari delle prime possono essere indiscernibili dal punto di vista delle proprietà formulabili nel linguaggio. Come la ricerca successiva ha posto in luce, questi limiti non sono accidentali e non riguardano il solo linguaggio del primo ordine; teoremi analoghi si possono dimostrare anche per linguaggi più ricchi. Con alcune limitazioni, però: mentre i risultati di tipo ii) si estendono, poste le opportune modifiche, a linguaggi del tutto arbitrari vincolati alla sola condizione che la classe delle formule sia un insieme, i risultati di tipo i) si hanno solo per linguaggi che godano di una qualche forma del teorema di compattezza. Di questi temi avremo occasione di riparlare nel paragrafo v, accennando agli sviluppi della teoria dei modelli.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
g interessante osservare che qualche anno più tardi il francese Jacques Herbrand (19o8-193 1) nella sua dissertazione di laurea Recherches sur la théorie de la démonstration (Ricerche sulla teoria della dimostrazione, 1930) dimostra quella che può considerarsi la versione ftnitista del teorema di Skolem, a partire, per sua esplicita dichiarazione, dallo stesso ordine di idee del logico norvegese (solo tuttavia, si badi bene, per quanto riguarda il processo dimostrativo). Anche Herbrand non giunge a compiere il passo finale che lo porterebbe al teorema di completezza, che anzi, addirittura, semplificherebbe di molto la dimostrazione del suo teorema; ma questa volta i motivi sono esattamente opposti a quelli di Skolem: è la professione di « fede » sintattico-finitista che non consente a Herbrand di porre il rapporto tra dimostrabilità e validità. Herbrand infatti dimostra, nel suo teorema, il seguente fatto: è possibile associare in modo effettivo, combinatorio, finitista, a ogni formula F del primo ordine una successione infinita di disgiunzioni della logica proposizionale, in modo tale che la formula F è dimostrabile nella logica dei predicati se e solo se una almeno delle disgiunzioni precedenti è dimostrabile nella logica degli enunciati. Se supponiamo cioè di avere una formula F del calcolo dei predicati le si può associare in modo effettivo una successione così fatta A1(F) .#1 A2(F) .· ,#1 V .#2
dove le .#i sono formule proposizionali (ottenute con metodo simile a quello skolemiano di approssimazione) e ogni Ai è detta appunto l'i-esima disgiunzione di Herbrand della formula F. Il teorema allora afferma che F è dimostrabile nella logica dei predicati del primo ordine se e solo se esiste un n tale che An(F) è un teorema della logica delle proposizioni. Siccome sappiamo, già dai lavori di Post, che tale logica è decidibile,! se la «riduzione» di Herbrand delle formule predicative a formule proposizionali fosse per così dire «totale» (basterebbe ovviamente che la successione di disgiunzioni per ogni formula fosse finita) avremmo automaticamente una procedura di decisione anche per la logica dei predicati. Vedremo più avanti (paragrafo rv.5) che così non è, ossia che la logica dei predicati non è decidibile in questo senso. Una conseguenza del teorema di Herbrand che avremo occasione di richiamare in seguito è che in base ad esso è possibile costruire per ogni formula F derivabile entro il calcolo dei predicati del primo ordine una derivazione che non faccia uso della regola del modus ponens. L'interesse della cosa sta nel fatto che, in questo modo, le dimostrazioni acquiI
Ossia che data una sua qualunque formula
esiste una procedura meccanica che permette di decidere se essa è o no un teorema.
3 IO
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
stano una forma particolarmente dominabile; nelle parole di Herbrand « noi consideriamo questo fatto molto importante per delle difficoltà che si possono incontrare a ca usa della regola di implicazione [modus ponens] in certe dimostrazioni per ricorrenza [induzione] ». Vedremo più avanti, considerando i lavori di Gentzen, come questo aspetto del teorema di Herbrand sia ricco di conseguenze per il programma hilbertiano e costituisca un passo importante verso l'analisi sintattica delle teorie. Ma riprendiamo il nostro discorso sulla completezza. Dopo quanto detto, la situazione agli inizi degli anni trenta si può puntualizzare come segue ricorrendo a uno schema di Jean van Heijenoort. Si possono distinguere tre atteggiamenti fondamentali nella valutazione di una teoria: I. Il metodo assiomatico, in base al quale a partire da un insieme di assiomi si dimostrano formule(« teoremi») sulla base di determinate regole di inferenza; II. Il metodo semantico che fonda la logica su nozioni contenutistiche di tipo insiemistico ed è interessato alla validità delle formule della teoria; III. Infine il metodo di Herbrand. Consideriamo ora una formula qualunque F, che per semplicità supporremo chiusa (di una teoria) del primo ordine; a seconda che un autore condividesse o meno l'uno o l'altro dei tre atteggiamenti suddetti le questioni che si ponevano circa F erano allora le seguenti. Un «assiomatico» si chiedeva: è questa formula dimostrabile oppure no? Un « insiemista »: è F valida oppure no? Herbrand infine: esiste un numero naturale n per cui l'n-esima disgiunzione di Herbrand della formula F risulti un teorema proposizionale oppure no? Il teorema di Herbrand afferma l'equivalenza delle «domande» assiomatiche con quelle da lui stesso poste; e Herbrand non si preoccupa di stabilire connessioni tra le sue esplicitazioni e le questioni poste da un « semantico » perché «la nozione di validità si fonda su quella di sottoinsieme qualunque di un insieme arbitrario » e quindi non è ammissibile dal punto di vista finiti sta che egli professa; piuttosto Herbrand ritiene appunto che tali nozioni debbano essere sostituite dai concetti rigorosi da lui stesso introdotti. Il problema che rimaneva aperto era dunque quello dei rapporti fra una formula dimostrabile (o « herbrandiana » vista l'equivalenza di cui sopra) e una formula valida: è proprio questo anello fondamentale della catena che il teorema di completezza semantica di Godei viene a porre. 1) L'opera di Kurt Giidel fra il I9}0 e il I940 Cominciamo quindi con l'esporre, dei vari risultati di Godei, forse il maggior logico del nostro secolo, quello relativo alla completezza semantica per i linguaggi (teorie) del primo ordine. È interessante notare come, libero da legami con una scuola particolare, ma attento con acutezza, profondità e spregiudicatezza alle diverse esigenze che si contendevano il campo, Godel trovi del tutto « immediato e naturale », una volta che ci si ponga dal punto di vista assiomatico, sapere se « il sistema inizialmente postulato di assiomi e di principi di infe-
www.scribd.com/Baruhk
·La logica-nel ventesimo secolo (1)
renza è completo, ossia se esso effettivamente è sufficiente per la derivazione di ogni proposizione logico-matematica vera o se invece è concepibile che esistano proposizioni vere (addirittura eventualmente dimostrabili per mezzo di altri principi) che non possano essere derivate nel sistema considerato ». Godel risponde alla domanda dimostrando il teorema: ogni fomJUia valida del calcolo funzionale ristretto [ancor oggi viene talora così chiamato il calcolo dei predicati del primo ordine] è dimostrabile, dopo averlo posto nella forma equivalente: ogni formula del calcolo funzionale ristretto è o refutabile [ossia è dimostrabile la sua negazione] o soddisjacibile. Egli osserva subito che l'equivalenza da lui dimostrata tra validità e dimostrabilità (nella logica dei predicati del primo ordine) « contiene per il problema della decisione una riduzione del non numerabile al numerabile, perché "valido" si riferisce alla totalità non numerabile di funzioni, mentre "dimostrabile" presuppone soltanto la totalità numerabile delle dimostrazioni formali ». Godel generalizza quindi il teorema alla logica dei predicati con identità e infine a un insieme arbitrario di proposizioni del primo ordine: « Ogni insieme infinito numerabile di formule del calcolo funzionale ristretto è soddisfacibile (ossia tutte le formule del sistema sono simultaneamente soddisfacibili) o possiede un sottosistema finito il cui prodotto logico è refutabile. » In altri termini, se agli assiomi logici aggiungiamo come nuovi assiomi un insieme infinito arbitrario di proposizioni del primo ordine, la teoria che così ne risulta è ancora semanticamente completa. È allora chiaro che il concetto di completezza connette fra loro i concetti di verità e di dimostrabilità; con le nozioni che ormai conosciamo non dovrebbe risultare difficile quindi comprendere che la nostra nozione di completezza per una teoria ~ del primo ordine è relativa a un dato modello m: diciamo cioè che ~ è completa rispetto a m se ogni formula chiusa di ~ che è vera in m è derivabile in ~- Invece che un solo modello di una teoria ~ consideriamo ora una classe '(f di modelli per ~- Diremo valida in rf una formula chiusa F di ~ se F è vera in ogni modello m appartenente alla classe '(f; otterremo allora una nozione più generale di completezza per la teoria l:: ~ è completa rispetto a rf se ogni formula chiusa di ~ valida in '(f è derivabile in ~- Ovviamente, se rf contiene un solo modello di ~ le due nozioni coincidono; viceversa, se rf comprende tutti i modelli di ~ diciamo che ~ è logicamente completa. È quest'ultimo tipo di completezza cui Godel era interessato l (e si noti che a questo concetto si allude quando si parla tout court di completezza semantica di una teoria: se una formula è vera in tutti i modelli della teoria allora essa è derivabile). Naturalmente siamo interessati a porci il problema di completezza per una 1 E questo era anche l'interesse che muoveva Post quando dimostrava la completezza del calcolo proposizionale. È ovvio che si presenta in modo naturale tutta una gamma di ricerche sulla completezza, precisando la classe di modelli
cui ci si riferisce (in particolare, assumendone uno solo, il più «naturale»). D'altra parte si può tentare di trovare criteri per distinguere le teorie complete da quelle incomplete, ecc.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
teoria solo nel caso che tutte le formule chiuse derivabili nella teoria stessa siano vere in tutti i modelli della teoria, vale a dire nel caso in cui - come oggi diciamo- la teoria sia valida; quest'ultima proprietà dipende ovviamente dal tipo di regole di inferenza che noi accettiamo nell'apparato deduttivo della teoria: ed è chiaramente una richiesta « minimale » che tutte le nostre teorie sono supposte soddisfare. Come dice Mostowski, « il problema della completezza è un esempio interessante di una questione che sorge da ricerche filosofiche concernenti le relazioni tra calcoli e semantica e che ha trovato molte applicazioni puramente matematiche a dispetto della sua origine filosofica. Si parla spesso della rilevanza della logica matematica per l'algebra: è soprattutto il teorema di completezza che riesce a connettere queste due discipline in modo tale che esse possano profondamente e reciprocamente influenzarsi ». La cosa risulterà forse più intuitivamente comprensibile se si pensa al teorema di completezza espresso nella sua forma equivalente seguente: ogni teoria noncontraddittoria del primo ordine ammette un modello, e si tiene conto che i m0delli che noi consideriamo in senso astratto non sono in definitiva che strutture di cui il matematico e in particolare appunto l'algebrista, fa uso costante e naturale; ossia insiemi non vuoti di elementi la cui natura non è specificata, e sui quali sono definite delle relazioni (struttura relazionale) o delle operazioni (struttura algebrica) o infine delle relazioni e delle operazioni (struttura). Va anche aggiunto che queste applicazioni impiegano in generale un corollario, ricavato da Godel stesso, del teorema di completezza, noto sotto il nome di teorema di compattezza: un qualunque insieme infinito di formule chiuse del primo ordine ha un modello se ogni suo sottoinsieme finito ha un modello. Le prime applicazioni all'algebra di questo teorema risalgono al sovietico Anatolij Ivanovic Malcev (1909-1967) che lo impiegò nel 1941 in un lavoro dal titolo Un metodo generale per ottenere teoremi locali nella teoria dei grujJpi, per risolvere e sistemare svariati problemi riguardanti i rapporti tra proprietà dei sottogruppi e proprietà dei gruppi « ambiente ». È naturale che la dimostrata completezza semantica delle teorie del primo ordine venisse immediatamente riguardata come un'ulteriore conferma della correttezza dell'impostazione hilbertiana nella ricerca sui fondamenti: l'apparato deduttivo formale era in grado di riprodurre fedelmente i rapporti semantici tra proposizioni e aveva dalla sua il vantaggio di farlo in termini finitisti, combinatori, senza ricorrere alle pesanti assunzioni insiemistiche che sembravano ineliminabilmente connesse con i concetti semantici. In altri termini, questo risultato sembrava offrire decisivi argomenti alla convinzione di poter sostituire ad ogni effetto il concetto di dimostrabilità formale a quello di verità. Tuttavia c'era già da tempo un «neo» in questa situazione così soddisfacente ed era rappresentato proprio da quel teorema di Lowenheim-Skolem che noi abbiamo visto nell'introduzione a questo paragrafo e che, senza addentrarci in particolari,
313 www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mostrava come ogni teoria del primo ordine fosse non categorica, ammettesse cioè modelli tra loro non isomorfì. Questo naturalmente succedeva in particolare per la teoria degli insiemi e per la stessa aritmetica: per la prima lo stesso enunciato del teorema mostrava l'esistenza di modelli numerabi!i e quindi non certamente isomorfì al modello gerarchico che abbiamo descritto parlando di von Neumann o comunque con un qualunque altro modello « intuitivo » di questa teoria che intendiamo ovviamente come più che numerabile; per la seconda lo stesso Skolem costruirà un « modello non standard », il quale cioè accanto ai numeri naturali contiene «altri» elementi (e quindi non è certamente isomorfo al modello intuitivo) e nel quale tuttavia tutti gli ordinari assiomi dell'aritmetica (e quindi tutti i teoremi formalmente derivabili da essi) risultavano veri.l In altri termini, i linguaggi del primo ordine pur se consentivano descrizioni complete delle teorie non riuscivano per così dire a « distinguere » i moJelli delle teorie stesse, isolando solo quelli « desiderati ». La descrizione di tali modelli non era cioè univoca: da un lato allora adeguatezza deduttiva (Godel) dall'altro inadeguatezza espressivo-descrittiva (Skolem). A risolvere definitivamente la (1uestione interviene ancora una volta, a un solo anno di distanza, Godel, con la celebre memoria Uber forma! unentscheidbare Satze der Principia. Mathematica und verwandter Systeme, r (Sulle proposizioni formalmente indecidibi!i dei Principia Mathematica e di sistemi affini, r) del 1931, che contiene quello che viene detto « teorema di Godel » per antonomasia. Riferendosi in particolare a quelli che stima « i più comprensivi » sistemi assiomaticoformali, ossia quello dei Principia e la teoria degli insiemi (nell'assiomatizzazione di Zermelo-Frankel-Skolem o in quella di von Neumann) egli osserva: «si potrebbe quindi congetturare che questi assiomi e regole di inferenza siano sufficienti a decidere ogni questione matematica che possa essere formalmente espressa in questi sistemi. Verrà mostrato... che non è così, che al contrario esistono nei due sistemi menzionati problemi relativamente sempliCi della teoria dei numeri che non possono essere decisi sulla base degli assiomi ». In altri termini Godel dimostra un teorema di incompletezza sintattica per l'aritmetica, che estende poi a una classe molto ampia di teorie; ma oltre a ciò egli dimostra un risultato I Già nel 1922, nell'articolo citato, Skolem aveva suggerito che con una data definizione della successione dei numeri naturali (grosso modo: alla maniera di Dedekind o di Frege) si ottenevano per essa modelli diversi nella teoria degli insiemi. E nel 1929 (nell'articolo citato) collegava più intrinsecamente la cosa alla teoria degli insiemi nel senso che dalle sue considerazioni risultava che la determinazione della successione dci numeri naturali dipendeva strettamente dagli assiomi scelti per la teoria degli insiemi. Nel 19B infine in Ober die Unmog!ichkeit einer Charakterisierung der Zahlenreihe mittels eines endliches Axionmt-
.rystems (Sulla impossibilità di caratterizzare la mcceJ_;ione numerica per mezzo di un sistema finito di assiomi) dimostrò il seguente teorema: Esiste un sistema N* di cose, per le 4uali sono definite le operazioni j e X c due relazioni = e <, tale che N* non è isomorfo al sistema N dei numeri naturali, ma cionondimeno tutte le proposizioni della teoria formale 'Il vere in N lo sono anche in N*. Da questo teorema deriva esplicitamente il più debole corollario: nessun sistema di assiomi scritto ·nel linguaggio di 'Il può determinare univocamente la struttura della successione dei numeri naturali.
314
www.scribd.com/Baruhk
La Jogica nel ventesimo secolo (r)
di incompletezza se11Jantica per teorie basate su linguaggi di ordine superiore; infine deriva l'impossibilità di dimostrare la coerenza di un <-Jualunque sistema (che soddisfi alcune naturali c importanti condizioni) nell'ambito del sistema stesso. Per quanto riguarda il primo risultato, quello di incompletezza sintattica, Godel riesce a costruire in ;;;odo effettivo, in quanto vuole porsi « al riparo da ogni critica intuizionista », una formula chiusa G del linguaggio della teoria dei numeri per la quale dimostra poi che tanto C <-1uanto la sua negazione --, G non sono derivabili nel sistema considerato, il <-p~1le quindi risulta appunto sintatticamente incompleto. (Per fissare le idee possiamo pensare di identificare il sistema entro cui Godel si muove con la teoria Il) (aritmetica di Peano) data nel paragrafo ur.4.) Per questa dimostrazione Godel si fonda su due idee fondamentali. La prima è quella del!' aritmetizzazione; essa consiste nel! 'associare a ogni simbolo dell'alfabeto, c quindi a ogni formula, successione ùi formule ecc. un numero naturale, detto appunto numero di G'Odel dc li 'elemento linguistico considerato.! Ne risulta ora, in particolare, che le proprietà e relazioni sintattiche di Il) (e quindi dci segni, delle formule, delle successioni di formule, ccc. di Il)) vengono automaticamente trasformate in proprietà e relazioni numeriche, anche se a priori sconosciute; non solo, ma si stabilisce in modo naturale una « reinterpreta?.ionc » delle proposi?.ioni - che ora si riferiscono a numeri - in modo tale da « recuperare » il loro significato originale. In particolare, sarà possibile rcintcrprctare in questo nuovo « linguaggio aritmetico » quelle proposizioni del metalinguaggio che parlano di proposizioni del linguaggio, c in particolare di se stesse. Ora noi sappiamo che proposizioni che parlano di proposizioni di un dato linguaggio JJ appartengono al metalinguaggio di JJ; e sappiamo anche, già dal paragrafo r, che una confusione tra linguaggio e metalinguaggio comporta delle antinomie, tipica l'antinomia del mentitore, o quella di Richard ecc. Orbene la seconda idea centrale di Godel è proprio quella di riuscire, tramite l'aritmetinazione, a riportare nella teoria le proposizioni metateoriche sfruttando per così dire positivamente l'antinomia del mentitore in modo cioè che nella teoria stessa non sorgano antinomie. Naturalmente, non è possibile, se si vuole conservare la coercn?.a della teoria, trovare in essa una proposizione (formula chiusa) che afferma di se stessa che è vera, proprio perché altrimenti scatta l'antinomia del mentitorc; ma Godei riesce a costruire appunto la formula G del linguaggio della teoria la quale, opportunamente reinterpretata via aritmetizza?.ione, aA:erma di se stessa (non che è vera ma) che è non dil!lostrabile nella I Si noti che yuesta associazione è effettiva nel senso che: dato un qualunyue elemento linguistico di 'j.l noi sappiamo effettivamente calcolare il numero naturale che gli è associato; viceversa, dato un qualunque numero naturale sap-
piamo effettivamente decidere: I) Je esso è numero di Godei di qualche elemento linguistico Ji 'll e 2) in caso affermativo di quale elemento esso è nutncro.
315 www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
teoria. Ti proprio que~ta la formula che - come dicevamo- risulta in effetti non dimostrabile né refutabilc e quindi è responsabile della incompletezza sintattica di 'l3. Ci si può rendere conto intuitivamentc della portata della sostituzione nel discorso relativo all'antinomia del mentitore, della noziouc di verità con quella di dimostrabilità; c infatti, nel primo caso, ossia per la verità, vale indubbiamente (almeno se si vedono le cose da un punto di vista classico) il terzo escluso, cioè una proposizione (una formula) deve risultare vera o falsa e sappiamo già che questo, applicato a una proposi;done che esprime la sua propria falsità, porta ad antinomia, ossia rende contraddittoria la teoria cui quella proposizione appartiene; nel caso della dimostrabilità invece, non necessariamente deve valere il terzo escluso, proprio perché non è assolutamente detto che una proposizione debba necessariamente essere dimostrabile o refutabile in una teoria noncontraddittoria; può benissimo darsi il caso che non sia né l'una né l'altra cosa: la teoria cioè salva per così dire la propria coerenza sacrificando però la completezza sintattica. Da questo punto di vista il risultato di Godei può essere presentato dicendo che una teoria (che naturalmente soddisfi le condi:doni del teorema)l deve essere incompleta sintatticamente pena la perdita di coerenza. Si noti che il risultato di Godel porta subito alla conclusione dell'esistenza di modelli non standard per l'aritmetica: e infatti poiché né G né ---, G sono dimostrabili in ll3, ognuna di queste formule può essere aggiunta agli assiomi di ll3 dando origine a due teorie, diciamo ~P', lP" noncontraddittorie. Per il teorema di completezza ognuna di queste teorie ammette un modello (diciamo 911', 911" rispettivamente); ma 9)1' non può essere isomorfo a 9)1" perché in 911', poniamo, è vera C, mentre in 9)1" è vera --, G. Chiamando standard uno qualunque dei due modelli, l'altro dovrà allora essere detto non standard. Si noti tuttavia che a differenza dei modelli non standard nominati parlando di Skolem, che risultavano per così dire indistinguibili dal punto di vista linguistico (e che oggi, come I La teoria in questione dev'essere: I) assiomatizzabile (ossia deve potersi decidere per ogni sua formula se essa è un assioma o no) ; 2) in grado di «esprimere» l'aritmetica (o almeno una certa parte di essa); 3) w-coerente. La condizione 2), che può ritenersi banalmente verificata per \Il, può essere precisata in vari modi (uno dei quali verrà accennato tra breve; si veda la nota 2 a pag. 3 I 8) e una teoria che la soddisfi viene oggi detta « sufficientemente potente »; la condizione 3) infine è una condizione più forte della semplice coerenza (ossia si possono avere teorie coerenti e tuttavia non w-coerenti) e consiste sostanzialmente nel richiedere che se nella teoria X si può dimostrare una data proprietà P(x) singolarmente per ogni cifra (se si ha cioè 'T P (o), >y P (1), >y P (2) ... ecc.) non sia possibile nella teoria stessa dimostrare l'esistenza di un elemento che non goda di quella proprietà (non si possa cioè avere 'T 3x-, P(x)). Que-
st'ultima condizione è stata ridotta alla semplice coerenza nel 1936 da J. Barkley Rosser in Extensions of some theorems of Gode! and Church ( Estensioni di alcuni teoremi di Gode! e Church). È inoltre ovvio che devono essere « decidibili » le regole di inferenza assunte nella teoria. Notiamo in proposito che Gode! stesso sottolinea il significato del suo teorema nei riguardi di più generali sistemi formali di cui però dichiara, nella memoria originale, di non possedere una precisazione rigorosa proprio per la mancanza di una adeguata definizione di regola « decidibile ». In una rielaborazione della dimostrazione pubblicata nel I 934 afferma invece che ora si dispone, grazie in particolare ai lavori di Turing, di tale definizione « inquestionabile »; si veda in proposito il paragrafo xv.5. Osserviamo infine che anche la prima condizione può essere indebolita come ha mostrato Mostowski nel 1952·
p6 www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
vedremo, vengono detti elementarmente equivalenti) il teorema di Godei pone in evidenza una situazione ben più drastica, cioè di modelli non isomorfi e però diversamente caratterizzati a livello linguistico. Si vede anche facilmente come questo primo risult~to di incompletezza sintattica si trasformi in un teorema di incompletezza semantica nel caso di teorie espresse in linguaggio di ordine superiore al primo. Consideriamo ancora il caso dell'aritmetica. Se si esprime questa teoria servendosi di un linguaggio del secondo ordine (nel quale, come si ricorderà, l'assioma di induzione matematica riceve la sua più naturale e completa espressione) come era già noto fin dal tempo di Dedekind, la teoria dei numeri diventa categorica, il che significa come sappiamo che due modelli qualsiasi della teoria sono fra loro isomorfi, ossia indistinguibili da un punto di vista strutturale: la teoria - come si dice - ammette uno e un solo modello a meno di isomorfismi. Orbene, riprendiamo la G di Godel, la quale ricordiamolo, esprime la proposizione che G non è dimostrabile nella teoria. Se ora supponiamo che G sia dimostrabile, essa sarebbe evidentemente falsa, sicché avremmo una proposizione dimostrabile e falsa, il che è impossibile in generale per la costruzione stessa delle nostre teorie (si ricordi quanto detto poco sopra); allora G non può essere dimostrabile, ma essendo proprio questo quanto G afferma, essa sarà vera. Abbiamo quindi una proposizione vera nel modello (e quindi in tutti i modelli, per la categoricità) ma non dimostrabile: la teoria è quindi semanticamente incompleta. A rigore, quello che abbiamo descritto è un risultato che vale solo per l'aritmetica del secondo ordine. Ma Godei generalizza la cosa a qualunque teoria deduttiva espressa in un linguaggio di ordine superiore al primo e che abbia regole di inferenza abbastanza semplici da essere accettabili; fa allora vedere che una tale teoria è incompleta rispetto a una classe qualunque di modelli (purché almeno uno di questi modelli sia infinito).l Il secondo fondamentale risultato della memoria di Godel del 193 I è il cosiddetto secondo teoretn~ ni indecidibilità (o secondo teorema di Go del), che riguarda direttamente il programma formalista nella formulazione finitista hil1 La completezza semantica può essere « recuperata » per teorie (espresse in un linguaggio) di ordine superiore al primo ampliando la nozione di modello, come ha proposto Leon Henkin (n. 1921) nel 1950. Naturalmente questo ampliamento può avvenire quando si disponga di una semantica rigorosa (e in particolare quindi di una precisata nozione di modello) per teorie del primo ordine, sicché la proposta di Henkin si fonda sui contributi in questo senso di Tarski, che noi vedremo nel prossimo paragrafo. È chiaro comunque che ad esempio al secondo ordine noi abbiamo nel linguaggio delle variabili (individuali) che vengono interpretate sugli individui del dominio del modello, e delle altre variabili (pre-
dicative) che vengono invece interpretate su soltoinsiemi del dominio stesso. Ora Henkin introduce per tali linguaggi il concetto di modello generalizzato, costituito da un modello nel senso di Tarski con una certa classe di sottoinsiemi del
dominio del modello stesso; si impone allora alle variabili predicative la condizione di essere inte_rpretate non su tutti i possibili sottoinsiemi del dominio, ma solo su quelli della classe sopraddetta. Si può far vedere che con questa nuova nozione di modello si ottiene, per teorie arbitrarie di ordine superiore ai primo, un teorema di completezza analogo a quello stabilito da Gode] per le teorie del primo ordine.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
bertiana. La dimostrazione di questo secondo risultato è solo schizzata nella memoria di Godei e ne viene promessa una completa esplicitazione in un successivo lavoro che tuttavia non è stato più pubblicato. Abbiamo visto sopra che Godei riesce, tramite l'aritmetizzazione, a « esprimere » all'interno di Il) le relazioni e proprietà metateoriche di Il) stessa; e qualunque cosa significhi quell' «esprimere» è ovvie, che saranno delle formule della teoria formale $ che esprimeranno delle proposizioni della metateoria. In particolare, supponiamo che (almeno) una formula - che per comodità indicheremo con Nctr~ - esprima in $ la proposizione metateorica « $ non è contraddittoria ». Orbene Godei fa vedere intanto che tale formula esiste; quindi che in Il) si può dimostrare l'implicazione Nctr~ ~ G, dove G è la formula indecidibile di Godei. È allora chiaro che se in Il) fosse dimostrabile la formula Nctr~, per modus ponens (che è ovviamente una delle regole della teoria) si otterrebbe come teorema G, contravvenendo però così al primo teorema di Godei secondo il quale G è indecidibile. In altri termini: in una teoria sufficientemente potente e noncontraddittoria (in particolare, nell'aritmetica $) non è dimostrabile la noncontraddittorietà della teoria stessa. Se ricordiamo che Hilbert era giunto addirittura a identificare la metamatematica con l'aritmetica ricorsiva di Skolem, e che quindi a fortiori riteneva come sappiamo che ogni dimostrazione finitistico-combinatoria fosse formalizzabile nell'aritmetica, il secondo teorema di Godei significa senz'altro la non realizzabilità di principio del programma di Hilbert di una dimostrazione finitista della coerenza dell'aritmetica.! Il ruolo centrale giocato dalla formula G, e la sua stessa costruzione e interpretazione pongono in particolare evidenza un momento fondamentale in tutto il lavoro di Go del a cui ci siamo più volte riferiti nel nostro discorso: la possibilità di « rappresentare » nella teoria il suo momento metateorico, ossia le sue proprietà e relazioni metateoriche senza naturalmente cadere nelle note contraddizioni che sappiamo derivare dalla confusione fra linguaggio e metalinguaggio. Per comprendere chiaramente come Godei riesca in questo suo intento, dopo aver dato una definizione ancor oggi corrente e del tutto «accettabile» di « rappresentabilità » in una teoria formale,2 occorrerebbe richiamarsi alla teoria delle r Conviene qui antrcrpare che l'enunciadipendere per quanto riguarda la loro validità zione del teorema di Godei sopra data non è del proprio dalla scelta effettuata, ossia dalla formula tutto adeguata in vista di recenti risultati di Soche si è assunta per esprimere un dato concetto, lamon Feferman in Arithmetization of metamathein questo caso la noncontraddittorietà. Egli defimatics in a genera! setting (Aritmetizzazione della metanisce quindi in modo convenzionale una scelta matematica da un punto di vista generale, 196o-r96r). « canonica » seguendo la quale risultati di questo La situazione messa in luce da Feferman è grosso · tipo vengono conservati mentre costruisce addimodo la seguente: siccome in generale esistono rittura un controesempio che fa vedere come il più formule di una teoria formale sufficientem~~te secondo teorema di Godei non valga nel caso di potente che possono esprimere formalmente uno una scelta non «canonica». La questione, di evistesso concetto o proprietà metamatematica, egli dente interesse, è attualmente oggetto di studio. mostra come alcuni risultati - e in particolare 2 Supponiamo per semplicità di avere l'aritproprio il secondo teorema di Godei - possono metica intuitiva da una parte e la teoria formale
318
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
funzioni ricorsive cui noi accenneremo fra breve. Qui basterà !imitarci a quanto segue. Godel assume alcune funzioni estremamente semplici e due schemi altrettanto intuitivi per generare nuove funzioni da funzioni date, col che individua tutta una classe di funzioni (oggi dette ricorsive primitive) che sembra di poter ragionevolmente assumere come corrispettivo rigoroso, anche se consapevolmente parziale, del concetto intuitivo di funzione effettivamente computabile (ossia tale che, comunque dati i suoi argomenti, sia sempre possibile, in un numero finito di passi, computare il valore corrispondente della funzione). Individua quindi le funzioni, proprietà e relazioni metateoriche interessanti la sua dimostrazione e fa vedere come queste risultino tutte ricorsi ve primitive; a questo punto dimostra in generale che sono « rappresentabili » nel senso precedentemente stabilito tutte le funzioni ricorsive primitive e quindi in particolare le relazioni metateoriche di cui sopra. V a anzi detto in proposito che quello di Godel è il lavoro che, fra l'altro, ha dato un enorme impulso allo studio delle funzioni ricorsive, dopo i primi tentativi di Skolem cui abbiamo già fatto cenno. Notiamo esplicitamente, per finire, che Godel non si ritrae, per così dire, di fronte alle nozioni infinitistiche della semantica, e ciò dichiara esplicitamente giustificando la sua posizione col dire che tali nozioni non dipendono da una particolare concezione della natura della matematica (e non possono quindi essere accettate o meno a seconda della «scuola» cui si aderisce) ma intervengono in modo naturale nella stessa pratica matematica quotidiana, sicché sarebbe erroneo non tenere conto di concetti così fondamentali e non « compromessi ». Resta tuttavia da osservare che i riferimenti di Godei a tali concetti restano ancora intuitivi, ossia la semantica cui egli si riferisce non è ancora assolutamente precisata. Questo è il compito che qualche anno più tardi assolverà il più eminente rappresentante moderno della scuola polacca, Alfred Tarski, che già abbiamo avuto occasione di nominare, e la cui opera a questo riguardo prenderemo in esame subito dopo aver concluso questo excursus su Godei. Per finire questo paragrafo IV. I accenniamo l a un terzo fondamentale ri·~1 dell'aritmetica dall'altra. Ricordiamo che nel linguaggio di 'll disponiamo in particolare di nomi per ogni numero naturale, ossia delle cifre o, ·1, 2, 3, ... Supponiamo ora di avere una relazione binaria D (x,y) fra numeri naturali (si pensi ad esempio a D (x,y) come a: x è divisibile per y). Godei afferma che tale relazione dell'aritmetica intuiti va è formalmente rappresentabile in \13 quando esiste una formula di 'll con due variabili libere, sia F (x,y), tale che: ogniqualvolta la relazione intuitiva vale fra due numeri naturali a e /J (si ha cioè D (a, b)) in \13 si abbia f--- F (a, b) ossia sia dimostrabile la formula F nella quale al posto delle variabili libere siano state sostituite le cifre dei corrispondenti numeri; se viceversa D non vale fra due numeri c e d, in \13 si deve avere f--- ---, F (c, d) ossia deve essere dimostrabile la
negazione di F con l'analoga sostituzione delle variabili con le cifre. Questa definizione si estende in modo ovvio a relazioni n-arie qualunque come pure a funzioni n-argomentali qualunque. 1 Con ciò non esauriamo certo la presentazione dci suggerimenti e dei risultati basilari con i quali Gòdel ha enormemente stimolato e indubbiamente determinato gran parte della ricerca logica successiva; e infatti incontreremo ancora questo autore nella trattazione si può dire di ogni tema centrale nella ricerca di questo e del successivo periodo. Si tenga conto infine che quando Godei dimostra questo teorema ha ormai alle spalle tutta la sistemazione della semantica data da Tarski fra il 1933 e il 1936 (si veda il paragrafo rv.2).
319
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
sultato ottenuto da Gode l verso la fine degli anni trenta: si tratta della dimostrazione della compatibilità o coerenza relativa dell'assioma di scelta (AS) e dell'ipotesi generalizzata del continuo (/CC) con gli altri assiomi della teoria degli insiemi. Supposto cioè che la teoria degli insiemi (intesa assiomatizzata in 366 oppure mediante un sistema .E di tipo 915B(f), in entrambi i casi senza l'assioma di scelta; le indicheremo rispettivamente con .E* e 366*) sia non contraddittoria, Godel dimostra eh~ essa resta tale anche se si aggiungono come nuovi assiomi AS ejo !CC: se 366* è coerente anche 366* AS +!CC è coerente. In altri termini, pur essendo assiomi molto «potenti» AS e !CC non generano altre contraddiziohi che non fossero eventualmente già presenti nella «più debole» teoria 366* (o .E*). Al problema, la cui importanza dovrebbe non sfuggire al lettore dopo quanto è stato ripetutamente detto in proposito, Go del dedica tre lavori: il primo è del I 9 37, porta il titolo The consistency oJ the axiom of choice and of generalized continuum f}ypothesis (La consistenza dell'assioma di scelta e dell'ipotesi generalizzata del continuo) ed è una semplice comunicazione dei risultati, di circa due pagine; il secondo è del I 9 39: Consistency-proof for the generalized continuum-hypothesis (Dimostrazione di consistenza dell'ipotesi generalizzata del continuo) e in esso vengono schizzate, talora in modo informale, le dimostrazioni necessarie al risultato (anche se il metodo è sostanzialmente diverso da quello poi impiegato nell'ultimo lavoro del I94o) e il riferimento è alla teoria 366*; il terzo lavoro infine è la monografia del 1940, The consistency oj the continuum hypothesis (La consistenza dell'ipotesi del continuo), la quale contiene lo svolgimento . completo della dimostrazione con riferimento al sistema .E che abbiamo presentato nel paragrafo III.2. Non è possibile qui rendere conto particolareggiatamente della dimostrazione, per le complicazioni tecniche veramente notevoli che ciò comporterebbe; tenteremo tuttavia di illustrarne il significato con un minimo di bagaglio specifico che verrà a sua volta chiarito a livello puramente intuitivo (e quindi con inevitabili inesattezze e approssimazioni «pesanti»). Cominciamo con il chiarirci il significato generale del teorema. Che una certa proposizione sia compatibile (consistente, coerente) con gli assiomi di una data teoria vuol semplicemente dire che non è possibile dimostrare nella teoria la negazione della proposizione stessa (o come anche si dice, non è possibile refutare la proposizione in questione nella teoria). Se infatti ciò accadesse, se cioè in una data teoria ~(del primo ordine) si riuscisse a dimostrare la negazione --,d di una data proposizione d, ciò comporterebbe che, essendo --, d un teorema di ~, essa dovrebbe risultare vera in ogni modello di '.!, o, equivalentemente, che in ogni modello di '.! dovrebbe risultare falsa d. Ma allora, per far vedere che una certa proposizione d non è refutabile nella teoria ~ (ossia non f-y- --, d) vale a dire che è compatibile con gli assiomi di ~, sarà sufficiente trovare anche un solo modello di ~ che verifichi anche d (naturalmente questo discorso vale per un numero qualunque di
+
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
propos1z10ni o assiomi «aggiuntivi»). Orbene, quello che Godei fa è proprio questo: riesce a trovare un modello (che egli indica con L1) per L'* nel quale sono verificati tanto AS quanto !CC. Ancora intuitivamente, tentiamo di renderei conto di come ciò avviene. In generale, una teoria ;t « parla » di un certo universo di « cose » (in particolare 3/J6 o L' «parlano» di un universo di insiemi (e classi) che possiamo identificare con la gerarchia cumulativa generata dalla funzione "P di von Neumann definita alla fine del paragrafo rn.z). Quantificando variabili individuali di ;t come sappiamo - noi facciamo riferimento alla totalità di queste « cose »; se viceversa « scegliamo » una « proprietà » in ;t ossia una formula con una variabile libera che indichiamo ad esempio con a(x), noi isoliamo entro questo universo una classe particolare di oggetti, precisamente quelli che godono della proprietà su cui verrà interpretata a(x) (ad esempio se ;t fosse la geometria euclidea e se si interpretasse a(x) come « x è un triangolo », isoleremmo con ciò fra tutte le configurazioni geometriche, la classe dei triangoli). In altri termini: una proprietà in ;t isola un sottouniverso dell'universo del discorso in cui ;t viene interpretata, di cui ;t « parla ». Ora, noi possiamo pensare di relativizzare i quantificatori in ;t a questo sottouniverso determinato dalla proprietà a(x); basterà evidentemente che a ogni espressione della forma
\:fx Q(x) ... noi sostituiamo un'espressione della forma
\:fx (a(x)---'; Q(x) ... e che a ogni espressione della forma
3xQ(x) ... sostituiamo un'espressione della forma :lx (a(x) 1\ Q(x) ... Così facendo limitiamo appunto l'ambito dei quantificatori al sottouniverso individuato dalla proprietà a(x). (Nel nostro esempio: le formule quantificate non si leggeranno più « per ogni x ... » o « esiste un x ... » ma « per ogni x se x è un triangolo allora ... » e« esiste un x tale che: x è un triangolo e ... ») Ad esempio la formula \:fx 3y Vz F (dove per comodità supponiamo F senza quantificatori) diventerebbe, relativizzata ada(x):Vx(a(x)--->;::Jy(a(y)/\ Vz(a(z)-7F))). Supponiamo ora di avere due teorie ;!:1 e ;!:2 che abbiano lo stesso linguaggio. Potremo dire intuitivamente di aver « tradotto » ;!:1 in ;!:2 se « relativizziamo » tutti i quantificatori delle formule di ;!:1 rispetto a una certa proprietà 321
www.scribd.com/Baruhk
La logica-nel ventesimo_ secolo (1)
a(x) di l:2 (e infatti le formule di l:1 «parleranno» ora del sottouniverso di l:2 individuato appunto da a(x)). Può inoltre avvenire che noi riusciamo a eseguire questa relativizzazione in modo del tutto particolare, in modo cioè che riusciamo a trovare una speciale a(x) di l:2 tale che quelle particolari formule di l:1 che sono i suoi assiomi, una volta relativizzate rispetto ad a(x) diventino teoremi di l:2 . In questo caso diciamo che l:1 è relativamente interpretabile in l:2 o che ammette un modello sintattico in l:2 . (È facile convincersi che se l:1 può essere relativamente interpretata in l:2 allora se l:1 è contraddittoria tale sarà anche l:2). Questo varrà in particolare se l:1 e l:2 sono una stessa teoria l: e il modello così indotto dalla condizione relativizzatrice a(x) verrà detto, in modo naturale, modello interno della teoria l:. Orbene Godei riesce appunto a definire Li n una particolare proprietà a(x) =x è costruibile che permette di interpr~tare relativamente E* AS JGC in 2,'*. Per quanto detto sopra, ciò significa che la proprietà in questione individua un sottouniverso nella struttura cumulativa dei tipi che inoltre risulta essere un modello, detto appunto modello costruibile (o dei costruibili) degli assiomi di E* e inoltre di AS e di IGC (è questo il modello LJ di Godei). Il procedimento da noi descritto potrebbe essere grosso modo riassunto nei seguenti passi. Si indichi con da la relativizzazione di una formula d di E* rispetto alla proprietà a(x) = x è costruibile. Allora si tratta di dimostrare: I) per ogni assioma d di E*, fyoda; z) fyo ASa; e 3) fyo IGCa. Godei non procede direttamente a dimostrare I), z), 3), ma introduce il cosiddetto assioma di costruibilità che afferma sostanzialmente: ogni insieme è costruibile (ovvero: la classe totale V coincide con la classe dei costruibili L, V= L). Egli dimostra quindi: la I) sopra data per gli assiomi di E*; z') fyo V = L ~ AC; 3') fyo V = L ~ ~ IGC; mostra infine che nel modello LJ vale la relativizzazione dell'assioma di costruibilità, vale a dire che i costruibili nell'universo di E* sono anche i costruibili in A, ossia 4): fyo a(x) ~ a(x)a. È chiaro che da I), z'), 3'), 4) discendono I), z), 3). Non accenneremo neppure, in questa sede, al metodo di verifica delle varie proposizioni; vogliamo invece rendere intuitivamente il « contenuto » della proprietà di costruibilità (ossia in altri termini, il modo con cui viene costituito LJ) anche perché questo ci richiamerà l'ormai familiare idea della ramificazione dei tipi. Si è visto che la 1p di von Neumann generava la struttura cumulativa dei tipi semplici; orbene Godei ripercorre per così dire quella struttura a partire dall'insieme vuoto; ma ora a ogni passo successivo della costruzione non vengono presi tutti i sottoinsiemi dell'insieme ottenuto nel passo precedente bensì solo quelli che è possibile definire predicativamente in E*, ossia quelli per i quali esiste in E* una formula definitoria i cui eventuali quantificatori siano « relativizzati » a insiemi già ottenuti in passi precedenti. Naturalmente, ogniqualvolta si giunge a un ordinale limite si riunisce tutto quanto si è ottenuto sino a quel momento,
+
+
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
ossia si costituisce un insieme che è null'altro che la riunione di tutti quelli ottenuti in passi precedenti (ossia per ordinali minori). Quindi si prosegue con lo stesso procedimento per tutti gli ordinali. Si ottiene così una struttura Lo, L1, L 2 , ••• Lw, Lw+b ... La, ... che viene appunto detta struttura cumulativa ramificata dei tipi: un insieme si dirà costruibile se appartiene a (ovviamente almeno) uno degli La.l Ci auguriamo che il lettore abbia potuto seguire almeno le idee direttive della dimostrazione; comunque va osservato che il risultato così ottenuto da Godel pur in tutta la sua enorme portata è ancora, per così dire, precario, ossia ci dà solo informazioni parziali sui rapporti di AS e IGC rispetto agli altri assiomi della teoria degli insiemi. Queste due proposizioni non si possono refutare in E* (o 30:6); ma si possono dimostrare? O non sono invece delle ipotesi indipendenti da quegli assiomi? Vedremo nel paragrafo v una risposta definita a questa domanda, che costituisce forse il maggior risultato degli anni sess.\lnt:;t e comunque senz'altro uno dei principali della ricerca logica almeno da Cantor in poi. z) /,a semantica tarskiana Der Wahreitsbegriff in den formalisierten Sprachen (Il concetto di verità nei linguaggi formalizzati), il saggio in cui Tarski intraprende una precisazione rigorosa della semantica, appare in polacco nel 19 33 e in tedesco nel r 9 3 5 ed è inserito nel contesto di una teoria generale della metascienza che abbiamo visto essere caratteristica tendenza della scuola polacca, cui Tarski appunto apporta in modo operativo la convinzione del libero impiego del momento infinitistico. Come già per i risultati di Godei non è qui possibile riferire particolareggiatamente sul tipo di costruzione effettuato da Tarski; ci limiteremo quindi a tentare di metterne in evidenza le linee generali e i concetti e i risultati più pregnanti. Osserviamo intanto che punto centrale della ricerca di Tarski è il riconosci!Tiento che sostanzialmente tutte le nozioni semantiche possono essere definite in termini del concetto di verità, considerato come attributo di proposizioni ;2 e che la ricerca, che quindi si impone, di una rigorosa definizione di questo concetto fondame~ tale, è a suo parere senza speranza condannata a fallire ove si voglia riferirla a proposizioni del linguaggio comune: donde l'altra specificazione che compare nel titolo del suo saggio. Ma partiamo pure dal linguaggio comune per mettere in evidenza alcune I Si noti che la struttura degli L"' è strettamente contenuta in quella degli M"' . Si pensi soltanto al fatto che, giunti al passo w + I, Mw+l contiene tutti i sottoinsiemi di Mw e quindi un numero più che numerabile di elementi; L;:;+l viceversa contiene, della potenza di Lw, soltanto quegli elementi definibili nella teoria, che pertanto sono al più ~o. Ovviamente è essenziale che nel nostro linguaggio si riesca a trovare una formula a (x) tale che a (a) se e solo se a è costruibile. È
appunto questa la formula a (x) relativizzatrice definita da Godei. 2 E Tarski ovviamente è conscio, così facendo, di trattare il concetto di verità in senso « restrittivo », che cioè non tiene conto ad esempio di contesti psicologici o estetici nei quali viene impiegato il termine «vero». Ritiene peri> di cogliere con la sua impostazione quello che a suo parere potrebbe chiamarsi « il concetto logico di verità».
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
difficoltà che esso presenta e che si oppongono appunto a una definizione rigorosa di verità, una volta che si cerchi· di dare tale definizione in modo che sia « formalmente corretta» -- ossia non porti a situazioni contraddittorie - e « materialmente adeguata » - ossia specifichi per ogni proposizione le condizioni sotto le quali essa può essere considerata vera.l h>rse la più antica spiega/.ionc del concetto di verità si trova nella L'Vletafisica di Aristotele: « Dire di ciò che è che non è, o di ciò che non è che è, è falso, mentre dire di ciò che è che è, o eli ciò che non è che non è, è vero. >> f,: a questa «spiegazione» o a sue numerose varianti tutte comunque riunite sotto la lknominazione di teoria classica o corrispondentistica della verità, che Tarski si ispira. In quest'ordine di idee, data una specifica proposizione, ad esempio «la calcite è un minerale », possiamo pensare di esprimere tali condizioni dicendo semplicemente: l'enunciato «la calcite è un minerale» è vero se e solo se la calcite è un minerale. Si notino due cose: a) ha senso fare una distinzione fra proposizioni vere o false solo quando le proposizioni stesse convoglino una certa informazione su un certo ambito di realtà (qualunque esso sia) sicché il concetto di verità che noi stabiliamo è in effetti una relazione fra fatti linguistici (enunciati) c domini a cui essi si riferiscono; b) nella condizione relativa alla calcite può sembrare di aver espresso un puro e semplice .truismo, qualcosa come « Socrate è Socrate » o un qualunque altro esempio del principio di identità. Che le cose non stiano così, ed è essenziale comprenderlo, è dimostrato dal fatto che nell'equivalenza sopra scritta a sinistra del «se e solo se» compare un enunciato fra virgolette, a destra un enunciato. Per chiarire il significato della cosa, immaginiamo di dare un nome, ad esempio P, all'enunciato «la calcite è un minerale». Allora l'equivalenza di cui sopra verrebbe scritta: l'enunciato P è z;ero se e solo se la calcite è un minerale, che non dà più luogo ad alcuna ambiguità, perché a sinistra dell'equivalenza appare il nome di un enunciato, mentre a destra appare l'emmciato stesso.2 Orbene, se realizziamo chiaramente questa differenza e ci convinciamo dunque che una eventuale definizione come la precedente sarebbe « sensata», non vuota, potrebbe solo restarci il dubbio circa una sua sostanziale r Si noti a questo proposito che Tarski cerca appunto di specificare le condizioni sotto le quali una proposizione possa essere considerata vera e non dei criteri di verità che permettano in un qualunque modo di stabilire o di decidere se di fatto la proposizione in questione è vera. Dirà Tarski nel 1969: «Qualunque cosa possa attenersi dalla costruzione di una definizione adeguata del concetto di verità per un linguaggio scientifico, una cosa è certa: la definizione non porta con sé un criterio pratico per decidere se una particolare proposizione di tale linguaggio sia vera o falsa (e in vero questo non è affatto il suo scopo) ... Alcuni filosofi ed epistemologi sono propensi a rifiutare ogni definizione che non for-
nisca un criterio per decidere, per ciascun oggetto particolare assegnato, se esso cada o no sotto il concetto definito. Nella metodologia delle scienze empiriche tale tendenza è rappresentata dall'operazionismo ed è condivisa anche da quei filosofi della matematica che appartengono alla scuola costruttivista; in ambedue i casi, tuttavia, solo una piccola minoranza di pensatori è di questa opinione.» 2 Si noti che se riprovassimo ora a formulare la condizione, si avrebbe l'enunciato P è vero se e solo se P; si otterrebbe allora addirittura un non senso dal punto di vista grammaticale (infatti dopo il « se e solo se » deve figurare un enunciato, non il nome di un enunciato).
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
« banalità». Ma da llucsto dubbio ci liberiamo subito con le seguenti considerazioni. Se potessimo scrivere un'equivalenza come la precedente (che diremo equivalenza di tipo T, da Tarski) per ogni enunciato del linguaggio naturale, avremmo evidentemente risolto il nostro problema; d 'altra parte non tutti gli enunciati del linguaggio naturale hanno la forma semplice, atomica, come quello sopra esemplificato. A partire da enunciati di questo tipo n:)i ne formiamo di assai più complessi servendoci ad esempio dei connettivi. Allora, c qui sta la non banalità della cosa: a) dovremmo poter scrivere un'equivalenza come la precedente per ogni enunciato naturale atomico; ma tutto lascia pensare che il numero di tali enunciati sia infinito, il che di fatto rende impossibile già questo primo passo; b) ma concediamo pure di avere in qualche modo superato questa difficoltà: dovremmo allora dare delle « regole » per inferire, dalla verità di enunciati atomici, la verità di enunciati composti mediante i connettivi, il che presuppone che si sappia analizzare compiutamente ogni enunciato composto in termini dei rispettivi enunciati atomici componenti, o che si sappiano esplicitare tutte le regole in base alle quali noi operiamo tali composizioni. In altri termini, vista l 'infinità dell'insieme degli enunciati e la possibilità di considerare enunciati sempre più complessi, noi penseremmo di stabilire delle condizioni di verità per gli enunciati atomici e quindi, sulla base della costruzione stessa degli enunciati composti, di inferire le condizioni di verità per questi ultimi a partire da quelle dei singoli componenti elementari. Orbene, se tentiamo di applicare in questo senso un procedimento rigoroso al linguaggio ordinario ci imbattiamo in difficoltà pressoché insormontabili per la stessa natura imprecisa delle regole grammaticali e sintattiche di formazione degli enunciati (imprecisa, si intende, almeno da un punto di vista logico-matematico). Ma un'altra ben più grave difficoltà si oppone a questo procedimento. Abbiamo già più volte ricordato, fra le antinomie che derivano da una confusione fra linguaggio e metalinguaggio, quella del menti t ore; anche nella costruzione di Tarski come già in quella di Godei, questa antinomia gioca un ruolo de<>isivo, pur se in certo senso di segno opposto. Nel linguaggio comune ovviamente si hanno proposizioni che parlano di altre proposizioni (ad esempio «la proposizione con cui comincia questo capoverso è breve ») e in particolare che parlano di se stesse (ad esempio: «Questa proposizione è composta di sette parole, » che è una proposizione vera). Fra molte altre tuttavia abbiamo in particolare anche una proposizione che afferma la falsità di se stessa: « Questa proposizione è falsa. » Già sappiamo che tale proposizione conduce ad un'antinomia e tale antinomia può essere evitata solo mediante una rigorosa distinzione tra linguaggio e metalinguaggio: distinzione evidentemente impossibile nel complesso del linguaggio naturale. Sono questi i motivi principali che spinsero Tarski a costituire la sua defi-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
nizione per linguaggi formalizzati i quali offrono appunto almeno due vantaggi: 1) sono totalmente dominabili da un punto di vista sintattico; 2) permettono la rigorosa separazione di livelli che abbiamo riconosciuto necessaria per superare le antinomie. È allora opportuno vedere come Tarski affronta e risolve il problema per i linguaggi formalizzati. Per comodità noi ci riferiremo a un linguaggio predicativo del primo ordine, tenendo presente che si tratterà, nella sostanza, di dare una definizione di verità che per così dire comprenda come casi particolari tutte le equivalenze di forma T riferite alle formule chiuse del nostro linguaggio; e che tale definizione dovrà far sì che a ognuna di tali formule spetti almeno uno e al massimo uno dei due valori di verità Vero o Falso.! Occorre ancora tuttavia fare una precisazione. Noi vogliamo definire la verità per enunciati, vale a dire per formule chiuse del nostro linguaggio formalizzato. Ora per le formule chiuse ci troviamo di fronte a una difficoltà analoga a quella constatata per il linguaggio naturale: le formule chiuse « composte » non sono formate a partire da formule chiuse « semplici » bensì, genericamente, da formule; allora noi non possiamo stabilire univocamente i passi di formazione per formule chiuse, mentre ovviamente ciò è possibile, per la loro stessa costruzione, per le formule in generale. Tarski allora pensa di sfruttare questa dominabilità strutturale dell'insieme delle formule definendo dapprima il concetto di soddisjacibilità per formule in generale, dal quale poi ricava il concetto di verità per formule chiuse. Dato allora un linguaggio L del primo ordine (che per comodità supponiamo abbia i soli connettivi di negazione é: disgiunzione e il solo quantificatore esistenziale), una interpretazione I di L sarà ora una coppia costituita da un dominio (non vuoto) D e da una funzione g che associa a ogni costante (individuale, predicativa o funzionale) di L una ben determinata entità del (o sul) dominio (rispettivamente: un individuo, una relazione fra individui, una operazione fra individui). Per quanto riguarda le variabili individuali esse saranno intese variare su D, cioè ad esse (a differenza che alle costanti individuali) g non assegna alcun individuo fissato del dominio. Data ora una interpretazione /, consideriamo tutte le successioni infinite di individui del dominio D 2 e indichiamo una generica di tali successioni con s; r In altri termini, la definizione deve essere tale da permettere di derivare da essa tutte le equivalenze di tipo T e principi quali quello di non contraddizione (non possono essere entrambe vere due proposizioni una delle quali sia la negazione dell'altra) e del terzo escluso (due proposizioni siffatte non possono essere entrambe false). 2 Questa, che può sembrare una grossa complicazione, si rivela in effetti una enorme semplificazione; si tenga sempre conto del fatto che in tutto questo discorso la difficoltà è proprio quella di adeguare rigorosamente concetti che abbiamo visto essere ampiamente usati si può
dire «da sempre» in senso intuitivo. Va da sé che la complicazione è solo apparente nel senso che si riesce a dimostrare facilmente che la soddisfacibilità di una data formula F dipende, in una data interpretazione, non da tutti gli infiniti individui di una successione, ma solo da quelli (e sono certamente in numero finito) che «corrispondono » alle variabili libere contenute in F. Si osservi infine che, dal momento che il dominio D è per ipotesi non vuoto, esiste sempre almeno una successione infinita di elementi di D. Nel caso banale che D contenga un solo individuo a, tale successione sarà proprio s= (a, a, a, ... ).
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
per ognuna di queste successioni si fissa in un qualche modo (ad esempio, definendo una funzione in corrispondenza ad ogni successione) l'associazione delle variabili agli individui della successione: ad esempio si può fare in modo di associare all'i-esima variabile Xi l'i-esimo individuo della successione considerata. Ciò posto, si tratta di definire il senso della frase: « la successione s soddisfa la formula d nell'interpretazione data». La definizione avviene ovviamente per induzione sfruttando il modo di costruzione delle formule. Inizieremo quindi con le formule atomiche, che avranno in generale, come sappiamo, la forma Pik (x1, x2, ... , xk)· Diremo allora che la successione s soddisfa la formula Pik (x1, ... , xk) se, essendo P la relazione su D che, nella interpretazione l, .~ ha assegnato alla costante predicativa Pik, e b1, b2, ... , bk gli individui della successione s associati alle variabili X1, x 2, ... , xk, gli individui in questione stanno nella relazione P (ossia, in termini intuiti vi, se la proposizione P b1 b2 ... h è vera). Induttivamente, poi diremo che s soddisfa -----,d se e solo se s non soddisfa d; e che s soddisfa .sY' V f1l se e solo se o s soddisfa d o s soddisfa f!l. Per quanto riguarda i quantificatori (ci limitiamo, come detto, all'esistenziale) diremo che la successione s soddisfa la formula ::lxi d se e solo se esiste una successione s' che differisce da sal più per l'i-esimo posto (e si noti che s è in particolare una tale successione) e s' soddisfa d.l A questo punto giungiamo alla desiderata definizione perché diremo che una formula d è vera in una data interpretazione I= se tutte le successioni soddisfano d (falsa se nessuna la soddisfa). E diremo infine che una formula d è logicamente vera o valida se, comunque si scelga l'interpretazione, d risulta vera. Si osservi ancora che le nozioni qui definite sono proprio le intuitive e normali nozioni che ognuno di noi ha certamente « chiare »; la difficoltà sta 1 Ribadiamo che quello delle successioni è un mero espediente tecnico di sistematizzazione (e infatti la definizione si può dare anche in modo diverso; noi ci siamo attenuti a questo per restare aderenti quanto più possibile al discorso di Tarski). La sostanza della questione sta nel fatto che con questo metodo si possono in qualche modo «dominare» gli individui . del dominio D in modo tale da recuperare poi le intuitive accezioni semantiche. Supponiamo ad esempio di considerare la teoria \jl (si veda il paragrafo m. r) e, in essa, la semplice formula atomica .# = = P 2 r xr x2. Sia I = una interpretazione con D = N = {o, r, 2, 3, ... } e g(P 2 1) = la relazione~ definita su N. Consideriamo ad esempio la successione s = (7, 9, 21, r, 5, ... ). Per quanto stabilito, a xr corrisponderà 7, a x2 corrisponderà 9· Sicché avremo che .w diverrà sotto questa interpretazione 7 ~ 9, ossia s soddisfa la formula in questione sotto l'interpretazione data. Mantenendo la stessa interpretazione e la stessa .w, la successione s' = (rz, 3, 5, 14, ... ) non soddisfa la
formula data perché 4uesta ora risulta « tradotta » in 1 2 ~ 3. In altri termini, .w sarà soddisfatta in I da tutte e sole quelle successioni il cui primo elemento è minore o uguale al secondo elemento; in definitiva da tutte quelle coppie di numeri (a, b) con a ~ b. E la definizione è posta in modo tale che la soddisfacibilità di una formula da parte di una successione s in una data interpretazione I dipenda in effetti soltanto dalle variabili libere che essa contiene, ossia dai particolari valori che si danno a quelle variabili nell'interpretazione. Ne viene che in particolare la soddisfacibilità di una formula chiusa F non dipende dalla particolare successione scelta (in una data interpretazione) nel senso che o ogni successione soddisfa F o nessuna successione la soddisfa: per formule chiuse cioè soddisfacibilità e verità (in una data interpretazione) coincidono; il che, ancora, rende il fatto intuitivo che una proposizione (corrispettivo semantico intuitivo di una formula chiusa) è vera o falsa.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
nel darne una definizione rigorosa e matematicamente usufruibile e dominabile. Ad esempio, la nozione di modello di una teoria ::r (di un insieme di proposizioni /') acquista ora un preciso significato: diremo che un 'interpretazione I è modello di una teoria ::r (dell'insieme I') se e solo se tutti gli assiomi di ;:r (tutti gli elementi di /') sono veri in /. Non solo, ma diviene allora chiaro in che senso preciso si parli di strutture come possibili modelli di teorie. In particolare, si è ora in grado di precisare la vaga nozione di conseguenza logica di cui il concetto di derivabilità logica- che aveva già da tempo trovato (in particolare, abbiamo visto, con Hilbert) una sistemazione ineccepibile e soddisfacente- si poteva considerare come corrispettivo sintattico. Ora infatti diremo che una formula ~ è conseguenza logica di una formula d (o, in generale, di un insieme di formule T) se e solo se in ogni interpretazione, ogni successione che soddisfa d (o che soddisfa simultaneamente tutte le formule di F) soddisfa anche ~. Potrebbe ora sembrare che, dal momento che la definizione di verità (o di soddisfacibilità) per una teoria avviene nel metalinguaggio della teoria stessa, impiegando l'aritmetizzazione di Godel si possano mettere le cose in modo tale che - come le nozioni sintattiche possono essere riportate senza contraddizioni nella teoria - lo stesso avvenga per le nozioni semantiche; orbene, questo non succede e anzi, un famoso teorema di Tarski afferma che non è possibile definire in una teoria la nozione di verità per la teoria stessa senza cadere in contraddizione: ciò significa, altrimenti detto, che per poter definire le nozioni semantiche non solo dobbiamo porci nel metalinguaggio, ma quest'ultimo deve essere essenzialmente più ricco del linguaggio oggetto; in particolare deve far uso di un'ampia porzione di teoria degli insiemi. Se chiamiamo sintatticamente chiuse le teorie che possono esprimere la propria sintassi, e semanticamente chiuse le teorie che possono esprimere la propria semantica, i risultati di Godel e Tarski ci dicono da una parte che è possibile avere teorie noncontraddittorie sintatticamente chiuse (le quali però risultano, come abbiamo visto, (sintatticamente) incomplete e in particolare non riescono a dominare un'importantissima proprietà sintattica, quella della noncontraddittorietà); dall'altra che è impossibile, pena il presentarsi dell'antinomia del mentitore, avere teorie semanticamente chiuse. Detto in altro modo: noi sappiamo che, via aritmetizzazione, possiamo assegnare a ogni formula (in particolare a ogni formula chiusa) di una data teoria un numero, precisamente il numero di Godei di quella formula; possiamo allora considerare l'insieme C 1 dei numeri di Godel dei teoremi della teoria e l'insieme T1 dei numeri di Godel delle proposizioni vere della stessa teoria. Il discorso precedente può allora riassumersi dicendo che i due insiemi C1 e T1 non coincidono e questo proprio perché mentre C1 è« rappresentabile »nella teoria, tale non è T1. Si noti che, come nel caso del teorema di Godei, questa situazione si presenta per qualunque teoria « sufficientemente potente >>. È questa una ulteriore conferma (ora stabilita con discorso rigoroso da entrambi i punti di vista, sintattico e 32.8
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
semantico) dell'impossibilità in generale di rispecchiare adeguatamente, a livello sintattico, il momento semantico; dell'impossibilità cioè- presupposta in modo fondamentale ed essenziale dal programma hilbertiano- che la nozione (semantica) di verità venga in foto sostituita da quella (sintattica) di dimostrabilità. Questa impossibilità di traduzione aritmetica è d'altra parte la conferma del carattere irrimediabilmente infinitario delle nozioni semantiche che quindi debbono essere « trattate » in teorie particolarmente potenti, quale appunto la teoria degli insiemi. In questa prospettiva la definizione di verità data da Tarski acquista un significato centrale nel progetto di edificazione di una « metamatematica » (o metodologia delle scienze deduttive, come Tarski la chiama) che si pone come alternativa a quella finitista hilbertiana. Questo non solo a livello programmatico, ma più concretamente a livello storico. Come vedremo in seguito, le ricerche di Tarski aprirono la via ad un'analisi delle teorie che se pure - date le assunzioni forti di cui necessita - non poteva immediatamente aspirare ad un ruolo fondante, ha tuttavia un grande interesse matematico diretto e, sia pure indirettamente, anche fondazionale. È nella definizione tarskiana infatti che si innestano quelle indagini sulla semantica e la teoria dei modelli che costituiscono oggi uno dei punti di contatto più rilevanti fra pratica matematica e ricerca logica. Un ultimo cenno ancora al problema della semantica del linguaggio naturale. In certo senso si può tranquillamente affermare che il linguaggio naturale, il più potente mezzo ~uistico di espressione di cui disponiamo, è semanticamente chiuso; da ciò deriva per il teorema di Tarski l 'impossibilità di una definizione non contraddittoria del concetto di verità per il linguaggio stesso. Abbiamo detto « in un certo senso » perché al linguaggio naturale non si possono applicare direttamente e senza problemi le conclusioni di Tarski proprio perché non si tratta di un linguaggio « formalizzato ». Tarski tuttavia affermava appunto l'impossibilità di stabilire una rigorosa semantica (teoria del significato) per il linguaggio naturale, sostenendo che quanto era possibile fare era al massimo questo: considerare linguaggi formalizzati che si discostassero « il meno possibile » dal linguaggio naturale e a questi linguaggi di approssimazione applicare la teoria sopra esposta. Si noti in particolare che un grosso ostacolo a tale applicazione nel caso del linguaggio naturale è costituito dalla componente intensionale propria a certi termini e contesti di questo linguaggio, non presente ovviamente nei linguaggi formalizzati da noi considerati, che sono costruiti e interpretati in modo rigorosamente estensionale. Come ricorderemo tuttavia più avanti (paragrafo v) in tempi recenti, la linguistica, avendo a disposizione semantiche più «articolate» di quella di Tarski, che sono state originate dalla necessità di fornire una controparte interpretativa soddisfacente per i linguaggi m o dali (o intuizionistici) ha affrontato globalmente anche questo problema, seguendo quella che appunto viene detta la « linea di Tarski ». Si noti ancora che anche nel caso
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
di queste nuove semantiche (cui accenneremo nel paragrafo v) la sistemazione di Tarski resta come sfondo generale, come momento di motivazione, e si ritrova comunque come caso particolare.
3) La «formalizzazione» della logica e della matematica intuizioniste Dopo quanto già detto in proposito nel paragrafo III.4, presentiamo la sistemazione di Heyting e i principali concetti della matematica intuizionista. Sappiamo già che Brouwer non ammetteva la formalizzazione e l'assiomatizzazione proprio per ribadire l'indipendenza della matematica intuizionista dalla logica e dal linguaggio formale; sicché, come dice John M yhill, c'è da chiedersi se parlare di « formalizzazione » dell 'intuizionismo non sia una contradictio in adiecto. Il fatto che Heyting intraprendesse questo compito non deve però far credere che egli avesse in proposito idee diverse da quelle di Brouwer, e non deve creare il fraintendimento di una diversa e mutata concezione intuizionista a riguardo. Abbiamo messo in luce in paragrafi precedenti qual è il senso e il significato che ebbe in generale questa operazione di « formalizzazione ». Nel 1930, accingendosi a presentare il suo sistema, Heyting infatti ribadisce ancora che « la matematica intuizionista è un processo mentale e ogni linguaggio, incluso quello formalistico, è solo un ausilio per la comunicazione. È impossibile in linea di principio costruire un sistema di formule equivalente alla matematica intuizionista, poiché le possibilità di pensare non possono essere ridotte a un numero finito di regole costruite anticipatamente »; anche se questa separazione fra linguaggio e matematica non va intesa in senso assoluto come risulta dalle seguenti parole del 1946 : « L 'intuizionista... non cerca il rigore nel linguaggio ma nello stesso pensiero matematico. Nello stesso tempo mi sembra contraddire la realtà supporre che la matematica intuizionista nella sua forma pura consista solo di costruzioni nel pensiero del singolo matematico, costruzioni che esistono indipendentemente l'una dall'altra e fra le quali il linguaggio pone una connessione molto tenue ... L'intuizionista usa quindi il linguaggio ordinario come il linguaggio simbolico in quanto ausilio alla memoria. Dobbiamo guardarci dall'immagine fittizia del matematico con la memoria perfetta che potrebbe lavorare senza l'aiuto del linguaggio. Nella ricerca matematica concreta il linguaggio è coinvolto in modo essenziale fin dall'inizio; la matematica come ci si presenta, convertita in espressioni linguistiche, non è preceduta da una fase completamente staccata dal linguaggio, ma è preceduta da una fase nella quale il ruolo del linguaggio è molto meno importante che nella comunicazione.» Ancora un'osservazione per quanto riguarda in particolare la concezione di Heyting circa il metodo assiomatico, al quale egli ascrive due differenti funzioni: una funzione creativa, ad esempio nella teoria classica degli insiemi dove per così dire assicura l'esistenza di oggetti non garantita da alcuna costruzione; e una funzione descrittiva che si esplica nel suo impiego come sistemazione ed abbreviazione. In que-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
st'ultima accezione l'impiego del metodo assiomatico è legittimo anche nella matematica intuizionista. Anche se oggi sono correnti altri sistemi più «trasparenti» per la logica intuizionista (e del resto ne vedremo uno noi stessi nelle prossime pagine) preferiamo dare il sistema logico originale di Heyting come presentato in Die forma/et/ Regeln der intuitionistischen Logik (Le regole formali della logica intuizionista, 1930) (e successivamente dell'aritmetica in Die formalen Regeln der intuitionistiscben lv.fathematik, n, m, (Le regole formali della matematica intttizionista, r 9 30)). Per la logica proposizionale Heyting propone i seguenti schemi di assioma, con l'unica regola di separazione:
Hr:
Hz: H3: H4: H5:
H6: H7: HS: H9: Hro: HII:
d --'; (d 1\ .sd) (d 1\ PlJ) --'; ( fJ 1\ d)
(d--'; PJ) -+((d 1\ ~--'; (PJ 1\ "6')) ((d--'; PJ) 1\ ( fJ--'; "6')) -+(d--'; "6') fJ --'; (d --'; fJ?J) (d 1\ (d--'; PJ)) --'; fJ?J d -+(dV PJ) (dV PJ) -+(fJ?JV d) ((d-+ "6')/\ (fJ-+ "6'))-+((dV fJ?J)-+ -----,d ~(d --'; fJ?J) ((d--'; fJ?J) --';(d--';-----, fJ?J)) --';-----,d
~
Per la logica predicativa, oltre agli schemi Hr-Hu, Heyting aggiunge i due schemi di assioma Hrz: Hr3:
'v'xd-+d(x/y) d(x/y)-+3xd(x)
e le regole
d --'; fJ?J (x /y) f - d-+ 'v'x fJ (x) f-
e
ff-
d (x /y) -+ fJ?J 3x d (x)__, fJ?J
sottoposte alle solite restrizioni sulle variabili. Naturalmente occorre fare attenzione a non interpretare « classicamente » i connettivi e gli operatori logici che figurano nelle espressioni precedenti; sappiamo già ad esempio delle differenze nell'interpretazione della negazione, dei quantificatori e conviene anche osservare che un punto delicato è quello dell'interpretazione del connettivo di implicazione, dal momento che, intuizionisticamente, un'espressione quale p-+ q non ha alcun significato quando non si conoscano già i «valori» di p e q. Di interpretazioni dei connettivi intuizionisti ne sono state date parecchie, e vogliamo qui ricordare le due principali, in ter-
www.scribd.com/Baruhk
La logica-nel ventesimo secolo (r)
mini di costruzioni e di problemi. A proposito comunque dell'interpretazione degli operatori logici, conviene premettere un'osservazione generale di John Myhill secondo il quale «per comprendere l'intuizionismo è necessario aver ben chiaro fin dall'inizio che il processo di spiegare una nozione logica intuizionistica è diverso dallo stesso processo relativo a una nozione classica. Quest'ultima viene spiegata fornendo delle condizioni di verità per le proposizioni nelle quali essa interviene... la prima dando delle condizioni di asseribilità ... » I Inizialmente Heyting in Sur la logique intuitionniste (Sulla logica intuizionista) del 1930 e nel già ricordato La fondazione intuizionista della matematica, propone di interpretare una proposizione p come «l'intenzione di una costruzione matematica che deve soddisfare a condizioni determinate. La dimostrazione di una proposizione consiste allora nella realizzazione della costruzione che essa richiede: p--+ q rappresenta allora l'intenzione di una costruzione che, da ogni dimostrazione per p, conduce a una dimostrazione per q». In generale comunque, «una funzione logica è un metodo che trasforma ogni data asserzione in un'altra asserzione. La negazione è una tale funzione, il cui significato è stato descritto molto accuratamente da Becker, in accordo con Husserl. Secondo lui, la negazione è qualcosa che ha carattere positivo, precisamente l'intenzione di una contraddizione connessa con l'intenzione originale». E ancora «p V q rappresenta l'intenzione che è soddisfatta se e solo se almeno una delle due intenzioni p e q è soddisfatta. La formula che esprime la legge del terzo escluso è p V -,p. Per una data asserzione p, questa legge può essere asserita se e solo se o è stato dimostrato p o p è stato ridotto a una contraddizione. Quindi una dimostrazione per la legge del terzo escluso dovrebbe consistere in un metodo che permette, data una qualunque asserzione, o di dimostrarla o di dimostrare la sua negazione». Questa prima interpretazione comporta una distinzione fra l'asserzione «p» e l'asserzione «p è stato dimostrato», cui Heyting dedica alcune considerazioni nei due articoli sopra citati. Successivamente però egli abbandona questa interpretazione sostituendola con la considerazione delle formule logiche come esprimenti semplicemente costruzioni, col che ovviamente scompare la distinzione precedente, in quanto ora una proposizione p può essere asserita se e solo se si è in grado di realizzare la costruzione che essa esprime. Un'altra interpretazione viene suggerita nel 1932 da Kolmogorov in Zur I Assai chiarificatrice ci sembra anche la seguente immagine, sempre riportata da Myhill, che la accredita a Hao Wang: «Nel linguaggio di Wang ... l'intuizionismo è una matematica del conoscere e la matematica classica è una matematica dell'essere. L'immagine è: in entrambe le concezioni il matematico ha di fronte un blocco di sassi (proposizioni) che è occupato a dividere in vere e false, sicché in ogni momento si hanno tre blocchi chiamati" note-come-vere"," note-come-
false", "(finora)-incognite ". La differenza è che nella concezione classica, ma non in quella intuizionista, i sassi del terzo blocco sono tutti contrassegnati con V [vero] o F [falso] prima ancora della scelta, nozione questa che l'intuizionismo riguarda come teologica. Questa differenza concerne non solo il contenuto dell'intuizionismo, ma [anche] il modo col quale noi chiarifichiamo i suoi concetti. »
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Deutung der intuitionistischen Logik (Per l'interpretazione della logica intuizionista) ave una proposizione viene intesa come esprimente un problema, sicché il calcolo ora diviene un calcolo di problemi.l Considerando le due interpretazioni sopra esposte, si possono così riassumere l'interpretazione dei connettivi e le condi?.ioni di asseribilità (f-) di una proposizione. Con d(x) si intenda una proprietà di cui gli enti di un certo tipo possono godere, rispettivamente un problema sensato per enti di un certo tipo. Avremo allora:
d
f-d
Heyting -------------.. esprime una proposiziOne d una costruzione (matematica) -è stata eseguita la costruzione espressa da d
Kolmogorov una proposizione d esprime un problema matematico è stato risolto il problema espresso da d
-------
f---,d
supposta eseguita la costruzione espressa da d si può effettivamente costruire una contraddizio ne
supposto risolto il problema espresso da d si può effettivamente ottenere una contraddizio ne
f-dl\f!l
è stata eseguita tanto la costruzio ne espressa da d quanto quella espressa da /}#
è stato risolto tanto il problema espresso da d quanto quello espresso da fJI
f-dV f!l
è stata eseguita la costruzione espressa da d oppure quella espressa da fJI
è stato risolto il problema espresso da d oppure quello espresso da fJI
f-d~f!l
si sa eseguire effettivamente la costruzione espressa da fJI ogniqualvolta si sa eseguire la costruzione espressa da d
si sa effettivamente riportare la soluzione del problema espresso da fJI a quella del problema d
3xd(x)
si sa effettivamente indicare un individuo che gode della proprietà d(x)
si sa effettivamente risolvere il problema d(x) per un dato individuo x
Vxd(x)
per ogni particolare elemento x si può far vedere che gode di d
si può risolvere il problema .91 per ogni particolare elemento dato
r Nel 1936 S. Jaskowski in Recherches sur le .rystème de la logique intuitionniste (Ricerche sul sistema
della logica intuizionista) dimostra un teorema che
riporta la dimostrabilità di nna formula intui-
333 www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Si noti che contrariamente all'interpretazione classica dei connettivi (come funzioni di verità) e dei quantificatori (come funzioni da insiemi di valori di verità a valori di verità) con queste interpretazioni essi non sono intcrdefinibili ossia sono, come sappiamo, indipendenti. Combinando le interpretazioni per la negazione e la disgiunzione si vede subito che il terzo escluso non vale, in quanto esso verrebbe a significare o l'effettuabilità di ogni costruzione o equivalentemente la risolubilità effettiva di ogni problema matematico. Ora, dice Heyting, « affermare questo principio senza che esista un metodo generale di risoluzione per i problemi matematici non può essere giustificato se non riferendosi alla convinzione che la soluzione, se incognita, debba ciononostante essere definita in qualche modo; ma ciò significherebbe porre alla base delle considerazioni matematiche un principio filosofico, il che abbiamo riconosciuto ... come inaccettabile ». Analogamente le interpretazioni sopra date non consentono di accettare nella logica intuizionista l'implicazione-, ----,p---+ p (mentre evidentemente vale il viceversa p---+----, ----,p), sicché intuizionisticamente, a differenza di quanto avviene nella logica classica, non si ha l'equivalenza tra una proposizione e la sua doppia negazione. Interessante anche è notare che Brouwer ha dimostrato la validità intuizionista della negazione della negazione del terzo escluso, ossia la formula ----,-l (PV ---,p) che è equivalente a ---,(,p + - l ,p), il che esprime il principio brouweriano dell'assurdità dell'assurdità del principio del terzo escluso. In altri termini questo principio non ha intuizionisticamente (come invece avviene nel caso classico) validità universale, ma non viene universalmente refutato. Volendolo esprimere in altro modo, non si può dare un problema dimostrabilmente insolubile: « quando ci si limiti ai problemi costruttivi, » dice Heyting, « non se ne può dare uno che sia dimostrabilmente insolubile, ma l'ipotesi che tutti problemi siano risolubili si dimostra ingiustificata ». Dal punto di vista della sistemazione formale, l'aritmetica intu1z1onista è basata su tutti gli assiomi logici e sugli usuali assiomi di Peano (abbiamo già visto che intuizionisticamente questi ultimi erano tutti - salvo l'induzione che diveniva un facile teorema - proposizioni evidenti). Dopo la pubblicazione dei lavori di Heyting vengono dimostrati alcuni importanti teoremi sui rapporti fra logica e aritmetica classiche e intuizioniste. Per quanto riguarda la logica, è chiaro intanto che tutte le formule accettate dagli intuizionisti sono valide classicamente, quindi il calcolo logico intuizionista è certamente contenuto propriamente in quello classico. Un primo interessantissimo risultato viene ottenuto nel r 9 33 da Go del in Zur intuitionistischen Arithmetik und Zahlentheorie (Sull'aritmetica e la teoria dei numeri intuizioniste). Egli vi dimostra zionista proposizionale alla sua validità in opportune matrici; nel 1938 Tarski in Der Aussagenkalkii! und die T opo!ogie (Il calcolo proposizionale e la topologia) impiega questo teorema per dare un'interpretazione topologica del calcolo proposizio-
nale intuizionista che formalmente si può riportare a una enunciazione su matrici e che permette di ricavare per questa interpretazione un teorema di completezza per tale calcolo.
334
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
intanto che il calcolo proposizionale classico (CPC) è un sottosistema del calcolo proposizionale intuizionista (CPI); risultato che, assieme al precedente, sembrerebbe poter far concludere per la coincidenza dei due sistemi. Le cose naturalmente non stanno così: nella (ovvia) dimostrazione CPI c CPC si lasciano inalterati i connettivi, sicché la traduzione delle formule intuizioniste in quelle classiche è identica: se d vale intuizionisticamente, allora d' vale anche classicamente. È chiaro tuttavia che questa traduzione non è per così dire «fedele» (dal punto di vista intuizionista) proprio per le diverse interpretazioni che nei due casi ricevono i connettivi. L'implicazione inversa, CPCc CPI dimostrata da Godei è invece fedele in questo senso, cioè rappresenta la logica classica su quella intuizionista traducendo opportunamente le formule valide della prima in formule valide della seconda mediante una « traduzione » delle stesse che non « tocca » i significati classici dei connettivi, pure interpretandoli correttamente dal punto di vista intuizionista. Sicché ora, data una formula d' in CPC, Godei le associa una formula d'* (in generale diversa da d') valida in CPI. Il passaggio avviene traducendo le nozioni classiche ---,p, p ~ q, p V q, p 1\ q nelle corrispondenti nozioni intuizioniste -,p, ---,(p 1\ ---, q), ---, (---,p 1\ ---, q), p 1\ q.l Si può estendere ii risultato al calcolo dei predicati traducendo il quantificatore esistenziale 3x in ---,V x---, (lasciando invariato l'universale). Ora Godei dimostra che la stessa relazione vale fra l'aritmetica di Peano basata sulla logica classica (Godei si riferisce a una variante di un sistema dato da Herbrand nel 193 1) e quella basata sulla logica intuizionista: anche in questo caso si possono interpretare le nozioni classiche in termini di nozioni intuizioniste in modo che « tutti gli assiomi classici diventino proposizioni dimostrabili anche per l'intuizionismo »; e anche ora si tratta di associare opportunamente ad ogni formula classica s# la sua traduzione d'*, in modo tale che se d'è dimostrabile nell'aritmetica classica, d'* sia dimostrabile nell'aritmetica di Heyting. 2 Non ci fermeremo qui sulla definizione di tale «traduzione» o interpretazione e ci limitiamo a riportare le parole conclusive dell'articolo, veramente illuminanti. « La dimostrazione qui effettuata, » afferma Go del, « mostra che l' aritmetica e la teoria dei numeri intuizioniste sono solo apparentemente più ristrette delle versioni classiche, e in effetti le contengono (impiegando un'interpretazione alquanto deviante). r Ad esempio, la tautologia classica sd =
=p---> (q-> p) diventerebbe .W*=--, (p 1\--,--, (q/\
1\--, p)) e .W* risulta ora valida intuizionisticamente; se si= pV--, p ossia il terzo escluso, si avrà .w* =--, (--,p/\--,--, p) c così via. Si comprende meglio il senso di tutto il discorso se si pensa che la traduzione identica (da CPI a CPC) non può essere intuizionisticamente adeguata dal momento che l'interpretazione intuizionista dei connettivi richiede ad esempio una distinzione fra le due formule p c ---, ---, p che invece risultano, come sappiamo, classicamente equivalenti. F.
chiaro allora come avendo viceversa a disposizione questa analisi più « sottile » si possa operare in modo fedele il passaggio inverso. 2 Questo risultato dà evidentemente una dimostrazione di consistenza intuizionistica per l 'aritmetica «classica >> di Peano. « È notevole,>> osserva Mostowski, « che questa dimostrazione risulti essere così semplice mentre non esistono dimostrazioni di consistenza strettamente finitiste. Quindi l'aritmetica di Peano basata sulla logica intuizionista contiene molti elementi non finitistici. >>
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
La ragione di ciò sta nel fatto che la proibizione intuizionista di negare proposizioni universali per formare proposizioni puramente esistenziali viene resa inoperante ammettendo l'applicazione del predicato di assurdità alle proposizioni universali, il che formalmente conduce esattamente alle stesse proposizioni come sono asserite nella matematica classica. L 'intuizionismo sembrerebbe risultare una genuina restrizione solo per l'analisi o la teoria degli insiemi e queste restrizioni sono il risultato non della negazione del tertium non datur, ma piuttosto della proibizione di concetti impredicativi. Le considerazioni precedenti danno ovviamente una dimostrazione di consistenza per l'aritmetica e la teoria dei numeri classica. Tuttavia questa dimostrazione è certamente non " finitaria" nel senso dato da Herbrand seguendo Hilbert. » Per finire, vediamo quelli che sono i principali concetti dell'Analisi intuizionista; a questo proposito sarà purtroppo impossibile andare sostanzialmente al di là di brevi cenni, a causa della complessità delle esplicazioni tecniche che sarebbero necessarie per un discorso anche solo leggermente più articolato. Ribadiamo comunque che tutta l'attività di Brouwer, che dal 1918 in poi, in una serie iii?pressionante di lavori, viene costruendo una « teoria intuizionistica degli insiemi» e su di questa basa la ricostruzione della topologia e dell'analisi intuizioniste, tutta questa attività dicevamo non si pone lo scopo di ricostruire la matematica intuizicrnista come parte della matematica classica, bensì come la matematica, l'unica possibile per chi accetti l'atteggiamento intuizionista, il solod 'altra parte - che offra garanzie di costruttività ed effettività. Noi daremo appunto i concetti « insiemistici » fondamentali e la « spiegazione » che su questa base Brouwer dà del continuo; allo scopo ci riferiremo a tre lavori di Brouwer: Intuitionistische Mengenlehre (Teoria degli insiemi intuizionista, 1919), Zur Begriindung der intuitionistischen Mathematik (Sulla fondazione della matematica intuizionista, 1, n, m, 1925-26) e Uber Definitionbereich der Funktionen (Sul dominio di definizione delle funzioni, 1927), ma soprattutto alla limpida esposizione di Heyting; in Intuitionism; an introduction (Intuizionismo. Un'introduzione, na ed., 1966). La teoria intuizionista del continuo è basata sulla nozione di « insieme » di Brouwer; l la quale a sua volta si spezza per così dire in due: da una parte si può pensare di definire un insieme dando un metodo di generazione per i suoi elementi, dall'altra si può dare invece una proprietà caratteristica degli elementi stessi. Il primo caso viene realizzato nella matematica intuizionista definendo il concetto di spiegamento; il secondo definendo il concetto di specie. Il primo di questi concetti, in particolare, precisa a livello di matematica intuizionista il concetto classico di successione, euristicamente sostituito da Brouwer con quello di successione infinitamente proseguibile (sip) o successione di libera scelta, «i cui termini r In un primo momento Brouwer considera il continuo come dato direttamente e immediatamente dall'intuizione del tempo. In seguito intro-
duce la nozione di successione di scelta di cui si riferisce nel testo.
www.scribd.com/Baruhk
La:.l?gica nel ventesimo secolo (I)
vengono scelti più o meno liberamente da entità matematiche precedentemente ottenute ».1
Uno spiegamento M è ora definito da due leggi:
I) la legge di spiegamento
S.~~-~,
che regola la scelta di numeri naturali, e
2) la legge complementare CM che assegna una successione di entità matematiche a ogni sip di numeri naturali generata secondo SM. Più in particolare, una legge di spiegamento SM è una regola S che divide le sequenze (successioni finite) di numeri naturali in ammissibili e non ammissibili come segue:
a) S specifica per ogni dato numero naturale k se esso è ammissibile o no; b) Se a0 , a1, ... , an è una sequenza ammissibile, allora S specifica se a0 , a1, ... , an, k (k numero naturale) è ammissibile o no, e in modo tale che per ogni data sequenza a0 , a1, ... , an si può trovare almeno un k tale che a0 , a1, ... , an, k
è ammissibile. A questo punto la legge complementare C M assegna una data entità matematica a ogni successione finita ottenuta tramite SM. 2 Del concetto di specie Brouwer dà a più riprese diverse definizioni: in particolare nel I 92 5 in Zur Begriindung der intuitionistischen .iWathematik, I (Per la fondazione della matematica intuizionista, 1) ove distingue specie di vari ordini; e ancora, ad esempio nel I95 3, in Points and spaces (Punti e spazi) dove più in generale definisce le specie come « proprietà che si possono supporre godute da entità matematiche precedentemente acquisite e soddisfano la condizione che se esse valgono per una certa entità matematica, esse valgono anche per tutte le entità matematiche che sono state definite come uguali ad essa ». Più semplicemente per questa seconda nozione intuizionista di « insieme » si può assumere con Heyting « una proprietà che si può supporre goduta da enti matematici ». Prima di giungere al corrispettivo intuizionista del concetto classico di continuo, dobbiamo introdurre ancora il concetto di « generatore di numero reale ». Questo viene definito a partire dal concetto di successione fondamentale (si ricordi il paragrafo I La nozione di successione di libera scelta non è tuttavia mai stata chiarita in modo esauriePte da Brouwer. Anzi vedremo che le più moderne ricerche sulla matematica intuizionista sono in parte dirette proprio al chiarimento della non univoca determinazione di tale concetto. z Consideriamo ad esempio il seguente spiegamento (che prendiamo da Casari): I) SM: a) come termine ao è ammesso il solo numero I
b) se la sequenza ao, a1, ... , an è ammissibile, allora è anche ammissibile la sequenza ao, a1, ... , an, an+l, purché si prenda come an+ 1o Zan o zan +I. Si avrebbe allora, come esempio di sequenza ammissibile: 1, z, 5, IO ecc.
z) CM: alla sequenza ao, ... , an ammissibile in conformità con 1) si associa il numero razionale
337
www.scribd.com/Baruhk
2 n+l
La logica nel ventesimo secolo (I)
n del capitolo xn del volume sesto) di numeri razionali; come si ricorderà, una successione (an) di numeri razionali viene detta fondamentale (o di Cauchy, o convergente) se per ogni numero naturale k è possibile trovare un numero naturale n = n(k) tale che per ogni numero naturale p valga lan+p- ani < I jk. Orbene un generatore di numero reale è null'altro che una successione fondamentale (an) di numeri razionali: naturalmente con l'ovvia ed essenziale condizione che sia effettivamente possibile mostrare che (an) è una tale successione, vale a dire che quel « è possibile trovare ... » che abbiamo sopra scritto in corsivo vada inteso non solo come esistenza di n ma come possibilità effettiva di trovare tale numero. Tralasciamo qui di introdurre le relazioni e le operazioni fra generatori di numero reale, peraltro interessantissime perché assai più «raffinate» di quelle classiche; ci limitiamo a ricordare che è ovviamente possibile considerare successioni di generatori di numeri reali e se (an) è una di tali successioni, si dice che essa converge al limite {J se e solo se per ogni naturale k è possibile trovare un numero naturale n tale che per ogni naturale p
lfl- an+pl
<
2 -k
col solito significato di « è possibile ». Definiamo ora lo spiegamento dei generatori di numero reale che rappresenta il concetto che gli intuizionisti propongono quale corrispondente costruttivo del concetto classico di « insieme di tutte le successioni fondamentali di numeri razionali ». Esso resta così definito. r 1 , r 2 , ... designi una enumerazione dei numeri razionali; allora:
I) SM: a) come a0 è ammissibile un qualunque numero naturale; b) se ao, ... , an è ammissibile, allora a0 , ••• , an, an+l è ammissibile se e solo se lran-ran+ll < 2--n. 2) CM: alla successione a0 , ••• , an, se ammissibile in conformità a S M, si associa il numero razionale ran· Gli elementi l di questo spiegamento sono appunto generatori di numero reale, nel senso che per qualunque generatore (an) si può trovare un elemento c dello spiegamento tale che c « coincide » con (an); è appunto in questo senso che questo spiegamento « rappresenta » il continuo dei generatori di numero reale. Il « quoziente » che nel caso classico viene effettuato per ottenere il continuo dei numeri reali, si ottiene ora tramite il concetto di specie: e infatti, la proprietà di coincidere con un generatore di numero reale è una specie che viene appunto detta numero reale. Il continuo reale sarà quindi, infine, la specie di tutti i numeri reali.2 I Si osservi che. ogni elemento di uno spiegamento è una particolare successione infinitamente proseguibile.
2 La complessa via per giungere alla definizione intuizionista del continuo dei numeri reali, dovrebbe aver messo in luce che, come
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
Già a questo livello «elementare» l'edificazione intuizionista della matematica pone numerosi, interessanti e sottili problemi che costituiscono oggetto della ricerca odierna. Ma molti altri concetti e risultati, cui non è possibile neppure accennare in questa sede, si presentano come assai stimolanti e problematici. Cercheremo tuttavia almeno di « sfiorare » queste complesse questioni nel successivo paragrafo v.
4) La « revisione » del programJJJa hilbertiano. Gerhard Gentzen L'ormai acquisito impiego del metodo assiomatico nella ricerca logica e sui fondamenti della matematica, che - pur con tutte le cautele e le interpretazioni limitative - aveva offerto lo spunto alla « formalizzazione » della stessa logica e aritmetica intuizioniste; il ruolo di primo piano che queste ultime venivano ad assumere dopo i risultati di Godel del I93 I e del 1933, e malgrado l'aspetto indubbiamente « mutilante» che esse assumevano nei riguardi delle analoghe costruzioni classiche; d'altra parte l'interesse intrinseco, in particolare per il matematico, dell'impostazione hilbertiana, nello stesso tempo più permissiva e assai più esigente della concezione intuizionista; in poche parole l'esigenza di vedere più chiaro - alla luce appunto dei nuovi, sconvolgenti risultati - nei rapporti fra queste concezioni pur entrambe « costruttiviste » della matematica, tutto questo complesso e imprevisto porsi di problemi viene fecondamente assorbito e condotto a un nuovo, originale, più elaborato livello di trattazione nell'opera di un giovane logico e matematico tedesco, Gerhard Gentzen (I 909- I 94 5). Egli riaffronta il problema dei fondamenti della matematica alla sua stessa radice, ossia dalle antinomie. Non si tratta, a suo parere, di analizzarle in termini di « qualcosa che non va » nel nostro pensiero: questo atteggiamento comporta in modo naturale tutte quelle proposte di superamento fondate sul tentativo di tracciare una linea di demarcazione fra forme di inferenza matematica ammissibili e non ammissibili. Questi tentativi si sono senz'altro dimostrati utili nella pratica, ma non sono adeguati da un punto di vista teorico: da un lato infatti non si sa con esattezza quale sia l'eventuale errore sicché d'altro lato, una volta operata la distinzione precedente, il problema si ripropone, talora in forma addirittura più acuta. « La situazione, » dice Gentzen, « è piuttosto che risulta impossibile patlare di un errore univocamente identificabile nel nostro pensiero. Tutto ciò che può essere detto con certezza è che l'apparizione delle antinomie è connessa al concetto di infinito. » Riprendendo quindi una classificazione di Hilbert (che a sua volta si era ispirato a Weyl) egli vede la matematica suddivisa in tre livelli, a seconda del osserva Casari, «l'idea guida della teoria brouweriana del continuo è quella di vedere in esso non - come accade dal punto di vista classico un insieme attuale di numeri reali, ma uno strumento di potenziale determinazione di numeri reali
dotato, come dice il Kneebone, "di una sufficiente libertà perché la gamma dei possibili risultati del processo di costruzione corrisponda a quello che il matematico classico chiamerebbe la totalità dei numeri reali"».
339
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
(l'estensione del) concetto di infinito che in essa viene accettato: avremo così un primo livello costituito dalla teoria elementare dei numeri (ossia l'aritmetica, la teoria dei numeri naturali), un secondo livello costituito dall'Analisi (ossia dalla teoria dei numeri reali, vale a dire dalla teoria di insiemi qualunque di numeri naturali) e infine un terzo livello costituito dalla teoria generale degli insiemi (ossia dall'intera teoria dei numeri cardinali e ordinali di Cantor). Nel motivare come detto il presentarsi delle antinomie, Gentzen concorda evidentemente con i massimi esponenti dell'intuizionismo in senso lato, Poincaré, Weyl, Brouwer ecc., per i quali la cosa era sostanzialmente riconducibile, come sappiamo, alla stessa concezione attualistica (come Gentzen la chiama) dell'infinito; non ritiene tuttavia di poter aderire in toto al loro tipo di costruttivismo radicale quando essi dichiarano semplicemente sprovvista di senso ogni proposizione matematica nella quale si abbiano riferimenti « infinitari » (nella quale cioè vengano quantificate, universalmente o esistenzialmente, variabili che hanno un dominio di variabilità infinito). Se si dovesse adottare questo punto di vista, sostiene Gentzen, «l'intera Analisi classica si ridurrebbe a un campo di macerie. Molti teoremi fondamentali perderebbero la loro validità o dovrebbero essere riformulati e ridimostrati in modo diverso. Senza contare che la formulazione diverrebbe nella maggior parte dei casi più complicata e le dimostrazioni pitì noiose». Si tratta piuttosto, secondo Gentzen, in adesione con la concezione hilbertiana, di dare un significato ftnitista (e quindi a fortiori costruttivo) a proposizioni di questo tipo, interpretando in particolare in modo costruttivo, vale a dire facendo riferimento al solo infinito potenziale, quelli che sono i riferimenti infiniti attualisti compresi in quelle proposizioni. Ovviamente, nella radicale posizione intuizionista, anche una dimostrazione di consistenza perde completamente di significato; come sappiamo invece dal punto di vista di Hilbert, è proprio questo il passo che giustifica l'intero procedimento, che permette cioè di operare con « proposizioni ideali » come se esse esprimessero un contenuto e avessero quindi un senso. Tuttavia, il punto di vista strettamente finitista nel senso di Hilbert non è più sostenibile dopo la dimostrazione dei teoremi di Godei; in particolare per quanto riguarda le dimostrazioni di consistenza, osserva Gentzen « sembra siano richiesti metodi alquanto più forti di quelli originariamente accettati da Hilbert e che egli aveva pensato costituire le" tecniche finitiste di dimostrazione"». Occorre in altri termini in qualche modo « rafforzare » il finitismo, senza tuttavia uscire dall'ambito del costruttivo; occorrerà far vedere che i nuovi metodi, cui si deve necessariamente ricorrere dopo il teorema di Godei, rimangono, pur se più potenti, sempre «in armonia con l'interpretazione costruttivistica dell'infinito». Il punto centrale di tutto il discorso rimane quindi, per Gentzen, sostanzialmente lo stesso al quale era giunto Hilbert: occorre far diventare la stessa dimostrazione matematica un oggetto matematico suscettibile di indagine rigorosa, for-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
male. Ed è dalla concezione stessa di dimostrazione che è necessario far ripartire l'analisi. Non è quindi casuale che già nel 1932 in Uber die Existenz unabhangiger Axiomensysteme zu unendlichen Satzsystemen (Sull'esistenza di sistemi di assiomi indipendenti per sistemi infiniti di proposizioni) riprendendo alcune idee che il logico e matematico Paul Hertz aveva avanzato in una serie di lavori negli anni 1928- I 929, prende in esame il concetto stesso di dimostrazione informale, tentando di analizzarlo, a livello formale, in modo più adeguato a quella che era l'usuale pratica del ragionamento matematico; come è assai significativo che nello stesso lavoro, accanto agli specifici risultati raggiunti,1 egli intraprenda (anteriormente quindi allo stesso Tarski) una prima caratterizzazione della nozione di conseguenza logica che (a parte il fatto che è stata dimostrata di recente coincidere con quella di Tarski, essendo entrambe ispirate alle idee di Bolzano) avviene appunto sulla base di un nuovo modo di analizzare il processo dimostrativo informale; ed è particolarmente interessante in quanto fornisce, almeno in linea di principio, un'analisi della nozione semantica di conseguenza sulla base di considerazioni sintattiche e « ftnitarie ». Ma è nel I 9 35, in Untersuchungen iiber das logischen Schliessen (Ricerche sulla deduzione logica), che Gentzen approfondisce e articola il suo discorso in modo del tutto soddisfacente. 2 Anche qui egli vuol trattare tanto la logica classica che r Genrzen risponde in modo definitivo e completo a un serio problema allora aperto e indicato dal titolo stesso del suo lavoro: l'esistenza di assiomatizzazioni indipendenti persistemi arbitrari di proposizioni. Egli mostra con un controesempio che non tutti questi sistemi ammettono assiomatizzazioni di questo tipo, mentre individua i sistemi infiniti per i quali ciò avviene nei sistemi costituiti da quelle che lui chiama proposizioni « lineari )), che caratterizza in modo completo. 2 È qui opportuno ricordare che un 'impostazione analoga a quella di Gentzen aveva portato il polacco Stanislaw Jaskowski a costruire una « teoria della deduzione basata sul metodo delle supposizioni )), che aveva pubblicato nel 1934 in On the mles of suppositions in formai logic (Sulle regole rlelle mpposizioni in logica formale), ma la cui idea, che Jaskowski accredita a Lukasiewicz, risaliva almeno alla metà degli anni venti. La teoria che ne risulta è tuttavia alquanto farraginosa c assai meno trasparente di quella di Gentzen, che può senz'altro ritenersi indipendente. È anche interessante osservare -- per ribadire la caratteristica tendenza della ricerca logica in Gentzen che questi, nel 1933, quando già aveva corretto le bozze dell'articolo Clber das Verhiiltnis zwischen intuitionistischer und klassicher Arithmetik (Sul rapporto fra !'aritmetica intuizionista e quella classica) lo ritira dalla pubblicazione (sui Mathematische Annalen) non appena conosciuto l'analogo articolo di GodeJ uscito poco prima, e che noi ab-
biamo visto nel paragrafo 1v-3- In questo lavoro Gentzen era giunto sostanzialmente agli stessi risultati di Godei, vale a dire che l'aritmetica classica differisce da quella intuizionista in modo puramente esteriore (in pratica: solo perché è fondata su un diverso calcolo logico predicativo). È ovvio, già da quanto abbiamo sopra detto, che per Gentzen si imponesse l'utilità - ··· se non la necessità · ·- delle ricerche su questi rapporti, che del resto saranno una componente si può dire costante di tutta la sua produzione. È anche interessante leggere, alla luce appunto di questo fatto, quelle che sostanzialmente sono le sue conclusioni in questo lavoro: « Se si accetta come consistente l 'aritmetica intuizionista, allora è anche garantita la consistenza dell'aritmetica classica ... Se si assume come punto di partenza un punto di vista più ristretto, come ad esempio quello "finitista" di Hilbert da lui delineato nell'articolo "Sull'infinito", allora ci resta anche il C(>mpito di dimostrare, da questo punto di vista, la consistenza dell'aritmetica intuizionista. È alquanto dubbio che questo possa farsi, perché Godei ha dimostrato che la consistenza dell'aritmetica classica (più precisamente: una proposizione aritmetica equivalente) non può essere dimostrata nell'aritmetica stessa (ammesso che l'aritmetica sia consistente)... Applicando il risultato di Godei [del 1931] concludiamo che la consistenza dell'aritmetica intuizionista non può essere dimostrata nell'aritmetica classica (assumendola consistente).))
341
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
quella intuizionista, e precisamente con quella parte della logica, il calcolo dei predicati del primo ordine, « che comprende i tipi di inferenza continuamente impiegati in tutta la matematica »; solo che, come dicevamo, egli tende a una formalizzazione di questo calcolo che risulti più aderente all'effettiva pratica del ragionamento matematico: « Il mio punto di partenza è stato questo: la formalizzazione della deduzione logica, in particolare come è stata sviluppata da Frege, Russell e Hilbert, si discosta alquanto dalle forme di deduzione usate nella pratica matematica delle dimostrazioni. In cambio se ne ottengono considerevoli vantaggi formali. Al contrario era mia intenzione prima di tutto costituire un sistema formale che si ponesse quanto più possibile vicino all'effettivo ragionamento. Il risultato è stato un" calcolo della deduzione naturale" ... che viene ad avere certe proprietà peculiari; in particolare, la " legge del terzo escluso " che gli intuizionisti rifiutano, occupa una posizione speciale. » L'idea di fondo dell'analisi che Gentzen intraprende delle dimostrazioni informali è che esse in generale prendono le mosse non tanto da poche formule logiche fondamentali (gli assiomi) e si sviluppano applicando poche regole di inferenza, quanto esattamente al contrario, impiegando se occorre numerose assunzioni necessarie alla dimostrazione della proposizione cui si è interessati, e operando su tali assunzioni con tutta una serie di « regole » che sostanzialmente non fanno altro che collegare ( « connettere ») proposizioni già assunte o dimostrate, operare in esse sostituzioni, affermarne la validità in generale, passare da un esempio a una proposizione esistenziale e così via; e applicando ovviamente, se necessario, anche le operazioni inverse. In altri termini, si tratta di indagare gli operatori logici nel loro stesso modo di essere impiegati informalmente, per poterne poi trarre una sistemazione formale « naturale ». E se si conduce - come Gentzen fa - un'analisi di dimostrazioni matematiche concrete, ci si accorge che l'uso che in esse viene fatto degli operatori logici riguarda sostanzialmente due « manipolazioni » di fondo: la loro introduzione e la loro eliminazione. Nel primo caso infatti ad esempio, ottenute sulla base di certe assunzioni due proposizioni d e f!lJ separatamente, si passerà a connetterle variamente fra loro per ottenere una sola proposizione complessa; il secondo caso rappresenta l'operazione esattamente inversa. Ne viene che per formalizzare adeguatamente e naturalmente il processo dimostrativo occorrerà regolare opportunamente proprio questo comportamento degli operatori logici. Si noti che così facendo Gentzen riduce la dimostrazione, se possibile, a un oggetto matematico ancora « più concreto » di quanto accadeva con le precisazioni di Frege, Russell e Hilbert (in particolare, ovviamente, di quest'ultimo); ora infatti una dimostrazione diviene sostanzialmente un albero le cui «radici» non sono più delle formule particolari e fisse (gli assiomi) ma delle formule qualsiasi (le assunzioni); e il cui andamento non è lineare e non è rigidamente fissato da poche regole estremamente artificiose, talora, rispetto all'effettivo andamento
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
della dimostrazione intuitiva stessa, bensì segue quest'ultima passo passo, evidenziando per così dire con varie diramazioni (i «rami») le dipendenze «reali» fra assunzioni e conclusione.! Non si può certamente pensare a un'analisi più « costruttiva » in senso intuizionista; e in effetti la questione che si potrebbe qui sollevare è proprio la seguente: è stata l'esigenza di tenere nel dovuto conto la concezione intuizionista che ha condotto Gentzen a questo tipo di analisi, o viceversa l'esigenza di maggior reale adeguamento alla corrente pratica matematica ha dato (e non casualmente) origine a un'analisi tanto «naturale» e vicina alla concezione intuizionista? Lasciamo comunque da parte questo interessante problema e vediamo brevemente come Gentzen realizza i suoi calcoli (detti oggi appunto «calcoli di Gentzen »). Nelle Ricerche Gentzen introduce due tipi di calcoli: i calcoli N (NJ per il calcolo intuizionista, NK per il calcolo classico) e i calcoli L (ancora LJ e LK). È per i primi, in particolare, che viene realizzata quella « naturalezza » di cui si è parlato, mentre i secondi, ossia i calcoli L, a prezzo di qualche complicazione, gli permettono di ottenere risultati ancor oggi fondamentali nella teoria della dimostrazione. Accenneremo ora brevemente tanto ai calcoli N quanto ai calcoli L; in entrambi i casi si tratta di calcoli predicativi del primo ordine. Per quanto riguarda NJ si avranno per i cinque connettivi e i due quantificatori 14 regole, due per ogni operatore, una di introduzione e una di eliminazione; esemplifichiamo tali regole per il connettivo di implicazione. Le d't, !JB, 't&', sono formule [d'h ... , d'm] f!B---+ 't&'
[d'm+!, ... , d'n] l-+
f!B
E-+
[sli\, ... , d'n] da leggersi, rispettivamente: se (nel corso di una derivazione) sotto le assunzioni ... , d'n, fJB si è ottenuta la formula 't&' (che ovviamente può coincidere con una delle d't o con !!B), allora sotto le assunzioni .91' 1 , ... , d'n si può ottenere la formula fJB ---+ 't&', vale a dire si può « scaricare » una assunzione fJB fatta nel corso di una derivazione ponendola come antecedente di un condizionale il cui conseguente sia la formula ('t&') precedentemente ottenuta; naturalmente si può applicare questa regola un, numero qualsiasi infinito di volte fino a « scaricare » tutte le assunzioni fatte p~r ottenere una certa conclusione (il che noi indicheremo, all'occorrenza, con [-]).Il contenuto di questa regola è l'equivalente del cosiddetto teorema di deduzione valido (sotto opportune condizioni) della sistemazione assiomatica della logica. Per quanto riguarda E -> si vede immediata-
.91'1 ,
I Va detto tuttavia che nelle sistemazioni odierne dei calcoli di Gentzen si preferisce in generale dare una disposizione lineare alle deriva-
zioni; noi ci riferiremo qui a questo tipo di sistemazione. Si veda in proposito nella successiva nota un esempio di derivazione in NJ.
343
www.scribd.com/Baruhk
La logica·nel ventesimo. secolo (1)
mente che essa corrisponde al modus ponens e la sua lettura non dovrebbe presentare problemi. « Dal punto di vista esteriore, la differenza essenziale fra le dimostrazioni in NJ e quelle nel sistema di Russell, Hilbert e Heyting è la seguente: in questi sistemi le formule vere sono derivate da un insieme di " formule logiche fondamentali" mediante poche forme di inferenza. La deduzione naturale invece non parte in generale da proposizioni logiche fondamentali ma piuttosto da assunzioni ... alle quali vengono applicate le deduzioni logiche. Per mezzo di successive inferenze il risultato viene quindi reso indipendente dalle assunzioni. » 1 La posizione speciale della legge del terzo escluso dV ---,d è ora questa: si passa dal calcolo intuizionista NJ a quello classico NK proprio ammettendo, in quest'ultimo, di poter assumere come assioma (ossia sotto nessuna assunzione) in qualunque «riga» di qualunque derivazione, appunto la formula dV ---,d. O, se si preferisce, ciò equivale ad aggiungere agli schemi di inferenza per gli operatori logici un ulteriore schema, che permette l'eliminazione della doppia negazione ed è così esprimibile sinteticamente: ---,---,d jd (come sappiamo questo passaggio non è intuizionisticamente valido, ed è appunto equivalente al terzo escluso). Per introdurre i calcoli LJ e LK, Gentzen non si riferisce semplicemente" a formule, ma considera il concetto, fondamentale in questo contesto, di sequenza di formule, che può indicarsi ad esempio con (k
~
o, m~ o)
dove le di (antecedente della sequenza) e le !!Jt (conseguente) sono formule; una sequenza come la (1) va letta: almeno una delle formule !!Ji segue, è derivabile, dalle formule dt, ossia, intuitivamente, va intesa come equisignificante con la formula (d1/\ d 2 /\ ... /\d k) ~ (!!J1 V f!Jz V ... V !!Jm)· Possono aversi sequenze con antecedente vuoto (k = o) che si riducono alla formula !!J1 V f!Jz V ... V !!Jm (ossia: vale almeno una delle formule !!Jt); o sequenze con conseguente vuoto I Diamo qui un esempio di derivazione in N J, dimostrando la formula proposizionale (q-> r)-> ((PV q)-> (PV r)). Con i concisi chiarimenti che faremo seguire il lettore dovrebbe essere in grado di « ricostruire » le regole applicate. L
2.
3· 4· 5. 6. 7· 8.
9·
[q-> r] q-->r [q] q [q-> r, q] r [q-> r, q] PV r [p] p (p] pv r [PV q] PV q [q->r,pV q] PV r [q-> r] (PV q) -+(pV r)
Ass. Ass. E---+-, I, 2 IV, 3 Ass. IV, 5 Ass. EV, 4, 6, 7 I->, 8
IO.
(-j
(q->r)-> I->,9 ->((pV q) ->(PV r))
Nelle righe 1, 2, 5 sono state introdotte delle assunzioni, il che è indicato con un Ass. a destra delle righe corrispondenti. Nella riga 3, ad esempio, è stata applicata la regola di eliminazione di --> alle (formule delle) righe 1, 2. La «meno ricostruibile » delle regole sopra applicate è forse la EV. Essa avviene con questo elementare ragionamento: se entrambi i corni p, q di un dilemma (p V q, riga 7) permettono di derivare (eventualmente con altre assunzioni) una stessa formula (nel nostro caso, p V r, righe 6, rispettivamente, 4) allora possiamo eliminare il dilemma stesso affermando la formula così ottenuta (riga 8).
344
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
(m= o) che si riducono alla formula---, (d1 /\ d
2 /\ ••• /\ dk), vale a dire l'antecedente vuoto significa una assunzione vera, il conseguente vuoto una conclusione falsa. Può anche aversi una sequenza vuota che scriveremo ad esempio « r- » e che è equivalente a una contraddizione (da una premessa vera si è ottenuta una conclusione falsa). Gli unici «assiomi» ammessi da Gentzen sono sequenze del tipo dr- d. La differenza fra i calcoli LJ e LK sta ora in questo che, restando comuni a entrambi gli schemi inferenziali cui ora accenneremo, nelle derivazioni in L J sono ammesse solo sequenze il cui conseguente sia costituito da una sola formula. Aggiungendo tale limitazione, e salvo esplicito avviso in contrario, quanto ora diremo genericamente sui calcoli L varrà tanto per LJ quanto per LK. Per stabilire ora un calcolo L delle sequenze, si dovranno dare, come per i calcoli N, delle regole per l'introduzione e l'eliminazione dei connettivi logici (il che si può ridurre, come ci si convince facilmente, alla sola introduzione dell'operatore in questione nell'antecedente o nel conseguente di una sequenza); ma saranno anche necessarie regole che riguardano soltanto la « struttura » di una sequenza, nel senso che permettono ad esempio di scambiare Pordine delle formule nell'antecedente o nel conseguente, o che permettono di evitare la ripetizione di formule ecc. Gentzen distingue infatti per i calcoli L gli schemi di inferenza operativa che regolano appunto la manipolazione degli operatori, dagli schemi di inferenza strutturale che invece consentono interventi del secondo tipo sulle sequenze. Diamo qualche esempio per i primi (le lettere maiuscole greche indicano successioni finite di formule, separate da virgole, eventualmente vuote);
I) Introduzione di V nell'antecedente
nel conseguente
f!J, /'r- g d, /'r- g J'r--8 dV f!J,
/'r- @,d l'r-dVf!J
2) Introduziflne di -----, nell'antecedente
l'r- @,d rr- e, f!JV d
nel conseguente
d, /'r- g
/'r- @,d ---,d, /'r- g
rr- e, ---,d
Per quanto riguarda gli schemi strutturali, oltre a quelli sopra ricordati informalmente, vogliamo esplicitarne uno che è decisamente centrale in tutto lo sviluppo del discorso di Gentzen. Si tratta dello schema di cesura (tedesco, Schnitt; inglese, cut), che si può porre sotto la forma:
!'r-d, 8
r,
d, LIr-A LIr-e, A
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
e che si può leggere come segue: se in una derivazione figura una sequenza come quella in alto a sinistra (I) e quindi una come quella in alto a destra (z) che hanno in comune la formula d, ma una nel conseguente e l'altra nell'antecedente, allora si può passare a una sequenza che ha come antecedente tutte le formule comprese nell'antecedente di (I) e di (z) meno la formula d e analogamente per il conseguente: in altri termini si può eliminare, tagliare (lo Schnitt originale) la formula d in questione. Si noti che fra tutti gli schemi strutturali questo è l'unico che permette di eliminare completamente da una derivazione una formula (nel nostro caso d; la formula così eliminata viene detta formula di cesura). Ora i risultati cui prima si accennava relativi ai calcoli L sono appunto riferiti a questo schema. Il primo di essi, noto come Hauptsatz (teorema principale) di Gentzen, afferma che ogni derivazione nei calcoli L di una sequenza I' 1--- e può essere trasformata in una derivazione della stessa sequenza nella quale non figurino cesure; in altri termini l' Hauptsatz afferma che tale schema è superfluo .l Allora dalla proprietà prima ricordata della cesura discende subito che dal momento che da una derivazione senza cesure non si può più eliminare alcuna formula, le formule di tutte le sequenze che intervengono nella derivazione di una sequenza. data dovranno in qualche modo figurare in quest'ultima. È questo infatti un immediato corollario dell' Hauptsatz, noto come proprietà o teorema della sottojòrmula (Tei[formelsatz): ogni derivazione nei calcoli L di una sequenza I' 1--- e può essere trasformata in una analoga derivazione della stessa sequenza, tale che ogni formula occorrente in qualche sequenza della derivazione è sottoformula di almeno una formula di I' 1--- e. Esprimendoci intuitivamente, è sempre possibile derivare una sequenza senza ricorrere a formule « estranee » alla sequenza stessa: in un certo senso quindi la derivazione ha « memoria». Conviene ricordare qualche altra conseguenza immediata dello Hauptsatz: banalmente ne deriva la consistenza della logica predicativa classica e intuizionista. Allo scopo infatti basta far vedere che non è derivabile la sequenza vuota « 1--- »; ma ciò è immediato dal momento che l'unico modo di «far sparire» formule da una derivazione è quello di applicare la cesura, il che è appunto evitabile grazie al teorema principale di Gentzen. lllteriori conseguenze: una procedura di decisione per la logica proposizionale intuizionista e una nuova dimostrazione della non derivabilità della legge del terzo escluso nella logica intuizionista. 2 1 Data l'evidente analogia della regola di cesura con il modus ponens, questo risultato ne richiama uno del tutto analogo ottenuto, come si ricorderà, da Herbrand. Gentzen in effetti vede il collegamento in questione, ma per una errata valutazione del risultato di Herbrand ritiene di aver dimostrato un teorema assai più generale. In effetti, per quanto riguarda la logica classica i due teoremi sono sostanzialmente equivalenti .. Il vantaggio tuttavia di quello ottenuto nella forma di Gentzen è che esso è applicabile (oltre che, ovvia-
mente, come abbiamo visto, alla logica intuizionista) anche a molti altri sistemi non classici, ai quali invece non può essere esteso il teorema di Herbrand. Si veda comunque anche la successiva nota. 2 Per la sola logica classica, ossia per il solo LK, l' Hauptsatz può essere rafforzato nel cosiddetto verschiirfter Haupt,-atz, secondo il quale la derivazione di una sequenza r, - A le cui formule siano tutte in forma normale prenessa può venir trasformata in una derivazione della stessa
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
L 'introduzione dei calcoli L e in particolare la dimostrazione dell' Hauptsatz permettono a Gentzen di affrontare e risolvere il problema centrale di tutta la Beweistheorie: la dimostrazione della consistenza dell'aritmetica, che egli propone solo un anno dopo le Ricerche, in Die Widerspruchfreiheit der reinen Zahlentheorie (La noncontraddittorietà della teoria dei numeri pura, I936), e ripropone modificata dopo qualche anno in Neue Fassung des Widerspruchfreiheitsbeweises fur die reine Zahlentheorie (Nuova versione della dimostrazione di noncontraddittorietà per la teoria dei numeri pura, I938); importante anche, in questa connessione, l'articolo Beweisbarkeit und Unberweisbarkeit von Anfangsfallen der transftniten Induktion in der reinen Zahlentheorie (Dimostrabilità e non dimostrabilità di forme ristrette dell'induzione iransfinita nella teoria dei numeri pura, I943)· Non è qui possibile entrare nei particolari della dimostrazione di Gentzen. Ci limiteremo ad accennare molto in generale all'idea centrale di tale dimostrazione: Gentzen associa ad ogni dimostrazione formale un numero ordinale transfinito a < so , dove so = w w ro w ww Quindi fa vedere che, o ve esistesse una dimostrazione di una formula contraddittoria, ad esempio della formula I =? I, di numero, poniamo, {3 si avrebbe anche una dimostrazione di I =? I cui sarebbe associato un numero ordinale y < {3 (intuitivamente: si avrebbe una dimostrazione «meno complessa» di I =? I); ne segue che l'esistenza di una contraddizione contravverrebbe al principio di induzione transfinita (fino a so) o, in termini meno esatti, si potrebbe già svolgere nel « finito ». È ovvio che il metodo al quale si appella Gentzen per dare la sua dimostrazione di consistenza trascende in qualche senso (come minimo appunto per il teorema di Godei) quanto è « formalizzabile » nell'aritmetica, ossia va al di là dell'ambito « finitista » in senso hilbertiano.l Ma, afferma Gentzen, «se si deve
+
sequenza, che gode delle seguenti proprietà: 1) non contiene cesure; 2) contiene una sequenza «mediana» tale che 2.1) né tale sequenza né la sua derivazione contengono quantificatori e 2.2) nel resto della derivazione vengono impiegati soltanto schemi di inferenza strutturale e schemi relativi ai quantificatori. In altri termini, la sequenza mediana divide per così dire la derivazione in due parti, una puramente logico-proposizionale, l'altra puramente logico-predicativa (si noti, in collegamento al teorema di Herbrand, che la sequenza mediana corrisponde appunto alla formula di Herbrand). Questa forma rafforzata dell' Hauptsatz viene sfruttata da Gentzen, sempre nelle Ricerche, per dare una nuova dimostrazione della consistenza dell'aritmetica senza induzione (come si ricorderà per l'aritmetica senza induzione o con l'induzione limitata a formule di tipo particolare altre dimostrazioni erano state date da Ackermann e von Neumann nel 1927, da Herbrand nel 1 9 32 ; e un teorema generale al riguardo viene dato da Bernays nel 1936). Tuttavia, come lo stesso Gentzen conclude, «l'aritmetica senza
+
+ ...
induzione completa è ... di scarso significato pratico, perché l'induzione completa è costantemente richiesta nella teoria dei numeri. Finora peraltro non è stata dimostrata la consistenza dell'aritmetica con induzione completa». È appunto quest'ultimo l'importante ulteriore risultato raggiunto da Gentzen nell'anno successivo. 1 Si consideri il principio di induzione matematica posto nella forma (cui in particolare si dà il nome di induzione completa) (1)
Vy {Vx(x
ossia: se per ogni numero naturale y, posto che tutti i numeri naturali minori di y godano di una certa proprietà P, allora anche y gode di P, allora tutti i numeri naturali godono della proprietà P. Se in questa formulazione si pone ovunque « numero ordinale » al posto di « numero naturale » e « che precedono y in un buon ordine -< » al posto di «minori» si ha un'enunciazione del principio di induzione transfinita. Si dimostra facilmente che quest'ultimo è applicabile a tutti e
347 www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
eseguire una prova di consistenza, ovviamente nella dimostrazione devono essere usate certe forme di inferenza. La correttezza di queste inferenze deve essere presupposta dall'inizio, altrimenti tutta la dimostrazione risulterebbe ovviamente circolare. Non può esistere una dimostrazione "assoluta" di consistenza... Le inferenze devono essere compatibili con il punto di vista costruttivo, l'affidabilità del quale non è posta in discussione ma data per garantita. L'obiettivo è allora quello di dimostrare la consistenza dell'interpretazione attualista per mezzo di inferenze costruttive». Quindi l'accettare o meno certe forme di inferenza come « finitiste » non è legato alla vaga intuizione di « finito » come sembrava intendere, pur senza averlo mai precisato, Hilbert; ma a una convenzione iniziale, anch'essa del resto di tipo non formale, che si adegui a una concezione costruttiva, potenziale dell'infinito. Naturalmente non si può dimostrare una tale adeguazione «se non altro perché la nozione di "finitista" non è univocamente definita da un punto di vista formale e in effetti non può essere delimitata in questo modo. Tutto quello che possiamo fare è esaminare ogni singola inferenza da questo angolo visuale e tentare di accert:HL' se quell'inferenza è in armonia col senso finitista dei concetti che vi intervengono e assicurarsi che essa non si fondi su un'inammissibile interpretazione "attualista" di questi concetti». È proprio qui, in definitiva, che Gentzen prende le distanze da Hilbert da una parte e dagli intuizionisti dall'altra. Dal primo, stabilendo un grado di maggiore convenzionalità per quanto riguarda la nozione di « finitista », collegandola sostanzialmente in modo più preciso al segmento di ordinali lungo il quale si intende sviluppare l'induzione; sicché per converso, e riprendendo il punto da cui eravamo partiti, «l'aumento di complessità del concetto di infinito ai tre livelli della matematica... teoria elementare dei numeri, Analisi e teoria degli insiemi, è accompagnato da una corrispondente estensione della sequenza dei numeri ordinali transfiniti ... ». Si noti che il significato del risultato di Gentzen soli gli insiemi hene ordinati. Estendendosi su tutti gli ordinali (e non solo sugli ordinali finiti, come l'induzione completa) questo principio anche dal punto di vista intuitivo - è estremamente «forte»: una sua adeguata formulazione e giustificazione è infatti possibile solo nella teoria degli insiemi. Ora Gentzcn trova una opportuna fm:11ula x <(y esprimibile nell'aritmetica, che definisce un buon ordine dei naturali di tipo eo. Fa inoltre vedere che l 'induzione transfinita limitata per così dire al buon ordine <(, ossia «troncata» a eo (si osservi che nel caso dell'induzione completa ci si spinge fino a w) permette, nel senso accennato nel testo, di dimostrare la consistenza dell'aritmetica. Anzi Gentzen fa anche vederetenuto conto del teorema di Godei - che questa scelta del buon ordine -< è ottimale, nel senso che se ci si limita a considerare un segmento -< 1 di-< (ossia se si spinge l'induzione fino a un ordi-
nale minore di eo) il principio di induzione transfinita per - la formula che esprime l'induzione su -< di tipo e 0 ). Per finire, riassumiamo in termini leggermente diversi l 'accenno dato nel testo all'andamento della dimostrazione. Supponiamo allora di avere ottenuto una derivazione di una contraddizione; riduciamo tale derivazione in modo effettivo, costruttivo, a una derivazione che abhia la stessa conclusione ma numero ordina le minore. Questa procedura termina dopo un numero finito di passi e quindi si ottiene una dimostrazione di una contraddizione, non più riducibile, non solo, ma ora ispeziona bile nel finito; e si può far vedere che è così impossibile dedurre una contraddizione.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
non fu immediatamente compreso, sicché non costituì subito un contributo al programma hilbertiano come concepito originariamente; tuttavia, come dice Solomon Feferman, « le limitazioni teoriche imposte a quel programma dal teorema di Godei avrebbero condotto a considerare una estensione del programma di Hilbert nella quale la richiesta che tutti i ragionamenti della teoria della dimostrazione fossero finitisti sarebbe stata indebolita richiedendo che tutti questi ragionamenti fossero costruttivi ». E ciò spiega il grande impatto che i metodi e i risultati di Gentzen hanno avuto e continuano ad avere nelle ricerche attuali di teoria della dimostrazione) Dagli intuizionisti invece Gentzen si discosta perché, !ungi dal rifiutare come prive di senso le proposizioni matematiche transfinite (ideali in senso hilbertiano) ritiene necessario tentare di dar loro un «senso finitista » (anche se nella sua accezione allargata) evitando così mutilazioni catastrofiche della matematica: «La maggior parte della mia dimostrazione di consistenza, » afferma Gentzen, « ... consiste proprio nell'ascrivere un senso ftnitista a proposizioni attualiste, e precisamente: per ogni proposizione arbitraria, nella misura in cui è dimostrabile, può essere enunciata ... una regola di riduzione, e ciò rappresenta il senso finitista della proposizione stessa e questo senso si acquisisce proprio per mezzo della prova di consistenza. » A mo' di conclusione, riportiamo le parole con cui Andrzej Mostowski valuta congiuntamente i risultati di Herbrand e Gentzen, accomunandoli ovviamente nella concezione finitista: «Esistono indubbiamente due opposte tendenze nello studio dei fondamenti della matematica: l 'infinitistica o insiemistica e la finitistica o aritmetica. Le scoperte originali di Herbrand e di Gentzen appartengono ovviamente alla seconda di queste tendenze, ma la ricerca successiva I È opportuno anticipare già a questo punto altre proposte successive al lavoro di Gentzen, avanzate per risolvere il problema della consistenza dell'aritmetica e di sistemi più forti (Analisi). Va detto intanto che Hilbert-Bernays nel 1939 non solo sembrano ammettere l'estensione di Gentzen dei loro metodi, ma anzi sembrano ritenere che estendendo ulteriormente tali metodi si possa giungere a una dimostrazione della consistenza dell'Analisi. In effetti tali estensioni si sono avute e sono state finora sostanzialmente di due tipi. Da una parte Gaisi Takeuti nel 1953 ha proposto un calcolo logico generale (del tipo dei calcoli di Gentzen ma per la teoria dei tipi con variabili predicative di ordine superiore) e ha congetturato che per tali calcoli valga ancora un ac.alogo dell' Hauptsatz. Se tale congettura si fosse rivelata esatta e fosse stata suscettibile di dimostrazione costruttiva, ne sarebbe seguita una dimostrazione di consistenza dell'Analisi. La congettura di Takeuti è stata in effetti dimostrata di recente (r 967) ma in modo non costruttivo. L'altro aspetto delle estensioni riguarda in modo naturale la defi-
nizione costruttiva di ordinali maggiori di co e tal i che con l'induzione spinta fino ad essi si possa dimostrare la consistenza di varie teorie materr.atiche; ricordiamo in questo campo i lavori e: i risultati di Ackermann (1951), Kurt Schutte (r96o), Takeuti (1956). Sorvolando su altri tentativi in questa direzione, vogliamo invece ricordare una proposta avanzata da Godei nel 1958 in Vber eine bisher noch nicht beniitzte Enveiterung des ftniten Standpunktes (Su un ampliamento finora non ancora utilizzato del punto di vista ftnitista ), in cui egli introduce un sistema formale per funzionali primitivi ricorsivi di tipo finito, ove per funzionale si intende una funzione i cui valori e argomenti possono essere altre funzioni. Con una traduzione nell'aritmetica intuizionista, Godei ottiene una dimostrazione di consistenza per l'aritmetica classica. Si noti che esiste una precisa relazione fra il metodo di Gentzen e quello di Godei: per dimostrare l'esistenza dei funzionali definiti nel sistema di Godei occorre, come ha fatto vedere Georg Kreisel nel 1959, impiegare l'induzione fino a co.
349
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
che si è fondata su questi risultati ha tratto molte idee dalla prima. L'influenza dell'approccio insiemistico è chiaramente riscontrabile nel teorema di consistenza di Bernays l nel quale le nozioni semantiche sono volutamente imitate in termini finitisti. Possiamo dire che i metodi di Herbrand e di Gentzen ci permettono di rendere finitisti certi casi particolari di costruzioni insiemistiche. » Può aggiungersi che nell'ultimo decennio le due tendenze si sono sempre più influenzate a vicenda.
5) La precisazione del concetto di « effettivo ». Teoria della ricorsività Non occorre spendere molte parole per introdurre quest'ultimo argomento con cui concluderemo la panoramica delle vicende della ricerca logica negli anni trenta: abbiamo avuto più volte occasione, nelle pagine precedenti, di fare entrare naturalmente nel nostro discorso il riferimento a procedure effettive intese in senso ovviamente vago e intuitivo. Sostanzialmente tali riferimenti avvenivano in questi termini: ritenevamo di possedere una « procedura effettiva » ogniqualvolta di fronte a un problema (una certa classe di problemi) eravamo in grado di dare un « algoritmo » che permettesse di risolvere quel problema (ogni problema di quella certa classe). Al termine di algoritmo si associa di solito intuitivamente l'idea di un complesso di istruzioni tali che: a) siano precisamente determinate sì da non consentire situazioni di dubbio nel corso dell'esecuzione, e inoltre « universalmente» comprensibili nel senso che chiunque possa applicarle una volta presane conoscenza; in altri termini un algoritmo deve essere «deterministico» e essenzialmente «meccanico»; b) siano abbastanza generali da potersi applicare a ogni problema di una data classe; c) applicate a certi« dati» forniscono criteri per determinare quando la soluzione è raggiunta, e questo avvenga dopo un numero finito di passi. Nel caso la soluzione non venga raggiunta, le istruzioni possono dar luogo a un processo che prosegue indefinitamente. Esempi a tutti noti di procedure di questo tipo sono l'algoritmo euclideo per la ricerca del massimo comune divisore fra due numeri naturali; o il semplicissimo algoritmo col quale stabilire se un qualunque numero naturale dato è primo o no; l'algoritmo (tavole di verità) mediante il quale stabilire se una data formula proposizionale è o no una tautologia (che risolve il problema della decisione per la logica proposizionale); ecc. Abbiamo tuttavia ricordato altri problemi (che abbiamo lasciato aperti) per i quali non conosciamo un algoritmo in grado di offrirei una soluzione, ad esempio il problema della decisione per la 1 Si tratta della dimostrazione data da Bernays nel 1936 (vedi la nota 2 a pag. 346) e poi riportata nel secondo volume (1939) dei Fondamenti della matematica di Hilbert-Bernays. In essa Bernays dimostra che data una teoria i cui assiomi posti in forma prenessa abbiano prefisso del tipo
'<13 (ossia ogni quantificatore universale precede ogni quantificatore esistenziale) se gli assiomi sono veri in . modo « effettivo », allora lo sono anche i teoremi (da questo risultato segue immediatamente la consistenza dell'aritmetica con induzione ristretta a formule prive di quantificatori).
350
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
logica del primo ordine CP: data una qualunque formula d scritta nel linguaggio L di CP, è possibile decidere in un numero finito di passi se d è o no un teorema di CP? Si noti che questa domanda equivale alla seguente: considerata la classe C di tutte le formule di CP, è possibile dare un algoritmo per isolare in essa una sottoclasse T costituita da tutte e sole quelle formule che sono teoremi di CP? Ovvero è possibile decidere per ogni formula F di CP ~e F E. T oppure no? Il lettore potrebbe pensare che in effetti tale algoritmo esista e sia proprio rappresentato da un sistema di assiomi per CP con le regole di derivazione a suo tempo viste; infatti è chiaramente possibile « decidere » per ogni formula F di CP se essa è o no un assioma e d'altra parte, data una successione finita di formule, siamo in grado di « decidere » se essa è ~na derivazione in CP (in altri termini, proprio per la definizione formalista di sistema formale anche le regole di derivazione sono « decidibili»). Ma le cose non stanno così: per determinare quando una data formula è un teorema dobbiamo essere in grado di sapere se esiste una sua dimostrazione; il carattere « effettivo » delle regole e della proprietà di essere assioma ci permette sì di determinare, data una successione di formule, se essa è una dimostrazione, ma non ci consente in alcun modo, data una qualunque formula F, di sapere se esiste una successione di formule che sia una dimostrazione di F. In altri termini, data una formula, non è detto che si abbia in generale un modo di ricostruire le sue possibili derivazioni. La situazione può· essere cioè descritta intuitivamente dicendo che l 'insieme dei teoremi di CP è effettù;amente y,enerabile ma non è detto che sia decidibile: . ~uesta distinzione introduce due possibili direzioni di approccio, storicamente seguite, come vedremo, per una precisazione rigorosa del problema dell'effettivo. Si vedrà infatti che i due concetti sono tra loro interdefinibili ma non riducibili l'uno all'altro. È chiaro comunque che la precisazione rigorosa di entrambi questi concetti dipende da una previa precisazione del concetto di algoritmo, al q~ale tutti e due rimandano con la clausola di « effettività». Orbene, finché ci limitiamo alla caratterizzazione intuitiva di algoritmo sopra data, potremo fare solo enunciazioni di tipo per così dire positivo: « per tale problema (di una certa classe di problemi) esiste un algoritmo fatto così e così »; ma è impossibile ottenere risultati negativi, ossia far vedere che un determinato algoritmo richiesto non esiste se ci si limita ad una descrizione così vaga del concetto stesso. A partire allora da questa accezione intuitiva si impone una sua precisazione rigorosa: è appunto a questa precisazione che si rivolge negli anni trenta la teoria della ricorsività. Prima di presentare, molto brevemente, le varie soluzioni proposte in quegli anni, consideriamo alcuni concetti intuitivi, e i loro rapporti, che serviranno a snellire il prosieguo del nostro discorso. Ricordando l'esempio sopra fatto a proposito dd problema della decisione per CP, diciamo decidibile un insieme M se è possibile dare un algoritmo che permetta di decidere per ogni oggetto x se x E M oppure x $ M. Consideriamo ora un predicato a
351
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
n posti; è chiaro che potremmo riguardarlo da un punto di vista estensionale come l'insieme di tutte e sole quelle n-uple di oggetti che godono della proprietà espressa dal predicato (useremo convenzionalmente attributo per indicare questa accezione estensionale di un predicato). Allora viene naturale chiamare decidibile un certo predicato a n posti se è decidibile nel senso detto sopra l'attributo corrispondente, ossia se per ogni n-upla di oggetti esiste un algoritmo che permette di stabilire se tale n-upla appartiene o no all'attributo. Consideriamo infine una funzione a n argomenti: diremo effettivamente computabile (o calcolabile) una tale funzione se, data comunque una n-upla di suoi argomenti, è possibile (esiste un algoritmo per) trovare in un numero finito di passi il valore corrispondente. D'altra parte sappiamo che a ogni insieme M (e quindi in particolare a ogni attributo) è associabile una funzione, precisamente la sua funzione caratteristica /M così definita:JM(x) = o se x E M;JM(x) = I se x rj M; e dovrebbe risultare chiaro che un insieme M è decidibile se e solo se la sua funzione caratteristica f M è computabile. Risulta allora (e il lettore può facilmente convincersene) che essere computabile di una funzione, essere decidibile di un insieme o di un predicato, e possedere un algoritmo sono concetti tra loro intercambiabili; e che quindi per dare una precisazione rigorosa del concetto intuitivo di procedura effettiva, basta riferirsi a uno solo di essi indifferentemente. Ci si convince anche facilmente che se l'insieme M è decidibile, tale è anche il suo complemento M; e che se M, .N soho decidibili, tali saranno anche gli insiemi M n N, M u N. Ancora, se il predicato Px1 , ... , Xn è decidibile, tale sarà anche il predicato ---, Px1 , ... , Xn , sua negazione; e che se Px1 , ... , Xn e Qx1 , ... , Xn sono decidibili, tali saranno anche i predicati Px1 , ... , Xn o Qx , ... , Xn , dove o venga sostituito da uno qualunque dei connettivi 1\, V, ~, ~; in particolare sarà decidibile il predicato y
Px1 , ... ,
Xn
,y
=
3 xQx1 , ... , x~
o
Xn ,
x,
ottenuto per quantificazione esistenziale limitata dal predicato decidibile Qx1 , •.• , Xn, x e analogamente per la quantificazione universale limitata. Per l'altro concetto intuitivo che abbiamo introdotto, quello di insieme effettivamente generabile, da quanto sopra detto risulta chiaramente che tale è un insieme M per il quale esiste un procedimento effettivo, un algoritmo, che genera uno dopo l'altro tutti gli x tali che x E M; (in altri termini si considera effettivamente generabile un insieme che sia campo di valori di una funzione computabile). Risulta allora chiaro che il concetto di insieme effettivamente generabile non coincide con quello di insieme decidibile: in questo secondo caso, dato un oggetto qualunque, sappiamo decidere se esso appartiene o no all'insieme; nel 352
www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
primo caso invece, tutto quello che sappiamo è che se un certo x appartiene all'insieme esso verrà «generato» a un certo punto del procedimento effettivo. Tra i due concetti esiste tuttavia una stretta connessione, che è la seguente: un insieme M effettivamente generabile è decidibile se e solo se anche il suo complemento M è effettivamente generabile. Ed è facile rendersene conto: se è possibile generare effettivamente tanto gli x E M quanto gli x E M (ossia che f/: M) è chiaro che in un numero finito di passi potremo decidere a quale dei due insiemi M o M un dato oggetto appartiene. Ancora un'osservazione preliminare. Sinora abbiamo parlato di algoritmi senza specificare i domini sui quali essi sono definiti, senza cioè dire che tipo di oggetti questi algoritmi manipolano. È chiaro che si dovrà trattare di oggetti concreti e che anche se si vuole disporre di algoritmi che riguardano oggetti astratti (ad esempio, numeri naturali), la definizione di algoritmo dovrà essere data modulo una previa determinazione linguistica, di nomi (oggetti concreti, appunto) assegnati biunivocamente agli enti astratti. In altri termini un algoritmo dovrà sempre essere definito relativamente ad un linguaggio finitamente specificato (ossia con alfabeto finito e con regole finite per la costruzione delle espressioni) e quindi con un insieme di espressioni al più numerabile. D'altra parte, mediante la tecnica dell'aritmetizzazione, sarà possibile in certo senso normalizzare ogni linguaggio di questo tipo assegnando biunivocamente e in modo effettivo a ogni espressione del linguaggio un numero naturale (il suo numero di Godei): questo intanto spiega perché in generale ci si possa limitare a considerare funzioni numeriche (ossia che prendono argomenti e valori su N) predicati numerici (ossia che hanno come argomenti n-uple di numeri naturali e come valori uno dei due valori di verità Vero o Falso) insiemi (e in particolare attributi) di numeri naturali ecc. Ogni algoritmo si potrà allora considerare come descrivente una funzione su numeri; ma proprio per quanto detto sopra, dovremo servirei, per la definizione concreta dell'algoritmo stesso, di un linguaggio che possegga nomi per i numeri, ossia cifre le quali, si noti bene, non dovranno necessariamente essere quelle ordinarie della notazione decimale, ma dipenderanno da considerazioni generali legate al tipo di approccio che si dà al problema della caratterizzazione del concetto di algoritmo. Il lettore non si dovrà quindi stupire se nel seguito, parlando delle definizioni proposte da Turing, Church, Post, Markov, parleremo di «funzioni numeriche» e di relativi algoritmi anche se, almeno in modo immediato, queste definizioni non sembrano riguardare i numeri: i linguaggi in questione, malgrado le apparenze, contengono tutti espressioni particolari che fungono da cifre (ossia, ripetiamo lo, nomi per i numeri naturali).l I Come già in precedenza, noi indicheremo genericamente con ii la cifra del numero n. Si osservi ancora che quando si vuoi parlare della cifra
corrispondente a un certo numero di Godei, si usa spesso il termine gode/iano.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Il primo passo consapevole verso una precisazione rigorosa di tutto questo bagaglio intuitivo - dopo le anticipazioni di Skolem cui abbiamo già accennato - viene compiuto come sappiamo da Godei nella memoria del 1931. Godei individua una classe di funzioni numeriche, oggi dette ricorsive primitive, sul cui carattere di effettiva computabilità non potevano sorgere dubbi.! Infatti tali funzioni vengono definite assumendo alcune funzioni di base certamente computabili da un punto di vista intuitivo, e quindi esplicitando due schemi di formazione che a partire da funzioni ricorsive primitive permettano di definire altre funzioni ancora ricorsi ve primitive. Le funzioni base sono:
r) la funzione di successore S(x) =x+ r che applicata a un qualunque numero naturale dà come risultato il successore di quel numero (tale funzione è ovviamente computabile); z) la funzione di costante o, C(x) =o ossia quella funzione, anch'essa banalmente computabile, che ad ogni argomento fa corrispondere come valore lo o; 3) le funzioni di selezione U~(x1, ... , Xn) = Xt per ogni n finito e per ogni i ~ n); queste funzioni applicate a una qualunque n-upla di argomenti le fanno corrispondere come valore l'i-esimo elemento della n-upla; anch'esse sono banalmente computabili.
i (I
~
seguenti, dove g, h1 , ... , hm , l, m sono
I due schemi di formazione sono funzioni ricorsive primitive
ss SR
f(xl, ... , Xn) =g(h1(X1, ... , Xn), ... , hm(Xl, ... , Xn)); \ f(o, j f(x
X1, ••• ,
Xn)
=
l(x1, ... , Xn) = m(x,f(x,
+ I, x1, •.. , Xn)
1 Si osservi che Godei non intendeva assolutamente identificare questa classe di funzioni con la classe delle funzioni effettivamente computabili; del resto già nel 1928 Ackermann in Zum Hilbertschen Aufbau der reellen Zahlen (Sulla costruzione hilbertiana dei numeri reali) aveva esibito una funzione che, pur essendo computabile, non risultava ricorsiva primitiva. Il senso della proposta di Godei è un altro, e importantissimo: le funzioni ricorsive primitive costituiscono quella porzione (molto ristretta) di aritmetica necessaria alla formalizzazione della sintassi di una teoria. Di qui il collegamento con i lavori di Skolem e la loro interpretazione da parte di Hilbert. Da
X1, ••• ,
Xn),
X1, ••• ,
Xn) .
quanto sappiamo circa la conduzione della dimostrazione di Godei, possiamo dire che tutte le funzioni ricorsive primitive sono rappresentabili formalmente (nel senso della nota 2 a pag. p8) in 5!3; vedremo tuttavia che esse non sono le sole rappresentabili in questo senso, ossia la classe delle funzioni formalmente rappresentabili in 'lJ è più ampia, comprende in modo proprio la classe delle funzioni ricorsive primitive. È proprio da un'analisi del concetto di rappresentabilità formale che prende lo spunto una caratterizzazione (quella proposta da Herbrand, Godei, Kleene) della classe delle funzioni effettivamente computabili.
3 54
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
I due schemi precedenti, detti rispettivamente di sostituzione e di recursione, vanno letti come segue: a) si può definire una funzione fa n argomenti, a partire da una funzione data g} a m argomenti, sostituendo al posto degli argomenti stessi m funzioni h1, ... , hn a n argomenti; e il suo senso è ovviamente che se, come supposto, g e h1 , ... , hm sono ricorsive primitive} allora anche la funzione j è ricorsiva primitiva; b) si può definire una funzione j assegnando il suo valore per l'argomento o (e per eventuali altri parametri x 1 , ... , xn) e quindi dando il modo di calcolare il valore per ogni argomento successivo x + I in funzione dell'argomento precedente e del valore che la funzione stessa aveva avuto per x (oltre, ovviamente, in dipendenza dai soliti parametri). Si dice in tal caso che j è definita per recur.rione o per induzione (su x) donde il nome dello schema. Il lettore può facilmente verificare che gli assiomi 2.4 e 2.5 di '+l (paragrafo nLI) altro non sono che le definizioni ricorsive delle funzioni di somma e prodotto; come pure tali sono le definizioni della nota I a pag. 294. Ovviamente, al solito, se tutte le funzioni che intervengono in SR nelle equazioni a secondo membro sono ricorsi ve primitive- come supposto- allora anche la j così definita è ricorsi va primitiva. Agli schemi SS e SR sono riconducibili, come hanno mostrato successivamente Gi:idel, Peter, Hilbert-Bernays e altri fra il I93 I e il 1934, ulteriori schemi di formazione per funzioni ricorsi ve primitive, ad esempio: lo schema di recursione sul decorso di valori, nella quale per la definizione di j (x + I) si può far ricorso a un numero arbitrario di valori assunti da j per argomenti minori di x (e non solo per l'immediato predecessore); la recursione multipla, nella quale si può operare contemporaneamente la recursione su più variabili; e ancora la distinzione dei casi, la minimalizzazione e la quantificazione limitate, e altri sui quali è inutile soffermarsi in questa sede. Che il concetto di funzione ricorsiva primitiva non sia un corrispettivo rigoroso adeguato a quello di funzione computabile ci è già noto; oltre all'esempio di Ackermann, nel I93 5 Rosza Peter in Konstruktion nicht rekursiver Funktionen (Costruzione di funzioni non ricorsive) approfondiva notevolmente la questione. Ma pur senza presentare un esempio particolare ci si può convincere facilmente in generale che esistono funzioni computabili e non primitive ricorsive. Si dimostra facilmente che la classe delle funzioni ricorsive primitive è numerabile e che è possibile enumerare effettivamente tutti i suoi elementi, ossia parli in una successione ]1 ,]2 ,fa, ... Definiamo ora una funzione h(x) ponendo
h(x)
=
fn(x)
+
I
ossia per ogni n il valore di h per l'argomento x è uguale al valore in x dell'nesima funzione della nostra enumerazione, aumentato di I ; poiché ]n è per ipotesi ricorsi va primitiva e quindi calcolabile, anche h ovviamente sarà cakolabile; se ora h(x) fosse a sua volta ricorsiva primitiva, dovrebbe coincidere con una delle 355 www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
./i;
poniamo coincida con fm . Si avrebbe allora, calcolando i valori· proprio per l'argomento m fm(m) = h(m) = fm(m)
+
I
ossia una contraddizione.! Fra il 1934 e il 1936 si ebbero numerose proposte di caratterizzazione di una classe più generale di funzioni che potesse aspirare ad essere identificata con la classe delle funzioni computabili. Una prima definizione si ebbe nel 1934, da parte di Godel, il quale in On undecidable propositions of formai mathematical .rystems (Sulle proposizioni indecidibili dei sistemi matematici formali), riprendendo un'idea avanzata da Herbrand nel 193 I, proponeva di identificare le funzioni computabili con quelle che ora egli chiamava funzioni ricorsive generali e che noi diremo ricorsive senza ulteriori qualificazioni. Il procedimento di Godel può così schematizzarsi. Fissato un sistema formale le cui formule sono costituite da equazioni tra termini e le cui regole permettono di passare da un'equazione a un'altra mediante sostituzioni e rimpiazzamenti opportuni, e definiscono quindi un calcolo di equazioni, funzione ricorsiva è per definizione ogni funzione f (x1 , ..• , Xn) per cui esiste nel calcolo un sistema di equazioni E tale che per ogni n-upla n1 , ••• ,nn di numeri naturali, F(in, ... ,nn) =m è derivabile da E mediante le regole del calcolo se e solo se f(n 1 , ••• ,nn) = m.z Nel 1936 appare inoltre un articolo di Alonzo Church (n. 1903), An unsolvable problem of elementary number theory (Un teorema non risolubile della teoria elementare dei numeri), nel quale egli propone il cosiddetto calcolo della conversione di lambda (di solito indicato con À-conversione); a individua così la classe delle funzioni À-convertibili che appunto propone come corrispettivo rigoroso della classe delle funzioni computabili. Nello stesso anno Church pubblica A note on Entscheidungsproblem (Una nota sul problema della decisione) ove dà una risposta negativa al problema della decisione per la logica del primo ordine. Sempre nel 1936 Shephen Cole Kleene (n. 1909) pubblica l'articolo Generai recursive functions of natura! numbers (Funzioni generali' ricorsive di numeri naturali) nel quale intanto generalizza e sistematizza l'idea di Godel del calcolo delle equazioni ma dà anche una caratterizzazione per così dire più direttamente «numerica» della classe delle funzioni ricorsive, ottenute aggiungendo agli schemi visti a pag. 3 ~4 un r Si noti l'analogia col processo di « diagonalizzazione » usato da Cantor per dimostrare la non numerabilità dell'insieme dei numeri reali. La funzione h(x) così definita o, per essere più precisi, una funzione F(n, x) che per ogni n assuma, per l'argomento x, il valore dell'n-esima ·funzione ricorsiva primitiva per lo stesso argomento, si dice funzione universale per la classe delle funzioni ricorsive primitive. 2. Con F indichiamo un qualsiasi simbolo
funzionale del linguaggio formale, che diviene così il nome della funzione f; per « nome di una funzione» useremo anche il termine «funtore ». 3 Il procedimento di Church si fonda su un'idea avanzata già nel 1924 da Moses Schonfinkel in Ober die Bausteine der mathematischen Logik (Sugli elementi fondamentali de!!a logica matematica) e che verrà sviluppata in altro senso negli anni 'jO in particolare da Haskell B. Curry per la costruzione di una logica combinatoria o dei combinatori.
www.scribd.com/Baruhk
La logica·nel ventesimo. secolo (1)
ulteriore schema fondato sull'impiego dell'operatore p di minimalizzazione illimitata: avendo una funzione ricorsivaj(x1, ... , Xn, x) per la quale esista almeno un x tale chef (x 1 , ... , Xn , x) = o, che obbedisca cioè alla condizione di normalità Vx1 Vx2 , ••• , Vxn 3x(j(xl, ... , Xn, x)= o), si può definire un'altra funzione ricorsiva g(x1, ... , Xn) con g(x1, ... , Xn) = t-txf(xl, ... , Xn, x) =o ossia il valore di g per ogni n-upla X1 , ••• , Xn è dato dal più piccolo x per il quale è verificata la condizione a secondo membro. 1 Già a questo punto è possibile caratterizzare in modo preciso l 'idea intuiti va di insieme effettivamente generabile: la sua controparte rigorosa è il concetto di insieme ricorsivamente enumerabile (r.e.): un insieme è r.e. se e solo se coincide col campo di valori di una funzione ricorsiva. Conviene ancora ricordare - anche se due di esse fuoriescono dal periodo qui considerato - tre proposte che si scostano dalle precedenti in quanto sono basate sul concetto di algoritmo piuttosto che su quello di funzione computabile; si tratta delle proposte di Alan Mathison Turing (I 912- I 9 54), quella di Emil Leon Post e quella di A. A. Markov. Iniziamo da quest'ultimo riferendoci direttamente al suo volume Teoria degli algoritmi del I954· Markov considera parole in un dato alfabeto finito A, ossia successioni finite (eventualmente vuote) di simboli di A, e regole di trasformazione su tali parole che consistono sostanzialmente nell'ammettere la sostituzione, in una data parola, di una sua «sottoparola» con un'altra. Se p e p' sono due parole su A, le regole assumono cioè la forma p-+p' e vanno intese nel senso che dalla parola BpC si può passare alla parola Bp' C (ove si richiede che B non contenga p). Un algoritmo è ora per Markov una successione finita di tali operazioni PI-+ Pt', P2-+ P2', ... , Pn-+ Pn' e alcune ,di queste vengono assunte come « operazioni terminali » o di « stop » e vengono indicate con un punto dopo la freccia, ad esempio q1 -+ · q1 '. È chiaro come funziona un algoritmo; applicato a una data parola P, si controlla se essa, per qualche i contiene Pt; P sarà allora della forma P = AptB e quindi applicando l'i-esima regola si può trasformarla in P 1 = A p/ B: si controlla ora P 1 e si ottiene (eventualmente) P 2 ecc. Possono ovviamente darsi due casi particolari: dopo n trasformazioni o non è più applicabile alcuna regola o l'ultima regola applicata è terminale; l'algoritmo allora si ferma avendo prodotto la parola Pn. 1 L'idea di Kleene è basata su questa osservazione. Computabili (quindi ricorsive) devono essere tutte le funzioni definibili per induzione. Lo schema di recursione, come mostra l'esempio di Ackermann, afferra solo un aspetto di questo principio generale. Definire una funzione per induzione, significa sostanzialmente definire una relazione il cui carattere funzionale possiamo dimostrare in base al principio di induzione com-
pleta. Ora questo principio si può (e lo si vede facilmente) formulare in questi termini: ogni insieme non vuoto di numeri naturali possiede un elemento minimo. È sulla base di questa considerazione che lo schema di definizione mediante l'operatore f.l acquista plausibilità: se è soddisfatta la condizione di normalità, allora esiste un minimo nell'insieme degli .l' tale che j(x1, .... Xn ,_y) =O,
357
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
Oppure il processo può proseguire indefinitamente e ciò significa che esso non era applicabile alla parola P di partenza. A parte ora alcune (immediate) precisazioni, una funzione sarà detta computabile se esiste un algoritmo che la computa, ossia che applicato alla parola che esprime i suoi argomenti termina con una parola che esprime il suo valore corrispondente. Estremamente interessante è la proposta di Turing, che egli avanza in On computable numbers with an application to the Entscheidungsproblem (Sui numeri computabili con un'applicazione al problema della decisione, 1936-37), in cui egli analizza in
modo « concreto » il procedimento computistico dell'uomo, evidenziandone per così dire gli elementi atomici e traducendolo in termini di una macchina « calcolatrice» ideale (macchina di Turing).l Si tratta di una «macchina» che si suppone possedere una «memoria» potenzialmente infinita e un nastro anch'esso potenzialmente infinito; quest'ultimo è pensato diviso in « celle » e la macchina può osservare, in ogni momento, una e una sola di tali celle trovandosi in un determinato «stato interno» (e dispone di un numero finito di tali stati). Essa può compiere quattro operazioni elementari: spostarsi di un passo (di una cella) a destra (D); spostarsi di un passo a sinistra (S); imprimere un simbolo (scelto fra un numero finito di simboli base) in una cella vuota; cancellare un simbolo che si trovi in una cella (eventualmente sostituendolo con un altro). Infine la macchina può fermarsi. Si dimostra che con queste operazioni elementari una macchina di Turing riesce a « computare » funzioni nel senso che « atomizza » come sopra le operazioni richieste allo scopo, e a partire dagli argomenti della funzione opportunamente « scritti » sul nastro, si ferma dopo aver stampato il valore della funzione per quegli argomenti. Si può dare forma più astratta a questa impostazione identificando una macchina di Turing con una successione di quadruple ad esempio del tipo seguente
da leggersi: trovandosi nello stato interno qi la macchina osserva il simbolo ai , compie l'atto Ak e passa nello stato q1; l'atto Ak può essere: S, D, fermarsi, oppure scrivere il simbolo ak. (Ovviamente sono necessarie opportune condizioni di « coerenza » per la macchina, tese a garantirne il carattere deterministico, sulle quali tuttavia non ci soffermeremo in questa sede.) È chiaro che da questo punto I Va detto per inciso che il metodo di approccio di Turing, basato com'è direttamente su un'analisi degli elementi in cui si può scomporre l'attività «reale>> di computazione da parte di un soggetto umano più che sulla nozione di computazione (funzioni ricorsive) o di programma (algoritmi), è senz'altro il più convincente e immediatamente afferrabile a livello intuitivo (mal-
grado le innegabili complessità « meccaniche » che esso comporta). Per questo, più che altre precisazioni, è stato il metodo che ha favorito l'identificazione delle funzioni ricorsive con quelle intuitivamente computabili. Si ricordi del resto l'accenno fatto da Godei in proposito, da noi riportato alla nota I a pag. p6.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
di vista una funzione sarà computabile se esiste una macchina di Turing che h computa nel senso precedente. Inoltre dovrebbe risultare agevole comprendere che ogni macchina di Turing può èssere individuata mediante il suo numero di GOdei, che si ottiene semplicemente applicando la tecnica dell'aritmetizzazione all'insieme di quadruple che caratterizza una data macchina. Discorso analogo può farsi ovviamente per gli algoritmi di Markov, tramite opportuna godelizzazione delle relative istruzioni. Infine facciamo un cenno al lavoro di Post, Recursive!J enumerabile sets oj positive integers and their decision problem (Insiemi ricorsivamente enumerabili di interi positivi e il loro problema della decisione, 1944), dove viene sviluppato un metodo relativo alla teoria degli insiemi ricorsivamente enumerabili indipendente dalla teoria delle funzioni ricorsive; l l'aggancio con l'approccio «funzionale» è dato dai teoremi - dimostrati da Post - che in forma intuitiva abbiamo già dato e cioè: la funzione caratteristica j M di un insieme M è computabile se e solo se .M e il suo complemento M sono entrambi ricorsivamente enumerabili e una funzione j è computabile se e solo se l'insieme delle coppie <x,j(x)> è ricorsivamente enumerabile. Ma, domanda naturale: esistono insiemi ricorsi vamente enumerabili ma non ricorsi vi? La risposta, come vedremo più ampiamente in seguito, è positiva (come avevano dimostrato indipendentemente Church, Rosser e Kleene nel 1936) e costituisce uno dci risultati centrali di questa prima fase della ricerca sulla ricorsività: Post ha il merito di iniziare un'indagine accurata di tali insiemi. Egli dimostra che due insiemi qualunque non ricorsivi ma ricorsivamente enumerabili non sono necessariamente equivalenti dal punto di vista della decidibilità nel senso che il problema della decisione dell'uno coincida con quello per l'altro a meno di inessenziali cambi di nomi per i loro elementi. Egli lasciava tuttavia aperto il problema circa il tipo di « similarità » che poteva eventualmente porsi fra insiemi non ricorsivi ma ricorsivamente enumerabili. Allo scopo Post (riprendendo un'idea di Kleene del 1943) definisce la nozione di ricorsività relativa: un insieme A si dice ricorsivo in un insieme B quando la funzione caratteristica fA del primo risulta ricorsiva supposto che, ogniqualvolta sia necessario alla computazione di .f1 , si possa disporre di valori della funzione caratteristica j 8 del secondo (nella terminologia di Turing la /B funge qui da oracolo). Egli pone quindi il problema (detto di Post) seguente: dato un qualunque insieme A non ricorsivo e ricorsivar Come già accennato quindi l'approccio di Post (che si basa sull'introduzione di particolari sistemi formali detti sistemi canonici) più che sull'idea di funzione computabile si fonda sull'idea di insieme generabile in modo effettivo. All'origine di questo approccio sta un'analisi del concetto generale di sistema formale come procedura sistematica per generare oggetti complessi, i teoremi, che sono parole formulate entro un dato
alfabeto. In questo senso quello di Post è un tentativo più « logico » che matematico in un doppio senso: da una parte costituisce un ripensamento dell'idea di sistema formale (Hilbert), dall'altra un tentativo estremamente audace di afferrare direttamente il concetto base della matematica costruttiva: il concetto di insieme potenzialmente infinito generato per approssimazioni successive (si pensi a Gentzen).
3 59
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mente enumera:bile, ogni altro insieme B ricorsivamente enumerabile è ricorsivo in A? Il senso del problema era dato dal fatto che al tempo di Post non si conoscevano controesempi a questo comportamento sicché si trattava di stabilire se tale relazione fra due insiemi A e B come sopra avesse luogo necessariamente. Questo problema rimarrà aperto fino al 1956 e noi lo riprenderemo più avanti, parlando dei cosiddetti gradi di irresolubilità. Vogliamo ora accennare ad alcune questioni centrali cui danno luogo tutte queste varie proposte di adeguazione del concetto intuitivo di computabilità effettiva. Innanzitutto un risultato fondamentale cui sono pervenuti vari autori ad esempio Kleene, Church, Turing, Rosser - afferma che le varie definizioni in termini di funzioni ricorsive, o di funzioni « rappresentabili » in un dato sistema (Godel e Church) o di algoritmi (Markov), o di macchina di Turing, o infine di sistemi canonici (Post) - sono tutte equivalenti, ossia individuano la stessa classe di funzioni. È questo uno degli argomenti fondamentali che depongono a favore della cosiddetta tesi di Church (che questo autore avanza esplicitamente nel primo degli articoli del 1936 sopra citati) secondo la quale, accettato come è ovvio che ogni funzione ricorsiva è computabile, vale anche l'inverso ossia ogni funzione (intuitivamente) effettivamente computabile è ricorsiva: in altri termini, le funzioni computabili sono tutte e sole le funzioni ricorsive.l Tutte le formulazioni del concetto di funzione ricorsiva da noi date facevano riferimento a un qualche tipo di sistema formale. Basandosi su questo fatto, nel 1936 Kleene riuscì, ricorrendo a una aritmetizzazione della sintassi ,del tutto analoga a quella usata da Godel nella dimostrazione del suo teorema di incompletezza, ad assegnare ad ogni funzione ricorsiva un numero naturale (il suo indice) e quindi a definire un predicato ricorsivo primitivo Tn+ 2 e, xr, ... , Xn ,y, a (n 2) posti (predicato di Kleene) che traduceva aritmeticamente la relazione matematica seguente: y è una computazione del valore della funzione ~
+
1 Si noti che l'affermazione della coincidenza della classe delle funzioni ricorsive con la classe delle funzioni effettivamente computabili viene chiamata tesi o ipotesi (e non, ad esempio, teorema) di Church, perché si tratta di una congettura che afferma la coincidenza (estensionale) di due concetti, l'uno dei quali (quello di funzione ricorsiva) precisato rigorosamente a livello formale, l'altro (quello di funzione effettivamente computabile) dato solo intuitivamente e in accezione assai vaga. La tesi di Church non è quindi suscettibile di dimostrazione rigorosa: si possono solo portare argomenti pro o contro di essa. Attualmente la tesi è sostanzialmente accettata dalla maggioranza dei logici e dei matematici anche se di recente ( r 9 59) si sono sollevate precise obiezioni contro di essa in particolare da parte di Rosza Peter (che ritiene la classe delle funzioni ricorsive troppo ampia per essere ade-
guata) e da parte di Laszlo Kalmar (che, viceversa, ritiene tale classe troppo ristretta per comprendere tutte le funzioni effettivamente calcolate). Contro queste obiezioni ha risposto fra gli altri Elliott Mendelson (1963). Lo sviluppo più interessante a questo proposito è tuttavia un altro e si basa non sul confronto tra la nozione di funzione ricorsiva con quella di funzione computabile, ma piuttosto con quella di funzione costruttiva nel senso intuizionista. Quest'ultima nozione ammette una precisazione formale nell'ambito dell'Analisi intuizionista e quindi la tesi di Church può essere tradotta formalmente in uno specifico enunciato che afferma l 'identità fra funzioni costruttive e funzioni ricorsive. Si apre quindi il problema della consistenza della tesi di Church così intesa con le varie ricostruzioni dell'Analisi intuizionista. Lavori in questo senso sono dovuti recentemente a Myhill e Georg Kreisel.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
con indice e (ossia della e-esima funzione ricorsiva) per gli argomenti x 1 , ... , xn.l Supponiamo ora con Kleene di considerare la « più piccola » di tali computazioni, applichiamo cioè l'operatore ft al predicato così definito; avremo allora ftY Tn+Z e, X1, ••• , Xn,Y· A questo punto Kleene definisce una funzione U ricorsiva primitiva a un argomento (funzione di Kleene) e dimostra che per ogni funzione ricorsivaf(xb ... , Xn) vale l'equazione (*)
f(xb ... , Xn)
=
U(ftY Tn+Z e, X1, ... , Xn,y)
ossia la funzione, applicata alla più piccola computazione come sopra detto, fornisce il valore di tale computazione. L'espressione precedente è una formulazione del cosiddetto teorema di forma normale di Kleene, secondo il quale ogni funzione ricorsiva può essere espressa nella forma (*) per un opportuno e. Questo teorema ha un'importanza fondamentale in quanto ci permette di caratterizzare l'insieme delle funzioni ricorsive mediante una semplice relazione aritmetica o meglio ci dà un metodo universale per computare ogni funzione ricorsiva. D'altra parte ha una grande importanza perché mette in rilievo due fatti: I) il sostanziale riferimento non costruttivo a una totalità infinita (quella dei numeri naturali) implicito in tutte le caratterizzazioni da noi presentate per le funzioni ricorsive; ciò è messo in evidenza dal ricorso all'operatore di minimalizzazione illimitata nel teorema di forma normale, che sostanzialmente significa che per caratterizzare una qualunque funzione ricorsiva è necessario un riferimento non costruttivo di tipo esistenziale alla totalità delle computazioni.2 z) La proprietà di una funzione di essere ricorsiva non comporta di necessità l'essere definita per ogni argomento, ma piuttosto l'essere computabile su ogni argomento per il quale è definita. Anche in questo caso è l'operatore ft che pone in luce questa situazione. Infatti l'applicazione di questo operatore ci porta ad un valore solo nel caso che sia soddisfatta la condizione di normalità vista sopra. Da queste considerazioni viene allora naturale introdurre la più ampia classe delle funzioni parziali ricorsive (f. p.r.) vale a dire funzioni ricorsive che si pensano definite non su tutto N ma su sottoinsiemi di N; è subito chiaro che tale classe comprende quella delle funzioni ricorsive (che in questo contesto vengono anche I Come ognuno vede, questo predicato traduce cioè a livello formale quella enumerazione delle funzioni ricorsive di cui abbiamo già parlato a proposito della « diagonalizzazione ». 2 Questo ineliminabile ricorso a un quantificatore esistenziale cui non è possibile assegnare un significato costruttivo senza già presupporre quella precisazione del concetto di funzione computabile che tramite esso si intende chiarire, ha portato gli intuizionisti, in particolare Heyting nel 1960, a rigettare l'identificazione proposta
dalla tesi di Church, nel senso che gli intuizionisti ritengono quello di funzione computabile un concetto primitivo e quindi rifiutano come circolare ogni tentativo di una sua precisazione rigorosa. Ribadiamo quindi che la teoria della ricorsività costituisce un tentativo della precisazione del concetto di effettivo all'interno della matematica classica ossia, se ci si permette il gioco di parole, non pretende di presentarsi come una chiarificazione effettiva dell'effettivo.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dette totali) ma non è compresa in essa. La situazione viene chiarita assai efficacemente dalla considerazione della funzione universale F(n, x): per la classe delle funzioni ricorsive totali, esiste una tale funzione che « diagonalizzata » porta immediatamente a contraddizione se pensata a sua volta come ricorsiva totale. Nel caso invece della f. p.r., esiste ancora un F(n, x); ma ora quando « diagonalizzando » si considera F(m, m) non si giunge a contraddizione proprio perché non è possibile stabilire se tale funzione è o no definita per l'argomento m. Per dirla in modo diverso, la classe della f.p.r. coincide con la classe delle funzioni che sono computabili per tutti gli argomenti per i quali sono definite, ma che non sono necessariamente definite per tutti gli argomenti. Questo fatto spiega come sia stato possibile dare una definizione delle funzioni ricorsive che ci permettesse di generarle in modo effettivo: è l'ammissione di funzioni parziali che, bloccando per così dire la « diagonalizzazione », ha reso possibile la definizione. Si pone però naturalmente la domanda: è possibile determinare in modo effettivo se una funzione ricorsi va è parziale o totale? Orbene la risposta è negativa (ossia questo problema non è decidibile) ed è questo un ulteriore risultato centrale della teoria della ricorsività di questo periodo. Questo risultato, ottenuto ancora da Kleene nel 1936, si traduce immediatamente nel fatto, di cui ci è già nota l'importanza per la teoria, che esistono insiemi ricorsivamente enumerabili ma non ricorsivi, e questo dà senso al tipo d'approccio sviluppato da Post e alle sue indagini circa la riducibilità degli insiemi cui abbiamo prima accennato. Il passaggio dal risultato di indecidibilità alla esistenza di insiemi ricorsivamente enumerabili non ricorsivi è reso possibile da un importante collegamento che si può stabilire tra forma dei predicati ed insiemi che determinano: un predicato ricorsi v o n-ari o R determina come sappiamo un insieme ricorsivo; un predicato ricorsivo R cui sia applicato un quantificatore esistenziale illimitato, e quindi della forma 3yR, determina un insieme ricorsivamente enumerabile. Un insieme sarà allora ricorsivamente enumerabile ma non ricorsivo quando sarà definito facendo ricorso in modo essenziale ad una quantificazione esistenziale: è questo il caso appunto dell'insieme degli indici delle funzioni ricorsive totali, come si può vedere considerando il predicato di Kleene. In questo contesto il teorema di Post, sopra ricordato, ammette la seguente formulazione: un insieme è ricorsivo se e solo se si può definire mediante la quantificazione esistenziale o la quantificazione universale di un predicato ricorsivo. Viene naturale allora una disposizione di questo tipo:
3xRxr, ... ,
Xn,X
VxRxr, ... ,
Xn,X
doveR è genericamente un predicato ricorsivo a n posti (n ~ 1, finito). In questo modo si può « misurare » il grado di effettività di un predicato (di un insieme,
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
di una funzione) e sorge spontanea l'idea di proseguire questa descrizione considerando prefissi via via più complessi ossia sempre meno «effettivi» (vale a dire con più numerosi riferimenti alla totalità dei numeri naturali). Come mostra un ulteriore, importantissimo, risultato di Kleene (1943) la cosa è possibile, ossia si può stabilire una gerarchia (detta gerarchia aritmetica)
R
3xR X1,
••• , Xn,X
Vy 3xR Xt,
VxR Xt,
••• , Xn,X
3y VxR x~, ... ,
••• , Xn,
x,y
3V3R ...
x,y
V3VR ...
Xt, •.. , Xn Xn,
dove R è un attributo numerico ricorsivo. « Si può stabilire » va inteso nel senso che ad ogni passo della gerarchia si individuano attributi non riducibili a nessuno di quelli ottenuti in passi precedenti; e quindi l'estensione non è banale. Si usa indicare con notazione unitaria col simbolo II~ (n> O} la classe degli insiemi descritti da predicati il cui prefisso inizia con un quantificatore universale e contiene n- I alternanze di quantificatori; ad esempio II~ sarà la classe degli insiemi esprimibili da predicati della forma V3V R (si noti che più quantificatori dello stesso tipo immediatamente susseguentisi l'un l'altro si possono contrarre in' un unico quantificatore di quel tipo: così ad esempio VVV3 si può contrarre in V3). Il prefisso IIg (come l'analogo Eg che ora introdurremo) indica assenza di quantificatori. Viceversa si indica con E~ l'analoga classe degli insiemi esprimibili da predicati il cui prefisso inizia con un esistenziale. In questa notazione compatta la gerarchia assume quindi la seguente forma
dove le frecce indicano l'inclusione propria. Tale gerarchia gode di notevoli proprietà. Intanto, come già sopra accennato, essa non è banale, vale a dire, in conformità al teorema di gerarchia di Kleene (1943), per ogni n esiste un insieme A tale che A EII~+l (E E~ +l) ma A i II~ né A E E~ +l (A i E~ né a II~+l)· Ancora, in generale la riunione Il~ U 2,'~ è contenuta in modo proprio nella intersezione 17~+1 n E~+1; l'unica eccezione è data da LJg = 178 = rg = 17~ n L~ il. che è un altro modo di esprimeré il fatto che un insieme A è ricorsiv o quando tanto A quanto il suo complemento A sono ricorsivamente enumerabili. Come ultimo risultato significativo in questo contesto vogliamo ricordare il teorema di enumerazione di Kleene (1943) che dà una sorta di rappresentazione unitaria per tutti gli insiemi della gerarchia aritmetica ricorrendo al predicato T di Kleene sopra definito. Risultati analoghi, come hanno dimostrato Kleene e Post, valgono anche per la nozione di ricorsività relativa.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Conviene, per compattezza di discorso, accennare già ora agli ulteriori sviluppi della teoria della ricorsività anche se cronologicamente posteriori al periodo qui considerato (si riferiscono infatti, sostanzialmente, agli anni quaranta e cinquanta). Gli sviluppi di cui parliamo si concentrano su un problema comune: quello di saggiare la possibilità di ulteriori classificazioni per gli attributi (predicati, funzioni, insiemi) lungo le linee indicate rispettivamente da Kleene (con la costruzione della gerarchia aritmetica) e da Post (con i gradi di irresolubilità). Per quanto riguarda il primo aspetto si è pensato in modo naturale di estendere la gerarchia aritmetica considerando la classe degli attributi numerici definibili tramite predicati che ammettessero la quantificazione illimitata non solo (come nel caso della gerarchia aritmetica) sulle variabili individuali, ma anche sulle variabili funzionali (o per insiemi; passando cioè a un linguaggio del secondo ordine). Anche in questo caso la classificazione in base alla forma della definizione linguistica riflette una « misura » del grado di effettività: la classe degli attributi così ottenuti viene detta degli attributi analitici e Kleene nel 19 5 5 ha mostrato che anche in questo caso può attenersi una gerarchia (detta appunto analitica) nel senso che tutti questi attributi si possono porre in una delle forme
Axh ... , o,
In
3f'l!x R
'llg 3f'l!x R ...
'llf3x R
3g 'llf3x R ...
Xn
forma abbreviata LJIo
L'l l
L'~ ...
IJi
II~
...
dove A è un predicato (attributo) aritmetico e R è ricorsivo. Questa gerarchia i cui element~ vengono indicati con L'~, rispettivamente II! gode delle stesse proprietà viste per la gerarchia aritmetica ma con una importante eccezione: LI~ -=f. L'~ n il~, vale a dire gli attributi numerici non sono la parte comune agli analitici del primo gradino della gerarchia. Agli elementi di tale intersezione si dà il nome di attributi iperaritmetici: es~i possono intuitivamente essere considerati come una sorta di « limite » cui tendono gli aritmetici nel passaggio agli analitici. La teoria della ricorsività veniva quindi a ricollegarsi direttamente con quelle indagini che a partire dalla scuola degli analisti francesi, erano state compiute nel tentativo di colmare l'abisso tra il «dato immediatamente», il «manipolabile », l'« effettivo », e il transfinito cantoriano. Le gerarchie aritmetica e analitica presentano infatti notevoli analogi.: (e differenze significative) con quelle studiate in particolare da Borel, Lebesgue e quindi potentemente sviluppate da Michel Souslin e Nicolai Lusin degli insiemi proiettivi e analitici.
www.scribd.com/Baruhk
La logica-nel ventesimo. secolo (1)
Una volta che abbiamo introdotto la nozione di ricorsività relativa si può pensare ad un altro tipo di gerarchizzazione sulla base dei già nominati gradi (di irresolubilità): si dice che il grado di una funzione parziale f ricorsi va in g è minore o uguale al grado di g, gr (f) ~ gr (g). Il grado di una funzione f è quindi definito estensionalmente come l'insieme di tutte le funzioni g che soddisfano tanto gr (f) ~ gr (g) quanto gr (g) ~ gr (f). Ne viene che i gradi possono essere ordinati formando una struttura che si riconosce essere un semireticolo superiore nel senso che dati due qualunque gradi a e f3 esiste sempre un grado y tale che a ~ y e f3 ~ y. Come hanno dimostrato Kleene e Post nel 1954 non vale la stessa proprietà « verso il basso » ossia non esiste in generale, dati due gradi a e {3, un massimo grado y per il quale a ~ y e f3 ~ y. I gradi formano un insieme di cardinalità uguale a quella del continuo (~ 1 , accettando l'ipotesi del continuo) e nel r 960 Schoenfield ha dimostrato che esiste un insieme di gradi che ha cardinalità ~ 1 e i cui elementi sono fra loro inconfrontabili . .Il grado più basso, indicato con o, è evidentemente quello delle funzioni ricorsive. Gradi superiori si possono trovare tramite le funzioni definibili aritmeticamente (Kleene, 1943); il grado immediatamente successivo a o, indicato con o', è costituito dalle funzioni caratteristiche di insiemi ricorsivamente enumerabili, e si dimostra che o i= o'; per quanto detto sopra si possono naturalmente definire (sempre con l'operazione' detta di jump) gradi di ordine transfini~o. Quello che a suo tempo abbiamo chiamato problema di Post viene tradotto ora nella domanda: esistono insiemi r.e. di grado diverso? ossia hanno tutti questi insiemi grado o'? Il problema venne risolto indipendentemente solo nel 1956 da Richard M. Friedberg in Two recursive!J enumerable sets of incomparable degrees of unsolvability (solution of Post's problem 1944) (Due insiemi ricorsivamente enumerabi!i con ,gradi di irresolubilità non confrontabili (soluzione del problema di Post 1944) e da A. A. Mucnik in Risposta negativa al problema di riducibilità degli algoritmi; entrambi questi autori costruiscono due insiemi nessuno dei quali è ricorsivo nell'altro; è in questo contesto che essi introducono il cosiddetto metodo di priorità che si è rivelato estremamente utile in successive ricerche. Gerarchie e gradi non costituiscono l'unico tipo di articolazione del problema generale della classificazione di funzioni e di insiemi in base alla loro effettività. Altre nozioni - sulle quali non ci soffermeremo - quelle di insieme creativo, immune, coesivo, ecc. sono state introdotte; quello che ci preme sottolineare è che nei due esempi da noi citati (gradi e gerarchie) la teoria della ricorsività ha trovato i suoi approfondimenti più sostanziali portando alla creazione di metodi, quale appunto ad esempio quello di priorità, di notevole profondità e interesse anche in contesti più ampi. Le gerarchie e i gradi sono d'altra parte un esempio tipico di una tendenza generale degli sviluppi della teoria della ricorsività, quella cioè di raffinare il concetto apparentemente monolitico di effettivo analizzandone diversi aspetti e
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
sfumature. Questo tipo di atteggiamento ha portato attorno agli anni fra il '5 5 e il '58 al tentativo di definire il concetto di effettività non più per funzioni su numeri naturali, ma per « oggetti » di tipo superiore quali i funzionali, vale a dire funzioni definite su funzioni e con valori numerici o funzionali (rispettivamente Kleene, Godei; si veda anche la nota 1 a pag. 349· Lungo questa strada di progressiva generalizzazione si è giunti in tempi recenti al tentativo di definire la nozione di effettività su segmenti più ampi della struttura ordinale (recursione sui cosiddetti ordinali ammissibili di Saul Kripke) e su strutture arbitrarie (superando cioè la vincolante relativa a N). L'obiettivo finale è una teoria astratta della computazione o dell'effettività di cui teoria delle funzioni ricorsive, teoria dei funzionali, ed eventuali altre estensioni, costituiscano diverse realizzazioni. Linee conduttrici di queste generalizzazioni sono due concetti di cui costantemente si fa uso in ogni tentativo di chiarire il concetto di effettivo: quello generale di definibilità e quello più specifico, ma non per questo più dominabile, di finito. In questo modo nei lavori recenti di Georg Kreisel e G. E. Sacks, Yannis Moschovakis, Wagner e Strong, ed infine Richard Merritt Montague si assiste a tutta una serie di tentativi di collegare la teoria dell'effettivo a questi concetti più generali, tentativi che portano a stabilire rapporti sempre più stretti con altri rami della ricerca logica, dalla teoria dei modelli alla teoria degli insiemi. Partita quindi come tentativo locale di precisare il concetto di effettivo, la teoria della ricorsività dagli anni quaranta in poi si rivelava così un potente strumento per l'analisi e la classificazione in generale dei concetti astratti fondamentali. V· DOPO LA SECONDA GUERRA MONDIALE. SGUARDO SU ALCUNI SVILUPPI DELLA RICERCA ODIERNA
Nel nostro schema generale avevamo riconosciuto che la ricerca logica, dopo che nei primi trent'anni del secolo si era mossa sostanzialmente articolandosi in programmi (scuole), aveva subito proprio negli anni trenta- e in virtù di tutta una serie di risultati che abbiamo sopra descritto - una radicale trasformazione, indirizzandosi verso l'approfondimento di specifici temi, pur se di portata generale, che erano appunto scaturiti dalle stesse indagini programmatiche. Avevamo anche avvertito però che questo non significava impegnarsi in una «pratica senza principi », ma rappresentava piuttosto il tentativo di saggiare sul terreno concreto delle applicazioni e delle analisi particolari la potenza degli strumenti e degli approcci precedentemente elaborati. Proprio per questo ci era sembrato opportuno, e anzi necessario, soffermarci ad analizzare abbastanza dettagliatamente il passaggio dalle concezioni « preformali » a quelle « formali », tentando di metterne in luce le motivazioni generali da una parte e gli specifici strumenti di concettualizzazione dall'altra; convinti come siamo- e lo abbiamo più volte affermato - che la comprensione di tali concetti cardine sia essenziale per poter
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
penetrare quella che è l'attuale situazione della ricerca, anche nella sua espressione più propriamente «tecnica». Volendo ora parlare degli sviluppi più recenti delle indagini logiche, non sarà più possibile attenersi ad un'analoga procedura: nel contesto infatti di principi direttivi generali, informatori di tutta la ricerca, sono state escogitate tecniche di indagine estremamente raffinate e complesse e il rapporto con la concreta pratica matematica è divenuto ormai così stretto, che per seguire puntualmente tali sviluppi sarebbe necessario chiarire preliminarmente un bagaglio di nozioni che richiederebbe, da solo, un trattato, e assai voluminoso. In questo paragrafo quindi illustreremo alcuni temi fondamentali della ricerca logica odierna in modo per così dire più « globale». Abbiamo parlato sopra di strumenti e di approcci; svilupperemo allora il nostro discorso tentando soprattutto di mettere in luce la « continuità » di questi approcci, accennando agli strumenti solo nella loro portata generale e nei loro mutui rapporti. Si potrà così apprezzare - lo speriamo - la profondità dei legami che anche nella accentuata specializzazione della ricerca posteriore agli anni trenta sussistono fra campi di indagine apparentemente del tutto eterogenei. Le grandi scuole fino agli anni trenta avevano tematizzato una contrapposizione di fondo fra costruttivo e non costruttivo, fra intensionale ed estensionale, che si manifestava a due distinti livelli: individuazione di teorie fondanti (matematica costruttiva e intuizionista da una parte, teoria degli insiemi dall'altra) e metodi di analisi della struttura delle teorie; questo secondo aspetto si era polarizzato a sua volta lungo due diverse direttrici, emerse e giustificate proprio dai risultati degli anni trenta (Godel, Tarski): quella sintattica (teoria della dimostrazione) e quella semantica (sulla base della nozione di modello). Sullo sfondo, almeno in modo implicito, ma sempre presente, un problema generale relativo al linguaggio e alla natura della formalizzazione in quanto tale (più che alla natura stessa dei contenuti). In che termini i risultati « limitativi», in particolare quelli di tipo « negativo » (Skolem, Godel, Tarski) riguardano la concezione stessa degli oggetti descritti e definiti e non piuttosto gli stessi strumenti linguistici di espressione? Su che basi si confrontano le diverse concezioni: la loro « canonizzazione » a livello formalizzato (linguistico) è sufficiente a discriminarle? In effetti due tipi ç:li deficienze si possono individuare a questo riguardo. Da un lato il linguaggio, la formalizzazione, è carente a livello per così dire « grammaticale »: i linguaggi usati non consentono di esprimere compiutamente le strutture desiderate, eliminando realizzazioni spurie; al di là della stessa intenzione del ricercatore, il linguaggio, proprio in quanto non sufficientemente espressivo, « descrive più cose » di quanto non vorremmo o, detto altrimenti, descrive in modo «confuso» quello che vorremmo. D'altro lato - e qui potremmo parlare di limitazioni « positive » (Lewis, logiche non classiche in generale)- il linguaggio è invece carente proprio a livello «logico», ossia non rende
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
legami contenutistici fra proposizioni; gli sfugge tutta una serie di rapporti intensionali che possono viceversa essere considerati - e di fatto abbiamo visto lo sono in molti modi - come il « genuino » contenuto da esprimere e « formalizzare». Ne deriva un duplice e in certo senso contrapposto intervento sul linguaggio: da una parte un suo potenziamento nella linea classica tradizionale (nuovi operatori di quantificazione, linguaggi infinitari, ecc.); dall'altra un suo « affinamento » in particolare per quanto riguarda il tipo di significato che si vuole attribuire alle costanti logiche (nuove e più articolate proposte di semantiche). Pur nella diversa collocazione di queste deficienze linguistiche, si ritrova tuttavia un esplicito rimando comune (anche se inteso e concepito in modo di principio radicalmente diverso) a un momento interpretativo, semantico, di tipo dunque extralinguistico. Per iniziare questo panorama finale conviene allora prendere le mosse proprio dal tentativo portato avanti negli anni quaranta-cinquanta di rendere sistematico l'approccio all'analisi delle teorie basato sul concetto di verità: alludiamo alla costituzione della cosiddetta teoria dei modelli, sulla quale dovremo trattenerci più a lungo che su altri temi, data appunto la sua centralità. Come già si è detto nel paragrafo m. 3, la definizione tarskiana di verità, ponendo le basi della semantica dei linguaggi formalizzati ed introducendo l'esigenza di modelli infinitari nella metamatematica, apriva la strada ad un nuovo modo di vedere lo studio delle teorie, un modo che instaurava legami più diretti tra la concreta pratica matematica e l'analisi logica. Era in questo spirito che la metodologia delle scienze deduttive propugnata da Tarski attorno agli anni trenta si proponeva lo studio delle teorie formalizzate come oggetti astratti, considerate alla stregua di strutture algebriche o topologiche e dava inizio all'esame delle loro proprietà, sia sintattiche che semantiche, senza porsi preclusioni programmatiche sui metodi dimostrativi. Con questo si realizzava una rottura esplicita con l'idea hilbertiana di metamatematica concepita come studio, in base a metodi rigidamente finitisti, delle pure proprietà sintattiche, per dare l'avvio ad un'analisi «matematica» delle teorie, analisi che trovava la sua localizzazione più naturale non più entro una matematica ristretta quale quella finitista, ma all'interno della più generale teoria degli insiemi. In tal modo lo studio delle teorie formalizzate veniva a costituire, assieme all'algebra e alla topologia generale, una delle articolazioni di quella matematica astratta e « infinitaria » che proprio negli anni trenta, attraverso l'impiego sistematico dei più potenti strumenti insiemistici (assioma di scelta, ipotesi di misurabilità, del continuo ecc.), andava dando ad algebra e topologia una nuova forma, conferendo loro una generalità sino ad allora mai vista. Se sulle prime, come testimoniano i lavori di Lindenbaum, Mostowski e Tarski stesso sull'algebrizzazione della logica, il rapporto fu sostanzialmente unidirezionale, risolvendosi nel tentativo (largamente riuscito) di applicare metodi
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
algebrici e topologici allo studio delle teorie formalizzate, ben presto esso si capovolse, aprendo prospettive inaspettate.l La semantica tarskiana offriva la possibilità di compiere il passaggio inverso, l'applicazione, cioè, di concetti e metodi metamatematici alla risoluzione di problemi algebrici e topologici. È dal tentativo di sviluppare appieno questa possibilità e di analizzarne le modalità che ha avuto origine la moderna teoria dei modelli nel suo duplice aspetto di studio delle teorie formalizzate in rapporto ai relativi modelli e di applicazione di concetti metamatematici a specifici problemi algebrici o topologici. Alla base di questo rapporto sta un fatto che abbiamo già avuto occasione di sottolineare. Le realizzazioni, i possibili modelli delle teorie formalizzate che sono al centro dell'indagine logica sono riconducibili a strutture, algebre o sistemi relazionali, dello stesso genere dei gruppi, anelli, campi, spazi topologici ecc., oggetti di studio di algebra e topologia. In entrambi i casi si tratta di insiemi su cui sono definite relazioni e funzioni le cui proprietà definitorie sono fissate per via assiomatica. La differenza fra approccio algebrico e logico sta nell'enfa,si che viene posta sui due aspetti che concorrono alla definizione delle strutture; l'algebrista ne sottolinea l'aspetto insiemistico e si concentra quindi sull'indagine delle possibili operazioni che su di esse si possono definire (prodotti diretti, immagini omomorfe, passaggio alle sottostrutture, ecc.); il logico invece privilegia l'altro aspetto, il carattere assiomatico della caratterizzazione delle relazioni e funzioni che definiscono le strutture e si concentra quindi sullo studio delle teorie formalizzate. L'obiettivo di fondo della teoria dei modelli è quello di mediare questi due momenti, più precisamente quello di analizzare i rapporti tra la forma linguistica dei sistemi d'assiomi e le proprietà insiemistiche dei modelli (ed è in questo senso che ci si riallaccia e si estende la semantica come intesa precedentemente). In queI In senso lato ciò può essere inteso come connessioni fra algebra e logica che sono venute sempre più instaurandosi dopo il teorema di completezza, come abbiamo già accennato, e oggi in particolare n eli' ambito della teoria dei modelli. In senso stretto viene inteso come « trattamento algebrico » della logica e in questo senso si riallaccia direttamente, è ovvio, ai lavori stessi di Boole. Questi aveva mostrato sostanzialmente che la logica proposizionale poteva essere adeguatamente rispecchiata da quella struttura algebrica oggi nota appunto come algebra di Boole: tramite opportune « traduzioni » dei concetti logici fondamentali in concetti algebrici è cioè possibile ritrovare come risultati relativi a proprietà della struttura algebrica in questione le « traduzioni » di analoghi risultati e proprietà logiche. Noi eviteremo di accennare qui a tali traduzioni, anche per il semplicissimo caso della logica proposizionale, perché allo scopo dovremmo illustrare alcuni ulteriori (anche se elementari) concetti algebrici
che appesantirebbero inutilmente la trattazione. Risultato centrale di questo contesto il teorema di rappresentazione dimostrato nel I936 da Marshall Stone in base al quale ogni algebra astratta di Boole si rappresenta concretamente su un'algebra di insiemi. Una ricerca di strutture algebriche adeguate a logiche più potenti, classiche e non classiche, in particolare la logica dei predicati del primo ordine classica, ha portato ali 'individuazione di certe classi particolari di algebre, precisamente le algebre po!iadiche introdotte da Pau! R. Halmos fra il I 95 4 e il 19 59 e le algebre cilindriche introdotte da Henkin e Tarski attorno al 1950. Tali strutture algebriche, in particolare le seconde, hanno rivelato un interesse matematico intrinseco tanto da meritare un approfondimento autonomo da questo punto di vista: nel I 971 è stato pubblicato un primo volume Cylindric algebras (Algebre cilindriche) di Leon Henkin, James Donald Monk e Alfred Tarski.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
sto modo si raggiungono due scopi: da una parte si può sfruttare tutto quanto si sa sulle strutture e le operazioni su di esse definite nello studio delle teorie formalizzate, dall'altra risulta possibile affrontare problemi algebrici ricorrendo allo studio d~lle .teorie formalizzate che determinano le varie classi di strutture: in generale, alle proprietà dei linguaggi. I due aspetti si completano a vicenda, scambiandosi mutuamente strumenti e problemi. L'algebra offre al logico metodi di costruzione di strutture per affrontare lo studio delle teorie e simultaneamente stimola alla elaborazione di strumenti linguistici sempre più adeguati ai problemi algebrici; la logica offre all'algebrista informazioni sulle proprietà dei sistemi assiomatici e stimola alla definizione di metodi per la costruzione di strutture che meglio riflettano i fatti riguardanti la loro caratterizzazione linguistica. La stessa ragion d'essere della teoria dei modelli porta a un intrecciarsi continuo delle due impostazioni, così che è difficile porre una netta linea di demarcazione anche solo a livello di metodi; procedimenti costruttivi e non si innestano gli uni negli altri senza soluzione di continuità e le restrizioni finitiste (retaggio della concezione hilbertiana della metamatematica) lasciano sempre più il posto all'impiego sistematico di principi insiemistici altamente non costruttivi quali l'assioma di scelta, l'ipotesi del continuo, ecc. Si realizza così in pieno quell'ideale della metamatematica come studio globale delle proprietà delle teorie formalizzate di cui la semantica e la metodologia delle scienze deduttive tarskiane erano state le avvisaglie. Non è un caso, quindi, che il primo affermarsi della teoria dei modelli coincida con l'estensione del concetto stesso di linguaggio formalizzato e con la parallela generalizzazione dei teoremi semantici fondamentali, di compattezza e di Lowenheim-Skolem, nel tentativo di farne strumenti adeguati alle applicazioni algebriche e allo studio dei modelli. Nella loro naturalezza queste estensioni avevano un carattere decisamente rivoluzionario in quanto segnavano un abbandono senza possibilità di recupero delle restrizioni finitiste di tradizione hilbertiana ed aprivano la strada all'applicazione di concetti e metodi esplicitamente infinitari.l È in due articoli del logico sovietico Anatolij Malcev, rispettivamente del 1936 e del 1941, che questo passaggio viene effettuato nella sua forma più netta; con questi lavori Malcev forniva simultaneamente gli strumenti centrali ed i primi esempi significativi di un'applicazione della metamatematica all'algebra, strumenti ed esempi che per lungo tempo sarebbero rimasti paradigmatici ed ispiratori. La prima innovazione introdotta, come già si è detto, riguarda la nozione stessa di linguaggio formalizzato. Sino ad allora, in conformità al punto di vista hilbertiano, un linguaggio L del primo ordine era considerato determinato oltre I Naturalmente, c'è da tener presente l'altro tipo di superamento di tali limiti che abbiamo visto muoversi sulla linea di Gentzen in un contesto che si può dire di mediazione fra sintassi e seman-
tica, anche se è stato tuttavia sviluppato in termini della teoria della dimostrazione. Va osservato comunque che questo tentativo rimaneva pur sempre nell'ambito del costruttivo.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
che dalle ordinarie costanti logiche, connettivi e quantificatori, da una famiglia
numerabile di costanti extralogiche, classificate in costanti individuali, predicative e funzionali. Questo affinché la collezione delle formule e degli enunciati risultasse decidibile e quindi suscettibile di studio entro la matematica finitaria. Questa condizione vincolante risulta però non solo arbitraria da un punto di vista astratto, ma addirittura inaccettabile una volta che si voglia, data una qualsiasi struttura Wl, descriverla « il più adeguatamente possibile » a livello linguistico. Per far questo occorre possedere nomi per ogni individuo di Wl così da poter dire per ognuno di essi quali proprietà (espresse nel linguaggio) siano vere o no. Le costanti individuali di un linguaggio, però, possono essere al più numerabili e quindi una simile « descrizione » risulta impossibile per strutture arbitrarie, la cui definizione non implica affatto restrizioni di cardinalità. È sulla base di queste considerazioni che Malcev introduce linguaggi del primo ordine con un numero arbitrario di costanti extralogiche e ne analizza le proprietà semantiche fondamentali, giungendo così a stabilire quel principio di localizzazione che costituisce ancor oggi uno degli strumenti fondamentali della teoria dei modelli. Il principio, per la cui dimostrazione è essenziale l'uso dell'assioma di scelta, è una generalizzazione del teorema di compattezza di Godei e afferma che, dato un insieme K di enunciati del primo ordine, avente cardinalità arbitraria, esso ha un modello se e solo se ogni suo sottoinsieme finito ha un modello. In questo modo è possibile ricondurre l'esistenza di modelli per insiemi infiniti arbitrari all'esistenza di modelli per insiemi finiti. Poggiandosi su questo principio, Malcev riusciva a dimostrare in modo estremamente elegante ed uniforme un numero notevole di teoremi sui gruppi infiniti e mettendone in luce l'aspetto comune e la dipendenza dal principio di localizzazione mostrava, per usare le sue stesse parole, come « essi non fossero specificatamente algebrici ma potessero essere ottenuti come conseguenze immediate di enunciati generali della logica matematica ». In termini netti e precisi, veniva così formulato e realizzato uno degli obiettivi centrali della moderna teoria dei modelli. Il metodo seguito da Malcev è estremamente diretto e costituisce un paradigma che ha trovato un numero incredibile di applicazioni; l'idea di fondo è quella di ricondurre l'esistenza di strutture aventi date proprietà algebriche alla esistenza di modelli per dati insiemi di enunciati. Il problema diviene quindi quello di trovare per ogni proprietà algebrica un insieme di enunciati del primo ordine che la « rifletta », in altri termini tale che una struttura sia modello dell'insieme se e solo se gode della proprietà in questione; in tal caso diremo che la proprietà è elementare. Una volta fatto questo, il principio di localizzazione da criterio per l'esistenza di modelli si trasforma in criterio per l'esistenza di strutture con le proprietà volute. Visti in quest'ottica, numerosi teoremi algebrici si rivelano immediate conseguenze del principio di localizzazione. È questo che Malcev mostra nel caso dei teoremi locali sui gruppi (che noi abbiamo ricor-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dato nel paragrafo III.z), teoremi che affermano che un gruppo ha una data proprietà P se e solo se ogni suo sottogruppo finitamente generato la ha. Se la proprietà P è elementare, la cosa diviene infatti immediata seguendo il metodo di Malcev. Dato un gruppo ffi, indichiamo con D(ffi) quello che oggi, seguendo una terminologia introdotta nel 1950 da Abraham Robinson, viene detto diagramma di (f) ossia l'insieme di tutte le formule atomiche o negazioni di atomiche vere in ffi e contenenti, oltre a un simbolo che denota l'operazione del gruppo e al simbolo d'identità, nomi per ogni elemento di ffi. Consideriamo allora l'insieme di enunciati K che, per ipotesi, «riflette» la proprietà P. Sia quindi K' = = K U D(ffi) U Kry,, dove con Kry, indichiamo l'insieme di assiomi per la teoria dei gruppi, che sappiamo essere formulabile al primo ordine. È chiaro che ogni modello di K', in quanto modello di D(
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
oltre a nomi per tutte le funzioni e relazioni di lll contiene anche nomi per tutti gli individui di ~ - è vero in lll se e solo se è vero in ~' vale a dire tutti gli elementi di ~ posseggono relativamente a ~ le stesse proprietà elementari che posseggono rispetto ad 'll. Il concetto si rivelò di importanza centrale. Tarski e Vaught riuscirono a dimostrare un utile criterio per l'esistenza di questa relazione fra strutture: date due strutture 'll e ~ di cui la seconda sia sottostruttura della prima, lll è estensione elementare di ~ se e solo se dato un qualsiasi enunciato esistenziale d = 3y Z(y), formulato nel linguaggio di ~ e vero in 'll, esiste un elemento a di ~ tale che Z(a) è vero in ~. L'importanza del concetto sta nel fatto che esso permette di articolare un approccio puramente semantico alle classificazioni delle teorie. Infatti, caso particolare della nozione di estensione elementare è quello di equivalenza elementare: due strutture 'll e ~ si dicono elementarmente equivalenti quando sono indiscernibili dal punto di vista linguistico, cioè ogni enunciato vero in 'll è necessariamente vero in ~ e viceversa. È evidente che 'll e ~ sono elementarmente equivalenti quando una delle due è estensione elementare dell'altra; non vale invece evidentemente il viceversa. Si vede subito che il concetto di teoria completa ammette una formulazione esclusivamente in termini di modelli : una teoria X è completa se e solo se tutti i suoi modelli sono elementarmente equivalenti. Questo criterio risultava molto importante in quanto permetteva di determinare la completezza di una teoria esclusivamente in base allo studio dei suoi modelli e risultava molto più duttile di un analogo criterio dimostrato da Vaught nel 1954 e secondo il quale se una teoria ammette solo modelli infiniti e per un certo cardinale m tutti i modelli di cardinalità m sono fra loro isomorfi (si dice in questo caso che la teoria è categorica in potenza m) allora la teoria è completa. La maggior duttilità permessa dal concetto di equivalenza elementare nasce dal fatto che quest'ultimo è meno restrittivo di quello di isomorfia, nel senso che due strutture 'll e~ isomorfe sono anche elementarmente equivalenti ma non viceversa. Ma quando due strutture sono elementarmente equivalenti? Il problema ammette due tipi di risposta, a seconda che limitandosi all'analisi delle teorie complete si voglia determinare quando una teoria possiede solo modelli elementarmente equivalenti oppure si voglia dare un criterio generale che vincoli l'equivalenza elementare a condizioni puramente algebriche espresse senza far riferimento al linguaggio. Il primo problema trovò una risposta nei lavori di A. Robinson del 195 5 dedicati al concetto di completezza rispetto ai modelli (model-completeness) che abbrevieremo in m-completezza: una teoria X è m-completa quando, dato un suo qualunque modello 'll, ogni altro modello ~ di X che sia estensione di Il! è estensione elementare di 'll. Ora Robinson riesce a dimostrare che ogni teoria X m-completa che possegga un modello primo (ossia un modello 9J1 tale che bgni altro modello di ;t possegga una SOttostruttura isomorfa COÌl 9J1) è completa. Con questo criterio Robinson riusciva a dare un'interpretazione in termini pura373
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mente modellistici del cosiddetto metodo sintattico dell'eliminazione dei quantificatori intròdotto da Tarski fra il 1948 e il 1951, ottenendo fra gli altri come corollario una nuova dimostrazione di completezza per la teoria dei campi algebricamente chiusi che Tarski aveva appunto raggiunto con quel metodo. Il secondo aspetto del problema ci riporta al problema generale della teoria dei modelli vista come tentativo di mediazione fra lo studio puramente algebrico delle strutture e la loro caratterizzazione linguistica. Nel 19 55 Tarski (sulla scia di lavori svolti sulle algebre da Garrett Birkhoff nel 1936) aveva dato al problema una sistemazione generale introducendo il concetto di classe elementare: classe elementare è ogni classe di strutture che coincida con la classe dei modelli di una teoria finitamente assiomatizzabile; classe elementare generalizzata è l'intersezione di una famiglia arbitraria di classi elementari. Con questa terminologia Tarski poneva il problema generale di trovare un punto di contatto tra la forma sintattica degli assiomi che determinano classi elementari e proprietà di chiusura di queste ultime rispetto a operazioni algebriche. Nel 195 5 Jerzy Los era riuscito a dimostrare contemporaneamente a Tarski che le classi chiuse rispetto al passaggio alla sottostruttura erano tutte e sole quelle corrispondenti a teorie i cui assiomi erano in forma prenessa puramente universale (ossia con solo quantificatori universali nel prefisso). Risultato duale valeva per la chiusura rispetto alle estensioni e agli assiomi puramente esistenziali. Nel 1959 Robinson trovava un'analoga chiarificazione per le classi elementari chiuse rispetto a somme su catene di strutture, dimostrando che gli assiomi per queste classi sono del tipo \13 (ossia tutti i quantificatori universali precedono i quantificatori esistenziali). Sempre nel 1959 Roger Lyndon dimostrava che le classi elementari chiuse rispetto al passaggio all'immagine omomorfa sono quelle determinate da assiomi «positivi» (ossia che non contengono simboli di negazione). Caratterizzazione analoga lo stesso autore ottenne anche per le classi chiuse rispetto al prodotto sotto diretto. Tutti questi risultati culminano si può dire nei lavori di H. Jerome Keisler che nel 196o riuscì a fornire un metodo unitario per la dimostrazione di tutti questi teoremi sulla base di una generalizzazione del concetto di diagramma (fondato su una estensione del concetto di formula atomica). Keisler riusciva anche a risolvere il problema della caratterizzazione delle classi elementari determinate da assiomi con prefisso arbitrario e per quelle chiuse rispetto a limiti diretti e inversi. Solo nel 1965 finalmente veniva risolto il problema della caratterizzazione per l'ultima fondamentale operazione algebrica, quella di prodotto diretto, ad opera di Joseph M. Weinstein. Rimaneva però aperto un problema più generale: quello di caratterizzare le classi elementari l nell'ambito delle classi di strutture. È questo problema che I D'ora in poi per comodità non distingueremo in generale tra « classi elementari » e « classi
elementari generalizzate ». Si tenga conto inoltre che la terminologia in proposito è molto oscillante.
374
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
riporta alla questione della caratterizzazione dell'equivalenza elementare: carattere specifico di taìl classi (come del loro complemento) è quello di essere chiuse rispetto all'equivalenza elementare. È ancora dovuto a Keisler (1961) il risultato centrale a questo riguardo, fondato sul concetto di ultraprodotto (un caso particolare di prodotto diretto) introdotto da Los ~el 195 5 ed esteso ai sistemi relazionali da Thomas E. Frayne, Ann C. Morel e Dana Scott nel 1961-Gz; Keisler riuscì a dimostrare che due strutture 1ll e ~ sono elementarmente equivalenti se e solo se posseggono delle ultrapotenze fra loro isomorfe; da questo risultato discende subito che: una" classe f di strutture è elementare (nel senso generalizzato) se r) f e f sono chiuse rispetto alla formazione di ultraprodotti e z) f è chiusa rispetto al passaggio alle immagini isomorfe. Il risultato di Keisler, almeno nella dimostrazione da lui stesso presentata, dipendeva dall'ipotesi del continuo; l nello stesso anno però Simon B. Kochen, introducendo il concetto di ultralimite (ottenuto da quello di ultraprodotto), riusciva a trovare un'analoga caratterizzazione senza tale ipotesi. Il concetto di ultraprodotto si è rivelato come uno strumento potentissimo per la costruzione di modelli e per la sistematizzazione e unificazione di quasi tutta la teoria. In questa direzione l'unico concetto « rivale », per tanti versi tuttavia più sottile del precedente, è quello di modello speciale introdotto da Michael D. Morley e Robert Lawson Vaught nel 1962: si tratta di un tipo particolare di struttura che gode per così dire della proprietà di « rappresentare » classi elementari di strutture e mediante il cui impiego quindi l'articolazione di tutto il discorso risulta estremamente elegante e unitaria. Non deve quindi stupire che i due concetti di ultraprodotto e di modello speciale risultino strettamente legati; come infatti ha dimostrato Keisler è possibile costruire mediante ultraprodotti particolari i modelli speciali di cui il teorema fondamentale di Morley-Vaught dimostra l'esistenza ma non fornisce un procedimento di costruzione (si noti d'altra parte che, inversamente, il teorema di Morley-Vaught, formulato in termini di ultraprodotti, ha come corollario il teorema di Keisler). La caratterizzazione delle classi elementari sopra data dimostra chiaramente come i linguaggi elementari non siano in grado di discriminare a sufficienza tra modelli non isomorfi. Del r~sto già il teorema di Lowenheim-Skolem lo mostrava chiaramente; l'introduziorib del concetto di estensione elementare ha però permesso di cogliere più appieno nel suo significato questa limitazione e di estendere il risultato originale di Skolem nelle due diverse direzioni descritte nella nota 3 a pag. p8 (certo il discorso n fatto in termini di teorie va opportunamente tradotto in termini appunto di estensioni elementari). È quindi chiaro che nessuna teoria con un modello infinito, se espressa nel linguaggio elementare, può essere categorica. È per questa ragione che Los introduce nel 1954 il concetto più debole di categoricità in potenza (da noi già nominato a proposito del criterio di r Nel 1971 Saharon Shelah ha potuto eliminare tale ipotesi dalla dimostrazione del teorema.
375
www.scribd.com/Baruhk
La logica nel ventesimo secolo (I)
Vaught) che in effetti acquista il suo pieno significato l dopo che nel 1963 Morley dimostra un teorema fondamentale secondo il quale se una teoria 2 è categorica in una potenza ~a> ~o, allora è categorica in ogni potenza non numerabile (si badi bene che ciò non significa che la teoria in questione è tout court categorica). Il risultato di Morley è particolarmente interessante per l'enorme serie di collegamenti e sviluppi cui ha dato luogo e che sono oggi oggetto di ricerca. Con questo risultato, Morley ci fa giungere ai limiti della chiarificazione delle possibilità espressive del linguaggio elementare L e rende, se così si può dire, del tutto « naturali » quei tentativi che erano stati iniziati attorno al I 9 57 da parte di Tarski, Henkin, Scott, Mostowski e altri di estendere variamente la potenza espressiva di L, introducendo vari linguaggi rafforzati, sulla base dei quali oggi si esplica la maggiore attività di ricerca per quanto riguarda la teoria dei modelli (e per i quali linguaggi si tenta altresì di costituire un'adeguata teoria della dimostrazione).2 Le estensioni sono di varia portata: noi accenneremo soltanto ad alcune di esse, che pure hanno permesso di ottenere risultati interessanti, mentre ci soffermeremo un po' più a lungo su quei linguaggi che riteniamo i più significativi, ossia i cosiddetti linguaggi infìnitari. Per il primo tipo di estensioni ricordiamo le cosiddette logiche del secondo ordine indebolito, 3 introdotte da Tarski nel 195 8 e che consistono nell'aggiungere a L quantificatori applicabili non a predicati arbitrari (come avverrebbe al secondo ordine) bensì solo a predicati che vengano interpretati su insiemi finiti; oppure dei linguaggi introdotti da Mostowski nel1957 nei quali a L vengono aggiunti quantificatoriQa in modo tale che un'espressione del tipo Qax.sd'(x) venga interpretata come «esistono almeno ~a individui che soddisfano d(x) » (e analogamente per l'universale). I I A parte il fatto che esso si è dimostrato molto utile nella classificazione in generale delle teorie, dal momento che si sono potute dimostrare categoriche in una data potenza teorie particolarmente interessanti: ad esempio, la teoria degli ordini densi senza primo né ultimo elemento è categorica in potenza ~o come già aveva fatto vedere Cantor. 2 Il lettore si chiederà senza dubbio come mai, una volta accertati i « limiti » posti abbondantemente in evidenza per i linguaggi elementari, non ci si risolva a passare direttamente a studiare le teorie espresse nel più forte e apparentemente adeguato linguaggio del secondo ordine. Il fatto è che esistono almeno due buone ragioni, strettamente legate l'un l'altra, che sconsiglianose addirittura non rendono impossibile - tale passaggio: in primo luogo l'incompletezza semantica dimostrata da Godei per teorie espresse in un linguaggio di questo tipo, rispetto alla normale accezione di modello, che taglia alle radici la possibilità stessa di fare uso del teorema centrale della teoria dei modelli, il teorema di compattezza, con la conseguente impossibilità di orga-
nizzare una soddisfacente teoria dei modelli per tali linguaggi; in secondo luogo, la difficoltà di stabilire una connessione rigorosamente dominabile tra modelli di teorie formulate al primo ordine e le stesse teorie formulate al secondo. Lo spazio tra primo e secondo ordine linguistico si rivela quindi estremamente ampio e l'introduzione dei linguaggi intermedi cui si accenna nel testo, basati come sono sull'approssimazione alla quantificazione del secondo ordine, ha da parte sua il vantaggio di contemperare la maggior potenza espressiva con la possibilità di trasportare ad essi buona parte della concettualizzazione fondamentale della semantica del primo ordine. Criterio generale nell'introduzione di questi linguaggi è quindi in generale la « trasportabilità » ad essi dei teoremi semantici più significativi, in primo luogo del teorema di completezza. 3 Il maggior interesse, forse, del secondo ordine debole sta, come ha mostrato Montague nel I 97I, nel fatto che data una teoria 'r del primo ordine, è possibile ottenere in modo canonico una sua estensione al secondo ordine debole che esprime gran parte della semantica di 'r.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
linguaggi infinitari introdotti da Tarski e Scott attorno al 19 57 e sistemati in modo organico nel 1964 da Carol R. Karp si basano su un'altra prospettiva. Si tratta cioè di ammettere nel linguaggio espressioni infinitamente lunghe; va subito notato che, comunque la cosa venga realizzata, le espressioni linguistiche diventano così oggetti infinitari e quindi già per la trattazione della loro sintassi sono necessarie metateorie molto forti quali ad esempio la teoria degli insiemi. Seguendo la sistemazione della Karp si è oggi soliti indicare tali linguaggi col simbolo generico La,f3 dove a e (J sono due ordinali (iniziali) ~ w e non necessariamente diversi tra loro. a indica il limite (non raggiungibile) della lunghezza delle congiunzioni o disgiunzioni ammesse nel linguaggio, mentre (J rappresenta l'analogo limite per le successioni di quantificatori ammissibili in una formula. Così ad esempio nel linguaggio Lwl'w sono ammesse congiunzioni e disgiunzioni di lunghezza < w 1 e successioni di quantificatori di lunghezza < w (ossia sono ammesse solo successioni finite di quantificatori in una formula). Si noti che il normale linguaggio L del primo ordine si ritrova come caso particolare di questi linguaggi infinitari e coincide precisamente con La))(JJ· Come già abbiamo accennato nella nota 3 a pag. 308 per i linguaggi La,f3 (a > w) si può tradurre (con le opportune modificazioni) il teorema di Lowenheim-Skolem « all'ingiù » (il che in certo senso dà una misura della « lontananza » di questi linguaggi dal secondo ordine totale); viceversa non è in generale possibile estendere l'analogo teorema « all'insù » perché per la maggioranza di questi linguaggi non vale il teorema di compattezza, che abbiamo visto essere essenziale nella dimostrazione dell'upward. In questa connessione William P. Hanf ha però dimostrato nel 1962 un interessante teorema valido per ogni linguaggio per il quale valga il Lowenheim-Skolem downward: per ognuno di tali linguaggi esiste un numero cardinale ~ (che viene appunto detto « numero di Hanf » di quel linguaggio) tale che se una formula F ha un modello di cardinalità ~, allora F ha un modello di qualunque cardinalità > ~Ben più complessa la questione per quel che riguarda la completezza (semantica) di tutte queste estensioni del linguaggio L, questione questa di particolare importanza, come detto sopra, in quanto vincola la dominabilità, dal punto di vista della teoria dei modelli, dei linguaggi stessi. I teoremi di completezza, vincolando la nozione di formula valida a quella di (( generabilità mediante un sistema di assiomi» (la «dimostrabilità»), possono essere sostanzialmente intesi come affermanti il fatto che le formule valide costituiscono un insieme in qualche modo « dominabile »: così ad esempio per L tale insieme risulta essere ricorsivamente enumerabile. Nelle estensioni di L sopra ricordate, i corrispondenti insiemi di formule valide risultano difficilmente localizzabili dal punto di vista della loro effettività, nel senso che o hanno localizzazioni « inattese », o addirittura sfuggono ad ogni nostro attuale criterio di classificazione: così ad esempio per L Q 0 (l'estensione di L è ottenuta aggiungendo il quantificato:re «esi-
+
377
www.scribd.com/Baruhk
La logica-nel ventesimo secolo (r)
stono almeno ~o ... ») si ha che l'insieme delle formule valide è analitico (della forma n D ma non iperaritmetico; per L + Qt, viceversa, Vaught ha dimostrato che il corrispondente insieme è ancora ricorsivamente enumera bile; per il linguaggio del secondo ordine si sa solo che l'insieme delle formule valide è non analitico (ed è aperto il problema se sia costruibile nel senso di Godei) mentre per i linguaggi La,(3 in generale non si dispone neppure di opportune gerarchie che permettano di esprimere un analogo del teorema di completezza. Per il linguaggio Lml'm invece la Karp ha dimostrato nel 1964 un teorema di completezza. Per L ml'm non vale però il teorema di compattezza ed è questo fatto che impone alla teoria dei modelli per questo linguaggio un'impostazione e un andamento « nuovi » che le conferiscono un particolare e genuino interesse. Si riesce infatti a ridimostrare per questo linguaggio una serie di risultati analoghi a quelli di Las, Robinson ecc. ricorrendo però, in mancanza della compattezza, a risultati sintattici, in particolare all' Hauptsatz di Gentzen esteso a questi linguaggi nel 1964 per la prima volta da E. G. K. Lopez-Escobar. In questo modo la teoria della dimostrazione per linguaggi infinitari si dimostra strumento d'analisi molto più sottile della teoria dei modelli (e in quest'ordine di idee sono attualmente molto attivi in particolare Solomon Feferman e William Tait); sono stati però fatti tentativi per eliminare questo ricorso alla teoria della dimostrazione e in tempi recenti (1969) M. Makkai, sulla scorta di ricerche di Raymond Smullyan sul significato semantico dei sistemi alla Gentzen, è riuscito a dare una traduzione più esplicitamente semantica di tutti questi concetti sulla base della nozione di proprietà generale di consistenza. Questi metodi si applicano anche al caso di un tipo più « sottile » di logiche infinitarie, non basato su una considerazione puramente cardinale della « lunghezza» delle formule, ma sulle loro caratteristiche dal punto di vista dell'effettività. Abbiamo già accennato, parlando della ricorsività, ai legami che esistono fra il concetto di finito e quello di effettivo; basandosi su questo fatto, nel I 968 Kreisel, dopo aver notato come espressioni infinitarie fossero intervenute in modo « naturale » già allo stesso inizio del discorso formalizzante, proponeva di considerare formule di lunghezza « 'll-finita » e regole di deduzione che consentissero derivazioni (( 'll-finite », dove il concetto di m-finitezza costituisce una generalizzazione infinitaria del concetto di finito, basata su un'analogia non cardinale ovviamente, ma riguardante la forma di definibilità degli insiemi 'll-finiti. In questo modo Kreisel si ricollegava ai tentativi di generalizzazione della teoria della ricorsività ad ordinali della seconda classe maggiori di w, i cosiddetti ordinali ammissibili (introdotti da Saul A. Kripke nel 1964). Sulla scorta delle osservazioni di Kreisel, Kenneth John Barwise introduceva il concetto di lingu'aggi L.w come «frammenti» del più forte linguaggio Lro 1 ,ro dove .91 è un insieme « ammissibile »; per i linguaggi L .w si riusciva non solo a dimostrare la completezza, ma addirittura la compattezza, mostrando così come la generalizzazione
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
proposta da Kreisel fosse estremamente più « fine » di quella basata su considerazioni puramente cardinali. Il fatto che si sia ritenuto opportuno, per definire in modo più adeguato proprietà di strutture, estendere il linguaggio L (pur senza giungere al secondo ordine) non deve indurre il lettore a credere che i linguaggi elementari siano scarsamente utili e quindi ormai abbandonati nelle indagini di teoria dei modelli. Tutto un compatto corpus di ricerche strettamente collegate alla concreta pratica matematica è stato sviluppato in questi ultimi anni sfruttando proprio i « modelli indesiderati », non standard, che le teorie del primo ordine ammettono. Al di là dei risultati « locali » ottenuti da Skolem e accennati a suo tempo, e delle immediate conseguenze a questo riguardo del teorema di incompletezza di Gi::idel, a partire dal 1960 A. Robinson ha sviluppato tutta una teoria per così dire del « non standard » la quale - oltre al suo intrinseco interesse dal punto di vista logico e matematico - ha una specifica portata proprio dal punto di vista storico, in quanto in particolare i sistemi di Analisi non standard presentati da Robinson nel 1966, recuperano pienamente le impostazioni e intuizioni leibniziane circa un'Analisi nella quale avesse normale diritto di cittadinanza il concetto di infinitesimo. A parte però quest'aspetto va ribadito che l'Analisi non standard di Robinson- i cui principi non tentiamo neppure di delineare in questa sede - ha permesso non solo di riottenere in modo elegante significativi risultati di Analisi classica, ma ha addirittura consentito di risolvere nuovi problemi; è anche interessante notare che gli sviluppi più significativi di queste ricerche si svolgono in un contesto di linguaggi dei tipi, riuscendo così ad aggirare l'ostacolo costituito dall'assenza di uno strumento così forte ed essenziale come è quello rappresentato dal teorema di completezza rispetto ai modelli normali. Le ricerche in questo campo sono tutt'oggi estremamente attive e approfondite e mettono in luce come risultati apparentemente limitativi come quello di Skolem (o in generale che fanno concludere l'esistenza di modelli non standard) non costituiscono un banale e bloccante « incidente sul lavoro » ma un potente strumento di ulteriore più approfondita analisi (e viene naturale l'associazione col ruolo svolto, in questo senso, dalle antinomie, pur se in contesto completamente diverso). Anche se finora il nucleo del discorso è stato rivolto all'aspetto se!Jlantico dello sviluppo della logica, abbiamo avuto più volte l'occasione di fare riferimento all'altro approccio per lo studio delle teorie, quello della teoria della dimostrazione. Il fatto non è casuale: l'aspetto importante della moderna teoria della dimostrazione è appunto il superamento dell'originario programma hilbertiano mediante il ritorno a un'analisi dei concetti intuitivi fondamentali lungo una via che già abbiamo vista aperta- come precursore - da Gentzen. Non deve quindi stupire che in questa ricerca della propria autonomia e della propria ragion d'essere (che cosa differenzia un'analisi delle teorie dal punto di vista
379
www.scribd.com/Baruhk
La logica nel ,ventesimo secolo (r)
sintattico rispetto a un'analoga indagine di tipo semantico?) la teoria della dimostrazione oggi non si presenti più (cosa che avveniva per la Beweistheorie hilbertiana) come tentativo di ridurre le teorie formalizzate ad una forma dominabile assunta sin dall'inizio e una volta per tutte come elementare mediante strumenti limitati e precisati a priori, bensì estenda il suo campo di indagine più direttamente al concetto generale di dimostrazione, alle sue classificazioni in base ai gradi di evidenza, portando ad un ripensamento di quegli stessi concetti di « finito », « costruttivo » ecc. che per Hilbert erano il dato di partenza inquestionabile piuttosto che il punto di arrivo. È a Georg Kreisel (n. I9zz) che si deve principalmente la ripresa e la nuova impostazione del programma hilbertiano. Nel I 9 58 in un articolo intitolato Hilbert' s programme (Il program!lla di Hilbert) Kreisel sottolineava: I) come Hilbert non avesse mai condotto un'analisi del concetto di matematica finita lasciando così sostanzialmente nel generico tutto il suo programma; z) come la limitazione al solo problema della dimostrazione di consistenza fosse arbitraria e ingiustificata. Occorreva, per far fronte al teorema di Go del, procedere lungo una doppia direzione: da una parte, studiando il meccanismo di riduzione mediante il quale attraverso l'analisi delle sue dimostrazioni una teoria viene interpretata all'interno di un'altra teoria (nel caso di Hilbert: la matematica finitista) si doveva giungere a una classificazione, in base alla loro « evidenza », di queste teorie fondanti; dall'altra, era necessario analizzare in generale il concetto intuitivo di dimostrazione, saggiandone le varie precisazioni formali senza porsi limiti a priori riduttivi sui metodi ammessi in questa analisi. Sulla scorta di queste osservazioni, nel I97I Dag Prawitz ha proposto di operare una distinzione tra teoria della dimostrazione riduttiva e teoria della dimostrazione generale. È sulla base di queste chiarificazioni che l'impostazione di Gentzen è stata compresa in tutta la sua portata e potentemente sviluppata a cominciare dalle ricerche di Kurt Schiitte (I959) fino a quelle di William Tait (I968), dello stesso Prawitz e di molti altri. Schtitte e Tait sono riusciti a rendere più trasparente la concezione generale di Gentzen relativa alla consistenza delle teorie, ponendone in luce in modo più organico e sistematico gli elementi infinitari. Schiitte ha così ottenuto la dimostrazione di consistenza dell'aritmetica in cui l'induzione fino a w viene sostituita da una regola infinitaria- la cosiddetta w-r~gola - che può esprimersi come segue P(O), P(I), ... , P(n), ... Vx P(x)
In questa direzione Tait ha affrontato decisamente lo studio di linguaggi infinitari dal punto di vista dei sistemi della deduzione naturale. In questo modo, abbandonando la limitazione ai sistemi formali nel senso di Hilbert ammettendo
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
la possibilità di regole di formazione (Tait) e deduzione (Schi.itte) infinitarie, la necessità del ricorso all'induzione fino a Eo risulta localizzata con precisione: sono gli alberi infiniti di dimostrazione che una volta opportunamente indiciati da ordinali che ne misur"ano la complessità impongono questo passaggio. Dimostrare una proprietà per tutte le dimostrazioni di un dato sistema equivale infatti a imporre l'utilizzazione di un principio di induzione che si sviluppi lungo un « segmento » degli ordinali sufficientemente esteso per « ricoprire » tutti i possibili tipi di dimostrazione (alberi) che occorrono nel sistema dato; così interpretati, i principi di induzione transfinita acquistano un significato ben determinato e si possono allora estendere a sistemi più forti, in grado di formalizzare teorie quali l'Analisi (o suoi sottosistemi). I lavori in questa direzione sono attualmente assai numerosi e sono dovuti soprattutto a Schi.itte, Tait, Takeuti, e altri. Proprio nel 1958 però, come già accennato, Kurt Godel poneva le basi di un tipo di approccio apparentemente molto diverso all'analisi delle teorie. L'idea di fondo di Godel consiste sostanzialmente nell'associare ad ogni formula derivabile di una teoria (in particolare dell'aritmetica I_J3 di Peano o di quella intuizionista) un'altra formula in cui compaiono funzionali ricorsi vi (definibili cioè mediante gli ordinari schemi di recursione) di tipo finito, funzionali cioè che hanno come argomenti e valori ancora funzionali e che sono di tipo finito nel senso della teoria dei tipi. L'associazione di queste formule a quelle del sistema originario avviene seguendo passo passo le derivazioni di queste ultime, e la complessità delle definizioni dei funzionali che vengono introdotti riflette quella delle regole di deduzione applicate nel corso della derivazione stessa. Le formule così associate significano sostanzialmente che esistono funzionali in grado di « scegliere » gli individui opportuni per soddisfare le quantificazioni della formula prodotta. Per dimostrare la consistenza del sistema che si analizza occorre quindi postulare l'esistenza di simili funzionali, cioè la validità dei principi di recursione necessari per definirli. Nel caso dell'aritmetica questi principi di recursione sono necessariamente transfiniti in quanto non ricavabili dagli ordinari schemi di recursione per funzioni dimostrabili in base all'induzione su w: l'importante è che è sufficiente l'induzione fino a Eo per giustificarli. L'analisi di Gentzen e quella di Godel portano quindi allo stesso principio di induzione ma per due vie completamente diverse, pur se altrettanto geniali. Nel primo caso è un principio infinitario che si applica a oggetti concreti (gli alberi di dimostrazioni); nel secondo è uno schema finitario (la recursione per la definizione dei funzionali è infatti primitiva) applicato però ad oggetti astratti, i funzionali appunto. È proprio in questo senso che Go del, parafrasando un' osservazione di Bernays, afferma che «poiché la matematica finitista è definita come quella dell'evidenza intuitiva1 ciò significa ... che per la dimostrazione di non contraddittorietà della teoria dei numeri sono necessari certi concetti astratti ». La connessione tra alberi di dimostrazione e funzionali può essere ulterior-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
mente estesa; in tempi recenti ( 1968) T ai t seguendo un'indicazione di Curry è riuscito a sviluppare un collegamento basato su questo semplice fatto: ad ogni derivazione del calcolo di Gentzen si può associare la costruzione di un termine che in un certo senso «definisce» la derivazione stessa; gli operatori che occorrono nel termine sono in corrispondenza con quelli logici e le regole di deduzione con le regole di trasformazione tra termini. Anche i funzionali si possono considerare come denotati da termini e si può quindi stabilire direttamente un collegamento tra i termini costruiti nei due modi. L'elemento comune che risulta da tutti questi molteplici collegamenti è costituito dal fatto che in un modo o nell'altro queste diverse analisi conducono sempre a strutture fondate (termini o derivazioni o definizioni di funzionali) la cui complessità può essere studiata in base alla struttura fondata per eccellenza: quella dei numeri ordinali. È proprio questo fatto che spiega l'interesse del tutto particolare che tale struttura ha avuto e continua ad avere in queste ricerche, e che giustifica i numerosi tentativi di individuazione di classi di ordinali che si possano per così dire « nominare » e definire in modo effettivo. Questo intervento essenziale degli ordinali risulta anche in un altro tipo di indagine riguardante, più che la consistenza, la completezza delle teorie e basato sulla costruzione di successioni transfinite (ma indiciate da ordinali costruttivi) di teorie, tali che ogni teoria elemento della successione sia « più forte » della precedente nel senso che in essa è dimostrabile il cosiddetto principio di riflessione per la più debole. I principi di riflessione, studiati sistematicamente per la prima volta da Kreisel e Levy nel 1968, sono enunciati che sostanzialmente affermano che ogni formula dimostrabile in un dato sistema 6 è vera: hanno quindi come ovvio corollario la consistenza del sistema stesso. L'idea è sostanzialmente la seguente: dato un sistema formale 6 possiamo considerarlo nella sua globalità e pensare di rafforzarlo mediante l'introduzione di ulteriori assiomi, in particolare proprio del principio di riflessione; sorge allora naturale l'idea di iterare questo processo nel transfinito recuperando così « pezzo per pezzo » i limiti intrinseci che un singolo sistema o un insieme finito di sistemi presenta a causa dei teoremi di Godei del 193 r. Se riferita allora a questi teoremi e all'aritmetica di Peano la situazione è grosso modo la seguente: per recuperare la possibilità di dimostrare la consistenza è necessario - abbiamo visto - l'iterazione transfinita fino a e0 di un'operazione effettiva (che può essere identificata con il procedimento di « misurazione » delle dimostrazioni) ; per recuperare la completezza sintattica il cammino è analogo, ché occorre considerare successioni transfinite di teorie, come sopra detto, movendosi lungo un segmento della struttura degli ordinali determinato da un ordinale costruttivo (o ricorsi v o): si può allora far vedere che \.l.l è completa in una successione così generata. « In termini un po' imprecisi potremmo riassumere la situazione nel mòdo seguente: i problemi dell'aritmetica intuitiva non sono tutti risolubili in un unico sistema formale, e
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
nemmeno in una "combinazione" finita di sistemi formali. Tuttavia combinando opportunamente infiniti sistemi formali in una maniera "abbastanza costruttiva" risulta possibile risolvere qualunque problema dell'aritmetica intuitiva » (Dalla Chiara Scabia). In tutti e due i casi l'analisi offerta dalla teoria della dimostrazione permette di approssimare i risultati voluti (consistenza, completezza) misurando i passi necessari. Non può sfuggire al lettore la connessione di queste ricerche con tutti i tentativi che, sin dal primo svilupparsi della teoria degli ordinali, costruttivisti e intuizionisti erano andati conducendo per una analisi della seconda classe cantoriana, con l'obiettivo di isolarne segmenti sempre più ampi dominabili dal loro punto di vista effettivo; nel contesto della teoria della dimostrazione queste indagini hanno trovato una nuova ragion d'essere: da una parte ampi lavori di S. Feferman hanno sviluppato la teoria delle notazioni di ordinali (i cui primi tentativi e risultati risalgono agli anni trenta, e sono legati in particolare ai nomi di Church e Kleene) e dei buoni ordinamenti dimostrabili in modo costruttivo; dall'altra le ricerche di Kreisel sono state indirizzate ad analizzare questo significato della costruttività degli ordinali e dell'induzione sugli stessi in termini di visualizzabilità, giungendo alla conclusione che - almeno in questo senso - il procedimento di induzione fino a e0 è « finitista ». Con questa identificazione di « visualizzabile » (si pensi agli alberi) con « finitista », Kreisel, pur prendendo come abbiamo visto lo spunto da esigenze « hilbertiane », capovolgeva completamente la direzione dell'approccio hilbertiano stesso, mettendo in luce (e ponendovi nuovo e fecondo rimedio) quella che ne era l'essenziale deficienza: proprio la mancanza di analisi del « concreto », dell' « intuitivo », del « finito». Come detto all'inizio, la teoria della dimostrazione non si limita affatto a questo momento riduttivo delle teorie, ma a partire dalla sistemazione di Gentzen approfondisce un'analisi diretta della dimostrazione intuitiva: quando due dimostrazioni sono equivalenti? quando una è più «diretta» dell'altra? In tempi recenti (1971) Dag Prawitz ha aperto nuovi orizzonti alla teoria della dimostrazione affrontando la questione sulla base di una nuova formulazione dei calcoli di Gentzen che egli riesce a estendere a un gran numero di diversi sistemi logici (classici e non classici, finitari e non).l Il sistema di Prawitz non è basato sul concetto di sequenza, ma mediante opportune modificazioni riprende l'idea dei calcoli N riacquistandone così la « naturalezza » pur non rinunciando ai risultati che Gentzen aveva ottenuto con i più complessi calcoli L, in particolare allo Hauptsatz, che anzi in questo contesto acquista veramente il significato di normalizzazione delle dimostrazioni, vale a dire permette la riconduzione di ogni r Tra i sistemi più interessanti cui Prawitz ha potuto estendere il suo metodo, ricordiamo la logica classica del secondo ordine; la dimostrazione, da lui data, dell' Hauptsatz per questo siste-
ma conferma con il suo carattere non costruttivo quanto detto sopra sull'approccio della teoria generale della dimostrazione e sulla sua mancanza di preclusione verso metodi non elementari.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
dimostrazione a una forma diretta, priva di «giri viziosi». La ricerca è tuttora in atto, ma ha già permesso, data la duttilità degli strumenti escogitati, di dare una formulazione che si presta facilmente all'analisi a numerose teorie, in particolare a quelle sin ora sfuggite ad una analisi precisa: ci riferiamo in special modo ai lavori di Per Martin-Lof sulle definizioni induttive iterate e sulla teoria delle specie (intuizioniste). Non solo, sempre Martin-Lof (1972) è riuscito anche a riprendere da questo punto di vista la teoria degli insiemi boreliani e ha fornito elegantissime dimostrazioni di teoremi classici (proprio utilizzando l' Hauptsatz). In questo modo risulta chiaro come i metodi elaborati dalla teoria della dimostrazione non solo ci permettono un'analisi di teorie già formalizzate, ma sono strumenti utili per la ricerca di formalizzazioni adeguate; l'esempio più illuminante in questo senso è costituito dalle teorie di Analisi predicativista sviluppate successivamente da Kreisel, Feferman (sulla scorta di idee di Turing), basandosi appunto sull'idea di una progressione di teorie ottenute ciascuna dalla precedente mediante l'aggiunta del principio di riflessione per quest'ultima. Ogni teoria possiede principi di comprensione che permettono di considerare come esistenti le collezioni definite da formule che hanno particolari proprietà di stabilità; la lunghezza della progressione dipende dagli ordinali indici cui si possono assegnare notazioni in ogni singola teoria, senza far riferimento alle successive. Considerando gli insiemi la cui esistenza è garantita da questa progressione, si giunge a ritrovare quegli insiemi iperaritmetici che sappiamo situati «fra» la gerarchia aritmetica e quella analitica e che vengono in certo senso a porsi come discriminante tra predicativo e impredicativo, ossia come collezione di insiemi predicativamente definibili. Ma anche l'Analisi classica almeno in un certo senso è dominabile facendo ricorso a opportuni e nuovi metodi dimostrativi: se ne può dimostrare la consistenza. Nel 1962 infatti appariva postumo un articolo di Clifford Spector (19301961) nel quale tale risultato veniva raggiunto estendendo il metodo dei funzionali di Godei e introducendo un nuovo principio di definizione, detto della recursione sbarrata (bar recursion). Questo principio è essenzialmente equivalente a un principio di induzione introdotto da Brouwer nel 1927, e questo fatto non è casuale: nel tentativo di superate i limiti imposti da troppo ristrette condizioni finitiste hilbertiane si giunge quasi inevitabilmente, in generale, a principi costruttivi elaborati dalla matematica intuizionista. Lo stesso sviluppo del nostro discorso ci porta quindi a gettare un rapido sguardo su questo campo. Non è certo possibile - al di là dei naturali collegamenti che si instaurano in questo senso - riferire ampiamente e dettagliatamente sulle acquisizioni di tale branca della ricerca logica; l'obiettivo dell'intuizionismo è infatti quello - come si è più volte detto - di costruire ex novo una matematica sicché è impossibile darne qui anche la più breve descrizione oltre agli accenni fatti nel paragrafo IV-3Quello che ci preme sottolineare è che mai come in questi anni l'interesse dei
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
ricercatori si è concentrato su questo indirizzo di studio. Diremo solo che gli argomenti di attuale intensa ricerca riguardano sostanzialmente la precisazione a livello assiomatico dei concetti di successione di libera scelta, di specie e di definizioni induttive (cui abbiamo fatto riferimento parlando dei lavori di MartinLof); la motivazione stessa di queste ricerche è data dal tentativo di « estrarre » dalle equivoche (ma non per questo meno feconde) determinazioni brouweriane del concetto di successione di libera scelta, precisazioni assiomatiche che riescano a separare i diversi significati impliciti in quelle determinazioni. Sulla base di concetti via via introdotti allo scopo, come quelli di successione « con legge » (!aw!ike) o « senza legge» (lawless), «assolutamente libera», « ordinaria», ecc., si sono avuti negli ultimi anni numerosissimi lavori in questo senso ad esempio da parte di Kleene-Vesley (r965), Myhill (1967), A. S. Troelstra (1970) ecc. Quel che ci preme mettere in luce è l'importanza centrale che ha avuto per lo stesso sviluppo della matematica intuizionista l'inserimento in essa del momento di formalizzazione; e ci sembra difficile esprimere la cosa più incisivamente e chiaramente di quanto non facciano le seguenti parole di John Myhill: « In generale la ripulsa contro la formalizzazione è stata di recente eliminata tra gli intuizionisti anche in Olanda [patria di Brouwer] e i risultati ottenuti impiegandola hanno contribuito grandemente alla chiarificazione delle oscurità. Ovviamente questa chiarificazione è un compito in prima istanza ftlosoftco piuttosto che matematico; ma la formalizzazione vi contribuisce in modo essenziale perché risulta che sostanzialmente l'intero corpus brouweriano è derivabile in modo standard (ossia nel calcolo dei predicati intuizionista) da un numero limitato di enunciati... esplicitamente accettati da Brouwer. Il compito filosofico viene così ridotto per mezzo della formalizzazione da quello estremamente impegnativo di "dare senso a" tutti gli scritti di Brouwer a quello più trattabile di "dare senso a" questo piccolo numero di principi ammesso esplicitamente assieme con i principi dello stesso calcolo dei predicati intuizionista; i due tipi di principi verrebbero quindi assunti come assiomi di un sistema formale deduttivo e il resto del lavoro consisterebbe semplicemente di deduzioni da questi assiomi. Ciò non vuol significare che esiste finora un accordo generale su quelli che dovrebbero essere gli assiomi (non logici) e questo per due ragioni: (a) se si fa una lista di assiomi sufficienti per la derivazione del corpus brouweriano, si trovano varie questioni semplicissime per le quali si vorrebbe conoscere la risposta (che in effetti dovrebbe essere conosciuta per comprendere chiaramente i presupposti filosofici di Brouwer) e sulle quali egli essenzialmente non si era impegnato e ({J) si hanno prove che le sue concezioni sono cambiate radicalmente in suoi scritti posteriori... o almeno che egli usava le stesse parole (ad esempio "successione di libera scelta") con significati differenti sicché la questione se tutto il suo lavoro possa essere compreso in un sistema formale (o, più fondamentalmente, in un unico schema filosofico) è discutibile e difficile e la risposta, sulla base delle indi-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
cazioni di cui a tutt'oggi disponiamo, sembra essere affermativa ma decisamente non banale. (Non voglio qui intendere che vi è coinvolta una matematica difficile, bensì semplicemente un pensiero difficile.) » Mediante la formalizzazione si è reso così possibile non solo un lavoro di scavo e chiarificazione, ma altresì un lavoro di vera e propria edificazione che lascia sperare che nel giro di pochi anni alla teoria degli insiemi come codificazione dei principi della matematica classica infinitaria, si possa positivamente contrapporre una finalmente organica e articolata matematica costruttiva; in altri termini, che vengano effettivamente realizzati entrambi i pilastri che costituiscono i due poli del pensiero teoretico esatto. A tutt'oggi si può dire che « ... le ricerche sull'intuizionismo sembrano avere grosso modo raggiunto il punto cui erano giunte le ricerche sulla teoria assiomatica degli insiemi all'inizio di questo secolo, vale a dire i fondamenti assiomatici non sono chiari ma essi lo divengono rapidamente e lo stabilire un insieme di assiomi altrettanto definitivo di quello di Zermelo per la teoria degli insiemi, sembra soltanto una questione di pochi anni» (Myhill). In conclusione lo stato attuale delle ricerche sull'intuizionismo può essere considerato polarizzato attorno a quattro punti principali: 1) Logica; z) Aritmetica; 3) Teoria delle successioni di libera scelta; 4) Teoria delle specie. Per i primi due si ha ormai un'assiomatizzazione soddisfacente; per il terzo sono lecite le più concrete speranze di una sua imminente sistemazione, mentre il quarto punto, quello relativo alle specie, è ancora oggi ben lontano dall'essere organicamente trattato. Un ulteriore effetto sullo sviluppo dell'intuizionismo che la formalizzazione ha permesso è un contatto più diretto con la matematica classica nel senso che (in direzione opposta ai rapporti stabiliti da Godei e Gentzen nel 193 3) è stato possibile dare interpretazioni non costruttive - appunto nell'ambito della matematica classica - della matematica intuizionista. Ci riferiamo in particolare a tutta quella serie di lavori che a partire dalle ricerche condotte da Kleene nel 1945 hanno portato al concetto di realizzabilità ricorsiva come corrispettivo della dimostrabilità intuizionista. L'idea di fondo è quella di associare numeri alle possibili « realizzazioni » (dimostrazioni) delle formule e quindi di assegnare come interpretazione dei connettivi e dei quantificatori funzioni numeriche che, in vista del carattere costruttivo della logica intuizionista, dovranno essere ricorsive. Strettamente collegato ai lavori di Kleene è un altro tipo di approccio sviluppato da Kreisel a partire dal 1962 impegnato direttamente alla edificazione di una teoria assiomatica delle costruzioni, vale a dire dell'elemento fondamentale stesso della concezione intuizionista. La via di Kreisel risulta estremamente naturale, come è chiaro, anche se sino ad ora non si è in grado di dire se fornisce un'interpretazione completa (diversamente da quella di Kleene la cui incompletezza è nota in forza di un risultato di Alan Rose) ed è basata sull'idea di dare una definizione ricorsiva della proprietà « essere una costruzione che dimo-
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
stra una formula d >~- Tutte queste difficoltà non sono casuali; esse dipendono proprio pall'impostazione comune che rimanda ad una nozione di costruzione che o è troppo restrittiva (Kleene: identificazione del costruttivo col ricorsi v o) oppure risulta troppo indeterminata (Kreisel) proprio perché non può fondarsi su una precisa teoria del costruttivo che è appunto l'obiettivo finale della matematica intuizionista nel suo complesso; questo è un altro dei problemi riguardanti la precisazione dei concetti base dell'intuizionismo cui in questi anni sono stati dedicati numerosi lavori (in particolare da Nicholas Goodman e Hans Lauchli). È ponendosi più decisamente in una prospettiva classica che è stato possibile invece dare una sistemazione soddisfacente alla semantica per la logica intuizionista; questo si deve in particolare a Saul Kripke che nel I965, nell'ambito di un'analisi generale di un'ampia famiglia di linguaggi non classici, quelli intensionali, risolse il problema prendendo lo spunto dalle logiche modali già precedentemente analizzate nel I 9 59· La cosa non deve stupire se si pensa alla traducibilità della logica intuizionista in quella modale (S4 di Lewis) posta in luce da Go del nel I 9 33. Dato il ruolo centrale che questa semantica ha nelle ricerche odierne dei sistemi di logiche intensionali, è opportuno soffermarci brevemente sull'idea di fondo della sistemazione di Kripke. Partendo da una nozione di intensione introdotta da Carnap nel I947, Kripke vede negli operatori modali delle funzioni che si applicano non già all'estensione di un enunciato (il suo valore di verità) bensì alla sua intensione; quest'ultima viene riguardata come una funzione che associa, in corrispondenza a diverse circostanze, a diversi « mondi possibili », diverse estensioni, diversi valori di verità. Discostandosi da Carnap, però, Kripke non vede l'insieme dei mondi possibili come determinato una volta per tutte dall'insieme di tutte le descrizioni consistenti di stati possibili; ma considera più astrattamente i mondi possibili come indici scelti in un insieme prefissato. Consideriamo quindi un insieme I di mondi possibili; una in tensione di un enunciato sarà una funzione (f) da I all'insieme dei valori di verità {o, I}. Assegnata all'enunciato d l'intensione j, è quindi determinato l'insieme dei mondi in cui esso è vera e quello dei mondi in cui esso è falsa. Che cosa significherà affermare che l'enunciato d è necessario? In prima istanza si può dire che la necessità di d coincide con la sua verità in ogni mondo possibile. Questa nozione però risulta troppo grossolana e ammette una importante precisazione: i mondi possibili non sono tutti compossibili, nel senso che dato un mondo i E I, solo alcuni degli altri elementi di I sono «accessibili» da i, cioè sono possibili dal punto di vista di i. Ciò posto, per assegnare ad ogni enunciato una intensione occorrerà non solo specificare l'insieme I dei mondi possibili, ma anche una relazione binaria R fra di essi che intenderemo come relazione di accessibilità; iRj andrà cioè letto: il mondo j è accessibile dal mondo i, o in altre parole j è un mondo possibile per i; chiameremo quindi struttura modello ogni coppia deJ tipo . Un enunciato allora sarà necessario nel mondo i
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
quando risulterà vero in ogni mondo j accessibile da i. Il grande interesse di questa analisi sta nel fatto che permette di dare una sistemazione unitaria ad un'enorme varietà di nozioni di intensione e di necessità. Imponendo infatti proprietà particolari (riflessività e jo simmetria e jo transitività, ecc.) alla relazione R è possibile stringere più da vicino le diverse idee di necessità che abbiamo intuitivamente. Così se intendiamo la necessità come verità in ogni istante, interpreteremo I come l'insieme degli istanti ed R come la relazione di (pre)ordine (ossia riflessiva e transitiva) che sussiste fra istanti di tempo. Non deve stupire quindi che partendo da questa idea sia possibile ottenere delle semantiche intuitive ed estremamente duttili per i sistemi modali presentati da Lewis e altri, nel senso che alle diverse nozioni di necessità canonizzate nei vari sistemi SI-S5 corrispondono diverse proprietà della relazione R: ad esempio, al sistema S4 corrisponde la relazione R di preordine, al sistema S 5 una relazione R di equivalenza (ossia riflessiva simmetrica e transitiva). Leggermente più complicata risulta la situazione per i sistemi SI -S 3 ; in questi casi infatti occorre introdurre un 'ulteriore distinzione tra mondi normali, tali cioè che posseggano almeno un mondo a loro accessibile (in particolare se stessi), e sistemi non normali per cui questa evenienza non si verifica (in termini di relazione R: un mondo è certamente normale se R è riflessiva). L'analisi di Kripke ha portato ad una svolta decisiva nello sviluppo delle logiche intensionali nel senso che ha permesso di offrire uno strumento unificante in grado di mettere in luce relazioni per l'innanzi insospettate, fra tutti i diversi sistemi noti e portando addirittura alla creazione di nuovi sistemi. È difficile sopravvalutare il significato di questo risultato se si pensa che uno degli ostacoli centrali alla pacifica accettazione delle logiche modali (e in generale intensionali) è sempre stato la mancanza di una semantica chiara e sufficientemente articolata da permettere di ottenere risultati di completezza che il vecchio metodo delle matrici non era in grado di offrire. In questi anni si è assistito così ad un poderoso sviluppo delle ricerche in questo campo; alla individuazione di strutture modello (le coppie <1, R> sopra introdotte) in grado di fornire interpretazioni rispetto alle quali i vari sistemi conosciuti fossero completi, ha fatto seguito l'applicazione del concetto di si~temi di indici con relazione di accessibilità all'analisi di altre nozioni di carattere intensionale le cui connessioni con la nozione di modalità logica erano sino ad allora rimaste nel vago. Alludiamo ai vari sistemi di logica deontica (nei quali compaiono operatori modali del tipo «è permesso», «è obbligatorio», ecc.), di logica epistemica (operatori «è noto che», «si crede che», ecc.) di logica esistenziale (nella quale i normali operatori di quantificazione vengono trattati come «modalità») la cui connessione, presentata in una ripartizione unitaria da Georg von Wright già nel I95 I, viene così giustificata a posteriori. Dal punto di vista filosofico il contributo più notevole dell'analisi di Kripke
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
sta forse nell'aver permesso di « riscattare » la logica modale dalle accuse di « essenzialismo » aristotelico che già dalla fine degli anni quaranta Quine le aveva ripetutamente lanciato. Le critiche di Quine colpivano quei tentativi che, a partire dai lavori di Ruth Barcan Marcus del I 946, erano stati condotti per estendere , .la logica modale enunciativa ad una predicativa del primo ordine. In tali sistemi infatti comparivano tesi del tipo di <)3xP ~ 3x<)Px, la cosiddetta formula della Barcan, il cui significato essenzialista è difficile negare, in quanto essa afferma come lecito il passaggio dalla possibile esistenza di un ente all'esistenza di un ente possibile. Analoghe difficoltà ancora più insidiose comparivano una volta che si volesse introdurre il concetto di identità e sviluppare su basi modali una logica del primo ordine con identità.! Risultava compromessa in particolare la legge dell'identità degli indiscernibili che sta alla base della stessa logica dell'identità. Orbene, Kripke riusciva nel 1963 a estendere la sua semantica al caso predicativo in modo tale da rendere impossibile la derivazione della formula della Barcan; in questo modo si apriva la strada alla costruzione di estensioni predicative dei vari sistemi modali, semanticamente complete rispetto alla interpretazione di Kripke e nello stesso tempo immuni dalle mende lamentate da Quine. L'idea di fondo è semplicemente quella di assegnare ad ogni mondo possibile un insieme di oggetti esistenti in esso; di operare quindi la riunione di tutti questi insiemi e di interpretare su di essa ogni costante predicativa del linguaggio; l'insieme U che si ottiene in questo modo rappresenta intuitivamente l'insieme di oggetti « possibili », ossia che esistono in qualche mondo. A l}Uesto punto l'interpretazione dei quantificatori non viene estesa a tutto U ma la verità in un dato mondo i di un enunciato contenente in quantificatore verrà valutata restringendo l'interpretazione del quantificatore stesso all'insieme degli oggetti di U che si trovano nel dato mondo i. È facile verificare che in questo modo la formula della Barcan non risulta vera in tutte le interpretazioni, si possono cioè esibire controesempi per essa. Questo impone a livello sintattico che l'estensione predicativa del sistema modale di base non venga ottenuta trasportando direttamente gli assiomi e le regole classici, ma imponendo opportune modifiche: si dimostra ovviamente che la cosa è possibile. La semantica predicativa di Kripke non è l 'unica possibile: altre ne sono state sviluppate da Jakko Hintikka, R. Thomason e altri su linee analoghe. Le variazioni riguardano sostanzialmente l'interpretazione delle costanti predica1 È sufficiente per rendersi conto di questo che il lettore consideri l'esempio seguente: interpretiamo il simbolo « D » come « è logicamente necessario». Allora vale chiaramente
1) D (12
>
Ricorrendo alle ordinarie proprietà delle identità otterremmo allora: 3) D (il numero degli apostoli
> 7)
7)
d'al tra parte è anche vero 2) il numero degli apostoli=
12
La 3) è chiaramente assurda. Ne scende quindi che l'interpretazione intuitiva di « D >> e le leggi dell'identità non sono compatibili.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
ti ve e quella dei quantificatori.l Discorso analogo si può fare per l 'identità e lavorando opportunamente a livello semantico si è giunti a diverse assiomatizzazioni della logica modale con identità che, pur discostandosi dall'interpretaziillle .classica, risultano facilmente assiomatizzabili. Va detto comunque che in questo campo molte questioni rimangono aperte e molte alternative devono essere ancora indagate; la cosa non sorprende se si pensa che questi problemi sono strettamente connessi ad antichi interrogativi filosofici sulla natura dell'identità, della necessità e del concetto di individuo. Da quanto abbiamo detto, e dalla sopra ricordata traduzione di Godei del I 9 3 3, risulta chiaro come sia possibile trovare una semantica adeguata in questo contesto per la logica intuizionista. Dato un insieme l di indici ed una relazione R di preordine su l, i connettivi intuizionisti possono così interpretarsi:
I) per ogni formula atomica si: se .91 è vera nel mondo i allora .91 è vera in ogni mondo j accessibile da i tale cioè che iRj; z) d/\
~è
vera in i se e solo se .9/ è vera in i e
~è
3) .9/V
~è
vera in i se e solo se o .91 è vera in i o
vera in i;
~è
vera in i;
4) .91 ~ ~ è vera in i se e solo se, per ogni mondo j tale che iRj1 .91 è falso in) o ~è vero in); 5) ----, .91 è vera in i se e solo se per ogni j tale che i Rj .91 è falsa in j. Come si nota le clausole di verità colgono appieno il senso dell'interpretazione intuizionista; se interpretiamo infatti i mondi possibili come diversi stati di evidenza (diversi momenti nella costruzione di una «dimostrazione») e R come la relazione di passaggio da uno di questi stati all'altro, risulta ad esempio- !imitandoci per comodità al caso cruciale della negazione - che ----, .91 è vera se e solo se non potrà mai raggiungersi uno stato di evidenza per .91 (in altri termini, se .91 è assurda). Per quanto riguarda i quantificatori, assegneremo ad ogni mondo i un insieme di oggetti 1p(i) con la clausola che, se iRj1 1p(i) ~ 1p(j); e interpreteremo ogni lettera predicativa n-adica a seconda dello stato di evidenza in cui ci troviamo, come un sottoinsieme di 1p(i)n. Porremo allora che una formula esistenziale è vera allo stato i se esiste un individuo di 1p(i) che soddisfa la formula in i; per converso, nel caso di una formula universale, essa sarà vera allo stato i se per ogni j tale che iRj1 preso un qualsiasi elemento a di 1p(j) esso soddisfa la formula in j. r Collegate a questi problemi sono recenti ricerche dedicate alla costruzione di sistemi logici in cui sia contemplato il caso che i quantificatori si riferiscano a domini vuoti. Queste logiche
vengono dette free !ogics: logiche cioè libere (da assunzioni esistenziali). Anche in questo caso, essenziale si è rivelato il ricorso alle semantiche di Kripke. Si veda il capitolo m del volume nono.
390
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
Come ricordato all'inizio, e come è facile vedere, l'interpretazione di Kripke non è costruttiva come pure non costruttiva è la dimostrazione di completezza che egli dà rispetto a questa semantica, utilizzando metodi introdotti da Evert Willem Beth (1908-1964) nel 1956. Lo stesso Kripke ha quindi cercato di dare della sua semantica un'interpretazione costruttiva utilizzando la formalizzazione della teoria delle successioni di libera scelta data da Kreisel; nel 1970 infine Hans Lai.ichli, pur sfruttando i lavori di Kripke, è riuscito su basi differenti a definire una nozione astratta di realizzabilità per la quale la logica intuizionista risulta completa, superando così i limiti inerenti tanto al tentativo di Kleene che a quello di Kreisel. Il significato del lavoro di Kripke non si ferma però qui: sulla sua base in tempi recenti (1970) K. Segerberg è riuscito a estendere la semantica in questione a sistemi ancora più deboli di quello intuizionista, quale ad esempio la logica minimale, e ad analizzare tutto il segmento di sistemi intermedi che esistono fra questa e quella classica. Fra i vari sistemi non classici legati strettamente alle logiche modali e che si sono giovati della sistemazione della semantica basata sull'introduzione dei « mondi possibili », vogliamo qui ricordare la cosiddetta logica del tempo (detta anche logica cronologica) la cui nascita - ma è più esatto dire la rinascita l - ha coinciso - ed è particolarmente interessante sottolinearlo in questa sede - con l'approfondimento, intrapreso soprattutto da Arthur Norman Prior, di studi di storia della logica. Supponendo di dover interpretare infatti l'operatore modale di possibilità in termini temporali come « è o sarà vero che », ci si ritrova con la concezione del possibile professata da Diodoro Crono, un megarico del 111 secolo a.C. Gli studi su Diodoro suscitati da queste osservazioni storiche hanno mirato da un lato a ricostruire la forma esatta del cosiddetto « argomento vittorioso» di Diodoro (argomento secondo il quale, partendo dalle premesse che il 1 È noto come già Aristotele nel De interpreta/ione escludeva che il principio del terzo
escluso valesse per gli enunciati contingenti (nonnecessari) al futuro, ponendo così la base della logica trivalente formalizzata da Lukasiewicz. Nella logica medioevale, araba ed europea, non è mai venuta meno la convinzione.çhe le proposizioni potessero cambiare valore di verità con il tempo e che il tempo fosse un oggetto pertinente alla speculazione logica. Con la nasCita della logica contemporanea, invece, nonostante le osservazioni in contrario di filosofi come MacTaggart e Peirce, e di logici come]. N. Findlay (autore, nel 1941, di un articolo in cui si proponeva l'introduzione di operatori temporali) Reichenbach e soprattutto Los, vero fondatore a tutti gli effetti della logica cronologica (1949), hanno prevalso le tesi a favore della riducibilità degli enunciati contenenti forme verbali temporali ad enunciati contenenti una copula atemporale. In questo atteggiamento ha pesato indubbiamente la consi-
derazione privilegiata di enunciati della matematica e della teoria degli insiemi, chiaramente atemporali. Conviene qui accennare che la tesi più drasticamente polemica nei confronti della opportunità di una logica del tempo è oggi quella sostenuta da Quine e da J. C. Smart, per i quali ogni enunciato è riducibile ad un enunciato atemporale in cui la proposizione temporale è convertibile in un predicato relativo a date (p. es. « Cesare morì nel 44 a.C.» è traducibile in «è atemporalmente vero dell'anno 44 a.C. che Cesare morì in questa data» oppure« l'anno 44 a.C. è [atemporalmente J caratterizzato dalla morte di Cesare»). La risposta di Prior, così come di altri studiosi, a queste obiezioni è naturalmente che il tempo verbale è ineliminabile dagli enunciati: per fare un solo esempio, l'interpretazione Quine-Smart appiattisce per Prior la distinzione da lui ritenuta fondamentale tra « non era vero nel 44 a.C. che p » ed « era vero nel 44 a.C. che non p ».
391
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
passato è necessariamente passato e che ciò che implica l'impossibile è esso stesso impossibile, Diodoro giungeva appunto ad identificare il possibile con ciò che è o sarà vero); dall'altro hanno condotto a tentare di stabilire quale dei sistemi modali poteva costituire la corretta interpretazione della nozione diodorea di possibilità. L'individuazione del sistema diodoreo è stato il punto più difficile da determinare. La prima ·~coperta di Prior fu che il comportamento della modalità diodorea era rispecchiato da una matrice infinita che verificava tutte le tesi di S4 ma non tutte quelle di S 5. Prior concludeva quindi un po' precipitosamente, in Ti me and modality (Tempo e modalità, 1957), che la matrice era caratteristica per S4 e che di conseguenza il teorema diodoreo corretto era S4. Non tardarono a farsi sentire le critiche di E. J. Lemmon, Hintikka e Kripke i quali indipendentemente attorno al 1957-195 8 presentarono una formula (L(Lp---+ Lq) V L(Lq---+ Lp) nella formulazione di Lemmon, ·ove L sta per D) che pur essendo diodorea non era in S4: sembrava dunque che S4. 3 ( = S4 la formula di Lemmon) dovesse essere il sistema cercato. La ricerca si è conclusa invece soltanto aggiungendo ad S4. 3 la formula (dove M sta per L(L(p __.. Lp) __..P) __.. (MLp __..p), che M. Dummett nel 195 8 ha dimostrato soddisfatta dalla matrice di Prior e purtuttavia non derivabile in S4. 3. Ciò che Prior intende precisamente per logica del tempo è stato chiarito in questi termini da Prior stesso: logica del tempo è una logica che a) contiene variabili enunciative che variano su enunciati che siano veri in taluni momenti e falsi in altri; b) contiene le normali funzioni di verità definite con opportune modifiche, e cioè in modo che p sia vera quando e solo quando sia falsa p, ecc.; c) contiene funzioni addizionali come Fp e Pp interpretabili « sarà vero che p» ed « è stato vero che p », nonché funzioni interdefinibili con queste come Gp =-----, F-----, p (sarà sempre vero che p) e Hp =-----,P-----, p (è stato sempre vero che p). Un modo diverso di fondare una logica temporale è quello (preferito da logici come G. H. von Wright, G. E. M. Anscombe, D. R. Luce) di introdurre un connettivo primitivo, diversamente caratterizzato, esprimente la relazione « prima di ». Diamo un esempio di base assiomatica per i due tipi di logica madale: il sistema minimale Kt di Lemmon (1959), e il sistema« and then »di von Wright (r966), che è stato appropriatamente chiamato «logica del cambiamento» ed è contraddistinto dal connettivo primitivo «'T». Kt: (con F e P indefiniti). Definizione di G: G =-----, F -----,; Definizione di H: H=-----, P-,;
+
O)
Regole: RG: aj--, F-----, a; RH: af--, P-----, a; Assiomi:
r. r -----, F-----, (p---+ q)---+ (Fp---+ Fq);
r.2 -----,
2.r P--,F---,p--+p;
2.2
39Z www.scribd.com/Baruhk
P-----, (p---+ q)---+ (Pp---+ Pq)
F-----, P-----, p---+ p.
La logica nel ventesimo secolo (1)
« An d then. » Regole: sostituzione, modus ponens, estensionalità. Assiomi:
Ato.
gli assiomi del calcolo classico delle proposizioni;
Atr. ((PV q)T(rV s))+--t((pTr)V(pT s)V (qTr)V (qT s)); Atz. ((p T q) 1\ (p T r)) +--t (p T (q 1\ r) V (q T r) V (r T q)); At3· p+--t(pT(qV -.q)); At4· --.(p T (q 1\ --. q)). Può comunque essere fuorviante insistere su questa distinzione per avere un criterio di orientamento nel problema, oggi molto complesso, della logica del tempo: fuorviante nella misura in cui i due tipi di sistema risultano in linea di principio intertraducibili; e nella misura in cui i sistemi di logica del tempo sono oggi classificabili con criteri anche più profondi. Alludiamo alla distinzione (da Lemmon detta « stratificazione ») dei postulati temporali in postulati esprimenti le condizioni di verità di enunciati temporalizzati, quali sono quelli inclusi nel sistema minimale Kt, e postulati, addizionabili a Kt, che riflettono proprietà della relazione prima-dopo. Ci sono così assiomi che presuppongono la densità e la discretezza dell'ordine temporale, altri che esprimono la circolarità, o l'infinità, o la finitezza della serie temporale, altri ancora che rispecchiano la linearità, o la ramificazione del futuro ecc. Inutile è sottolineare che aggiungendo consistentemente assiomi di questo secondo «strato» al sistema minimalc, si generano sistemi differenziati a livello semantico (la relazione di accessibilità tra diversi stati del mondo è nella logica cronologica una relazione temporale). Un diverso ordine di differenziazioni si apre passando dalla logica temporale enunciativa a quella predicativa, in particolare per quanto riguarda i delicati rapporti tra esistenza e quantificazione, che fanno entrare in gioco considerazioni antologiche altrettanto importanti di quelle sulla struttura del tempo. Se per esempio si interpreta, come fa abitualmente Prior, il quantificatore esistenziale come tale da variare sugli enti attualmente esistenti, la formula della Barcan risulta chiaramente falsa in quanto esprime un passaggio non garantito dalla possibilità all'esistenza. Lo stesso ragionamento vale sotto l'interpretazione temporale dell'operatore di possibilità abitualmente data da Prior. Il problema antologico dunque si ripresenta con il consueto interrogativo: quali sono gli enti di cui si intende ammettere l'esistenza? Le risposte a questo problema sono svariate. La formula della Barcan risulta valida per esempio nell'interpretazione temporale del tipo Quine-Smart, dove « Mp » significa « 3tpt » (dove p è la proposizione predicato) e anche in alcuni sistemi studiati da Prior in Tempo e modalità (I: T 2 ed I: T 3). Alla restrittività delle assunzioni antologiche di Prior fa contrasto la liberalità con cui Nino B. Cocchiarella (autore, nel 1966, di una fondamentale tesi di laurea sulla logica del tempo) accoglie nel suo universo tanto
393
www.scribd.com/Baruhk
La logica nel ventesimo secolo (x)
gli enti attuali che gli enti possibili, introducendo due tipi di quantificatori esistenziali. Rimandiamo il lettore al capitolo m del volume nono per la trattazione di alcuni altri temi che non hanno potuto trovare posto in questo; per terminare il quale riprenderemo due temi già emersi nelle pagine precedenti, parlando brevemente dello sviluppo nel dopoguerra delle logiche polivalenti e quindi della teoria degli insiemi. Per quanto riguarda il primo argomento conviene rifarsi al già citato articolo di Lukasiewicz e Tarski del 1930 Ricerche sul calcolo proposiziona!e, nel quale come si ricorderà venivano presentati una serie di calcoli Ln (dove n è un qualunque numero naturale o n= ~o, che indica appunto il numero di « valori di verità » assunti nel calcolo stesso). In particolare tali valori di verità venivano « standardizzati » assumendoli uguali a k j(n - 1) (con o ~ k ~ n - I) nel caso di I ~ n < ~o; e uguali a kj! (con o ~ k < !) nel caso di n= ~ 0 . Le «tavole di verità» (matrici) per i connettivi di implicazione e negazione venivano definite ponendo (se x e y sono due valori individuati come sopra) p ~q= I se x (valore di verità di p) è minore o uguale a y (valore di verità di q); p~ q = = I - x+ y, se x > y; ---,p = I - x .l Si era detto che in questo articolo venivano dimostrati tutta una serie di risultati tneta!ogici su questi calcoli. Come esempi di tali risultati ricordiamo: ognuno dei sistemi Ln, per 3 ~ n < ~o è consistente ma non massimale; dopo che Wajsberg aveva assiomatizzato il calcolo trivalente sulla base del sistema di assiomi
I) p~(q~ p) 2) (p~q)~ [(q~r)~(p-H)] 3) (-,p~-, q)~(q-*P) 4) [(p -*-.P)----* P]----* P con le regole del tnodus ponens e di sostituzione, la cosa viene generalizzata per ogni n strettamente ntinore di ~o e Lindenbaum estende il risultato di Wajsberg dimostrando che ogni sistema con un numero finito di valori di verità è assiomatizzabile. Nello stesso articolo J:.ukasiewicz congetturava che anche il sistema I
Supponiamo ad esempio di considerare
e quella per la negazione
Lo; allora i valori di verità saranno o,I/4,2/4 (ossia I fz), 3/4, 4/4 (ossia 1). La tavola di verità
p
per l 'implicazione sarà
-,p
o
I
fz
o o
si noti che nel caso di logiche trivalenti si usa indicare i tre valori con o, I fz,x, oppure con o,x,z.
394
www.scribd.com/Baruhk
La logica·nel ventesimo. secolo (x) L~ 0
fosse assiomatizzabile sulla base degli assiomi I), z), 3) come sopra, e inoltre 4) [(p---+ q)--+ q]---+ [(q-+ p)---+ p] 5) [(p--+q)--+(q-+p)] -+(q-+ p)
con le solite regole di sostituzione e del modus ponens. 1 Nel I 9 36 J erzy Sìupecki in Der volle dreiwertige AussagenkalkUl (Il calcolo proposizionale trivalente pieno) dimostra che il calcolo trivalente di .Lukasiewicz come assiomatizzato da Wajsberg non è (diremmo noi) funzionalmente completo, ossia non è tale da permettere di costruire, per mezzo dei connettivi primitivi in esso assunti, tutte le funzioni proposizionali possibili (con un numero finito di argomenti); e ovvia alla cosa con l'introduzione di un nuovo operatore T (il cosiddetto « tertium » di .Lukasiewicz) e di due nuovi assiomi che ne regolano il comportamento. Nel I939 D. A. Bochvar in Sul talco/o logico polivalente e la sua applicazione all'analisi delle contraddizioni presenta una variante del calcolo trivalente di .Lukasiewicz. Allo stesso anno risale il primo tentativo, di Rosser, di considerare un calcolo predicativo polivalente, ma solo nel I 9 58 se ne dà una soddisfacente presentazione assiomatica nel volume dello stesso Rosser e di Atwell R. Turquette, Maf!Y-Valued Logics (Logiche polivalenti); in questo contesto assai interessanti i successivi lavori di Rosser (I96o) e di Mostowski (I96I). Le logiche polivalenti intervengono ovviamente pure nel discorso di Arthur Norman Prior sulle logiche del tempo, cui abbiamo sopra accennato, e ne sono state tentate applicazioni anche alla meccanica quantistica (Zygmund Zawirski, I93 I; Garrett Birkhoff e John von Neumann, I936; Hans Reichenbach, I944; Paulette Destouches-Fevrier, I95 I). Ci porterebbe troppo lontano soffermarci qui sui tentativi di costruire modelli algebrici e topologici delle logiche polivalenti, come pure sui nuovi rapporti stabiliti fra queste e l'intuizionismo. Uno degli aspetti più rilevanti delle applicazioni in questi ultimi tempi si ha a nostro parere proprio nella teoria degli insiemi. Qui lavori «pionieristici» erano dovuti a Skolem (I957) e a Chen Chung Chang (I963). Dopo che nel I963 J. Paul Cohen aveva dimostrato col metodo di forcing (di cui parleremo brevemente più avanti) l 'indipendenza dell'assioma di scelta e dell'ipotesi generalizzata del continuo dagli altri assiomi della teoria degli insiemi, Dana Scott, nel I967, offre quella che a nostro parere è la più significativa applicazione metamatematica delle logiche polivalenti riproponendo la dimostrazione dell'importantissimo risultato di Cohen sulla base di un'interpretazione polivalente della teoria degli insiemi, dove i « valori di verità » sono elementi di un'opportuna algebra di Boole. Questa considerazione ci porta direttamente a quello che indubbiamente è 1 L'assioma 4) è stato dimostrato essere superfluo (ossia dipendere clai rimanenti) indipendentemente da Chen Chung Chang e da C. A. Meredith nel 1958. La congettura di Lukasiewicz
è stata dimostrata corretta nel I 9 58 da Alan Rose e John Earkley Rosser nell'articolo Fragments of many-valued statement ca/culi (Frammenti di calcoli proposizionali polivalenti).
395 www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
il risultato più clamoroso degli anni sessanta per quanto in particolare riguarda la teoria degli insiemi (ma che senz'altro è anche uno dei più prestigiosi di tutta la ricerca logica da Cantor in poi) ossia la dimostrazione dell'indipendenza dagli altri assiomi della teoria degli insiemi (che supponiamo di tipo 3(J6) dell'assioma di scelta o dell'ipotesi generalizzat~ del continuo. La cosa, come il lettore ricorderà, era stata più volte preannunciata, facendo riferimento appunto a questa risposta definita al problema posto da Cantor; in particolare ne avevamo accennato alla fine del paragrafo Iv. I, à proposito del risultato di Go del che converrà qui riprendere brevemente. Godel dunque aveva dimostrato che AS e !CC sono compatibili con gli altri assiomi della teoria degli insiemi, ossia aveva fatto vedere che le due proposizioni in questione non sono refutabili in 3(J5* (o .E*). Si ricorderà che il procedimento usato da Go del era estremamente semplice nelle sue linee generali: si trattava di costruire un modello in cui fossero verificati contemporaneamente tanto gli assiomi di 3(J5* quanto AS e !CC; o, più precisamente, Godei aveva costruito un modello per .E* V = L. Viene allora naturale cercare di decidere l'indecidibilità di AS e !CC costruendo altri modelli per 3(J5* nei quali tuttavia non fossero verificati né AS né ICC e nei quali quindi fosse verificato V f= L (vale a dire in questi modelli dovrebbe esistere almeno un insieme non costruibile). Ciò avrebbe come immediata conseguenza che AS e !CC- che sappiamo già non essere refutabili in 3(J6* - non sarebbero neppure dimostrabili in questo sistema e ci porterebbe immediatamente a concludere per la loro indecidibilità. Questo è appunto quanto riesce a J. Pau! Cohen nel 1 96 3 1 nei tre lavori A minima/ mode/ for set theory (Un modello minima/e per la teoria degli insien;i) e The independence of the continuum hypotheJis I, n (L'indipendenza dell'ipotesi del continuo I, n). Intuitivamente, come si è detto, visto che anche la dimostrazione di Cohen giunge in definitiva alla costruzione di modelli, si potrebbe pensare di seguire una procedura analoga a quella di Godel che, via opportuna relativizzazione linguistica li determinasse come modelli interni di 3(J5* con le proprietà volute. Ma che questa via non fosse percorribile in questo caso era stato dimostrato da ]. C. Shepherdson nel 1952-53.2 Occorreva quindi escogitare un metodo diverso. Il metodo di Cohen si basa su una nuova, fondamentale nozione quella di costrizione (forcing) che, intuitivamente, è una relazione fra una proposizione e un
+
1 Va qui ricordato che già nel 1947 GiiJcl nell'articolo What is Cantor's continuum problem( (Cos'è il problema del continuo di Cantor?) aveva già argomentato - pur se in modo informale ma quanto mai illuminante - sulla base dei risultati lino ad allora noti, sulla probabile conclusione in questo senso del problema del continuo. 2 I risultati di Shepherdson cui alludiamo stabiliscono sostanzialmente che è impossibile trovare una condizione relativizzatrice tale che induca un modello interno di 3\1'6* nel quale si possa dimostrare la negazione dell'ipotesi di costruibi-
lità. La cosa in effetti si spiega intuitivamente: elementi del modello costruibile sono tutti insiemi descrivibili linguisticamente mediante definizioni predicative. Ora noi desideriamo trovare un modello nel quale almeno un elemento, chiamiamolo a, non sia costruibile (nel modello) e quindi non determinabile linguisticamente come sopra detto. Il risultato di Shepherdson non fa allora che confermare rigorosamente l'idea intuitiva che tale compito non possa effettuarsi, ossia che non possa individuarsi un tale modello, restando nell 'ambito di ciò che è linguisticamente descrivibile. ~li
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
ammontare finito di informazione circa un insieme (ad esempio tale informazione può essere la seguente: il numero naturale 3 appartiene all'insieme, il numero naturale z non vi appartiene, ecc.). Cerchiamo di dare intuitivamente l'idea della costruzione di Cohen e vediamo come in essa interviene questo nuovo concetto di forcing (al solito, il discorso sarà qui, di necessità, assai approssimativo). Ci limiteremo al caso dell'indipendenza dell'ipotesi di costruibilità in cui l'applicazione del metodo risulta più limpida; i casi riguardanti AS e IGC si ottengono da questo mediante opportune modificazioni. Assumiamo tal quale la costruzione degli La, impiegati per il modello Ll di Go del, fino a Lw; al passo Lw+l aggiungiamo un nuovo insieme, chiamiamolo a, che sia un sottoinsieme numerabile e non costruibile di w; 1 da questo punto in poi continuiamo a estendere la nostra gerarchia « costruibile » nel solito modo, tenendo però conto del fatto che ora, oltre alle solite condizioni, dovremo «chiudere» l'universo anche rispetto alla proprietà (esprimibile ovviamente in 31J6*) di «appartenere ad a». Nell'universo così ottenuto, chiamiamolo per comodità U, è chiaro che la proposizione «a non è costruibile» è vera (per la sua stessa definizione); questo universo cioè è certamente modello di V i: L. Ma come assicurarci che U è contemporaneamente modello di 31J6*? È chiaro che ciò dipenderà dalla scelta di a, perché non possiamo aspettarci che preso un qualunque insieme non costruibile, e operando come sopra, si riesca a ottenere un modello di 31J6*. Orbene, è qui che appunto interviene il forcing. Per individuare a in modo opportuno, noi partiamo non dal modello che vogliamo costruire ma da una successione finita P di informazioni su a del tipo n E a oppure n tf: a, dove n è un numero naturale; una informazione P (che Cohen chiama condizione) anche se finita può essere estesa indefinitamente (in senso potenziale). Orbene richiediamo che questo ammontare P di informazione finita su a riesca a « costringere » ogni proposizione di 31J6* a essere vera o falsa nell'universo in questione (e quindi, in particolare, nel modello che vogliamo costruire). Estendere una condizione P a una condizione Q significa ottenere Q aggiungendo nuove « informazioni » a quelle già contenute in P; ciò posto, se indichiamo con [> la relazione di costrizione, e con F una proposizione di 31J6*, avremo, leggendo « P[> F » come « P costringe F »:
1) Se F è una formula atomica, allora P[> F se e solo se F E P. z) Se F = F11\ F2 [ F1 V F2] allora P[> F se e solo se P[> F1 e [o]
P[> F2. 3) Se F = F1 -+ F 2, allora P [> F se e solo se per ogni estensione Q di P per la quale si abbia Q[> F1, si ha anche Q[> F 2 • 4) Se F = ----,F1 allora P[> F se e solo se per nessuna estensione Q di P si ha Q[> F 1 • I Un tale sottoinsieme esiste senz'altro perché noi sappiamo che il numero dei costruibili di Lw+l è numerabile, mentre tutti i sottoinsiemi di w sono più che numerabili. Si noti, a esplicazione
della nota precedente, che a è non costruibile n eli 'universo così costituito, non in assoluto; esso potrebbe infatti appartenere a qualche L,_ con
a>w+r.
397
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
5) Se F = :lx F1 x allora P [> F se e solo se esiste una costante c tale che P[> F1(c). 6) se F = Vx F 1(x) allora P[> F se e solo se per nessuna estensione Q eli P e per nessuna costante c si ha Q[> -,F1(c).1 A partire dalla definizione sopra data si dimostra che esiste una successione crescente I = P 1 c P 2 c P 3 ••• di informazioni che gode delle seguenti proprietà: a) per ogni proposizione F di 3~6*, Ir> F oppure Ir>-----, F; b) per ogni numero naturale n o n E a o n rf= a figura in I. Ogni successione I con queste due proprietà «determina » 2 l'insieme a infinito di numeri naturali; un tale insieme viene da Cohen detto generico; e se l 'universo U è ottenuto aggiungendo al passo Lw+l un insieme generico così definito, si fa vedere che U è il modello L1 2 cercato (che viene quindi detto modello generico) nel quale cioè sono verificati gli assiomi di 3~6* e la proposizione V i= L. 3 La denominazione di «generico» data all'insieme a è pienamente giustificata dal fatto che, essendo i suoi elementi determinati da un ammontare finito di informazione, noi di a sappiamo sempre « troppo poco » per dominarlo completamente, non lo individuiamo cioè rigidamente (come avviene per tutti gli insiemi della nostra teoria) tramite una astensione dei suoi elementi o una sua proprietà peculiare e caratteristica. In altri termini quello che fa di un insieme generico il candidato vincente per la costituzione di un modello di 3~6* è proprio una certa sua « casualità »: non si tratta di un insieme ben determinato fra i sottoinsiemi di w, bensì appunto di un insieme abbastanza casuale da poter essere sufficientemente «adattabile» agli scopi che ci prefiggiamo. Questo spiega intuitivamente come si siano tentati approcci probabilistici alla questione: G. E. Sacks a partire da un'idea dovuta a R. Solovay ha dato un'altra dimostrazione dell'indipendenza di IGC cercando di valutare la probabilità (intesa come misura di certi insiemi opportuni) che aggiungendo a U un insieme a, sottoinsieme di w, si ottenga proprio un modello di 3~6*. Orbene risulta che tale probabilità r Abbiamo tralasciato alcune precisazioni che tuttavia nulla aggiungono al contenuto intuitivo della definizione. Si notino in particolare le condizioni 4) e 6). La 4) ci dice che ogniqualvolta si abbia P i>--, Fr allora comunque noi estendiamo le nostre informazioni non potremo mai « costringere » F 1 ; e analogamente per la 6): « costringere » può essere letto, per dare maggiore appiglio intuitivo, come « costringere a essere vero». In effetti il lettore avrà notato l'analogia della nozione di « costrizione » con quella di verità: solo che quest'ultima viene definita ri-. spetto a un universo già dato, mentre la prima segue la via inversa: dapprima si definisce il concetto di costrizione di una proposizione da parte di una certa informazione P e quindi da questa base si passa a costituire l'universo e infine a stabilire i rapporti fra il concetto di costrizione e
quello di verità. Nel 1964 Andrzej Grzegorcyk ha dimostrato che, se si considerano solo formule chiuse senza quantificatori (ossia con sole costanti al posto delle variabili) allora le proposizioni « costrette » da ogni informazione coincidono con i teoremi del calcolo proposizionale intuizionist2. 2. Questo « determinare » va naturalmente inreso in senso lato, perché le nostre informazioni su a sono pur sempre finite e a invece è infinito. Ma proprio in questa ambiguità risiede uno dei punti di forza e di flessibilità del metodo di Cohen. 3 Noi abbiamo qui esemplificato la cosa per il caso più semplice nel quale si aggiunge un solo insieme in Lw+I e quindi si provvede nella solita costruzione per ottenere il modello. Ovviamente si può considerare il caso generale in cui si aggiunga una collezione anche numerabile di insiemi; non insisteremo oltre su questo punto.
www.scribd.com/Baruhk
La logica nel ventesimo secolo (r)
è I, vale a dire: malgrado esista un numero non numera bile di insiemi che aggiunti ad U non danno un modello per 3~6*, se si sceglie a caso uno di questi insiemi allora è « certo » che la struttura così ottenuta risulta essere modello di 3~6* + «a è non costruibile» (e quindi a fortiori di V =1= L). L'interesse generale del metodo del forcing risulta ancor più evidente se si considera che nel 1969 A. Robinson è riuscito a trovarne un'estensione che lo rende applicabile a strutture arbitrarie, trasformandolo cioè in uno strumento della teoria generale dei modelli. Robinson ha potuto così mettere in luce interessanti legami tra la nozione di forcing così generalizzata e quella classica di m-completezza. Se si ricorda quanto sopra accennato a proposito delle connessioni che il forcing ha con la logica intuizionista si ha così una netta conferma delle sempre più strette interrelazioni che concetti e metodi elaborati nei più disparati contesti vanno sempre più rivelando. ln quest'ordine di idee vogliamo ricordare ancora due questioni. La prima, già accennata, è la dimostrazione data da Dana Scott nel 1967 dell'indipendenza di /CC sulla base di tecniche in senso lato algebriche, che evitano la nozione di forcing, e mediante le quali si costruisce il modello richiesto sulla base di una valutazione delle proposizioni di 3~6* su un'opportuna algebra di Boole. Nello sviluppo del metodo, sul quale non ci soffermiamo, si notano con chiarezza immediate connessioni da una parte con una generalizzazione delle logiche polivalenti (ossia si danno interpretazioni polivalenti della teoria degli insiemi nelle quali /CC è falsa), dall'altra col· metodo degli ultraprodotti; e infine, ancora, con uno sfondo probabilistico di cui si parlava prima a proposito del forcing: in effetti, se si dovesse descrivere intuitivamente il lavoro di Scott si potrebbe dire che egli costruisce un continuo di numeri reali « casuali », nel quale si hanno valori di verità probabilistici al posto dei tradizionali valori Vero e Falso. La seconda questione cui vogliamo accennare riguarda un chiarimento intuitivo dell'interesse della ricerca attuale per quelli che vengono detti «grandi cardinali ». Quando abbiamo introdotto la "P di von Neumann, abbiamo detto che essa descriveva in 3~6 la struttura cumulativa dei tipi, che si può assumere come modello « naturale » della teoria degli insiemi: avevamo infatti parlato di rango di un insieme (il numero ordinale che dà lo stadio della gerarchia nel quale il dato insieme viene introdotto per la prima volta) e in 3~6 si può dimostrare che ogni insieme appartiene a qualche rango, ossia si trova in quella gerarchia. L'interpretazione desiderata, intesa, per gli assiomi di 3~6, sembra dunque essere tutta la struttura cumulativa dei tipi; gli assiomi tuttavia non riescono a esprimere questo, perché essi rimangono veri anche se, invece di assumere tutta la gerarchia come universo del discorso, ci si limita a certi livelli opportuni, caratterizzati da un rango limite «abbastanza alto ».1 Viene allora abbastanza naturale r Dal punto di vista intuitivo ciò significa semplicemente che si ottiene un modello inter-
pretando espressioni ad esempio della forma Vx( ... ) invece che « per tutti gli insiemi della struttura »
399
www.scribd.com/Baruhk
La logica nel ventesimo secolo (1)
di aggiungere ·agli assiomi di 3!YE> assiomi che garantiscano l'esistenza di cardinali (che possono essere definiti come particolari ordinali) « abbastanza grandi » da assicurare e «fissare più da vicino» l'esistenza dell'interpretazione intesa degli assiomi. Questi assiomi aggiuntivi vengono detti assiomi forti dell'in.ftnito. Ciò spiega l'interesse di queste ricerche, anche se i risultati sinora raggiunti sembrano non dare speranze di decidere per questa via l'ipotesi del continuo.1 Se tutti questi risultati concorrono in un modo significativo a « mettere in crisi » il metodo assiomatico, o meglio a ridimensionarlo da toccasana universale, come da taluni viene ancor oggi presentato, a strumento centrale della ricerca che abbisogna tuttavia di perfezionamento e forse superamenti decisivi, vogliamo per finire fare un'osservazione più generale che dovrebbe chiarire come mai oggi si assiste a una ripresa del discorso più strettamente « filosofico » a proposito della ricerca sui fondamenti. Il fatto è che dimostrare una contraddizione di una teoria - come era successo agli inizi del secolo - è in qualche modo (pur tenendo presenti le parole di Gentzen) indice di « qualcosa di sbagliato » che va ricercato su linee tutto sommato abbastanza determinate. Giungere invece, come Cohen e molti altri dopo di lui hanno fatto, a un risultato di indipendenza, vuol dire che sono proprio i nostri assiomi che si rivelano insufficienti a dominare « fatti » anche molto elementari delle nostre teorie; e che quindi è necessaria una ricerca più approfondita, più sottile, di nuovi principi, nella quale non ci si può limitare a considerazioni «tecniche» strettamente interne ai sistemi assiomatici stessi, ma si deve necessariamente allargare la visuale a un ripensamento più generale della portata e dei suggerimenti dei risultati acquisiti; ·in altri termini occorre proprio rivedere la concettualizzazione stessa immediatamente legata al momento in.tuitivo, concreto, dal quale attingiamo concetti fondamentali. E qui ritorna il tema centrale di tutto il nostro discorso: è ben vero che uno può aggiungere teorema a teorema senza curarsi d'altro; o che al contrario si può disquisire sui risultati senza approfondire le loro motivazioni e le metodocome « per tutti gli insiemi fino al rango r », dove r è appunto un ordinale .limite opportuno. Vale a dire, è bene ribadirlo, si ottengono modelli della teoria degÌi insiemi già considerando opportuni segmenti della struttura cumulativa dei tipi. Espresso intuitivamente è proprio questo il contenuto di un teorema dimostrato da Scott (1963) e Bruno Scarpellini (1966) noto anche come teorema di riflessione per la teoria degli insiemi. Nello stesso ordine di idee nel 1960 Azriel Levy aveva elaborato dei principi cosiddetti di riflessione mediante i quali è possibile formulare vari assiomi forti dell'infinito di cui si riferisce nel testo. x In questo contesto risulta naturale stabilire una classificazione dei grandi cardinali costituendo una « scala » di grandezza. Dei cardinali fino ad oggi noti e classificati come detto, l'esistenza di alcuni risulta compatibile con l'ipotesi
di costruibilità V= L mentre quella di altri risulta non compatibile con tale ipotesi. Fra i primi vogliamo ricordare i cardinali fortemente inaccessibili (che stanno anche alla base della classificazione), i cardinali di Mahlo ecc. Fra i secondi i cardinali di Ramsey, i cardinali misurabili, i cardinali estensibili (che sono «i più grandi» cardinali oggi noti) ecc. Si osservi che si conoscono grandi cardinali dei quali tuttavia non si è ancora riusciti a determinare con esattezza la posizione nella classificazione; ricordiamo ad esempio i cosiddetti cardinali fortemente compatti che sono senz'altro « maggiori » dei misurabili e « minori » dei supercompatti, senza che però si sappiano localizzare con esattezza fra questi due estremi. Ricordiamo infine che alcuni di questi cardinali hanno importanti applicazioni anche nella teoria dei modelli.
400
www.scribd.com/Baruhk
La logica·nel ventesimo secolo (x)
logie che li hanno generati. Ma è solo mediante una compenetrazione operativa di questi due atteggiamenti che la scienza effettivamente progredisce; non che qui si voglia sostenere che ogni ricercatore deve essere una sorta di «genio» che abbracci in un sol sguardo e con familiarità assoluta ricerche specialistiche assai spinte e riflessioni su di esse talora altrettanto difficoltose e profonde. Si vuole tuttavia sostenere qualcosa che forse è ancor più difficile da ottenere: che il lavorare in un campo specifico non può né deve assolutamente costituire un alibi per chiusure mentali artificiose, accademiche e controproducenti. 1
1 Abbiamo più volte avvettito che il nostro panorama oltre ad aver richiesto, data la particolare natura dell'argomento trattato, semplificazioni e approssimazioni talora anche notevoli, non pretende certamente di aver esaurito ogni aspetto della ricerca logica moderna. Desidero tuttavia far notare che mancanze e lacune sarebbero indubbiamente state ben più gravi se non fossi stato confortato nel mio lavoro da contatti e discussioni frequenti con diversi colleghi e amici. Voglio qui ringraziare in primo luogo e in modo del tutto particolare il prof. Silvio Bozzi per la sua
concreta, fratetna e competente collaborazione; ma anche ricordare con gratitudine la dottoressa Donatella Cagnoni, il dott. Claudio Pizzi, il dott. Ugo Volli, il dott. Edoardo Ballo, il prof. Gabriele Lolli, l'ing. Giulio Rodinò, nonché i professori Ettore Casari e Maria Luisa Dalla Chiara Scabia che con discussioni e suggetimenti hanno in occasioni divetse contribuito alla chiarificazione di alcuni argomenti. Un ringraziamento particolare infine alla signora Giulia Maldifassi che con enorme pazienza e competenza si è sobbarcata l'onere di approntare il dattiloscritto.
401
www.scribd.com/Baruhk
CAPITOLO SESTO
Problemi ftlosoftci della matematica e della fisica odierne
I ·CONSIDERAZIONI PRELIMINARI
È oggi universalmente riconosciuto che lo sviluppo della matematica e della fisica ha assunto nell'ultimo mezzo secolo un ritmo sempre più rapido, per cui si è enormemente accresciuto il loro peso specifico in quasi tutti i settori della vita moderna: la fisica ha pressoché assorbito in sé i capitoli più avanzati della chimica e ha assunto un'importanza fondamentale anche per la biologia, continuando ad essere nel contempo la colonna portante di gran parte dell'ingegneria; la matematica ha trovato applicazioni sempre più estese, non solo nell'ambito delle ricerche fisiche, chimiche e di ingegneria, ma anche in campi che per l'innanzi parevano assai lontani da essa, come la biologia, l'economia e la linguistica. Non esiste invece altrettanta unanimità nella valutazione dell'incidenza culturale oggi spettante alle due discipline in esame. Ed infatti, mentre un gruppo di studiosi ritiene che nelle ultime fasi del loro sviluppo siano emerse parecchie questioni di notevolissimo significato filosofico, altri sono invece del parere che, proprio per effetto dei loro ultimi progressi, la matematica e la fisica abbiano finito per estraniarsi in misura crescente dal vero e proprio campo della cultura, assumendo un aspetto sempre più tecnico e specialistico. È inutile dire che noi condividiamo la prima tesi interpretativa, non la seconda. Non ci nascondiamo però che questa è così profondamente radicata nell'animo di molti studiosi, da imporci la massima cura per tentare di provarne l'inconsistenza. Il primo indispensabile accorgimento che dovremo usare a questo scopo sarà quello di mantenere tutte le nostre considerazioni su di un piano puramente discorsivo, evitando di introdurvi quei tecnicismi che sogliano suscitare le maggiori ostilità. La cosa, del resto, ci sembra possibile, proprio perché riteniamo che le recenti « rivoluzioni » prodottesi nella matematica e nella fisica vi abbiano fatto affiorare parecchie questioni di fondo, il cui significato va molto al di là del loro mero aspetto tecnico. Si tratta di saperlo enucleare senza perdere, insieme con i particolari tecnici, anche il rigore filosofico dei concetti. A questo punto occorre far presente, in via preliminare, che entro la prospettiva in cui ci siamo posti, esiste oggi una profonda differenza tra le due scienze in
402
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
esame, pur tanto collegate tra loro fin dai tempi di Galileo. Ed infatti, per quanto riguarda la matematica, i problemi « filosofici » sono soprattutto emersi in connessione ai dibattiti - sorti fin da tempi remoti ma fortemente accentuatisi nel XIX secolo intorno ai suoi fondamenti (cioè intorno alla natura delle entità numeriche e geometriche, intorno al concetto di infinito, alla giustificazione degli assiomi ecc.). Invece, per quanto riguarda la fisica, tali problemi sono stati prevalentemente suggeriti dalle radicali innovazioni prodottesi all'inizio del nostro secolo: innovazioni che fanno sostanzialmente capo alla teoria della relatività e alle ricerche intorno alla struttura dell'atomo. Pertanto, mentre esiste una sorta di continuità fra i dibattiti odierni di filosofia della matematica e quelli del secolo scorso, esiste invece un'autentica frattura tra i problemi « filosofici» sollevati dalla fisica odierna e quelli che emergevano dalla fisica classica (ottocentesca). Stando così le cose, è chiaro che la filosofia della matematica va trattata ancora oggi, come in passato, in strettissima connessione con le indagini di logica; se invero essa ha subito negli ultimi decenni una notevolissima svolta, è soprattutto per effetto delle nuove raffinatissime tecniche ideate dai logici. Ne segue, per quanto ci riguarda più da vicino, che anche l'esposizione dei più recenti sviluppi della filosofia della matematica doveva venire collocata, come di fatto è accaduto, nei due capitoli, il v del presente volume e il 111 del prossimo, espressamente dedicati a un'esposizione approfondita delle ricerche logiche dall'inizio del secolo a oggi. Qui è parso tuttavia opportuno aggiungere, a quanto ivi esposto, alcune considerazioni che riguardano la matematica nel suo complesso, e che, più precisamente, mirano a porre in luce talune nuove prospettive in essa affermatesi come diretta conseguenza del fecondo lavoro eseguito dai logici-matematici della fine dell'Ottocento, soprattutto per quanto riguarda l'assiomatizzazione delle teorie. È chiaro che questo compito avrebbe potuto venire eseguito prendendo in esame, una dopo l'altra, le singole discipline in cui la nostra scienza si è venuta attualmente articolando. Abbiamo tuttavia scelto un'altra strada, sia perché tale esame avrebbe necessariamente richiesto di scendere in particolari tecnici che - come già accennammo - ci siamo proposti di evitare, sia perché avrebbe di necessità occupato uno spazio troppo ampio non essendovi oggi nel complesso delle discipline matematiche, come invece vi è nella fisica, un gruppo di argomenti incontestabilmente superiori agli altri dal punto di vista del significato filosofico. Ci limiteremo pertanto a porre in rilievo quelle che ci sembrano le caratteristiche strutturali più idonee a differenziare, nella sua globalità, la matematica del Novecento, pura e applicata, da quella «classica» senza soffermarci a delineare, nemmeno per sommi capi, i recenti progressi conseguiti dalle singole teorie. Siamo convinti che una trattazione così impostata possa servire, meglio di una più analitica, a dare una prima sommaria idea circa il tipo di riflessioni che la nuova matematica suggerisce a ogni persona culturalmente impegnata.
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
Poiché la questione si pone in termini nettamente diversi per la fisica, occorrerà articolare in modo del tutto differente i paragrafi ad essa dedicati. Neppure a proposito della fisica potremo proporci, come è ovvio, di fornire un quadro completo del suo sviluppo nell'ultimo mezzo secolo. Crediamo tuttavia utile, tenuto conto che alle interpretazioni della teoria della relatività venne già dedicato il capitolo xv del volume sesto, premettere qualche breve cenno storico alle principali tappe che hanno contrassegnato il progresso della fisica quantistica dopo il I92o, perché è proprio intorno a questa, e in particolare ad alcune sue tappe, che si sono accese parecchie fra le più vivaci e interessanti discussioni filosofiche (il suo sviluppo fino a tale data era già stato rapidamente delineato nel capitolo xm del volume sesto). Dopo il paragrafo VI, dedicato a questo sguardo storico (evidentemente superfluo per i lettori forniti di qualche competenza sull'argomento), potremo così affrontare - in maniera più specifica - i gravi problemi metodologici e gnoseologici sollevati dalla nascita della vera e propria meccanica quantistica verso il I 92 5. Ancora una volta la preoccupazione di essere capiti anche dai non specialisti ci vieterà di scendere in particolari tecnici che pur sarebbero senza dubbio utili alla chiarificazione di tali problemi. Riteniamo tuttavia che questo non ci impedirà di puntualizzarne certi significativi aspetti, che possono servire a dissolvere qualcuno dei maggiori equivoci sorti in proposito. Per ora basti far presente che i vivacissimi dibattiti accesisi intorno ai principi della meccanica quantistica, se ebbero senza dubbio il merito di diffondere in larghi strati un nuovo interesse per la fisica, ebbero anche, però, l'effetto di suscitare nei confronti di tale disciplina non poche (e non sempre infondate) diffidenze per le troppo affrettate conclusioni filosofiche che alcuni dei suoi massimi cultori si ritennero in diritto di ricavare dalle proprie scoperte. Per le interessantissime applicazioni della matematica, come pure della fisica quantistica, alle più recenti indagini biologiche, rinviamo al capitolo n del volume nono. Agli sviluppi dei dibattiti sulla meccanica quantistica in URSS, entro il quadro del materialismo dialettico, verrà dedicato ampio spazio nel capitolo v del sopracitato volume. II ·IL METODO ASSIOMATICO IN MATEMATICA
Come già sappiamo, una delle maggiori innovazioni introdotte in matematica alla fine dell'Ottocento (con l'esplicito intento di adeguarla alle più raffinate esigenze di rigore avanzate in quegli anni dai logici) è stata la riformulazione delle sue varie teorie in forma rigorosamente assiomatica. Una breve ricapitolazione dei caratteri di tale innovazione potrà aprirci la via a comprendere il significato profondo della svolta cui essa ha dato luogo. I) Assiomatizzare una teoria significa anzitutto precisare col massimo scru-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
polo - dando l'elenco completo delle sue proposizioni primitive- le relazioni fra gli enti della teoria enunciate da tali proposizioni: nessun teorema potrà introdurre altre relazioni non riducibili a queste. z) Gli enti di cui la teoria parla dovranno considerarsi «implicitamente definiti » dai suoi assiomi, il che significa che essa non potrà tenere conto di altre eventuali proprietà di tali enti, non incluse negli assiomi. 3) Una teoria assiomatizzata prescinde nel modo più completo dal contenuto, empirico o non, usualmente connesso ai suoi termini e prescinde quindi da qualsiasi giustificazione « intuitiva » che potrebbe venire addotta - sulla base di tale contenuto - a sostegno di questo o quell'assioma. Viene quindi meno ogni possibilità di attribuirle un qualche grado di evidenza: essa non è altro che un sistema ipotetico-deduttivo avente il compito di esplicitare le conseguenze ricavabili dagli assiomi. Questi possono venire respinti solo nel caso che, fra le conseguenze da essi derivate, ve ne siano alcune fra loro contraddittorie. Senza scendere qui in ulteriori particolari, 1 ci limiteremo a ricordare che il metodo in esame venne anzitutto applicato (negli ultimi anni dell'Ottocento, come già si è detto) all'aritmetica e alla geometria elementare, soprattutto ad opera di Peano e di Hilbert. Il successo da essi ottenuto fu così grande, che dopo poco tempo si cominciò ad applicare un analogo trattamento anche ai capitoli della matematica di più recente creazione. A conferma di ciò basti far presente che già nel 1908 Ernst Zermelo esponeva la sua famosa assiomatizzazione della teoria degli insiemi e due anni più tardi, nel 1910, Ernst Steinitz delineava una prima soddisfacente assiomatizzazione della cosiddetta « algebra astratta». Fra le altre discipline rielaborate poco più tardi col nuovo metodo meritano particolare menzione: la topologia, al cui prodigioso sviluppo - su rigorosa base assiomatica contribuirono eminenti studiosi di pressoché tutti i paesi (il tedesco Felix Hausdorff, il francese Maurice Fréchet, il polacco Stefan Banach, lo svizzero Heinz Hopf, il sovietico Pavel Sergeevic Aleksandrov ecc.); l'analisi funzionale per la quale ricordiamo, oltre al testé menzionato Banach, il sovietico Izrail Moiseevic Gel'fand, l'americano Marshall H. Stone, l'americano di origine ungherese Johann von Neumann; Ia geometria algebrica, legata ai nomi dell'americano di origine polacca Oscar Zariski (che fu allievo di Enriques a Roma), dei francesi Henri Cartan e André Weil, dell'apolide Aiexandre Grothendieck; la teoria della misura nella cui trattazione assiomatica si distinse in modo speciale Ia scuola matematica polacca; il calcolo delle probabilità che subì un'autentica svolta per l'assiomatizzazione fattane nel 1933 dal sovietico Andrej Kolmogorov. r Uno sviluppo assai importante dell'assiomatizzazione delle teorie è costituito dalla loro « formalizzazione ». Rinviando il lettore a quanto detto in proposito nel capitolo v, basti ricapitolare le differenze tra l'una e l'altra: mentre per assiomatizzare una teoria è necessario e sufficiente precisarne con scrupolo le proposizioni primitive
(da considerarsi come« definizioni implicite» degli enti della teoria), per formalizzarla occorre qualcosa di più, cioè determinare la potenza espressiva del linguaggio in cui essa è formulata e le regole logiche in base a cui verranno· condotte le dimostrazioni.
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
Questo rapido e mirabile sviluppo ha fatto sorgere la convinzione che fosse possibile tentare una presentazione assiomatica di tutte le branche fondamentali della matematica, gerarchicamente disposte le une rispetto alle altre. Tale tentativo è stato compiuto da un gruppo di valenti studiosi francesi, riuniti sotto l'unico nome di Nicolas Bourbaki, che iniziò nel 1939 la pubblicazione, protrattasi fino ai nostri tempi, di una fitta serie di fascicoli e volumi dedicata appunto alla realizzazione dell'anzidetto programma (il primo fascicolo esponeva la teoria degli insiemi). Negli ultimi anni però, mentre si sono avute numerose dedizioni di fascicoli già precedentemente pubblicati, è invece diminuito, almeno in percentuale, il numero dei fascicoli integralmente nuovi e - cosa particolarmente significativa- questi non sono più usciti nell'ordine gerarchico che aveva caratterizzato l'inizio della serie, onde qualcuno comincia a parlare di «crisi del bourbakismo ». Giustificato o no che sia l'accenno a questa crisi, è incontestabile che quasi tutti i matematici del nostro secolo hanno finito per abbracciare il nuovo metodo nell'esposizione del proprio settore di studio. Sorge quindi spontanea la domanda: quali sono i motivi di fondo che li hanno indotti a un tipo di trattazione così poco naturale (perché niente affatto intuitiv-a)? Riteniamo opportuno menzionarne quattro che ci sembrano particolarmente significativi: a) la separazione che il metodo assiomatico suggerisce fra le ricerche «a monte » e quelle « a valle » dei sistemi di assiomi, tutte parimenti interessanti ma che richiedono competenze specifiche tra loro ben distinte, anche se talvolta riunite nella medesima persona; b) la grande generalità che esso è in grado di fornire alle teorie, proprio perché le libera da ogni preoccupazione circa l'evidenza dei loro assiomi e circa la natura degli enti trattati; c) la capacità che ne ricaviamo di percepire con perfetta chiarezza tutti i legami che connettono una proposizione con l'altra entro la teoria assiomatizzata (in particolare di individuare la radice nascosta di certi teoremi a prima vista sconcertanti); d) i mezzi che tale metodo pone a nostra disposizione per determinare con estrema precisione i rapporti fra le varie teorie, scoprendo per esempio che due di esse, nate per « parlare » di enti del tutto diversi, sono in realtà coincidenti, o che l'una è soltanto una particolarizzazione dell'altra. Sono state proprio le scoperte di questo tipo a far comprendere ai matematici del nostro secolo che il vero oggetto della loro scienza non è costituito dai particolari enti (punti, numeri, funzioni ecc.) di cui si occupano i singoli rami della matematica, ma è invece costituito dai sistemi di relazioni da cui tali enti risultano fra loro collegati. Trattasi di una svolta ricca di implicanze filosofiche, come mostreremo nel prossimo paragrafo. Prima, però, sarà opportuno sgombrare il campo da due accuse frequente-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
mente sollevate contro l'assiomatizzazione delle teorie: l'accusa che essa non favorisca l'inventività del matematico, riuscendo soltanto a presentare in forma più soddisfacente concetti e risultati dei quali era già effettivamente in possesso; e l'accusa che finisca per privare la matematica di ogni contatto con la realtà empirica. Alla prima si può agevolmente rispondere, che l'esatta precisazione degli assiomi è stata proprio ciò che ha permesso un consapevole intervento su di essi onde modificare questo o quel punto di una teoria, «inventando» con ciò nuove teorie non raggiungibili per via meramente intuitiva. Né va dimenticato, che il fatto stesso di trovarsi di fronte a una molteplicità di assiomatizzazioni ha educato il matematico a distinguere fra quelle significative e stimolanti e quelle meramente artificiose. Per quanto riguarda la seconda accusa, basterà osservare che, assiomatizzando una teoria, si amplia, e non si restringe, il suo contatto con l'esperienza: dopo tale operazione infatti, essa risulterà applicabile non più ai soli enti che ne avevano suggerito la primitiva elaborazione, ma ad ogni sistema di enti fra i quali valgono le relazioni fissate dagli assiomi, nulla importando che, oltre a ciò, essi godano o non godano di altre proprietà originariamente ritenute intuitive ma di fatto estranee alla teoria. Riservandoci di prendere in esame nel paragrafo v gli effettivi vantaggi che proprio l'assiomatizzazione ha fornito alla matematica applicata, consentendole di introdurre metodi per l'innanzi ignoti, vogliamo ancora aggiungere qualche considerazione - di ordine per così dire filosofico - sul problema se la generalità di una teoria risulti o no compatibile con la sua efficacia conoscitiva. A proposito di ciò, va ricordato che la tesi della incompatibilità venne già discussa e confutata, fin dal secolo scorso, dal grande matematico e fisico Bernhard Riemann, di cui si parlò a lungo nel volume quarto. Alla fine della sua celebre memoria (più volte menzionata in tale volume) sulle prime e più astratte ipotesi che stanno alla base della geometria, egli si chiedeva: « Quale utilità potranno avere le ricerche che partono da concetti tanto generali? » Ed ecco la risposta che immediatamente dava: le ricerche in questione hanno l'indiscutibile vantaggio di evitare che il « progresso della conoscenza » venga impedito dalle « vedute troppo ristrette » trasmesseci dagli stadi precedenti della ricerca, cioè dai « pregiudizi tradizionali». Aggiungeva poi- in un frammento direttamente rivolto alla teoria della conoscenza (Erkenntnistheoretisches) e costituente, in certo senso, una integrazione della memoria anzidetta - che tali « pregiudizi » non derivano « da una speciale disposizione dell'animo antecedente a tutta l'esperienza», ma «ci vengono trasmessi inavvertitamente mediante il linguaggio ». Solo una critica radicale di questo - ne concludeva -potrà consentirci di eliminare il diaframma che si frappone tra le nostre teorie e l'esperienza: il distacco della scienza dal patrimonio linguistico del sapere comune (immediatamente intuitivo) non costituirà dunque una diminuzione delle sue capacità conoscitive ma un notevolissimo incremento di esse. Ecco le chiare parole da lui scritte sull'argomento: è solo
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
procedendo per la via della « generalità crescente » dei concetti e dei principi, che « la nostra concezione della natura diviene a poco a poco più completa e più esatta », e può divenirlo perché « contemporaneamente si allontana sempre di più dalla superficie delle apparenze». Ci sembra assai significativo che anche Lenin, pur senza conoscere Riemann, abbia sostenuto una tesi pressoché identica, così formulandola nei Quaderni: «Per il fatto di salire dal concreto all'astratto, il pensiero non si allontana dalla verità ma le si approssima... Tutte le astrazioni scientifiche (che siano corrette, da prendersi sul serio e non insensate) riflettono la natura più profondamente più fedelmente, più compiutamente. » III· CONSEGUENZE FILOSOFICHE DELL'ASSIOMATIZZAZIONE DELLA MATEMATICA MODERNA
Per dare un'idea delle notevoli implicanze filosofiche connesse alla svolta cui abbiamo poco sopra accennato, verificatasi in seguito all'introduzione del metodo assiomatico, converrà prendere le mosse da un gravissimo problema prospettato con vera passione da Hilbert nella famosa relazione da lui letta al secondo congresso internazionale di matematica tenuto a Parigi nel I 900 (il titolo della relazione era Mathematische Probleme [Problemi matematici]): accadrà prima o poi - egli si chiedeva - anche alla matematica ciò che è accaduto a parecchie altre scienze, e cioè di frantumarsi in tanti rami indipendenti, i cui studiosi non saranno più in grado di intendersi l'un l'altro? La risposta che Hilbert diede a questo interrogativo era nettissima: la matematica non potrà mai correre questo pericolo, perché «a mio giudizio» essa costituisce « un tutto indivisibile, un organismo la cui capacità di vita è condizionata dalla connessione delle sue parti». Il lettore, che ha seguito i dibattiti da noi esposti nei volumi precedenti, ricorderà certamente l'importanza filosofica che abbiamo riconosciuto agli sforzi (di Comte, di Helmholtz, di Engels ecc.) diretti alla riconquista dell'unità del sapere posta in crisi dal moltiplicarsi delle ricerche specialistiche. Ma che senso potrebbero avere questi sforzi, se già la stessa prima scienza della classificazione comtiana dovesse perdere il carattere di organismo unitario? È chiaro che, visto in questa prospettiva, il quesito drammaticamente sollevato da Hilbert non può non rivelare un significato che va assai oltre i confini della pura matematica. E altrettanto dovrà ripetersi, corn:'è ovvio, per la ferma risposta da lui data a tale quesito. Il fatto grave è, però, che questa risposta non risultava fondata, in Hilbert, su null'altro che la sua fede personale (non senza motivo egli la faceva precedere dalle esplicite parole «a mio giudizio»). Orbene, il metodo assiomatico ha avuto l'incomparabile merito di dare alla tesi unitaria hilbertiana una base ben più solida che non quella costituita dal giudizio personale di un singolo· studioso, fosse
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
pure uno studioso unanimamente riconosciuto come il più grande matematico della sua epoca. L'assiomatizzazione delle branche fondamentali della matematica, operata dai bourbakisti, ha infatti permesso di constatare senza difficoltà: 1) che ciascuna di esse consiste essenzialmente nello studio di talune strutture, ove per struttura si intende un insieme di elementi (di natura non specificata) tra i quali sono fissate certe relazioni che soddisfano a taluni ben determinati assiomi (i cosiddetti assiomi della struttura) 1 ; z) che le relazioni a cui si fa riferimento nella definizione di tali strutture, pur potendo essere assai varie, rientrano tutte in tre classi fondamentali (cosicché si hanno tre soli« grandi tipi» di strutture: algebriche, di ordine, e topologiche). Naturalmente «è possibilissimo che lo sviluppo ulteriore delle matematiche aumenti il numero delle strutture fondamentali, rivelando la fecondità di nuovi assiomi o di nuove combinazioni di assiomi, e si può dare anticipatamente per scontato che da queste invenzioni di strutture si ricaveranno progressi decisivi, a giudicare dai progressi che ci hanno apportato le strutture attualmente note; d'altra parte queste ultime non sono in alcun modo degli edifici compiuti, e sarebbe assai sorprendente che tutto il succo dei loro principi fosse fin d'ora esaurito » (Bourbaki). Una cosa appare comunque certa: che le teorie, le quali studiano strutture di un medesimo tipo, risultano fra loro strettamente connesse, onde lo sviluppo dell'una finisce per gettare immediatamente luce sui problemi dell'altra. Si può pertanto concludere che la matematica del xx secolo, disponendo delle « potenti leve » ad essa fornite dallo studio dei grandi tipi di strutture, è ormai in grado di dominare« con un solo colpo d'occhio immensi domini unificati dall'assiomatica, ove in passato sembrava regnare il più informe caos » (Bourbaki). Con ciò la matematica non ha ovviamente cessato di presentarsi come un albero fornito di più rami; ma di ciascuno di essi noi scorgiamo con chiarezza i lineamenti, prima nascosti da un impenetrabile viluppo di foglie. E scorgiamo con altrettanta chiarezza il tronco dal quale traggono origine, nonché le precise connessioni che questo tronco stabilisce tra un ramo e l'altro. L'alone di mistero da cui tali connessioni sembravano avvolte scompare completamente, lasciando emergere un ordine profondo, che ci spiega perché la matematica costituisca davvero - come aveva intuito Hilbert - un « tutto inscindibile ». Il suo carattere unitario viene in tal modo ricuperato su di un nuovo piano, che era sempre sfuggito a chi si rinserrava nella particolarità delle singole teorie, incapace di guardare al di là della « natura » dei loro elementi . Un ulteriore passo lungo la via poco sopra delineata è stato recentemente 1 Studiare una struttura significherà, in accordo con quanto si è detto nel paragrafo precedente, ricavare tutte le conseguenze logiche dei
suoi assiomi, prescindendo da ogni altra ipotesi sugli elementi considerati.
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
compiuto dalla cosiddetta« teoria delle categorie »,1 che introduce- come verrà dettagliatamente spiegato nella terza parte del capitolo III del volume nono la nozione generàlissima di « categoria », tendente ad abbracciare in sé tutte le strutture di una medesima specie (per le quali era già emersa l'importanza fondamentale dei « morfismi » che intercorrono tra insiemi muniti, appunto, di strutture della stessa specie). Come esempi di categorie ricordiamo quella degli insiemi, quella dei gruppi algebrici, quella degli spazi topologici ecc. Studiando in modo sistematico le proprietà delle singole categorie e i rapporti fra determinate categorie (per esempio fra una categoria e la sua « duale ») la nuova teoria è riuscita ad enucleare dei generi di connessione per l'innanzi inafferrabili e, sulla base di essi, a porre in luce sempre più profondi motivi per affermare con piena consapevolezza il carattere organico del grande e complesso albero della matematica. Una semplice riflessione su quanto testé accennato, può ora aiutarci a dissolvere un grave equivoco sorto da tempo intorno all'assiomatizzazione delle teorie matematiche: l'equivoco secondo cui tale assiomatizzazione dimostrerebbe il loro carattere meramente convenzionale. È certo che in un primo momento la scoperta che le teorie matematiche sono sistemi ipotetico-deduttivi, le cui ipotesi basilari (cioè gli assiomi) risultano prive del carattere intuitivo ad esse tradizionalmente attribuito, poté suscitare a buon diritto l'impressione che tali sistemi non fossero altro se non pure convenzioni. Ciò dipese dall'aver trascurato che essi non erano affatto sistemi arbitrari, ma sistemi elaborati col preciso intento di enunciare in forma più rigorosa teorie già note da secoli, e che in particolare lo sganciamento dei loro assiomi da ogni contenuto intuitivo costituiva proprio la condizione indispensabile per raggiungere il livello di altissimo rigore necessario per il loro ulteriore sviluppo. In un momento successivo cominciarono a sorgere seri dubbi sulla presunta « mera convenzionalità » delle teorie matematiche assiomatizzate, quando ci si accorse che esse non servivano soltanto a presentare in forma logicamente più limpida le vecchie teorie « intuitive », ma conducevano pure a comprendere con maggiore chiarezza il senso di concetti sui quali la semplice intuizione non aveva mai saputo dire nulla di preciso; tipico il caso dei concetti di « continuità » di una curva, di « dimensione » di uno spazio, di « grado di infinità » ecc. Orbene il recupero poco sopra accennato dell'unità (o per lo meno delf'organicità) della matematica- recupero ottenuto per l'appunto attraverso il metodo assiomatico - ci fornisce a nostro parere un ulteriore, validissimo argomento I La teoria delle categorie si è sviluppata solo a partire dal 195 5-56, e qualcuno si è chiesto perché abbia tardato tanto ad attirare l'interesse dei matematici. Ecco la risposta, peraltro un po' vaga, fornita a tale quesito da Saunders Mac Lane: « Personalmente ritengo che il clima delle opinioni matematiche nel decennio 1946-5 5 non fosse favorevole ad un ulteriore sviluppo con-
cettuale. L'indagine su concetti tanto generali quanto quelli della teoria delle categorie era fortemente scoraggiata, forse perché si aveva la sensazione che lo schema fornito dalle strutture di Bourbaki producesse una generalità sufficiente. » Da tale data, come osserva ancora Mac Lane, essa venne usata con particolare profitto in topologia, nell'algebra omologica e nella geometria algebrica.
410
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
contro l'interpretazione convenzionalistica di tale scienza, cioè proprio contro l'interpretazione che in un primo tempo era parsa derivare dalla sua rielaborazione in forma assiomatica. Trattasi del seguente argomento: se le teorie matematiche fossero delle mere convenzioni, dei puri giochi, sarebbe impossibile riscontrarvi quelle « connessioni profonde » che fanno, della loro riunione, un tutto organico e non un caotico aggregato. È stata - come abbiamo detto - l'impostazione astratta, moderna, di tali teorie a farci scoprire queste connessioni, esistenti al di là delle « differenze di contenuto», per l'innanzi ritenute fondamentali e insormontabili. Dobbiamo dunque riconoscere proprio all'anzidetta impostazione il merito di averci fatto comprendere con chiarezza che il grande edificio della matematica (edificio che cresce - lo si voglia o no - lungo linee di sviluppo saldamente coordinate fra loro) non è, nel suo complesso, qualcosa di meramente convenzionale, ma di « oggettivo », ossia di indipendente dalla pura attività soggettiva del matematico. Una volta raggiunta questa conclusione, ci ritroviamo come è ovvio di fronte all'antico problema, schiettamente filosofico, di stabilire quale sia effettivamente il tipo di obiettività spettante alla matematica. Esso presenta due aspetti ben distinti l'uno dall'altro: il primo concerne l'obiettività da riconoscersi alle entità primitive (numeri, insiemi, punti ecc.) delle singole teorie matematiche; il secondo invece l'obiettività da riconoscersi al complesso organico di tali teorie. Quello rientra nel problema « classico » dei fondamenti e perciò riguarda essenzialmente la logica, per cui è specificamente trattato nel capitolo v; questo rientra in una questione più generale di carattere prettamente gnoseologico: possiede o non possiede la matematica un qualche valore conoscitivo? I realisti ingenui ritenevano di poterle dare una risposta positiva, in quanto ammettevano che ogni singolo assioma riflettesse in sé una ben determinata proprietà del reale. Ma la piena consapevolezza, fornitaci dai moderni sviluppi dell'assiomatica, della non assolutezza degli assiomi di una qualunque teoria matematica, esclude la possibilità di accogliere - allo stato attuale della scienza l'anzidetta ammissione. Il problema dovrà dunque venire impostato in modo del tutto diverso, non facendo più riferimento alle singole proposizioni di questa o quella teoria, ma all'edificio matematico nella sua interezza. Ebbene, se noi poniamo in g_uesti nuovi termini la questione, ci sembra innegabile che il realismo possa venire sostenuto con argomenti ben più validi. Questi si riassumono nella seguente domanda: su quali basi riterremo lecito negare all'edificio matematico ogni valore conoscitivo (cioè ogni «presa» sulla realtà) quando siamo costretti a constatare giorno per giorno che esso costituisce il più potente strumento di cui dispongono le « scienze reali », cioè le scienze rivolte - per loro stessa natura - a cogliere tale realtà? Nei secoli scorsi si era creduto che fosse soltanto la fisica a doversi valere, per attuare i propri compiti, dei concetti e delle proposizioni matematiche; e anzi 4II
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
si era creduto che essa dovesse rivolgersi, a questo scopo, ad una teoria matematica in certo senso « privilegiata » (come tale era stata considerata in un primo tempo la geometria, poi - dal Settecento in avanti - l'analisi infinitesimale). Oggi noi sappiamo invece che le cose non stanno così: non è infatti la sola fisica a dover fare ricorso alla matematica, e non esiste una teoria matematica privilegiata da utilizzarsi - essa sola - nelle scienze cosiddette empiriche. Resta però il fatto che senza la matematica, cioè senza la straordinaria ricchezza e varietà di teorie che essa pone a nostra disposizione, pressocché nessuna di queste scienze avrebbe raggiunto il suo livello attuale. Qualcuno osserverà forse, a questo punto, che il qualificare la matematica come « strumento » significa in ultima istanza sostenere che essa è soltanto una costruzione soggettiva, e nulla più. Noi rispondiamo, però, che il parlare di strumento non significa affatto parlare di un mero prodotto della nostra mente. Se infatti lo strumento si rivela efficace, è la prassi stessa a dimostrare che esso deve possedere una base reale. Non neghiamo che si tratti di un problema assai arduo e sottile. Ma, a ben riflettere su di esso, ci si accorge subito che non è altro se non la riformulazione moderna di un problema già affrontato (e a nostro parere avviato a seria conclusione) da Engels e da Lenin: quello di riuscire a concepire un contatto con la realtà che dia un valore obiettivo al complesso delle nostre teorie (in via di perenne trasformazione) e non pretenda, nel contempo, di fornire ad alcuna di esse un carattere di assolutezza. IV · SOLLECITAZIONI CHE PROVENGONO ALLA MATEMATICA DALLE ALTRE SCIENZE
Il rapporto fra la matematica e le altre scienze non si riduce - come taluno potrebbe supporre - a un puro « dare » da parte della prima e un puro « ricevere » da parte delle seconde. È invece un rapporto di vivissimo interscambio, che potrebbe assai opportunamente venire gualificato come dialettico. Il fatto a prima vista sorprendente è, poi, che questo interscambio non solo non ha subito alcuna diminuzione per effetto della nuova impostazione (generale, astratta, assiomatica) della matematica del xx secolo, ma semmai è stato da essa incrementato. Fin quando la matematica era stata interpretata come un sistema di « verità assolute », ricavate da assiomi indiscutibili perché evidenti, essa aveva per così dire intrattenuto dei rapporti particolarmente stretti con l'esperienza quotidiana, perché questa sola pareva in grado di fornire un carattere intuitivo ai suoi contenuti e un carattere apodittico alle sue proposizioni primitive. Anche durante tale fase, però, alcuni concetti fondamentali delle sue teorie, e proprio delle più avanzate, erano stati tratti non direttamente dall'esperienza quotidiana, ma dalle nozioni (semi-intuitive) via via elaborate dalle altre scienze (e dalle tecnologie ad
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
esse collegate). Si pensi per esempio al concetto di derivata inizialmente suggerito, sia pure in forma tutt'altro che chiara, dalla nozione semi-intuitiva di velocità istantanea, elaborata dai meccanici del Seicento; oppure al concetto di campo, ricavato da una nozione semi-empirica che Faraday aveva introdotto per fornire una comoda descrizione dei risultati raggiunti nelle sue accurate e geniali sperimentazioni. Orbene, per la matematica del nostro secolo è accaduto che il primo tipo di legami, quelli con l'esperienza quotidiana, si è ovviamente rivelato impossibile a causa del carattere astratto assunto dalle sue teorie. Invece il secondo tipo di legami, quelli con l'esperienza mediata dalle altre scienze e dalla tecnologia, non solo non si è interrotto ma - come testé accennammo - si è in certo senso approfondito e ampliato. Basti ricordare, a titolo di esempio, che uno dei rami più avanzati dell'analisi infinitesimale moderna, la cosiddetta teoria delle «distribuzioni», ha tratto per l'appunto origine dalla riflessione su di un tipo di algoritmi - non ortodossi da un punto di vista classico - che gli elettrotecnici avevano introdotto con successo all'inizio del secolo e con altrettanto successo era stato usato verso il 1930 dal grande fisico Dirac (sul quale ritorneremo nel paragrafo vr). Anche in questo caso però, è fuori dubbio che il metodo assiomatico ha compiuto una funzione di fondamentale importanza. Esso servì infatti di validissimo sprone alla costruzione di teorie rigorose molto generali, capaci di dare un assetto soddisfacente alle nuove nozioni (suggerite dai non-matematici) sulla base di sistemi di assiomi non artificiosi eppure nettamente diversi da quelli fin allora accettati. È ovvio che una tale costruzione non sarebbe stata possibile se si fosse continuato ad attribuire ai vecchi assiomi un valore di verità assolute ed evidenti. L'interscambio fra matematica e « scienze empiriche» (nel senso moderno del termine, cioè fisica, biologia, economia ecc.), emerge con particolare chiarezza dall'esame dei tentativi compiuti per estendere il metodo assiomatico dall'ambito delle teorie matematiche pure a quello delle teorie elaborate da tali scienze, in particolare dalla fisica. Lo scopo di questi tentativi era manifestamente quello di portare ordine entro alcune complesse costruzioni che, per essere state elaborate in varie fasi parallelamente al progressivo arricchirsi dei dati empirici, possedevano una struttura logica molto incerta e talvolta perfino equivoca. Tipico è il caso della termodinamica che- come si vide nel volume quinto- aveva indubbiamente realizzato lungo il corso dell'Ottocento straordinari progressi (da cui era emersa l'eccezionale importanza della nuova disciplina), ma che era ben lungi, all'inizio del Novecento, dall'avere raggiunto un assetto rigoroso ove almeno risultassero chiaramente distinti i concetti primitivi da quelli derivati. Fu proprio questo il motivo che indusse il matematico e fisico tedesco (di origine greca) Constantin Carathéodory a proporne, nel I 909, una assiomatizzazione capace di ovviare a
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
questi difetti. Oggi sono state riscontrate in tale assiomatizzazione varie imprecisioni, onde si è cercato di sostituirla con altre notevolmente più perfette; essa aveva comunque aperto una strada nuova alla fisica- e in generale alle teorie empiriche - che doveva accrescere di molto la « padronanza » di esse (come l'assiomatizzazione delle teorie mat~matiche aveva accresciuto di molto la capacità dei matematici di afferrare e dominare le loro più riposte articolazioni). Va notato che un altro scopo dell'estensione del metodo assiomatico alle teorie elaborate dalle scienze empiriche era anche quello di separare tali teorie dai modelli meccanici ideati per la loro interpretazione « intuitiva » e che talvolta sembravano costituire con esse un tutto inscindibile; basti pensare, per il caso della termodinamica, al modello cinetico, che certamente si era rivelato molto utile al suo sviluppo ma aveva nel contempo dato luogo a innumerevoli discussioni. Da questo punto di vista l'assiomatizzazione delle teorie empiriche può venire considerata come un'ulteriore tappa sulla via aperta da Fourier nella prima metà dell'Ottocento (via cui si è fatto cenno nel capitolo xvr del volume quarto). Dall'inizio del secolo a oggi i tentativi di assiomatizzare l'una o l'altra teoria empirica sono stati parecchi, particolarmente rivolti a quelle teorie ove la complessità degli argomenti trattati aveva creato situazioni di vero e proprio caos (rendendo difficile distinguere le proposizioni effettivamente verificabili nell'esperienza da quelle non direttamente verificabili). Ci limiteremo a ricordare: le assiomatizzazioni della meccanica quantistica elaborate da Paul Adrian Dirac e da Johann von Neumann a partire dal I927; l'assiomatizzazione della biologia tentata da J oseph Henry W oodger nel decennio I 9 5o-6o; l'assiomatizzazione dell'economia compiuta da G. Debreu, David Gale e altri fra il I954 e il I96o; quella della teoria della misurazione - a cui hanno lavorato, dal I 96o in avanti, J. Pfanzagl e B. Ellis - essenzialmente rivolta a precisare la struttura dei concetti tassonomici, comparativi e metrici. Ebbene, sono state proprio tutte queste ricerche a fornire alcuni preziosi suggerimenti alla matematica pura, in quanto le hanno fatto comprendere il vivissimo interesse di certi problemi, particolarmente delicati, che emergevano per l'appunto dagli anzidetti tentativi di assiomatizzazione. I n altre parole: si scoprì nell'espletamento stesso di tali tentativi, che essi non avrebbero potuto venire condotti a termine senza un forte arricchimento degli strumenti concettuali fin allora usati per assiomatizzare le teorie matematiche (assai meno complesse di parecchie teorie empiriche). Si apersero così, ai «matematici puri», nuovi campi di indagine a proposito dei quali non è facile dire se, e quando, sarebbero stati affrontati senza tali suggerimenti. Abbiamo voluto sottolineare questo ininterrotto scambio di suggerimenti e di aiuti fra indagini matematiche e indagini non matematiche, perché esso pone in evidenza la profonda unità oggi riscontrabile nell'ambito delle ricerche scientifiche. È un'unità che ci dimostra quanto sia infondata la pretesa di separare net-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
tamente il problema del valore conoscitivo della matematica da quello del valore conoscitivo della scienza in generale. V
· IL POTENZIAMENTO DELLA MATEMATICA APPLICATA
Pur essendoci proposti di fornire nulla più che una caratterizzazione molto schematica della matematica del nostro secolo nei suoi aspetti di maggior rilievo filosofico, il quadro che ne abbiamo tracciato risulterebbe troppo incompleto se non aggiungessimo qualche considerazione, sia pure estremamente sommaria, sull'importante capitolo di essa che suo] venire denominato « matematica applicata». Ritroveremo anche qui una nuova conferma dell'enorme peso avuto - nello sviluppo della nostra scienza - dall'introduzione, e sistematica adozione, del metodo assiomatico. Cerchiamo innanzitutto di spiegare in che cosa consista, in ultima istanza, la profonda svolta recentemente subita dalla matematica applicata. Mentre fino a qualche tempo addietro essa pareva non avere altro compito che quello di far rientrare i fenomeni via via presi in esame nel quadro concettuale delle teorie « classiche », cioè delle teorie già facenti parte del patrimonio più sicuro della matematica (intesa in senso lato, come includente in sé la meccanica, la teoria dell'elasticità, e in generale tutta la fisica-matematica ottocentesca), oggi tale preoccupazione può dirsi sostanzialmente caduta. Il fatto nuovo è, in altri termini, questo: se i fenomeni presi in esame suggeriscono nozioni e principi diversi da quelli classici, la matematica applicata non ha più alcuna difficoltà ad accogliere questi suggerimenti. È ovvio che il nuovo atteggiamento, di incalcolabile fecondità, è stato reso possibile dalla consapevolezza di poter manovrare gli strumenti matematici con una libertà per l'innanzi del tutto sconosciuta. Ed è ovvio che proprio qui si giustifica quanto abbiamo poco sopra accennato circa il peso avuto, anche nello sviluppo della matematica applicata, dall'introduzione (nella matematica pura) del metodo assiomatico. È stata essa infatti, ed essa sola, a procurare la piena consapevolezza che le teorie matematiche non costituiscono alcunché di assoluto, ma sono essenzialmente « manovrabili » in conformità alle sempre nuove esigenze della ricerca. Siamo ora in grado di illustrare il radicale mutamento di orizzonte in tal modo prodottosi, facendo riferimento a un gruppo di problemi che hanno oggi assunto una specialissima importanza. Intendiamo riferirei ai problemi concernenti l'ideazione di « modelli » atti a rappresentare ben determinati « sistemi reali » (nel senso attribuito dai tecnici a questa espressione) nonché a prevedere il loro decorso. Che cosa hanno di nuovo questi modelli rispetto a quelli meccanici comunemente usati dalla fisica-matematica dell'Ottocento? Un semplice sguardo ai me-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
todi matematici cui essi fanno ricorso ci permette di dare al quesito una risposta chiara e inequivocabile: i metodi usati dalla matematica applicata odierna vengono attinti da un « serbatoio » molto più vasto di quello costituito dalla « matematica classica » (vastità procurata proprio, come abbiamo precedentemente chiarito, dall'adozione del metodo assiomatico). Il metodo più nuovo, che ha dimostrato una maggior fecondità, è stato il ricorso al discontinuo. È sulla base di esso che la matematica applicata odierna non solleva più alcuna difficoltà di principio contro l'impiego sistematico di funzioni discontinue, mentre fino a poco tempo addietro sembrava inconcepibile l'idea di impiegare altre funzioni fuorché quelle continue e derivabili (oggetto specifico dell'analisi classica). Ciò ha permesso di sostituire alle equazioni differenziali alle derivate parziali, usualmente adoperate dai grandi meccanici del Sette e Ottocento per tradurre i problemi fisici in termini matematici, le equazioni alle differenze finite che si prestano molto meglio al calcolo effettivo dei risultati. 1 Ed è ancora il ricorso al discontinuo che ha condotto gli odierni studiosi di matematica applicata a introdurre una nuova operazione, ben presto rivelatasi di grande utilità: la cosiddetta « discretizzazione » della regione interessata dal « sistema reale » in esame, consistente nel decomporre tale regione in un insieme discreto di « elementi », connessi tra loro da opportune relazioni topologiche. A ben guardare le cose, l'idea-guida che sta a fondamento di tutta questa nuova impostazione è la seguente: il matematico non può « imporre » ai fenomeni studiati il modello più confacente al suo gusto estetico, ma deve adeguare il modello ai fenomeni, seguendo l'esempio dell'ingegnere che ha il preciso compito di operare su oggetti concreti, non su meri concetti. Se questi oggetti richiedono di venire trattati in un certo modo, perché mai dovremmo invece trattarli in un altro? In una situazione siffatta, ciò che la matematica è in grado - essa sola di fornire, è una straordinaria ricchezza di strumenti concettuali per la trattazione dei più diversi problemi. Come scrive molto bene Johann von Neumann « uno dei più importanti contributi della matematica al nostro pensiero è che essa ha dimostrato un'enorme flessibilità nella formazione dei concetti, un grado di flessibilità a cui è difficilissimo pervenire in modo non-matematico ». I vantaggi che si ricavano dalla svolta testé accennata sono essenzialmente di due ordini: 1) i nuovi metodi (che fanno ricorso sistematico al discontinuo) permettono di costruire modelli che risultano idonei a rappresentare anche dei « sistemi reali » appartenenti a settori fenomenici molto lontani da quelli studiati fino a poco tempo addietro dalla matematica applicata. Si è giunti così a « simulare » non solo dei processi fisici e chimici, ma pure dei processi tecnologici (le cui operaI Le equazioni alle differenze finite erano già state fatte oggetto di seri studi fin dal secolo scorso, e, nei primi anni del nostro, erano apparse alcune soddisfacenti trattazioni di esse; ma l'interesse
per tale argomento risulta enormemente cresciuto dopo la seconda guerra mondiale, come è anche dimostrato dal moltiplicarsi delle pubblicazioni in proposito.
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
zioni non costituiscono ovviamente un tutto continuo), dei processi economici, organizzativi ecc.l z) le procedure matematiche adoperate dai nuovi metodi si prestano, per la loro natura prettamente numerica, a che i calcoli da esse indicati vengano eseguiti per via meccanica. Si tratterà di compiere, per condurli a termine, un insieme anche assai ampio - ma comunque finito - di operazioni, e occorrerà all'uopo disporre di macchine calcolatrici di grande capacità; ma si otterranno alla fine risultati numerici precisi che potranno venire controllati sperimentalmente. Risulterà così possibile verificare, senza ambiguità, se il modello ideato era o non era atto a rappresentare il sistema in esame. Merita di venire notato che l'esigenza di questa verifica sperimentale non costituisce di per sé qualcosa di completamente nuovo; essa infatti era già sostanzialmente presente nei grandi fisici-matematici dell'inizio de1l'Ottocento (Lapiace, Fourier, Polsson ecc.) i quali erano convinti di poter ricavare, dai loro modelli dei « sistemi reali », ben precisi valori da mettere al confronto con i dati empirici. Fu solo più tardi che ci si accorse che ciò era impossibile, per le difficoltà insite nel tipo di equazioni usate per rappresentare matematicamente i fenomePi. Allora e solo allora si pensò che i modelli non potevano avere tale compito, e ci si accontentò di pretendere che essi rendessero « più evidente », « più intuitiva » l'immagine dei processi naturali. Considerata da questo punto di vista, la matematica applicata odierna costituisce dunque, in un certo senso, un ritorno al passato. Il fatto, comunque, che il matematico applicato odierno cerchi di impostare i propri problemi in modo del tutto simile a quello dell'ingegnere, avendo cura, più di ogni altra cosa, di ideare modelli veramente idonei a un effettivo controllo pratico, presenta a nostro parere anche un intrinseco interesse di ordine metodologico generale. Ci offre invero un'ulteriore conferma della tesi, cui abbiamo già più volte fatto cenno, che la tendenza affermatasi nella matematica moderna a costruire teorie sempre meno condizionate da preoccupazioni di evidenza, non l'ha affatto condotta ad estraniarsi dalla realtà empirica. Al contrario, è stata proprio la rinuncia a conseguire verità evidenti (presunte assolute) ciò che le ha permesso di stabilire un nuovo tipo di contatto con tale realtà. Naturalmente non sarebbe stato possibile giungere a modelli forniti della verificabilità testé accennata, se nel contempo il progresso tecnico non avesse di I Ricordiamo che i modelli matematici oggi utilizzati nell'economia si possono suddividere in due categorie: modelli matematici aggregati che danno luogo alla cosiddetta macroteoria e modelli matematici disaggregati che danno luogo alla cosiddetta microteoria (o ve si cerca di tenere conto del comportamento dei singoli individui per capire il funzionamento interno di un sistema economico sia dal punto di vista statico sia da quello dinamico). Merita una particolare menzione il frequente ricorso - nell'elaborazione di taluni mo-
delli, per esempio di quelli aggregati cui si è testé fatto cenno - a metodi statistici, che hanno rivelato negli ultimi tempi una funzionalità sorprendente. Il fatto degno di nota è che vi si prescinde in modo completo dalle discussioni « filosofiche >> intorno ai fondamenti del calcolo delle probabilità, cioè dalle discussioni (per le quali rinviamo a quanto detto negli ultimi paragrafi del capitolo IX del volume settimo) che si svolgono «a monte » del sistema di assiomi su cui tale calcolo si regge.
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
fatto realizzato la costruzione di calcolatori capaci di compiere in tempi brevissimi un enorme numero di operazioni aritmetiche. Sarebbe però inesatto far consistere la svolta dell'odierna matematica applicata nel solo fatto che oggi si fabbricano tali calcolatori (di potenza via via crescente). Questo è senza dubbio un fattore di estrema importanza, anzi in certo senso decisivo: non è tuttavia l'unico, in quanto - come è ben noto - neanche la macchina calcolatrice più perfetta risulta in grado di funzionare se non le viene assegnato un ben determinato programma (programma che potrà essere tanto più complesso, quanto maggiore è la cosiddetta« memoria» della macchina). Accanto ad esso deve dunque esservi un altro fattore, di natura completamente diversa; tale secondo fattore è costituito dall'« équipe di analisti» che formula il programma da assegnare al calcolatore e che costruisce il modello del sistema cui questo viene applicato (applicazione la quale richiederà, inoltre, che siano raccolti con la massima precisione i dati da sottoporre all'elaborazione del calcolatore). Oggi si parla molto di calcolatori elettronici e si cerca di far credere che sia possibile attribuir loro delle capacità pressoché miracolistiche. L'intento mistificatorio di questa propaganda è evidente: si vuole che la gente attenda pazientemente dall'impiego di tali macchine la risoluzione dei propri problemi, anziché sforzarsi di conseguirla attraverso la lotta. Si pretende in particolare che i calcolatori - una volta raggiunto un adeguato sviluppo tecnico - possano compiere da soli l'intero processo della ricerca scientifica: la tesi, ovviamente assurda, mira allo scopo di presentare tale ricerca come « neutrale », sottraendola così ad ogni impegno civile e culturale. Si crea volutamente un mito con cui far tacere le esigenze della ragione: mito tanto più insidioso in quanto apparentemente sorretto da una delle maggiori conquiste dell'umanità, il progresso scientifico-tecnico. Opporsi decisamente a questa mitizzazione non significa affatto, come è chiaro, disconoscere il peso rilevante che l'uso dei calcolatori ha già assunto fin da oggi, e quello ancora maggiore che potrà assumere in futuro quale strumento prezioso per lo sviluppo delle nostre conoscenze e per la progettazione razionale delle nostre azioni. Ciò non deve farci dimenticare tuttavia che è l'uomo ad avere costruito i calcolatori per operare in una certa situazione storica, e che pertanto è il modo con cui egli li adopera in tale situazione a determinare il contributo che essi daranno al progresso della civiltà. Per quanto riguarda le nuove possibilità che essi forniscono ai nostri processi conoscitivi ci resta da aggiungere una sola osservazione di un certo rilievo filosofico : l'osservazione che l 'uso sistematico dei calcolatori ha reso' sempre più manifesto, in tali processi, il carattere di interrogazioni estremamente complesse (interrogazioni che vengono sì avviate dal ricercatore, ma la cui ulteriore precisazione - cioè la precisazione dei risultati da sottoporre al controllo dei fattinon è più opera sua, bensì del calcolatore). È una complessità di cui il filosofo della nostra epoca deve tenere seriamente conto, perché ci porta ad escludere che 418
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
proprio chi si è limitato ad avviare l'interrogazione, possa avere determinato, egli stesso, la risposta che riceverà. E se non è lui ad averla determinata, tanto ci basta a concludere, in accordo con la gnoseologia di Lenin, che tale risposta deve provenire da una realtà irriducibile al soggetto conoscente. VI
· UNO SGUARDO ALLO SVILUPPO DELLA FISICA QUANTISTICA
Si è sottolineato nel capitolo xm del volume sesto la gravità della situazione in cui venne a trovarsi la fisica all'inizio del Novecento, quando ci si rese conto che alcuni fenomeni luminosi recentemente scoperti risultavano spiegabili in modo limpido e coerente sulla base di una concezione « corpuscolare » della luce (ammettendo cioè che questa fosse costituita da fasci di fotoni), mentre rimanevano del tutto inspiegabili entro il quadro della teoria ondulatoria, che pur era da tempo considerata una delle più sicure conquiste della fisica (tante erano le prove in suo favore, ricavate dall'accuratissimo studio dei fenomeni di interferenza, rifrazione, diffrazione ecc.). Questa dualità onda-corpuscolo concernente la « natura » della luce non poteva non apparire quale un vero e proprio scandalo. Ma lo scandalo doveva diventare ancora maggiore quando Louis de Broglie (n. 1892)- in tre famose memorie presentate all'Académie des sciences nel 1923, e rielaborate nella tesi di dottorato dell'anno successivo- avanzò l'audace ipotesi che il dualismo anzidetto dovesse applicarsi anche al comportamento di particelle, quali l'elettrone e il protone, universalmente riconosciute come «materiali» in quanto fornite di una ben determinata massa. Era la nascita della cosiddetta « meccanica ondulatoria », cioè di una concezione completamente nuova che, per descrivere i fenomeni verificantisi nel mondo subatomico, associava tra loro due tipi di nozioni sempre ritenute, fino allora, del tutto eterogenee l'una all'altra: la nozione di particella materiale e quella di campo di onde. Il legame fra esse stabilito dalla nuova meccanica consiste in ciò, che la frequenza delle onde dipende dalla massa della particella nonché dalla velocità della luce nel vuoto e dalla famosa costante di Planck. Come scrive lo stesso de Broglie: « Tutte le particelle materiali hanno le loro onde associate, e l'insieme delle proprietà non può venire esattamente descritto che con i procedimenti della meccanica ondulatoria. » Per questa geniale innovazione, che suggerirà in breve tempo significativi esperimenti da cui verrà ampiamente confermata, a Louis de Broglie verrà conferito, nel I 929, il premio No bel per la fisica. Partendo dall'ipotesi ora accennata e seguendo i procedimenti della nuova meccanica, l'eminente fisico francese riusciva in particolare a dimostrare che le sole orbite possibili degli elettroni rotanti intorno al nucleo dovevano essere quelle « stazionarie » del modello atomico di Bohr; la dimostrazione era condotta sulla base dell'analogia fra le vibrazioni associate all'elettrone e le vibrazioni elastiche che si producono in una corda di violino nel momento in cui la si fa vibra-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
re: come nel caso del violino la lunghezza della corda deve risultare un multiplo intero della lunghezza dell'onda elastica, così, nel caso delle vibrazioni associate all'elettrone in moto, la lunghezza dell'orbita deve essere un multiplo intero della lunghezza dell'onda associata all'elettrone che percorre tale orbita. Due anni più tardi, e cioè nel 1926, l'austriaco Erwin Schrodinger ( 1887-1961) riusciva a dare una nuova formulazione, più soddisfacente dal punto di vista matematico, delle idee di de Broglie, pervenendo a scrivere una celebre equazione (oggi nota appunto come« equazione di Schrodinger »)cui deve soddisfare la cosiddetta «funzione d'onda» se vogliamo che i valori da essa via via assunti rappresentino il moto di un elettrone nello spazio libero (tale funzione d'onda, solitamente indicata con il simbolo ~,serve a caratterizzare lo stato fisico dell'elettrone che si trova nel punto individuato dalle coordinate spaziali di cui ~ è funzione). Va subito detto però che l'interpretazione fisica di questa ~ ha dato luogo a parecchie difficoltà, generate dalla sua stessa forma matematica (cioè derivanti, in ultima istanza, dal fatto che i valori assunti da ~ non sono numeri reali ma complessi); si è dimostrato infatti che, diversamente dalle solite funzioni d'onda essa non denota la vibrazione di alcun mezzo fisico. È stato Max Born (1882-1970), seguito da Bohr, a proporne una interpretazione probabilistica, nel senso che la probabilità di trovare un elettrone in un intorno, di misura unitaria, del punto ove viene calcolata la ~ sarebbe proporzionale al quadrato del modulo di ~ (quadrato che, come è ben noto, risulta un numero reale). Gli argomenti addotti da Schrodinger per giustificare la propria equazione erano, per verità, in parte intuitivi e in parte addirittura inesatti; il fatto è però che essa si rivelava in grado di fornire una descrizione mirabilmente corretta dei fenomeni. Portava invero a risultati identici a quelli delle teorie di Bohr in tutti i casi in cui questi erano in accordo con le osservazioni, e nei casi invece in cui ciò non accadeva riusciva a correggerli ristabilendo un pieno accordo con l'esperienza. Si può pertanto dire che la meccanica ondulatoria, nell'assetto datole da Schrodinger, si rivelava pienamente degna di entrare nel patrimonio più sicuro della scienza. A Schrodinger verrà assegnato il premio Nobel per la fisica, nel 1933. Pochi mesi prima che egli pubblicasse i risultati cui abbiamo testé accennato, era però accaduto un fatto molto singolare: Werner Heisenberg (1901-76), un giovane fisico tedesco che era stato allievo di Arnold Sommerfeld (1868-195 1) a Monaco e poi si era educato alle idee della scuola di Copenaghen, aveva sviluppato- ancora nel 1925 -le linee di un altro tipo di meccanica, basata su considerazioni radicalmente diverse da quelle di Schrodinger, ma capace di spiegare altrettanto bene tutti i fenomeni spiegati dalla meccanica ondulatoria. Per costruire il nuovo efficacissimo strumento (cioè la cosiddetta «meccanica quantistica »), Heisenberg aveva preso le mosse dal « principio di corrispondenza» di Bohr (secondo cui la teoria dei quanti contiene come caso limite la meccanica classica), 420
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
cercando di svilupparlo in un sistema di precisi enunciati, atti a formare - come egli stesso scrive - « uno schema matematico coerente e completo >>. Per raggiungere questo scopo ebbe poi la geniale idea di far ricorso al calcolo delle matrici, che gli permetteva di descrivere le radiazioni emesse dagli atomi prescindendo in modo completo dal concetto di traiettoria dell'elettrone. La fecondità della meccanica quantistica si rivelò subito eccezionale, ond' essa non tardò a suscitare il più vivo interesse di tutti i ricercatori impegnati negli studi di microfisica. A Heisenberg verrà assegnato il premio Nobel nel 1932. Sorse però, immediatamente, un nuovo problema: quali erano in realtà i rapporti fra le due nuove meccaniche, visto che esse - pur muovendo da punti di vista tanto diversi - portavano costantemente ai medesimi risultati? Fu proprio Schrodinger a risolverlo nel medesimo 1926, dimostrando la loro sostanziale identità. L'importanza di questo sorprendente risultato non tardò a venire percepita da tutti, confermando la convinzione generale che la nascita della meccanica ondulatoria e della meccanica quantistica segnava veramente una tappa fondamentale nella storia della fisica. Come scrive Heisenberg « la feconda riunione di questi due differenti ordini di idee fisiche permise di arrivare a uno straordinario ampliamento e arricchimento del formalismo quantistico. >> In effetti il nuovo formalismo, così ampliato e arricchito, si rivelò in grado di portare - nel giro di pochi anni - a risultati del massimo interesse sia in campo teorico sia in campo sperimentale. Il successo della « meccanica quantistica » (nome ormai usato per indicare il complesso edificio costituito dalla meccanica di Schrodinger e da quella di Heisenberg) era pienamente assicurato. Nell'ambito teorico- e, se vogliamo, in certo senso filosofico- il risultato più notevole fu costituito dal famoso principio di indeterminazione inizialmente enunciato da Heisenberg in stretta connessione alle proprietà formali del calcolo delle matrici (in quanto derivabile dal fatto che, entro tale calcolo, la moltiplicazione non gode in generale della proprietà commutativa). A questo punto occorre aggiungere, però, che Heisenberg non si accontentò di questa giustificazione formale, ma tentò subito di trovarne anche una fondazione intuitiva (di carattere non più matematico ma fisico), basata sull'analisi della nozione stessa di misurazione. Il suo tentativo venne ripreso e approfondito da Bohr che, in occasione del congresso internazionale di fisica tenuto a Como nel 1927, lesse una relazione volta a dimostrare che il principio di Heisenberg doveva venire inquadrato in un altro ancora più generale da lui chiamato « principio di complementarità». L'interesse suscitato dalla relazione di Bohr fu enorme, tanto che parecchi studiosi, fisici e non solo fisici, giunsero a scorgervi l'inizio di una nuova era del pensiero scientifico-filosofico. Citeremo a conferma di ciò due significativi brani, il primo di Wolfgang Pauli (1900-58), il secondo dello stesso Heisenberg: «Fu proprio Bohr a dare una semplice e corretta deduzione del principio di indeterminazione ... Con una profonda discussione di numerosi esperimenti ideali, Bohr mostrò che 421
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
il contenuto fisico essenziale delle nuove teorie è caratterizzato dal principio di complementarità» (Pauli). « Dobbiamo a Bohr l'analisi più chiara dei fondamenti teorici della meccanica quantistica; egli si è servito in particolare del concetto di complementarità per svolgere l'analisi della meccanica quantistica. Già le relazioni di indeterminazione danno un esempio del fatto che nella meccanica quantistica la conoscenza precisa di una variabile può escludere la conoscenza precisa di un'altra variabile. Questa relazione di complementarità fra aspetti diversi dello stesso processo fisico risulta ora effettivamente caratteristica di tutto il tipo di struttura della meccanica quantistica » (Heisenberg). Data l'eccezionale importanza dei principi di indeterminazione e di complementarità, e dati i numerosi equivoci cui a nostro parere hanno dato luogo, non intendiamo insistere ulteriormente su di essi in questo paragrafo, che vuoi fornire soltanto un primo sguardo orientativo sullo sviluppo della meccanica quantistica. Dedicheremo invece espressamente ad essi i prossimi quattro paragrafi per. enuclearne l'effettiva portata concettuale e per discutere con una certa ampiezza le considerazioni metodologiche su cui vengono solitamente basati. Pochi anni dopo la grande svolta del 192.5-2.7 venne compiuto, sulla via da essa aperta, un ulteriore passo di grande rilievo scientifico ad opera dell'inglese Paul Adrien Dirac (n. 1902.) che era giunto a questo genere di studi partendo dall'ingegneria elettrotecnica (anche a lui verrà assegnato il premio Nobel per la fisica nel 1933). In una memoria del 1930 egli introdusse una nuova equazione che, a differenza di quella di Schrodinger, era applicabile anche a elettroni di velocità prossima a quella della luce (soddisfacendo a tutte le condizioni relativistiche) e riusciva inoltre a giustificare l'ipotesi - avanzata nel 192.5 dai fisici americani George Eugene Uhlenbeck e Samuel Abraham Goudsmit- che l'elettrone fosse dotato di « spin », cioè assimilabile a una sferetta elettrizzata ruotante intorno a un suo diametro. Proprio per il fatto di unificare la teoria della relatività con la meccanica dei quanti, l'equazione di Dirac conduceva a una singolarissima conclusione: che devono esistere anche elettroni forniti di carica positiva (o « positoni »). Il risultato fu accolto, sul momento, con grande scetticismo, ma già nel I 9 32. l'americano Carl David Anderson riusciva a confermare sperimentalmente tale esistenza, dimostrando inoltre che le nuove particelle possedevano effettivamente il comportamento previsto da Dirac. La scoperta del positone, cioè della prima « antiparticella » venuta a conoscenza dei fisici, aprirà la via a un nuovo e fecondo settore di ricerche: lo studio sistematico delle antiparticelle comincerà a venire perseguito, verso la metà del secolo, in via prevalentemente teorica con l'estensione dell'equazione di Dirac (onde renderla applicabile a tutte le particelle elementari), e si sposterà poi sul piano sperimentale, appena si sarà appreso a costruire strumenti di potenza sufficiente a verificare la loro effettiva esistenza. Il nome di « antiparticella », generalizzato in quello di « antimateria », provocò per un certo tempo qualche con42.2. www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
fusione, in ispecie fra i non fisici; ogni equivoco poté tuttavia venire facilmente dissolto, appena si comprese che il prefisso « anti » era stato soltanto introdotto per evidenziare il seguente fatto (di natura p rettamente sperimentale): quando una particella entra in contatto con la propria antiparticella, esse si annichilano liberando energia (secondo ben note leggi della fisica quantistica). Per completare il breve quadro storico, che ci eravamo proposti di fornire ai non specialisti prima di addentrarci nell'argomento specifico del capitolo (cioè nell'analisi del significato filosofico delle nuove scoperte), dovremo ancora aggiungere qualche rapidissima notizia su tre temi che assunsero un rilievo scientifico di primo piano entro lo sviluppo della fisica dei quanti. Il primo tema è costituito dalla cosiddetta «meccanica statistica quantistica », che trae origine dalle ricerche eseguite già dalla fisica classica sul comportamento « globale » dei sistemi composti da un grandissimo numero di particelle. Fin dall'Ottocento si era compreso che tale comportamento, pur non potendo venire esattamente determinato seguendo il moto di ogni singola particella, può tuttavia venire studiato in media con opportuni metodi statistici; nulla, quindi, di più naturale che tentare ora di applicare questi metodi anche alle particelle scopeye dalla fisica dei quanti. La vera novità della meccanica statistica quantistica rispetto a quella classica emerse, però, quando ci si accorse che le formule di distribuzione applicate con successo dai fisici ottocenteschi non conservavano la loro validità se applicate alle particelle che obbediscono alle leggi della meccanica quantistica. Fu allora necessario apportarvi alcune profonde modificazioni sostanzialmente dovute al fatto che nella teoria quantistica le particelle tra loro identiche vanno considerate come indistinguibili, il che comporta una limitazione al numero degli stati « distinti » del sistema. Tali modificazioni vennero operate in due sensi tra loro notevolmente diversi, a seconda che le particelle componenti il sistema risultavano dotate di spin intero o semi-intero (misurato in unità --
~'
ave h è la costante di Planck). La
27t
statistica idonea al primo caso è associata ai nomi del fisico indiano Satyendra Nath Bo se (n. I 894) che fu il primo a idearla nel I 924, e di Einstein; quella idonea al secondo è invece associata ai nomi di Enrico Fermi (I90I-54), che la ideò nel I 926 e di Dirac. Le particelle componenti i sistemi che sono regolati dalla statistica di Base-Einstein vengono solitamente chiamati «bosoni», mentre quelle componenti i sistemi regolati dalla statistica di Fermi-Dirac vengono chiamati «fermioni ». Merita di venire ricordato che i fermioni obbediscono al « principio di esclusione » scoperto da Pauli nel I 924, il quale afferma che due particelle elementari non possono mai trovarsi nel medesimo stato quantico, ave per definire tale stato si tenga anche conto dello spin delle particelle. L'affiancamento della meccanica statistica testé accennata alla meccanica quantistica ha aperto la strada a studi approfonditi intorno alla struttura intrin-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
seca delle sostanze composte da più atomi. Sono sorte così, in tempi recenti, alcune nuove discipline di grande importanza sia teorica sia pratica: la cosiddetta fisica delle molecole, quella dei fluidi e quella dello stato solido. Il secondo déi tre temi anzidetti è costituito dall'estensione della meccanica quantistica allo studio della costituzione del nucleo. Il primo notevole successo in questa direzione risale al 1928, quando l'americano George Gamow riuscì a spiegare il passaggio delle particelle ot attraverso la barriera di potenziale dei nuclei pesanti. Le ricerche intorno al nucleo e alle reazioni nucleari si moltiplicarono in modo sorprendente a partire dal 1930; esse condussero alla scoperta, in via sperimentale, di un singolare tipo di radiazione elettricamente neutra e molto penetrante. Nel 1932 il fisico inglese James Chadwick riuscì a provare che tale radiazione è costituita da particelle neutre di una massa all'incirca eguale a quella del protone (esse vennero chiamate « neutroni ») : particelle che assumeranno un ruolo primario nelle teorie concernenti la costituzione del nucleo. Nel 1934 Fermi scoprì che, bombardando con neutroni i nuclei di taluni elementi, si producono fenomeni di radioattività artificiale, e inoltre - cosa questa assai singolare - che tale effetto risulta particolarmente notevole quando il bombardamento viene eseguito con neutroni «lenti». Per le scoperte testé accennate venne assegnato il premio Nobel per la fisica a Chadwick nel 193 5 e a Fermi nel 1938. Si apriva così alla fisica dei quanti una nuova direttrice di ricerche, essenzialmente rivolte a problemi applicativi. Come è ben noto, la loro importanza pratica fu enorme; esse non sollevarono però nuove questioni filosofiche, per lo meno di carattere teoretico (ne sollevarono invece molte di carattere etico, per le applicazioni ricevute nella costruzione di esplosivi fomiti di una potenza fino allora pressoché impensabile). Il terzo dei temi sopra accennati riguarda lo studio dei cosiddetti « raggi cosmici». Le prime ricerche (1909-12) intorno a queste singolari radiazioni- inizialmente chiamate « raggi di altitudine » - valsero a provame la stretta somiglianza con i raggi emessi dalle sostanze radioattive e suggerirono l'ipotesi che provenissero da regioni extraterrestri. Tali ricerche, interrotte dallo scoppio della prima guerra mondiale, vennero riprese in forma sistematica nel 1922; nel 1927 fu coniato il nome di « raggi cosmici » dal fisico americano Robert Andrews Millikan. Nel 1928 il sovietico Dmitrij Vladimirovic Skobel'tsyn riuscì per primo a fotografare alcune traiettorie dei nuovi raggi; poco dopo l'italiano Bruno Rossi caratterizzava i principali gruppi di corpuscoli che li costituiscono. Altre importanti osservazioni vennero compi~te verso il 1930 dall'italiano Giuseppe Occhialini e dall'inglese Patrick Blackett. Tutti questi risultati portarono alla conclusione che i raggi cosmici sono costituiti da particelle ad alta energia, proprio perciò particolarmente utili nella sperimentazione. Fu per l'appunto servendosi di essi, cioè studiando le esplosioni di atomi provocate da raggi cosmici, che - come già ricordammo- risultò possibile provare sperimentalmente nel 1932 l'ef-
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
fettiva esistenza del positone, prevista per via teorica da Dirac, e che qualche anno più tardi, nel 1936-37, si riuscì a provare l'effettiva esistenza dei mesoni, prevista per via teorica nel r 9 35 dal giapponese Hideki Yukawa, cui verrà assegnato il premio Nobcl nel 1949 (i mesoni sono particelle elementari con una massa, a riposo, intermedia fra quelle dell'elettrone e del protone e con carica elettrica, positiva o negativa, eguale in valore assoluto a quella dell'elettrone). Ulteriori studi permettevano intanto di stabilire l'esistenza di due tipi nettamente distinti di raggi cosmici: quelli « primari » di origine extraterrestre, e quelli « secondari » provocati dalla collisione tra le particelle dei raggi primari e gli atomi dell'atmosfera terrestre. Menzioniamo questa distinzione, per poter fare presente che lo studio dei raggi cosmici primari (reso possibile dalla fisica dei quanti) ha aperto una via del tutto nuova all'indagine dei fenomeni che hanno luogo nelle parti più remote del cielo. La meccanica quantistica ha così rivelato una inattesa fecondità anche per l'indagine di un tipo di problemi apparentemente pressoché agli antipodi di quelli che avevano dato origine alla sua nascita. Non è il caso di sottolineare quanto le numerosissime scoperte cui abbiamo rapidamente fatto cenno abbiano contribuito a rendere enormemente più ricco e complesso il quadro dei « componenti ultimi » della materia delineato dai fisici del principio del Novecento, quadro che in quegli anni era già parso costituire qualcosa di profondamente rivoluzionario rispetto alle concezioni della fisica classica. Basti, a riprova di dò, tenere presente il notevolissimo passo compiuto dall'iniziale riconoscimento di due soli tipi di tali « componenti ultimi» (cioè il protone e l'elettrone) alla successiva individuazione del positone, del neutrone, del mesone ecc. Ebbene le ricerche più avanzate - per lo meno entro questo campo di indagini - sembrano proprio dirette, oggi, alla scoperta di sempre nuovi tipi di «particelle elementari» (scoperta resa possibile dalla costruzione di acceleratori via via più potenti), nonché alla loro classificazione e alla determinazione delle loro proprietà fondamentali (è il settore in cui si inserisce la recente invalidazione del «principio di parità»). Lungo questa via si stanno attualmente compiendo numerosi progressi di natura sperimentale, di incontestabile interesse scientifico. Essi non sembrano però accompagnati da progressi altrettanto consistenti sul versante dell'elaborazione concettuale, come risulta confermato dal fatto che non esiste, al presente, una teoria generale davvero compiuta ed organica delle particelle elementari. È quindi ben comprensibile come un serio studioso quale Gamow abbia potuto affermare che « la teoria è giunta a una fase praticamente stazionaria ». Cercheremo di mostrare nei prossimi paragrafi che anche gli interessantissimi dibattiti metodologici, cui la nascita della meccanica quantistica aveva dato luogo, sembrano attraversare un analogo periodo di stasi. Non è escluso che questa stasi possa favorire un fecondo approfondimento del loro effettivo significato filosofico.
www.scribd.com/Baruhk
VII
· IL SIGNIFICATO FILOSOFICO ATTRIBUITO AL PRINCIPIO DI INDETERMIN AZIONE
Si è accennato nel paragrafo precedente alla eccezionale importanza dei due principi di indeterminazione e di complementarità e all'esistenza di numerosi equivoci circa la loro interpretazione. Data la complessità dell'argomento, crediamo opportuno iniziarne la discussione con una breve esposizione delle principali conseguenze « filosofiche » che si ritennero implicate dal principio di indeterminazione. Il lettore potrebbe trovare la formulazione di questo principio su qualunque manuale moderno di fisica. Può essere tuttavia utile, per sua comodità, trascriverne qui l'enunciato. Esso afferma che: se eseguiamo la misura dell'impulso p di una « particella materiale » o di un fotone, e nel contempo intendiamo fissarne la posizione, se cioè vogliamo simultaneamente determinare sia le componenti del suo impulso p secondo i tre assi coordinati (px, py, Pz) sia le coordinate (x, y, z) del punto ove la particella (o il fotone) si trova, allora accadrà che l'imprecisione con cui è determinata una qualsiasi di tali componenti (per esempio t:J.px) e l'imprecisione con cui è determinata la corrispondente coordinata (f:J.x) non potranno venire fatte tendere entrambe a zero, poiché il loro prodotto deve mantenersi maggiore o eguale a una certa quantità finita, dipendente dalla costante di Planck h. In altri tetmini: h f:J. Px · f:J.x :::,.. - 47t
fj.
py . !:J.y :::,.. -h47t
!:J.Pz · t:J.z:::,.. -
h 47t
Ciò comporta che, se facciamo per esempio diminuire t:J.px (ossia aumentiamo la precisione della misura di P x), allora crescerà !:J.x (ossia diminuirà la precisione della misura di x). Il principio in esame afferma, inoltre, che un'analoga situazione si produce quando vogliamo determinare l'istante t in cui una « particella materiale » o un fotone passa in un determinato punto e insieme vogliamo determinare l'energia w che essa (o esso) possiede in tale punto; anche in questo caso infatti si avrà una diseguaglianza analoga alle precedenti, cioè fj.
h w . !:J.t :::,.. - -47t
il che comporta ovviamente che, se facciamo per esempio diminuire !:J.w (ossia aumentiamo la precisione della misura dell'energia w), allora crescerà !:J.t (ossia diminuirà la precisione della misura di t).
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
Le conseguenze filosofiche da esso solitamente ricavate sono principalmente due: esse concernono la nozione di « oggetto fisico » e quella di causalità. La meccanica classica postulava che un oggetto fisico debba in ogni istante possedere una ben determinata posizione e una ben determinata velocità (e quindi un ben determinato impulso). Orbene è evidente che una qualsiasi entità, per esempio un elettrone, a cui risulti applicabile il principio di indeterminazione, non può possedere in ogni istante una ben determinata posizione e una ben determinata velocità (o per lo meno sembra ovvio dire che non le possiede in quanto per principio esse non sono misurabili). Stando così le cose, sarà lecito o non sarà lecito qualificare tale entità (nel caso specifico, tale elettrone) come un oggetto fisico? Ciò che osta a questa qualificazione è, ancora una volta, la presunzione di poter automaticamente trasferire al mondo studiato dalla microfisica le proprietà che sono senza dubbio valide per il mondo studiato dalla macrofisica. « Sebbene, » scrive Born, « nell'esperienza quotidiana noi possiamo attribuire ai corpi delle posizioni e delle velocità determinate, non vi è ragione di ammettere la medesima cosa per dimensioni al disotto dei limiti di tale esperienza. » Non vi è dubbio che l'abbandono di questa presunzione abbia un peso che va molto al di là dell'ambito meramente scientifico. Esige infatti una modificazione radicale della nozione tradizionale di « oggetto fisico », cioè la rinuncia a considerare come caratteristiche della « sostanza », che starebbe alla base di esso, quelle proprietà geometrico-cinematiche che la scienza seicentesca aveva considerato come « primarie », ossia come proprietà autentiche del reale. Born, che non fu soltanto uno dei maggiori fisici della prima metà del nostro secolo ma anche uno dei più acuti indagatori del significato filosofico della nuova meccanica, sostiene che in fisica si può parlare di « realtà » solo in quanto ci si riferisca a degli « invarianti osservazionali ». «Da questo punto di vista, » egli scrive, « io sostengo che le particelle sono reali, in quanto rappresentano delle invarianti di osservazione. Noi crediamo nell'esistenza dell'elettrone perché esso possiede una determinata carica e, una determinata massa m e un determinato spin s; ciò significa che, qualunque siano le circostanze e le condizioni sperimentali in cui si osservi un effetto che la teoria attribuisce alla presenza di elettroni, si troveranno per queste grandezze e, m, s gli stessi valori numerici. » Invece « la posizione e la velocità non sono invarianti dell'osservazione»; il che non significa tuttavia che risulti illecito usare la posizione e la velocità come attributi degli oggetti fisici, purché sia ben chiaro che il loro valore dipende per principio dalle condizioni di volta in volta imposte agli esperimenti con cui intendiamo misurarle. La seconda importante conseguenza di ordine filosofico solitamente ricavata dal principio di indeterminazione è strettamente collegata alla trasformazione, cui ora si è fatto cenno, della nozione di oggetto fisico. Un famoso brano di Laplace, che riportammo nel volume quarto, afferma
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
che, se in un dato istante si conoscessero tutte le forze da cui è animata la natura e le rispettive posizioni degli esseri che la compongono, risulterebbe possibile, con opportune elaborazioni matematiche, abbracciare « nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero». L'ipotesi, che vi si assume come ovvia, è che sia effettivamente possibile, almeno in linea di principio, conoscere con esattezza le posizioni di tutte le particelle dell'universo nonché le forze da cui esse sono animate (e quindi le velocità con cui si muovono le une rispetto alle altre). Orbene è ovvio che, se dobbiamo rinunciare, per il principio di indeterminazione, a considerare la posizione e la velocità come attributi oggettivi della particella, non avrà più senso supporre che esse siano conoscibili con l'esattezza di cui parla Laplace. E perciò non avrà più senso cercare una formula generalissima in cui possano venire abbracciati tutti i movimenti «dei più grandi corpi dell'universo e dell'atomo più leggero». Occorrerà quindi rinunciare al tipo di determinismo teorizzato da Laplace, il che comporterebbe, secondo taluni fisici e filosofi della fisica, una vera e propria rinuncia al concetto di causalità. « La causalità si applica soltanto, » scrive Dirac, « a un sistema che è lasciato indisturbato. Se un sistema è piccolo, non possiamo osservado senza seriamente perturbarlo e quindi non possiamo aspettarci di trovare alcuna connessione fra i risultati della nostra osservazione. » Il noto filosofo della scienza Friedrich Waismann dichiara, ancora più esplicitamente, che «la caduta della causalità è un'immediata conseguenza del principio di indeterminazione ». Questo principio rende infatti impossibile descrivere con esattezza istante per istante il decorso dei fenomeni; ma «se l'idea di una ininterrotta descrizione deve essere abbandonata, anche il principio di causalità non può più essere conservato: perché tale principio è nella scienza vincolato alla possibilità di simile descrizione. Se non è più possibile una descrizione continua, lo stesso fondamento del principio causale svanisce; in effetti, tale principio richiede la possibilità di una descrizione continua come condizione necessaria: il crollo dell'una comporta il crollo dell'altro». Discuteremo nelle prossime pagine fino a che punto le « conseguenze filosofiche » testé accennate del principio di indeterminazione risultino oggi accettabili. Qui importava soltanto porre in chiaro il « legame logico » fra questo e quelle, che è stato visto (ed esplicitamente dichiarato) dagli autori presi in considerazione. VIII
· LA BASE METODOLOGICA DEI PRINCIPI DI INDETERMINAZIONE E DI COMPLEMENTARITA
Come abbiamo accennato nel paragrafo VI, Heisenberg, pur avendo inizialmente formulato il principio di indeterminazione con esplicito riferimento ad una caratteristica proprietà del calcolo delle matrici (la non commutatività del
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
prodotto), comprese subito la necessità di dargli una base fisicamente più significativa. Questa venne da lui ricavata a partire da alcune sottilissime considerazioni metodologiche sui procedimenti di misura. La via più agevole per dare un'idea di tali considerazioni consiste, a nostro parere, nel prendere ancora una volta le mosse dal brano di Laplace già citato nel paragrafo precedente. Il postulato in esso implicito era, come osservammo, che risulti possibile per principio conoscere istante per istante la posizione e la velocità di un qualsiasi atomo, comunque leggero. « Ma, » si domanda Boro nel tentativo appunto di spiegare le considerazioni metodologiche di Heisenberg sui procedimenti di misura, « è davvero possibile ritenere valido un tale assioma? » La risposta che egli dà a questo quesito è decisamente negativa: « L'ipotesi dell'osservabilità assoluta, che costituisce la radice dei concetti classici, mi sembra esistere soltanto nella fantasia, come un postulato che nella realtà non può essere soddisfatto. » E la ragione che gli impedisce di essere soddisfatto va cercata in ultima istanza nella natura discontinua (a granuli) dell'energia; nell'impossibilità, cioè, di usare, nella misurazione delle grandezze relative all'« atomo più leggero » di cui parlava Laplace, un tipo di strumenti che richiedano una quantità di energia da ritenersi legittimamente trascurabile nei confronti di quella dell'oggetto cui si rivolge la misura (ciò che accade invece, con opportune precauzioni, quando misuriamo le grandezze relative a un oggetto macroscopico). È «la finitezza del quanto d'azione», spiega Pauli, ciò che «esclude la possibilità di conoscere con precisione i singoli processi quantici »,ponendo così i fisici « di fronte alla situazione seguente: è impossibile tenere conto tramite correzioni determinate di tutto l'effetto del dispositivo di misura sull'oggetto studiato». Senza fermarci a descrivere i numerosi « esperimenti mentali » che Heisenberg e i suoi seguaci hanno addotto a prova di quanto ora detto, preferiamo invece sottolineare le conseguenze che ne hanno tratto circa la possibilità di operare una autentica distinzione fra strumento di osservazione e sistema osservato. Tali autori non negano, ovviamente, che questa distinzione continui a valere anche nella fisica quantistica; ciò che, secondo essi, si dissolve è la presunzione - tacitamente accolta dalla fisica classica - che la distinzione in esame costituisca qualcosa di ben determinato. In altre parole: l'affermazione che il risultato del processo misurativo dipenda fino a un ben preciso punto dal sistema osservato e solo da quel punto in poi dipenda dallo strumento di misura, sarebbe del tutto insostenibile; non potrebbe cioè venire giustificata se non in base a considerazioni di opportunità. Scrive ancora Pauli: « La posizione di questa separazione [fra sistema osservato e strumento di osservazione] è, a differenza della sua esistenza, entro certi limiti arbitraria. » « Non è possibile,» ribadisce lo stesso Heisenberg, «decidere, se non arbitrariamente, quali oggetti vadano considerati come parte del sistema osservato e quali invece come parte dell'apparato di osservazione ».1 r Il corsivo è nostro.
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
Quando cerchiamo di precisare la velocità di una particella subatomica, gli strumenti di misura interverrebbero dunque in modo così determinante sul fenomeno, da rendere impossibile attribuire (se non con un atto arbitrario) alla perticella in esame una posizione precisa; e viceversa. È proprio l'inseparabilità fra sistema osservato e strumento di osservazione a produrre - secondo i nostri autori - questo stato di cose. Ed è ancora essa a far sì che il medesimo fenomeno ci appaia ora come particella e ora invece come onda; questo presentarsi sotto due forme tanto diverse dipende infatti, sempre a giudizio dei nostri autori, dal tipo di apparecchiature con cui cerchiamo di osservarlo. Tanto è vero che non ci appare mai nel contempo come particella e come onda; si dimostra infatti, analizzando le apparecchiature usate nei due casi, che esse si escludono l'una con l'altra. La nozione di complementarità introdotta da Bohr non ha fatto altro che generalizzare quanto detto da Heisenberg a proposito della velocità e della posizione. Due attributi vengono da lui chiamati « fra loro complementari » quando la nostra intuizione, derivata dall'esperienza ordinaria, esigerebbe che li usassimo entrambi per una descrizione completa dell'oggetto studiato, mentre un'analisi rigorosa dei processi adoperati per l'effettiva assegnazione di tali attributi ci insegna che la determinazione precisa dell'uno esclude quella dell'altro. Bohr ritenne di avere trovato vari esempi di attributi complementari anche al di fuori della fisica, per esempio in biologia (ma su tale argomento si tornerà nel capitolo n del volume nono. Ciò renderebbe più plausibile la situazione apparentemente paradossale enunciata dal principio di indeterminazione, in quanto riuscirebbe ad inserirla, come caso particolare, in una classe molto più generale. A confermare il vero e proprio entusiasmo che il principio di complementarità suscitò - verso il I93o - fra i fisici, basti ricordare che uno studioso del valore di Enrico Persico ritenne di poter!o qualificare (nel I 9 33) come « una vera scoperta logica, non meno importante di quella del sillogismo, e suscettibile di applicazioni nei campi più diversi». La sua importanza consisterebbe essenzialmente nel fatto che- mentre « due proposizioni sono contraddittorie quando, se l'una è vera, è falsa l'altra» - due proposizioni sono invece complementari quando« se l'una è vera (o falsa), l'altra è priva di senso». Abbiamo voluto riportare quest'ultima citazione, non solo perché in se stessa molto chiarificatrice, ma anche perché idonea a porre in luce il rapporto esistente tra l'impostazione metodo logica sostenuta dai fisici richiamantisi a Bohr e a Heisenberg, e una delle tesi più caratteristiche dei filosofi neo-positivisti. Come sappiamo, questa tesi consiste nell'affermazione che i cosiddetti «problemi insolubili» della filosofia e della scienza non sono altro che domande «vuote di senso», cioè domande a cui non si può rispondere se non con frasi né vere né false. È proprio il rapporto testé accennato il principale motivo cui si fece appello, da parte di molti filosofi e scienziati, per affermare (come ricordammo nel capitolo I
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
del volume settimo) che il neo-positivismo costituirebbe una conseguenza diretta delle nuove concezioni emerse in fisica dopo la grande svolta da essa subita con la nascita della meccanica quantistica. Ma il nesso tra il neo-positivismo e le considerazioni metodologiche addotte da Heisenberg e da Bohr a sostegno dei loro principi non si esaurisce tutto qui; esso può anche venire cercato nell'impostazione sostanzialmente fenomenistica che sta alla base di tali considerazioni. Ne è una prova il fatto che i due fisici anzidetti e i loro seguaci identificano in ultima istanza l'attribuibilità alle cosiddette particelle di questa o quella proprietà (per esempio della proprietà di possedere un impulso) con la possibilità di misurare la proprietà in questione (nell'esempio citato, di misurare l 'impulso); o ve il carattere fenomenistico di questa posizione consiste nel fatto che i procedimenti di misura appartengono interamente, come è ovvio, al mondo dei fenomeni ossia non rinviano a nulla che stia al di là dei dati osservativi. V a però osservato che negli ultimi anni della sua vita, e particolarmente dopo il celebre dibattito iniziato nel 1957 con il fisico sovietico Vladimir A. Fok (dibattito di cui si parlerà ampiamente nel capitolo v del volume nono), Bohr apportò talune precisazioni alla formulazione del suo principio sl da togliere pressoché ogni fondamento all'interpretazione neo-positivistica di esso. Un esame approfondito del problema, recentemente intrapreso da alcuni giovani storici della fisica, sembra del resto confermare che le implicazioni fenomenistico-soggettivistiche di cui sopra sono, a rigore, estranee al più autentico e generale significato del principio di complementarità.
IX · CONSIDERAZIONI CRITICHE SULLA PRESUNTA «DIMOSTRAZIONE» DEI PRINCIPI DELLA MECCANICA QUANTISTICA
Nessuno può mettere in dubbio che le analisi metodologiche, schematicamente riferite nel paragrafo precedente, abbiano avuto una notevolissima importanza nella recente storia della fisica, anche se oggi sembrano aver perso una parte del loro originario interesse. In primo luogo tali analisi hanno dato un contributo di grande rilievo al rinnovamento generale della metodologia della fisica, richiamando ai cultori di questa scienza una verità che i matematici avevano già compreso da tempo: cioè che una scrupolosa riflessione critica sui contenuti concettuali e sulle procedure dimostrative delle teorie scientifiche non rappresenta soltanto una « curiosità filosofica », ma un momento essenziale della stessa ricerca scientifica. Molto significative sono da questo punto di vista, seppure forse troppo ottimistiche, le seguenti parole pronunciate dal fisico Enrico Persico in una limpida conferenza da lui tenuta, nel 1947, presso il centro studi metodologici di Torino: «L'analisi critica dei fondamenti della scienza è entrata definitivamente nel metodo 431
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
scientifico, così come vi è entrat~ definitivamente l'esperienza all'epoca di Galileo ».1 In secondo luogo esse hanno avuto un'importanza specifica nei riguardi dello sviluppo della fisica dei quanti, perché hanno posto in luce gli errori di fondo che vengono compiuti quando si pretende trasferire al mondo della microfisica le medesime categorie che usiamo con successo per descrivere il mondo macroscopico. La denuncia di tali errori può attualmente apparire un merito di scarso rilievo, tanto ci siamo abituati a considerare impossibile il trasferimento anzidetto; ma ciò dimostra soltanto che i risultati ottenuti dalle sottili analisi di Bohr, di Heisenberg e dei loro collaboratori sono ormai entrati a far parte del patrimonio scientifico della nostra epoca, il che è la migliore dimostrazione del loro incontestabile peso. In realtà la battaglia combattuta per giungere a questo traguardo fu tutt'altro che facile; essa segnò la definitiva sconfitta del meccanicismo ottocentesco. Una volta compiuto questo doveroso riconoscimento, occorre aggiungere, però, che le interpretazioni delle analisi metodologiche testé accennate, parzialmente fornite dai loro stessi autori, furono spesso non poco fuorvianti; e non solo da un punto di vista filosofico, come cercheremo di spiegare nel prossimo· paragrafo, ma proprio da un punto di vista rigorosamente metodologico. Il fatto è che tali autori vollero presentarle come vere e proprie « dimostrazioni » (di carattere operativo) dei principi di indeterminazione e di complementarità, cosicché, se la loro pretesa fosse fondata, questi principi risulterebbero forniti di una propria specifica validità, indipendentemente dal posto - senza dubbio di primaria importanza- che occupano entro la meccanica quantistica. Di qui la tendenza, riscontrabile in vari fisici, a considerarle come « verità assolute », in netto contrasto con quella visione critica della scientificità che sembra costituire una delle maggiori conquiste del pensiero moderno. Per verità già Heisenberg sembra essersi reso conto del fatto che la vera prova della validità del principio di indeterminazione non risiede tanto nella giustificazione operativa di esso, da lui medesimo ideata nel 1926-27, quanto nel gran numero di conferme che la meccanica quantistica (basata appunto su tale principio) ha ottenuto nel corso delle successive ricerche. Ecco infatti ciò che egli scrisse in proposito: « La teoria dei quanti trae la sua forza persuasiva non già dal fatto che siano stati provati tutti i metodi per misurare la posizione e la velocità di un elettrone senza mai riuscire ad evitare le relazioni di indeterminazione, ma dal fatto che i risultati sperimentati da Compton, Geiger e Bothe [oggi noi potremmo aggiungerne tanti altri!] costituiscono delle prove così evidenti della necessità di servirsi delle nuove possibilità di pensiero create dalla teoria dei quanti, che la rinuncia alle questioni della fisica classica non ci appare più come una rinuncia. » r Il corsivo è nostro.
432
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
In lui, però, l'idea qui abbozzata- che la forza persuasiva della nuova fisica debba venire ricavata più· dalla teoria q_uantistica nella sua globalità che non dal principio di indeterminazione singolarmente considerato - occupa una posizione soltanto marginale. Essa diventa invece l'idea centr~le in alcune delle opere più moderne di metodologia della scienza. Tale è il caso per esempio dell'opera The structure of science (La struttura della scienza, 1961) di Ernst Nagel, ove si sostiene - in riferimento a una qualsiasi teoria scientifica - che non ha senso tentar di dimostrarne ad uno ad uno i singoli assiomi, i quali tra l'altro sono per lo più formulati in modo da sottrarsi ad ogni controllo diretto dei fatti; la verifica della teoria dovrà invece consistere in un confronto- il più largo possibile- dell'insieme di tutte le proposizioni derivabili dai suoi assiomi con i dati fornitici dall' esperienza. Ecco ora le interessanti conseguenze che Nagel ricava da questa impostazione metodologica generale, per quanto riguarda il caso specifico dei principi della meccanica quantistica e in particolare del principio di Heisenberg: è certamente lecito affermare entro il quadro di tale meccanica, che gli elettroni (o le altre particelle) debbano subire «quando interagiscono con strumenti di misura» delle alterazioni « incontro Ilabili e imprevedibili »; ciò deriva infatti dalle relazioni di indeterminazione che figurano tra gli assiomi della teoria. È invece del tutto ingiustificato sostenere che tali alterazioni « costituiscano la prova » delle relazioni anzidette. Possiamo aggiungere che la presunzione di fornire una prova preliminare di questo o quell'assioma, significa privilegiarlo rispetto agli altri, cioè ammettere che esso possegga un ben preciso significato anche se considerato indipendentemente dai restanti assiomi; ipotesi questa, che contrasta in modo palese con la concezione assiomatica moderna, illustrata nei primi paragrafi del presente capitolo a proposito delle teorie matematiche. Né va dimenticato il fatto che, mentre la « dimostrazione » di un principio isolatamente considerato sembra assumere necessariamente un carattere di assolutezza (come già abbiamo poco sopra rilevato), la «dimostrazione»- o meglio la « verifica » - di una teoria è qualcosa di molto più articolato, che presenta sempre un manifesto carattere di relatività se non altro per la struttura complessa della teoria e per I 'impossibilità pratica di estendere la verifica a tutte le sue conseguenze. È del resto ben noto che, se qualcuna di queste conseguenze non trova piena conferma nei fatti, risulta non di rado possibile conservare in piedi - per Io meno nelle sue grandi linee - la teoria in questione, limitandosi ad apportarvi qualche integrazione o correzione parziale. È interessante notare che molti di quegli stessi epistemologi, che ancora oggi incentrano sul principio di indeterminazione la loro analisi dei fondamenti filosofici della fisica, evitano di fare ricorso, per giustificarlo, alle « dimostrazioni » operative di esso che erano d'uso alcuni decenni fa. Si limitano invece a sottoli433
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
neare che l'abbandono di tale principio richiederebbe una modifica radicale dell'intera fisica. Scrive per esempio Carnap: «La limitazione fissata dal principio di indeterminazione ... è una legge fondamentale che rimarrà valida finché le leggi della teoria dei quanti manterranno la loro forma attuale. Con questo non si deve intendere che le leggi accettate dalla fisica non possano venire cambiate o che il principio di indeterminazione di Heisenberg non possa mai essere abbandonato. Ritengo, tuttavia, giusto affermare che per rinnovare queste caratteristiche sarebbe necessario un cambiamento rivoluzionario nelle strutture fondamentali dell'attuale fisica. » 1 In sintesi, l'unica prova, che anche Carnap ammette, del principio in esame è costituita per un lato dalla posizione di grande rilievo che esso occupa entro il complesso edificio della fisica moderna, e per l'altro dalla ampiezza dei dati che finora hanno verificato e continuano a verificare la solidità di questo edificio. Giunti a questo punto delle nostre considerazioni critiche, ci resta ora da far presente l'esistenza di una netta differenza fra lo status del principio di indeterminazione e quello del principio di complementarità. Quanto al primo, sappiamo infatti - dalle stesse parole testé citate di Nagel - che esso occupa una posizione ben determinata entro l'edificio della meccanica quantistica, cosicché siamo in pieno diritto di farlo partecipe della validità globale (sia pure relativa) che questa dottrina ha acquisito dalle numerosissime conferme riscontrate nei fatti. Assai diversa è invece la questione per il secondo, che suoi venire inteso in due accezioni per nulla coincidenti fra loro: una, strettamente fisica, lo colloca esso pure in una posizione ben determinata entro l'edificio della meccanica quantistica (come assioma da cui possiamo derivare il principio di indeterminazione); ed una invece, più generale, lo presenta come regola applicabile alla totalità delle ricerche scientifiche (fisiche e non solo fisiche). Orbene è chiaro che, se lo intendiamo nell'accezione strettamente fisica, potremo ripetere anche per il principio di complementarità tutto quanto abbiamo testé asserito per il principio di indeterminazionc; ma se lo intendiamo nell'accezione più generale, ciò diventerà del tutto impossibile perché in tal caso esso non figurerà più come semplice assioma della meccanica quantistica, bensì come principio che, analogamente ai principi logici, dovrebbe stare a monte di tutte le ricerche scientifiche. Non senza motivo Enrico Persico- favorevole a interr Il brano testé citato di Carnap così prosegue: « Alcuni fisici contemporanei sono convinti (come lo era Einstein) che questa caratteristica della meccanica quantistica moderna sia discutibile e possa in futuro essere eliminata. È possibile, ma il cambiamento sarebbe radicale. Per il momento nessuno riesce a vedere in che modo sia possibile eliminare il principio di indeterminazione. » Queste parole, che ne richiamano altre analoghe scritte da Born in un'amichevole discussione con Einstein (cui si fa cenno nel paragrafo m del
capitolo xv del volume sesto), esprimono senz'altro uno stato d'animo ben comprensibile; non vogliono però, ovviamente, costituire alcuna profezia per il futuro. Anche nel primo Ottocento nessuno riusciva a vedere in che modo sarebbe stato possibile eliminare il determinismo laplaciano, eppure i fisici furono costretti, nel giro di alcuni decenni, ad abbandonarlo su imposizione -per così dire- dell'esperienza. E anche tale abbandono richiese, come sappiamo, un mutamento radicale di gran parte della scienza della natura.
434
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
pretare il principio di complementarità nella seconda delle accezioni testé riferite - giunge a vedere in esso « una vera scoperta logica », come già abbiamo ricordato nel paragrafo precedente. Né vi è da stupire che gli studiosi sovietici - favorevoli essi pure a questa interpretazione - abbiano potuto collegare (nel modo che verrà chiarito nel capitolo v del volume nono) la complementarità alla dialettica. Certo è, comunque, che - nella sua accezione più ampia - il principio di Bohr si presenta non tanto come una proposizione scientiflca quanto come una tesi fllosoflca generale: tesi fllosoflca sulle implicazioni della quale il suo stesso autore non ebbe sempre delle idee molto precise, come dimostrano i sostanziali mutamenti di prospettiva da lui accolti in seguito al dibattito con Fok cui si accennò alla fine del paragrafo precedente. È proprio in questa situazione alquanto confusa, creatasi intorno al principio di complementarità, che va cercato il motivo per cui numerosi scienziati mostrarono nei suoi confronti una perplessità che oggi sembra forse ingiustiflcata. Tipico è il caso di Schrodinger, che si riflutò sostanzialmente di prenderlo in seria considerazione. « Devo confessare, » egli scrive, « che non lo comprendo. Per me si tratta di una mera evasione. Non di una evasione volontaria. Infatti si flnisce per ammettere il fatto che abbiamo due teorie, due immagini della materia le quali non si accordano, sicché dobbiamo fare uso talvolta dell'una talvolta dell'altra. Un tempo, settanta o più anni fa, quando si veriflcava un fatto consimile, si concludeva che la ricerca non era ancora flnita, perché si riteneva assolutamente impossibile far uso di due concetti differenti a proposito di un fenomeno o della costituzione di un corpo. Ora si è inventata la parola "complementarità", e ciò mi sembra voler giustiflcare l'uso di due concetti differenti, come se non fosse necessario trovare un concetto unico, un'immagine completa comprensibile. La parola "complementarità '' mi fa pensare alla frase di Goethe: " Perché, proprio dove mancano i concetti, si presenta al momento giusto una parola."» X · CONSIDERAZIONI CRITICHE SULLA FILOSOFIA USUALMENTE CONNESSA ALLA MECCANICA QUANTISTICA
Abbiamo detto nel paragrafo vn che una delle più notevoli «conseguenze fllosoflche » solitamente ricavate dai principi della meccanica quantistica (sia dal principio di indeterminazione, sia, come è ovvio, da quello di complementarità che sta« a monte» di esso) è costituita dall'abbandono del principio di causalità. Prima di iniziare l'analisi di tale «conseguenza», occorrerà aggiungere che essa suol venire direttamente collegata alla famosa funzione ~ di Schrodinger. Già ricordammo infatti, nel paragrafo VI, che, se non ci si accontenta di assumere questa ~ come un puro simbolo matematico ma le si vuole anche attribuire un signiflcato flsico, occorre darne una interpretazione probabilistica, ammettendo 435
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
che il quadrato del modulo di y; risulti proporzionale alla probabilità di trovare la particella considerata, ad esempio l'elettrone, in una certa zona spaziale (un intorno, di misura unitaria, del punto ove si calcola il valore della funzione stessa). Ciò deriva, in ultima istanza, dall'ipotesi di de Broglie che ad ogni particella risulti associata una certa onda la cui frequenza dipende dalla massa della particella, dalla velocità della luce nel vuoto e dalla costante di Planck. Orbene, quanto ora detto ci pone di fronte al seguente quesito: quale senso possiamo attribuire alla probabilità in esame? Se ci troviamo di fronte a un grande numero di elettroni (ci riferiamo per semplicità a questo tipo di particelle, ma potremmo ripetere le stesse considerazioni per un altro tipo qualsiasi), la probabilità può venire intesa in senso statistico - cioè come frequenza limite - e allora essa avrà senz'altro un ben preciso significato fisico, rappresentando la percentuale di elettroni che si trovano nella zona spaziale considerata. Ma che potrà invece significare se vogliamo riferir la a un solo elettrone (come siamo costretti a fare in tal uni casi, ad esempio quando studiamo la disintegrazione di un atomo)? È difficile negare che, in casi siffatti, il parlare di probabilità di un singolo evento significa ammettere che il decorso di tale evento risulta essenzialmente indeterminato; e si potrebbe dimostrare che ciò è per l'appunto connesso al principio di indeterminazione di Heisenberg. Che simile ammissione sia incompatibile con il determinismo di Laplace, è cosa ovvia. Ma siamo veramente in diritto di concluderne che essa risulta incompatibile con il principio di causalità, anche inteso in una accezione più generale? Proprio qui si annidano i problemi che hanno dato luogo ai piu vivaci dibattiti filosofici. Taluni autori giunsero, come è ben noto, a sostenere che - se il moto dell' elettrone non è determinato - ciò significa che questa particella gode di una vera e propria « libertà », analoga alla libertà riscontrabile nelle azioni umane. Ma si tratta, ovviamente, di un grossolano equivoco, dovuto alla confusione tra i due concetti di « fenomeno non inquadrabile nel determinismo laplaciano » e « azione libera». Essendo ben decisi a non perdere tempo in questioni così manifestamente equivoche, intendiamo subito passare ai due nodi fondamentali su cui si sono accentrati i dibattiti: I) è ancora possibile sostenere che i microfenomeni sono causalmente connessi fra loro, quando si è dovuto rinunciare ad inquadrarli nel determinismo laplaciano? z) è lecito ricavare, dalla constatata impossibilità di cogliere un legame deterministico fra tali fenomeni, che la nostra conoscenza di essi resta incompleta? cioè che ci si trova qui di fronte ad una barriera per principio insormontabile? La prima domanda non fa che mettere in luce la difficoltà di liberarci dal patrimonio concettuale trasmessoci dalla fisica meccanicistica classica. Se il lettore si prende la cura di rileggere i brani di Dirac e di Waismann citati alla fine del
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
paragrafo vrr, non avrà certo difficoltà a convincersi che l'argomento principe, in base a cui tali due autori negavano la possibilità di parlare - nella nuova situazione scoperta dalla meccanica quantistica - di nesso causale tra microfenomeni, era la constatazione del venir meno in tale situazione dell'ipotesi, essenziale per il meccanicismo classico, che i fenomeni risultino ininterrottamente descrivibili (è l'ipotesi su cui si fonda la postulazione che, muovendosi, una particella debba percorrere una ben determinata traiettoria). Ma se noi ci liberiamo dall'idea che la microparticella sia analoga alle particelle di cui parla la macrofisica, se cioè la consideriamo come qualcosa di radicalmente diverso (non più come una particella bensì come una «particella-onda»), la presunzione che essa debba risultare ininterrottamente descrivibile (e quindi debba percorrere una vera e propria traiettoria nel senso classico del termine) si rivela vuota di senso. Stando così le cose, negare che ai microfenomeni sia applicabile la « causalità laplaciana » (essenzialmente basata sul postulato che le particelle si muovono lungo ben precise traiettorie) diventa palesemente una ovvietà. Ma ciò non significa affatto negare che nell'ambito dei microfenomeni continui ad esistere un nesso, che collega uno stato qualsiasi di tali microfenomeni agli stati che l'hanno preceduto. Si tratterà di una dipendenza di tipo diverso da quella considerata dalla meccanica classica, ma pur sempre di una dipendenza; tant'è vero che, se prendiamo in esame un insieme di moltissime particelle, la funzione \fi (soddisfacente all'equazione di Schrodinger) ci permette di prevedere perfettamente- come è ben noto - il succedersi degli stati di tale insieme a partire da uno stato di esso. Taluno potrà forse obiettarci che il parlare, come d'uso in una situazione sul tipo di quella testé accennata, di « causalità probabilistica » non può renderei del tutto soddisfatti, perché non possediamo alcuna idea intuiti va ( « chiara e distinta » direbbe un cartesiano!) di tale nuovo tipo di causalità. Ma su che cosa si fonda, se non su una base psicologica del tutto soggettiva, questa esigenza di intuibilità? L'essenziale non è, a nostro parere, attribuire a questo nuovo tipo di causalità l'una o l'altra qualificazione bensì riconoscere che si tratta di un nesso molto più ricco e articolato di quello meccanicistico. Se si è soliti qualificarlo come « nesso probabilistico », ciò risulta senza dubbio giustificato dal largo uso che si fa, in riferimento ad esso, del calcolo delle probabilità e dai successi sperimentali che questo uso permette di conseguire; sarebbe però inesatto ritenere che l'attributo anzidetto possegga il medesimo significato nella fisica classica e in quella quantistica. Nella prima infatti si ricorre al calcolo delle probabilità, in relazione a fenomeni che coinvolgono un gran numero di particelle, soprattutto per ragioni di comodo, restando però inteso che almeno in via di principio risulterebbe possibile farne a meno, qualora ci si procurasse una conoscenza completa intorno ai moti delle singole particelle; nella seconda invece proprio questo è impossibile (per il principio di indeterminazione), e quindi l'attributo « probabilistico »non denota più uno stato soggettivo di incompletezza di informazione, ma un nuovo più 437
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
complesso tipo di connessione fisica che non rientra nel quadro concèttuale cui ci ha abituati la scienza classica. Risulta ovvio a questo punto, che il materialista dialettico - il quale si rifiuta, per principio, di ridurre tutto il divenire della natura a mere trasformazioni di carattere meccanico (si ricordi in proposito quanto abbiamo detto nel capitolo xv del volume quinto, parlando della dialettica engelsiana) - avrà assai meno difficoltà dei seguaci di altri indirizzi di pensiero a concepire il nuovo tipo di nesso causale. Neanch'egli, comunque, potrà accontentarsi di qualificarlo con un aggettivo o con l'altro, ma dovrà sforzarsi di precisare via via maggiormente il significato reale di tale nesso (precisazione che gli potrà venire fornita proprio dallo sviluppo della fisica quantistica, in tutti i suoi aspetti teorici e sperimentali, non da una semplice «analisi operativa» dei singoli principi su cui essa si fonda). Possiamo passare ora a prendere in rapido esame la seconda delle due domande poco sopra formulate. È ovvio che, se noi identifichiamo la conoscenza di un fenomeno con la sua spiegazione in termini meccanici, dovremo concluderne che, là ove non risulti inquadrabile nella « causalità laplaciana », esso dovrà dirsi non completamente conosciuto. È un argomento già invocato da Du Bois-Reymond nella seconda metà dell'Ottocento, per sostenere che la scienza trova innanzi a sé degli enigmi insolubili; ma già si è chiarito nel volume sesto (capitolo VI) che si tratta di un argomento del tutto inaccettabile. Nulla ci garantisce infatti che l'unica spiegazione scientifica dei fenomeni sia proprio la spiegazione meccanicistica. Si tratta ancora una volta di un tranello che ci viene teso dalla tradizione ottocentesca della fisica, di cui continuiamo ad essere vittime malgrado le profonde critiche sollevate contro di essa da Mach e da Engels. E le prime vittime ne furono proprio quei materialisti (che amavano chiamarsi « dialettici » senza esserlo in realtà), i quali sostennero pervicacemente che solo la fisica classica sarebbe compatibile con la filosofia materialistica. Considerazioni analoghe possono venir ripetute a proposito delle limitazioni di cui parlano i principi di Heisenberg e di Bohr. È infatti evidente che si tratta soltanto di limitazioni concernenti la « descrizione classica » dei fenomeni, limitazioni però non trasformabili se non con il ricorso alla metafisica in barriere assolute per qualsiasi tipo di descrizione. In realtà essi hanno inferto un colpo decisivo alla fisica classica, ma non al principio- fondamentale per la scienzadella illimitata conoscibilità della natura. Non ci dicono altro, infatti, se non che le categorie usate dalla fisica meccanicistica per descrivere (e quindi conoscere) i processi naturali hanno una applicazione limitata; costituiscono pertanto un invito (anzi un ordine perentorio) a modificare tali categorie, non a interrompere i nostri sforzi diretti ad approfondire la conoscenza di questi processi. E così li hanno, in realtà, interpretati gli stessi scienziati più moderni, che si sono valsi proprio della meccanica quantistica per proseguire e perfezionare ininterrottamente le
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
proprie indagini. Se i due principi anzidetti vengono considerati isolatamente dal grande edificio su di essi costruito, possono effettivamente trarre in inganno il filosofo della scienza; ma l'inganno cessa non appena li si consideri nel quadro complessivo della teoria quantistica, che ha dato mille prove di saper aprire le nostre indagini, non di sbarrarle entro confini prestabiliti. Siamo finalmente in grado di chiarire il problema, che ha fatto versare fiumi di inchiostro, concernente il carattere idealistico o realistico della nuova fisica. Quanto abbiamo riferito all'inizio del paragrafo vn circa le trasformazioni che la meccanica quantistica impone alla nozione tradizionale di « oggetto fisico » è, ovviamente, ineccepibile. Essa ha dimostrato infatti, in modo che non può venire contestato, l'infondatezza della pretesa di trasferire automaticamente ai microoggetti le caratteristiche che siamo soliti attribuire agli oggetti dell'esperienza quotidiana (che sono, d'altra parte, i soli oggetti studiati dalla fisica classica). Ma un conto è accogliere queste trasformazioni, e un altro, ben diverso, è sostenere che esse ci costringerebbero ad abbandonare la concezione realistica, rinunciando a vedere nella fisica una scienza capace di farci conoscere (sia pure in modo relativo) un essere indipendente dal soggetto che conosce. È stato più volte sostenuto che l'impossibilità di operare una netta distinzione fra strumento di osservazione e sistema osservato (impossibilità che sta alla base della meccanica quantistica) imprimerebbe alla nuova fisica un carattere prettamente idealistico. Ma le cose non stanno affatto cosi. Tale impossibilità non ci dice invero che lo strumento di osservazione crei il sistema osservato; ci dice soltanto che questo sistema rivela proprietà diverse (ora corpuscolari e ora invece ondulatorie) a seconda che venga osservato con un tipo o con un altro tipo di strumenti. Ci dice, in altri termini, che la realtà indagata dalla fisica è in grado di fornirci risposte diverse a seconda dei diversi mezzi di osservazione che usiamo per registrare le sue proprietà; ma non che queste risposte provengano da noi. Il realismo metafisica aveva in effetti sostenuto che noi riusciremmo a cogliere le proprietà dell'oggetto nella loro assolutezza, onde potremmo raggiungere una conoscenza completa e totale di esso. Ma il realismo moderno (si ricordi in proposito quanto abbiamo spiegato, esponendo nel capitolo rv del volume settimo il pensiero di Lenin) non sostiene affatto questa tesi; afferma, al contrario, che le nostre conoscenze sono sempre relative, e proprio perciò integrabili. Dal suo punto di vista non vi è quindi alcuna difficoltà né ad ammettere che le proprietà da noi riscontrate nella realtà siano relative al metodo con cui la osserviamo, né ad ammettere che un qualsiasi mezzo da noi usato per osservarla non sia in grado di farci cogliere simultaneamente tutte le proprietà da essa possedute. La tesi centrale del realismo moderno è un'altra: è che la conoscenza scientifica ci pone innanzi a risultati che non dipendono per intero dal soggetto conoscente, ossia che rivelano l'esistenza di una realtà irriducibile a quella di tale soggetto.
439
www.scribd.com/Baruhk
Problemi filosofici della matematica e della fisica odierne
Orbene la fisica quantistica non risulta affatto diversa, da questo punto di vista, dalla fisica classica. Al contrario, proprio perché ci fa scoprire nel sistema osservato un comportamento assai lontano da quello che ci saremmo attesi in base agli schemi tradizionali della scienza, proprio perché - in altri termini ci costringe a mutare le categorie precedentemente usate per rappresentare gli oggetti fisici (pena il disaccordo più completo fra previsioni teoriche e verifiche sperimentali), essa dimostra che la conoscenza scientifica non è esclusivamente un prodotto umano. Il fatto, poi, che tale fisica ci abbia permesso di conseguire un dominio effettivo sui processi naturali enormemente superiore a quello fornitoci dalla fisica classica, dimostra in modo incontestabile che le conoscenze raggiunte per suo mezzo costituiscono una nuova, notevolissima, approssimazione della realtà. Negare questa maggiore approssimazione sarebbe ridicolo; ammetterla significa dare atto, con Lenin, che la scienza è veramente in grado - nel suo laborioso sviluppo - di farci passare da conoscenze « relative, transitorie, approssimate » ad altre « più complete, più precise ». In conclusione, è il progresso stesso constatabile nel trapasso dalla fisica classica a quella quantistica, a dimostrarci che la natura non costituisce affatto un enigma inconoscibile, ma una realtà che può venire da noi sempre meglio conosciuta, purché non si pretenda di rinserrarla entro schemi « intuitivi » precostituiti (ossia entro quadri concettuali che una pigra tradizione è solita presentarci come « evidenti »), ma si sia francamente disposti a modificare le nostre categorie scientifiche in base ai dettami stessi dell'esperienza.
www.scribd.com/Baruhk
CAPITOLO SETTIMO
Nuovi aspetti della cosmologia DI UGO GIACOMINI
I ·LA RINASCITA ODIERNA DELLA COSMOLOGIA
A partire dal I9I7 la cosmologia è tornata ad essere oggetto di numerosi studi, che si concludono con la formulazione di nuovi modelli di universo. Si definisce «cosmologia» la scienza che studia la forma dell'universo e le leggi di questo, ed è distinta dalla « cosmogonia », scienza delle origini dell'universo, anche se molti modelli cosmologici comportano delle tesi sull'origine dell'universo. Il fiorire moderno degli studi cosmologici ha inizio nel I 9 I 7 con la memoria, Kosmologische Betrachtungen zur allgemeine Relativitiitstheorie (Ricerche cosmologiche sulla teoria della relatività generale), presentata da Einstein all'accademia delle scienze di Berlino. In questa memoria, servendosi della teoria della relatività generale, Einstein descriveva l'universo come un insieme di materia diffusa in maniera omogenea, raggruppata in galassie, e sottoposta a certe leggi particolari. Da allora molti astronomi e matematici hanno proposto altri « modelli », anche assai diversi da quello di Einstein. Bisogna qui sottolineare che, dalla fine del Settecento, la cosmologia era trascurata e che, in genere, la si considerava come una scienza «metafisica», con tutte le connotazioni negative che venivano date a questa parola nell'età posi tivista. La rinascita della cosmologia si può spiegare con l'estendersi del metodo scientifico a questioni che sembravano prive di senso entro una mentalità scientista di tipo ottocentesco; infatti la cosmologia veniva confusa con la filosofia della natura intesa in senso romantico, e questa confusione si è protratta fino alla metà dell'Ottocento. Dobbiamo oggi constatare l'esistenza di molti studi concernenti questa disciplina: si potrà concludere, dopo un esame particolareggiato di questi studi, o che essi non hanno senso o che lo hanno ed avanzano problemi filosofici nuovi. Pur lasciando aperto, per il momento, il problema del significato di questi 441
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
studi, notiamo subito che la loro valutazione è del massimo interesse per chiunque voglia farsi un'idea del ragionamento scientifico moderno. II · BREVE RICHIAMO AI PRINCIPALI MODELLI COSMOLOGICI DEL PASSATO
Com'è noto, l'esistenza di una speculazione cosmologica non è propria dell'età moderna: vi furono già nel passato vari periodi in cui si posero i problemi dell'origine e delle leggi dell'universo. Per comodità del lettore, che può farsi un'idea più approfondita sui modelli d'universo leggendo le parti ad essi dedicate nelle sezioni precedenti, riassumiamo brevemente i principali modelli cosmologici del passato. Nei miti babilonesi ed assiri troviamo espressa un'idea assai simile a quella che compare poi nella Bibbia: l'universo ha avuto origine da una creazione divina, in un certo periodo di tempo. La sua forma era paragonata a quella di una vasta camera, il cui soffitto era il cielo e il pavimento la terra. In questo modello, come- Jn quelli egiziani, l'universo ha una direzione verso l'alto e una verso il basso, ed ha senso in esso parlare di destra e di sinistra perché queste direzioni vengono considerate privilegiate e valide ovunque. Il centro di questo universo è la regione babilonese o egiziana, a seconda del creatore del modello. Vi è dunque non solo una forte accentuazione dell'antropocentrismo, ma ha addirittura senso concepire questo universo come una replica della terra, con direzioni preferenziali come « alto » e « basso ». Dal v al m secolo a.C. i greci elaborarono un modello di universo a sfere concentriche, al cui centro era posta la terra. Il modello geocentrico rappresentò, nell'età antica, il tipo normale di universo, benché alcuni scienziati eterodossi, come Aristarco, abbiano opposto un modello eliocentrico a quello prevalentemente accettato. Ricordiamo, oltre al geocentrismo, anche un altro carattere del modello cosmologico greco, dovuto ad Aristotele: questo modello che inizialmente era stato proposto da astronomi come Eudosso quale modello prevalentemente matematico, per la previsione del moto dei pianeti, fu da Aristotele sostanzializzato ed inserito in una concezione generale del mondo fisico. Così le sfere eudossiane, che erano modelli matematici, furono pensate da Aristotele come sfere di materia purissima sulle quali stavano « incastonati » i pianeti. Notiamo che, nei confronti del sistema babilonese, quello greco non prevede più un centro dell'universo identificabile sulla superficie della terra: ora è tutta la terra il centro del sistema, con un'evidente diminuzione di importanza del motivo antropocentrico. Vi sono dunque due posizioni importanti nella cosmologia antica: una derivata dall'astronomia e connessa ai metodi di misurazione, l'altra invece, 442
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
quella aristotelica, che fa della cosmologia una parte della filosofia della natura e che, a volte, usa dei risultati astronomici solo come conferma di idee raggiunte per via aprioristica. Il passaggio dalla concezione classica a quella rinascimentale nella cosmologia è stato giustamente definito come passaggio dal mondo chiuso all'universo infinito. Ricordiamo che uno dei .maggiori contributi di Copernico, oltre alla creazione di un modello eliocentrico, che ancora una volta ci indica l'abbandono dell'antropocentrismo quale linea fondamentale della storia della cosmologia, è la teoria del moto dei pianeti che anticipa in parte quella di Keplero. Anche l'opera di Leonard Digges (I p o-58) vuole essere inclusa nella storia della moderna cosmologia perché rappresenta per la prima volta le stelle come entità primarie dell'universo, allontanando l'attenzione dell'astronomo dal sole e dai pianeti. Egli prendendo come base il modello eliocentrico di Copernico, afferma che le nuove idee astronomiche consentono di considerare l'universo come composto da infinite stelle. Questa affermazione è importante perché mostra la possibilità, in termini di astronomia copernicana, di rovesciare un aspetto tipico della cosmologia classica qual era la credenza che l'universo fosse spazialmente limitato dalla sfera delle stelle fisse. Newton non elaborò un modello cosmologico, ma fornì un grande strumento di spiegazione con le sue ricerche matematiche e con la teoria della gravitazione universale. Toccò a Laplace compiere l'analisi dei problemi meccanici necessari- come egli stesso scrive- ad « offrire una soluzione completa del grande problema matematico presentato dal sistema solare e portare la teoria a coincidere così esattamente con l'osservazione, che le equazioni empiriche non avrebbero più trovato posto nelle tavole astronomiche». Anche William Herschel (1738-18zz), astronomo reale inglese, che fu il più grande osservatore del secolo, arrivando a supporre l'esistenza di galassie, ossia di vastissimi raggruppamenti di stelle (che egli però riteneva interni alla via lattea), portò senza dubbio un grande contributo concettuale alla cosmologia. Pur non elaborando nessuna spiegazione sistematica del mondo galattico, cercò di applicare la meccanica newtoniana alle galassie, preparando le basi per altri sviluppi cosmologici. La tendenza dell'astronomia moderna è stata quella di abbandonare l'idea di un centro nel mondo, di perfezionare l'apparato matematico e i mezzi di osservazione, senza per altro sostituire al modello aristotelico un altro modello di universo. Ciò si vede soprattutto nel secolo scorso, in cui non vi furono teorie cosmologiche generalmente accettate, ma un accumularsi di risultati che forniranno utile materia di discussione, quando, dopo il 1917, le teorie cosmologiche cercheranno la loro conferma nelle osservazioni.
443
www.scribd.com/Baruhk
III · LA CONNESSIONE FRA TECNICHE OSSERVATIVE E MODELLI COSMOLOGICI
Gli sviluppi della cosmologia sono sempre connessi con le osservazioni astronomiche. Questa verità è particolarmente chiara per chi studia la storia dell'astronomia del XIX secolo e nota la grande differenza fra questo tipo di studi e quello dei secoli precedenti. Possiamo ben dire che nel secolo scorso ha avuto luogo una seconda rivoluzione copernicana che ha soppiantato il sole come centro del mondo, prima a favore della nostra via lattea (considerata come la maggiore fra tutte le galassie) e poi a favore di un'eliminazione del concetto di centro dell'universo. Ma vi è di più: soltanto nel secolo scorso l'invasione delle tecniche fisicochimiche in campo astronomico trasforma le conoscenze astronomiche da pura osservazione in sperimentazione da laboratorio. Accanto all'astronomia matematica si stabilisce una nuova concezione della disciplina astronomica, quella fisico-sperimentale. Uno dei punti principali di questa rivoluzione consiste nell'introduzione della fotografia per opera di Fizeau nel I 84I, che voleva studiare con questo mezzo le macchie solari. Dal I 8 84 i fratelli Paul e Prosper Henry iniziano la fotografia stellare combinando un apparecchio fotografico con un telescopio che segue meccanicamente il corso delle stelle. Il numero delle stelle a noi note cresce così enormemente, perché l'apparecchio fotografico si rivela assai più sensibile, in una lunga esposizione, dell'occhio umano. Nascono le carte fotografiche del cielo, nelle quali vengono registrate fino a trenta milioni di stelle. Perciò l'astronomia divenne una scienza nuova rispetto a prima: fu possibile fotografare oggetti stellari posti a grande distanza dalla terra, e le stelle a luminosità variabile, di cui divenne possibile determinare la natura di stelle doppie. La seconda applicazione della fisica all'astronomia si ebbe nella spettroscopia, basata sull'analisi spettrale introdotta in forma sistematica da Kirchhoff nel I859· Gli spettri di un metallo portato a incandescenza si rivelano dotati di particolari caratteri che si ritrovano negli spettri di tutti i corpi che posseggono quel metallo. L'applicazione di questo principio al sole e alle stelle consentì un notevole successo all'astronomia stellare: furono infatti determinate tre categorie di stelle, quelle bianche, quelle gialle e quelle rosse. Rivelatosi il sole come una stella di seconda categoria, l'importanza che aveva detenuta per secoli nell'economia dei modelli cosmologici diminuì di molto, finendo per apparire una stella di grandezza mediocre e non più qualcosa di eccezionale nell'universo. La possibilità data dalla spettroscopia all'astronomia di classificare le stelle
444
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
in pochi gruppi fondamentali, aprì poi la via all'applicazione dell'idea evoluzionistica alle stelle. I vari gruppi di stelle apparvero come gruppi di stelle in diversi momenti della loro esistenza. In linea di massima sembra che la temperatura delle stelle diminuisca regolarmente nei gruppi successivi della scala evolutiva. Questo tipo di risultati, in cui si vede applicare agli astri un'ipotesi scientifica nata sulla terra per spiegare il legame fra le specie animali, è importante anche perché ha in sé il germe di future considerazioni cosmologiche; in questi studi anche la singola stella è considerata un caso particolare di una legge generale, valida per tutte le stelle. Vedremo che lo stesso accadrà, nel xx secolo, anche per le galassie. La più importante applicazione della spettroscopia fu senza dubbio quella che consentì di misurare le distanze delle stelle con metodi ben più efficaci di quelli ottici e trigonometrici, in uso fino a quel momento. Nel 1916 Walter Sydney Adams (1876-1956) in America ammise che, sapendo con i vecchi metodi le distanze dalla terra di due stelle dello stesso tipo spettrale, si può calcolare la magnitudine assoluta (ossia la misura della lucentezza di una stella vista da un punto fisso distante convenzionalmente 32,6 anni luce da ogni corpo celeste) di tali stelle. Supponendo che le distanze delle due stelle e le loro magnitudini siano di ordine assai diverso, si dovrebbe ritrovare l'effetto di queste diversità anche nei loro spettri. Poiché tale supposizione si rivelò esatta, Adams riuscì a calcolare da allora in poi le distanze di qualunque oggetto partendo dall'esame del suo spettro, senza bisogno di usare altri metodi. Altrettanta importanza ebbe la spettroscopia nel ricercare i diametri delle stelle, le masse, i volumi. Nella prima metà del nostro secolo, sempre attraverso questi metodi fisici, è stato possibile determinare che il nostro universo va ben più in là del sistema solare, essendo formato da tutte le stelle osservabili sia ad occhio nudo. sia fotograficamente o con i radio-telescopi. Fin dal tempo di William Herschel si è supposto che le stelle siano raggruppate nella via lattea come si è accennato nel paragrafo n. Si riteneva che il sole fosse in posizione privilegiata entro questo sistema di stelle. La dimensione della galassia e la posizione del sole hanno dato luogo a numerosi studi, tra cui quelli di Carl Charlier (186z-1934) nel 1914 e di Harlow Shapley (n. 1885) nel 1919, i quali hanno concluso che il sole si trova in una posizione laterale entro la nostra via lattea, e non già al centro, come veniva supposto da un'ultima difesa antropocentrica. Vi è di più: nel nostro secolo la scoperta di nuove tecniche per produrre degli specchi sferici ha aperto la corsa ai grandi telescopi, conclusasi nel I 949 con la creazione del telescopio di Monte Palomar; l'impiego di orologi a quarzo, iniziato nell'osservatorio di Greenwich, ha permesso delle misurazioni del tempo sempre più accurate. 445
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
Infine, tra i più reèenti mezzi al servizio dell'astronomia ricordiamo i ricevitori di onde-radio, o radiotelescopi, che captano i segnali emessi dai corpi celesti. Tutto questo insieme di nuovi apparecchi ha consentito il superamento della stessa ipotesi galattica, poiché i nuovi strumenti sono in grado di captare segnali di oggetti posti oltre i limiti calcolati per la galassia. Le nebulose extragalattiche, studiate da Lord William Parsons (I 8oo-67) e poi da Edwin Powell Hubble (1889-195 3), sono state dapprima ritenute come oggetti facenti parte della nostra galassia; solo più tardi si è capito che esse erano al di là dei confini della via lattea, e che questa deve esser considerata una galassia uguale alle altre sotto tutti gli aspetti. Lo spettro di queste galassie rivela delle righe spostate verso il rosso, e questo per una legge, dovuta a Christian Doppler (1803-53), è indice di un loro allontanamento dall'osservatore. I risultati dell'astronomia moderna consentono allo studioso di rilevare il rapporto assai importante che passa tra i mezzi tecnici e le considerazioni teoriche. È bensì vero che il legame tra modelli cosmologici e dati dell'osservazione si può scorgere anche per le epoche passate, perché ogni modello corrisponde all'interpretazione di certi dati osservativi, ma è altrettanto vero che nell'età moderna questo legame si è fatto anche più stretto, al punto che non ha più senso parlare di universo al di fuori di quelle osservazioni e quei risultati che vengono ottenuci con gli strumenti moderni. Tutti questi nuovi sviluppi avevano reso l'astronomia del XIX secolo una realtà profondamente diversa da quella del secolo precedente: assai più ricca e piena di ipotesi nuove. Eppure l'astronomia dell'Ottocento non diventa mai cosmologica, ossia tutte queste novità astronomiche, anche se esorbitano dai limiti dell'astronomia rinascimentale e settecentesca, non vengono spiegate come caratteri di un tutto unitario: il cosmo. Possiamo individuare due cause di questo mancato sviluppo della cosmologia: in primo luogo il fatto che, nell'Ottocento, era ancora molto importante quel tipo di studi prevalentemente filosofici, che vanno sotto il nome di filosofia della natura, e i sospetti degli scienziati verso questa disciplina li rendevano molto cauti verso una concezione generale del cosmo non garantita da prove sperimentali; in secondo luogo il fatto che il secolo scorso è stato un periodo di raccolta di dati e di evidenze scientifiche che non rientravano nell'ambito di una mentalità come quella che, nel Settecento, aveva fornito l'ultima grande struttura matematica in cui far rientrare i fatti sperimentali. È interessante osservare che solo nella seconda metà dell'Ottocento, con l'opera di Parsons, fu possibile stabilire l'esistenza di galassie esterne alla via lattea e attribuire ad esse il nome di nebulose extragalattiche. Pochi anni dopo, nel 1914 Henry Norris Russell (1877-1957) mostrò che una stella passava attraverso processi evolutivi di nascita e sparizione, collegati con
www.scribd.com/Baruhk
AMMASSO DI
DISTANZA IN ANNI-LUCE
SPOSTAMENTO VERSO IL ROSSO
43.000.000
1200 KM/SEC
VIRGO
l ll 560.000.000
11:--
-
ll
l ll l
'l
l 11 1
14.900 KM / SEC
URSA MAJOR .
l
l
---
728.000.000
1
l
l
l
l
21.400 KM /SEC
CORONA BOREALIS
l Il ;
Il l -----
1.290.000.000
1li
l ll l
ll
l ll l
39.000 KM/SEC
BOOTES
l ll 1.960.000.000
ll ~~
l
' l
........ ,...
-~
l ll
!
l
l
l
l
61.000 KM/SEC
Rapporto tra lo spostamento verso il rosso (espresso come velocità) e la distanza nelle nebulose extragalattiche. La coppia di righe scure H e K si sposta sempre più verso destra (rosso) per le galassie più deboli, più piccole e più lontane: fotografie dell'Osservatorio di Hale.
cadute della temperatura. Nel I924 Arthur Stanley Eddington (I882-I944) calcolò che se una stella è gassosa la sua radiazione totale dipende dalla massa più che dal diametro, perché, se si contrae, la sua area esposta decresce in modo tale da bilanciare la temperatura accresciuta. Tutte queste nuove teorie furono rese possibili dai nuovi metodi con cui, verso il I 9 I 4, si poterono stimare le distanze di stelle troppo distanti per il metodo della parallasse. Molte delle stelle di luminosità regolarmente variabile appartengono al tipo di stelle doppie, che periodicamente si eclissano l'una con l'altra; ma ciò non è vero per un certo tipo di stelle, le cefeidi, perché il conside447
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
rade in tal modo darebbe una errata funzione del rapporto fra tempo e luminosità. Esse invece, quando le loro distanze sono conosciute, mostrano una precisa relazione tra la lucentezza assoluta e il loro periodo di variazione. Questo consentì di usarle come elementi per la misurazione di distanze molto grandi, e il metodo della luminosità variabile sostituì quello delle parallasse. Con tali metodi fu possibile, verso il I 9 I 8, stimare la grandezza della forma della nostra galassia, che è in lento moto rotatorio probabilmente sotto l'azione dei corpi circostanti, alcuni dei quali danno segno di essere lontani 108 anni-luce. IV · LA COSMOLOGIA RELATIVISTICA E I SUOI PRINCIPALI MODELLI DI UNIVERSO
Come già si disse, il I 9 I 7 segna la data di inizio della moderna cosmologia perché in quell'anno Einstein, presentando la sua memoria all'accademia delle scienze di Berlino, riaprì il problema della forma del mondo fisico e propose per esso una soluzione. La memoria era un insieme di ipotesi sulla natura della gravitazione e sulla distribuzione della materia nello spazio. Come il lettore può vedere nel capitolo XIV del volume sesto, uno dei principali risultati della teoria della relatività generale è l'ident~tà fra massa inerziale e massa gravitazionale di un corpo. Questa identità elimina l'idea di una forza gravitazionale e riduce la gravitazione a un particolare movimento del corpo entro uno spazio delimitato da masse di materia. L'idea risaliva a Mach, ma Einstein l'aveva sviluppata servendosi di un'accurata indagine dei concetti di spazio e di tempo. La memoria parte dal presupposto che la materia nello spazio sia uniformemente distribuita, e questa assunzione è molto distante da quella tipica del XIX secolo secondo cui i corpi sono necessariamente gruppi di materia. Inoltre si suppone che non esistano « forze » in senso newtoniano, ma che le particelle di cui è composta la materia si muovano liberamente lungo certe direzioni spaziali. Nella concezione di Hugo von Seeliger (I 849- I 924), celebre astronomo di tendenza newtoniana, l'universo era un'isola di materia in uno spazio infinito. Questa concezione urta contro certe difficoltà insormontabili nell'ambito della fisica newtoniana perché tutta la materia tenderebbe a concentrarsi in un 'unica massa. Nel modello di Einstein questa difficoltà invece è superata. Infatti quando lo spazio viene supposto curvo la distribuzione uniforme della materia non implica la presenza infinita di materia né la sua tendenza a riunirsi in un'unica massa. Il modello di Einstein aveva ino.ltre come caratteristiche l'isotropia e l'omogeneità; con la prima si intende che lo spazio entro cui è posta la materia è uni-
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
forme in tutte le direzioni e con la seconda che in volumi uguali di questo spazio le quantità di materia sono costanti. Bisogna ora vedere quali sono i punti salienti di questo modello, oltre ai due già citati. La semplificazione estrema del modello nei confronti del mondo reale consiste in questo: le galassie, che vengono considerate nell'astronomia i più ampi raggruppamenti di stelle, nell'ambito del modello einsteiniano sono considerate come i minimi costituenti dell'universo. Questa arditissima semplificazione discende dall'ipotesi fondamentale di Einstein che la distribuzione della materia sia costante e con densità tendente verso lo zero. In pratica creando un modello di universo, come Einstein stesso ebbe a dire, si compie una operazione simile a quella del cartografo che disegna un mappamondo e trascura nel modello molte delle fattezze dell'originale. Non compaiono sul mappamondo le altezze delle montagne, i mari non sono fatti d'acqua, e così via. Anche il :risultato dell'operazione del cosmologo è un modello altamente astratto, in cui è però possibile, servendosi di opportune interpretazioni, ritrovare tutti gli elementi che compaiono nell'originale e le principali relazioni che intercorrono tra essi. Altro punto importante è l'uso di un insieme di coordinate non euclidee per descrivere il moto e la posizione delle particelle. Come mai Einstein ha scelto questo tipo di descrizione matematica? Chi legge il capitolo dedicato allo scienziato, vedrà che egli aveva frequentato a Zurigo nel 189 5 i corsi di Hermann Minkowsky, che per primo aveva elaborato un modello matematico dello spazio a quattro dimensioni, cercando di darne un'interpretazione fisica. È importante in modo particolare l'uso dei tensori, che permettono, con un simbolismo matematico assai conciso, di esprimere il moto di un punto entro un sistema di coordinate qualsiasi. La geometrizzazione della fisica compiva così un importante passo avanti; questo simbolismo verrà poi mantenuto da tutti i cosmologi successivi, tranne alcuni che tenteranno di costruire dei modelli newtoniani. L'origine di queste geometrie non euclidee è stata spiegata nei volumi terzo e quarto; il fatto che bisogna qui sottolineare è che esse vengono usate con un significato fisico. Il modello di Einstein ha perciò consentito di eliminare alcune delle domande tradizionali che venivano poste ad ogni tipo di modello di universo newtoniano. Così, per esempio, non ha più senso chiedersi cosa c'è« fuori» dell'universo, perché con il particolare tipo di geometria non euclidea usata, quella riemanniana, esso deve essere considerato finito ma illimitato. La distinzione così introdotta tra finitezza della massa materiale dell'universo e sua infinità di distribuzione vanifica il problema del «dentro» e del «fuori» dell'universo in
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
quanto in qualunque direzione si muova un corpo nell'universo, esso tornerà, qualunque sia il suo percorso, al punto di partenza. Tuttavia Einstein non affermò che la geometria dello spazio dell'universo fosse ovunque ellittica; piuttosto sottolineò che il nostro universo si comporta analogamente a una superficie liquida mossa, che si presenta come piana in un luogo e in un altro irregolarmente curva. Ciò vuol dire che la geometria euclidea può valere per ristrette porzioni di spazio. Un carattere particolare di questo modello è la staticità. Si intende con questo che nel modello di Einstein non avvengono variazioni nel corso del tempo, se non a livello locale. La staticità è l'indifferenza dei moti della materia a livello locale nell'insieme del modello cosmologico. Con l'ipotesi che i movimenti delle galassie o delle stelle siano trascurabili nell'economia del modello cosmologico si semplificano notevolmente le equazioni richieste per formulare lo stato di equilibrio del cosmo. Tuttavia è innegabile che vi sia movimento non solo delle stelle, ma anche delle galassie e questo fatto rende il modello einsteiniano nulla piu che una prima approssimazione nella rappresentazione dei fenomeni astronomico-galattici. La negazione della staticità, introdotta nel modello di Willem de Sitter (I87z-1934), segnerà un grande passo avanti nella cosmologia moderna. La peculiare caratteristica del modello di Einstein, ossia la staticità, fu messa in discussione quando, nel 19z5, l'astronomo Hubble scoprì lo spostamento verso il rosso delle righe negli spettri delle galassie. Questo fenomeno, interpretato con la teoria di Doppler, sembra dipendere dalla distanza delle galassie, perché quanto più esse sono lontane, tanto più grande è lo spostamento degli spettri e tanto più la loro « velocità di fuga » da un osservatore posto sulla terra sembra maggiore. Se consideriamo l'universo di Einstein, vediamo che l'idea di isotropia e di omogeneità di quest'universo stabile non lascia posto per l'interpretazione dello spostamento verso il rosso; quindi il modello di Einstein non serve e deve esser sostituito da un modello non più statico ma dinamico. Due mesi dopo la pubblicazione della memoria di Einstein, de Sitter ne metteva in discussione il valore mostrando che la costante cosmologica introdotta da Einstein non valeva nel caso in cui si fosse supposto che la struttura spaziale dell'universo fosse vuota. Per ovviare a questo inconveniente (d'altronde spiegabile in base al fatto che la teoria di Einstein era solo una prima approssimazione alla descrizione dell'universo) de Sitter criticava l'idea einsteiniana di sfericità dello spazio (sfericità a quattro dimensioni). De Sitter sottolineava il fatto che la quantità di materia supposta presente da Einstein era enormemente superiore ai dati sperimentali. Egli presentava le le sue critiche come una possibile soluzione alternativa a quella di Einstein; ma da esse risultava una maggiore coerenza fra assiomi matematici e assiomi fisici che non dalle Kosmologische Betrachtungen (Considerazioni sulla cosmologia). 450
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
Soprattutto, Einstein aveva costruito un modello di universo sul presupposto che la materia fosse staticamente in riposo. Nel modello di de Sitter, per quanto ciò non risultasse subito chiaro, era contenuta l'idea di movimento dello spaziotempo. Successivamente i due scienziati collaborarono per creare un nuovo modello che tenesse conto delle obiezioni di de Sitter, ma salvasse il principale esposto di Einstein, ossia il legame fra materia presente in certe regioni di spazio e curvatura spazio-temporale di quelle regioni. L'idea principale contenuta nel modello di de Sitter era quella di espansione continua, secondo la quale l'universo non è affatto statico, ma si «muove» nello spazio-tempo, comprendendo regioni sempre più vaste di questo. L'idea è importante perché segna l'apertura del discorso cosmologico verso il pt_oblema della conservazione dell'energia, che tante discussioni aveva suscitato nel xrx secolo. In che modo l'universo passa da uno spazio-tempo più ristretto ad uno più vasto? Donde viene l'energia per questo movimento? V ed remo poi, discutendo la cosmologia « nuova », che questi problemi possono trovare risposta solo a prezzo di grandi modificazioni metodologiche nel discorso cosmologico. Va a de Sitter il merito di aver proposto un modello in cui il problema del movimento dell'universo è messo al centro dell'interesse scientifico. Un tentativo assai diverso da quello Einstein-de Sitter fu quello compiuto dall'astronomo e matematico inglese Eddington. Possiamo chiamare <
4P www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
distanza che, in prima approssimazione, viene data dallo spostamento verso il rosso dei loro spettri. Questo fatto poteva essere spiegato naturalmente dall'universo di de Sitter, mentre non trovava spiegazione in quello di Einstein. In questo periodo tuttavia, verso il I930, l'assunto che lo spazio-tempo non variasse con il tempo era stato abbandonato. Alexandr Friedmann (I888-I925) aveva esaminato un modello non statico di universo nel I922 e Georges Lemaitre (n. I 894) aveva applicato nel I 92 7 questa idea anche ai problemi della cosmologia. Nascevano dei modelli in cui la recessione delle nebulose era spiegata con l'espansione dello spazio-tempo. In questi tentativi fu mantenuta l'idea essenziale di geometrizzazione che collega la forma dello spazio-tempo alla distribuzione delle particelle. Dal I933 Edward Arthur Milne (I896-I95o) cominciò ad esaminare la dipendenza tra questi due campi della cosmologia e mostrò che, trascurando idealmente le collisioni e la gravità, ogni insieme di particelle che si muove a caso in una regione finita di spazio si comporta in modo che le particelle sembrano recedere le une dalle altre secondo la relazione di Hubble che, come abbiamo già visto, collega lo spostamento verso il rosso degli spettri delle galassie alla loro velocità di fuga con una relazione matematica, secondo la quale le galassie più lontane dall'osservatore sembrano muoversi più in fretta. Milne propose una più serrata analisi del concetto di omogeneità e definì come osservatore ogni entità che, con un semplice sistema di segnali luminosi, può calibrare i suoi orologi con un altro osservatore; costruì poi facilmente un sistema in cui un osservatore idealmente posto su ogni particella potrebbe pensare di essere circondato in ogni lato da infiniti altri osservatori in recessione, sicché i più lontani gli parrebbero viaggiare alla velocità della luce. Questi osservatori si troverebbero posti su di una sfera, dal punto di vista del primo osservatore, ma poiché l'unico mezzo a disposizione di un osservatore per misurare la distanza delle particelle che fuggono da lui è la radiazione luminosa da esse emessa, l'universo misurato in questa maniera risulterebbe irriconoscibile all'osservatore ai suoi confini estremi poiché le particelle più esterne avrebbero raggiunto la velocità della luce. Il calcolo matematico risulta però tale che alcuni osservatori dell'universo di Milne sarebbero privilegiati rispetto ad altri, contrariamente a quella che era la sua principale ipotesi. E poiché nella sua cosmologia non vi è una semplice spiegazione della gravitazione, il suo punto di vista (cosmologia cinematica) venne abbandonato in favore delle ricerche sui tensori e sulla relatività generale. Malgrado la complessità dei calcoli matematici della teoria, il modello cosmologico di Milne si fonda su una formulazione speciale del principio cosmologico che prende questa forma: la totalità delle osservazioni che ogni osservatore fondamentale può compiere per mezzo dei suoi strumenti è identica a quella che può compiere ogni altro osservatore. 452
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
Anche il logico Kurt Go del (di cui già si è parlato nel capitolo v) ha ideato un modello cosmologico che presenta molte caratteristiche interessanti. Poiché il vettore che simboleggia la rotazione nel calcolo non svanisce, a differenza di quanto avviene nei modelli di Friedmann (che riassumono quasi tutti i modelli relativistici), non è possibile introdurre un «tempo» cosmologico. Oltre a ciò, esistono nel modello di Godei delle geodetiche chiuse, che consentirebbero alla stessa particella di viaggiare nel suo proprio passato. Ma la caratteristica più interessante è forse questa: si può affermare che la materia è in uno stato di rotazione assoluta. Questa situazione contraddice chiaramente il principio di Mach e mostra anche che la teoria della relatività generale non è logicamente connessa colla sola soluzione di abolizione dello spazio assoluto. V· LA NUOVA COSMOLOGIA E I MODELLI DELL'UNIVERSO IN STATO STAZIONARIO
Negli anni recenti anche la concezione «ortodossa» di Einstein è stata sfidata da coloro che sostengono le teorie non ortodosse (relativamente all'insieme delle scienze del mondo fisico) basate sull'ipotesi di una continua apparizione di nuova materia. Secondo una di queste teorie, dovuta a Pascual Jordan, la nuova materia appare in forma di stelle, secondo altre teorie invece essa appare nella forma di molecole di idrogeno con un tasso statisticamente uniforme in modo tale che l'universo nel suo complesso resta in uno stato stazionario, nel senso che ora spiegheremo. Le galassie retrocedendo le une dalle altre, riducono la quantità di materia estendendola in spazi sempre più grandi e questa rarefazione è bilanciata dalla tendenza della nuova materia a concentrarsi nello spazio vuoto. Quando queste idee furono diffuse in Inghilterra nel I948, uno degli argomenti principali citati in favore di tale ipotesi fu che essa permetteva un tempo maggiore per l'evoluzione stellare di quello c~nsentito dalla teoria ortodossa dell'universo in espansione. Sono diversi i punti in cui la nuova cosmologia si distacca da quella einsteiniana. In primo luogo, mentre nella teoria di Einstein-de Sitter e nelle teorie relativistiche classiche lo spostamento verso il rosso dello spettro delle nebulose veniva studiato secondo il metodo di Hubble (basato sull'effetto Doppler e sulla recessione delle galassie), la nuova cosmologia interpreta lo spettro rosso secondo un'idea di Fritz Zwicky (n. I 898) per la quale la luce delle galassie distanti diventa rossa a causa dei campi gravitazionali proprio come, secondo la teoria di Einstein, anche la luce del sole è resa lievemente rosseggiante dal campo solare. Un secondo motivo di differenza è quello sull'età dei materiali che compongono l'universo. Le teorie classiche, adottando le determinazioni di Hubble sulla distanza delle galassie, concludono che il tempo trascorso da quando le galassie erano nel loro stato «originario» è di duemila milioni di anni. Nel I 929, quando questa 45 3
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
cifra fu calcolata, non vi furono particolari difficoltà, ma negli ultimi dieci anni si è posto sempre più in evidenza che l'età della terra, ricavata dallo studio degli isotopi dell'uranio, e l'età di molte stelle, dedotta dalla teoria della generazione stellare, sono molto più grandi di quella cifra. Poiché, secondo la nuova teoria, l'età dell'universo è infinita, i nuovi cosmologi diedero grande importanza a questa difficoltà della teoria ortodossa. Un terzo motivo di contrasto riguarda la distanza delle galassie. Nel settembre 1952, nell'assemblea generale dell'Unione astronomica internazionale a Roma, quando Walter Baade (n. 1893) dell'osservatorio di Monte Wilson annunciò che le stime fino allora accettate delle distanze delle nebulose esterne erano inferiori al reale, si pose il problema di rifare le stime di Hubble sulla distanza delle galassie. Un quarto punto di contrasto concerne l'evoluzione del mondo galattico. Sappiamo che oggi tanto le stelle quanto le galassie sono state classificate secondo i modelli statistici, e non è possibile pensare che ogni galassia abbia una storia individuale. La questione dell'evoluzione dell'universo come tale non può essere risultato di osservazione ma di teorie. Nella teoria ortodossa è postulata una genuina evoluzione dell'universo come un tutto, in modo che le regioni più distanti osservate da noi sono considerate parte più vecchia di quelle più vicine. Secondo l 'ipotesi della nuova cosmologia non vi è invece una tale evoluzione. Infatti Hermann Bondi e W.H. Mc Crea, i due più decisi assertori della nuova teoria, ritengono che l'universo osservabile sia simile a quello di miliardi di anni fa, e questo per un motivo fondamentale: che non vi è nessuna differenza nella densità media delle galassie apparentemente più lontane dalla terra e in quella delle più vicine. La ragione per cui la nuova cosmologia nega un'evoluzione dell'universo è che le regioni più lontane possono venir considerate esempi di ciò che un tempo era l'universo, poiché l'immagine che noi abbiamo di esse, a causa delle enormi distanze che la luce deve percorrere, ce le mostra quali esse erano miliardi di anni fa. Ora, la composizione delle galassie lontane non mostra all'esame spettroscopico una diversità essenziale dalla composizione delle galassie vicine nella proporzione di elementi fisici costituenti, e questo prova che dal tempo in cui l'immagine delle galassie è stata prodotta non ci sono state trasformazioni profonde nella costituzione della materia. Questa è dunque una dimostrazione della permanenza dell'universo in una situazione stabile. Un secondo punto importante della nuova cosmologia è il seguente: nell'allontanarsi delle galassie le une dalle altre a grande velocità si dovrebbero creare delle zone di minore concentrazione di materia. Ma lo studio statistico di varie regioni della volta celeste non mostra rarefazioni nel numero delle galassie. Per spiegare la distribuzione uniforme delle galassie la nuova cosmologia presuppone che si crei della materia per riempire i vuoti che dovrebbero esistere. Parleremo a lungo di questo principio più avanti, e ne discuteremo la rilevanza epistemologica. Basti per ora dire che esso è uno dei cardini della cosmologia nuova ed è anche il 454
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
punto più carattenst1co per definire la cosmologia dello stato-stazionario. Con questa espressione si intende proprio il fatto che le teorie più recenti rifiutano il concetto di evoluzione e considerano l'universo, nel suo complesso, una realtà immutabile. Uno dei maggiori esponenti della nuova teoria è Fred Hoyle (n. 191 5) il quale ci dà un'immagine dell'universo che ha nella creazione continua di materia la sua caratteristica fondamentale. La ragione dell'introduzione della teoria dello stato-stazionario non è facile da ricostruire, ma certo può essere stato un modo per sfuggire alle difficoltà delle numerose cosmologie ortodosse. Per molto tempo la sintesi degli elementi chimici all'interno delle stelle era stata pensata come connessa con la singolarità dei modelli relativistici e, per eliminare questa singolarità di tali modelli, la teoria della creazione continua ha introdotto un nuovo modo per l'apparizione degli elementi. La particolarità della teoria dello stato-stazionario consiste nell'introdurre l'idea di galassie di diverse età, e quest'idea è stata spesso offerta come prova decisiva per la teoria. Il trovare galassie molto vecchie, più vecchie della media, è considerata una prova in favore della teoria dell'universo stabile, ma naturalmente la densità è solo una prova indiretta della creazione di materia. È bene precisare che l'universo della cosmologia nuova non è statico ma stabile. I modelli dello stato-stazionario non costituiscono cioè un rifiuto (di tipo parmenideo) del movimento,. ma un'accentuazione del valore statistico delle differenze fra le parti del cosmo. Proprio perché le dimensioni di cui tratta la cosmologia non sono galattiche né planetarie, bensì sono su scala extragalattica, i movimenti reali esistenti in regioni « limitate » dello spazio non hanno rilevanza. Abbiamo visto che sia Einstein che Milne e Eddington hanno basato le loro cosmologie sul principio che, a parte minori irregolarità locali, l'universo presenta lo stesso aspetto per tutti gli osservatori da ogni punto dello spazio. Ma perché restringere l'omogeneità alle sole coordinate spaziali? Perché non allargarla fino ad includervi anche l'omogeneità del tempo? Così dicono i sostenitori della teoria dello stato-stazionario dell'universo, e invocano l'adozione di una forma estesa del principio cosmologico. Tale forma del principio è conosciuta come il « principio cosmologico perfetto », per distinguerlo da quello « stretto » o « imperfetto » adottato da Milne. Come dice Jagijt Singh: «Il principio cosmologico perfetto stipula che trascurando piccole irregolarità locali, l'universo vicino e lontano presenti lo stesso aspetto per tutti gli osservatori, da ogni punto dello spazio in ogni tempo. » Questo significa che l'universo non si evolve nel tempo ma rimane sempre simile a quello che possiamo osservare oggi. Questo è un principio euristico, poiché estende al tempo quel criterio che è sempre valso per lo spazio, ossia l'uniformità su vasta scala. Ma poiché, secondo 45 5
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
l'interpretazione della legge di Hubble, l'universo è in espansione, la sola via per riconciliare questo dato dell'osservazione con il principio cosmologico perfetto è quella di postulare una continua creazione di materia per bilanciare la sparizione dei materiali di questa nella continua recessione verso l'infinito delle galassie. Per questo Bondi e Gold sono stati costretti a postulare che la materia è continuamente creata nell'universo dal nulla e appare ovunque per provvedere la materia di base con la quale sono formate le galassie che appaiono a sostituire quelle in sparizione. Ma la conservazione della materia e dell'energia è una delle poche leggi di natura che sono state accettate e continuamente confermate da tutti i rami della fisica. Secondo coloro che hanno concepito il principio cosmologico perfetto questa materia non si rivela perché compare con un tasso troppo piccolo per poter cadere sotto qualunque strumento. L'immagine generale dell'universo è che in esso non vi è principio né fine, ma si formano continuamente galassie nello spazio lasciato libero da quelle che raggiungono e superano la velocità della luce. La teoria dello stato-stazionario è stata violentemente criticata perché stacca in tal modo la cosmologia dalle leggi generalmente accettate nella fisica. La sola via per provare la validità di essa è però quella empirica, cioè quella di investigare le conseguenze astronomiche della teoria. In anni recenti è stato proposto di. conteggiare il numero delle galassie ad una certa distanza relativamente vicina e di paragonado al numero di un gruppo di galassie a distanza lontana. Se i due numeri saranno all'incirca uguali, questa sarà considerata una prova in favore della teoria, perché mostrerà che nuova materia è apparsa nelle parti più vicine per colmare quella eliminata dalla velocità di allontanamento. Indipendentemente dal risultato di queste ricerche è comunque interessante sottolineare come il principio cosmologico perfetto non sia che l'ultima forma presa dal principio di conservazione della materia, anche se all'apparenza sembra il suo esatto opposto, dal momento· che parla di creazione della materia dal nulla. Sulle ricerche di Lavoisier e il risultato generalissimo che egli ne trasse, e sulla estensione del principio di conservazione della materia negli studi di Carnot, Clausius e Lord Kelvin al principio di conservazione dell'energia già si è parlato nei volumi terzo e quinto. Qui ci limitiamo a ricordare che essi sono tra i punti più importanti della fisica classica, quelli che gli scienziati tentano sempre di salvare in ogni trasformazione della fisica. Ora, il principio della creazione continua non è altro che l'ultimo dei grandi principi di conservazione, perché vuole spiegare l'uniformità della distribuzione della materia nel tempo e non esita a postulare la necessità di nuova materia per assicurare questa uniformità di distribuzione.
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
Nulla di più diverso da essa del principio di creazione quale era inteso nell'ambito del discorso religioso: quest'ultimo infatti voleva sottolineare col concetto di creazione l 'insufficienza del mondo materiale c la necessità di un intervento «esterno»; il principio dello steaqy-state vuole invece spiegare la stabilità della distribuzione uniforme per costruir<: un modello cosmologico coerente. Di recente bisogna ricordare lo sviluppo delle concezioni più strettamente astronomiche, sviluppo così impetuoso da far parlare di una vera e propria « rivoluzione » nell'astronomia contemporanea. L'uso dei radiotelescopi ha consentito di captare l'energia emanata da stelle in formazione e dalle sorgenti cosmiche dei tipi più vari. Sempre in sede astronomica lo studio dei nuclei delle galassie, che mostrano quasi sempre una zona centrale di massima densità consente di avanzare nuove teorie, sulle quali peraltro qui non ci soffermiamo, relative alla formazione delle galassie. I problemi più caratteristici della cosmologia davanti a questi fatti nuovi sono: la formazione delle galassie in un universo in espansione, e l'esistenza di singolarità fisiche entro i modelli cosmologici. Questo secondo problema è di tipo più strettamente matematico, mentre il primo è legato anche alle osservazioni astronomiche. Da questo breve sguardo selettivo sui modellÌ cosmologici moderni abbiamo potuto constatare che, dal 1917, le grandi linee della costruzione dei modelli cosmologici sono state in primo luogo la teoria della relatività e, in secondo luogo, la tendenza ad interpretare l'universo come ente che si espande. Lateralmente sono stati fatti dei tentativi per collegare la struttura dell'universo galattico con quella de il 'atomo c delle particelle subatomiche. Tutte le teorie hanno cercato una continua conferma nei risultati dell'astronomia e si sono preoccupate di proporre esperienze astrofisiche o radio-astronomiche per la verifica sia pure parziale del modello. VI • LA RIVOLUZIONE COSMOLOGICA E LE NUOVE IDEE DI MATERIA DOPO IL
1966
Nell'ultimo decennio i problemi derivati dalla ricerca scientifica applicata alla cosmologia sono quelli relativi ai nuovi tipi di oggetti galattici caduti man mano sotto l'osservazione. I metodi applicati e le ricerche teoriche derivate da queste nuove e quasi incredibili tecniche d'osservazione non possono essere trattati qui da un punto di vista tecnico. Basti ricordare per sommi capi la natura di questi nuovi oggetti: la radiazione fossile, i quasars, le stelle solide, i pulsars, i buchi neri. La differenza fra l'immagine odierna dell'universo perennemente esplosivo e quella che si aveva una generazione fa, secondo cui galassie isolate si allonta457
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
navano le une dalle altre sempre di più e dove il mutamento interno alle galassie avveniva seguendo una legge fissa di evoluzione stellare, è veramente molto grande. Un argomento importante è quello dell'abbondanza dell'elio, che è in accordo con l'ipotesi di una esplosione primordiale, poiché la presenza di questo elemento è molto più grande di quanto non sia permesso dal processo di nucleosintesi all'interno delle stelle. Anche la cosiddetta «radiazione fossile » ha costituito una svolta rivoluzionaria nella cosmologia: vi è stato chi ha sostenuto che le radio-onde a bassa energia provenienti dal cosmo sono il residuo attuale della radiazione emessa da una sfera di fuoco primordiale che ha preceduto l'universo attuale e la sua struttura fisica. Ma al mutamento di concezione dell'universo nel suo complesso (da« tranquillo» a «violento») hanno contribuito anche altre scoperte sperimentali: prima fra tutte quella di alcuni oggetti stellari a forte radiazione che vengono chiamati, a seconda delle loro diverse caratteristiche, « quasars », « pulsars », « buchi neri». Il termine « quasars » (quasi ste!lar radio sources) indica alcune radiosorgenti nei cui spettri ottici si hanno spostamenti verso il rosso (red-shift) molto maggiori di quelli delle galassie. I quasars emettono molta più radiazione ultravioletta di qualsiasi stella normale e presentano variazioni di luminosità che arrivano al 40% annuo. Secondo le teorie prevalenti i red-shijts sono cosmologici, ossia sono una conseguenza dell'espansione dell'universo e dipendono dalla distanza dell'oggetto; secondo altre ipotesi hanno origine diversa e i quasars sarebbero dunque relativamente vicini alla terra. Se si accetta la prima ipotesi i quasars hanno una certa distribuzione nell'universo che è assai interessante, dato il loro scarso numero, perché pare che questi oggetti posseggano la caratteristica di essersi formati dopo il grande scoppio (che, secondo alcuni modelli cosmologici, creò l'universo 8, 6 miliardi di anni fa). L'universo attuale contiene solo 3 5.ooo quasars mentre gli altri si sono probabilmente evoluti fino a formare delle galassie ordinarie. Per spiegare la sorgente che crea l'enorme energia osservata nei quasars si sono fatte varie ipotesi che vanno dalle collisioni stellari, al collasso gravitazionale di stelle di grande massa, all'esplosione di supernovae, o la trasformazione di energia gravitazionale in energia delle particelle. La loro presenza costituisce perciò una sfida alla odierna astronomia ed alla fisica, che debbono esser in grado di elaborare dei modelli esplicativi per questo tipo di oggetti. Ciò vale anche, a maggior ragione, per nuovi tipi di stelle quali le « stelle solide», che sono stelle ad enorme concentrazione di materia, che si trova a temperature prossime allo zero assoluto. Se una stella che si contrae (ossia che sta morendo) esaurisce il suo combustibile nucleare, può trasformarsi in un «buco nero», oggetto previsto dalla teoria generale della relatività, così compatto che neppure la luce può sfuggire da esso; oppure può finire come una « nana
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
bianca », cioè una stella di dimensioni uguali alla terra ma con densità che può raggiungere i 108 grammi al cm3. Nella materia superdensa di queste stelle i reticoli atomici della materia normale si spezzano, os.sia la materia «fonde». In queste condizioni i neutroni e gli elettroni del centro di una stella si possono trasformare in altre particelle elementari quali i barioni ed i mesoni che vengono prodotti nei più grandi acceleratori terrestri. Ma mentre sulla terra la vita di queste particelle dura frazioni di un milionesimo di secondo, prima che decadano, in queste stelle di neutroni esse sono stabili e formano un fluido, un tipo cioè di stato materiale assai diverso da quelli cui l'esperienza terrestre ci ha abituati. Ancora un altro oggetto stellare, il pulsar, fu scoperto e analizzato alla fine degli anni sessanta a Cambridge. Il pulsar è una fonte stellare che emette radiosegnali regolari in certi periodi di tempo: scartata l'ipotesi di una comunicazione volontaria, poiché la fonte non si rivelava di tipo « planetario » ma stellare, si prosegue nello studio delle frequenze ottenute per poter risalire tramite esse alla costituzione interna delle radiosorgenti. Si suppone che esse siano corpi molto compatti, forse delle « nane bianche », la cui superficie si espande e si contrae alternativamente, e che ruotino ad alta velocità su se stesse. Vi sono anche altri modelli che servono a spiegare le caratteristiche dei pulsars; tutti però partono dall'idea fondamentale einsteiniana che in alcuni punti dell'universo la materia collassi su se stessa, provocando, nel corso di questo processo, tutta una serie di fenomeni che solo oggi si intravedono nello studio dei nuovi oggetti stellari. Il rapporto fra teorie derivate dalla relatività generale e dall'osservazione radioastronomica degli ultimi dieci anni acquista un peso notevolissimo tanto per la storia quanto per la filosofia della scienza. Si nota che proprio dall'astronomia, scienza che si riteneva ormai da tempo una semplice applicazione delle leggi trovate dalla fisica, arriva una tale messe di nuovi dati da rendere il cosmo un vero e proprio « laboratorio naturale » nel quale avvengono fenomeni fisici talmente diversi da quelli che gli scienziati studiano in scala ridotta sulla terra e nel sistema solare, da mettere in discussione la stessa validità delle teorie fisiche. È questa prospettiva che rende il futuro dell'astronomia galattica e della radioastronomia tanto importante non solo per gli astronomi stessi ma anche per i fisici. Dal punto di vista epistemologico viene in primo piano la questione del valore delle «singolarità» fisiche. Una singolarità può esser definita un punto dello spazio-tempo dove la teoria fisica crolla. Per esempio, entro i « buchi neri » si suppone che esistano delle maree gravitazionali di intensità infinita che deformano o comprimono la materia e i fotoni fino a renderne impossibile l'esistenza. 459
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
Quando in passato i fisici scoprivano una teoria che prevedeva delle singolarità per la materia (si pensi, ad esempio, alla relatività generale) potevano dire di trovarsi davanti ad un avvertimento che la teoria stessa non valeva più. Ma nel caso dei « buchi neri » la singolarità è talmente importante da essere una vera e propria struttura dello spazio-tempo. Il concetto moderno di materia non ha più nulla a che vedere con quello tradizionale del meccanicismo, è un concetto aperto, dialettico. Ma le indicazioni che ci vengono dai recentissimi studi cosmologici lasciano intravedere la necessità di rifondare il concetto di materia in modo assai profondo, che tenga conto cioè dell'esistenza di vari tipi di spazio-tempo e della conseguente diversità di tutti i rapporti di causalità, identità e differenza che si basano sullo spazio-tempo. Lo sviluppo delle ricerche sperimentali ancora una volta mostra un risvolto totalmente filosofico e ci spinge ad adeguare continuamente il concetto-cardine di materia ai risultati delle nuove ricerche, condannando a restare -privi di un modo generale di vedere il cosmo coloro che non tengano conto delle novità categoriali apportate ai concetti tradizionali della nuova astrofisica. VII · DIFFERENZE TRA LA COSMOLOGIA E LE ALTRE SCIENZE. IL CONCETTO DI« MODELLO DI UNIVERSO»
Dopo aver esaminato le idee che stanno alla base della cosmologia moderna e accennato in forma molto schematica ad alcuni dei principali modelli di universo, è necessario porsi il problema del valore dei risultati della cosmologia. In fondo il problema può riassumersi nella domanda: la cosmologia moderna può esser considerata come una vera c propria scienza? Ci si deve chiedere se per la cosmologia possono valere quei criteri di scientificità che servono a giudicare altre discipline, come la termodinamica o la meccanica, tradizionalmente accettate come esempi di rigore e scientificità. Si suole ammettere che in ogni ramo delle scienze sperimentali lo scienziato inizi il suo lavoro formulando certe ipotesi in base alle quali poi valuta i risultati sperimentali. Quando queste ipotesi ottengono conferme numerose, allora possono essere organizzate in una teoria che avrà valore di spiegazione per tutti i fenomeni di quel campo. Così, ad esempio, in un certo momento della storia della scienza dell'Ottocento, l'ipotesi meccanicistica dell'esistenza di molte molecole in un gas diventa, in seguito alle conferme ottenute sperimentalmente, la teoria cinetica dei gas. Si ammette inoltre che, se una teoria fisica espressa in un linguaggio matematico esatto non trova conferma negli esperimenti, deve essere considerata insufficiente e quindi scartata. Noi troviamo, esaminando la cosmologia moderna, che questa successione fra ipotesi, teoria ed esperimento non ha luogo. La ragione è da ricercarsi nel-
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
l'oggetto specifico della cosmologia, l 'universo, e nel suo metodo particolare di lavoro, che consiste nel creare dei modelli coerenti di universo. In cosmologia viene studiato un solo oggetto (l'universo) del quale, per definizione, si dà un caso unico. Infatti se per assurdo fosse possibile esaminare due esemplari dell'entità studiata, si dovrebbe ritenere logicamente che l'oggetto trattato non sia l'universo, ma solo una parte di esso. È però evidente che tutte le leggi che noi usiamo nella cosmologia sono in realtà leggi tratte da una parte dell'universo, e che vengono fatte valere per la totalità soltanto con un'operazione astrattiva. Quindi il caso postulato per assurdo non viene mai ammesso e, se parliamo di universo, ne sottintendiamo l'unicità. Questa unicità dell'oggetto studiato è una caratteristica della cosmologia che non trova riscontro in nessun'altra scienza. Non solo: nella fisica viene postulato che un esperimento compiuto in laboratorio, poniamo ad esempio la caduta dei gravi, dia un risultato uguale a quello di un altro esperimento il più possibile simile. Questa ripetibilità delle osservazioni consente allo scienziato di verificare un'ipotesi e, eventualmente, di correggerla. Per parlare della seconda ragione di differenza tra cosmologia e scienze normali, ossia del metodo della cosmologia, è necessario richiamare la moderna nozione di teoria scientifica, non per studiarla in sé, ma per trarre dei suggerimenti circa la scientificità della cosmologia. Le teorie scientifiche possono essere usate come regole di inferenza per passare da certi fatti osservabili ad altri che debbono essere interpretati. Possedere una spiegazione teorica significa allora mostrare il modo in cui il dato da spiegare può essere derivato dai presupposti teorici considerati veri. In questo senso la teoria permette anche una previsione come conclusione di un'inferenza. Una teoria non è in sé qualcosa di cui si possa chiedere se è vera o falsa: essa è piuttosto uno schema di idee che può essere usato per interpretare i dati dell'esperienza. Inoltre, se una teoria è fondata con termini nuovi non esclude mai in genere le teorie precedenti, ma le congloba facendo di esse un caso limite di un gruppo di operazioni più comprensive. Così è stato, ad esempio, per le equazioni del moto della meccanica newtoniana che, nella teoria della relatività, sono considerate come un caso limite, valido per un osservatore in uno spazio euclideo e cioè nel vuoto. Un terzo aspetto importante nel valutare la natura di una teoria scientifica è quello di notare che, se essa è tale, fa largo uso di termini che solo apparentemente hanno un legame con quelli del linguaggio quotidiano. I termini di una teoria scientifica ricoprono infatti un gruppo di significati più vasto di quelli del linguaggio comune e, nello stesso tempo, più preciso, come si vede dalla differenza esistente tra il significato del termine «caldo» in quanto segnato da un termometro e il «caldo» come è interpretato dall'esperienza nel senso comune. Queste precisazioni sulla natura delle teorie fanno sì che oggi non si possa più esser d'accordo con le idee della vecchia filosofia, che voleva un mondo esterno
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
determinato da leggi assolute, opposto ad un soggetto che ha per unico scopo quello di scoprire la struttura determinata delle cose. Invece di cercare le essenze inerenti alle cose, la scienza moderna volge la sua attenzione alla scoperta di regolarità, che esprimano le relazioni tra i fattori misurabili delle cose, e quindi pone proprio nell'attività umana uno dei poli della conoscenza. Dal momento che le teorie sono usate primariamente per arrivare alla formulazione di leggi e queste leggi hanno senso perché riguardano un grande numero di casi, la logica tipica delle scienze non può essere quella della cosmologia. Quest'ultima non può costruire una teoria dell'universo nel senso in cui è stato usato sopra questo termine, e tende invece a fornire un resoconto ragionevole e coerente, ossia un modello, di come è costituito l'attuale universo. Il cosmologo parte dai dati, che provengono dalla parte di universo osservabile con i nostri strumenti, ma non guarda questa parte di universo come un caso singolo, né vi cerca qualche insieme di leggi. Egli ritiene sempre che il suo campo di osservazione sia limitato e cerca qualche modo per capirlo come completo. Il più importante mezzo che egli ha a sua disposizione in questa ricerca è l'uso del « modello di universo». Il modello è qualcosa di diverso sia dalle leggi che dalle teorie e il suo scopo è più quello di descrivere che quello di spiegare l'universo. «Descrivere» significa qui un'operazione che comprende tanto i costrutti puramente teorici quanto quelli derivati da altre scienze, come l'astrofisica. Si parla spesso di « modello per una teoria », ma questo uso del termine è anch'esso diverso da quello che viene qui adoperato. Un «modello per una teoria» è un ausiliario alla teoria che ne aiuta la spiegazione e l'estensione, ma non è la teoria né va confuso con essa. Contro quest'uso del termine «modello>> voglio ricordare che il termine « modello di universo » usato in cosmologia non rappresenta un elemento ausiliario per una teoria, ma è esso stesso il culmine della ricerca teorica. Potremmo dire qui che invece di avere un « modello per una teoria» abbiamo una «teoria per un modello» perché, per avere idee con le quali descrivere l'universo, il cosmologo si rivolge a qualche teoria fisica ben stabilita per avere dei principi direttivi per il suo modello. Nella costruzione di modelli di universo l'analogia gioca una grande parte, perché il cosmologo, per capire l'universo come un tutto, deve supporlo analogo a quella parte di esso conosciuta per via sperimentale. Mentre le antiche cosmologie costruivano analogie antropocentriche, la cosmologia moderna si volge per le sue analogie al linguaggio della matematica e della fisica-matematica; così, quando i cosmologi moderni parlano di «curvatura dello spazio» dell'universo, bisogna sempre pensare che stanno facendo dei ragionamenti analogici. Ogni tentativo di dare un significato letterale alle parole «età dell'universo» o «curvatura dello spazio» sarebbe uno sbaglio grossolano di interpretazione. Vediamo cosa è implicito nella costruzione di un modello nelle teorie cosmo-
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
logiche. In fisica il modello o replica alcune principali caratteristiche dell'originale (poniamo il modello di un gas perfetto) oppure, in ingegneria, in un senso diverso, è modello di alcunché che ancora non esiste (così per esempio un aeroplano in fase di progetto). Alcune proprietà di un modello sono del tutto irrilevanti al fine per cui il modello è stato preparato: così un modello di nave può venir fatto in plastica o in legno. L'originale può dunque esser distinto dal modello, che può venir descritto in quanto tale. In cosmologia avviene che il modello è concettuale e non materiale, e un modello di universo consiste di simboli. Questi includono linguaggio ordinario, linguaggio matematico, diagrammi e carte. Un modello di universo in questo senso non è qualcosa che si può visualizzare o rappresentare completamente in un solo diagramma. Un altro punto di differenza tra modello cosmologico e modello ordinario è che non ha senso chiedersi dove sia l'originale di un modello cosmologico. L'originale non può esser descritto al di fuori del suo modello. Il cosmologo interessato all'universo come un tutto non può indicare nell'insieme osservabile di galassie l'originale. Neppure possiamo dire che l'originale sia «qualche idea di universo» perché il modello è anch'esso un'idea e non può essere modello di un altro insieme di idee. (Non è il caso dell'ingegnere che non ha ancora costruito il suo originale perché il cosmologo non vuole costruire nulla.) Se l'originale fosse un insieme di idee potremmo conoscerle e descrivere la proprietà di ciò cui stiamo pensando; e se un modello è costruito in corrispondenza a queste idee, chi è a conoscenza di queste idee può ispezionare originale e modello. Ma, a meno di non supporre che l'universo sia opera di un divino artefice, ciò non è possibile in cosmologia. La cosmologia scientifica è incapace di determinare il mondo come creazione di qualche essere superiore. Riassumendo : mentre nelle scienze ordinarie è compito della teoria offrire una base per l'estrapolazione al di là dei dati disponibili e dare gli strumenti concettuali per l'interpretazione del materiale di osservazione, nella cosmologia questa duplice funzione si compie con la costruzione di modelli di universo che, come abbiamo visto nella parte storica, sono assai numerosi. Da questo punto di vista l'universo non è un «oggetto» completo, ma un nome per un sempre crescente dominio di oggetti osservati. Quindi ciò che è denominato l'universo intero, al livello della teoria, non costituisce il nome di qualche entità che esiste antecedentemente alla nostra indagine e indipendentemente da essa. Perciò fra i vari modelli proposti di universo non ve n'è uno che risulti più giusto degli altri, in quanto più vidno a qualcosa che sia osservabile in linea di principio. Ciò che si chiama universo come « oggetto» è una espressione abbreviata che indica tutte le distinzioni o connessioni di fatti che una teoria competente deve riuscire a spiegare, in modo coerente con i risultati delle altre scienze; il che equivale a
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
dire che la cosmologia scientifica, diversamente dagli sforzi puramente speculativi rivolti a determinare la natura dell'universo una volta per tutte, è una teoria aperta che si occupa di un compito suscettibile di progressiva realizzazione, quello di raccogliere dati dell'osservazione e di cercare artifici teoretici che aiuteranno ad interpretare ed aumentare sempre il senso di questi dati. Oggi non ha più significato chiedersi quale delle teorie elaborate (e quale dei modelli a ciascuna di esse corrispondenti) sia quella « vera », perché, rigorosamente parlando, non vi è una teoria vera in assoluto ma vi possono essere solo giudizi comparativi tra teorie effettivamente disponibili. La nostra preferenza andrà a quella teoria che si dimostrerà più adatta per le sue capacità di previsione, per la sua comprensibilità rispetto alle teorie precedenti e per la sua economia di concetti, e che non moltiplichi inutilmente i presupposti restando quindi il più vicino possibile a quelle che sono le nostre normali esperienze. Alcuni critici della cosmologia, non però cosmologi, hanno compreso l'interesse della cosmologia moderna, dedicando ad essa alcuni interessanti saggi. Tra tutti questi ricordiamo Jacques Merleau-Ponty, parente del noto fenomenologo ed esistenzialista francese, che nel suo ormai classico ampio saggio filosofico dedicato alle moderne cosmologie, ha avanzato la tesi secondo cui nella cosmologia moderna la dimensione del problema del tempo è prevalente rispetto a quella dello spazio. Questa tesi può senz'altro essere accolta come una giustificazione dell'importanza che il problema cosmogonico può assumere in certe cosmologie; essa sembra però suscitare non poche difficoltà se applicata a tutto il campo cosmologico. Ci limitiamo ad osservare che dopo i lavori di Einstein sullo spazio-tempo la distinzione fra i due concetti non è più così netta, e osserviamo pure che, da un punto di vista opposto a quello suaccennato, la dimensione spaziale (con questo nome si intende lo studio del rapporto fra spazio e materia nell'ambito della relatività generale) è prevalente nei moderni studi di cosmologia. Non è questo il punto centrale di un'analisi critica della cosmologia moderna, ma quello, precedentemente svolto, riguardo ai modelli e alla loro dialettica.
VIII · I RAPPORTI FRA COSMOLOGIA E ASTRONOMIA: OBIEZIONI CONTRO LA SCIENTIFICITÀ DELLA COSMOLOGIA
a) Un punto assai importante, oltre a quelli qui discussi sul significato dell'oggetto e dei metodi della cosmologia è quello dei suoi rapporti con l'astronomia. Ai due rami in cui gli studi di cosmologia si dividono, ossia cosmografia e cosmogonia, corrispondono altrettante divisioni dell'astronomia, e cioè la astrografia e l'astrogonia. Gli studi cosmologici di cosmogonia traggono il loro materiale osservativo proprio da quella branca dell'astronomia che si interessa
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
dell'origine delle stelle; ugualmente gli studi cosmologici sui materiali di cui è composto l'universo sono tratti dagli studi astrografici sulla composizione chimica delle galassie e sulla loro formazione ed evoluzione. Anzi si può affermare che la base empirica della cosmologia è costituita dai risultati dell'astronomia. Da parte di molti astronomi di tendenza più empiristica si è obiettato che la cosmologia non ha valore autonomo ma si riduce all'astronomia, aggiungendo magari ad essa delle illazioni teoriche. Ci si deve perciò chiedere se la cosmologia non si riduca all'astronomia, e precisamente la cosmografia all'astrografia e la cosmogonia all' astrogonia. Bisogna però riconoscere che gli strumenti matematici di cui i cosmologi si servono per formare i modelli di universo sono molto diversi da quelli usati dagli astronomi. In genere gli strumenti matematici del cosmologo sorio molto più formalizzati di quelli degli astronomi. Inoltre per convincersi dell'autonomia della cosmologia, bisogna ricordare che qualche volta la cosmologia ha anticipato in campo teorico delle scoperte e dei modi di vedere i problemi che sono stati poi accettati dagli astronomi sperimentali. V alga tra tutti il caso dello spostamento dello spettro delle galassie verso il rosso, che fu interpretato da Hubble come prova dell'espansione. Possiamo perciò concludere che la cosmologia, pur avvalendosi dei risultati dell'astronomia, non si riduce ad essa; anzi talvolta può indicare all'astronomia delle nuove e valide direzioni di ricerca. b) Data tutta questa varietà di questioni controverse, non meraviglia che, da più parti, si siano alzate delle voci anche autorevoli contro l'idea stessa di cosmologia. Rinviando ad altri capitoli la discussione generale sull'empirismo radicale, esaminiamo qui brevemente i riflessi che tale indirizzo di pensiero avrebbe nella cosmologia. Il più autorevole operativista, Percy Williams Bridgman, nell'opera 011 the nature and limitations of cosmology (Sulla natura e le lilllitazioni della cos1nologia) del 1950, critica innanzi tutto l'uso del concetto di distanza in cosmologia. Secondo lui, gli scienziati dovrebbero sempre essere in grado di specificare ogni loro teoria in termini di osservabili, ossia di poter ricondurre le formule a dati sensibili. Per lui i problemi della cosmologia sono: primo, quello di estrapòlare i dati in maniera convincente e, secondo, di poter determinare le misure di tempo e di spazio in maniera sufficiente, il che implica molta metafisica (ove per « metafisica» Bridgman intende l'assunzione che esistano validità per le quali non c'è nessun controllo operativo). Metafisica è, ad esempio, per lui la convinzione che l'universo sia costruito su principi matematici esatti, e metafisico il suo corollario che sia possibile per gli esseri umani formulare questi principi. In breve, Bridgman è contrario all'uso indiscriminato dei termini« distanza»,
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
«tempo», «spazio»; all'uso di equazioni differenziali nella relatività generale, ed alle affermazioni, secondo lui inverificabili, sulla natura del calore delle stelle. Davanti ad una critica empiristica così radicale la cosmologia sembra sprovvista di armi per parare il colpo, perché essa è troppo legata all'elaborazione teorica per potersi ridurre ad un insieme di pure osservabili. Malgrado alcuni punti deboli dell'empirismo radicale, per cui rinviamo al capitolo IX del volume settimo, va riconosciuto che esso ha sollevato dubbi assai seri sull'uso di concetti di « spazio», « tempo», « materia», « leggi di natura», «unità dell'universo» che abbiamo visto esser necessari alla cosmologia. Ci interessa notare cosa rimane della cosmologia dopo averla sottoposta all'esame dell'operativismo: rimangono i dati empirici che sono poi quelli dell 'astronomia e che però, a loro volta, possono esser sottoposti a critica. Ma quello che era richiesto da Bridgman come momento indispensabile per ogni esperimento fisico, ossia la divisione in due parti dell'insieme delle cose per paterne studiare le reciproche relazioni si rivela impossibile. La cosmologia può assumere alcuni caratteri operativi, e questa strada è stata seguita da Milne, ma non può autocontraddirsi fino al punto di supporre l 'universo come qualcosa di moltiplicabile. c) Un altro tipo di critica, opposta a questa, è quella che possiamo chiamare aprioristica, ed è quella assunta da Eddington nel costruire la sua cosmologia a priori. Egli comincia col costruire l'insieme delle costanti primitive della fisica (fra le altre la velocità della luce, la costante di gravitazione, la carica di un elettrone) ossia un insieme di numeri da cui tenta di trarre un numero che non dipenda dalle unità di misura prescelte. Inoltre la sua teoria sviluppa il principio machiano che il comportamento di ogni parte dell'universo è determinato da tutte le sue parti. In definitiva, Eddington vuole fare una cosmologia in cui sia inutile una verifica, che costituisca un quadro valido per se stesso e che spieghi tutto. In realtà tale quadro è ricavato dalle conoscenze della fisica in un determinato momento. A nostro avviso la contraddizione della cosmologia aprioristica è questa: pur costruendo un sistema la cui verifica è impossibile, l'autore crede nella fisica che ha verificato i materiali da lui scelti per iniziare la sua costruzione. Lo scopo di una cosmologia non può dunque essere quello di non avere bisogno di una verifica, ma deve essere quello di cercare le proprie verifiche. Fra i vari modelli proposti di universo non ve n'è uno -come già sappiamo - che sia più giusto degli altri in quanto più vicino a qualcosa che risulti osserva bile in linea di principio; non ne deriva però che la cosmologia sia priva di rapporti con l'osservazione. Ciò che si chiama universo come «oggetto» è un'espressione abbreviativa che indica tutte le distinzioni o connessioni di fatti che una teoria competente deve riuscire a spiegare in modo coerente con i risultati delle altre scienze. Questo equivale a dire che la cosmologia scientifica diver-
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
samente dagli sforzi speculativi rivolti a determinare la natura dell'universo una volta per tutte, è una teoria aperta che si occupa di un compito suscettibile di una realizzazione progressiva: quello di raccogliere i dati dell'osservazione e di cercare artifici teoretici che aiuteranno ad interpretare ed accrescere il fondo di questi dati. Una teoria cosmologica è una teoria complessa, che adopera sia i concetti teorici sia i dati dell'osservazione; se non è possibile verificarne sperimentalmente ogni singolo concetto è però possibile farne una verifica globale, esaminando la sua effettiva capacità di interpretare e di accrescere il fondo dei dati scaturiti dall'osservazione. Per questa sua articolazione interna, che è indubbiamente di tipo scientifico, la cosmologia non è metafisica. Ma la cosmologia moderna si rivela diversa dalla cosmologia metafisica solo per chi sia ben consapevole che i suoi risultati più importanti sono i metodi, le tecniche matematiche, le «prove» estremamente complesse, gli accorgimenti metodologici, le sottili distinzioni di significato, il susseguirsi dei suoi modelli in un preciso ordine storico-logico, e non già la descrizione, data senza analisi e perciò arbitraria, del mondo fisico. Soltanto un tipo di filosofia capace di accettare tutta questa varietà di dati e di problemi può esser utile a farci capire la razionalità di queste appassionanti ricerche. IX · COSMOLOGIA E FI.LOSOFIA OGGI
a) Nelle epoche passate la cosmologia aveva un grande peso nei sistemi filosofici. Pensiamo solo all'importanza del sistema astronomico di Aristotele che era, nello stesso tempo, l'applicazione al mondo celeste dei principi della sua fisica e la dimostrazione della verità dei suoi presupposti. All'immagine aristotelica dell'universo corrispondeva un concetto di uomo che, come i cieli, muoveva verso un fine, cioè verso la sua attuazione. Si può dire che il sistema aristotelico è un esempio del rapporto che passa tra una cosmologia ed un'antropologia, e dimostra che una visione filosofica è sempre connessa con un certo modello di universo. È anche necessario ricordare l'importanza che la cosmologia ha avuto nei sistemi rinascimentali, in cui il discorso sull'uomo era sempre visto anche come discorso sull'universo, che spesso collegava uomo e universo in un insieme complesso di reciproci rapporti armonici. Questi due soli esempi debbono spingerei a chiarire quale peso abbia la cosmologia nell'ambito del pensiero moderno, perché se essa ha avuto sempre tanta importanza nella filosofia del passato potrà forse averne ancora oggi. Di una concezione del mondo naturale l'uomo ha bisogno oppure no? Se sì riduce la filosofia ad una ricerca di etica e di psicologia del tutto avulsa
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
dalla conoscenza del mondo fisico si può affermare che qualunque risultato raggiunto dalla cosmologia non avrà mai come effetto un aumento di consapevolezza e di conoscenza dell'uomo. Deve però essere detto con estrema chiarezza che noi non vediamo affatto la possibilità di fare un serio discorso sull'uomo, ossia di fondare un'antropologia coerente senza che tale discorso sia inquadrato entro una visione generale della natura in cui l'uomo si muove, ossia senza considerare i risultati della cosmologia moderna. Se la filosofia vuole oggi avere un vero impegno teoretico, essa deve poter dire cos'è l'universo in cui l'uomo vive, come esso viene conosciuto e quale relazione può esistere fra questi due aspetti della realtà. Se si crede che ancor oggi la filosofia possa e debba avere un fine conoscitivo si deve ammettere che i modelli di universo costruiti sulla scorta delle conoscenze fisiche sono più che un semplice divertissement per scienziati. Di una concezione del mondo naturale l'uomo ha dunque bisogno anche oggi, e non ha alcun senso conservare le vecchie concezioni elaborate dalle tradizioni religiose o metafisiche. Se non si accettano i metodi e i risultati della cosmologia moderna, si sarà sempre tentati di lasciar valere le altre vecchie concezioni. b) Quale valore hanno i modelli cosmologici in relazione alla filosofia materialistica? Si potrebbe essere tentati di dire che, data la distanza enorme che intercorre fra i modelli e la loro base osservativa, i modelli sono libere costruzioni della mente umana che nulla hanno a che vedere colla materia. A parere nostro le cose non stanno affatto così; le teorie fisiche utilizzate dai cosmologi, i quali le prendono da altri :rami della fisica, vengono superate o riadattate in base a certi fatti di cui esse sono una generalizzazione e una sistemazione. La conoscenza dei dati fattuali è un riflesso dei dati di natura e proprio per questo noi possiamo affermare che ogni generalizzazione teorica è una più o meno esatta riflessione delle relazioni generali tra fenomeni. Però un modello si sostituisce ad un altro non solo per lo sviluppo dei dati empirici che si sono accumulati ma come risultato di una revisione critica globale tanto della parte osservativa che di quella teorica. Proprio perciò si può dire che la cosmologia moderna è materialistica perché è nella costruzione di modelli di universo che- coll'applicazione di certi strumenti matematici e di certi concetti e principi quali le geometrie non euclidee ed il principio cosmologico perfetto- si possono superare tanti problemi che hanno assillato i filosofi e i metafisici, problemi che hanno una loro giustificazione storica ma che valgono solo entro idee assai antiquate sul mondo fisico. c) Il problema tradizionale dei limiti dello spazio, o di che cosa contenga in sé lo spazio, sono stati risolti dai modelli non euclidei che hanno :reso inutile la distinzione tra un «fuori» e un «dentro» dell'universo.
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
Lo stesso svuotamento di senso avviene per il problema dell'origine del mondo, se si accetta la «nuova» cosmologia dello stato-stazionario. L'idea di disantropomorfizzazione continua nella costruzione dei modelli di universo scaturisce evidente dalla cosmologia parallelamente a quel che avviene nella fisica, in cui lo stesso fenomeno è stato sottolineato da Niels Bohr. Il principale significato filosofico della cosmologia è dunque la sostituzione che essa compie del vecchio « Weltbild »religioso e metafisica, ancora valido fino alla metà dell'Ottocento, operando una radicale semplificazione del problema del cosmo. Infatti, le leggi su cui si fondano i modelli cosmologici sono considerate le leggi dell'universo ma non le leggi di tutto ciò che accade nell'universo, quelle cioè che venivano ricercate dai vecchi filosofi della natura, per i quali il discorso sul cosmo aveva sempre la sua base in considerazioni prescientifiche. Per la prima volta, dopo il I 9 I 7, è possibile parlare di cosmologia facendo intorno ad essa un discorso non mitologico e neppure religioso, ma scientifico, ed è possibile addirittura una dialettica della scienza cosmologica che la fa procedere da certi modelli a certi altri, per mezzo di una discussione di carattere tecnico. Per la prima volta è possibile fare un discorso sulla «totalità delle cose», facendone una scienza autonoma con un proprio oggetto specifico da indagare. E questo è avvenuto senza che la scienza cosmologica moderna fosse sostenuta da presupposti etici o religiosi che ne giustificassero a priori la validità. Il discorso sul cosmo è diventato la descrizione dello sfondo sul quale l'uomo vive e non un discorso su cui si fondi ciò che gli uomini debbono fare. d) Se da un lato il discorso cosmologico non avanza più nessuna pretesa di fondare l'etica e il destino umani, dall'altro esso è aperto alla critica, perché un modello inadeguato verrà sostituito da altri più perfezionati dopo una revisione di carattere fisico o matematico. Da un lato allora nessun modello è considerato privilegiato per motivi diversi dalla sua capacità di spiegazione, quali potevano essere appunto i motivi religiosi, etici o tradizionali; dall'altro un modello cosmologico non può giustificare nessuna filosofia generale. Veniamo ora ad una considerazione particolarmente importante riguardo ai modelli di universo della cosmologia moderna: questi modelli non hanno nessuna pretesa di assolutezza, non vogliono cioè sostituire nella loro completezza metafisica i vecchi modelli di universo. Poiché non hanno garanzie assolute né le ricercano, essi sono scientifici, ossia partecipano della dialettica di conferme parziali ma progressive della scienza fisica. È utile vedere il rapporto tra filosofia e cosmologia alla luce dell'esempio storico dei rapporti tra filosofia e matematica. Nel riesaminare le basi logiche della matematica gli studiosi si sono trovati davanti a problemi tipici della tradizione filosofica ma hanno saputo, riformulandoli, ottenere risposte nuove, che
www.scribd.com/Baruhk
Nuovi aspetti della cosmologia
non erano nemmeno parzialmente possibili per la mentalità dei secoli precedenti. Così anche nell'esame della cosmologia scientifica nessuna critica può pretendere di inverarne i risultati e neppure inserirli in un quadro filosofico tradizionale, senza perdere di vista il fatto che la cosmologia dal 1917 in poi prosegue le sue ricerche, scarta o perfeziona i modelli di universo che non rispondono più a certe osservazioni, elabora i suoi metodi, nel modo proprio della dialettica delle scienze fisiche e sa essere una possibile cosmologia razionale solo per chi sia ben consapevole dei suoi metodi e dei suoi risultati.
www.scribd.com/Baruhk
CAPITOLO OTTAVO
La psicologia scientiftca contemporanea DI FRANCA MEOTTI
l · CONSIDERAZIONI INTRODUTTIVE
Questo capitolo è dedicato agli sviluppi della psicologia nel xx secolo e si propone di illustrare in modo particolare gli aspetti sperimentali di tale evoluzione. Il problema della costituzione della psicologia come scienza è indiscutibilmente legato alla definizione, da un lato, di rigorosi canoni di sperimentazione e, dall'altro, alla determinazione di rapporti ben definiti con le scienze che alla psicologia sono strettamente connesse: fisiologia (in particolare neurofisiologia), fisica e chimica. Secondo queste indicazioni, si cercherà di delineare il quadro di una scienza in rapidissimo sviluppo, che, almeno nelle sue linee generali, cerca, sia pure tàticosamente e non senza incertezze e sbandamenti, di compiere il passaggio dallo stato di scienza qualitativa a quello di scienza quantitativa, peraltro già iniziato nel corso del secolo passato. In modo abbastanza sorprendente risulterà che proprio all'interno di questa concezione rigorosamente sperimentale della psicologia, è stato possibile, negli ultimi due decenni, trovare un corrispettivo osservabile di alcuni concetti originariamente elaborati nel campo della psicologia del profondo. Pare quindi in via di superamento, anche se il processo potrà eventualmente essere molto lungo, la netta separazione tra psicologia sperimentale e psicologia del profondo, che risale ai primordi di quest'ultima. Il quadro generale della psicologia scientifica odierna è dominato dalle ricerche svolte negli Stati Uniti e nell'Unione Sovietica, che sono stati e sono tuttora i due centri propulsori della ricerca. Il behaviorismo, aggiornato ed elaborato con una singolare varietà di forme, domina nel primo di questi paesi; in Unione Sovietica, invece, dopo un periodo di esitazioni e di accoglimento parziale e composito di teorie europee ed americane, ha ripreso vigorosa crescita una forma raffinata di pavlovismo, la quale, pur cercando di mantenersi fedele ai canoni della dialettica marxiana, mostra, in alcune ricerche di carattere avanzato, alcuni punti di contatto con le acquisizioni più recenti nel campo della psicologia dell'apprendimento negli Stati Uniti. I nodi teorici fondamentali della ricerca psicologica attuale sono costituiti dal 471
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
problema dell'apprendimento, da un lato, e da quello del rapporto mente-corpo, dall'altro. Di notevolissimo interesse, tuttavia, sono anche le ricerche dedicate al problema dei rapporti coscienza-inconscio. Questi argomenti saranno trattati io modo particolare nei paragrafi dedicati al neo-behaviorismo (paragrafo Iv) e alla psicologia sovietica (paragrafo VI). Se queste sono le linee teoricamente più interessanti e valide nel quadro della psicologia sperimentale degli ultimi quarant'anni, tale quadro resterebbe tuttavia incompleto se non si facesse riferimento anche alle ricerche dei behavioristi contemporanei di Watson (cui verrà dedicato il paragrafo n), nonché a due figure io certo senso isolate, ma di grande rilievo: quella di Kurt Lewio e di J ean Piaget (paragrafi vn e vm). Lewio è guidato da una duplice istanza: da un lato, un impegno teorico volto a situare la psicologia nello svolgimento delle scienze più progredite, dall'altro il ricorso a strumenti quali la geometria e la topologia al fine di rappresentare e spiegare i modelli psicologici. Una collocazione del tutto particolare spetta al pensiero dello svizzero Jeao Piaget, il quale da oltre quarant'anni conduce ricerche nel campo della psicologia dell'età evolutiva. Di particolare interesse sono i suoi studi sulla nascita e lo sviluppo nel pensiero infantile di concetti fondamentali quali quelli di causalità, probabilità, spazio, tempo ecc. A Piaget si deve la formulazione dei principi dell'epistemologia genetica, nuova disciplina che studia il rapporto tra lo sviluppo di un concetto nel pensiero del bambino e il processo attraverso il quale tale concetto è stato acquisito dal pensiero scientifico nella sua evoluzione storica. Un luogo paragrafo (il Iv) è dedicato al neo-behaviorismo. La distinzione tra behaviorismo e neo-behaviorismo è più concettuale che cronologica: i oeo-behavioristi, infatti, sono largamente influenzati da una concezione della scienza schiettamente filosofica. Essi si rifanno io particolare a quel gruppo di pensatori che costituiscono il movimento dell'empirismo logico e si muovono quindi io un clima culturale profondamente modificato rispetto a quello tipico dei behavioristi che potremmo definire «classici». Di qui l'esigenza, fortemente sentita da alcuni tra i oeo-behavioristi, di costruire una teoria psicologica formulata io un linguaggio rigoroso come sistema ipotetico-deduttivo. La denominazione di neobehavioristi viene attribuita a studiosi di indirizzi largamente differenziati, i quali hanno pur sempre io comune l'esigenza del metodo osservativo iniziato da Watson, l'accettazione dei principi del condizionamento e il ripudio di ogni forma di iotrospezionismo. Altri studiosi, muovendosi nell'ambito di ricerche oeurofisiologiche, hanno aperto nuove prospettive, largamente utilizzate io anni successivi, sulla via di una ricerca volta a trovare i corrispettivi fisiologici e fisiochimici dei processi psicologici (paragrafo m). Da quanto si è brevemente accennato nelle righe precedenti, è chiaro che la panoramica offerta io questo capitolo non vuole essere completa, ma intende se-
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
gnalare gli aspetti più rilevanti della psicologia sperimentale contemporanea. II · IL PRIMO BEHAVIORISMO
Watson (vedi capitolo rr del volume sesto) aveva dato le prime formulazioni teoriche del behaviorismo e aveva tracciato uno schema destinato ad avere larghe ripercussioni sulla psicologia contemporanea, specialmente americana. Tuttavia, quasi negli stessi anni in cui egli compiva le sue ricerche, altri studiosi approfondivano i medesimi campi di interesse giungendo a conclusioni sostanzialmente convergenti con le sue. Fra costoro va ricordato Albert Paul Weiss (I879-193 r) che considerò con spiccato interesse metodologico i problemi della psicologia. Se la psicologia non è ancora annoverata fra le scienze, egli sostenne in A theorical basis oj human behavior (Una base teorica del comportamento umano, 192 5), ciò è dovuto alla illusoria pretesa di aver accesso, attraverso l'introspezione, ad una serie di fenomeni immateriali, che, come tali, non sono di competenza dello scienziato. La posizione di Weiss era quella di un rigido riduzionismo della psicologia alla fisiologia: non vi sono altre entità al di là di quelle indicate dalla fisica; comportamenti ed anche sentimenti sono analizzabili soltanto in termini fisico-chimici. Compito della psicologia è la registrazione pura e semplice di questi dati. Scienza fra le scienze (che, tutte, hanno per oggetto i processi fisici), la psicologia è quella scienza particolare che studia i processi fisici che si determinano entro il sistema nervoso. Weiss si rese conto, però, che, entro questa impostazione, non ci sarebbe stata alcuna differenza fra psicologia e fisiologia e inserì nella genesi del comportamento umano un altro fattore determinante: l'ambiente. L'ambiente è una struttura nella quale ogni comportamento viene condizionato dagli altri comportamenti mentre a sua volta li condiziona. La psicologia dunque riesce a conseguire una propria autonomia rispetto alla fisiologia, in quanto scienza che studia i processi fisico-chimici del sistema nervoso da un particolare punto di vista interazionale ed ambientale: le due radici, quella biologica e quella sociale, sono sempre presenti. Ecco quindi che Weiss definisce l'organismo umano come biosociale: la psicologia, scienza biosociale, ha il compito di studiare l'evoluzione dell'organismo umano sotto la duplice spinta di questi fattori; dedicherà particolare attenzione, quindi, ai problemi posti dall'evoluzione del bambino. Proprio in questo campo si dimostra che i metodi introspettivi sono fallaci in quanto nulla ci garantisce l'applicabilità scientifica dei loro risultati al bambino: unicamente i metodi sperimentali ed osservativi mutuati dalle scienze fisiche sono applicabili e proficui. Coerentemente Weiss diede l'avvio a un vasto programma, condotto in sede universitaria, per l'osservazione e lo studio dello sviluppo del bambino. Anche W alter Samuel Hunter (r 889-1954) difese in molti articoli fra il 192 5-50 la teoria behaviorista in polemica con l'associazionismo, che sopravviveva in 473
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
molte università americane nella scia dell'insegnamento di Titchener. Egli combatté, tuttavia, la vecchia psicologia strutturale con argomenti alquanto superficiali sostenendo, ad esempio, che la coscienza altro non è in termini introspettivi, che quello che l'ambiente è in termini osservati vi: confondendo, cioè, in un realismo epistemologico ingenuo, l'ambiente con la percezione che dell'ambiente ha l'organismo. Era un tentativo, che del resto fu comune anche a Watson e a Betcherev (per tutti questi autori si veda il capitolo n del volume sesto), di negare l'esistenza della coscienza per superare la dicotomia fisico-mentale, fondendo funzione e oggetto, soggetto e oggetto della percezione in un unico dato: il comportamento direttamente osservabile. Gli apporti migliori di Hunter rimangono i suoi esperimenti sull'apprendimento, in particolare quelli sulle risposte o reazioni ritardate. Edwin Bissell Holt (1873-1946), occupa una posizione piuttosto ambigua nel quadro del behaviorismo per le oscillazioni che la sua dottrina compì fino all'ultimo fra i diversi interessi e punti di vista teorici contrastanti. Esponente in filosofia del movimento del nuovo realismo americano, propose anch'egli di riportare il problema della « coscienza » a un realismo epistemologico, secondo il quale l'esistenza della coscienza sarebbe una funzione del sistema percettivo, in quanto adattamento dell'appartato senso-motorio all'oggetto esterno percepito. In questo senso, egli tentò un compromesso per salvare sia la posizione behaviorista che il mantenimento della coscienza nel sistema. In The freudian wish and its piace in ethics (Il desiderio freudiano e il suo posto nell'etica, 191 5) descrisse il wmportamento partendo dalla convinzione che non basta la teoria dei riflessi a spiegarlo. In realtà è l'« organizzazione» dei riflessi stessi che costituisce la base del comportamento ed anche lo stadio da cui ha origine la coscienza. Egli identificò il comportamento, questa « risposta specifica », colla « pulsione » di Freud, includendovi motivazione, tendenza, impulso e atteggiamento. Questo concetto assumerebbe il posto e la funzione unificatrice che aveva avuto la sensazione nella vecchia psicologia. Secondo Holt, ciò non significa ricadere nel soggettivismo e nell'introspezionismo, in quanto l'« evidenza» di questo « comportamento» sarebbe direttamente osservabile in ciò che un organismo fa. Nell'ultima parte della sua vita Holt si occupò principalmente del problema dell'apprendimento. In Anima! drive and the learning process: an esstry towards radica! empiricism (L'istinto animale e il processo di apprendimento: verso un empirismo radicale, 19 31) cercò una formulazione del problema in termini rigorosamente empiristici. Nel comportamento umano, egli sostenne, tutto è apprendimento; persino i riflessi non condizionati sono acquisiti, durante la vita fetale o, al massimo, neonatale. L'apprendimento ha luogo non solo attraverso i classici stimoli esterni, di tipo pavloviano, 1 ma anche mediante stimoli interni (fame, sete ecc.). Affermando che l'apprendimento può aver origine anche dai bisogni interni, Holt segnò la strada sulla quale Hull I
Per una illustrazione delle teorie di Pavlov, si veda il capitolo n del volume sesto.
474
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
(di cui si parlerà diffusamente più oltre) portò avanti in seguito la sua teoria della riduzione del bisogno come base dell'apprendimento. III ·ALCUNE RICERCHE NEUROFISIOLOGICHE NELL'AMBITO DEL BEHAVIORISMO
Le ricerche neurofisiologiche del XIX secolo avevano frequentemente cercato di definire la funzione specifica di alcune zone corticali, giungendo a riconoscere alcune aree sensorie e motorie. Rimaneva però sempre il problema delle funzioni superiori, che non erano localizzabili con sicurezza in nessun punto dell'ampia parte di corteccia ancora inesplorata. Fu proprio l'indagine sulle funzioni intellettive superiori che spinse alcuni psicologi, convinti assertori della tesi watsoniana della riduzione della psicologia alla fisiologia, ad unire i loro sforzi a quelli dei neurofisiologi accostandosi a quelle ricerche di neurochirurgia cerebrale che tanti, se pur non conclusivi, successi hanno ottenuto nel nostro secolo. Uno dei primi a mettersi su questa via fu, negli Stati Uniti, un allievo di Cattell, Shepard Ivory Franz ( 1874-193 3) che combinò il metodo per lo studio dell'apprendimento negli animali col metodo neurofisiologico per lo studio delle localizzazioni. Con Franz per un certo periodo lavorò anche Karl S. Lashley (r898-1958), uno dei più importanti neurofisiologi del nostro secolo, autore di ricerche che ebbero eccezionale peso anche sugli studi psicologici. Già nel r 92 3 Lashley aderì dichiaratamente al behaviorismo (The behaviorist interpretation of conscious [L'interpretazione behaviorista della coscienza]), convinto che« lo studio dell'uomo ... [non avrebbe rivelato] ... nulla che non sia compiutamente descrivibile in termini fisicochimici» e criticando quindi «quell'esempio patologico di metodo scientifico» che era l'introspezionismo. Il behaviorismo di Lashley fu, di fatto, alquanto particolare: sostanzialmente egli si allontanò parecchio dalle dottrine watsoniane cui pure dichiarava di aderire. In particolare, Lashley respinse l'accettazione totale della riflessologia pavloviana e ciò ebbe grande importanza nell'impostazione dei suoi numerosi e brillanti esperimenti. Nonostante queste divergenze, il behaviorismo ricevette grande lustro e notevole sostegno dall'adesione di Lashley e tenne sempre a contarlo fra i suoi più prestigiosi esponenti. Come si è detto i primi esperimenti furono condotti in collaborazione con Franz: alcuni animali (gatti, scimmie, topi) furono privati dei lobi frontali dopo che avevano appreso ad uscire dalle gabbie di Thorndike: successivamente all'operazione non si riscontrarono mutamenti apprezzabili nel comportamento appreso (Franz e Lashley, The retention of habits lry the rat after destruction of the frontal portion of the cerebrum [La ritenzione di abitudini nel ratto dopo la distruzione della parte frontale del cervello, 1917]). Da ulteriori esperimenti parve, inoltre, che non avesse grande importanza, ai fini dell'apprendimento, quale parte della cor475
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
teccia veniva tolta e Lashley, pur non riuscendo a dimostrare che le porzioni di corteccia mancante vengono rimpiazzate dai centri subcorticali, concluse tuttavia che il cervello funziona come un tutto, in cui le funzioni delle parti mancanti vengono svolte da ciò che è rimasto integro. Lashley espose le sue conclusioni in Brain mechanisms and intelligence: a quantitative study oj if!Juries to the brain (Meccanismi cerebrali ed intelligenza: studio quantitativo delle lesioni cerebrali, 1929). In quest'opera pose due postulati: quello dell'« azione di massa» (l'apprendimento, in termini quantitativi, è funzione della massa totale di cervello integro) e quello dell'« equipotenzialità » (le varie parti del cervello sono equipotenziali rispetto agli apprendimenti specifici e rispetto alla possibilità di rimpiazzare le funzioni di una parte mancante). Naturalmente tutto ciò contraddiceva la teoria delle localizzazioni e indicava come anche la riflessologia non fosse sufficiente a spiegare il funzionamento cerebrale; ciò portò Lashley a sottolineare sempre più vigorosamente l'importanza del fattore « organizzazione» nei processi cerebrali e in quelli dell'apprendimento. In questo senso, benché affermasse costantemente la sua fedeltà al behaviorismo, di fatto, Lashley andò vicino alle teorie gestaltiste per quel che riguarda la percezione e l'apprendimento (The problem of cerebral organization [Il problema dell'organizzazione cerebrale, I 942 ]). Kohler, in particolare, si valse dei risultati di Lashley per la sua teoria sul campo di eccitazione, anche se Lashley non accettò mai questa trasposizione ed anzi criticò aspramente le teorie di Kohler. Il riduzionismo watsoniano della psicologia alla fisiologia ebbe in Lashley un assertore vivace. Significative sono a questo riguardo le parole con cui Lashley rispose, in Coalescence of neurology and p.rychology (La convergenza della neurologia e della psicologia, 1941) al grande neurofisiologo Sherrington,l che si era visto costretto ad ammettere amaramente l'impotenza della scienza a gettare un ponte fra il cervello e l'attività intellettiva. «Con questa affermazione,» scrive Lashley in un passo divenuto famoso, « il maggior fisiologo vivente dispera di trovare un fondamento comune alla scienza del cervello e a quella della psiche. Si ha l'impressione che solo per un soffio egli non abbia raggiunto la soluzione del problema: negli stessi studi egli ha affrontato il problema della natura della vita e ha trovato che la vita non è qualcosa che appartiene a questa o quella sostanza o azione chimica, ma è attività organizzata, il cui carattere varia con la complessità delle strutture e che spazia senza discontinuità apprezzabile dalla nitida cristallina semplicità del virus filtrabile alla elaborata organizzazione dell'organismo dei mammiferi. Egli non è riuscito soltanto a vedere che anche la psiche non è qualcosa che appartiene alla vita quale forma unica di esistenza, ma è un termine che include un numero indefinito di strutture o :relazioni complesse. » È comunque fuori dubbio che le 1 L'inglese Sir Charles Scott Sherrington (1857-1952) svolse fondamentali ricerche sulla eccitabilità riflessa, la rigidità da scerebrazione, l'ini-
bizione corticale. Ricevette il premio Nobel per la medicina nel 1932·
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
conoscenze scientifiche sul cervello umano e sulla sua relazione con il resto del corpo nonché la conoscenza dei correlati mentali degli eventi cerebrali costituiscono un termine di riferimento irrinunciabile per qualunque teoria seria relativa al problema mente-corpo.! Nel campo delle ricerche neurofisiologiche Donald O. Hebb (n. 1904) occupa una posizione alquanto particolare: la sua teoria pur poggiando su presupposti teorici strettamente behavioristi, è caratterizzata da un certo eclettismo che l'avvicina, tra l'altro, alla Gestalttheorie. Hebb condivise tuttavia l'impostazione riduzionista dei fenomeni psicologici a quelli fisiologici e l'atteggiamento antiintrospezionista del behaviorismo e procedette secondo una linea di rigorosa sperimentazione: in questo senso la sua teoria rientra nel filone behaviorista e ne costituisce anzi uno degli apporti più famosi per quel che riguarda il problema della percezione. 1 Sul problema mente-corpo sono di particolare interesse, in sede strettamente filosofica, il punto di vista del monùmo neutrale, quello dell'epifenomenùmo nonché la teoria della identità. Secondo la concezione del monismo neutrale che si riallaccia ali' empirismo classico, la mente e il corpo non sono realtà distinte; la differenza fra essi non risiede nei loro costituenti elementari, bensì nella diversa disposizione che questi ultimi presentano nei due casi. Su questa linea si collocano sia William J ames che considera l'esperienza pura la matrice in sé neutra sia del mentale che del corporeo, sia Ernst Mach che vede nelle sensazioni le entità neutre a partire dalle quali si costituiscono sia la mente che il corpo; Bertrand Russell introduce il termine « sensibilia » e considera il corpo e la mente « costruzioni logiche » a partire da tali « sensibilia ».Più recentemente Alfred Julius Ayer ha ehlborato una forma di monismo neutrale partendo dalla tesi che gli enunciati relativi al corpo e quelli relativi alla mente sono entrambi traducibili in enunciati relativi al contenuto dei sensi. Il moderno monismo neutrale non sembra tuttavia capace di sfuggire alle difficoltà in cui era incorso l'empirismo di Hume, in quanto non stipula chiaramente le condizioni sotto le quali le entità neutre a cui si riferisce possono risultare contemporaneamente elementi della mente e del mondo degli oggetti esterni. Gli epifenomenisti invece ammettono una relazione di dipendenza dello psichico dal fisico ma non viceversa; in altre parole essi affermano che gli eventi mentali sono sempre effetto ed in nessun caso causa degli eventi cerebrali. Tenendo in massimo conto i progressi della scienza fisica e biologica, ed in particolare della neurofisiologia, gli epifenomenisti sembrano convinti che un giorno sarà possibile dare una spiegazione del mondo fisico, così come di tutto il comportamento del corpo umano, ricorrendo
semplicemente ad altri eventi fisici nonché alle leggi stesse della fisica. Resta tuttavia oscura nella concezione degli epifenomenisti la causalità che lega fra loro gli eventi mentali. Una concezione di impronta materialistica che è attualmente oggetto di discussione è la teoria della identità sostenuta fra gli altri da Smart e Herbert Feigl. l sostenitori di tale teoria si servono della tradizionale distinzione logica fra connotazione e denotazione per affermare che le espressioni riguardanti ciò che è fisico e rispettivamente ciò che è mentale differiscono per il significato ovvero per la connotazione ma dal punto di vista empirico denotano ovvero si riferiscono ad una e medesima cosa e cioè ai « fenomeni fisici ». Formulata in termini di identità de facto piuttosto che di identità logica la teoria in questione riesce ad evitare molte delle tradizionali confutazioni del materialismo. Ipotizzando infatti che ciascun particolare evento mentale occorre se e solo se occorre un particolare evento cerebrale la teoria della identità si propone come una teoria empirica. L'equivalenza suddetta però, anche se verificata, non basterebbe a provare l'assunto della teoria della identità secondo cui gli eventi in questione sono fondamentalmente fisici. Accanto alle teorie sopra indicate va ancora ricordato l'interazionùmo che conta ancora oggi dei sostenitori. Gli interazionisti affermano che esiste una reciproca dipendenza causale fra gli eventi mentali e quelli fisici. Il loro presupposto tuttavia sembra essere analogo alla distinzione cartesiana fra la mente e il corpo intesi come entità separate. E una volta ammessa tale distinzione risulta assai problematico giustificare un rapporto di causalità fra mente e corpo, se si considera valido il principio, difficilmente contestabile, che la causalità si realizza solo fra entità omogenee.
477
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
La teoria originaria di Hebb, quale egli la pose in Organization of behavior (L'organizzazione del comportamento, 1949) è assai complessa e fu poi rivista e riformulata da Hebb stesso in più occasioni. Ci limiteremo ad accennarne qui le linee essenziali. Il postulato fondamentale è il concetto di celi assemb!J, cioè di gruppo di neuroni sensori e motori, che stanno in reciproca relazione funzionale o, più semplicemente, costituiscono circuiti a livello corticale. L'asserzione più audace di Hebb è che queste assemblies possono essere sviluppate attraverso l'esperienza: in altre parole, alla base della teoria di Hebb sta l'ipotesi che dei neuroni si associno in« unità» funzionali attraverso l'apprendimento. Le« unità» si strutturano attraverso i processi pe:rcettivi: guardando un oggetto, ad esempio, i neuroni corticali attivi nel momento della visione divengono interconnessi. La percezione, quindi, procederebbe dalle parti al tutto e non viceversa, come sostiene la Gestalttheo:rie. Hebb porta numerosi esperimenti a sostegno della sua teoria delle percezioni apprese: è curioso notare, tuttavia, come talvolta si tratti degli stessi esempi portati dai gestaltisti a sostegno della teoria innatista della percezione, ma diversamente interpretati. Da questo punto di vista Hebb seguiva una impostazione di tipo associazionistico, che ebbe in comune con Watson e Pavlov. Essa lo portò a teorizzare un « sistema » di « unità », che si strutturerebbe nella percezione di insiemi organizzati e non più di singoli elementi e sarebbe costituito da più « unità », in cui la scarica di energia è sincronizzata. Una volta strutturati, questi sistemi possono funzionare secondo le leggi formulate dai gestaltisti (alternanza, figura e sfondo, p:regnanza ecc.). Hebb chiama phase sequence le serie di unità e di« sistemi» di « unità » che si associano gradualmente attraverso la percezione di un tutto organizzato. In questo processo un :ruolo importante è svolto dalla « facilitazione», nel senso che un'« unità» può attivarne,« facilitarne» una contigua. L'apprendimento è il costituirsi di una serie di « sistemi » di « unità », attraverso delle « facilitazioni », in modo tale che uno schema corticale, una volta stabilito, può essere riattivato in occasioni successive mediante la presentazione del medesimo stimolo. L'attenzione è la «facilitazione centrale» delle attività percettive. Hebb distingue due tipi di percezioni: quelle costituite da :relazioni più semplici, comuni ad animali e ad esseri umani, e quelle costituite da :relazioni più complesse, proprie dell'uomo che è in grado di astrarre e di generalizzare. Anche la motivazione e le emozioni sono fatti neurologici, che si spiegano secondo le diverse modalità di strutturazione dei circuiti. La motivazione è da porsi in relazione alla « persistenza » della sequenza di fase. Le emozioni, invece, sono una sorta di disturbo neurologico, una interruzione dell'attività e della sincronia dei neuroni. Questa rottura può essere dovuta a un conflitto fra le cellule, le « unità » o i « complessi» di « unità», in seguito all'improvvisa mancanza di appoggio sensoriale ad una data fase o a mutamenti del metabolismo. Il tentativo di Hebb è stato, in sostanza, quello di applicare alcune teorie fisiche abbastanza recenti al sistema nervoso e, in seguito, di provare l'adattabi-
www.scribd.com/Baruhk
- l Generalizzazione percettiva: un topo viene addestrato a scegliere la sbarra orizzontale nella prima coppia di riquadri in alto a sinistra; presentandogli la seconda e la terza coppia di riquadri, sempre a sinistra, si produrrà una generalizzazione, poiché il topo preferirà la disposizione orizzontale, dimostrando che la percezione della verticale e dell'orizzontale viene generalizzata al di sopra di ogni schema particolare. Lo stesso avviene con le figure a destra: se il topo sarà stato addestrato a scegliere il triangolo col vertice verso l'alto, ripeterà questa scelta anche se vengono mutate le dimensioni e la collocazione degli stimoli. Illustrazione da Organization of behavior (Londra-New York 1949) di Donald O. Hebb.
lità di un certo numero di fenomeni psicologici a questo modello. Il fatto che il modello da lui usato non sia stato accertabile sperimentalmente in modo completo e, insieme, l'acceso e a volte ingenuo riduzionismo hanno fatto convergere sulle teorie di Hebb molte polemiche. I suoi esperimenti, tuttavia, rimangono validi anche se non esaurienti e la sua teoria altamente originale. IV · IL NEO-BEHAVIORISMO E LE TEORIE DELL'APPRENDIMENTO
Watson, nei primi studi sugli animali e in quelli più tardi sul condizionamento, non era arrivato a formulare un'organica teoria dell'apprendimento e, anzi, abbastanza paradossalmente, in questo campo aveva sostanzialmente condiviso una impostazione associazionistica, pur negando all'associazione più ampie implicazioni nella sfera dell'ideazione, della memoria, dell'immaginazione. Egli era un convinto avversario della teoria di Thorndike, di cui mal sopportava la terminologia ambigua, ma in conclusione, nonostante il suo interesse per lo studio oggettivo dell'apprendimento animale, non riuscì a dare un'impostazione originale, in senso behavioristico, al problema dell'apprendimento. Questo compito fu accolto dal cosiddetto neo-behaviorismo che spesso giunse a risultati brillanti e persuasivi. Di fatto, negli ultimi quarant'anni, le teorie dell'apprendimento hanno
479
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
assunto in psicologia una grandissima importanza e costituiscono uno dei campi in cui più viva è l'elaborazione teorica e la ricerca sperimentale. Tra l'altro le teorie dell'apprendimento offrono esempi, spesso assai complessi, di quelli che nella psicologia contemporanea vengono detti miniature systems, ovvero sistemi che tendono a formulare teorie esaurienti per settori specifici, più che per l'intero campo della psicologia. Relativamente a questi sistemi si è cercato in misura sempre maggiore di introdurre il metodo ipotetico-deduttivo. Mentre si era spesso affermata in astratto l'opportunità e la necessità di tale metodo per le teorie psicologiche, di fatto i primi tempi della psicologia sperimentale erano stati caratterizzati da un tipo di esperimenti che si potrebbero dire semplicemente « esplorativi ». Certo, in alcuni campi della psicologia, gli esperimenti « esplorativi » sono ancor oggi la regola; ma per quel che riguarda la teoria dell'apprendimento, la tendenza generale procede verso esperimenti formulati in base a rigorose deduzioni e intesi come conferma o falsificazione di una teoria. In questa linea di ricerca si inserisce l'opera di Clark Leonard Hull (18841952), che per oltre trent'anni elaborò e perfezionò una sua teoria dell'apprendimento riuscendo a darne una formulazione anche in termini quantitativi. Hull coltivò fin dai suoi primissimi studi interessi psicologici e insieme metodo logici: i primi lo portarono a contatto del behaviorismo e della Gestalttheorie e soprattuttoad accostarsi al pavlovismo, di cui apprezzava particolarmente il metodo obiettivo, la formulazione aperta dei principi (formulazione che lasciava la possibilità di introdurre ipotesi addizionali) e l'accurato programma sperimentale. La risposta condizionata divenne il punto centrale della teoria di Hull e secondo lui la forma basilare di apprendimento, quella dalla quale si poteva partire per investigare strutture di apprendimento più complesse. Hull fu profondamente influenzato dalla lettura di Darwin, fino al punto di porre a fondamento della sua teoria dell'apprendimento la situazione ambientale e interazionale dell'organismo. Il suo intento era di determinare le leggi del « comportamento sociale », valide sia per l'uomo che per l'animale nella situazione di «adattamento biologico». Questo progetto non fu portato a termine a causa della morte. Gli interessi metodologici portarono Hull a costruirsi una solida base logico-matematica e ad avvicinarsi agli orientamenti che, negli stessi anni, provenivano dai filosofi del circolo di Vienna. Egli fu attirato in modo particolare dal problema de,lla formalizzazione del linguaggio delle teorie e, quindi, dalla possibilità di costruire un sistema ipotetico-deduttivo anche in psicologia. Secondo Hull, da un lato la psicologia aveva fino ad allora formulato teorie praticamente onnicomprensive, mai, però, elaborate in modo rigoroso, e, dall'altro, aveva condotto esperimenti fecondi e brillanti, che tuttavia potevano al massimo costituire la conferma di ipotesi slegate, non di un intero sistema teorico ( The conjlicting p.rychologies of learnin,g: a way out [Psicologie dell'apprendimento contrastanti: una soluzione, I 9 3 5]). Hull si occupò a più riprese dei criteri che devono presiedere alla formula-
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
zione di una teoria scientifica. Le sue indicazioni riguardano in primo luogo i postulati (che devono essere chiaramente formulati, non contraddittori, di numero ridotto, e devono permettere la derivazione di teoremi) e, in secondo luogo, le deduzioni che devono essere complete, cioè prive di assunzioni implicite. Per quanto riguarda i rapporti fra teoremi ed esperimenti, dal momento che le deduzioni di una teoria devono essere verificate sperimentalmente esse devono essere formulate in termini empirici. Il controllo sperimentale di una teoria ha il compito di confermare, modificare o annullare i postulati iniziali: un insieme di postulati errati non può non entrare in contraddizione con i risultati della sperimentazione. Nonostante la ferma convinzione che la formalizzazione delle teorie psicologiche e la traduzione delle leggi in termini quantitativi fosse un'assoluta necessità, Hull non si nascondeva le difficoltà di questo programma. In uno dei suoi ultimi scritti doveva constatare che anche un sistema formalizzato e quantificato richiedeva l'impiego di un certo numero di enunciati non formalizzati e non quantificati: nonostante « appaia probabile che tutto ciò che esiste in natura esista in una certa quantità » e che, quindi, la forma più perfezionata di una teoria scientifica debba esprimersi in termini quantitativi, rimane « il fatto che molti principi scientifici: almeno al momento della loro prima formulazione, sono qualitativi o, se non altro, solo quasi-quantitativi ». Hull aveva potuto rilevare nel corso del suo lavoro quanto lenta e faticosa fosse l'introduzione di termini quantitativi. Attraverso lunghi studi preparatori, che iniziarono nel 1920, riuscì, nel 1940 e poi nel 1943, a dare una versione della sua teoria in termini quasi-quantitativi (Principles oj behavior [I principi dei comportamento, 1943]). Nel 195 I, in Essentials of behavior (Caratteri del comportamento) e in A behavior .rystem (Sistema di comportamento, 1952, pubblicato postumo) riformulò il sistema in modo tale da presentarne una versione interamente quantificata. Il sistema di Hull è costituito da 17 postulati, 17 corollari e 133 teoremi. I primi quattro postulati, secondo l'ultima sistemazione del 1952, riguardano le connessioni incondizionate fra stimolo e risposta, la ricezione dello stimolo, il rinforzo primario, la formazione di comportamenti ripetitivi e presentano, in forma quantificata, le assunzioni basilari di Hull riguardanti: il funzionamento dell'organismo in base ai bisogni innati, la riduzione del bisogno e il conseguente rinforzo « primario » o diretto, il rafforzamento delle connessioni stimolo-risposta attraverso la ripetizione e il numero dei :rinforzi. I postulati dal sesto all'undicesimo riguardano la motivazione primaria (drive), l'accrescimento dell'intensità dello stimolo, l'incentivo della risposta condizionata o potenziale di reazione, la costituzione del potenziale di reazione stesso, il potenziale inibitorio, il gradiente di generalizzazione dello stimolo, l'interazione fra gli impulsi afferenti. Il concetto di drive è un punto centrale del sistema di Hull: la risposta condizionata è funzione sia del drive che del rinforzo. Per quel che riguarda l'inibizione, egli distingue una inibizione reattiva e una inibizione condi-
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
zionata; la prima, che è l'estinzione di una connessione stimolo-risposta in seguito a una particolare condizione dell'organismo (fatica, dolore ecc.), favorisce lo stabilirsi dell'inibizione di secondo tipo. I postulati dal dodicesimo al sedicesimo stabiliscono le leggi del potenziale di reazione. In particolare, nel dodicesimo postulato, Hull formula una equazione di probabilità delle oscillazioni nel comportamento che egli stesso riuscì a confermare sperimentalmente (Simple trial-and-error learning - an empirica/ investigation [Apprendimento semplice per prove ed errori studiato sperimentalmente, I939D· L'ultimo postulato, il diciassettesimo, stabilisce la necessità di considerare le differenze interindividuali nello stabilire le leggi psicologiche. I I 33 teoremi che seguono da questi postulati furono da Hull espressi in modo tale da permettere una verifica, o, come egli si espresse, una « determinazione osservativa » della loro verità o falsità. Egli stesso procedette gradualmente ~lla verifica, aiutato dai numerosi allievi che, a Yale, nel corso degli anni, avevano formato intorno a lui una devota e illustre scuola. Poco prima della sua morte, egli dichiarò che l'87 per cento dei suoi teoremi potevano considerarsi forniti di riscontro sperimentale. L'importanza del sistema di Hull, tuttavia, non risiede tanto in tale validità sperimentale, che del resto fu in varie sedi ampiamente criticata. 1 Quello che importa è lo strenuo sforzo di Hull per formulare la sua teoria come sistema ipoteticodeduttivo, sforzo che segna· una svolta fondamentale nella ricerca psicologica. Questa consapevolezza metodologica e questa esigenza di rigore lo distingue nettamente dagli altri psicologi contemporanei. Ed è significativo che tali caratteristiche gli siano derivate dal suo accostarsi a moderni orientamenti metodologici che non riguardano esclusivamente il campo della psicologia. Il behaviorismo induttivo di Burrhus Frederick Skinner (n. I 904, professore a Harvard), si colloca in antitesi al sistema ipotetico-deduttivo di Hull. Skinner pone la massima cura nell'evitare ogni assunzione teorica e ogni tipo di spiegazione nomologica e si attiene alla semplice descrizione. Nelle opere principali, The behavior of organisms (Il comportamento degli organismi, I938) e Science and human behavior (Scienza e comportamento umano, I 9 53), il suo interesse è unicamente rivolto alle risposte. Egli rifiuta l'impiego di variabili intermedie, dal momento che esse fanno riferimento ad eventi che si assume non siano osservabili. La psicologia deve limitarsi a porre in relazione i dati osservabili, costituiti dalle risposte, con gli altri dati osservabili offerti dall'ambiente; non vi è motivo di porre in relazione le risposte con altri eventi, il cui studio appartiene ad altre discipline (la fisiologia I Ad esempio, è stata spesco notata l'ambiguità che deriva dall'oscillazione nell'impiego di termini descrittivi neurofisiologici e fisico-chimici: Hull stesso aveva motivi di insoddisfazione a questo proposito e dichiarava inoltre che un punto di vista quale il suo, « molare », ossia macroscopico, riguardante l'intero organismo e non i suoi
componenti in termini di cellule o di elementi fisico-chimici, era imposto soltanto dallo stadio primitivo in cui si trovano sia le neurofisiologie che la biochimica. Si è anche rilevato che gli esperimenti di Hull riguardano principalmente i topi, e che egli estende al comportamento umano le leggi del comportamento di questi animali.
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
o la fisico-chimica, ad esempio). Questi ultimi « si situano ad un altro livello di osservazione, sono descritti in termini differenti e misurati, quando è il caso, con unità di misura diverse». Tali posizioni lo portarono a condividere le teorie metodologiche di Percy W. Bridgman e a propugnare, quindi, l'impostazione operazionistica anche in psicologia. Skinner accetta, tuttavia, uno schema di riferimento intorno al quale organizzare i dati empirici: il condizionamento, in particolare il condizionamento « operante». Se un comportamento legato a uno stimolo specifico si può chiamare , comportamento rispondente, un comportamento che si presenta in assenza di stimoli specifici è detto comportamento operante. Corrispondentemente, vi sono due tipi di condizionamento: il primo, che Skinner chiamò di tipo S, può effettuarsi quando vi sia un comportamento rispondente; il secondo, di tipo R, quando vi sia un comportamento operante. Il termine operante sottolinea il fatto che il comportamento opera sull'ambiente e vi produce delle conseguenze (è chiaro quindi che nel condizionamento operante si può parlare di rinforzo solo quando la risposta si sia già stabilita). Skinner sostiene che il comportamento è in prevalenza comportamento operante e che di esso quindi non si conoscono gli stimoli specifici. Poiché gli studi tradizionali sul comportamento, a partire da Pavlov, si sono occupati del condizionamento di tipo S, occorre allora riportare l'accento sul condizionamento di tipo R per poter fornire una spiegazione alla maggioranza dei comportamenti. Skinner seguì un metodo accuratamente sperimentale e ideò degli ingegnosi esperimenti per studiare il condizionamento operante principalmente attraverso l'uso di una gabbia di sua invenzione (la cosiddetta Skinner box); eseguì soprattutto esperimenti sui topi e più tardi sui piccioni, riuscendo ad ottenere dei comportamenti differenziati e mai adottati in. precedenza. Negli ultimi anni, Skinner ha condotto esperimenti anche sull'uomo, usando quale comportamento operante la soluzione dei problemi e quale rinforzo, ad esempio, un contesto di approvazione. Il problema del rinforzo è ritenuto particolarmente importante da Skinner: egli non accetta nessuna delle teorie precedenti a questo proposito e pur offrendo una serie di descrizioni assai precise dei processi di rinforzo, dichiara tuttavia l'impossibilità di trarre conclusioni teoriche sulla natura del fenomeno. Caratteristico del modo di procedere di Skinner è il punto di vista dal quale egli considerò il problema delle emozioni: queste sono un ottimo esempio, a suo parere, « delle cause fittizie alle quali si attribuisce solitamente il comportamento ». Le emozioni non sono che particolari disposizioni, le quali aumentano la probabilità di un certo comportamento, uno « stato concettuale, in cui una risposta particolare è funzione degli accadimenti di una storia individuale » ed è rinforzata dalle proprie conseguenze. Le emozioni non rinviano ad alcuna base fisiologica o psichica.
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
Skinner ha sempre dimostrato nei suoi scritti un grande interesse per il comportamento verbale, interesse che lo ha spinto ad approfondire molti problemi connessi all'istruzione programmata e alle teaching machines (macchine per l'insegnamento): i suoni che formano le parole non sono che comportamenti verbali e come tali possono essere rinforzati per ottenere qualsiasi tipo di condizionamento. Si possono qui solo ricordare le polemiche sorte circa l'uso, la liceità morale e l'efficacia delle teaching machines e del condizionamento. Si deve tuttavia sottolineare che, almeno entro un certo ambito, queste tecniche hanno segnato una svolta nel campo della pedagogia. Skinner ha lavorato alacremente all'estensione delle sue teorie al comportamento sociale e politico, alla religione, alla psicoterapia. Nonostante che per tipi di comportamenti non riconducibili ad azioni molto semplici le sue spiegazioni non siano affatto persuasive, bisogna porre in rilievo la coerenza con la quale egli ha sviluppato le sue prime osservazioni. Questi sviluppi, nonostante le premesse, hanno inevitabilmente finito coll'assumere la forma di una teoria, a causa sia del riferimento costante a una intelaiatura strutturale, quale il condizionamento, sia della elaborazione e trasposizione, dianzi indicate, dei principi del condizionamento operante al comportamento umano nel suo complesso. Nel campo delle teorie dell'apprendimento le idee di Edwin Ray Guthrie (I 886- I 96o) sono difficilmente inseribili in un indirizzo determinato, anche se la sua insistenza sull'indagine obiettiva e sull'importanza del condizionamento pare inserirlo in ambito behavioristico. Ciononostante la sua teoria poggia su principi che potrebbero definirsi di associazionismo radicale. Guthrie ritiene che il« condizionamento simultaneo», ovvero l'associazione per contiguità nel tempo, sia la legge più fondamentale e generale in psicologia e che essa regoli ogni comportamento e, in modo particolare, l'apprendimento. Già in P.rychology oj learning (Psicologia dell'apprendimento, I935) egli formula la legge fondamentale dell'apprendimento, cui possono sostanzialmente ricondursi i dieci principi formulati in una fase successiva: « Una combinazione di stimoli che ha accompagnato un movimento, tenderà, ove si ripresenti, ad essere seguita dal medesimo movimento ». Come i behavioristi, Guthrie è interessato alle « risposte » osservabili di soggetti umani o animali; tuttavia, a suo parere, le risposte agli stimoli possono dividersi in due classi: « movimenti » ed « atti ». Tradizionalmente, fino a Pavlov, la psicologia si è sempre interessata agli « atti », cioè a una serie di movimenti finalizzati a un risultato; l'apprendimento riguarda, invece, solo i «movimenti», che sono le vere risposte condizionate (sulla base della contiguità). Poiché riguarda gli atti e non i movimenti, la legge dell'effetto di Thorndike non può essere una legge fondamentale dell'apprendimento (Conditioning: a theorie qf /earning in terms of stimulus, response and association [Condizionamento: una teoria dell'apprendimento in termini di stimolu, risposta ed associazione, I942]). Anche la necessità di postulare il rin-
forzo e la ripetizione come fondamenti dell'apprendimento fu contestata da
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
Guthrie: il condizionamento può avvenire al primo tentativo; dal punto di vista sperimentale è solo questione di poter controllare tutti gli stimoli. Il rafforzarsi della connessione stimolo-risposta attraverso la ripetizione viene visto da Guthrie come il risultato di un aumento del numero degli stimoli condizionanti e non del rafforzamento di singole connessioni. La ripetizione può migliorare l'apprendimento solo perché l'imparare un qualsiasi schema richiede l'attivazione di più di una funzione, cioè di più di una associazione fra stimolo e risposta. Ciò spiega il fatto che, per quanto l'associazione fra un singolo stimolo e una singola risposta si stabilisca in un'unica occasione, l'apprendimento di una funzione complessa richiede solitamente più d'una prova, per permettere ai singoli movimenti di essere appresi attraverso connessioni distinte. L'estinzione di una risposta condizionata è dovuta alla inibizione esercitata da una nuova associazione stimolo-risposta incompatibile con la precedente. Anche altri problemi classicamente connessi all'apprendimento vengono, nella teoria di Guthrie, visti in una luce diversa: ad esempio, la ricompensa o la punizione come rinforzi sono sostituiti dal concetto di risposta « ultima » che è quella durevole e la motivazione ha una funzione semplicemente preparatoria ma non determinante nell'apprendimento. Guthrie, per dimostrare che l'apprendimento è soltanto un processo di associazione, costruì degli ingegnosi esperimenti, che, negli anni seguenti, sono stati oggetto di numerose verifiche con risultati discordanti. Egli si interessò vivamente anche a problemi metodologici riguardanti la formulazione delle teorie, in modo particolare in psicologia: lo scopo della ricerca scientifica è la formulazione di leggi predittive nel campo degli eventi naturali come in quello del comportamento e la validità di una legge è appunto misurata da suo successo predittivo. Le leggi scientifiche, anche quelle della psicologia, trattano solo di fenomeni osservabili o, meglio, delle « condizioni osservabili sotto le quali hanno luogo certe classi di eventi ». La sua impostazione empiristica indusse Guthrie a rifiutare modelli riduzionistici in psicologia e ad attenersi esclusivamente ai fenomeni osservabili del comportamento. Non era questo rifiuto della fisiologia, ma semplicemente riluttanza a porre in relazione i dati osservabili della psicologia con modelli teorici concernenti gli elementi « inosservabili » del sistema nervoso. Edward Chace Tolman (I886-1961) definì egli stesso la sua posizione come purposive behaviorism (comportamentismo intenzionale). Già la denominazione indica la posizione anomala che questa teoria occupa nell'ambito comportamentistico. In effetti, Tolman è stato influenzato dal comportamentismo di Watson, ma anche dalla Gestalttheorie, dalla teoria del campo di Lewin e dalla teoria freudiana. L'impianto generale è tuttavia behavioristico. Egli si oppone fermamente sia all'introspezionismo che a una pura considerazione fenomenologica dei processi psicologici; il comportamento osservabile è l'oggetto privilegiato della psicologia
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
e deve essere spiegato mediante ipotesi psicologiche. La fisiologia può e deve svilupparsi parallelamente alla psicologia, ma non per fornire a quest'ultima uno schema esplicativo. Per Tolman il comportamento va trattato come fenomeno « molare » e non « molecolare » in senso watsoniano; ciò comporta che esso sia visto come unità psicologica, senza tener conto dei suoi sottostanti componenti neurofisiologici molecolari. Il punto di vista « molare » permette, inoltre, di considerare il comportamento come diretto a uno scopo (purposive behavior); per raggiungere questo scopo, esso si serve in modo selettivo (scegliendo, cioè, il mezzo migliore o il più breve) degli oggetti offerti dall'ambiente: strumenti, passaggi, segni. Il comportamento rivolto a uno scopo è, secondo Tolman, « cognitivo », nel senso che dimostra una certa aspettativa, tratta dall'esperienza: ad esempio, l'animale orienta il suo comportamento secondo certi segni che ha imparato a riconoscere via via. Per questo motivo il sistema di Tolman viene spesso chiamato una sign-Gestalttheory (una teoria, cioè, nella quale è fondamentale l'uso di determinati segni, che sono relazioni apprese fra gli stimoli ambientali e le aspettative dell'animale e hanno la natura di Gestalten). In quanto diretto a uno scopo il comportamento « molare » può essere insegnato e quindi appreso, mentre non lo è il comportamento « molecolare », il puro riflesso, che non è orientato a uno scopo. Coerente col suo orientamento behavioristico, Tolman predilige le osservazioni e gli esperimenti condotti su animali. La prima compiuta esposizione del suo sistema è in Purposive behavior in animals and man (Comportamento intenzionale negli animali e nell'uomo, 1932). Ulteriori elaborazioni si ritrovano in numerosi articoli e in Principles of purposive behavior (l principi del comportamento intenzionale, 1959) che rappresenta l'ultima formulazione della sua teoria. Di un comportamento si possono osservare solo le cause iniziali e i risultati finali; le cause iniziali costituiscono le variabili indipendenti del comportamento e sono gli stimoli ambientali, l'istinto fisiologico, l'eredità, il precedente allenamento, l'età del soggetto. A queste cinque variabili indipendenti più tardi Tolman aggiunse, fra l'altro, l'influsso di alcuni fattori endocrini, la somma delle occasioni precedenti in cui un certo complesso di stimoli è stato seguito da un certo comportamento e questo da un altro complesso di stimoli, l'adeguatezza dello scopo ecc. Alcune di queste variabili mettono in moto il comportamento (stimoli ambientali, istinto fisiologico), altre servono da guida (esercizio, età ecc.). Il comportamento finale è una variabile dipendente e Tolman propose di misurarla mediante un rapporto (behavior ratio): ad esempio, il rapporto fra i passaggi giusti in un labirinto e la somma di tutti i passaggi giusti e sbagliati. La tesi fondamentale di Tolman è che il comportamento non consiste in un meccanico susseguirsi di cause ed effetti, ma in una serie di azioni concatenate ed orientate verso uno scopo. Dai suoi esperimenti risulta che gli animali non seguono la legge dei tentativi ed errori né il condizionamento inteso in senso cla-Ssi-
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
co: essi dimostrano di avere uno « scopo» e si comportano come se fossero guidati da segni che incanalano le loro « aspettative » riguardo a questo scopo. Percezione e motivazione strettamente intrecciate nella aspettativa di una sign-Gestalt sono i determinanti principali del comportamento. Se quest'ultimo è una funzione delle variabili indipendenti, tale funzione può essere a sua volta spezzata in un insieme di processi che, non osservabili, vengono tuttavia inferiti. Sono le variabili intermedie del comportamento, che comprendono vari fattori più volte mutati e rielaborati da Tolman. Nel I95 I in A p.rychological mode! (Un modello psicologico) egli propose le seguenti tre categorie di variabili intermedie: I) i sistemi di bisogno (need-.rystems ), correlati allo stato di deprivazione di un certo istinto fisiologico in un certo momento; z) i motivi riguardanti le credenze e i valori (belief-value motives ), che si richiamano ai gradi di desiderabilità di certi oggetti che costituiscono gli scopi e al loro relativo valore per quel che riguarda la gratificazione dei bisogni; 3) gli spazi comportamentali (behaviorspaces). Con questo termine di derivazione lewiniana, Tolman indica lo spazio in cui l'organismo attua il suo comportamento; in tale spazio esso è attratto da oggetti che hanno una « valenza » positiva (in senso percettivo: sono cioè percepiti come scopi) e respinto da altri che hanno una valenza negativa. Il comportamento umano è motivato da una serie di « appetiti » (fame, sete, sessualità ecc.) e di« avversioni» (ad esempio la paura) che, costituendo uno squilibrio, tendono a uno stato di quiete fisiologica finale. In ultima analisi, è questa meta che dà origine a ogni azione ed è in corrispondenza con la possibilità di raggiungerla che un organismo presenta una determinata disponibilità a rispondere a una sign-Gestalt. Se l'appetito è la sete, ad esempio, l'organismo nella sua ricerca per acquietarla è disponibile a rispondere ad alcune sign-Gestalten, eh~ potrebbero essere delle bevande appropriate all'organismo medesimo. Gli appetiti e le avversioni sono innati e costituiscono degli impulsi di primo grado. Un'altra serie di motivazioni è costituita dagli impulsi di secondo grado (curiosità, inibizioni ecc.) più deboli e normalmente subordinati ai primi. Ogni risposta è un compromesso fra questi impulsi innati e le esperienze passate che predispongono a una disponibilità a particolari s~gn-Gestalten. In questi termini Tolman diede anche una versione delle teorie psicoanalitiche, concludendo che esse potevano rientrare nel suo particolare schema behavioristico. In quanto gli schemi di comportamento sono modificabili attraverso l'esperienza passata, l'apprendimento ha una importanza fondamentale nella teoria di Tolman. Ogni apprendimento si può, a suo parere, spiegare come un« problema di formazione, raffinamento, selezione e invenzione di sign-Gestalten »; egli rifiuta dunque le teorie behavioristiche precedenti e considera la sua come una derivazione, in verità assai sui generis, della Gestalttheorie applicata all'apprendimento. In questo senso, egli stabilì leggi di apprendimento che verificò attraverso numerosi esperimenti. Come si è detto, i suoi ratti si comportavano nel labirinto come se
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
avessero capacità di insight e di organizzazione delle esperienze percettive passate in vista di uno scopo. Il comportamento rispondeva ad uno schema predittivo riguardante il comportamento migliore da adottare per raggiungere la meta. In questa « struttura cognitiva », le motivazioni del primo ordine indicano quali elementi saranno sottolineati e quindi entreranno a far parte della struttura stessa. L'apprendimento ha luogo quando le previsioni sono confermate. Questa è la forma superiore di apprendimento e la più significativa; Tolman ammette tuttavia che ne esistono anche altre, ad esempio l'apprendimento di semplici schemi motori attraverso il condizionamento (Tbere is more than one kind ~f learning [Vi è più di un tipo di apprendimento, 1949]). Come si è visto, Tolman ha accolto elementi teorici di svariata e anche opposta provenienza, componendoli in un mosaico originale. Egli stesso riconosceva tuttavia nella sua dottrina elementi del behaviorismo classico, della psicologia ormica di McDougall (vedi capitolo n del volume sesto), della teoria della Gestalt, della teoria del campo di Lewin, della psicoanalisi; ma nel medesimo tempo ne sottolineava le differenze fondamentali, soprattutto per quel che riguarda l'apprendimento. È questo il campo in cui Tolman ha avuto maggiore risonanza: l'accento sulla motivazione nell'apprendimento ha suscitato l'interesse e il favore di insegnanti ed educatori. Un ristretto gruppo di studiosi, allievi di Hull, hanno impresso alla teoria dell'apprendimento un carattere nuovo e assai importante: il loro merito maggiore è quello di aver cercato di ricuperare alla teoria dell'apprendimento al~eno una parte dell'enorme massa di osservazioni compiuta da Freud. L'impianto di John Dollard (n. 19oo), Neal Miller (n. 1909), Hobart Mowrer (n. 1907), Robert Sears (n. 19o8) è rigorosamente sperimentale e trae le sue origini dai metodi di Pavlov, Watson e Hull. Il risultato del lavoro di questi studiosi, tuttavia, pur nella diversità che contraddistingue l'opera di ciascuno di essi, non è una dottrina eclettica; nessuno infatti accoglie in modo totale le enunciazioni psicoanalitiche, ma ogni asserto è accettato o rifiutato, nel quadro della teoria stimolo-risposta, in base ai risultati sperimentali. Dollard e Miller, in Personality and p.rychoterapy: an ana!Jsis in terms of learning, thinking and culture (Personalità e psicoterapia: un'analisi in termini di apprendimento, pensiero e cultura, 1950), accettarono le teorie freudiane delle fasi di sviluppo e della determinazione inconscia degli impulsi e delle risposte. Era stato, tuttavia, in ricerche precedenti riguardanti il rinforzo e la generalizzazione che Dollard e Miller si erano portati più vicini alla psicoanalisi: il rinforzo corrisponderebbe al principio del piacere e la generalizzazione allo spostamento (dispiacemeni). In una serie di esperimenti di laboratorio Dollard e Miller provarono l'ipotesi che il concetto psicoanalitico di spostamento può essere formulato in termini di generalizzazione dello stimolo: in un celebre esperimento, cui parteciparono anche Mowrer e Sears ( Frustration and aggression [Frustrazione e aggressività, I 9 39]),
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
essi dimostrarono che la frustrazione produce aggressività persino nei confronti di oggetti inanimati e, comunque, non colpevoli. Altri esperimenti, condotti da Miller, provarono che la generalizzazione degli stimoli della fame può condurre a quelli della paura o del dolore. Anche il concetto di repressione poté, mediante esperimenti, essere dimostrato in termini behavioristici, e quindi accettato entro la dottrina dell'apprendimento di Hull. I lavori di questi ricercatori sono di estrema importanza in quanto provano che molti concetti psicoanalitici, se non tutti, possono essere ricondotti ad una base empirica. Su questa via, e con risultati a volte singolari, si è posto anche Mowrer, il quale parte dall'elaborazione di una teoria bifattoriale dell'apprendimento: « Vi sono due processi di apprendimento fondamentalmente diversi, che si potrebbero semplicemente chiamare apprendimento di soluzioni (solution learning) e apprendimento di segni (sign learning). Nel primo caso il soggetto acquista una tendenza all'azione, un'azione che è la soluzione di qualche problema. Nell'altro caso, l'organismo acquista ciò che si può designare in modo generalissimo come un'aspettativa, una predisposizione, una credenza, un atteggiamento ... L'apprendimento di soluzioni comporta la risoluzione di problemi, la riduzione della pulsione e il conseguimento di piacere; mentre l'apprendimento di segni, o condizionamento, comporta spesso - e forse sempre - la creazione di problemi. Per quanto riguarda i sistemi effettori, i tratti neurali impiegati e le condizioni alle quali hanno luogo, queste due forme di apprendimento sono fondamentalmente diverse. » 1 L'apprendimento di segni si avvicina alla teoria della contiguità di Guthrie, mentre l'apprendimento di soluzioni corrisponde all'apprendimento strumentale di Skinner. Solo in questo secondo tipo è indispensabile il rinforzo attraverso la ricompensa, e quindi il piacere. Alla luce di queste teorie Mowrer ha sottoposto ad indagine sperimentale il principio del piacere e il principio della realtà elaborati da Freud ed è giunto a conclusioni sostanzialmente opposte, correlando il principio del piacere, secondo la dottrina psicoanalitica primario ed innato, col rinforzo dell'apprendimento di soluzioni, che è con ogni probabilità collegato al sistema nervoso centrale. Nonostante le ricerche di Mowrer non possano ancora dirsi concluse, si può affermare che, almeno su questo punto, egli è stato fuorviato dall'ambiguità della formulazione freudiana del principio del piacere e che i risultati dei suoi esperimenti non sono in realtà in contrasto con la teoria psicoanalitica. Mowrer ha sviluppato, fondandosi sulla sua teoria dell'apprendimento, una teoria delle nevrosi diversa da quella psicoanalitica. Traducendo i concetti freudiani nella sua terminologia, Mowrer fa corrispondere l'es alle pulsioni primarie, l'io all'apprendimento di soluzioni e il superio all'apprendimento di segni o I
H.O. Mowrer, Learning theory and perso-
naliry dynamics (Teoria dell'apprendimento e dinamica della personalità, 1950).
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
condizionamento sociale. Non ci sarebbe dunque un soffocamento dell'io ed un ripudio dell'es da parte del superio alla base delle nevrosi, ma piuttosto un'azione repressiva dell'io, dominato dall'es, nei confronti del superio. «Nei termini della teoria bifattoriale, questo punto di vista alternativo afferma che l'individuo nevrotico è un individuo in cui le pulsioni primarie non solo hanno avuto, ma hanno tuttora, il controllo dei processi di soluzione dei problemi e fanno sì che questi processi siano diretti a bloccare, inibire o annullare le pulsioni, acquisite e secondarie, di colpa, dovere e paura. » 1 Come molti psicologi sovietici contemporanei, (paragrafo vr) anche Mowrer, dunque, è convinto che esiste un tipo di condizionamento il quale non richiede il piacere come rinforzo. La sua teoria non è una semplice giustapposizione di principi derivati da Hull e di concetti psicoanalitici, ma è lo sforzo più personale finora attuato nel quadro delle teorie dell'apprendimento di elaborare e di adattare la psicoanalisi a uno schema teorico di impronta neo-behavioristica e ad un metodo fondato su una rigorosa base sperimentale. Anche Sears ha compiuto una grande mole di accurato lavoro sperimentale, volto alla dimostrazione degli assunti psicoanalitici. Egli ha formulato un primo esauriente resoconto del lavoro svolto in questa direzione nell'articolo Surv~y of objective studies of psychoana(ytic concepts (Rassegna di studi obiettivi dei concetti psicoanalitici, 1943). La sua posizione è alquanto particolare: egli tenta un allargamento della teoria dell'apprendimento, oltre che verso la psicoanalisi, anche verso la psicologia sociale e la teoria interpersonale dello psichiatra Harry Stack Sullivan (r892-1949), giungendo a formulare una teoria del comportamento e dell'apprendimento, alla cui base stanno unità diadiche (il cui modello primario è l'unità diadica madre-bambino) e non più unità monadiche, ovvero individui singoli. V · CONSIDERAZIONI GENERALI SUL NEO-BEHAVIORISMO
Come già si è accennato, i behavioristi della seconda fase sono largamente influenzati dalla concezione della scienza propria del movimento filosofico che viene solitamente detto empirismo logico. La concezione di Hull, ad esempio, della scienza come di un sistema ipotetico-deduttivo, richiama largamente le idee di Schlick, di Carnap e di altri esponenti del circolo di Vienna (a questo proposito, si veda il capitolo IX del volume settimo). Il legame con l'empirismo logico è presente anche nell'idea di un linguaggio dei lati, cioè di un linguaggio base costituito di termini osservativi cui debbano potersi ridurre tutti i concetti scientifici. A fondamento di tale idea sta la tesi tradizionale dell'empirismo riguardante l'esperienza come insieme di osservazioni, unitamente all'altra tesi che solo alcuni concetti designano enti osservabili e che tutti gli altri devono ricevere un significato a partire da tali concetti mediante definizioni operative o costrutti logici. r H.O. Mowrer, Prychotherapy, theory and research (Psicoterapia, teoria e ricerca, 1953).
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
I behavioristi assumono il linguaggio cosiddetto cosale come linguaggio base della scienza e rivelano ancora il loro legame con l'empirismo logico quando sostengono, sotto l'influsso della fisica moderna, che i dati fondamentali della loro teoria devono essere misurabili. I legami dei behavioristi con l'empirismo e, in particolare, la loro tesi dell'osservabilità, li porta ad affrontare in modo caratteristico le critiche e i problemi posti dalle teorie rivali della Gestalt e dalla psicoanalisi. La Gestalttheorie viene criticata per il suo uso di concetti incontrollabili come quello di insight, e la psicoanalisi è posta sotto accusa per l'uso altrettanto incontrollato di concetti come pulsione, inconscio e così via. La Gestalttheorie e la psicoanalisi vengono inoltre respinte perché si fondano sul soggettivismo e sull'introspezione. I risultati conseguiti da queste due teorie sono dichiarati accettabili dai behavioristi solo parzialmente e solo in quanto siano traducibili in termini osservativi. Risulta quindi chiaro, in base a quanto detto finora, il motivo dell'importanza attribuita dai behavioristi alla teoria dell'apprendimento: essa permette di spiegare il comportamento adattivo senza introdurre nella spiegazione concetti come scopo, motivazione, intenzione, comprensione e simili. L'intento è quello di spiegare l'apprendimento e quindi l'adattamento unicamente in termini di stimolo e risposta. In questo quadro generale, che costituisce la base comune ai behavioristi nel loro complesso, sussistono notevoli divergenze su alcune questioni di particolare importanza: ad esempio, per quel che riguarda la legge dell'effetto formulata inizialmente da Thorndike in base alla quale, entro un certo numero di comportamenti casuali, si fissa quello che ha avuto successo. Mentre, da un lato, alcuni studiosi accettano questa legge e spiegano l'instaurarsi di una connessione stimolorisposta in un contesto di successivi rinforzi (Hull e Skinner, ad esempio), altri negano l'importanza del rinforzo e si limitano a constatare la contiguità temporale di una risposta in presenza di uno stimolo (Guthrie, soprattutto). Un'altra divergenza riguarda l'impiego di costrutti teorici e di variabili intermedie nella costruzione delle teorie: si va dalla ricca intelaiatura di concetti teorici presente nel sistema ipotetico-deduttivo di Hull, all'estrema cautela operazionistica di Skinner. Un'ultima distinzione di notevole importanza è quella che contrappone i behavioristi ortodossi, i quali cercano le ragioni del comportamento nella correlazione fra stimolo e risposta, ai behavioristi di nuova impostazione che sostengono, invece, che solo attraverso l'analisi dei processi corticali e di quelli spinali si può arrivare ad una spiegazione soddisfacente del comportamento, in quanto sono questi processi neurofisiologici che determinano le modalità sia della percezione che della risposta. Gli studiosi di questo orientamento, che sta affermandosi in misura sempre maggiore (e di cui Donald O. Hebb è attualmente uno dei più noti rappresentanti), conducono la loro ricerca in una regione intermedia tra 491
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
neurofisiologia e psicologia, non tralasciando di servirsi degli apporti della cibernetica, della teoria dell'informazione, della statistica, nel tentativo di elaborare un modello dei processi centrali che determinano il comportamento. Quest'ultimo programma, nonostante tutte le difficoltà teoriche e pratiche che per ora si oppongono alla sua completa attuazione, sta in realtà incontrando sempre più successo; ciò si spiega col fatto che il behaviorismo ortodosso incontra delle difficoltà sempre maggiori. Infatti, nonostante l'eliminazione frettolosa della teoria della Gestalt e della psicoanalisi, sono stati proprio i risultati di queste due discipline a porre in crisi la teoria behaviorista ortodossa, tanto che molti behavioristi hanno finito coll'assumere una posizione eclettica (come ad esempio Tolman, solo per fare un nome fra i più famosi). Anche dal punto di vista sperimentale, alcuni esempi di comportamento adattivo intelligente che non era possibile far rientrare nello schema stimolo-risposta hanno messo il behaviorismo di fronte alle più grosse difficoltà. Questi comportamenti mostravano insight improvviso, comprensione o comunque una qualche sorta di direzionalità. Fra gli esempi più celebri possiamo citare gli esperimenti di Kohler con gli scimpanzé o quelli di Tolman con i topi. La classica teoria stimolo-risposta ha, quindi, dovuto cercare di inglobare questi dati introducendo, da un lato, un numero sempre maggiore di variabili intermedie (molto spesso fattori di tipo interno, non osservativo), di cui è dubbia la base empirica e sono ambigue le modalità operative, e, dall'altro, estendendo il significato dei propri concetti fondamentali, come «stimolo», « risposta », « istinto» , così da renderli di fatto abbastanza indeterminati e di scarso valore. Questi tentativi hanno condotto a una serie di ipotesi secondarie che spesso si sono rivelate irte di difficoltà e incompatibili con i presupposti del behaviorismo, una volta che siano stati chiariti i loro significati: intendiamo riferirei, ad esempio, alla contraddizione di assumere, in teorie che si autoproclamano behavioriste, risposte definite dai loro risultati, istinti definiti dai loro scopi, stimoli definiti dalle loro relazioni con altri dati. D'altro canto, il behaviorismo ortodosso non è riuscito a raggiungere quello che si era ripromesso, e cioè una spiegazione esauriente e sistematica del comportamento umano, nonostante il proliferare delle scuole e delle teorizzazioni. In questa particolare situazione le teorie che rivolgono il loro interesse verso lo studio dei processi neurofisiologici che sottendono il comportamento potrebbero essere, almeno per l'avvenire, le più promettenti. VI· LA PSICOLOGIA SOVIETICA DOPO PAVLOV
«Subito dopo la rivoluzione del 1917, in un clima di fede quasi assoluta nelle possibilità conoscitive umane, la psicologia aveva fatto molti passi avanti nella sua costituzione come scienza autonoma, ma si dibatteva tra le infiltrazioni di correnti 492
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
straniere e un obiettivismo tralignante in modelli meccanici e astratti. Residui tenaci della psicologia associazionistica introspettiva si mescolavano a orientamenti behavioristici, rifl.uiti dall'America; tracce di teorie fenomenologiche e di concezioni psicoanalitiche erano volta a volta assimilate e respinte dagli studiosi più in vista; genetisti e ambientalisti contrapponevano ancora, o sommavano confusamente, i fattori ereditari a quelli sociali. « Appare tuttavia chiaro, agli inizi degli anni venti, che il nemico principale contro cui concentrare la lotta in nome di una concezione materialistica, marxista, della ricerca è il soggettivismo; tanto quello della psicologia coscienziale, che separa la mente dell'uomo dal resto della natura e la dichiara governata da una causalità sua propria (la stessa psicologia sperimentale del Wundt), quanto il soggettivismo irrazionalistico degli istintivisti (Freud, McDougall) e quello fenomenologico dei gestaltisti (Wertheimer, Koffka, Kohler). « ... la dialettica marxista cominciava ad apparire ai giovani come un metodo obiettivo di ricerca, anzi "il metodo " per eccellenza, perfettamente adeguabile al più rigoroso procedimento scientifico, atta a consentire impostazioni dinamiche dell'indagine e insieme a innervarvi verifiche "sperimentali" in senso stretto. Il materialismo meccanicistico veniva così respinto come modello restrit-. tivo e fallace della realtà, e la dimensione storica penetrava nell'analisi dell'uomo; che non era più, per una psicologia concreta, l'uomo in generale, ma l'individuo appartenente ad una classe sociale, a una struttura culturale, a una data società. » 1 Questa lunga citazione illumina molto chiaramente la natura del dibattito e dei contrasti che accompagnano la psicologia sovietica del periodo qui considerato e fino ai nostri giorni: se la tendenza di carattere generale è quella or ora indicata, è difficile sostenere che i risultati ottenuti nella ricerca dai singoli autori, soprattutto nella prima fase, che si prolungherà fin verso gli anni cinquanta, vi si inseriscano in modo coerente. Il processo di elaborazione di una psicologia sovietica originale è reso difficile dal permanere di infiltrazioni di altre scuole, che si dimostrano assai resistenti alle critiche provenienti sia dall'ambiente stesso degli studiosi sia da sedi ufficiali, accademiche e politiche. Nel 1921 Paul Blonsky (n. 1884) pubblicò un volume, Saggi di psicologia scientifica, in cui la traccia fondamentale è data dal behaviorismo di Watson, tanto a livello teorico, quanto nell'applicazione al tema, ad esempio, della psicologia dell'età evolutiva. In Blonsky è presente una totale rinunzia al metodo dell'introspezione, ciò che comporta un atteggiamento di rifiuto verso lo studio degli aspetti soggettivi del comportamento. Nel volume citato, egli propone un'analisi del comportamento individuale condotta alla luce della situazione generale della società in cui esso ha luogo; d'altra parte, conoscere la società significa conoscerla sia nelle sue componenti strutturali-economiche sia in quelle sovrastrutturali. Blonsky insiste sull'esigenza di ricondurre lo studio del comportamento dell'in1
Angiola Massucco Costa, Psicologia sovietica, Torino 1963.
493
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
dividuo alle condizioni generali della classe sociale cui egli appartiene. In tal modo il concetto di classe sociale assume rilevanza per i problemi della psicologia. Tuttavia, la tendenza di Blonsky ad accogliere alcune tesi di origine biologica concernenti le leggi dell'ereditarietà è in netto contrasto con la tesi marxiana della plasticità della natura umana. In particolare, Blonsky accetta la legge « biogenetica » della ricapitolazione ontogenetica della filogenesi, che era stata diffusa in psicologia soprattutto dall'americano Stanley Hall (vedi capitolo n del volume sesto). Tale legge afferma che l'evoluzione dell'individuo rispecchia l'evoluzione della specie o della razza. Ciò è in contrasto con la tesi della plasticità dell'individuo e della possibilità di una sua trasformazione mediante la trasformazione dell 'ambiente. Blonsky fu quindi criticato da coloro che sostenevano la preminenza dei fattori ambientali su quelli biologici. In successive opere, egli affronta problemi più particolari: del r 9 3 5 sono Memoria e pensiero e Lo sviluppo del pensiero nello scolaro. Nella prima di queste opere, studia il rapporto tra la memoria e le facoltà logiche e distingue la memoria in « motrice», « emotiva», «immaginativa» e « logico-verbale»: negli ultimi due livelli i rapporti con il pensiero sono più stretti. Anche Konstantin Kornilov (r879-1957) combatte il soggettivismo nell'intento di porre a fondamento della psicologia una concezione generale di carattere marxista e materialistico. Ma mentre Blonsky, come si è visto, ricorre in tale tentativo alla tematica del behaviorismo americano, Kornilov elabora una teoria delle « reazioni » intese come fatti oggettivi e consistenti in risposte che comportano un grado diverso di energia in relazione ai diversi aspetti del comportamento studiato. Tali reazioni vanno ricondotte ad un principio energetico che Kornilov definisce in termini ostwaldiani. Ciò lo pone in contrasto con le tesi sostenute dai fisici sovietici e gli procura accuse di idealismo. Successivamente Kornilov, in Psicologia contemporanea e marxismo (1924), propone una tipologia dell'individuo impegnato nel lavoro produttivo, aprendo in tal modo una serie di ricerche concernenti la vita collettiva e, in particolare, i rapporti di produzione, nonché le varie forme di adattamento dei lavoratori. L'intento principale era quello di fare della psicologia una vera scienza, separata dalla filosofia e passibile di applicazioni concrete. D'altro canto, Kornilov propugna la necessità di analizzare gli stati soggettivi che devono rientrare nell'ambito di interesse della psicologia scientifica, sotto pena di cadere nell'incongruenza tipica dei riflessologi, i quali implicitamente ammettono l'esistenza di questi stati, ma non riescono a inquadrarli da un punto di vista teorico. Da un punto di vista più ampio, Kornilov intende ricondurre la psicologia nel quadro generale del materialismo dialettico: la sua critica è rivolta alle varie forme di meccanicismo materialistico volgare (come quello, a suo parere, di Betcherev), da una parte, e a tutte le teorie idealistiche, dall'altra. Egli propugna una forma di monismo materialistico in cui la psiche si presenta come proprietà della materia nelle sue forme più 494
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
elaborate di organizzazione. Il materialismo dialettico non riduce i processi psicologici alla fisiologia, ma assegna loro una realtà autonoma. Di qui trae origine la teoria di Kornilov delle « reazioni » della psiche al mondo materiale. Tale « reattologia » è lo studio delle reazioni soggettive agli stimoli provenienti dall'esterno. La psiche e la coscienza non sono che riflessi soggettivi dei processi che intervengono nei tessuti nervosi. Bisogna sottolineare che, se per descrivere l'aspetto soggettivo delle reazioni Kornilov deve necessariamente ricorrere all'introspezione, questa tuttavia è, in sé, da lui considerata priva di rigore scientifico. Anche in Kornilov è presente il tema del legame tra classe e individuo: l'uomo è un essere sociale e quindi non ha senso una psicologia del soggetto staccata dalla psicologia della classe di appartenenza. Anche il tema della plasticità della natura umana è presente in Kornilov, unitamente alla tesi dell'organicità dei fenomeni di carattere sia fisico sia sociale, i quali sono soggetti a un mutamento continuo. Nonostante ciò, la reattologia di Kornilov, pur essendo stata elaborata in modo indipendente, presenta analogie con il comportamentismo di Watson, proprio in quanto entrambi pongono come oggetto della psicologia le risposte dell'organismo agli stimoli esterni. Di qui le aspre critiche avanzate a Kornilov, che fu accomunato ai behavioristi: la sua reattologia non era conforme al pensiero marxiano, in quanto npn teneva conto che la relazione dell'uomo con la natura comporta una continua azione reciproca' dell'uno sull'altra. Marx, come è noto, era fortemente critico nei confronti di qualunque teoria di tipo materialistico-meccanicistico. Nella Ideologia tedesca egli sostiene che la dottrina materialistica, in base alla quale gli uomini sono il prodotto delle condizioni materiali esterne, dimentica che tali condizioni sono proprio ciò che l'uomo incessantemente modifica. Kornilov viene accusato di definire la coscienza come riflesso soggettivo dei processi neurofisiologici, isolandola in tal modo dal rapporto dialettico con il mondo esterno. Lo sviluppo dell'uomo, a differenza dello sviluppo della natura, è contraddistinto dal fatto che la coscienza partecipa attivamente allo sviluppo stesso. D'altra parte, secondo i suoi critici, Kornilov riduce la psicologia all'analisi del comportamento esterno e quindi esclude dalla ricerca la coscienza che è invece un elemento essenziale anche per l'analisi del comportamento stesso. Inoltre, riducendo la psicologia al comportamento, parallelamente al quale si succedono gli stati soggettivi della coscienza, Kornilov viene a sostenere una forma di dualismo, mentre, d'altra parte, il suo meccanicismo, per quanto riguarda le risposte comportamentali, denuncia la inconciliabilità delle sue tesi con quelle del materialismo dialettico. Il riconoscimento di queste difficoltà indusse Kornilov ad un ripensamento ed alla considerazione della natura umana come costituita dall'insieme delle relazioni sociali in cui l'uomo si trova inserito; tale accostamento al pensiero marxiano gli dimostra insostenibile l'accettazione di una semplice relazione meccanica tra individuo e società in base alla quale questa determina interamente quello: ciò che
495
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
si prospetta, invece, è l'idea di una effettiva interazione tra individuo e società che dà luogo ai rapporti sociali. È chiaro che tale atteggiamento generale si contrappone alle tradizionali ricerche di laboratorio, da lui condotte secondo criteri sostanzialmente simili a quelli della psicofisica ottocentesca. In conclusione quello che sembra essere il carattere fondamentale delle posizioni finali assunte da Kornilov, è, da un lato, l'accettazione di un metodo tradizionale che si rifà ad esperimenti di laboratorio e ad una ricerca di carattere empirico intorno a dati osservabili; d'altro lato, questi dati non vengono organicamente collegati ad una posizione filosofica di tipo marxiano, pur da lui accettata. Ne risulta, in definitiva, un dualismo acritico ed una sostanziale affinità con lo spirito del comportamentismo di Watson, assimilato anche nella frammentarietà delle ricerche condotte. Più aderente al pensiero marxiano - nelle intenzioni, come vedremo, più che nella sostanza- cerca di essere Lev Vigotsky (1896-1934), allievo di Kornilov. Al fine di creare una psicologia su basi effettivamente marxiane, Vigotsky, insieme a Aleksandr Luria (n. 1902) e a Aleksej Leontiev (n. 1903), di cui parleremo più innanzi, elabora una teoria psicologica collegata alla storia della cultura. Il suo procedimento richiama per alcuni aspetti quello di Dilthey. Senonché, mentre la psicologia di quest'ultimo si sviluppa nel clima della filosofia neo-kantiana, con profondi influssi hegeliani, la psicologia culturale di Vigotsky e degli altri si rifà alla filosofia della storia di Marx: lo sviluppo della psiche umana è legato agli stadi successivi di sviluppo socio-economico. La storia dello sviluppo economico dell'umanità va considerata come il punto fondamentale di riferimento della psicologia, dal momento che la coscienza vi si adatta in modo costante. Vigotsky, quindi, critica Kornilov che aveva, come si è visto, escluso dall'ambito della psicologia scientifica lo studio della coscienza. D'altra parte, egli non respinge la « reattologia » di Kornilov, ma ne propone una integrazione le cui basi sono, oltre che la filosofia della storia marxiana, alcuni aspetti della teoria della Gestalt e della riflessologia di Pavlov. Vigotsky porta, in certo senso, la psicologia sovietica più prossima alla tradizione occidentale; tuttavia il punto fondamentale viene identificato nel concetto marxiano di coscienza, sovrastruttura intesa come riflesso delle condizioni economiche materiali di base, da una parte, e come elemento a sua volta agente su tali condizioni, dall'altra. Vigotsky, quindi, unitamente a Luria e a Leontiev, respinge la prospettiva di un adattamento passivo dell'individuo all'ambiente e sottolinea gli aspetti attivi dell'operare umano, diretto al conseguimento di fini consapevoli in situazioni concrete, in cui siano presenti elementi sia di stimolo sia di ostacolo. Tali elementi divengono strumenti positivi o negativi, a seconda del fine che le persone si pongono nelle varie situazioni. L'esperimento, in psicologia, deve sottoporre a controllo l'intera personalità umana attraverso tutto l'arco della sua maturazione. Vigotsky condusse particolari ricerche sulla tendenza « dominante » del com-
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
portamento che era stata studiata dalla scuola di Betcherev. Nel concetto di « dominante » rientra per Vigotsky anche quello di fine coscientemente perseguito, il quale può subordinare a sé qualunque riflesso condizionato. La coscienza delle azioni è il prodotto del collegamento che si istituisce tra diversi ordini di riflessi. Quando tale collegamento non si istituisce, i processi non superano la soglia della coscienza. Il linguaggio costituisce per Vigotsky l'esempio principale di queste ordinate stratificazioni di riflessi che consentono l'instaurarsi della coscienza: esso è un riflesso della realtà e questo rispecchiamento determina la coscienza. Il linguaggio è alla base dell'esperienza sociale e costituisce, come sottolineava anche Pavlov, il carattere essenziale del comportamento umano, in tal modo distinto da quello animale. L'affermazione che la coscienza costituisce il principio direttivo del comportamento, conduce ad un'analisi critica del concetto di inconscio, così come era stato in precedenza accolto da quegli psicologi sovietici che guardavano con simpatia alle teorie freudiane. Essi sostenevano però che il concetto di inconscio è incompatibile con la psicologia obiettiva: la loro accettazione della teoria freudiana era quindi sempre stata solo parziale. A suo merito, si era detto, va il fatto di aver posto l'accento più sulle cause ambientali e sociali di deformazione degli istinti che non sui fattori biologici ed ereditari. Questo ben si inseriva nella polemica antibiologistica che tendeva a mettere in rilievo le possibilità di modificare la natura umana e di articolarla in modo da armonizzare le esigenze dell'individuo con quelle della società, contro il determinismo ereditario sostenuto dai biologi. In polemica con queste posizioni di accoglimento, sia pure parziale, della psicoanalisi, nel 1926 Vigotsky pubblicò alcuni risultati delle sue ricerche di laboratorio, il cui intento era quello di provare il predominio delle funzioni coscienti nella direzione dei processi dominanti. Ma il tema centrale del pensiero di Vigotsky è quello dello sviluppo, inteso come serie di mutamenti non solo e non tanto quantitativi, quanto qualitativi. Esso si verifica in conformità ai principi dialettici delle infinite possibilità di modificazione, dell'azione reciproca e della connessione organica di tutti i fenomeni. Lo sviluppo viene posto da Vigotsky in relazione con le condizioni storiche e culturali. Il problema di fondo è quello di indicare le fasi, le strutture e i livelli propri di tale sviluppo. In questo contesto si inserisce lo studio dei procedimenti più elevati della coscienza: il linguaggio, il pensiero logico, l'attenzione e la memoria. Queste ricerche, in cui Vigotsky riprende alcune tecniche della scuola di Wiirzburg (vedi capitolo n del volume sesto), sono riferite in Pensiero e linguaggio (pubblicato postumo nel 1934). L'orientamento della ricerca psicologica verso la dialettica, fortemente presente in Vigotsky e altri, può essere senz'altro ricondotto all'influenza esercitata dalla pubblicazione nel I 92 5 della Dialettica della natura di Engels. Essa portò a criticare il precedente indirizzo della psicologia sovietica, che aveva condotto 497
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
un'analisi limitata allo studio del rapporto tra determinati stimoli e determinate risposte e aveva cercato di definire le leggi dello sviluppo mentale. L'impostazione dialettica impone, invece, di studiare tutte le attività come interagenti e nega la possibilità di analizzarle isolatamente. Collaboratori di Vigotsky, e legati a Kornilov nella fase iniziale del loro pensiero, sono, come si è detto, Luria e Leontiev. Essi contribuiscono a dare l'avvio e ad approfondire l'indirizzo che abbiamo chiamato di psicologia culturale. Luria studia in particolare, tra l'altro, le modalità secondo le quali l'apprendimento e l'assimilazione di dati culturali e storico-ambientali agiscono sullo sviluppo della memoria e di altri processi superiori. In La psicoanalisi come sistema di psicologia monistica (1925) Luria sostiene la tesi della conciliabilità dell'inconscio freudiano con i principi della psicologia dialettica. Ma in una fase successiva, anch'egli aderisce alla tesi della coscienza come principio direttivo del comportamento e sostiene la possibilità di sottoporla all'indagine scientifica. Leontiev si pone, da questo punto di vista, sulla stessa linea di Luria che poi è anche quella, come si è visto, di Vigotsky. Nell'opera Lo sviluppo della memoria (193 1) Leontiev, fondandosi sull'applicazione dei principi della dialettica, elabora una teoria dello sviluppo storico-culturale, in cui l'evolversi della coscienza e le varie forme di comportamento vengono posti in relazione con le condizioni materiali dell'ambiente. Qui Leontiev dà il suo contributo allo studio dei processi superiori della psiche (linguaggio, memoria, attenzione, pensiero logico). Anche questo indirizzo, che abbiamo detto della psicologia culturale, andò incontro a forti critiche, di cui la principale era la mancata soluzione del rapporto fisio-psichico, tra corpo e coscienza o, se si preferisce, tra soma e psiche. In questo quadro, gli psicologi sovietici furono richiamati ad una maggiore attenzione verso i problemi della fisiologia, in quanto la « concezione marxista della coscienza parte dal riconoscimento del fatto che la psiche o coscienza è un prodotto del cervello ed è un riflesso del mondo esterno; ciò significa che i fenomeni psichici derivano e dipendono dalla realtà materiale, la quale è indipendente dalla psiche e primaria, perché il mondo esterno per sua natura è materiale e si sviluppa secondo le leggi che governano il movimento della materia ».1 Questa presa di posizione indica abbastanza chiaramente qual era la direzione che la psicologia sovietica doveva prendere. La coscienza non è una forma della materia, ma solo un suo riflesso, «un riflesso della realtà oggettiva». Come sviluppare una psicologia fondata su tali principi ispiratori? La soluzione più coerente era quella di collegare i dati della psicologia a quelli della fisiologia, elaborando una psicologia che potesse risultare una « sovrastruttura » della fisiologia. Le basi fisiologiche della psicologia erano state costruite da Sechenov e da Pavlov. In questa direzione si volsero le ricer1 E. T. Chernakov, Contro l'idealismo e la metafisica in psicologia, in « Voprosy filosofii », 1948,
n. 3, cit. da ]. Wortis, Soviet psychiatry (Psichiatria sovietica), Baltimora 1950.
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
che psicologiche di Sergej Rubinstein (n. 1 889) e in misura ancora maggiore gli studi degli anni tra il 1950 e il 1960. Rubinstein è il maggiore teorico di un accostamento tra Pavlov e Marx nell'ambito della psicologia sperimentale. Rubinstein, con lo studio I problemi della psicologia nelle opere di Karl Marx (1934), iniziò una serie di ricerche sui problemi della psicologia affrontati da Marx, problemi riguardanti sia la personalità sia lo sviluppo delle possibilità umane: l'affermazione principale di Rubinstein è che la coscienza si sviluppa in un processo di attività. Questo tema sarà da lui ripreso nell'opera Le basi della psicologia (193 5). Una psicologia che voglia dirsi dialettica deve elaborare alcuni temi fondamentali fra i quali: la possibilità di uno sviluppo della personalità attraverso l'apprendimento in situazioni ambientali concretamente stimolanti, di contro all'accettazione di una dotazione immutabile, ereditariamente determinata; l'approfondimento del primato e delle caratteristiche della coscienza nel dirigere le azioni umane; lo studio delle attività della coscienza non in situazioni sperimentali isolate ma nel concreto loro svolgersi e trasformarsi e quindi l'accentuazione dei legami tra ricerca e teoria, da un lato, e vita sociale, lavorativa e scolastica, dall'altro. Rubinstein non partecipò di persona allo svolgimento di questo programma, rimanendo sostanzialmente estraneo all'attuazione di ricerche sperimentali inserite nel vivo contesto della realtà sociale sovietica. Rubinstein distingue due aspetti della personalità umana: esperienza e percezione. L'esperienza costituisce il fatto psicologico primario e comprende la parte soggettiva della vita dell'uomo nel mondo reale. Essa è la base da cui emerge la coscienza: non c'è infatti una separazione netta tra esperienza e percezione cosciente; emozioni e impulsi provengono da uno stimolo che ha origine nell'organismo; gli impulsi riflettono una necessità organica e la loro origine è somatica. Gli impulsi e i sentimenti inconsci hanno origine negli organi interni del corpo. «Gli impulsi nervosi che vanno dagli enterocettori al sistema nervoso centrale non pervengono nella maggioranza dei casi ai centri nervosi superiori della corteccia; quindi essi non producono percezioni, pur modificando le condizioni funzionali del sistema nervoso, in particolare gli organi sensoriali. » 1 Impulsi e sentimenti inconsci, che nascono dagli enterocettori, divengono consci quando siano diretti verso il mondo esterno. La sfera del conscio è connessa alla percezione degli oggetti. Tuttavia, anche la percezione degli oggetti non si risolve interamente in un riflesso del mondo esterno, ma si accompagna ad emozioni che costituiscono un'esperienza immediata. Esse non rappresentano il contenuto dell'oggetto, ma lo stato soggettivo dell'individuo e il suo atteggiamento verso l'oggetto. L'individuo che avverte un oggetto come necessario al soddisfacimento di un bisogno dirige verso di esso l'impulso, trasformandolo necessariamente in un desiderio, e provocando in tal modo un mutamento della sua natura: esso, I
S.L. Rubinstein, Fondamenti di psicologia generale, Mosca I 946.
499
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
infatti, diviene conscio; la percezione dell'oggetto è dunque il principio della coscienza. Rubinstein elabora su queste basi una psicologia fondata su dati empirici, che vuole essere fedele alla distinzione marxiana tra realtà e coscienza e alle linee generali della fisiologia pavloviana. Malgrado ciò, egli non riesce ad evitare di introdurre nella sua psicologia elementi della psicologia europea ed americana: soprattutto non si sottrae a certi influssi di origine freudiana. Per cui, in sostanza, neppure Rubinstein si scosta da un impianto tradizionale della ricerca psicologica e, soprattutto, l'impostazione dialettica dell'indagine psicologica risulta più un programma non realizzato che un concreto raggiungimento. Tuttavia, la sua opera, Fondamenti di psicologia generale (1940), rimase, nella seconda edizione del 1946, il testo classico della psicologia sovietica, pur se, come è stato in seguito rilevato, i vari processi della percezione, della memoria, della rappresentazione del pensiero vi sono studiati in forme talora introspezionistiche, impiegate in modo acritico, ed è assente un serio esame della possibilità di analizzare i processi suddetti alla luce di un metodo obiettivo. A questo va aggiunto che l'analisi è in generale condotta trascurando le varie situazioni concrete della vita reale, per cui le diverse attività mentali appaiono disancorate, prive di legame con la realtà. Ne viene, come hanno rive~ato molti critici, uno stridente contrasto tra l'affermazione in sede teorica di una connessione con la prassi e la ricerca condotta in concreto secondo i canoni tradizionali della sperimentazione di laboratorio. Nel 1950 e negli anni successivi la psicologia sovietica viene da varie sedi, anche ufficiali, richiamata a reinserirsi nei principi del pavlovismo ortodosso, ritenuti conciliabili con il pensiero di Marx. In passato, Lenin aveva ufficialmente sostenuto le ricerche di Pavlov, nella convinzione che esse, almeno in linea di principio, fossero conciliabili con il pensiero marxiano e in particolare con la dialettica. L 'impostazione dialettica della ricerca in psicologia con il conseguente rifiuto di ogni forma di materialismo meccanicistico porta verso un recupero del nucleo più fecondo del pavlovismo. La psicologia sovietica si ripropone l'impiego della tecnica del condizionamento per lo studio delle attività superiori della mente. È un ritorno alle procedure obiettive di studio propugnate da Pavlov, in contrasto con i metodi introspettivi. Ritornano quindi in primo piano gli studi sul condizionamento e sugli elementi fisiologici di esso. Ponendo in evidenza i fattori fisiologici ed elaborando strumenti di analisi sempre più precisi, la psicologia sovietica conduce attualmente ricerche sul linguaggio, sull'apprendimento, sulla percezione ecc., e ha conseguito importanti risultati sia nel campo del condizionamento enterocettivo sia del condizionamento di livello « superiore » a parole e a simboli (condizionamento semantico). In questo quadro assumono particolare rilievo alcune ricerche di carattere sperimentale condotte sul condizionamento degli organi interni, il cui significato più profondo consiste nella prospettiva che esse lasciano intravedere di una ri500 www.scribd.com/Baruhk
La psicologia scientifica contemporanea
duzione della psicologia alla fisiologia e di questa alla chimica, prospettiva che fino ad ora è stata delineata, in Unione Sovietica e altrove, più che altro in sede filosofica. Pare superfluo sottolineare la rilevanza delle ricerche indicate nei confronti di una concezione materialistica della vita psichica. Gli studi sul condizionamento enterocettivo hanno portato alla raccolta di dati molto significativi su uno dei problemi centrali nelle ricerche odierne, quello dei rapporti tra conscio ed inconscio. Gli esperimenti nel campo del condizionamento enterocettivo, condotti a partire dal 1950, hanno dato la possibilità di osservare, anziché di inferire soltanto, i processi inconsci, e di stabilire connessioni regolari con i processi consci. (Già nel 1940 Konstantin Bykov [n. r 886], nell'opera La corteccia cerebrale e gli organi interni, aveva condotto una serie di ricerche sul condizionamento degli organi interni nel quadro di un severo metodo pavloviano). Gli esperimenti sopra accennati aprono, come è stato autorevolmente sostenuto, una prospettiva di avvicinamento alla problematica dell'inconscio, tipica della teoria psicoanalitica, oltre che alla medicina psicosomatica. Il condizionamento enterocettivo ottenuto principalmente su organi quali il peritoneo viscerale, la superficie degli emisferi cerebrali, lo stomaco e alcune parti dell'intestino conduce a reazioni inconsce. Gli esperimenti riguardanti il condizionamento enterocettivo stabiliscono un collegamento tra la fisiologia degli organi interni e la psicologia dell'apprendimento. Tali studi sono stati resi possibili da una esplorazione sistematica, condotta da Bykov e dalla sua scuola, che ha portato a concludere che esistono recettori praticamente in tutti gli organi interni, senza che tuttavia la loro esistenza comporti necessariamente la presenza di sensazioni piacevoli o dolorifiche. Laddove le teorie dell'apprendimento americane hanno spesso sottolineato l'essenzialità delle sensazioni piacevoli, come rinforzo e ricompensa nel processo dell'apprendimento, e delle sensazioni dolorifiche, come ostacolo all'apprendimento stesso, gli esperimenti di Bykov dimostrano la possibilità dell'apprendimento di risposte condizionate anche in assenza di reazioni piacevoli o dolorifiche. Gli organi interni furono da Bykov condizionati a stimoli tattili, elettrici, chimici e acustici. Si possono ottenere risposte condizionate quando « una di queste risposte è una risposta ad un potente bisogno biologico: fame, sete, appetito sessuale, paura». Secondo Bykov gli «impulsi trasmessi dai recettori viscerali sono caratterizzati come impulsi al di sotto della soglia, in confronto a quelli trasmessi dagli esterocettori ». Essi possono produrre sensazioni subconsce e, secòndo Grigorj Razran (n. r9or), possono essere posti in corrispondenza con la sfera dell'es freudiano. Inoltre, si stabiliscono con estrema facilità, hanno il carattere di risposta più limitata, lenta e massiva rispetto a quella del condizionamento esterocettivo; tuttavia, una volta fissati, sono praticamente inestinguibili. Tali caratteri di facile instaurazione, di maggiore persistenza, di non accessibilità alle soglie della coscienza rendono possibile l'accostamento del condizionamento enterocettivo al concetto di inconscio freudiano. 50!
www.scribd.com/Baruhk
M'W:!:P'RU!''"''"Q"'T!M!I!Ifr'R'""'DI':ri'"""A'''!!S"P":C"I!''"'"''''''"''III''"''""'"''""A''''''''' ,,,,,,,,,,,,,,,,,,,, ... ,,,",
Inibizione esterna di una dispnea riflesso-condizionata: pronunciando il suono «se» (indicato dalla freccia sotto il grafico superiore') o accarezzando l'animale (frecce sotto il secondo grafico) si provoca un rallentamento della respirazione; la dispnea riflesso-condizionata si trasforma in respirazione normale: illustrazione da La corteccia cerebrale e gli organi interni (Milano 1958) di Konstantin Bykov.
•r•ww,I!MHI0 ''ft:P"'"""«wg,llccctf'"'f"''f
.,,,
!t,
te,.U""t!!ld d'M
'*
CUI' t9' !f1"(!1ftt
'"'Wt"<''•ff"' "'
Il
#"MSW'M · -
'(*f!f!!''w'k'tf!l: :tf!a"':tlt1'1!t!t'f"l!ff"rtc!!f!
·
'!!!tU:
Formazione di una seconda differenziazione ad un nuovo ambiente « indifferente »: illustrazione da La corteccia cerebrale e gli organi interni (Milano 1958) di Konstantin Bykov.
j02
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
La psicologia sovietica ha compiuto negli ultimi due decenni un lavoro considerevole alla ricerca di una soluzione del problema della dicotomia mente-corpo. Notevoli progressi sono stati compiuti par quanto riguarda la parte fisiologica: il condizionamento enterocettivo apre nuove prospettive nello studio dei processi inconsci e del problema dell'alternanza dolore-piacere. Il compito che attende i ricercatori sovietici è quello di dare senso compiuto all'affermazione di Pavlov secondo la quale si giungerà sicuramente a realizzare « la naturale e inevitabile fusione dello psicologico e del fisiologico, del soggettivo e dell'oggettivo». VII · KUR T LEWIN
Kurt Lewin (1890-1947) studiò sotto la guida di Karl Stumpf a Berlino. All'avvento al potere di Hitler emigrò negli Stati Uniti dove insegnò in varie università e, da ultimo, al Massachusetts lnstitute ofTechnology dove fu il fondatore e l'organizzatore del Research center for group dynamics (Centro di ricerca per la dinamica di gruppo). Lewin è uno degli psicologi contemporanei in cui è più chiaro un impegno filosofico che lo porta, tra l'altro, al ricorso a moderni metodi matematici. Il problema della applicazione di strumenti matematici e in particolare topologici alla psicologia, fu infatti da lui incessantemente affrontato e rielaborato. Questa posizione e le teorie altamente originali che ne derivarono lo portarono ad una posizione particolare rispetto alle altre correnti psicologiche. Si usa spesso considerare Lewin come un gestaltista o, almeno, come un continuatore, dotato di grande originalità, della teoria della Gestalt: questo, anche se parzialmente vero, non è però del tutto esatto. In realtà, Lewin si differenzia profondamente per l'accento posto sulla motivazione, la personalità e i fattori sociali. Egli trascura lo studio della percezione e la ricerca di correlati fisiologici ai comportamenti, che tanta parte hanno nella teoria gestaltista, per porre, invece, l'accento sul comportamento inteso globalmente, come funzione di tutto l'ambiente fisico e sociale. Lewin compie un'analisi della strutturazione storica della scienza in generale, che gli permette di situare e di fondare teoreticamente la propria dottrina. Secondo lui si possono distinguere tre periodi nella storia della 'scienza: un primo periodo «aristotelico» o« speculativo», in cui l'obiettivo era quello di scoprire l'essenza di un evento e la sua appartenenza a una data classe di eventi. Caratteristica dei sistemi scientifici di questo periodo è quella di essere onnicomprensivi e di derivare i propri schemi di spiegazione da pochi concetti fondamentali: tipici esempi sono le dottrine naturalistiche dell'antica Grecia. Nel secondo periodo, « descrittivo », lo scienziato si pone come compito quello di raccogliere i dati e di darne una accurata descrizione; la classificazione diviene lo strumento principe: la biologia prima di Darwin o la psicologia wundtiana ne possono essere considerati
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
esempi. Secondo Lewin, bisogna affrontare anche in psicologia un terzo stadio, « costruttivo » o « galileiano »: lo scienziato deve scoprire le leggi che servono alla previsione del caso singolo. Ogni situazione particolare, non solo gli eventi ricorrenti, è significativa per quel che riguarda la possibilità di formulare una legge: ogni caso singolo contiene tutte le leggi psicologiche e la rappresentazione del caso stesso comporta una spiegazione psicologica totale. La media statistica non è sufficiente a spiegare l'individuo nella sua concretezza e la situazione totale nella quale si trova ad agire. Al centro della teoria lewiniana si trova l'individuo, o genotipo, piuttosto che la media statistica, o fenotipo. Mentre le scienze naturali sono nomotetiche, le scienze che riguardano l'uomo devono essere idiografiche, cioè riguardare i casi particolari e, solo in un secondo tempo, correlarli eventualmente a leggi generali. La storia offre un esempio perfetto di scienza idiografica: il fatto storico è un idiofenomeno, unico, cioè, e irripetibile. Da ciò la convinzione di Lewin che « gli eventi passati non possono influenzare gli eventi presenti » e che bisogna sostituire al concetto di causalità « storica » un concetto di causalità «sistematica», mediante il quale si possa prevedere un risultato in base alla totalità delle condizioni e delle leggi presenti al momento. Anche questa concezione contribuì a spingere Lewin a considerare il comportamento come una situazione totale. Considerare una situazione come totalità significa, secondo Lewin (Principles oj topological psychology [Principi di .Psicologia topologica, 1936]), considerarla come un « campo ». Il « campo » è una totalità di fatti psicologici interdipendenti e, per quel che riguarda l'individuo, la totalità di tutti i possibili eventi che lo influenzano: il suo « spazio vitale» (the /ife space). Lo spazio vitale di un individuo comprende la sua personalità e il suo ambiente, e le loro reciproche relazioni. Il comportamento di un individuo è, dunque, funzione della sua personalità e del suo ambiente. Passato, presente c futuro sono presenti nello spazio vitale in senso eminentemente psicologico, nel senso, cioè, che ognuno di questi tre aspetti influisce sul comportamento in una situazione attuale. Lo strutturarsi dello spazio vitale rispetto a queste tre dimensioni dipende dalla personalità individuale e dal particolare tipo di comportamento. Lo spazio vitale può essere più o meno riccamente differenziato: mentre quello di un neonato può essere rappresentato da un cerchio vuoto, quello di un adulto maturo è altamente differenziato, non solo per quel che riguarda le dimensioni temporali, ma anche per i livelli della realtà e del!' irrealtà. Il livello di realtà è rappresentato dal comportamento effettivo, quello di irrealtà dalla fantasia e dalla vita onirica, mentre al centro si situa un livello intermedio rappresentato, ad esempio, dal progetto di un'azione futura. Ponendosi il problema di descrivere in termini matematici il comportamento in uno spazio vitale, Lewin si rese conto inevitabilmente che gli strumenti matematici, utili per le scienze naturali, non lo sono altrettanto per le scienze idiogra-
www.scribd.com/Baruhk
G (a)
(b)
(c)
B
(e)
(f)
Aol3
(h)
(i)
(j)
Due modi fondamentali di rappresentare una situazione, quando lo scopo può essere raggiunto solo per determinate vie: questa accessibilità limitata può essere rappresentata o con strumenti unicamente topologici, o per mezzo di concetti dinamici. P persona; Pr problema matematico; G scopo (soluzione del problema); M, MI, M2 moltiplicazioni diverse; DI, D2, D;, D4 divisioni diverse; B barriera insuperabile; Adi, Ad2, AdJ, Ad4, accessi diversi; U regioni qualitativamente indeterminate; a situazione indifferenziata; b situazione differenziata nello stadio iniziale di un compito matematico. In a e b non è rappresentata l'accessibilità limitata che viene indicata con strumenti unicamente topologici in d ed elaborata in g; la rappresentazione per mezzo di concetti dinamici è indicata in c ed elaborata in e,f, i. Le relazioni fra le due rappresentazioni sono indicate in h e j. Illustrazione da Principles of topological psychology (Londra-New York 1936) di Kurt Lewin.
505
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
fiche. Trovò invece che la geometria e la topologia potevano utilmente essere applicate alla sua teoria, per interpretarla•e rappresentarla. Ma, per alcune situazioni, anche gli strumenti offerti dalla topologia sono inadeguati e Lewin introdusse il concetto di spazio odologico (hodological space), in cui si possono distinguere le « direzioni verso » dalle « direzioni da ». Per quel che riguarda la teoria dinamica, intimamente correlata a quella descrittiva dello spazio vitale, Lewin si servì degli strumenti offerti dall'analisi vettoriale. Alla base della sua concezione dinamica (A cfynamic theory oj persona!iry [Una teoria dinamica della personalità, 193 5]), egli pose uno stato di «bisogno», che costituisce la molla che spinge verso uno scopo o verso un oggetto ed è accompagnato da stati emotivi detti «tensioni». Sulla via per raggiungere gli oggetti, l'individuo può incontrare delle « barriere » (fisiche, sociali, morali) verso le quali può assumere molteplici atteggiamenti. Gli oggetti, inoltre, possono avere per l'individuo una «valenza» positiva o negativa e la direzione della loro forza di attrazione può essere rappresentata da un «vettore». Proprio il concetto di vettore offre la possibilità a Lewin di formulare la sua teoria dei conflitti, come risultanti dal vario reciproco orientamento e rapporto di due vettori. Il modello offerto da Lewin per quel che riguarda la spiegazione dei conflitti è stato usato come punto di partenza per numerose indagini sperimentali. Egli stesso e i suoi collaboratori hanno compiuto una gran mole di lavoro sperimentale, i cui risultati sono molto noti e certamente assai più celebri delle teorie che ne sono il presupposto. Tra questi esperimenti, cui possiamo qui solo brevemente accennare, ricorderemo l'esperimento sul ricordo dei compiti non finiti (il cosiddetto effetto Zeigarnik): si dimostrò che si ricordano meglio i compiti che non si sono potuti concludere, in quanto si ha una perturbazione del campo, dovuta all'interruzione, che porta a uno stato di squilibrio e di tensione. Un altro esperimento costituì, dal particolare punto di vista lewiniano, la conferma di una teoria freudiana: si dimostrò che la frustrazione, indotta sperimentalmente su di un gruppo di bambini, produce una regressione nelle attività organizzative e costruttive. Ma gli esperimenti forse più celebri condotti da Lewin e collaboratori, riguardano le « atmosfere » democratiche, autoritarie e di laissezjaire e i loro effetti sulla produttività e la condotta sociale. Col passar degli anni, Lewin si è sempre più interessato di problemi di psicologia sociale: a lui risale quella corrente detta della « dinamica di gruppo », che così largo seguito ha nella psicologia odierna. L'espressione group cfynamics copre un'area vasta e composita, abbracciando in una visione particolare campi diversi quali la psicologia del lavoro, la psicoterapia, i piccoli gruppi, i problemi della comunicazione. L'influsso di Lewin rimane oggi particolarmente forte proprio per quel che riguarda la psicologia sociale e i suoi rapporti con la psicologia dell'età evolutiva.
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
Le sue posizioni teoriche e il suo sforzo per impiegare gli strumenti matematici e in particolare topologici sembrano invece aver inciso in misura minore sulla psicologia contemporanea e vengono considerati quasi esclusivamente come utili espedienti rappresentativi e didattici. Quello di Lewin rimane tuttavia un tentativo geniale di integrare il punto di vista nomotetico con quello idiografico, che potrà forse dimostrarsi passibile di ulteriori sviluppi. VIII · JEAN PIAGET -1"<60
La figura e l'opera dello svizzero Jean Piaget (n. I 896) (cui si è già fatto cenno nelle pagine dedicate alla pedagogia) sono estranee alle scuole psicologiche di tradizione tedesca-anglosassone-americana e hanno trovato un'eco all'estero soprattutto negli ultimi decenni, suscitando per altro reazioni contrastanti e, a volte, polemiche. Piaget ha elaborato una teoria altamente originale e, insieme a un gruppo di allievi che si è raccolto intorno a lui all'università di Ginevra, ha condotto per molti anni una serie di indagini e di esperimenti per esplorare lo sviluppo dei bambini sotto molteplici punti di vista. I suoi scritti, molto numerosi, spaziano su una grande varietà di argomenti, includendo studi sullo sviluppo del linguaggio, del giudizio morale, defl'intelligenza, del gioco, della realtà, del concetto di numero, di causalità ecc. In anni più recenti Piaget ha esteso le sue ricerche sperimentali ai campi della percezione e del pensiero allo scopo di illuminarne gli aspetti categoriali e le modalità di funzionamento. Citeremo qui soltanto alcuni dei titoli più importanti: Le ju._rpnent et le raisonnement chez l'enfant (Il giudizio e il ragionamento nel bambino, I924), Le langage et la pensée chez l'enfant (Il linguaggio e il pensiero nel bambino, I924), La représentation du monde chez l'enfant (La rappresentazione del mondo nel bambino, I926), La causalité physique chez l'enfant (La causalità fisica nel bambino, 1927), Le jugement mora/ chez l'enfant (Il giudizio morale nel bambino, 1932). A partire dal 1937, all'incirca, Piaget orienta le sue ricerche verso problemi di logica e di epistemologia; sono di questo periodo, ad esempio: La genèse du nombre chez l'enfant (La genesi del numero nel bambino, 1941, scritto in collaborazione con A. Szeminska), Le développement des quantités chez l'enfant (Lo sviluppo delle quantità nel bambino, 1941, scritto in collaborazione con B. Inhelder), Le développement de la notion de temps chez l'enfant (Lo sviluppo della nozione di tempo nel bambino, r 946), La représentation de l' espace chez l' enfant (La rappresentazione dello spazio nel bambino, 1948, scritto in collaborazione con B. Inhelder), La géométrie spontanée chez l'enfant (La geometria spontanea nel bambino, 1948), La genèse de l'idée de hazard chez l'enfant (La genesi dell'idea di caso nel bambino, 195 r), De la logique de l'enfant à la logique de l'adolescent (Dalla logica del bambino alla logica dell'adolescente, 195 5), La genèse des structures logiques élémentaires (La genesi delle strutture logiche elementari, 1959, scritto in collaborazione con B. Inhelder). A Parigi, negli anni giovanili della sua formazione, Piaget studiò, fra l'altro,
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
logica e filosofia della scienza, e portò questi interessi filosofici nella sua attività di psicologo per tutto il corso della sua lunga e laboriosissima ricerca. Per mezzo di esperimenti molto semplici, e tuttavia fecondi, egli studiò la genesi e lo sviluppo dei concetti logici, matematici e fisici nel bambino. Il suo intento era di esaminare su base empirica la natura dei concetti e dei principi che i filosofi discutono in modo aprioristico. Egli dice« epistemologia genetica» tale analisi delle strutture categoriali del pensiero. L'attività esterna del soggetto ha una parte essenziale, secondo Piaget, nella costruzione dell'apparato concettuale di cui si vale il pensiero: la novità dell'impostazione piagetiana è che essa conduce ad analizzare tale attività nel bambino, tralasciando l'analisi introspettiva delle sensazioni, intesa nel senso della tradizione filosofica. Lo studio dello sviluppo intellettuale del bambino viene posto su base sperimentale ed esteso sistematicamente all'intero arco dell'evoluzione intellettiva, dalla nascita all'adolescenza. Tutte le ricerche condotte da Piaget hanno la forma di esperimenti: esperimenti però di tipo particolare per evitare le ambiguità del linguaggio verbale, che con i bambini costituiscono sempre delle difficoltà. Tali esperimenti particolari hanno il vantaggio di presentare in termini semplici, concreti ed interessanti per il soggetto, problemi teorici di grande complessità (la nozione di numero, di spazio, di tempo, di probabilità, tanto per fare qualche esempio). Solo per quanto riguarda la forma più elementare di intelligenza, da lui definita« senso-motoria »(che copre all'incirca i primi tre anni di vita), Piaget si servì di un metodo osservativo non ancora compiutamente sperimentale; quest'osservazione fu guidata dall'ipotesi dello svolgersi dell'intelligenza in questo periodo da comportamenti riflessi a comportamenti abitudinari a comportamenti intelligenti. Lo svolgersi dell'intelligenza prosegue, secondo Piaget, con quella che è stata da lui denominata intelligenza « rappresentativa », articolata nelle fasi del pensiero intuitivo (dai tre ai sei, sette anni), del pensiero operatorio concreto (fino ai dieci, undici anni) e del pensiero formale astratto o ipotetico-deduttivo (oltre gli undici anni). Per queste fasi il metodo usato da Piaget è più decisamente sperimentale e si divide in due momenti staccati ma complementari, dei quali l'uno serve di verifica all'altro: il metodo « critico » e il metodo « clinico ». Negli esperimenti effettuati secondo il metodo critico il bambino deve manipolare del materiale in modo tale da dover necessariamente affrontare taluni passaggi « critici »: dalle modalità di superamento si possono indurre le strutture e il livello mentale raggiunto. Nel colloquio « clinico » lo sperimentatore deve invece esplorare le aree in questione cercando di ottenere delle risposte il più possibile spontanee e non influenzate. In tal modo Piaget giunge ad indagare i vari lati dello sviluppo mentale illuminandone aspetti sconosciuti e modalità di sviluppo inaspettate. L'attività razionale del bambino inizia quando i suoi procedimenti assumono un certo ordine che può essere controllato dal pensiero. In questa fase il bambino, se commette un errore nello svolgimento di un'attività, è in grado di
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
ritornare al punto di partenza. Questa caratteristica del pensiero che permette di invertire una serie di idee o di azioni è detta da Piaget « reversibilità ». Essa è il fondamento della capacità di realizzare esperimenti mentali ed è anche il fondamento dei procedimenti deduttivi. Come si è detto, l'interesse di Piaget è sempre stato diretto verso la spiegazione della genesi di alcune fondamentali categorie intellettive: alla base della sua teoria sta l'ipotesi che sia i concetti di realtà e di causalità che i concetti astratti di classe, relazione, numero, come anche i concetti fisici di spazio, tempo, velocità, movimento ecc. si formino mediante una serie di successivi adattamenti. Piaget definisce l'adattamento, inteso come costituzione di schemi motori e di schemi di spiegazione dei concetti, come un equilibrio dinamico tra processi di accomodamento e di assimilazione. Il meccanismo fondamentale dello sviluppo intellettivo consiste, infatti, nell'alternarsi di processi di assimilazione dei dati empirici a schemi di comportamento o di spiegazione e di previsione già posseduti, e di processi di accomodamento, ossia di modificazione di schemi già posseduti, mediante il loro adeguamento a nuovi dati. Ad esempio, se la formulazione di una previsione è un processo di assimilazione, per contro la modificazione di uno schema di previsione in base ai dati disponibili dà luogo a un processo di accomodamento. Esemplari del metodo di indagine piagetiana così come della struttura teorica che la informa sono le ricerche sulla rappresentazione del mondo e sul concetto di causalità fisica nel bambino. Per quel che riguarda la rappresentazione del mondo nel bambino Piaget sostiene che i processi mentali variano seguendo alcune fasi tipiche. Ci limiteremo ad accennare brevemente a queste linee evolutive: fino al terzo anno di età il pensiero del bambino ha carattere autistico, egli cioè non distingue fra mondo esterno e mondo interno, « pensa con la bocca », crede che le sue stesse parole facciano parte degli oggetti esterni, non fa differenza fra il proprio respiro e il vento, confonde i nomi degli oggetti con gli oggetti stessi. Fino a sette o otto anni, invece, il pensiero è egocentrico e caratterizzato dall'animismo: ogni cosa vive in funzione del bambino, le nuvole e i corpi celesti si muovono di loro spontanea volontà per seguirlo. Oltre gli otto anni il bambino evolve attraverso lo stadio della causalità meccanica fino a quello maturo, raggiunto verso l'adolescenza, della deduzione logica. In particolare, Piaget avanza l'ipotesi che nello sviluppo del pensiero del bambino dai tre agli undici anni, debbano prodursi tre processi diversi ma complementari: il passaggio dal realismo all'obiettività, dal realismo alla reciprocità e, infine, dal realismo alla relatività. Per realismo Piaget intende quel fenomeno per cui nel pensiero del bambino gli aspetti reali, concreti, visivi delle cose hanno una preminenza sugli aspetti intellettuali, simbolici o comunque non percettivi. Il realismo è caratteristico non solo di tutta l'attività intellettuale del bambino ad un certo stadio, ma anche dei suoi giuc!_izi morali e persino del concetto che egli ha
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
del pensiero, delle parole, dei sogni ecc. Il passaggio dal realismo all'obiettività significa per Piaget l'inizio della differenziazione fra mondo interno e mondo esterno; il passaggio dal realismo alla reciprocità è anch'esso un allargamento del punto di vista dal proprio personale agli altri possibili: il bambino di sette-otto anni ha compreso che il sole non segue solo lui ma anche tutte le altre persone; che i sogni appartengono alle manifestazioni interne di ogni persona e non sono una scena reale che si svolge nella stanza e a cui chiunque potrebbe assistere ecc. Molto vicino è quindi il passaggio dal realismo alla relatività in cui il bambino è ormai pronto a rinunciare a concetti assoluti a favore di concetti relativi ad altri termini di paragone. Secondo Piaget, lo sviluppo del concetto di causalità nel bambino segue lo stesso cammino del concetto di realtà. Ma qui l'analisi da lui compiuta è molto più complessa, perché egli distingue nel pensiero del bambino, diciassette tipi di relazione causale che possono tuttavia essere raggruppati in tre categorie principali secondo l'età in cui si manifestano. Così ad esempio la causalità su basi realistiche e magiche (primo gruppo, da uno a sei anni) si collega a un modo di pensare fortemente egocentrico; mentre la causalità meccanica (sei-nove anni) è tipica di un pensiero che usa schemi di spiegazione artificiali e animistici. Solo nella fase del pensiero razionale (dai dieci-undici anni in poi) il ragazzo dà spiegazioni logiche, di tipo adulto, fondate sull'osservazione dei fatti o su conoscenze tratte da libri. Per quanto riguarda lo sviluppo dei concetti astratti, Piaget pone l'accento sull'aspetto pragmatico delle operazioni logiche e matematiche: particolare attenzione egli dedica, ad esempio, al modo in cui vengono effettivamente adoperati simboli e formule; da questo punto di vista egli è prossimo a Poincaré e agli intuizionisti: la costruzione del concetto di numero ha una rilevante componente di carattere psicologico. Piaget ritiene che i concetti logici e matematici si manifestino dapprima in atteggiamenti concreti del bambino e che solo in una fase più avanzata assumano un carattere astratto : in questa seconda fase tali concetti non sono che delle azioni interiorizzate, in cui le cose sono sostituite da segni e le. azioni concrete da operazioni su segni. Piaget afferma che le forme più elementari di comportamento logico in cui il bambino confronta, distingue e ordina gli oggetti circostanti, si collegano alla creazione di concreti sistemi classificatori e relazionali. Da questi sistemi derivano i modi successivi più maturi ed astratti del pensiero logico e matematico. Piaget preferisce non parlare di intuizione del numero prima che il bambino abbia sviluppato i concetti logici di invarianza e abbia quindi assimilato l'operazione della reversibilità. Il passaggio al numero avviene quando le attività di classificare e ordinare gli oggetti assumono la forma di semplici sistemi logici. Dalla ricerca sperimentale di Piaget emerge che i concetti numerici nel loro sviluppo psip o
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
cologico si fondano in ultima analisi su alcuni semplici concetti logici. Russell intende definire il concetto di numero in termini puramente logici ad un livello astratto, a priori. Piaget, da parte sua, giunge a dimostrare che la oggettiva costruzione del concetto di numero nel pensiero del bambino avviene a partire dalla logica. Le ricerche di Piaget sul concetto di spazio e di tempo approdano alla conclusione che il concetto astratto di tempo viene acquisito dal bambino solo in fase avanzata; in una prima fase il tempo è strettamente connesso e dipendente dallo spazio. Ma anche l'abilità di formare dei giudizi spaziali è all'inizio del tutto rudimentale così come è impossibile per il bambino piccolo immaginare una prospettiva diversa dalla sua. Solo più tardi il bambino riesce ad afferrare più relazioni contemporaneamente (davanti e dietro, destra e sinistra) e a coordinarle in un sistema di prospettiva generale. È quindi chiaro che le indagini di Piaget in questo settore hanno un particolare rilievo filosofico, quando si pensi, ad esempio, alla concezione kantiana di un'intuizione a priori delle nozioni di spazio e tempo. Per Piaget l'apprendimento ha una funzione importante non solo nell'elaborazione delle strutture intellettuali, ma anche nel campo della percezione. Mentre per gli psicologi della Gestalttheorie le invarianze percettive della forma e della dimensione appartengono direttamente all'oggetto percepito e sono indipendenti dall'età e dalla maturità relativa del soggetto, per Piaget la percezione è il risultato di movimenti casuali dell'occhio e di altri movimenti muscolari, che sono oggetto di un processo di graduale correzione. Ad esempio il bambino piccolo non attribuisce una dimensione e neppure un aspetto costante agli oggetti circostanti. Piaget ritiene che le forme di attività logica che si riscontrano nel comportamento del bambino, e cioè il classificare, il confrontare e così via, emergano da una serie di attività che si attuano per prove ed errori. Piaget rileva che in passato i filosofi hanno elaborato una certa psicologia della percezione in sede epistemologica. Per esempio Locke, da un lato, sostiene che i fatti empirici sono recepiti in modo passivo nella percezione e, dall'altro, che essi sono in correlazione con un certo ambito di espressioni linguistiche che li designano. Per Piaget, invece, perfino la nozione di oggetto, una delle forme più semplici di invarianza percettiva, richiede un certo processo di apprendimento. Prima che il bambino sia in grado di usare le espressioni linguistiche per riferirsi a determinati oggetti in modo non equivoco, deve aver elaborato specifiche attività di classificazione e di confronto. Anche quando il bambino dice « questo è rosso », cioè afferma qualcosa di apparentemente molto semplice, con questo dà prova di aver acquisito delle abilità specifiche. Tale affermazione non può essere semplicemente considerata come un riferirsi a un mero dato della percezione: quando si parla consapevolmente di rosso, ciò significa che si è imparato a classificare gli oggetti in base alloro colore e a distinguere un colore dall'altro.
www.scribd.com/Baruhk
La psicologia scientifica contemporanea
Piaget ha sottolineato altresì che il gioco e l'imitazione hanno un'influenza decisiva nello sviluppo concreto e verbale, mentre il pensiero formale è la condizione della capacità di elaborare ragionamenti di tipo deduttivo. Tale capacità è la caratteristica essenziale della maturazione che si verifica nel periodo della preadolescenza e dell'adolescenza. Qui Piaget sposta la prospettiva rispetto ad altre analisi che si soffermano, per quel che riguarda l'adolescenza, sullo sviluppo affettivo, la tendenza all'introspezione, l'attività fantastica, il comportamento sociale. Dall'opera di Piaget si rileva come nel corso dello sviluppo intellettivo vi siano alcune tappe particolarmente importanti, alcuni passaggi critici, il superamento dei quali costituisce il raggiungimento di un gradino superiore. Così si può ad esempio citare l'abbandono dell'egocentrismo, del pensiero non reversibile, del realismo. Solo superando questi punti critici e continuando a coordinare dati e attività il bambino giunge alla formazione di rappresentazioni o concetti: l'amnesia dell'adulto per quel che riguarda l'identica strada percorsa spiega la concezione comunemente diffusa che tali rappresentazioni o concetti siano il risultato di una semplice percezione del dato empirico. Piaget ritiene che lo studio dello sviluppo del pensiero nel bambino conduca direttamente al problema della evoluzione del pensiero umano in generale: «Può ben accadere, » scrive in La causalità fisica nel bambino, « che le leggi psicologiche stabilite in base ai nostri metodi circoscritti possano tramutarsi in leggi epistemologiche stabilite in base all'analisi della storia della scienza: l'eliminazione del realismo, del sostanzialismo, del dinamismo, lo sviluppo del relativismo ecc., sono tutte leggi evolutive che sembrano proprie dello sviluppo sia del bambino sia del pensiero scientifico. » Secondo Piaget esiste quindi un rapporto fra lo sviluppo di un concetto nel pensiero del bambino e il processo attraverso il quale tale concetto è stato acquisito nel corso della storia del pensiero scientifico. L'analisi genetica di un concetto è in grado di dare un contributo fondamentale allo studio della sua storia e della sua struttura, così come esso viene compiuto dagli storici e dagli epistemologi. Su questa base Piaget ha creato come si è detto, una nuova disciplina, l'epistemologia genetica, lo studio della quale, iniziato presso il centro internazionale di epistemologia genetica, fondato a Ginevra nel 1954, richiede una stretta collaborazione tra psicologi, logici ed epistemologi. Va segnalato che negli ultimi due decenni le generalizzazioni e gli schemi di sviluppo di Piaget sono stati ampiamente criticati, in modo particolare da psicologi americani che non hanno potuto, in una diversa cultura, ripetere i suoi esperimenti e le sue conclusioni. Gli studi di Piaget rimangono, tuttavia, al di là della possibilità di confermare la sua teoria, delle testimonianze ricchissime e preziose di verbalizzazioni spontanee di esperienze e modalità di comprensione infantili. pz www.scribd.com/Baruhk
CAPITOLO NONO
Weber e gli indirizzi della sociologia contemporanea DI PINA MADAMI
I· CONSIDERAZIONI PRELIMINARI
Nel capitolo m del volume sesto abbiamo esaminato la nascita della sociologia nell'ambito del pensiero positivista dell'Ottocento. In questo capitolo parleremo degli ulteriori sviluppi della sociologia. A nostro parere, acquista un'enorme importanza per la comprensione della sociologia contemporanea il dibattito che intorno ad essa si svolse in Germania, dove la sociologia si inserì in correnti culturali di pensiero la cui matrice non era quella del positivismo, ma della tradizione storicista o neokantiana, in un periodo storico nel quale già si manifestava la crisi ideologica della borghesia. Ci soffermeremo a valutare in particolare l'opera di Max Weber che ci sembra essere il più qualificato esponente di questo dibattito e l'autore che più di ogni altro ha influenzato il corso successivo delle ricerche sociologiche. Per chiunque infatti si occupi di sociologia oggi, Max Weber è un nodo determinante, ne è prova l'enorme bibliografia critica intorno alla sua opera. Dopo Max Weber affronteremo i problemi della sociologia in America, che più di ogni altra nazione si dimostrò sollecita ad accogliere nell'ambito della propria cultura la problematica sociologica. Non seguiremo ovviamente un criterio esaustivo, ma indicheremo alcuni autori più rappresentativi dei differenti indirizzi della sociologia in quel paese. Dedicheremo infine un paragrafo a quella tra tutte le differenti branche della sociologia che ci sembra più aderente allo spirito di quest'opera, la sociologia della conoscenza. Abbiamo visto che la sociologia si era venuta costituendo nell'ambito del positivismo; e in stretti legami con la vita politica e sociale della Francia del primo Ottocento, in cui la classe vittoriosa fu la borghesia. Lo sviluppo successivo di questa disciplina si ricollega solo in parte alla tematica analizzata nel capitolo già citato. Il nascente positivismo, espressione della borghesia trionfante e fiduciosa, e la letteratura rivoluzionaria che esprime un proletariato non ancora organizzato e immaturo sono le matrici da cui sorge la sociologia. L'immenso sviluppo delle scienze della natura e delle tecniche che portano al potenziamento e al prolungamento delle capacità dell'uomo, l'abbandono 513
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
dei residui metafisici frenanti la fiducia nelle possibilità umane, generano una visione del mondo sostanzialmente ottimistica che individua nell'idea di « progresso » il dato caratteristico e positivo di tutta la storia umana. La storia dell'uomo è riconducibile, per i positivisti, a un'unità di sviluppo il cui disegno può, sgomberato il campo dalle speculazioni metafisiche, essere compreso dall'uomo stesso attraverso la ragione. È quindi la sociologia il momento più alto della riflessione dell'uomo; essa è l'erede della filosofia, la scienza che permetterà una ricostruzione della società su basi razionali. Perfino i critici della società borghese, gli interpreti di quel proletariato le cui condizioni di vita non permettono certo un fiducioso ottimismo, vedono nella scienza sociale una soluzione possibile e pacifica degli antagonismi di classe. La scienza sociale ha come scopo la liberazione dell'uomo, è uno strumento al servizio dell'uomo; il compito stesso dello scienziato è quello di essere lo strumento per l'affermazione di una società razionale e migliore. Lo scienziato è chiamato a rispondere della sua scienza alla società e il suo sapere non è che un mezzo per l'emancipazione dell'uomo. Perfino Durkheim che vive in un momento successivo in cui il brillante ottimismo si è già tramutato nella visione di una società minacciata da crisi periodiche, matrice di squilibri insanabili, risente ancora di questo ambiente culturale; assegna, infatti, alla scienza sociale il compito dell'ordine e cerca spiegazioni solutorie all'anomia imperante, non ha dubbi sulla scientificità della sociologia, sul suo essere erede della filosofia, sull'assimilazione, a salvaguardia della sua scientificità, dei metodi delle scienze della natura. La fragilità dell'edificio su cui poggiava la scienza sociale, fragilità che abbiamo già delineato in precedenza, non sottraeva validità al tentativo di dare una visione unitaria al corso della storia, di abbandonare ogni richiamo alla metafisica, di rispondere alle esigenze di un'analisi scientifica dei problemi sociali. Il cambiamento di prospettiva nell'analisi sociologica e la sua diversa fondazione teorica si verifica quando il dibattito sulla sociologia si apre in Germania e si inserisce nella tematica culturale propria di quel paese. A questo contribuisce anche la storia politica tedesca e l'affermarsi della sua borghesia, che si era sviluppata in Germania senza legare le sue sorti a dei fermenti politici e culturali innovatori come era avvenuto per esempio in Francia (lo stesso processo di unificazione nazionale non aveva visto la borghesia come classe egemone). Ma è soprattutto importante il fatto che, diversamente dai tempi di Comte, il proletariato è ormai una classe ben definita che sta acquistando coscienza della sua forza antagonista, della necessità di una sua organizzazione, della inconciliabilità dei suoi interessi con quelli della borghesia, e comincia ad essere fornito di una teoria scientifica che lo colloca storicamente come la futura classe egemone. L'incessante lavoro scientifico di Marx e di Engels ha ormai distrutto le utopie pacifiste di collaborazione tra le classi che possono essere solo fatte proprie dalla borghesia e ha indicato il compito storico del proletariato nell'abbattimento del 514
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
potere borghese. A questa funzione storica del proletariato non può più far riscontro una borghesia sicura di sé che crede nella scienza sociale finalizzata a una funzione storico-politica, che offra soluzioni pacificatorie nella collaborazione delle classi. La lotta è una lotta di forze e di organizzazione di queste, è una lotta di potenza che accetta e giustifica la violenza. Come abbiamo già affermato, la storia della sociologia è strettamente legata alla storia politica e questo legame si manifesta non solo nei contenuti delle opere dei singoli autori ma anche nei presupposti generali e nei tentativi di giustificazione teorica che di mano in mano vengono addotti. Nella cultura tedesca la problematica sociologica si inserisce nel dibattito sui fondamenti e le origini della scienza e sulla « scientificità » delle scienze storico-sociali. Tale dibattito nasce e si sviluppa in un contesto generale permeato di motivi squisitamente filosofici; non a caso l'influenza di Kant, dominante in questo periodo, condiziona anche la sociologia. Essa non sorge e si sviluppa quindi nell'ambito di una concezione positivista chiaramente determinata e strutturata nelle sue componenti generali e metodologiche, come si era avuto in Francia e, in forma diversa, in Inghilterra; ma si manifesta come un momento teorico importante di una discussione filosofica più ampia e generale sui principi del sapere. Si tende pertanto a differenziare le scienze della natura dalle scienze storico-sociali, e non ad assimilare in modo diretto queste ultime alle prime, a sottoporre a critica i processi conoscitivi, i fondamenti oggettivi e scientifici delle discipline che hanno appunto come oggetto l'agire sociale dell'uomo. Nel capitolo VI del volume sesto si è già parlato del complesso quadro della filosofia tedesca di questo periodo. Qui ci limiteremo a sottolineare gli aspetti del pensiero filosofico che hanno influenzato la sociologia e che anzi ne hanno determinato i suoi fondamenti teorici. Accanto all'importanza data allo studio dei fondamenti logico-conoscitivi, all'interno stesso del problema delle scienze storico-sociali si poneva in tutta evidenza il problema della storia, della sua funzione e del suo rapporto con le altre discipline particolari. Il dibattito verte essenzialmente sulla questione se le discipline che hanno come oggetto l'agire umano possono avere dignità scientifica al di fuori di un inquadramento storico; l'economia, il diritto, la sociologia dovevano quindi delimitare il proprio campo e prendere posizione sul significato della storia. Tale tema è rintracciabile in termini sostanzialmente analoghi, anche se con diverse accentuazioni e con diverse modalità, nella maggior parte degli studiosi tedeschi di discipline filosofiche, sociali e storiche di questo periodo. Come abbiamo già detto precedentemente, pur riconoscendo l'importanza di altri autori, prenderemo in esame soprattutto Max Weber, che ci sembra essere un rappresentante significativo dei problemi del tempo e insieme il più compiuto teorizzatore nel campo della sociologia.
515 www.scribd.com/Baruhk
II • VITA DI MAX WEBER
Max Weber nasce il 21 aprile 1864 a Erfurt in Turingia, da famiglia borghese. Il padre fu deputato alla dieta di Prussia e al Reichstag con i liberali di destra. L'ambiente della sua famiglia gli permise di venire a contatto con gli intellettuali e gli uomini politici dell'epoca. Nel 1882 si iscrive alla facoltà di giurisprudenza a Heidelberg e studia economia, diritto e storia. Egli frequenta le migliori università dell'epoca come Gottinga e Berlino. Durante la vita universitaria comincia ad occuparsi di problemi politici e diventa membro del Verein fur Sozialpolitik, gruppo fondato nel 187 2 da Schmoller che riunisce studenti di tutte le tendenze politiche che hanno interesse per le questioni sociali. Nel I 8 89 ottiene il dottorato con una tesi sulle società commerciali del Medioevo. Su incarico del Verein inizia un'inchiesta sulla situazione dei contadini nella Prussia orientale. Nel I 892 consegue l'abilitazione all'insegnamento universitario con lo scritto Die riimische Agrargeschichte (La storia agraria romana) la cui tesi principale è « che il concetto romano di proprietà privata è il prodotto artificiale d'una politica di interessi di cittadini agricoltori di medio ceto, che nell' ager privatus, nell'emancipazione giuridica ed economica del possesso fondiario, avevano scorto lo strumento della loro elevazione sociale e politica di fronte al patriziato» (Carlo Antoni). Già cominciano a delinearsi gli interessi di Weber per i problemi di storia economica e per il rapporto tra le condizioni materiali e lo sviluppo storico, e il rapporto tra le differenti discipline come l'economia, il diritto e la storia. Nel 1 892 W eber porta a termine il rapporto sulla situazione dei contadini nella Prussia orientale. Questa ricerca constata la complessa e difficile situazione dei contadini nella Prussia orientale ponendo in evidenza il preoccupante fenomeno dell'emigrazione dei contadini tedeschi dalla zona e del conseguente sviluppo di correnti di immigrazione di contadini polacchi. Questo avvicendamento di mano d'opera con caratteristiche culturali differenti è visto da Max Weber con diffidenza perché contraddittorio con una difesa del germanesimo delle regioni orientali e con una politica nazionalistica. L'abbandono da parte dei contadini tedeschi dei terreni non è secondo Max Weber ascrivibile a cause materiali; al contrario « nel confuso e indistinto anelito verso paesi lontani, è insito l'impulso di un idealismo primitivo. Chi non è in grado di decifrarlo, ignora il fascino della libertà ». Le emigrazioni dei contadini tedeschi che, secondo Max Weber, hanno una situazione materialmente sicura, rappresentano un fenomeno di psicologia di massa, perché essi non sono più in grado di adattarsi alle condizioni sociali di esistenza nella loro patria e questo perché « sta sparendo l'antico rapporto patriarcale di tributario feudale, il quale legava il giornaliero in forma immediata agli interessi della produzione agricola conferendogli lo status di piccolo coltivatore. Il lavoro stagionale nei distretti dove si coltiva barbabietola richiede lavoratori stagionali e un salario. Davanti a loro
p6
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
si profila la prospettiva di un'esistenza proletaria, ma senza alcuna possibilità di quel vigoroso slancio verso l'indipendenza economica che infonde una certa consapevolezza del proprio valore al proletariato industriale raccolto in determinate zone della città». Si trattava delle conseguenze di un passaggio dall'agricoltura feudale verso un'economia agricola a carattere di impresa capitalistica. Secondo Antoni « questa scoperta dei momenti psicologici nella lotta economica è lo spunto delle famose ricerche di Weber sulle origini calvinistiche del capitalismo moderno ». Inoltre queste considerazioni gli servivano per dimostrare che la concezione materialistica della storia non coglieva nella storia stessa le cause reali dei fenomeni. Nel I 894 W eber tiene la sua prolusione accademica nell'università di Friburgo dal titolo Der Nationalstaat und die Volkswirtschaftspolitik (Lo stato nazionale e la politica economica tedesca); in questo scritto ritroviamo alcuni temi dominanti della sua concezione politica. Accanto alla sua attività di scienziato, durante tutta la vita Weber si impegnò politicamente, anche se le sue posizioni nell'aderire a varie correnti politiche hanno sempre un'impronta personale, talvolta addirittura contraddittoria. Nello studio citato, che ci sembra particolarmente significativo, Weber si dichiara nazionalista economico, convinto assertore del germanesimo per la cui difesa deve impegnarsi anche la politica economica dello stato. La politica economica deve essere messa al servizio degli interessi duraturi della politica di potenza della nazione a tal punto che « grandi aziende che possono essere tenute in piedi solo a discapito del germanesimo, meritano di andare in rovina perché l'ultima e decisiva parola deve spettare agli interessi economici e politici di potenza della nostra nazione e del suo depositario, lo stato nazionale tedesco». Questo ideale nazionalistico Weber lo manterrà tutta la vita anche se gli procurerà molte delusioni. In questo scritto si riscontra, accanto al tema nazionalistico, un altro dei problemi determinanti del pensiero di W eber: quello della preparazione della classe politica. Il teorizzatore della politica come professione vede in questa fase storica il declino della classe degli Junker i cui interessi non si identificano con quelli nazionali a causa di cambiamenti economici di cui egli aveva visto un riflesso nella situazione dei contadini della Prussia orientale. Egli riconosce agli J unker la funzione positiva di aver servito all'unificazione della Germania, ma ritiene ormai esaurito tale compito e quindi la funzione della loro classe. Il problema reale risulta allora essere per Weber quello di individuare qual è la classe destinata ad avere una nuova posizione egemone. La classe borghese, che non è stata la forza autonoma su cui si è fondato lo stato tedesco, non è matura e non è educata politicamente. Ma anche la classe operaia, che pure è più matura di quanto vorrebbe ammettere l'egoismo della classe possidente, manca di quegli istinti di potenza necessari a una classe chiamata alla direzione politica. Weber pone come scopo del lavoro politico-sociale l'unificazione sociale della nazione che ha accelerato l'evoluzione dell'ecoP7
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
nomia moderna e sottolinea la necessità di un immenso lavoro di educazione politica. Max Weber partecipa al movimento cristiano-sociale e, quando questo si divide, egli si unisce al gruppo di Neumann cioè all'ala più progressista nazionalista dei liberali conservatori. Critica però il progetto di costituzione di un partito nazional-sociale, partito operaio opposto a quello socialdemocratico ispirato ad un socialismo cristiano e nazionale, nel suo scritto Diskussionrede ziir Grundung einer national-sozialen Partei (Per la fondazione di un partito nazional-sociale, I896) in quanto a suo avviso una scelta politica è, al momento, unicamente «e soltanto la scelta tra due interessi in lotta delle attuali classi dominanti: la classe borghese e quella agrario-feudale. Una politica che non consideri questo è una utopia. Ogni nuovo partito che aspiri in alto si trova di fronte alla decisione se vuole lo sviluppo borghese oppure inconsapevolmente se vuole sostenere la reazione». La scelta di Weber per la classe borghese è una scelta realistica e conseguente con i suoi principi di politica come professione. Nel I 896 prende il posto di Knies alla cattedra di economia politica nell'università di Heidelberg, ma una grave malattia nervosa lo costringe nel I 899 ad abbandonare sia l'insegnamento universitario che l'attività scientifica e politica. Nel I9oz riprende la ricerca scientifica prodigandosi soprattutto nella redazione dell' « Archiv fiir Sozialwissenschaft und Sozialpolitik » con Werner Sombart. Per Weber si sono ormai precisati i temi e i problemi culturali che saranno al centro del suo studio; e sull'« Archiv » appariranno importanti contributi sui fondamenti logici e metodologici delle scienze storico-sociali, e quindi sull'oggettività della scienza, sul capitalismo, sul rapporto tra politica e scienza. I suoi interessi e i suoi fini si identificano con quelli dell'« Archiv », il cui scopo è infatti quello «di promuovere accanto all'estensione della nostra conoscenza intorno alle situazioni sociali di tutti i paesi, e quindi intorno ai fatti della vita sociale, anche l'educazione del giudizio sui problemi pratici ... tuttavia l' "Archiv" si è proposto sempre di essere una rivista esclusivamente scientifica e di lavorare soltanto con i mezzi della ricerca scientifica ... » Sull' « Archiv » pubblica Roscher und Knies und die logischen Probleme der historischen Nationaliikonomie (Roscher e Knies e i problemi logici dell'economia politica storica, I9o3-o6); Die « Objektivitat» sozialwissenschaftlicher und sozialpolitischer Erkenntnis (L'oggettività conoscitiva della scienza sociale e della politica sociale, I 904); Kritische 5 tudien auf de m Gebiet der Kulturwissenschaftlichen Logik (Studi critici intorno alla logica delle scienze della cultura, I9o6). Nello stesso periodo pubblica Die protestantische Ethik und der Geist der Kapitalismus (L'etica protestante e lo spirito del capitalismo, 1904-o6). Nel I9IO partecipa ed è tra i promotori del 1 Congresso della società tedesca di sociologia a Francoforte, società da cui uscirà nel 1912 per divergenze sul concetto di neutralità avalutativa. Nel I 9 I 3 pubblica Ueber einige Kategorien der verstehenden Soziologie (Alcune categorie della sociologia comprendente). Allo scoppio della guerra nel I9I4 presta servizio come p8
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
direttore di un ospedale militare. Prende posizione nei confronti della guerra imperialistica difendendone le ragioni ideali pur criticando alcuni aspetti della politica del Reich. Inizia gli studi per una sociologia delle religioni che pubblica in tempi diversi. Nel 1917 pubblica Der Sinn der « Wertfreiheit » der soziologischen und okonomischen Wissenschaften (Il significato della avalutatività nelle scienze sociologiche ed economiche). Nel1918 tiene due conferenze all'università di Monaco dal titolo Wissenschaft als Beruf (La scienza come professione) e Politik als Beruf (La politica come professione). Continua la sua attività politica e prende posizione in senso realistico a favore della repubblica ritenendo la monarchia parlamentare, che pure aveva assolto l'importante compito dell'unificazione della Germania, un'istituzione ormai assolutamente screditata. La sua tematica è sempre a favore della creazione di tecnici della politica maturi e coscienti, capaci di dirigere una nazione. Il problema della selezione e della preparazione dei funzionari politici si pone anche con maggior importanza nella repubblica. Weber prende posizione contro la rivoluzione socialista che gli sembra guidata da intellettuali e inadeguata a realizzare alcuna possibile forma di socialismo. Nella conferenza Der ozialismus (Il socialismo) che tiene nel 19 I 8 a Vi enna, analizzando il Manifesto dei comunisti nega ogni possibilità di realizzazione dei fini del socialismo. Inoltre egli vede sempre al primo posto il problema della nazione al disopra dei singoli interessi di classe. Aderisce alla fondazione del nuovo partito democratico di cui fa parte Neumann e suo fratello Alfred, del quale si presenta candidato all'assemblea nazionale nella circoscrizione di Francoforte non riuscendo però ad essere eletto. È interpellato come tecnico dalla commissione che elaborò la costituzione di Weimar e la commissione accetta i paragrafi che davano al presidente del Reich poteri discrezionali e quelli sul diritto di inchiesta garantito alle minoranze. La concezione di un paese governato da veri politici induce Weber a sperare la salvezza in uno svolgimento cesaristico, cioè dittatoriale, della democrazia. Nel 1919 egli succede alla cattedra di economia politica a Brentano nell'università di Monaco. Muore nel 1920 senza vedere l'uso che dei poteri discrezionali concessi al presidente della repubblica aveva fatto Hindenburg. Sua moglie Marianne pubblica postumo nel 1922 Wirtschaft und Gesellschaft (Economia e società), lasciato incompiuto, che Weber aveva cominciato nel1909.
s
III· L'OGGETTIVITÀ NELLE SCIENZE STORICO-SOCIALI
Nella filosofia tedesca l'esigenza di risolvere il problema della fondazione scientifica delle scienze storico-sociali si era espressa nella forma di una distinzione netta di esse dalle scienze della natura; e questo anche come risposta alla soluzione, ritenuta inadeguata, che il positivismo aveva dato di questo problema: l'assimilazione di scienze sociali e scienze naturali. Dice Wilhelm Dilthey: « Così, dalla fine del secolo XVIII alla seconda metà del XIX, le scienze dello spirito hanno 519
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
gradualmente raggiunto, a partire dalla Germania, ponendo in luce la vera connessione dei loro compiti, lo stadio che rende possibile affrontare il loro problema logico e gnoseologico... Le scienze dello spirito sono entrate per la prima volta nel secolo precedente in uno stadio che ha reso possibile il loro impiego per la teoria della conoscenza. » La ricerca di una soluzione si attua con un ritorno a Kant, estendendo la sua teoria della conoscenza alla fondazione delle scienze storico-sociali. La teoria della conoscenza, rivolgendosi al campo delle scienze dello spirito, veniva immediatamente a contatto con il problema della storia, dato l'enorme sviluppo che in Germania aveva avuto questa disciplina. Dare fondamento scientifico alle scienze dello spirito voleva dire pronunciarsi sul significato della storia e valutare gli avvenimenti alla luce di una conoscenza oggettiva. La posizione di Weber su questi problemi è direttamente collegata all'impostazione che ne avevano dato alcuni autori ed in particolare Dilthey, Windelband e Rickert. Per Dilthey tutta la questione viene rapportata alla differenza tra soggetto e oggetto di conoscenza: esterno all'uomo è il mondo della natura, che esige un processo di comprensione mediato. « ... Così la natura ci è estranea, è trascendente al soggetto conoscitivo, ed è appresa da questo in costruzioni strumentali, mediante il dato fenomenico ... La costruzione delle scienze della natura è determinata dal modo con cui è dato il loro oggetto, cioè la natura. Le immagini si presentano in un continuo mutamento e sono riunite in oggetti, questi riempiono e occupano la coscienza empirica, e formano l'oggetto della scienza descrittiva della natura. » La natura permette una misurazione dei fenomeni, una loro riduzione a elementi oggettivi esterni organizzati in conoscenza secondo leggi, generalizzata; ma la situazione muta se gli stessi fenomeni sono visti dal punto di vista dell'uomo: « Quale ci si presenta nelle scienze dello spirito, il mondo storico dell'uomo non è una copia, per così dire, di una realtà sussistente al di fuori di quelle. Il conoscere non può configurarsi in tal maniera, poiché esso è e resta legato ai mezzi dell'intuizione, dell'intendere e del pensiero concettuale. » Nelle scienze dello spirito il processo di comprensione è possibile solo attraverso l' Erlebnis perché «in esse [scienze dello spirito], piuttosto ciò che è accaduto e ciò che accade, il singolare, il casuale, il momentaneo, viene ricondotto a una connessione fornita di valore e di senso ». Per cogliere questa connessione e così giungere a un nesso concettuale « la conoscenza cerca, procedendo, di penetrare sempre più a fondo e di diventare sempre più oggettiva nella sua comprensione ... » perché « nelle scienze dello spirito si compie la costruzione del mondo storico. Con tale espressione indico la connessione ideale in cui, estendendosi sulla base dell' Erleben e dell'intendere in una successione di operazioni, ha la sua esistenza il sapere oggettivo del mondo storico». L'oggetto di conoscenza nel mondo
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
storico non può essere situato in una dimensione oggettiva che sia al di fuori del « senso » e quindi il soggetto conoscente non può prospettarsi come fine conoscitivo la descrizione della realtà fenomenica e il suo sviluppo secondo leggi, perché « lo spirito si è oggettivato in esso [mondo storico), vi vengono attuati degli scopi e realizzati dei valori, e l'intendere afferra proprio questo elemento spirituale, che è loro intrinseco: un rapporto vitale sussiste tra me ed esso ». La collocazione di una disciplina tra le scienze dello spirito avviene, di conseguenza, solo quando «il suo oggetto ci è accessibile mediante l'atteggiamento fondato nella connessione di vita, espressione e intendere ». Ciò che caratterizza le scienze dello spirito, e cioè la possibilità di comprensione, di intendere e di rivivere, è determinata dall'identità tra il soggetto e l'oggetto di conoscenza. La garanzia dell'oggettività è nella capacità di comprensione e di identificazione dell'esperienza. Diversamente che nelle scienze della natura il cui fine è la conoscenza secondo leggi, le scienze della cultura si propongono di suscitare la comprensione mediante un processo di immedesimazione nelle condizioni di un determinato processo storico. Ciò è garanzia di oggettività, perché quanto più si rivivrà un fatto storico tanto più lo si sarà colto nella sua realtà. È l' Erlebnis che permetterà di rendere esplicite le categorie proprie delle scienze dello spirito, il valore, fine e significato. Windelband, neokantiano come Rickert, pone l'accento soprattutto sui processi logico-conoscitivi caratteristici delle scienze dello spirito, sottolineando l'aspetto della finalità. Infatti le scienze della natura e le scienze della cultura si distinguono nello scopo che si propongono. Le prime cercano una spiegazione dei fenomeni in termini di leggi, le seconde cercano una spiegazione agli eventi singoli. Il pensiero scientifico è nomotetico nel primo caso, ideografico nel secondo. Rickert sottolinea soprattutto che l'analisi dei fenomeni nelle scienze della cultura contiene sempre un riferimento ai valori, che sono categorie che contraddistinguono l'agire umano. Questa relazione ai valori è il dato costante perché la storia è realizzazione progressiva di valori, che hanno un carattere assoluto. Questo è il quadro culturale nel quale si inserisce la tematica weberiana. Weber si preoccupa principalmente di garantire l'oggettività delle scienze storico-sociali, condizione necessaria per dare validità e scientificità alla conoscenza storica. Rifiutando ogni spiegazione metafisica e salvaguardando l'autonomia delle scienze dello spirito dalle scienze della natura, Weber ricerca l'oggettività nella struttura logico-conoscitiva delle scienze storico-sociali e nella funzione del sapere. Egli mantiene alcune affermazioni del pensiero di Dilthey, Windelband e Rickert, ma non ritiene esaustive le loro proposte. Presupposto irrinunciabile per una fondazione scientifica delle scienze dello spirito è un procedimento razionale che respinga ogni ricorso a postulati difficilmente verificabili perché basati su richiami metafisici e su assolutizzazioni indimostrabili. In questo senso il problema gnoseologico è identico per le scienze dello spirito come per le scienze
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
della natura, ma va respinta ogni soluzione naturalistica comune perché snatu- . rerebbe il vero fine del sapere nell'indagine sociale. Le scienze della natura procedono e si organizzano verso una «conoscenza legale» (Gesetzeserkenntnis) dei fenomeni e le « leggi sono tanto più importanti e fornite di valore quanto più esse sono universalmente valide »; le scienze della cultura mirano invece a una conoscenza individuale dei fenomeni, e la realtà oggetto di investigazione delle differenti discipline storico-sociali è sempre in relazione con idee di valore. Il concetto stesso di cultura è un concetto di valore e il fine di ogni ricerca in questo campo è quello di cogliere il significato dei fenomeni. Nel riferimento ai valori Weber accetta la posizione di Rickert, ma i valori per Weber non si pongono su una scala di giudizio tale che permetta di cogliere i valori in assoluto, bensì sono relativi al punto di vista finito da cui si osserva un universo infinito. « Ogni conoscenza concettuale della realtà da parte dello spirito umano finito poggia infatti sul tacito presupposto che soltanto una parte finita di essa debba formare l'oggetto della considerazione scientifica, e perciò risultare "essenziale" nel senso di "essere degna di essere riconosciuta". » Ma l'isolamento di una parte della realtà non può essere ottenuto ricorrendo a un punto di vista « legale ». La ricerca di ciò che è « conforme a legge » vorrebbe dire ritenere che nell'analisi di un fenomeno individuale tutto ciò che rimane al di fuori della comprensione legale equivarrebbe o a un residuo ancora privo di elaborazione scientifica o a qualcosa di accidentale tale cioè da non valer la pena che sia sottoposto ad analisi scientifica. L'assunto di tale concezione è che il fine della conoscenza è « un sistema di proposizioni teoriche da cui possa venire dedotta la realtà ». Ma la realtà sociale si presenta sempre come individuale e la causalità procede nel campo delle scienze economico-sociali per imputazione di singoli eventi a singole cause in un processo sempre individuale. Il ricorso al generale, che è fondamentale nelle scienze della natura nelle quali la conoscenza procede per gradi, diventa infruttuoso nel campo del sociale perché tanto più ci si allontana dall'individuale tanto più la conoscenza risulta astratta e incapace di cogliere il senso della realtà. Inoltre la scelta del punto di vista da cui si pone il ricercatore passa attraverso il filtro dei valori che la rendono arbitraria e condizionata sia dai valori che lo stesso ricercatore assume, sia dagli stessi valori generali dell'epoca. La deduzione dell'individuale dal generale non avrebbe nessun valore scientifico perché si tratterebbe di una sovraimposizione, di una forzatura della realtà. In questo senso per Weber «non c'è nessuna analisi scientifica puramente oggettiva della vita culturale o dei fenomeni sociali indipendentemente da punti di vista specifici o unilaterali, secondo cui essi - espressamente o tacitamente, consapevolmente o inconsapevolmente sono scelti come oggetti di ricerca, analizzati e organizzati nell'esposizione». Questa constatazione non significa però, per Weber, abdicare a un'impossibilità di fondazione scientifica della scienza; al contrario questa per Weber è una pun-
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
tualizzazione alla quale egli si riallaccia per dare fondamento a una possibilità di analisi scientifica in termini « realistici » e « razionali » senza ricorrere a soluzioni mistificatorie di carattere metafisica. Egli denuncia l'oggettiva parzialità delle discipline storico-sociali nell'ordinamento concettuale del materiale empirico; la validità e la fondatezza dei loro punti di vista debbono essere dimostrati nella ricerca di connessioni concrete fornite di senso. L'onestà scientifica impone di abbandonare una infondata ricerca delle leggi generali ma esalta il momento della ricerca empirica, della rigorosa verifica dell'imputazione causale. La scelta di Weber contro una concezione «legale» della storia, scelta che privilegia e riconosce come fine precipuo delle scienze sociali la comprensione e la spiegazione dell' « individualità » storica, non si estende al rifiuto della teoria e dell'elaborazione concettuale teoretica. Al contrario, per Weber il momento teorico è un momento determinante della conoscenza una volta chiarita la sua funzione e delimitata la sua possibilità di impiego: infatti metodo teoreticoastratto e ricerca storico-empirica non sono mezzi contrapposti di conoscenza, poiché è impossibile ordinare concettualmente un materiale empirico senza ricorrere a qualche forma di astrazione. Lo stesso uso di concetti per designare un fenomeno storico si basa, dichiaratamente o no, su astrazioni precedenti. In questo contesto la teoria non si pone come fine: « una conoscenza di tipo monistico dell'intera realtà che sia puramente oggettiva, cioè sciolta da tutti i valori, e al tempo stesso razionale, cioè liberata da ogni accidentalità individuale e assuma la fisionomia di un sistema concettuale di validità metafisica e di forma matematica », ma è un mezzo, un apparato concettuale concepito come punto di riferimento e di chiarificazione. Nella concezione di Weber il momento teorico è costituito dalla formazione del « tipo ideale ». Questo è il mezzo concettuale che viene usato per la comparazione e misurazione della realtà ed ha un alto valore euristico. La spiegazione e comprensione del momento individuale storico ha bisogno del principio causale, presupposto indispensabile di ogni lavoro scientifico. La determinazione delle cause di un qualsiasi fenomeno storico è però impensabile senza l'impiego di una conoscenza nomologica: di qui la necessità della formulazione di modelli astratti, i tipi ideali che hanno la funzione di orientare il giudizio di imputazione causale nel corso della ricerca. Il tipo ideale serve quindi a Weber per legittimare la presenza del momento teorico nella ricerca senza cadere nell'empirismo da un lato e nella concezione « legale » della storia dall'altro. Nella nozione di « tipo ideale » infatti l'unilateralità del punto di vista riferito ai valori è connaturata alla sua stessa funzione: il tipo ideale «è ottenuto mediante l'accentuazione unilaterale di uno o di alcuni punti di vista, e mediante la connessione di una quantità di fenomeni particolari diffusi e discreti, esistenti qui in maggiore e là in minore misura, e talvolta anche assenti, corrispondenti a quei punti di vista unilateralmente posti in luce, in un quadro concettuale in sé unitario ». In questo senso un determinato tipo ideale non può
523
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
essere mai rintraccia bile empiricamente nella realtà; né è tipico nel senso che sia prodotto da una media, poiché non assume come presupposto la ricerca della media dei comportamenti ma implica l'assunzione di un particolare punto di vista fornito di valore. Esso non è una copia né una rappresentazione del reale, è, se si vuole, utopico nel senso che presenta una accentuazione concettuale astratta di determinati elementi della realtà. Tale concettualizzazione fa sì che la realtà assuma aspetti pienamente razionalizzati, non contraddittori; si tratta quindi di una operazione di semplificazione e quindi di alterazione e di parzializzazione, completamente giustificata però dai fini conoscitivi che essa si propone. In tal modo infatti il processo storico reale viene spiegato, inteso, chiarito. Certo si perde tutta la complessità della realtà, perché il tipo ideale spiega, intende, chiarisce sempre da un particolare punto di vista, ma le capacità conoscitive che permette di dispiegare costituiscono altrettanti momenti di recupero della realtà stessa, resa operante mediante i quadri concettuali unitari, più o meno ricchi, che la definiscono. Il tipo ideale si presenta in forme diverse e cambia continuamente nel corso dello sviluppo storico, perché la realtà, che è il suo punto di partenza e il suo punto di riferimento, è inesauribile. Esso comunque, secondo Weber, non deve assumere la connotazione di un modello normativa; la sua formulazione si deve basare esclusivamente su relazioni logiche e deve essere esente da qualsiasi giudizio valutativo. Il carattere di mera formulazione astratta del tipo ideale è fortemente sottolineato da Weber; egli giunge a dire che« non si può mai decidere a priori se si tratta di un puro gioco concettuale, oppure di una elaborazione concettuale scientificamente feconda ». La validità del tipo ideale viene perciò vista essenzialmente sulla base dell'efficacia esplicativa; è in fondo ancora la realtà, sulla quale deve commisurarsi la concettualizzazione, che discrimina il valore del tipo. Il ricorso al tipo ideale permette di definire i concetti in maniera univoca e precisa. La creazione di un modello astratto permette allo scienziato di chiarire esattamente il tipo di fenomeno al quale intende riferirsi designandolo con una espressione che altrimenti rimarrebbe nell'ambiguo e nel generico. Il riscontro nella realtà di fenomeni come «il capitalismo», «l'economia di mercato», «il feudalesimo » rende necessaria una concettualizzazione rigorosa perché la verifica sul concreto sortisca quella sicurezza dell'imputazione causale necessaria a una qualsiasi indagine che voglia mantenersi nell'ambito di una corretta scientificità. Il principio causale costituisce infatti per Weber il presupposto di ogni lavoro scientifico che è ordinamento concettuale di materiale empirico. Riferendo il tipo ideale alla necessità di una imputazione causale, esso non viene concepito da Weber come strumento meramente classificatorio che racchiude la realtà in uno schema, ma come strumento che tende ad interpretare la stessa realtà, e questa interpretazione non può essere che un tentativo di ricostruzione genetica. Occorre precisare che Weber accoglie quel tipo di impostazione che aveva 524
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
visto come carattere specifico delle scienze dell'uomo la loro possibilità di essere comprese e rivissute (cfr. Dilthey). Ma l' Erlebnis, se pur può raggiungere il fine di una comprensione, non permette una verifica rigorosa in termini di dimostrazione scientifica. Il raggiungimento del fine della comprensione e dell'interpretazione viene perseguito attraverso modelli che permettano una imputazione causale. L'accento posto sulla comprensione postula quindi direttamente l'esigenza genetica. Si tratta di una ricostruzione orientata, che fa perno su alcune caratteristiche essenziali di particolari fenomeni a detrimento di altre, che, pur allontanandosi dalla realtà, determina una catena di rappresentazioni che hanno un significato. La genesi scientifica di un fenomeno storico deve ancorare l'enucleazione di elementi essenziali ad una serie concreta di connessioni causali adeguate (ciò è garanzia di rigore), ma ciò facendo, diventa necessariamente astratta, tipico-ideale, data l'oggettiva impossibilità di riscontro nella realtà della sua piena purezza concettuale. Il momento della comprensione e della formulazione teorica tendono dunque a coincidere. La costruzione del tipo ideale deve imperniarsi su elementi che vengono designati da Weber con il termine di connessioni causali adeguate; in esse è esplicito il riferimento alla nozione di possibilità oggettiva dell'evento. I modelli così ottenuti si differenziano dalle « leggi naturali » perché la loro determinazione« non è un fine, ma un mezzo di conoscenza». L'applicazione del concetto di relazione causale adeguata permette inoltre l'imputazione causale sul terreno empirico come affermazione dell'esistenza di una gradualità di cause senza cadere in un relativismo assoluto. Il rifiuto del determinismo storico non poteva far giungere Weber alla conclusione che ogni possibile causa di un evento storico fosse anche una causa effettiva storicamente operante in senso deterministico per l'evento stesso. Il concetto di relazione causale adeguata serviva a differenziare, tra le cause di un evento storico, quelle determinanti per l'evento stesso (anche se mai riconducibili a una «causa prima») in contrapposizione alla causazione accidentale, a quelle cause cioè che pur essendo storicamente presenti non caratterizzano il corso dell'evento. In sintesi un evento storico è sempre un prodotto di più cause ed è in relazione con più valori ma non tutte le cause hanno contribuito nella stessa misura alla sua realizzazione. Weber imposta il problema dell'avalutatività conseguentemente ai principi che informano la ricerca scientifica. Per l'universo soggettivista di Weber l'avalutatività è un problema di salvaguardia dalla deformazione ideologica che chiama in causa l'onestà intellettuale dello scienziato. Non a caso in Weber l'oggettività della scienza si identifica con la avalutatività. Posto come dato imprescindibile l'impossibilità di cogliere l'oggettività del reale, ogni indagine affronta la complessità della storia da un punto di vista relativo a un valore scelto in modo arbitrario. Ne deriva che nell'indagine scientifica è presente anche la propria visione
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
del mondo. L'oggettività è quindi resa possibile solo da una rigorosa metodologia e da una puntigliosa verifica dell'imputazione causale. Se la scelta iniziale è condizionata, l'indagine deve essere invece svincolata da ogni atteggiamento etico o valutativo. La scienza non può assumersi compiti o fini pratico-politici. Il riferimento ai valori ineliminabile nel campo delle scienze storico-sociali non deve mai diventare giudizio di valore. L'etica è autonoma dalla scienza. Con questa affermazione Weber vuole difendere la scienza dagli arbitri individuali della sovraimposizione dei propri personali desideri alla verità storica. Verità relativa, ché ogni epoca risente dei valori che le sono propri e sottrarsi ad essi è inutile e vano, ma la denuncia costant·.~ di queste carenze unite all'onestà dello scienziato che comprende prima di giudicare, può salvaguardare la scienza dalla demagogia e dai falsi scopi. La scienza non è una guida per l'azione, essa al massimo può essere un aiuto, un chiarimento per esplicitare nell'analisi di un fenomeno qudi sono i valori posti in gioco, a quali conseguenze può condurre una determimta scelta e quali sono i mezzi più appropriati per il raggiungimento di un deter: ninato fine. Questo ausilio della scienza è però al di fuori di qualsiasi imperativo etico, che rimane retaggio esclusivo della coscienza individuale. La comprensione e la spiegazione dell'agire dell'uomo sono l'oggetto stesso che la scienza deve raggiungere, sia creando modelli astratti di comportamento, sia ricercando nei fenomeni individuali le connessioni causali dell'agire storico indipendentemente da qualsiasi adesione soggettiva o imperativo etico.
IV • L'ETICA PROTESTANTE E LO SPIRITO DEL CAPITALISMO
Il chiarimento operato da Weber dei propri strumenti metodologici e della propria concezione della scienza storica doveva assolvere nelle sue intenzioni al compito di confutare la posizione positivista nei confronti delle scienze dello spirito e soprattutto la concezione marxista della storia. Sulla base di tali presupposti Weber si prefisse il compito di fondare una « sociologia comprendente» (Verstehende Soziologie) differenziata dalla sociologia positivista e di dimostrare l'inadeguatezza della visione materialistica della storia e soprattutto dell'interpretazione che quest'ultima aveva dato del capitalismo. A questo fine gli studi di Weber, conseguentemente con la sua concezione scientifica, si indirizzarono verso ricerche storiche concrete e verso creazioni di apparati concettuali teorici che fossero di guida per le indagini empiriche. Tra le prime assume particolare importanza L'etica protestante e lo spirito del capitalismo, tra le seconde la poderosa Economia e società che lasciò incompiuta. La tesi de L'etica protestante e lo spirito del capitalismo, la più conosciuta tra le opere di Weber, è che il fattore economico è insufficiente a spiegare la genesi del capitalismo. La caratteristica principale del capitalismo moderno è per Weber
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
l'organizzazione razionale del lavoro libero. Per giungere a questo fenomeno non è sufficiente appellarsi a motivi di carattere economico « poiché il capitalismo moderno industriale su basi razionali ha bisogno, al pari dei mezzi tecnici calcolabili, di un diritto di cui si possa far calcolo e di un'amministrazione secondo regole formali, senza dei quali sono bensì possibili un capitalismo di avventure speculativo ed ogni sorta di capitalismo politico, ma non un'industria privata, razionale, con capitale fisso e calcolo sicuro ». Poiché solo in occidente si verificarono queste condizioni, il problema è per W eber «il cercar di spiegare il particolare carattere del capitalismo occidentale e, in seno a questo, di quello moderno, e le sue origini ». Il razionalismo economico però non è una causa ma è l'effetto, « poiché il razionalismo economico dipende principalmente, oltre che dalla razionalità della tecnica e del diritto, dalla capacità e dalla disposizione degli uomini a determinate forme di vita pratico-razionali ». Il capitalismo può dunque sorgere e svilupparsi là dove l'ethos degli uomini è compatibile e anzi è prescrittivo nei confronti di una condotta razionale economica. Per questo l'indagine di Weber si appunta sull'etica religiosa che più di ogni altra condiziona gli atteggiamenti pratici degli uomini. A questo punto Weber formula questa ipotesi: « L'essere le origini di una coscienza economica dell'ethos di una forma economica, condizionate da determinati contenuti della fede religiosa, e ciò potersi constatare sull'esempio del nesso della moderna etica economica coll'etica razionale del protestantesimo ascetico.» La ricerca, in questo senso, non è la ricerca delle forze che dettero impulso all'espansione del capitalismo moderno, delle provenienze delle riserve di denaro da valorizzarsi come capitali, ma soprattutto la ricerca dello sviluppo dello spirito capitalistico. Lo spirito capitalistico non si identifica per Weber nella brama smodata di guadagno, né viene incarnato da coloro che egli definisce avventurieri capitalistici, coloro cioè che nel perseguimento del fine dell'accumulazione del denaro sono ispirati da sentimenti predatori che accettano la violenza ed ogni altro tipo di lotta per l'acquisizione di esso. Queste caratteristiche riscontrabili in ogni epoca e presso gli individui di ogni nazionalità hanno origine da elementi irrazionali non metodici e pazienti come sono quelli che assicurano l'accumulazione capitalistica in senso occidentale moderno. Lo spirito del capitalismo moderno è contraddistinto da una coscienza « che tende professionalmente ad un guadagno sistematico e razionalmente legittimo ». L'analisi statistica di alcuni fenomeni come il possesso dei capitali, la scelta scolastica di professioni indirizzate verso occupazioni mercantili o commerciali dimostrano che i protestanti sia in situazione di classe dominante che in situazione di classe dominata hanno dimostrato una speciale tendenza al razionalismo economico. Sarebbe però errato stabilire una contrapposizione tra uno spirito cattolico dominato dal « distacco dal mondo » e uno spirito protestante di carattere materialistico; le ragioni del fenomeno osservato non sono da ricercare 527
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
nella presunta mondanità materialistica del protestantesimo ma piuttosto nei suoi tratti religiosi. Non è questa la sede per analizzare a fondo l'interessante studio di Weber; a noi è sufficiente mettere in luce come Webe:r individui nel protestantesimo e soprattutto nel calvinismo l'etica che più si adatta allo spirito del capitalismo. Lo stile calvinista di vita è dominato dalla visione della professione come vocazione, dall'ideale di ascesi laica che si concretizza in una condotta sistematica di vita tesa al compimento del proprio dovere sociale non per esclusivo fine di ricchezza ma come regola morale di vita, come segno distintivo di obbedienza al volere divino, per ricercare nel proprio successo mondano un segno della predestinazione e dello stato di grazia. È appunto la concezione di Calvino della predestinazione la più forte spinta psicologica ad una visione del proprio lavoro come adempimento di una regola di condotta morale (il lavoro concepito come il mezzo migliore, anzi l'unico per assicurarsi uno stato di grazia). I voleri di dio sono imperscrutabili, gli eletti non sono riconoscibili, la solitudine di fronte al problema della predestinazione è totale: in questa situazione diventa di primaria importanza, perché voluto da dio, l'espletamento con coscienza rigorosa e severa del proprio dovere nel mondo. La scarsa voglia di lavorare è vista come un segno della mancanza di stato di grazia. Il concretarsi di questa etica in una condotta di vita metodica e rigorosa e la concezione della professione come vocazione sono uno degli elementi costitutivi dello spirito del capitalismo. «In quanto l'ascesi fu portata dalle celle dei monaci nella vita professionale e cominciò a dominare la moralità laica, essa cooperò per la sua parte alla costruzione di quel potente ordinamento economico moderno, legato ai presupposti tecnici ed economici della produzione meccanica, che oggi determina con strapotente costrizione ... » Oggi il capitalismo si è spogliato del senso etico-religioso; ma nella sua ricostruzione genetica rimane di grande importanza valutare l'apporto determinante che ha fornito l'etica protestante. L'interpretazione in senso genetico che Weber dà del capitalismo non vuole essere, come egli stesso sottolinea alla fine del suo lavoro, « la sostituzione ad una interpretazione causale della civiltà e della storia, astrattamente materialistica, un'altra spiritualistica, astratta del pari. Tutte e due sono ugualmente possibili, ma con tutte e due si serve ugualmente poco alla verità storica, se pretendono di essere non una preparazione ma una conclusione dell'indagine». Quest'affermazione è strettamente conseguente alla concezione che Weber ha del lavoro scientifico nel campo delle scienze della cultura. La sua analisi sulle origini del capitalismo è indubbiamente un tentativo di confutazione della concezione materialistica della storia che vede nel fattore economico il fattore decisivo per lo sviluppo storico e assegna alle idee un rapporto di dipendenza dai rapporti economici di produzione. Ma la polemica di Weber nei confronti
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
del materialismo è ben più complessa e più radicale di una differenziazione su un giudizio di imputazione causale. Per comprendere questa polemica bisogna risalire alle radici del pensiero weberiano: non è infatti in gioco un problema di interpretazione storica ma una visione globale della storia e una diversa concezione del mondo. La concezione weberiana della storia parte da un assunto diametralmente opposto alla visione materialistica. La parte finale, che abbiamo citato, dell'opera di Weber, ci sembra chiarisca il senso del suo rifiuto della concezione marxista della storia. Per Weber la scienza non può mai arrivare a cogliere il senso reale del processo storico. La realtà è infinita (l'investigazione su di essa deve tener conto del punto di vista finito da cui si guarda) e non può mai essere studiata da un punto di vista legale; una simile prospettiva condurrebbe a forzare la storia e in ultima analisi a impedire anche quel lavoro parziale e scientifico che è invece possibile e utile. La scienza dunque non può ambire a esplicitare la realtà nei suoi contenuti oggettivi; deve ordinaria secondo nessi causali che si ispirano a valori comunque parziali. La garanzia della scientificità si risolve quindi nella metodologia; la struttura della scienza per Weber richiede soprattutto un ordinamento logico-formale. La storia non è quindi un processo unitario che muove attraverso contraddizioni, ma è un insieme di capitoli specifici illuminati in ogni epoca dal valore che si prende in considerazione. Razionale non è il corso della storia ma il metodo di interpretazione: il soggettivismo di Weber rifiuta una base reale al processo storico. Frammentando e ordinando le conoscenze empiriche, l'unità della storia è ricreata da Weber in una serie di modelli che si sovraimpongono alla realtà e permettono una imputazione causale parziale e limitata ai valori del momento storico; Weber accetta il momento teorico, ma solo come momento astratto non corrispondente alla realtà, come momento euristico. Le due matrici marxiste e cioè la dialettica hegeliana e il materialismo, sono al di fuori del mondo scientifico di Weber. Egli legittima l'interpretazione marxista della storia solamente in senso ideai-tipico. È opportuno quindi sottolineare come Weber abbia dato un'interpretazione riduttiva del marxismo proprio perché, costringendolo nei limiti di un'interpretazione in senso ideai-tipico, ne snaturò il contenuto complessivo e considerò in senso meccanico e deterministico il rapporto tra la struttura economica e la sovrastruttura. V • LA SOCIOLOGIA DI WEBER
La visione della storia e la concezione della scienza proprie di Weber sono alla base della sua concezione della sociologia, che assume i postulati elaborati nel discorso sull'oggettività conoscitiva e si qualifica come «comprendente», categoria elaborata per la connotazione specifica delle scienze storico-sociali. Il termine sociologia, per W eber, « deve designare una scienza la quale si propone 529
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
di intendere in virtù di un procedimento interpretativo l'agire sociale, e quindi di spiegarlo causalmente nel suo corso e nei suoi effetti ». Inoltre - prosegue Weber - «per agire si deve intendere un atteggiamento umano (sia esso un fare o un tralasciare o un subire, di carattere esterno o interno), se e in quanto l'individuo che agisce o gli individui che agiscono congiungono ad esso un senso soggettivo. Per agire "sociale" si deve però intendere un agire che sia riferito secondo il suo senso, intenzionato dall'agente o dagli agenti- all'atteggiamento di altri individui, e orientato nel suo corso in base a questo ». Il fine della sociologia è dunque « l'intendere », e ciò è possibile perché il substrato di ogni concetto e categoria sociologica è l'azione dell'uomo, il cui comportamento permette allo scienziato di andare al di là della classificazione e dell'osservazione, può essere cioè interpretato. In effetti, Weber non esclude la possibilità dell'esistenza di altri tipi di sociologie, ma la sua scelta per una sociologia comprendente condiziona ogni concetto e categoria sociologica. Se, infatti, il sostegno intelligibile della ricerca sociologica è l'azione sociale di singoli uomini orientata in base al senso, la quale può essere raggruppata in uniformità tipiche di comportamento (creazione dei tipi ideali), le formazioni sociali come « lo stato », «l'associazione», «la società per azioni» ecc. devono essere considerati come connessioni specifiche dell'agire di singoli uomini. Per questo « la sociologia comprendente » deve guardare all'individuo singolo e al suo agire proprio come al suo « atomo », e l'uso stesso di concetti come « stato », « associazione » ecc. « designano per la sociologia, in generale, categorie di determinate forme di agire umano in società; ed è loro compito riportarle all'agire intelligibile e cioè, senza eccezione, all'agire degli uomini che vi partecipano ». La definizione sistematica dei compiti e del campo di indagine della sociologia comprendente esplicita la prospettiva sociologica come punto di riferimento costante di tutta la ricerca operativa e teorica di Weber. In realtà Weber vuole differenziare la sociologia dalla storia e fondare l'autonomia della sociologia come di ogni altra scienza all'interno delle scienze storico-sociali, relativamente a un punto di vista proprio e specifico con compiti delimitati e definiti, questo in conseguenza dell'assunto fatto proprio da Weber che la realtà è infinita e quindi non può essere colta in modo finito da una imponibile scienza totalizzante. Per Weber ogni scienza, come abbiamo già detto, assume un punto di vista parziale ed è legittima e autonoma nella misura in cui rispetta l'oggettività conoscitiva. A tal fine egli afferma: « La sociologia elabora - e ciò è stato già più volte assunto come evidente - concetti di tipi e cerca regole generali del divenire, in antitesi alla storia, la quale mira all'analisi causale e all'imputazione di azioni, di formazioni, di personalità individuali che rivestono un'importanza culturale. » In realtà la matrice filosofica di Weber è unica e uno è sostanzialmente il punto di vista da cui si colloca nell'indagine storica, in quella sociologica, in quella economica; la linea di demarcazione tra le varie scienze non traccia
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
confini essenziali, ma all'interno di una stessa ottica la discriminante tra maggior astrattezza o maggior individualità (per sua ammissione necessariamente complementari) segna livelli diversi di analisi all'interno però della stessa area. Per questo ci sembra oziosa la discussione se in Weber la storia si risolva in sociologia o la sociologia sia propedeutica alla storia. Affermare che ogni ricerca di Weber si colloca entro una prospettiva sociologica non vuol dire attribuire maggior importanza a una scienza piuttosto che all'altra ma collocare sociologia e storia all'interno di una stessa visione del mondo che vede nel divenire storico una somma di comportamenti sociali analizzabili da un punto di vista soggettivo arbitrario, sottratto a qualsiasi oggettività materialista e a qualsiasi sviluppo dialettico, secondo il senso stesso che Weber assegnò alle categorie sociologiche. La sociologia di Weber infatti è ben lontana dalla prospettiva positivista della sociologia ed è polemica verso la concezione materialista della storia. La sociologia comprendente di Weber non si pone compiti riformatori nei confronti della società ma anzi si trincera dietro un'oggettività conoscitiva che non pronuncia giudizi valutativi o etici, non riconosce alcuna nozione di progresso, se non in senso tecnico, al cammino dell'umanità, non vede alcuna razionalità nella storia che è frutto di lotte di opposti ideali e di potenze che si creano interpretazioni del mondo, non riconosce ai fatti sociali validità oggettiva ma li riduce a relazioni sociali soggettivamente intenzionate, nega infine ogni valore reale all'interpretazione legale della storia riconoscendo solo la legittimità e l'opportunità scientifica della creazione di modelli come tipi ideali mai esaustivi nei confronti della realtà. Economia e società è l'opera di Weber che affronta in modo sistematico l'oggetto e il campo di indagine della sociologia comprendente sia in generale sia nelle differenti branche della sociologia. L'opera, anche se fu lasciata da Weber incompiuta, è sufficiente a chiarire in modo esauriente il significato che egli attribuisce alla sociologia, e permette di vedere nelle ricerche sociologiche weberiane il riaffermarsi del tema fondamentale di tutta la sua opera: il capitalismo moderno inteso come fenomeno originale della società occidentale, la cui caratteristica fondamentale è una razionalizzazione progressiva di tutti i campi dell'agire associativo, originata non da un condizionamento assoluto dei rapporti economici, ma da una serie di concause tra cui Weber mette l'accento soprattutto sull'affermazione, nella società occidentale, dell'etica protestante e più specificatamente calvinista. Economia e società codifica in primo luogo l'apparato concettuale della sociologia con la susseguente creazione di tipologie sociologiche dell'agire economico, delle forme di potere, delle stratificazioni di ceto e di classe, e poi affronta i campi specifici dell'agire associativo come l'economia in rapporto agli ordinamenti sociali, la religione, il diritto, la città, il potere. L'opera è ricca di classificazioni e tipologie che rivestono interesse sia perché corrispondenti nella realtà a molti meccanismi dell'azione sociale, sia per la va-
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
rietà e vastità dei campi specifici affrontati. Non potendo però intraprendere una analisi dettagliata di tutta l'opera ci limitiamo a chiarire il metodo usato da Weber per la costruzione dei concetti sociologici e ad illustrare la categoria del « carisma » da lui proposta e che rappresenta una delle sue più conosciute e più felici creazioni. Una volta definiti i concetti che stanno alla base della sociologia, Weber vuole dimostrare che esistono relazioni intercorrenti tra ogni tipo di agire e che non esiste un rapporto di subordinazione che indichi in una determinata forma di agire associativa la causa prima del processo storico della società; la realtà è ricca di interrelazioni e di condizionamenti ed è arbitrario anche se legittimo privilegiare in sede di ricerca scientifica un qualsiasi fattore causale sia per la costruzione di un tipo sociologico sia per la spiegazione di un evento storico. La coscienza di questa arbitrarietà costringe a fondare l'imputazione causale in termini di causazione adeguata. Per questo all'interno dei vari campi di applicazione della sociologia le relazioni indicate e analizzate soprattutto tra agire economico, agire politico e le varie formazioni sociali sono sempre proposte come ipotesi possibili e mai come realtà assolute. Da questi presupposti nasce infatti la convinzione dell'impossibilità di conseguire risultati interpretativi e significativi dall'analisi delle formazioni sociali considerate come fatti oggettivi e si motiva la scelta di una sociologia basata sull'azione dell'uomo soggettivamente intesa, il cui comportamento nella relazione sociale (concetto primario di ogni formazione sociale) si fonda sulla possibilità di previsione del comportamento altrui; la relazione sociale in altri termini si basa su possibilità, su chances legittime ma mai accertate in modo definitivo. Nello stesso modo la sociologia comprendente, scienza empirica che trae il suo materiale dalla realtà e dall'esperienza, elabora concetti di tipi e cerca regole generali del divenire non come leggi in senso naturalistico, ma come chances <<possibilità tipiche, confermate dall'osservazione, di un certo corso dell'agire sociale che è possibile attendersi in base alla presenza di determinati fenomeni, possibilità le quali risultano intelligibili in rapporto ai motivi tipici e al senso tipico intenzionato da coloro che agiscono». L'azione umana mostra delle regolarità e delle uniformità di comportamento che possono essere concepite come « leggi >>, e possono essere comprese perché sono soggettivamente dotate di senso. Essa si basa sul paradigma: scelta dei mezzi per i fini da conseguire; l'azione umana è di conseguenza finalizzata. Si badi che solo l'azione dell'uomo è orientata teleologicamente, non la sociologia che non si pone mai un fine eticopratico ma solo quello della comprensione, nello stesso modo che nella ricerca del senso soggettivamente inteso non ricerca mai il senso giusto o eticamente corretto perché è una disciplina empirica e non dogmatica. La sociologia come ogni scienza tende all'evidenza, ma l'evidenza non prova ancora nulla della validità empirica della connessione; la validità di una interpre532 www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
tazione, anche se fondata sull'esperienza o sulla capacità di « nv1vere », deve essere controllata con i consueti mezzi dell'imputazione causale. La maggiore evidenza è data dall'interpretazione dell'agire come di un agire razionale rispetto allo scopo, ma non è questo il fine particolare che persegue la sociologia. La determinazione del comportamento razionale rispetto allo scopo serve alla costruzione del tipo ideale necessario per intendere l'agire reale. Questo è influenzato da elementi irrazionali di ogni specie che sono considerati deviazioni rispetto a ciò che sarebbe avvenuto se il comportamento fosse stato rigorosamente razionale. Ciò vuol dire che per Weber l'impianto della sociologia è di tipo razionalistico, mentre non lo è l'agire umano, che risulta costellato da motivazioni le quali sfuggono spesso a ogni forma di razionalità. Per la costruzione di qualsiasi casistica sociologica occorre partire dal tipo puro. La sociologia prende anche in considerazione processi e situazioni sprovvisti di senso, come fenomeni dipendenti da processi organici della vita, dati biologici o eventi naturali che sfuggono alla comprensione. La considerazione sociologica li assume come «dati» di fatto e li tiene in conto nella misura in cui influenzano il senso soggettivamente inteso dell'azione sociale. In sostanza l'azione sociale dell'uomo che è l'oggetto specifico della riflessione sociologica è quell'azione sociale orientata in base all'esistenza di altri individui che possono essere singoli e noti, o molteplicità indeterminata di persone ignote. L'agire cioè è sociale quando prende in considerazione l'esistenza di terze persone: ad esempio, « il denaro designa un bene di scambio che, nello scambio, l'agente accetta perché orienta il suo agire in base all'aspettativa che numerosi altri individui, ma ignoti e indeterminati, siano pronti a prenderlo da parte loro in scambio nel futuro ». Tra i concetti sociologici fondamentali espressi da Weber troviamo le due componenti basilari per la creazione di qualsiasi tipologia sociologica e delle varie formazioni sociali: ci riferiamo più specificatamente: I) ai fondamenti determinanti dell'agire sociale, z) al concetto di relazione sociale. I) Posto che il comportamento sociale si sviluppa in un rapporto di mezzi e fini l'agire sociale può essere determinato: a) in modo razionale rispetto allo scopo b) in modo razionale rispetto al valore c) affettivamente d) tradizionalmente z) Per relazione sociale si deve intendere, secondo Weber, «un comportamento di più individui instaurato reciprocamente secondo il suo contenuto di senso, e orientato in conformità ». La definizione di ogni concetto successivo risulta sempre dalla interrelazione di questi elementi unitamente ai concetti di lotta e di potenza, elementi essenziali del processo storico, secondo la visione del mondo weberiana; lotta e potenza sono sempre forme di relazione sociale basate sulla volontà di afferma533 www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
zione del proprio volere di fronte all'opposizione di uno o più individui. È importante sottolineare ancora una volta che le definizioni di Weber corrispondono a tipi puri, cioè ad estremi astratti non riscontrabili o riscontrabili con difficoltà allo stato puro nella realtà che risulta sempre dalla combinazione dei vari elementi. Le classificazioni di uniformità di fatto riscontrabili nell'agire sociale, e cioè l'uso e il costume, sono viste come derivate o da un agire tradizionale (la consuetudine) o da un agire razionale (un costume è tale perché è frutto di un orientamento razionale in vista di determinate aspettative). L'agire sociale risulta condizionato nella realtà da ordinamenti la cui legittimità è garantita dall'interno in modo razionale rispetto al valore o in modo affettivo o su basi religiose, o può essere garantita dall'esterno, cioè da aspettative specifiche di conseguenze esterne. A questo secondo caso appartengono la convenzione (la cui garanzia di legittimità risiede nel fatto che, violando la convenzione, il soggetto agente può andare incontro a una disapprovazione generale) e il diritto (la cui validità è garantita dall'esterno mediante la possibilità di una coercizione). Così la relazione sociale può essere definita comunità o associazione a seconda che si riferisca a un agire sociale che poggia su una comune appartenenza soggettivamente sentita (affettiva o tradizionale) o su una identità o legame di interessi motivati razionalmente (rispetto al valore o rispetto allo scopo). La puntigliosa chiarezza con cui Weber definisce i concetti sociologici è perseguita come uno dei fini della sociologia; si tratta cioè di creare concetti univoci che permettano la comprensione generalizzata della portata delle singole affermazioni in modo da poter essere capiti da tutti, i referenti che stanno alla base di ogni designazione sociologica di qualsiasi fenomeno. Quando Weber definisce lo stato come «un'impresa istituzionale di carattere politico nella quale- e nella misura in cui- l'apparato amministrativo avanza con successo una pretesa di monopolio della coercizione fisica legittima, in vista dell'attuazione degli ordinamenti » e la chiesa come « un'impresa istituzionale di carattere ierocratico nella quale-e nella misura in cui-l'apparato amministrativo avanza la pretesa di monopolio della coercizione ierocratica legittima », egli ha precedentemente stabilito il concetto di gruppo sociale, di ordinamento e la differenziazione tra gruppo politico e gruppo ierocratico. L'analisi del potere e delle sue varie forme rappresenta il nucleo di una delle sezioni più importanti nell'ambito delle sociologie specifiche. L'esercizio del potere su una pluralità di persone richiede infatti normalmente un apparato amministrativo; il modo con cui si configura l'apparato amministrativo e le caratteristiche di chi fa parte di questo apparato hanno dato vita storicamente alle varie forme di organizzazioni sociali. In questo modo Weber dà vita, nella sociologia del potere, al concetto di ceto, che è una forma di attribuzione di potere visto come « onore sociale » e differenziazione di competenze, distinto dal concetto di classe che si basa su di 534
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
un possesso a carattere specificamente economico. In essa Weber mette in risalto una delle componenti tipiche del capitalismo contemporaneo, e cioè l'apparato amministrativo-burocratico con divisione di competenze e attribuzioni ispirate ad un massimo di razionalizzazione appunto dell'apparato amministrativo. Nella parte riguardante la detenzione del potere economico, Weber classifica i vari tipi di capitalismo (forme di capitalismo sono per lui riscontrabili in ogni epoca storica e in ogni parte del mondo, ma il capitalismo considerato come organizzazione razionale del lavoro è fenomeno esclusivo della moderna società occidentale), e questa classificazione permette di valutare l'originalità del capitalismo occidentale moderno. Tuttavia nella sociologia del potere il concetto più originale, legato storicamente alla formulazione che di esso ha dato Weber, è indubbiamente quello di « potere carismatico » riconoscibile per la presenza della figura del « carisma ». Il potere presuppone per Weber «la possibilità di trovare obbedienza presso certe persone, ad un comando che abbia un determinato contenuto », esso si può basare su motivi affettivi o razionali rispetto al valore, l'esperienza dimostra però « che ogni potere cerca piuttosto di suscitare e coltivare la fede nella propria legittimità ;,>. La validità di questa legittimità può essere di carattere razionale, tradizionale o carismatico. La validità della legittimità di un potere ha carattere carismatico quando « poggia sulla dedizione al carattere sacro o alla forza eroica o al valore esemplare di una persona, e degli ordinamenti rivelati o creati da essa». L'esistenza, dunque, del potere carismatico è legata alla presenza di una persona che sia dotata di una qualità ritenuta straordinaria che « viene considerata come dotata di forze e proprietà soprannaturali o sovrumane, o almeno eccezionali in modo specifico, non accessibili agli altri, oppure come inviata da Dio o come rivestita di un valore esemplare e, di conseguenza, come duce». I suoi dominati si qualificano di conseguenza come seguaci. Occorre sottolineare che per Weber il capo carismatico non è l'ideazione di un tipo psicologico, bensì una forma di potere di cui possono anche essere prese in esame le componenti soggettive psicologiche ma che è oggetto di riflessione sociologica nella misura in cui condiziona un agire sociale dotato di senso. Il potere carismatico riveste carattere straordinario e, considerato nel suo tipo puro, rappresenta l'opposto delle forme di potere razionale nel senso che manca assolutamente di regole. Il suo apparire è spesso legato a forme di cambiamento rivoluzionario e all'avverarsi di condizioni straordinarie. Questa eccezionalità condiziona di conseguenza ogni aspetto del potere carismatico; l'apparato amministrativo ad esempio non è selezionato in base a criteri razionali o tradizionali (sia nel senso di un corpo di funzionari dotati di preparazione specialistica o scelto in base all'appartenenza ad un ceto), ma riveste anch'esso qualità carismatiche: « al profeta corrispondono i discepoli; al condottiero il seguito; al duce gli uomini di fiducia». Il carisma puro è specificamente estraneo all'economia 53 5
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
e i capi carismatici, nella misura in cui cercano mezzi materiali per il sostegno della loro potenza, non si adeguano a una economia di carattere razionale o ordinaria. Il potere carismatico assume spesso carattere provvisorio per l'impossibilità di trasferire ad un successore qualità che sono attribuite alla persona, di conseguenza il problema del «successore}) è un problema che spesso trasforma il senso del potere carismatico nella pratica quotidiana. Come abbiamo già detto la creazione di un potere carismatico è sempre frutto di situazioni straordinarie rispetto alla normalità dell'agire quotidiano. Ne consegue che il potere carismatico è labile e quindi nella pratica quotidiana se ne riscontra sempre una trasformazione. In effetti alla sua trasformazione contribuiscono due elementi, il desiderio da parte del detentore del potere di trasformarlo da transitorio a permanente e il problema della successione. Queste due condizioni obbligano molto spesso a ricercare la legittimazione del potere in forme di validità meno la)Jili di quelle carismatiche, si fa ricorso cioè a quella forma di validità più lontana all'origine dal potere carismatico che è la validità della tradizione. Viene in tal modo a cessare il carattere straordinario del carisma e si ricerca una regolamentazione che legittimi in modo permanente l'autorità ottenuta mediante potere carismatico: le monarchie ad esempio hanno sempre una origine di tipo carismatico ma si trasformano in istituzioni di carattere tradizionale. La successione di un'autorità carismatica avviene sia creando la fede nell'ereditarietà degli attributi carismatici sia ricorrendo a plebisciti popolari che riconfermino i successori di questa autorità. In genere i dominati scelgono all'interno di quel gruppo di fedeli al capo carismatico che testimoniano una continuità di quell'agire. Esempi di potere carismatico sono riscontrabili nella religione, nella guerra, nel potere politico, di cui un esempio è la monarchia. Per Weber anche nelle moderne democrazie sono riscontrabili estremi di caratteristiche carismatiche: la designazione per suffragio popolare del capo dello stato ne è un tipico esempio, anche se è regolamentata e istituzionalizzata e trae origine dal principio del mandato di rappresentanza tra eletto ed elettori, che rende l'eletto esecutore del mandato degli elettori. In effetti il mandato imperativo del rappresentante può essere realizzato elettivamente solo in modo incompleto. A questa stregua possono emergere le condizioni di potere di carattere carismatico, che sono già indubbiamente presenti nei meccanismi di selezione dei partiti per la designazione dei candidati. Nell'area quindi delle moderne democrazie occidentali, che sono frutto della crescente razionalizzazione di ogni settore tipica del capitalismo, permangono elementi che non sempre possono essere ricondotti almeno in senso soggettivo ad un agire razionale. In effetti per Weber la democrazia moderna, proprio perché si rivolge alla massa dei cittadini non sempre qualificati e preparati, si colora spesso di forme demagogiche sia facendo leva su aspirazioni irrazionali, sia prospettando fini di fatto irrealizzabili. È quindi nel senso della sfiducia verso un agire razionale ed una visione pessimistica della preparazione della classe borghese
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
e proletaria in Germania che Weber si pronuncia nell'attività politica in senso favorevole ad attribuzione di maggiori poteri al presidente del Reich e a una guida in senso carismatico per la nascente democrazia tedesca. La sua scelta non vuol essere una scelta a favore di un'autorità di carattere totalitario ma a favore di una forma di potere considerata come più adeguata realisticamente alle condizioni della società tedesca e come tale più razionale. Le restanti parti di Economia e società che affrontano differenti campi della sociologia sono dominate soprattutto, come abbiamo già detto, dal tema della razionalizzazione come elemento caratterizzante la società occidentale moderna qualificata dall'esistenza del capitalismo, e, nella sociologia della religione (che doveva poi diventare uno studio comparato delle religioni), dal significato causale che l'etica protestante assume nei confronti del capitalismo moderno, etica affermatasi in occidente con le caratteristiche peculiari che abbiamo già analizzato, non rintracciabili nelle altre religioni. VI· VALUTAZIONI CONCLUSIVE
Il pensiero di Max Weber, come abbiamo già detto, sanziona una svolta nel campo della sociologia. Un certo trionfalismo che permeava gli inizi della sociologia positivista, la quale si sforzava di considerare i mali sociali della società ottocentesca risolvibili mediante l'impostazione razionale del dominio borghese e del progresso della scienza e della tecnica, non ha più ragione di essere. L'istituzionalizzazione e la generalizzazione progressiva del potere borghese avevano messo in luce che i mali sociali erano connessi all'affermazione del capitalismo e che, l ungi dal risolversi, si acuivano; inoltre era sorto nel proletariato un atteggiamento combattivo e organizzato teso al rovesciamento stesso della borghesia. Per questo diveniva illusoria una sociologia che risolvesse i mali sociali; e di contro si affermava l'esigenza di reinterpretare il capitalismo non come sistema di rapporti di produzione e quindi oggetto della lotta di classe, ma come prodotto di forze storiche ascrivibili allo sviluppo della tecnica, all'affermazione di determinate ideologie. Il fine di questa operazione era evidente: una concezione siffatta permetteva di considerare i mali sociali non come portato specifico dell'organizzazione capitalista del lavoro e della società ma come conseguenza dello stesso sviluppo storico in senso astratto e generale, che rendeva utopistiche e irrealizzabili alternative liberatorie. Coerentemente con questi nuovi compiti la sociologia si inserisce in una prospettiva filosofica ovviamente distante da qualsiasi forma di materialismo e dialettica storica; essa si separa dalla matrice positivista che la qualificava come una forma di filosofia della storia, e si limita alla ricerca di nessi causali, fornisce modelli astratti di comportamento, limita il suo campo di indagine ai comportamenti sociali soggettivamente intesi, non ricerca più leggi di sviluppo storico, 537
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
si fraziona nei diversi settori della vita associativa, dando vita a discipline sociologiche specifiche. Weber non si limita però a esporre dei principi o ad analizzare particolari settori della vita sociale, come molti altri sociologi della sua epoca, ma deriva questi contenuti da una fondazione sistematica della sociologia come scienza; ma la formulazione delle categorie sociologiche e l'analisi del capitalismo di Weber sono chiaramente ispirate al tipo di interpretazione sopra accennato. Non a caso, infatti, egli privilegia tra le cause del capitalismo l'etica protestante, sottolineando che lo spirito del capitalismo nasce dal rifiuto della tradizione, elemento questo che trova terreno favorevole nell'etica calvinista, e considera gli aspetti economici del capitalismo moderno come la divisione del lavoro, la separazione del lavoratore dai mezzi di produzione, l'alienazione, sotto il profilo dell'organizzazione razionale e tecnica del lavoro. Di formazione kantiana (il ritorno a Kant è, come si è visto, una delle caratteristiche del dibattito culturale in quel momento storico in Germania), egli si pone dal punto di vista dei fondamenti logici dei processi conoscitivi nel campo della scienza. La legittimazione quindi della sociologia come « scienza » può avvenire solo attraverso il chiarimento dell'apparato concettuale cui fa riferimento: la realtà per W eber è inconoscibile nella sua complessità; il compito della scienza non può essere dunque quello di svelare l'oggettività del reale, bensì quello di ordinare concettualmente un materiale empirico nella prospettiva, più limitata ma più realistica, di determinare alcuni nessi causali presenti nella realtà ma non onnicomprensivi della realtà stessa. Sotto questo profilo l'oggettività conoscitiva propria della scienza sociale risiede nel metodo e negli strumenti di analisi. Qualsiasi categoria gnoseologica da usare nel campo delle scienze storico-sociali può essere elaborata solo valutando la peculiarità dei processi conoscitivi dell'indagine storico-sociale. Ed è proprio questa peculiarità e cioè il riferimento ai valori e il fine specifico dell'indagine storica, cioè la spiegazione dell'individualità, che non consentono la ricerca di « leggi » nel campo della realtà storica. I fondamenti logico-conoscitivi nel campo storico postulano sempre una certa unilateralità condizionata dal punto di vista da cui si pone lo scienziato e dal riferimento ai valori connaturato alla specificità del campo di indagine: ne consegue che per Weber ogni affermazione se pur verificata con strumenti scientifici è sempre relativa. Al suo tentativo di ancorare l'oggettività conoscitiva ad un metodo razionalistico (poiché per Weber la scienza si ispira a principi razionali sia quando si applica ai fatti naturali sia quando prende come oggetto del suo studio i fatti storici) fa riscontro un'interpretazione soggettivistica della storia. Weber avverte la necessità di un momento teorico chiarificatore della ricerca empirica e ritiene di trovarlo nella formazione di modelli costruiti su basi razionali che permettono, nel confronto con la realtà, una verifica più valida dell'imputazione causale in senso individuale storico; in realtà, si tratta
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
di un'operazione che snatura il significato stesso della storia. I modelli che Weber costruisce si basano su elementi empirici che, astratti dal contesto che li ha generati o almeno ricercati al fine di un'astrazione e non di una sintesi, applicati alla realtà storica fanno di questa realtà una somma di avvenimenti suscettibili di accostamenti analogici, poiché il relativismo soggettivistico di Weber tende a dimostrare l'impossibilità di una filosofia della storia. In sostanza ci sembra che l'impostazione che Weber dà al problema della scienza e l'esaltazione metodologica in senso razionalista non siano sufficienti a legittimare la verità delle sue affermazioni come la suggestiva analisi dello spirito del capitalismo o la felice creazione di alcuni modelli non possono dare validità alla sua dottrina. Questi sono comunque gli aspetti dell'opera di Weber che hanno maggiormente influenzato il corso successivo della sociologia: la legittimazione della scientificità della ricerca su basi puramente metodologiche, la focalizzazione sull'azione dell'uomo soggettivamente intesa, la pretesa avalutatività dei risultati, la continua creazione di modelli astratti dal contesto storico. VII • LA SOCIOLOGIA DOPO WEBER
L'opera di Weber costituisce il più compiuto tentativo, sia per ampiezza di problematica filosofica che per ricchezza di contenuti analitici, di dare una nuova e più adeguata fondazione teorica alla sociologia del suo tempo; essa mantiene ancora alcuni elementi tipici della cultura positivista, principalmente la rigorosità nel metodo e il principio dell'imputazione causale, ma essi sono ormai disancorati da una prospettiva di ingegneria sociale e sono lontani dalla atmosfera ottimistica ed entusiastica tardo-ottocentesca che non trova più riscontro nelle mutate condizioni politiche e sociali dell'Europa. Il suo tentativo non ebbe però notevoli e importanti sviluppi sia in Germania che in altri paesi europei, proprio a causa delle condizioni generali politiche e culturali dell'Europa di quel tempo nel quale la lotta politica assunse tale asprezza da non lasciare spazio a indagini organiche sulla sociologia e la sua storia. Lo sviluppo della sociologia trova invece un terreno più favorevole in America; qui però vengono lasciati sullo sfondo i grandi temi che si riscontrano nell'opera di Comte e di Weber- principalmente la formulazione delle leggi dello sviluppo storico e la fondazione logica della sociologia come scienza- e la ricerca si sposta su un terreno riduttivo. L'indagine teorica si pone sul terreno della comprensione immediata della realtà e l'indagine empirica si moltiplica affinando e creando nuovi strumenti metodologici di analisi; la grande tradizione europea viene vista quasi esclusivamente sotto il profilo dei modelli di interpretazione o della metodologia. Più specificatamente si dà per scontata la legittimità di una scienza sociologica e si sposta l'interesse sui contenuti dei suoi risultati e dei suoi metodi. Il notevole sviluppo della sociologia in America trova una ragion d'essere
539
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
nel fatto che si inserisce in un contesto sociale e culturale favorevole a una problematica di tipo sociologico. La società americana è infatti una società in rapido sviluppo, gravida di problemi sociali e senza una tradizione filosofica che possa condizionare in senso problematico l'affermazione di una« scienza» sociologica; la mancanza poi di una definizione precisa, l'ampiezza delle possibilità di applicazione, la generalità dei presupposti permettono alla società americana di modellare la sociologia secondo i suoi bisogni e la sua ideologia. Le origini della sociologia in America (ricordiamo tra gli altri i nomi di W. G. Sumner, 1840-1910 e di L. Frank Ward, 1841-1926) si ricollegano al positivismo. È soprattutto l'opera di Spencer ad avere la maggiore influenza. L'idea di progresso, la visione scientista che lascia tuttavia ampio spazio a motivi metafisica-religiosi, l'esaltazione dell'iniziativa individuale e della società industriale sono i temi spenceriani che si riscontrano in quasi tutti i sociologi amt:ricani di questo periodo. Comte trova invece un minor consenso proprio per l'impostazione di carattere filosofico che ha la sua dottrina; è significativo che di Comte venga accolta principalmente l'idea dell'organizzazione della società intorno al consenso generale. Il dibattito sociologico si svolge sui tàttori condizionanti il progresso e cioè se l'apporto dell'uomo nei confronti di un'evoluzione naturale (la teoria di Darwin è molto nota) sia determinante o secondario rispetto a un processo spontaneo che seleziona i migliori nella lotta naturale per la sopravvivenza. I fattori culturali che influiscono sulle strutture sociali e i fattori biologici sono visti alla luce di un rapporto di condizionamento reciproco, di conseguenza viene attribuita una scala di priorità a seconda che venga posto l'accento su uno o l'altro degli aspetti nella considerazione dello sviluppo della società. In ogni caso non si pongono in discussione le strutture esistenti ma una maggiore o minore cooperazione alloro sviluppo. A questa impostazione iniziale di carattere generale segue, soprattutto per influenza del pragmatismo, un orientamento che sposta la ricerca sociologica verso prospettive di carattere empirico e particolaristico: la sociologia americana si pone di fronte ai problemi caratteristici della società industriale capitalista e si fraziona nelle sociologie specifiche che hanno come campo settori specializzati dell'organizzazione sociale. Nel contempo si affinano tecniche e metodi di indagini e si forma una terminologia specifica che diventa in breve copiosa e spesso farraginosa; termini come stratificazione, adattamento, integrazione, ruolo, status ecc., diventano di uso corrente. L'affermazione parallela di discipline affini alla sociologia come la psicologia, l'antropologia, l'etnologia, dà vita ad uno scambio di categorie, di vocaboli, di strumenti. L'analisi dello sviluppo della sociologia americana con una trattazione analitica anche solo delle principali scuole richiederebbe un discorso che esula dagli scopi prefissi. Qui ci richiameremo a quelle che sono a nostro avviso le direttrici fondamentali della sociologia contemporanea in America e che trovano riscontro nelle stesse origini della sociologia statunitense.
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
Essa può dividersi in tre principali orientamenti. Una prospettiva reazionaria-conservatrice appunta il suo interesse sul problema dell'ordine, dell'adattamento e quindi della coesione sociale e del consenso; essa assume carattere chiaramente apologetico nei confronti dell'establishment e assegna alla sociologia un compito manipolatorio ai fini del potere (il più famoso esponente di questo indirizzo è indubbiamente Talcott Parsons). Una prospettiva riformistica assegna invece alla sociologia compiti di miglioramento sociale; essa si pone in una prospettiva di mutamento e si propone di conseguenza l'analisi della società in termini di conflitto (significativi esponenti di questa corrente sono Ernest W. Burgess e Robert E. Park e la scuola di Chicago, e Lewis A. Coser). Infine un indirizzo radicale critica l'impostazione della società americana e propone una sociologia contraria al mantenimento dello status quo, e le assegna il compito di essere uno strumento per una presa di coscienza in senso critico (Thorstein V eblen può essere considerato il primo significativo rappresentante di questo orientamento che ha trovato, in tempi più recenti, un sostenitore acuto e brillante in C. Wright Milis). Questa classificazione semplifica, forse eccessivamente, il complesso quadro della sociologia americana in quanto non considera le pur notevoli differenziazioni che esistono all'interno degli stessi indirizzi e il fatto che parecchie dottrine presentano un carattere ambiguo e non .::hiaramente precisabile; ci sembra tuttavia che sostanzialmente ogni corrente possa essere in ultima analisi collegata all'una e all'altra delle prospettive indicate, anche se il riferimento deve essere inteso solo come indicazione della tendenza di fondo prevalente. Tra le teorie su cui si basano quei sociologi che pongono il consenso come cardine della problematica sociologica, la più nota è indubbiamente quella che si richiama al funzionalismo. Il funzionalismo sociologico, che si ispira per molti aspetti, e anche per l'uso della categoria stessa di funzione, all'antropologia sociale e in particolare all'opera di B. Malinowski e di A. Radcliffe-Brown, è una teoria antievoluzionista ed essenzialmente antistorica che concepisce l'analisi dei fenomeni sociali in termini di sistemi e funzioni. Esso trova il miglior interprete in Talcott Parsons (n. 19oz). L'ambizione di Parsons è quella di dare alla sociologia, giunta a uno stato sufficiente di maturità, una compiuta e sistematica elaborazione concettuale che fornisca anche indicazioni per la ricerca empirica. La tortuosa, oscura e ingiustificatamente complessa esposizione della sua teoria è espressa più compiutamente e organicamente nel suo libro The social .ryste.m (Il sistema sociale, 195 1). Parsons pone come base del suo discorso il problema dell'« ordine» necessario per garantire l'equilibrio all'interno di un sistema. Egli affronta questo problema dal punto di vista dell'azione sociale: «Lo schema di riferimento riguarda l'orientamento di uno o più soggetti agenti - che sono nel caso fondamentale degli individui, organismi biologici - in vista di una situazione che include altri soggetti agenti. Essendo relativo alle unità d'azione e di 541
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
interazim1e, lo schema è uno schema re/azionale » (Parsons è chiaramente influenzato dalle teorie weberiane, ma mentre l'attenzione di Weber era accentrata sull'azione sociale che genera e condiziona gli ordinamenti sociali, Parsons considera l'agire sociale solo in funzione della stabilità sociale; cioè una volta affermata l'esistenza di un sistema sociale occorre vedere come l'azione sociale soggettivamente intesa si adegua ad esso). Il carattere funzionalistico di un sistema comporta che esso abbia carattere normativa o gerarchico. Il funzionamento di un sistema sociale presuppone che le parti lo accettino interiorizzandolo attraverso la mediazione della cultura che è un sistema simbolico. « Un sistema sociale consiste pertanto di una pluralità di soggetti individuali interagenti tra di loro - in una situazione che presenta per lo meno un aspetto fisico o ambientale - i quali sono spinti dalla tendenza alla "ottimizzazione della gratificazione" e la cui relazione con le rispettive situa.:zioni, inclusive di ogni altra situazione, è definita e mediata nei termini di un sistema di simboli culturalmente intesi. » Il sistema esercita proprio per il suo carattere normativa un controllo sociale e deve essere così saldamente strutturato da reagire nei confronti dei comportamenti devianti e dei conflitti in modo da poter riassorbirli, proprio perché la garanzia del sistema sta nella sua continuità. In questo sistema sociale il singolo è visto come il detentore di un determinato status-ruolo, cui corrispondono determinate aspettative controllate dal sistema normativa a cui il singolo aderisce proprio in quanto detentore di un certo ruolo. Lo status-ruolo è dunque un'unità del sistema sociale ed essendo il sistema sociale un sistema di interazione, i suoi componenti agiscono e interagiscono come titolari e detentori di status-ruolo. Parsons riconosce la possibilità dei mutamenti sociali, ma poiché è impossibile ritrovare le cause del loro accadere egli non li prende in considerazione e non elabora categorie di analisi per il mutamento sociale soprattutto nella sicurezza che la socializzazione nel sistema americano agisce in forma condizionante e in modo sufficientemente tranquillizzante. Parsons deriva molte categorie dai sociologi europei (l'azione sociale da Weber, il concetto di anomia da Durkheim) ma snaturandone in buona parte i significati e riducendoli a modelli comportamentistici. La teoria vacua e astratta di Parsons ha un carattere squisitamente apologetico, ed è in fondo un caso limite della stessa sociologia americana, ma dimostra come una cultura antistorica riduzionista è incapace di afferrare una problematica teorica con strumenti adeguati. I sociologi del conflitto si rifanno soprattutto a Georg Simmel (I 8 58- I 9 I 8) che usò della categoria di conflitto come forma di socializzazione. Citeremo brevemente Ernest W. Burgess (n. I886) e Robert E. Park (x864-I944) che fecero parte della scuola di Chicago costituitasi all'interno del dipartimento di sociologia di Chicago fondato nel I 892 e diretto alle origini da A. Small. Alla scuola
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
di Chicago risale la teoria ecologica, cioè quella teoria che si propone lo studio della relazione tra l'uomo e l'ambiente naturale. Sotto questo profilo vennero condotti studi e ricerche empiriche sulla città; ricorderemo The Go/d coast and the slum (La costa d'oro e lo slum, 1929), studio, condotto da W. Zorbaugh, di una fascia della città di Chicago che comprendeva una gamma vastissima di aree di insediamento tra loro molto differenziate (dai quartieri residenziali agli slums). Già la scelta dell'oggetto della ricerca testimonia l'interesse per una problemadca sociale di tipo riformistico che assegna al conflitto una funzione socialmente rilevante. Lewis A. Coser (I 9 I 8- I 9 58), di cui ricorderemo The function of social conjlict (La funzione del conflitto sociale, I956) in opposizione a Parsons e alla corrente sociologica predominante che considera il conflitto come « antifunzionale e disgregatore », rivendica le funzioni positive del conflitto sociale, e oppone una visione dinamica della società ad una funzione di tipo statico, per ciò stesso improduttiva e tesa alla conservazione. Coser si riallaccia alla funzione riformista delle origini della sociologia e prospetta un ritorno alle categorie della « tradizione classica» tra cui appunto annovera la categoria fondamentale di conflitto tratta da Simmel. . L'int<snto riformistico condiziona in modo determinante questa corrente sociologica, che non riesce a sollevarsi al di là della formulazione di categorie per ricerche empiriche rivolte alla messa in luce e alla soluzione di problemi sociali. Essa manca di una visione storica e dell'inquadramento di questi stessi problemi in categorie più ampie di natura filosofica e non dà fondamento strutturale ai problemi sociali che in fondo si propone di risolvere in modo limitato e in una prospettiva di razionalizzazione dello sviluppo della società industriale capitalista. La corrente radicale è indubbiamente la più interessante ed è quella che ha più influenzato gli sviluppi recenti della critica alla sociologia nonché le rivolte studentesche che in America hanno visto in primo piano appunto gli studenti di sociologia. Questi critici della società americana tendono a ricollegare la sociologia alla grande tradizione europea; si oppongono infatti sia ad una concezione empirica della sociologia e cioè ad i.m'accumulazione di dati acriticamente assunti come base per l'interpretazione, la valutazione e l'analisi della società contemporanea, sia ad una teorizzazione astratta di tipo apologetico che concepisca la società come un sistema che si regge sull'affermazione dell'ordine sociale e assegni come fine ultimo della società l'adattamento in senso totale. Essi non si propongono intenti di tipo riformistico ma richiamandosi ad una funzione operativa cercano le basi per una sociologia che assolva ad una funzione conoscitiva realistica e critica dei rapporti di potere che condizionano la società americana e che evolva quindi verso una posizione più chiaramente politica, non acquiescente nei confronti del sistema costituito. Il tentativo è dunque quello di rielaborare categorie 543
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
sociologiche di interpretazione della società che sottintendano sempre una valutazione globale, un principio, un presupposto di fondo. Essi rivalutano quindi il momento teorico che deve essere ispiratore sia della ricerca sul campo sia della considerazione generale della società. È nei grandi sistemi europei ottocenteschi che essi ritrovano modelli e schemi di più vasto respiro che si oppongono a una visione empirica dei problemi. Il richiamo all'Ottocento europeo passa attraverso autori come Spencer, Weber e anche Marx, benché la teoria marxista sia recepita soprattutto in termini ideologici e quindi sociologici, poiché, osservano, i contenuti non si adattano alla realtà del « capitalismo avanzato ». Il richiamo esplicito di Wright Milis, all'interno della tradizione americana, è a Thorstein Veblen (1857-1929) la cui acuta analisi e presa di posizione nei confronti della società industriale presuppone una critica totale in senso radicale. Veblen fu un economista prima che un sociologo e per questo i suoi interessi si accentrano principalmente sui fenomeni economici; la sua attenzione si volge verso la società industriale contemporanea in cui vede una contrapposizione, per quanto concerne l'organizzazione sociale ed economica, tra uomini di affari e tecnici. I tecnici si occupano dell'organizzazione produttiva dell'impresa, mentre gli uomini di affari del commercio e della finanza. I primi sono produttivi, i secondi parassiti; gli uni rappresentano l'istinto di efficienza che cerca di realizzare nel lavoro la razionalità, gli altri l'istinto predatorio che porta alla guerra e allo sfruttamento. Veblen si pronuncia a favore dei tecnici, i quali, liberati dall'elemento parassitario dell'organizzazione sociale ed economica, potranno attuare un nuovo tipo di società nel quale ad una più equa e razionale organizzazione del lavoro corrisponda la possibilità di impiegare il tempo libero in attività salutari e costruttive. Su questa interpretazione si basa il più famoso libro di Veblen, The theory oj leisure class (La teoria della classe agiata, 1889). Lfl. classe agiata, per Veblen, è nata con la proprietà; in ogni tempo infatti è esistita una classe che ha posseduto ricchezze superiori ai propri bisogni e l'impiego di tale surplus non è mai stato indirizzato a fini socialmente utili ma verso investimenti inutili che conferissero prestigio sociale. La classe agiata, essendo una classe parassitaria e avendo quindi una sempre maggior quantità di tempo libero da impiegare in attività che conferiscono prestigio sociale, ha dato vita ad un nuovo codice di comportamento: essa vive all'insegna del consumo superfluo, dello « sciupio vistoso » e tende ad esibire i termini del suo prestigio allo scopo di differenziarsi dalle altre classi. Quest'atteggiamento ha generato l'istinto di emulazione che si è generalizzato ed è una delle fonti del malcontento attuale; si è venuto affermando un criterio di valutazione basato sulla quantità di denaro posseduta e non sulle qualità morali. Questo principio di emulazione tende a condizionare in senso negativo ogni aspetto della vita sociale che è rivolta verso l'esterno per trovare una conferma agli occhi degli altri del proprio prestigio sociale. La concezione di Veblen è indubbiamente una concezione di tipo mora544
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
lista e la sua critica non supera mai in fondo una critica di costume; essa tuttavia coglie con sufficiente acutezza alcuni aspetti della società americana, è profondamente polemica nei confronti delle istituzioni e colloca in una prospettiva storica le sue affermazioni. Il richiamo di C. Wright Mills (1916-1962) a Veblen e alla tradizione classica presenta caratteristiche e significato differente da quello comune agli altri sociologi. Ricollegarsi alla tradizione classica vuol dire per Mills reinserire la sociologia in una prospettiva storica, esplicitare quelle teorie che sono necessariamente presupposte a qualsiasi affermazione anche di carattere empirico, vuol dire esprimere una valutazione della società in contrapposizione ad una pretesa avalutatività della scienza che è in effetti legittimazione e accettazione del potere costituito. Ma il valore del richiamo non consiste solo in questo; alla tradizione classica per Wright Mills si riallacciano i temi essenziali su cui si basa la realtà dell'organizzazione sociale come il problema del potere, della situazione di classe, cioè tutti quei fenomeni non marginali ma essenziali per la descrizione e comprensione della società moderna. Nella prefazione al libro lmages of man (Immagini dell'uomo, 196o), che è una raccolta antologica curata da Wright Mills di autori della « tradizione classica », egli ripropone la lettura di questi autori perché « la loro opera rappresenta il meglio della sociologia dell'ultimo periodo del secolo scorso e del primo di questo secolo ed assume una diretta rilevanza rispetto a ciò che vi è di meglio nel lavoro attuale». Nel presentare questi autori Wright Mills pone in rilievo la crisi susseguita all'impostazione weberiana della sociologia definendola crisi del liberalismo classico, e la accomuna anche ad una crisi del marxismo classico: « La crisi morale di questa tradizione umanistica, rispecchiata nella sociologia, coincide con la ritirata della nostra generazione di scienziati sociali sul terreno del fatto puro. » Queste affermazioni ci sembrano molto importanti sia per gli elementi positivi che contengono, sia anche per i limiti che palesano. La rivendicazione del bisogno per la sociologia di un apparato teorico e di un contesto storico si accompagna infatti ad un limitato concetto della teoria, che viene ridotta a puro e semplice «modello». Non a caso egli accomuna autori come Marx ed Engels a Durkheim e Lippmann, sociologo americano noto soprattutto per il suo libro The public opinion (L'opinione pubblica, 1922), e non a caso include nel suo libro Spencer e non Comte. Il compito della sociologia viene meglio definito da Wright Mills nel suo libro The sociological imagination (L'immaginazione sociologica, 1959): «L'immaginazione sociologica permette a chi la possiede di vedere e valutare il grande contesto dei fatti storici nei suoi riflessi sulla vita interiore e sul comportamento esteriore di tutta una serie di categorie umane. Gli permette di capire perché, nel caos dell'esperienza quotidiana, gli individui si formino un'idea falsa della loro posizione sociale. Gli offre la possibilità di districare, in questo caos, le grandi linee, l'ordito della società moderna, e di seguire su di esso la trama psi545
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
cologica di tutta una gamma di uomini e di donne. Riconduce in tal modo il disagio personale dei singoli a turbamenti oggettivi della società e trasforma la pubblica indifferenza in interesse per i problemi pubblici.» Perché dunque la sociologia scopra la sua vera vocazione occorre che l'indagine sociale inserisca i fatti in un contesto storico e valuti i problemi non come frutto di difficoltà personali d'ambiente, ma situi all'interno della loro reale origine «i problemi pubblici di struttura sociale», e si allontani da una «falsa coscienza» per avvicinarsi ad una più adeguata coscienza politica: il compito della sociologia è dunque formativo, pedagogico oltre che conoscitivo. Mentre definisce la vera vocazione della sociologia, Wright Mills combatte con molta efficacia ed acutezza le due tendenze della sociologia americana: « La Grande Teorizzazione », come ironicamente chiama la teoria dell'azione sociale di Parsons, e l'empirismo astratto di cui vede un rappresentante significativo in P. Lazarsfeld, uno dei ricercatori empirici più fecondi e acritici della sociologia americana. L'empirismo astratto è caratterizzato da una « inibizione metodologica » che lo porta a concepire la società americana come un insieme di variabili correlate con equazioni matematiche; alla complessità di modelli corrisponde un vuoto assoluto di contenuti tale da giustificare la qualifica, contraddittoria nei suoi termini, di « empirismo !\Stratto ». Conseguente alla sua impostazione, Wright Mills indirizza le sue ricerche empiriche verso il problema del potere. The power élite (L'élite del potere, 1956) e la classe media White collars (Colletti bianchi, 195 1) sono due opere felici: nella prima Milis esamina chi sono gli effettivi detentori del potere in America, e nella seconda le caratteristiche di quella classe media che è il frutto del capitalismo . avanzato. Con l'élite del potere Mills vuole colpire il concetto stesso di democrazia americana: la democrazia presuppone infatti un potere diffuso, l'autogoverno, le decisioni collettive; al contrario i detentori del potere in America sono una sparuta élite che domina sul resto della nazione attraverso l'insediamento di suoi membri nei posti chiave dell'organizzazione sociale capitalista, cioè nell'organizzazione militare, economica e politica della nazione. Essa si serve di un apparato di propaganda e di mezzi di manipolazione delle masse per mantenere il proprio potere. Con il termine « colletti bianchi» egli designa la classe media americana che è formata da lavoratori dipendenti improduttivi. Wright Mills si richiama a categorie mutuate da Weber e da Marx; considera la classe media come oggettivamente antagonista alla classe dirigente e insieme contraddistinta da caratteristiche di ceto che la condizionano verso un'indifferenza politica. I white collars sono il prodotto di una società a capitalismo avanzato; tra di essi primeggiano i burocrati e tutti coloro che sono, per retribuzione e per collocazione sociale, al disopra della classe operaia ma insieme ben lontani dai poteri decisionali e dalle retribuzioni delle classi dirigenti. Wright Mills è uno degli autori più vivi e più interessanti della sociologia
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
americana anche se a nostro avviso rimane all'interno di una valutazione puramente sociologica della società e quindi si pone in una prospettiva di fatto empirica e soggettiva. Ma non si può prescindere nel formulare questo giudizio dalla considerazione che all'interno della sociologia americana egli rappresenta una delle esigenze più qualificate e più dense di prospettive. La sociologia americana domina dunque la scena fino alla seconda guerra mondiale. Alla fine della seconda guerra mondiale in Europa si assiste ad una rinascita della sociologia che, lungi però dal riallacciarsi ai temi della «tradizione classica », mutua il linguaggio della sociologia americana in un discorso accentrato su ricerche empiriche, modelli e formazione di categorie descrittive. Un discorso a parte merita la Scuola di Francoforte che nasce nell'ambito dell'Institut fiir Sozialforschung di Francoforte nei primi anni del decennio 1930-40. I temi principali della « sociologia critica » di Francoforte vengono dibattuti soprattutto nella rivista dell'Istituto, la « Zeitschrift fiir Sozialforschung », diretta da M. Horkheimer dal 1932 al 1941. I più importanti esponenti della scuola sono, oltre ad Horkheimer, T. Adorno, J. Habermas e H. Marcuse, il quale però sviluppa il suo pensiero soprattutto in America e finisce con l'essere criticato come soggettivista e romantico anche dalla stessa Scuola di Francoforte. La Scuola di Francoforte cerca di trovare i fondamenti della sociologia critica nell'hegelismo e soprattutto nel marxismo, da cui mutua l'apparato categoriale cercando di renderlo più aderente allo sviluppo del capitalismo. La società tecnologica e industriale, frutto del potere del capitalismo borghese, è al centro delle analisi dei suoi teorici. Essi si dichiarano contrari al positivismo acquiescente nei confronti del potere e apologetico nel suo vano empirismo; la sociologia positivista vede il progresso nel senso di una ingegneria sociale; essi le contrappongono una sociologia critica le cui categorie di giudizio e la cui forma di conoscenza devono essere al servizio di un rovesciamento della situazione sociale. Ciò può essere attuato attraverso un più stretto rapporto tra teoria e prassi nella forma dell'acquisizione di un'autocoscienza o vera coscienza di sé che liberi gli individui dalla manipolazione ideologica di cui sono oggetto e che li condiziona nel senso di una falsa coscienza. La dialettica assume quindi rilievo nella negazione e nella sua applicazione alla prassi. Il rifiuto della società contemporanea, il rifiuto del progresso, tecnologicamente inteso, che porta alla schiavizzazione dell'uomo, il rifiuto della falsa razionalità, sono i temi dominanti di questa scuola che svolge la sua analisi dando rilievo all'autoritarismo che domina nella società in forma così generalizzata da essere accolto anche dalle classi subalterne mercè la manipolazione ideologica. Essi si richiamano alle categorie di totalità, di falsa coscienza, di alienazione. Le categorie marxiste sono interpretate prevalentemente non sulla base dei rapporti di produzione, ma alla luce dei rapporti sociali attraverso la mediazione dell'acquisizione di coscienza. È ovvio che viene dato rilievo in questa scuola al giovane Marx, a Hegel, a Luckacs, e viene 547
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
valorizzato Freud come teorico dell'antiautoritarismo in senso psicologico. Nel rapporto tra le classi e nel rovesciamento del potere borghese viene ad acquistare primaria importanza la figura dell'intellettuale fornito di strumenti per arrivare alla liberazione dalla falsa coscienza; con l'intellettuale si identifica anche lo studente che diventa esso stesso motore di un processo rivoluzionario. Inutile osservare che queste affermazioni hanno molto influenzato le lotte studentesche. La tematica della scuola è ben più ricca ed argomentata di quanto noi qui riportiamo. Questo tentativo psicologizzante ed irrazionalista (anche se i suoi teorici si richiamano all'uso vero della ragione in contrapposizione all'uso razionale di una irrazionalità di fondo della società contemporanea) d sembra però da rifiutare nelle sue premesse filosofiche di carattere idealistico e per ciò stesso antimaterialistico. VIII • LA SOCIOLOGIA DELLA CONOSCENZA
Il discorso precedente è stato volutamente contenuto entro l'ambito limitato dei presupposti generali e delle prospettive di fondo degli aspetti più significativi della ricerca sodologica contemporanea. Ci sembra però opportuno svolgere una trattazione un poco più analitica di quella sociologia speciale che ha un'attinenza specifica con il carattere della presente opera. Ci riferiamo alla cosiddetta sodologia della conoscenza. Infatti la sociologia del sapere, rivolgendo la sua attenzione verso quegli aspetti generali dell'attività conoscitiva umana, deve porsi il problema di una sua collocazione rispetto alla ricerca filosofica. La dottrina della sociologia della conoscenza, secondo i suoi sostenitori, ha matrici lontane e derivazioni varie, ma per i suoi elementi essenziali viene fatta risalire, per un verso alla dottrina marxista, e per l'altro allo stesso Max Weber e soprattutto a Scheler. Il principale teorico della disciplina viene comunemente considerato Karl Mannheim, che è appunto il primo studioso che, nell'opera Ideology and utopia (Ideologia e utopia, 1936) e in altri saggi, abbia cercato di esporne in modo abbastanza elaborato i fondamenti e le prospettive. La sociologia del sapere viene definita in questi termini: « Come teoria essa cerca di analizzare la relazione tra la conoscenza e l'esistenza; come ricerca storica-sodologica, essa si sforza di rintracciare le forme che tale rapporto ha assunto nello sviluppo intellettuale dell'umanità.» L'impostazione generale è chiaramente antiteoreticistica: viene dato quindi grande rilievo a quegli elementi emozionali, pratici, per lo più inconsapevoli che guidano gli individui nell'assunzione di determinate concezioni teoriche. Questi atteggiamenti sono il riflesso di situazioni sociali chiaramente enucleabili e hanno una tale influenza da condizionare la scelta e il carattere stesso delle prospettive teoriche. L'ambiguità dell'assunto generale è evi-
www.scribd.com/Baruhk
W eber e gli indirizzi della sociologia contemporanea
dente nel fatto che si dà rilievo preminente a moventi istintivi che non sono facilmente suscettibili di una connotazione precisa ed univoca. Si è costretti perciò a far ricorso a categorie equivoche come quella della comprensione simpatetica, fondate sulla situazione esistenziale dell'individuo. Così, l'etica delle primitive comunità cristiane, spiegata come risentimento delle classi oppresse, non potrebbe essere intesa da un « osservatore che non sia autenticamente interessato alle origini sociali della morale prevalente nel periodo in cui egli stesso vive, che prescinda, nello studiare i problemi della vita sociale, dalla tensione fra le varie classi e che non abbia altresì scoperto l'aspetto positivo del risentimento nella sua esperienza personale, non sarà mai in grado di capire quella fase dell'etica cristiana. È proprio nella misura in cui egli partecipa, simpateticamente o antagonisticamente, alla lotta che gli strati più umili sostengono per la loro evoluzione, nella misura in cui valuta il risentimento in un senso positivo o negativo, che egli diviene consapevole del significato dinamico della tensione e del rancore sociale ». Si ha qui la generalizzazione astratta di una mera categoria psicologica che viene fatta rivivere nella concreta personalità dell'individuo. Il momento esistenziale individuale è però la reazione alla più ampia istanza collettiva in cui ogni individuo viene a trovarsi. L'individuo è cioè collegato nelle sue azioni e nel suo pensiero al gruppo in cui opera, di cui riflette le aspirazioni, le finalità, le prospettive; la realtà sociale emerge quindi come la caratterizzazione fondamentale di tutta l'attività dell'uomo. Ne consegue che il sapere si configura quasi sempre come manifestazione di parte, sezionale, espressione di gruppi sociali particolari; la distorsione, la faziosità, più o meno consapevole, è la caratteristica essenziale di ogni concezione generale del sapere o di più speciali articolazioni di esse. Secondo Mannheim e gli altri teorici della sociologia della conoscenza, ciò costituisce la teoria dell'ideologia, dalla quale la sociologia del sapere tende a differenziarsi. Mentre, infatti, la teoria dell'ideologia, sviluppatasi soprattutto nell'ambito del marxismo, si propone principalmente un compito demistificatorio, quello cioè di denunciare gli inganni e le falsificazioni teoriche che nascono da concreti interessi di parte, « la sociologia del sapere invece non si occupa delle menzogne che nascono da un deliberato sforzo di ingannare, quanto dei differenti modi in cui la realtà si rivela al soggetto in conseguenza della sua diversa posizione sociale ». Ciò comporta uno sforzo di generalizzazione capace di arrivare ad una concezione totale dell'ideologia, in cui si ha una visione liberata dalla concezione assoluta della verità e si considera la propria stessa posizione intellettuale come condizionata. La sociologia del sapere considera essenziale il superamento della teoria dell'ideologia e si configura come una teoria generale della determinazione sociale. Essa sottolinea infatti che la determinazione sociale è una componente necessaria del conoscere (la realtà viene cioè sempre conosciuta secondo un particolare angolo di visuale, in quanto non può esistere un pensiero avulso dal contesto sociale che 549
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
lo limita e lo condiziona). In generale afferma che non si può avere una corretta interpretazione dello sviluppo del pensiero se non vengono sottolineati i concreti nessi con l'esistenza e le implicazioni sociali di esso. Ma il principio della determinazione sociale del pensiero non rimane un presupposto generale; viene usato direttamente dai sociologi della conoscenza per l'indagine. Diventa allora, ed è ovvio che lo sia, una categoria vuota. Sulla base di tale assunto si può solo giungere all'affermazione astratta (valida per tutte le società e per tutti i periodi) che ogni pensiero, in misura più o meno vasta, ha una matrice esistenziale inconscia radicata nel gruppo sociale in cui si trova l'individuo che lo esprime. Al di là di ciò non è possibile andare. È evidente quindi che i tentativi di esplicazione analitica siano formulati sulla base delle più disparate asserzioni che hanno tutte un fondamento tipico-: l'analogia. Ciò può essere chiaramente rilevato da alcuni esempi. Si afferma che le società stabili sono caratterizzate da un pensiero unitario, e che è « l'intensificarsi della mobilità sociale a distruggere l'illusione, dominante nelle società statiche, secondo cui ogni cosa può mutare, ma il pensiero rimane eternamente lo stesso». Si rileva l'esistenza di una mobilità orizzontale, in cui si avverte che esistono modi di pensare in paesi differenti che vengono considerati curiosità, errori, eresie dal gruppo nazionale in cui la tradizione resta forte; e di una mobilità verticale, caratterizzata da un rapido movimento dei diversi strati sociali che porta a rompere le concezioni unitarie tradizionali e a rendere le persone incerte e scettiche. Si elabora uno schema per determinare il pensiero della classe borghese nella Francia del Settecento in confronto a quella aristocratica: si afferma che la classe inferiore pone l'accento sul divenire (in quanto classe in ascesa) piuttosto che sull'essere (atteggiamento tipico della classe superiore); ha la tendenza a guardare avanti (prospettivismo) invece che indietro (retrospettivismo); ha una concezione meccanicistica e non teleologica, un modo di pensare dialettico rivolto alla ricerca delle contraddizioni e non alla individuazione di identità e di armonie, ecc. Si osserva che esistono nella società tendenze rivolte verso la comunità e verso l'associazione e si portano esemplificazioni relative alla visione cattolica e calvinista della vita. I cattolici hanno così una tendenza ad una visione organica del mondo, considerano la società un a priori rispetto all'individuo, vedono la comunità come portatrice di tutta la verità, sono portati all'emotivismo e al misticismo, ritengono via ideale alla verità la contemplazione nel chiostro (Maria prima di Marta), mentre i calvinisti hanno una tendenza ad una visione atomistica del mondo, ritengono che la società sia un a posteriori rispetto all'individuo, propugnano il razionalismo, e credono che la via ideale alla verità sia l'osservazione all'interno del mondo (Marta prima di Maria). (Questi due schemi si trovano nell'opera di W. Stark, The sociology of knowledge [Sociologia della conoscenza, 195 8]; il primo è derivato da Scheler.) 5 50
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
La concettualizzazione proposta dalla sociologia della conoscenza non è solo generica; porta anche a palesi deformazioni. Si veda per esempio la contrapposizione categoriale tra ideologia e utopia che dà il titolo all'opera di Mannheim. Le ideologie vengono descritte come quelle «convinzioni e quelle idee dei gruppi dominanti, le quali sembrano congiungersi così strettamente agli interessi di una data situazione da escludere qualunque comprensione dei fatti che potrebbero minacciare il loro potere. In talune condizioni, i fattori inconsci di certi gruppi nascondono lo stato reale della società a sé e agli altri e pertanto esercitano su di esso una funzione conservatrice ». Sono considerate utopie invece quelle « concezioni dei gruppi subordinati, così fortemente impegnati nella distribuzione e nella trasformazione di una determinata condizione sociale, da non riuscire a scorgere nella realtà se non quegli elementi che essi tendono a negare ». Si tratta quindi di concezioni incapaci di una diagnosi corretta della società presente e che non si occupano affatto di ciò che realmente esiste. È facile osservare l'inconsistenza di tali asserzioni. I gruppi conservatori devono in effetti avere una effettiva e reale comprensione dei fatti che potrebbero minacciare il loro potere; tale comprensione è necessaria per conservare il dominio e quando essa manca, o è insufficiente, il potere viene perduto. Del pari, ogni pensiero veramente rivoluzionario deve dare una diagnosi corretta di tutta la società, deve cioè dare una effettiva esplicazione dei fatti esistenti per poterli cambiare; altrimenti resterebbe appunto una utopia nel senso usuale del termine, che non è quello che gli dà Mannheim. La descrizione delle varie mentalità utopiche, da quella millenaristica (chiliastica), a quella liberale, conservatrice, socialistica-comunistica, rimane astratta e ambigua. Questa indeterminatezza categoriale si palesa ulteriormente se si paragona la posizione di Mannheim con la prospettiva del marxismo di cui la sociologia della conoscenza vuole essere il superamento e l'allargamento. In effetti, nel marxismo, il rapporto tra pensiero e realtà sociale è ancorato ad una concezione generale della storia e della società che si serve di un apparato concettuale preciso ed efficace. L'evoluzione della società viene vista essenzialmente sotto l'angolo di visuale dei rapporti di produzione economica e degli antagonismi di classe che ne emergono. Se l'ideologia è l'espressione sovrastrutturale con cui una determinata classe cerca di mantenere o di conquistare il potere ed è una visione particolare della realtà, è pur vero che le varie ideologie si muovono con un andamento progressivo verso una sempre più ampia e completa appropriazione della realtà, in quanto anche sono il riflesso di classi sociali sempre più generali. Nella sociologia della conoscenza invece si parla più genericamente e indeterminatamente di gruppi sociali e la classe è soltanto il gruppo sociale più importante, accanto ad altri come le generazioni, i ceti, le sette, i gruppi di lavoro ecc. L'ideologia, nel senso che le danno i sociologi della conoscenza, non dipende da strut-
551 www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
ture reali oggettive, ma è un elemento della struttura mentale dell'uomo che è portata ad accogliere nel processo conoscitivo istanze collettive: presenta una matrice di impronta soggettivistica. Questi elementi soggettivistici sono chiaramente evidenziati e sviluppati da uno dei più recenti teorici della sociologia della conoscenza, Werner Stark, il quale si propone di dare un fondamento filosofico generale di stampo kantiano alla prospettiva della sociologia della conoscenza. La teoria della determinazione sociale del pensiero si fonda, secondo Stark, su una tendenza profonda dello spirito umano. Ogni apprensione relativa a materie sociali è filtrata da una valutazione che precede e non segue l'atto dell'apprensione. Si tratta di «un a priori sociale, altrettanto vero e fondamentale, agli effetti del processo della conoscenza sociale, quanto lo era quello di Kant· per il processo della conoscenza formale e fisica». Un fatto storico, come la battaglia di Maratona o quella di Sedan si presenta come una congerie indefinita di atti e di singoli avvenimenti che di per sé non hanno senso: il significato è fornito dal pensiero umano che vede le cose e le vede come un insieme. « Il dare una struttura alla conoscenza dipende da un principio di selezione e da un principio d'ordine, e questi vanno cercati entrambi esclusivamente in ciò che abbiamo chiamato lo schema davanti all'occhio dello studioso di storia, l'a priori della sua mente, in breve, il suo sistema fondamentale di valori. » Il tentativo di fondazione gnoseologica è abbastanza approssimativo, come approssimativo e improprio è il riferimento a Kant, ma sufficiente però ad indicare come la sociologia della conoscenza possa naturalmente sfociare in un ambito dichiaratamente idealistico. Date queste premesse, volte a considerare la realtà sempre dal punto di vista del soggetto, il problema di fondo in cui viene a dibattersi la sociologia della conoscenza è quello di come salvaguardare un livello obiettivo ài verità. Criticata la tesi che propugna un criterio di verità assoluto, per non cadere nel relativismo, Mannheim designa la propria concezione con l'ambiguo termine di relazionismo. Esso significa che « tutti gli elementi di una data cultura si richiamano reciprocamente e derivano il proprio significato da questa interrelazione ». Infatti, « una considerazione critica delle molteplici concezioni dell'essere che si presentano, spesso in contrasto fra di loro, deve condurre ad una prospettiva comprensiva capace di accogliere le concezioni divergenti, e di superare i limiti impliciti nei punti di vista particolari »: tale è appunto il relazionismo, con il quale tutta la realtà sociale viene risolta in una rete di relazioni statiche. Tale ambiguità categoriale porta a non impostare correttamente il problema del rapporto conoscenza-realtà. Significativa è a questo proposito la considerazione della conoscenza scientifica. In genere i sostenitori della sociologia della conoscenza escludono dal condizionamento sociale le proposizioni concernenti le scienze esatte le quali
www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
rivestirebbero un valore che trascende la determinazione esistenziale. Questa asserzione è basata sull'assunto di considerare in modo contrapposto la realtà naturale statica e la realtà sociale dinamica, con la conseguente distinzione tra il pensiero tecnico-scientifico, il quale completa un sistema sempre lo stesso in periodi successivi, e il pensiero relativo alle scienze filosofiche e storico-sociali, il quale cambia continuamente i centri di sistemazione dei fatti in quanto ogni epoca presenta propri e diversi valori; si giunge perfino a distinguere le vere e proprie asserzioni scientifiche non condizionate, da quelle asserzioni di natura filosofica e metafisica non vere, soggette invece al principio del condizionamento sociale. Non è necessario mostrare al lettore di quest'opera l'erroneità di una simile concezione della verità scientifica; vogliamo solo sottolineare che essa è un aspetto di una più generale concezione della verità erronea. È la mancanza di una corretta visione dello sviluppo dell'uomo e della sua storia che conduce la sociologia della conoscenza ad una teoria sostanzialmente empiristica. Quando si sostiene che « il compito specifico della storia sociologica del pensiero diviene quello di ricercare, senza alcun riguardo per i pregiudizi dei partiti, tutti i fattori della concreta situazione sociale che possono influenzare il pensiero », non ci si accorge che una tale indagine non ha senso filosofico, cioè reale e storico. Questo può sorgere solo da una concezione dello sviluppo storico ancorata ad una nozione di progresso che sia insieme antologico e categoriale, che veda il sempre più ampio disvelarsi della realtà naturale ed umana come una conseguenza del continuo potenziamento delle nostre categorie interpretative. I singoli momenti dell'evoluzione sono legati fra di loro da un vincolo necessario e si muovono verso una sempre più compiuta appropriazione della realtà naturale ed umana; è il movimento dal punto di vista dell'oggetto che deve guidare la ricerca. « Il nostro scopo, » dice Mannheim, « resta non tanto quello di adeguare un tipo di conoscenza che dovrebbe costituire "la verità in sé", quanto piuttosto di comprendere come l'uomo risolva i suoi problemi conoscitivi, legato com'è, in siffatta attività, alla posizione che occupa nella società. Se noi raccomandiamo una concezione comprensiva di ciò che ancora non si lascia sintetizzare in un sistema, lo facciamo ritenendo che tale sforzo rappresenti la possibilità migliore nella nostra presente situazione e perché, agendo così, pensiamo (come sempre avviene nel caso della storia) di promuovere i necessari passi preparatori alla sintesi futura. » Quel che importa quindi è solo il rapporto tra conoscenza e modalità sociale; l'oggetto conoscitivo è posto in un ipotetico futuro. La ricerca è sempre volta a verificare un fatto costante, la presenza di elementi sociali, emozionali, irrazionali nell'atto conoscitivo. La sistemazione, e con ciò la valutazione dell'oggetto conoscitivo, viene rimandata. Si perde perciò il senso dei fini conoscitivi. In realtà, ciò che la sociologia della conoscenza non vede, è che c'è sempre un'appropriazione vera e progressiva della verità, e c'è in ogni periodo storico
553 www.scribd.com/Baruhk
Weber e gli indirizzi della sociologia contemporanea
un solo modo di approccio vero, quello che costituisce un potenziamento delle categorie conoscitive del tempo (o un loro superamento) e un'effettiva conquista conoscitiva della realtà naturale e storica. La verità, se si vuole, è sempre partigiana; tende però a non esserlo in quanto si muove sempre in una prospettiva assoluta; un'asserzione che non si muova in questa direzione non è vera.
554 www.scribd.com/Baruhk
Bibliografia
www.scribd.com/Baruhk
www.scribd.com/Baruhk
'CAPITOLO SECONDO Problemi fondamentali della pedagogia contemporanea
Scritti di W.H. KILPATRICK: The dutch schools oJ Netherland and colonia! New York, NewYork I912; The Montessori {ystem examined, New York I914; Froebel's Kindergarten principles criticai()' examinated, New York I9I6; The project method. The use Jor purposejul act in education process, New York I9I8 (trad. it. in Il metodo dei progetti, di L. Borghi, con testi di W.H. KILPATRICK, Firenze I95 2); Dangers and difficulties oj the prr!fect method, New York I92I; Method and curriculum, in« Journal of education method », aprile-maggio I9zz; Disciplining children, in « Journal of education method », giugno I922; How shall we select the subject-matter oj the elementary school curriculum, in « ] ournal of education method », settembre I924; Education Jor a changing civilization, New York I926; Source books in the philosoplij oJ education, New Y ork I 926; Thinking in èhildhood and youth, in « Religious education », febbraio I928; Our educational task, New York I93o; Social factors influencing educational method in 19 ;o, in « Journal of educational sociology », I I aprile I 9 3 I ; The relation oj philosoplry to scientiftc research, in « Educational research », 2 settembre I 9 3 I ; A defence of philosoplij oJ education, in « Harvard teachers record », I novembre I 9 3 I ; Education and the social crisis, New Y ork I 9 32; The educationalJrontier, a cura di W.H. KILPATRICK, New York I933; Educational ideals and the profit motive, in« Social frontier », novembre I934; A reconstrued theory of the educative process, in « Teachers college record », New Y ork I 9 3 5 ; Public education as a source jor public improvement, in « School and society », aprile I 9 3 5 ; Foundation oj method, New Y ork I 9 3 5 ; A social philosoplry oj progressive education, New York I93 5; Remaking the curriculum, New York I 9 36; The teacher' s piace in the social !ife oj today, in « School and society », luglio I 9 37; Living and learning, in« Educational trends »,ottobre I937; The teacher and society, New Y ork I 9 37; Democracy and respect Jor porsonality, in « Progressive education », febbraio I939; Group ed!fcationjor democra~y, New York I94o; The nature oj the human nature, in « Religious education », gennaio-marzo I 940; 5 elfhood and civilization, New Y ork I 94 I ; lntercultural attitudes in the making, New York I947; The learningprocess, New York I949; Modern education, New York I949; Philosoplry of education, New York I951 (trad. it., Firenze I969);Dew~y's influence on education, in The philosop~y of]. Dewry, a cura di P.A. ScHILPP, New York I95 I; The education of man. Aphorism, New York I95 1. Studi su Kilpatrick: L. BoRGHI, fohn Dewry e il pensiero pedagogico contemporaneo
55 7
www.scribd.com/Baruhk
Bibliografia
negli Stati Uniti, Firenze I95 I; ID., Il metodo dei progetti, cit.; A. VISALBERGHI, Il «metodo largo» nella scuola americana, in «Scuola e città», 7-8, I953; G. CoRALLO, La didattica moderna negli Stati Uniti, Brescia I95 8; L. AGNELLO, La pedagogia di W.H. Kilpatrick, Messina I 966; R. ANDREOLO, W. H. Kilpatrick e l'educazione progressiva, Roma I 967; B. MAIORCA, L'ottimismo di W. H. Kilpatrick, in « Scuola e città », novembredicembre I97I· Di S. HESSEN (traduzioni dal russo): La pedagogia di G. Gentile, Roma I94o; Le virtù platoniche e le virtù evangeliche, Roma I952; L. Tolstoj e M. Montessori, Roma I954; Autobiografia. La pedagogia russa del secolo xx, Roma I 9 56; Difesa della pedagogia, Roma I 9 58; Diritto e morale. I diritti dell'uomo nel liberalismo, nel socialismo, nella democrrtzia, nel comunismo, Roma I958; Scuola democratica e sistemi scolastici, Roma I959; Ideologia e autonomia dell'educazione e della pedagogia, Roma I 962; Democrazia moderna, Roma I 964; Pedagogia e mondo economico, Roma I 966; Fondamenti filosofici della pedagogia, Roma I 970, Struttura e contenuto della scuola moderna, Roma I970. Su S. Hessen: A. BARONI, H essen, Brescia I 9 59; R. NERI, Esame della pedagogia di S. H essen, Roma I 96 I ; B. CASALI, La scuola unica hesseniana come naturale fondamento della scuola professionale integrativa, Roma I 96 3. Sulla pedagogia sovietica: N. TARNOVSKIJ, P. GLAGOLEV, S. TROFIMOVA, La scuola IIO di Mosca, dalla «Ucitelskaja gazeta», ottobre I947; A.S. MAKARENKO, Consigli ai genitori. L'educazione del bambino nella famiglia sovietica, Roma I952; L. VoLPICELLI, Storia della scuola sovietica, Brescia I95 3 (n ed.); A. S. MAKARENKO, Bandiere sulle torri, Roma I95 5; ID., Poema pedagogico, Roma I95 5; S. HESSEN, Autobiografia. La pedagogia russa nel secolo xx, cit.; AuTORI V ARI, La scuola nell' U RSS. La legge Kruscev, Roma I959; AccADEMIA DELLE SCIENZE PEDAGOGICHE DI MoSCA, Storia della pedagogia prima e dopo Marx, Roma I96o; G. GADDI, La riforma della scuola nell'URSS, Roma I96o; A.S. MAKARENKO, Il mestiere di genitore, 2 voli., Roma I96I; A. KAMINSKI, La pedagogia sovietica e l'opera di A. Makarenko, Roma I 962; A. DAZIANO, La scuola nell'Unione Sovietica, Milano I963; A. MAssucco CosTA, Psicologia sovietica, Roma I963; M.A. MANACORDA, Il marxismo e l'educazione. Testi e documenti, Roma I964; ID., URSS I9IJI96J. La scuola della rivoluzione, numero speciale di «Riforma della scuola», agostosettembre I967; E. KING, L'educazione nei paesi comunisti, Firenze I968; VYGOTSKIJLuRIJA-LEONTIEV e altri, Psicologia e pedagogia, Roma I969; E. RoGGI, Lavoro, selezione, formazione neli'URSS, Roma I97L Di DECROLY: Una scuola per la vita attraverso la vita, Torino I963 (contiene: Le programme d'une école dans la vie, in « L'Education nationale », marzo I9o8; la rielaborazione delle Causeries sur la méthode Decroly, tenute alla scuola n. 9 di Anderlecht nel I 92 I; Liberté et éducation, relazione presentata al IV congresso della lega internazionale per l'educazione nuova, tenuto a Locarno dal 3 al 15 agosto I927). DECROLY e E. MoNCHAMP, Initiation à l'activité intellectuelle et motrice par les jeux éducatifs, NeuchatelParigi I913 (trad. it., Firenze I95 I); ID., Les classes homogènes et l'examen mental parla méthode des tests Binet-Simon, in « Revue de pédotechnie »; DECROLY e G. BooN, Vers l'école renouvelée, Parigi I92I (trad. it., Firenze I952); DECROLY e ScHEPERS, La sélection des mieux doués, documents de la ligue de l'enseignement, Bruxelles I923; ID., L'enseignement individuel dans des classes nombreuses, in « Pour l'ère nouvelle », I924; ID., L'intelligence et la classe sociale, in «La policlinique », I925; ID., Quelques notions générales sur l'évolution
www.scribd.com/Baruhk
Bibliografia affective chez l'enfant, Bruxelles I927 (trad. it., Firenze I95 5; contiene anche due altri scritti: Osservazioni, esperienze e inchieste sullo sviluppo delle attitudini infantili, dal volume Etudes de psychogénèse, Bruxelles I932, e Il trattamento e l'educazione dei fanciulli irregolari, Bruxelles I925); DECROLY e BuYSE, Introduction à la pédagogie quantitative, in Documents pédotechniques, Bruxelles I 929; La fonction de globalisation et l' enseignement, Bruxelles I 929 (trad. it., Firenze I95 3). Costituiscono un'integrazione essenziale del quadro della pedagogia di Decroly: G. GALLIEN, L. LrBors-FoNTEYNE, A. CLARET, Initiation à la méthode Decroly, Bruxelles I946 (trad. it., Programmi e metodi della scuola Decroly, Torino I959); R. DoTTRENS, E. MARGAIRAZ, L'apprentissage de la lecture parla méthode globale, Neuchatel I95 I (trad. it., Torino I959); Louis DALHEM, Contribution à la méthode Decroly, Bruxelles I96o (trad. it., Firenze I964). Su Decroly: P. CIPRIANI, Il metodo Decroly, Firenze I95 3; F. DE BARTOLOMEIS, Ovide Decroly, Firenze I95 3; G. SANTOMAURO, Ovide Decro(y, Brescia I964; C. ANGELONE, Il messaggio educativo di Ovidio Decroly, Napoli I97I. C.W. WASHBURNE, The philosophy of the Winnetka curriculum, Boomongton I926; Les écoles renouvelées de Winnetka, in « Pour l'ère nouvelle »,novembre I93 I; A4Justing the school to the chi/d, New York I932; A living philosophy of the education, New York I940 (trad. it.,Firenze I957); What is progressive education?,New York I952 (trad.it., Firenze I95 3); The world's good, New York I95 4 (trad. i t., Firenze I965); The education of teachers in the United States (trad. i t., Firenze I95 8); Winnetka, un esperimento pedagogico, Firenze I96o. Scritti pedagogici di impostazione psicoanalitica: M. KLEIN, Infantile anxiety situations rejlected e A work of art and the creative impulse, Londra I929; In., The psycho-analysis of children, Londra I932 (trad. it., Firenze I969); S. IsAACS, The children we teach, Londra I932 (trad. it., I ragazzi dai sette agli undici anni, Firenze I952); In., Intellectual growth in young children, Londra I933 (trad. it., Lo sviluppo intellettuale dei bambini al di sotto degli otto anni, Firenze I96I); In., Social developement in young children, Londra I934 (trad. it., Firenze I967); H. HARTMANN, Ich-Prychologie und Anpassungsproblem, Lipsia-Vienna I939 (n ed.); In., The prychoanalytic study of the chi/d, a cura di ANNA FREUD, H. HARTMANN, E. KRrs, E.A. SPITZ e altri, 8 voli., New York I945-I953; In., Ego prychology and the problem of adaptation, New York I95 8 (trad. it., Torino I966). A. FREUD, Le traitement prychoana{ytique des enfants, Parigi I95 I; In., The ego and the mechanisn; of defence, Londra I966; In., Normalità e patologia del bambino, Milano I969. ]. BAWBLY, Soins maternels et santé mentale, I952 (trad. it., Firenze I957); AuTORI VARI, a cura di MÉLANIE KLEIN, PAULA HEIMANN, RoGER MoNEY-KYRLE, New directions in prycho-analysis, Londra I95 5 (trad. it., Nuove vie della psicoanalisi. Il significato del conflitto infantile nello schema del comportamento dell'adulto, Milano I 966); B.H. BArSER (a cura di), Psycotherapy of the adolescent, New York 1957 (trad. it., Torino 1969); A. NEILL, Summerhill, a radica! approach to chi/d rearing, New York I96o (trad. it., Milano I97o); ]. DoLLARD, L.W. DooB, N.E. MrLLER, O.H. MowRER, R. SEARS, Frustration and aggression, New Haven-Londra I963 (trad. it., Firenze I967); E.H. ERIKSON, Childhood and society (n ed.), New York I<j63 (trad. it., Roma I966); G. LAPASSADE, L'entrée dans la vie. Essai sur l'inachèvement de l'homme, Parigi I963 (trad. it., Il mito dell'adulto, Bologna I97I); J.M. JossELYN, Psychosocial developement of children, New York, s.d. (trad. it., Firenze I965); s. FREUD, Psicoanalisi infantile (trad. it. di quattro saggi: del
559
www.scribd.com/Baruhk
Bibliografia
I9o7, I9o8, I909, I9I4), Torino I968; V. SMIRNOFF, La psicoanalisi infantile, Roma I968; R.A. SriTZ, Il primo anno di vita del bambino, Firenze I968; A. ARMANDO, Freud e l'educazione, Roma I969; AuTORI VARI, Psicoanalisi dell'adolescente, Roma I969; AA.VV., Al'gressività e sanità mentale, in « Atti del IV congresso regionale siciliano di igiene mentale», Milano I969; H. NAGERA, La nevrosi infantile, Roma I969; R.A. SriTZ, Il no e il sì, Roma I97o; S. LEBOVICI e M. SouLÉ, La connaissance de l'enfant par la p.rychoana(yse, Parigi 1970; G. ZAPPAROLI, La perversione logica. I rapporti tra sessualità e pensiero nella tradizione psicoanalitica, Milano I 970; M. MANNONI, M. SAFOUAN, F. TosQUELLES, J. OuRY, A. VASQUEZ, F. OuRY, G. MICHAUD, Psicoanalisi e pedagogia, Bologna I97I. Pedagogia e antropologia culturale: D. Kroo, Savage childhood: a stuqy of Kajir children, Londra I9o6; G.B. GRINNELL, The Chryenne Indians, New Haven I9Z3; B. MALINOWSKI, Sex and repression in savage society, New York I9Z7 (trad. it., Torino I95o); M. MEAD, Coming of age in Samoa, Worchester I93 I (trad. it. L'adolescente in una società primitiva, Firenze I954); Io., Sex and temperament in three primitive societies, New York I935 (trad. it., Milano I967); C. LÉvi-STRAuss, La vie familiale et sociale des Indiens Nambrikwara, Parigi I948 (trad. it., Torino I97o); M. MEAD-M. WoLFENSTEIN (a cura di), Childhood in contemporary eu/tures, Chicago I95 5 (trad. it., Il mondo del bambino, Milano 1963); S. MoRA VIA, Il ragazzq selvaggio dell'Avryron, Bari I97z. Educazione sociale (si indicano qui alcune opere specificamente dedicate al problema, fermo restando che il problema stesso è indissolubile da quello della formazione morale e si trova, quindi, ampiamente trattato nelle opere già indicate: W. LusTENBERGER, Le travail sco/aire par groupes, Neuchatel I95 3 (trad. it., Firenze 1965); ]. KLEIN, The stuqy ofgroups, Londra I956 (trad. it., Sociologia dei gruppi, Torino I968); L BoRGHI, Educazione e sviluppo sociale, Firenze I96z; K. MANNHEIM, a cura di W.A.C. STEWART, An introduction to the sociologJ of education, Londra-New York I96z (trad. i t., Brescia I967); W. W. LAMBERT-W.E. LAMBERT, Social p.rychologJ, New York 1964 (trad. it., Milano I967); P. BERTOLINI, Per una pqdagogia del ragazzo dijJicile, Bologna 1965; P. BERTOLINI e G. CAVALLINI, La scuola elementare e il disadattamento sociale minori/e, Varese I965; P. W. MuSGRAVE, The sociolO!!J of education, Londra I965 (trad. it., Roma 1969); J. DRESDEN GRAMBS, Schools, scholars and society, New York I 965 (trad. i t., La scuola nella società, Milano I97o); A. CARBONARO, Struttura sociale e socializzazione, Firenze I968. Sul! 'individualizzazione in generale si vedano: a) dal punto di vista della storia dei principali esperimenti: R. DoTTRENS, Le progrès à l' école: sélection des élèves ou changement des méthodes?, Neuchatel (trad. i t., La scuola moderna, Roma I964); b) dal punto di vista problematico: E. CLAPARÈDE, P.rychologie de l'enfant et pédagogie expérimentale, z voli., Ginevra I909 (trad. it., Firenze I9o9); Io., La conception fonctionnelle de l'éducation, in « Bulletin de la société libre pour l'étude psychologique de l'enfant », novembre I9I I; Io., L'école sur mesure, Ginevra I9zo (trad. it., Firenze I95Z); R. BuYSE, L'individualisation du traitement pédagogique, in « Revue beige de pédagogie », I925; H. PARKHURST, Education on the Da/ton pian, Londra I9Z7 (trad. it., Firenze I955); E. CLAPARÈDE, L' éducation fonctionnelle, Neuchatel I 9 30; R. DoTTRENS, L' enseignement individualisé, Neuchatel-Parigi I936 (trad. it., Roma I965); C.W. WASHBURNE, Winnetka, un esperimento pedagogico, cit; AuTORI V ARI, Individualizing instruction, Washington I964 (trad. it., Firenze I969).
www.scribd.com/Baruhk
CAPITOLO TERZO La filosofia italiana contemporanea
I-II. In questa bibliografia non riportiamo le opere degli autori, avendo già segnalato gli scritti più significativi nei singoli paragrafi. Inoltre fra i molti testi sui singoli autori sono stati scelti solo i più importanti o aggiornati, a cui si rinvia per le ulteriori indicazioni bibliografiche. A. MAROS DELL'ORo, Il pensiero scientifico in Italia ( I9JO-I96o), Cremona I963. Rassegne e bibliografie: P. FILIASI-CARCANO, Rassegna di filosofia della scienza, in «Rassegna di filosofia», I, I95 2; V. SoMENZI e P. FILIASI-CARCANO, Scritti italiani di filosofia della scienza, in «Rivista critica di storia della filosofia», 6, I95 3; P. SELVAGGI, Cinquant'anni di filosofia della scienza in Italia, in « Atti » del!' Accademia delle scienze di Torino, 88, I954; V. SoMENZI, Scritti italiani di filosofia della scienza, in« Rivista critica di storia della filosofia», 6, I954; In., l fondamenti filosofi'ci della meccanica quantistica, in «Rivista critica di storia della filosofia», I, I95 5; A. CARUGO, Sui rapporti tra progresso tecnico e pensiero scientifico, in « Studi storici », 4, I 960; F. BARONE, Alcuni sviluppi nella filosofia della scienza, in «Cultura e scuola», 7, I963; S. CARAMELLA, La filosofia della scienza in Italia nel decennio I9J6-I96J, in «Cultura e scuola», 17, I966; F. BARONE, Studi italiani sulla filosofia negli Stati Uniti dal I94J ad Olf_gi, in « Cultura e scuola», 28, I968. Su G. Peano: AuTORI VARI, In memoria di G. Peano, Cuneo I95 5 (con contributi di B. LEVI, B. SEGRE, F. BARONE, L. GEYMONAT, e altri, raccolti da U. Terracini). Su F. Enriques: AuTORI V ARI, Commemorazione di F. Enriques, in «Atti» del!' Accademia delle scienze di Torino, vol. I05, I97I, pp. 767-803; V. CAPPELLETTI, F. Enriques (187I-I946) nel centenario, in « Veltro », I97I, pp. 573-582; L. LoMBARDO-RADICE, Battaglie, sconfitta e vittoria di F. Enriques, in« Scientia », I97I, pp. I83-I88; L. GEYMONAT, F. Enriques e la storia della scienza, in «Atti» del Convegno internazionale su F. Enriques, organizzato dall'Accademia dei Lincei, Roma I972, di AuTORI VARI; M. CASTELLANA, Enriques e Bachelard: due epistemologie razionalistiche, in « Protagora >>, 85-86, I973, pp. 49-65. Su A. Pastore: A. ALIOTTA, La teoria dei modelli meccanici, in« La cultura filosofica», 6, I 907; Autopresentazione in AuTORI V ARI, Filosofi italiani contemporanei, a cura di M. F. SciACCA (n ed.), Milano I946; G. BoNTADINI, Caratteri della filosofia contemporanea, cit. Su A. Aliotta: Autopresentazione in Filosofi italiani contemporanei, d t.; AuTORI VARI, Lo sperimentalismo di A. Aliotta, Napoli I95 I; N. ABBAGNANO, A. Aliotta ( I88II966), in «Rivista di filosofia», 4, I964; P. PALLA VICINI, Il pensiero di A. Aliotta, Napoli I968; c. CARBONARA, A. Aliotta e la reazione idealistica contro la scienza, in ((Logas », I, I 970. m. Sulla situazione politica e la cultura degli anni Trenta, segnaliamo questi scritti: R. DE GRADA, Il movimento di corrente, Milano I95 3; N. BoBBIO, Cultura e costume fra il 'JJ e il '40, in «Terzo programma», 2, I962, pp. 280-292; M. VALSECCHI, Gli artisti di corrente, Milano I963; G. LuTI, Letteratura del ventennio fascista, Firenze I972; U. SILVA, Ideologia e arte del fascismo, Milano I973; AuTORI VARI, Fascismo e società italiana, a cura di G. QuAZZA, Torino I973; A. FoLIN (a cura di), So/aria. Letteratura. Campo di Marte,
www.scribd.com/Baruhk
Bibliografia
Treviso I973; G. MoRRA, La scuola gentiliana e l'eredità dell'attualismo, in « Teoresi », I-2, I973, ora in «La riscoperta del sacro», Bologna I974; E.R. TANNENBAUM, L'esperienza fascista. Cultura e società in Italia dal 1922 al 1945, Milano I974; E.R. PAPA, Fascismo e cultura, Padova I974; R. CARPANETTO FIRPO, Intellettuali e mass-media nell'Italia fascista, in« Rivista di storia contemporanea», 3, I974, pp. 356-376; L. TROISIO (a cura di), Strapaese e stracittà. Il selvaggio. L'Italiano. «900 >>,Treviso I975· Su U. Spirito: Autopresentazione in AuTORI V ARI: Filosofi italiani contemporanei, cit.; La mia prospettiva estetica, Brescia I 9 53; La filosofia contemporanea in Italia. Invito al dialogo, Asti I958. G. RICONDA, U. Spirito, Torino I956; A. NEGRI, Dal corporativismo comunista all'umanesimo scientifico: itinerario teorico di U. Spirito, Manduria I964 (esplicitamente apologetico); A. GALLITO, Itinerario filosofico e pedagogico di U. Spirito, in «Prospettive pedagogiche», I967; S. BoRRACCINI, Identità di scienza e filosofia in U. Spirito, Roma I967; M. LIZZI, Marxismo e metafisica. Riflessioni sul pensiero di U. Spirito, Catania I968; L. ZAMMER, Il problema di Dio in U. Spirito, Roma I97o; U. SPIRITO-A. DEL NocE, Tramonto o eclissi dei valori tradizionali?, Milano I97I; S. LANARO, Appunti sul fascismo «di sinistra». La dottrina corporativa di U. Spirito, in « Belfagor », I97I, pp. 577-599 (esame storico-critico della posizione dell'a.). Su G. Calogero: Autopresentazione in AuTORI VARI, Filosofi italiani contemporanei, cit.; R. RAGGIUNTI, Tre brevi studi (Spirito e Calogero), Firenze I946; A. VISALBERGHI, La filosofia della presenza di G. Calogero, in « Rivista di filosofia», 3, I948; A. V ASA, Teoreticità e pratica del valore ontologico nel pensiero di G. Calogero, in « Rivista critica di storia della filosofia», I949, pp. 24I-27I; S. ZEPPI, Il problema del dialogo, Firenze I96o; R. RAGGIUNTI, Logica e linguistica nel pensiero di G. Calogero, Firenze I963; R.M. HARE, Freedom and reason, Oxford I964. Su F. Lombardi: Autopresentazione in AuTORI V ARI, Filosofi italiani contemporanei, cit.; A. GuERRA, Autonomia della filosofia e concetto di libertà nel pensiero recente di F. Lombardi, in «Filosofia», I96o, pp. 328-343; G. CALABRÒ, Storia e storicismo nel pensiero di F. Lombardi, in «Filosofia», I96o, pp. 487-494; A. Guzzo, F. Lombardi e la pedagogia, Torino I96I; P. SALVUCCI, Satgi, Urbino I963, pp. 2I9-225; M. Rossi, La filosofia e l'uomo in due scritti di K. Lowith e F. Lombardi, in « Giornale critico della filosofia italiana », I963, pp. 522-543· Su V. Arangio-Ruiz: V.E. ALFIERI, V. Arangio-Ruiz ovvero la citara di Amfione, in «Aut Aut», I952, pp. 52I-525 (con bibliografia); I. MANCINI, Il platonismo di V. Arangto-Ruiz, in «Giornale di metafisica», I95 3, pp. 312-323; D. FAuCCI-G. CHIAVACCIV.E. ALFIERI, V. Arangio-Ruiz, Torino I96o. Sui pedagogisti attualisti: T. ToMASI, Idealismo e fascismo nella scuola italiana, Firenze I969 (con ampie note bibliografiche). IV. F. Flora e M. Fu bini: Autopresentazione in La mia prospettiva estetica, cit.; V. VITIELLO, C. Antoni interprete di Croce, in« Atti» dell'Accademia di scienze morali e politiche di Napoli, vol. LXXIX, I968, pp. 8o-I34; G. CoTRONEO, A. Attisani interprete di Croce, in «Rivista di studi crociani », I969, pp. 274-287. Su G. De Ruggiero: L. Russo, Profilo di G. De Ruggiero, in «L'arduo», 4, I922; G. SAsso, Considerazioni sulla filosofia di De Rutgiero, in «De homine », 2I, I967, pp. 23-70; E. GARIN, G. De Ruggiero, in Intellettuali italiani del xx secolo, Roma I974, pp. I05-I 36.
www.scribd.com/Baruhk
Bibliografia
Su B. Varisco: E. DE NEGRI, La metafisica di B. Varisco, Firenze 192.9; M.F. SciACCA, Il pensiero filosofico di B. Varisco, in« Logos », I937, pp. 2.3 5-2.6I; G. ALLINEY, Varisco, Milano I943; G. CALOGERO, Lafilosofiadi B. Varisco, Messina 195o; C. DoLLO, L'assoluto come so/[getto, in Momenti e problemi dello spiritualismo, Padova I967. Su F. De Sarlo: AuTORI VARI, in« Logos », 3, I933; L. LIMENTANI, F. De Sarlo, in «Archivio di storia della filosofia italiana», I, I938; E. GARIN, Lo spiritualismo di F. De Sarlo, ibid., 3, I938, pp. 2.98-p6; G. PoNZANO, L'opera filosofica di F. De Sarlo, Napoli I94o. Su C. Ranzoli: G. CosTA, Il pensiero di C. Ranzoli, Asiago I938; D. GENTILUOMO, L'ontognoseologia di C. Ranzo/i, Padova I95 r. Su G. Tarozzi: E. GuASTALLA, G. Tarozzi, Torino I95 z.; Autopresentazione in Prospettive filosofiche, Bologna I964; D. FIORENSOLI, Il pensiero filosofico di G. Tarozzi, Padova I 964. Su E. Troilo: V. CENTO, I viandanti e la meta, Torino I92.7; D. MoRANDO, Il realismo assoluto di E. Troilo, in «Rivista rosminiana », I937, pp. 2.70-2.83; Autopresentazione in La mia prospettiva filosofica, cit.; M. GENTILE, E. Troilo, in « Celebrazioni lincee », n. 33, I97o, Iz. pp. Su C. Guastella: E. TROILO, Una filosofia estremista: il fenomenismo, in «Nuova antologia », I 5 ottobre I 92.2.; F. ALBEGGIANI, Il sistema filosofico di C. Guaste/la, Firenze I 92.7; F. BoRINO, Il pensiero di C. Guaste/la, in« Filosofia e vita», I963, pp. 40-56 e 64-78. Su G. Rensi: E. BuoNAIUTI, Rensi, lo scettico credente, Roma I945; P. NoNIS, La scepsi etica di G. Rensi, Roma I 9 57 (con ampia bio-bibliografia); AuTORI V ARI, in Atti della . « Giornata rensiana », a cura di M. F. SciACCA, Milano I967; G. DE LIGUORI, Lo scetticismo giuridico di G. Rensi, in « Rivista in t. di filosofia del diritto », I 967, pp. I 8 I -2.2.4. Su A. Levi: G. ALLINEY, La filosofia di A. Levi, in « Archivio di storia della filosofia italiana», I934, pp. 307-333; A. RAvÀ, A. Levi, in« Rivista di filosofia», 1948, pp. 386395 (con bibliografia completa degli scritti); P. NESSI, Il solipsismo di A. Levi, Milano I 9 57; AuTORI V ARI, in « Sophia », 4, I 96 r. Su P. Carabellese: N. VERRUA, Il pensiero filosofico di P. Carabellese, Bobbio 1937; T. LoMBARDI, La posizione di P. Carabellese nella filosofia contemporanea, Milano 1943; P. DRAGO, La nJetajùica di P. Carabellese, in AuTORI VARI, Filosofi contemporanei, Milano I943, pp. I-59; R. AssuNTO, Ontologia efondazione dell'uomo in P. Carabellese, in« Giornale critico della filosofia italiana», I949, pp. I8-38; O.M. NoBILE VENTURA, Filosofia e religione in un metafisico laico: P. Carabellese, Milano I95 I; I. TEBALDESCHI, Il problema della natura nelpensiero di P. Carabellese, Roma I95 5; R. Tozzi, P. Carabellese, Torino 195 5 (con bio-bibliografia completa); AuTORI VARI, Giornate di studio carabellesiane, Genova I965. Su A. Bara tono: Autopresentazione in AuTORI V ARI, Filosofi italiani contemporanei, cit.; G. DELLA VoLPE, Crisi dell'estetica romantica; D. FoRMAGGIO, Studi di estetica, I96z., pp. 2.82.-2.91. Su G.E. Barié: M. DAL PRA, C.E. Barié, in «Acme», I956; C. LuGARINI, C.E. Barié, in « Giornale critico della filosofia italiana », r 9 57, pp. I 33- I 42.; scritti di V. FAZIOALLMAYER, P. CHABOD, R. CANTARELLA, C. ANTONI, L. GEYMONAT e V. SAINATI, in «Pensiero», z., I957; Autopresentazione in La filosofia contemporanea in Italia. Im>ito al dialogo, cit. Su M.M. Rossi: F. BATTAGLIA, Filosofia de/lavoro, Bologna I95 I, pp. z.oo-z.Io.
www.scribd.com/Baruhk
Bibliografia v. Su A. Banfi: Autopresentazionc in AuTORI V ARI, Filosofi italiani contemporanei,
cit.; La mia prospettiva filosofica, cit.; J_a filosofia contemporanea in Italia. Invito al dialogo, cit. Inoltre indichiamo le seguenti opere: E. PAci, Pensiero, esistenza e valore, Milano-Messina I94o; G.M. BERTIN, Banfi, Padova I943; B.L. PASQUETTO, Il pensiero di A. Banfi, in «Rivista di filosofia neoscolastica », I946; A. VASA, La problematica di razionalismo critico e pragmatismo sociale in A. Banfi e nella sua scuola, in « Rivista di storia della filosofia», I948; AuTORI VARI,in «Aut Aut», gennaio-marzo I958(dedicato aBanfi,conampia bibliografia; contributi di R. CANTONI, G.M. BERTIN, D. FoRMAGGIO, L. RoGNONI, E. PACI, L. ANCESCHI, P. Rossi, G.D. NERI, F. PAPI); G.M. BERTIN, L'idea di ragione e il pensiero etico-pedagogico di A. Banfi, Roma I96I; F. PAPI, Il pensiero di A. Banfi, Milano I96I (lo studio più completo con ampia bibliografia); C. CoRDIF., Appunti bibliografici su A. Banfi nel decennio della morte ( 1957-67), in « Paideia », 4, I 967; AuTORI V ARI, Antonio Banfi e il pensiero contemporaneo, « Atti » del Convegno di studi banfiani, Firenze I 969, 5 I 8 pp. (trentasei fra relazioni e interventi; sono aggiunte centoquindici voci alla bibliografia di F. Papi, a cura di C. CoRmÉ); A. TRIONE, Esteticità e filosofia dell'arte in A. Banfi, in « Logos », I, I969; A. CAMOZZI, Storicismo marxiano e problemi della cultura in A. Banfi, in «Studi urbinati », n. I, I972, pp. I78-I9o; C. CoRDIÉ, A. Banfi agli inizi della carriera universitaria ( 19 JO-JJ), in « Ricerche pedagogiche», 2 5, I 972, pp. 32-39; L. RosSI, Situazione dell'estetica in Banfi, in« Il V erri», 3, I973, pp. I20-I44· VI-VII. Sui caratteri generali del periodo, con particolare attenzione ai limiti della Costituente, segnalo i primi due studi: AuTORI V ARI, La ricerca filosofica nella coscienza delle nuove generazioni, Bologna I 9 57; L. GEYMONAT, Filosofia e filosofia della scienza, Milano I96o; L. GEYMONAT-P. FILIASI-CARCANO-A. Guzzo, Sapere scientifico e sapere filosofico, Firenze I 96 I ; AuTORI V ARI, La filosofia di fronte alle scienze, Bari I 962; E. FROLA, Scritti metodologici, introd. di L. GEYMONAT, Torino I964; A. PASQUINELLI, Nuovi principi di epistemologia, Milano I 964; G. SEMERARI, Il neo illuminismo filosofico italiano, in Esperienze del pensiero moderno, Urbino I969, pp. 273-293; D. NovAcco (a cura di), La Ia legislatura del parlamento della repubblica, Palermo I97I; E. GARIN, A. Banfi e Studi filosofici, in Intellettuali italiani del xx secolo, cit., pp. 24I-264; A. GAMBINO, Storia del dopoguerra dalla liberazione al potere DC, Bari I975; G. CAROCCI, Storia d'Italia dall'Unità ad ogf!,i, Milano I 97 5 ; AuTORI V ARI, 19 45-197 J. Italia. Fascismo-antifascismo-resistenza-rinnovamento, Milano I975; S.J. WooLF (a cura di), Italia 194]-JO. La Ricostruzione, Bari I975· Sul « Politecnico » ci sono due antologie: La polemica Vittorini- Togliatti e la linea culturale del PC! nel 1945-47, testi con interventi di AuTORI VARI, Milano I974 (con appunti bibliografici di guida), e Il« Politecnico», a cura di M. FoRTI e S. P AUT ASSO, Milano I 97 5 (con essenziale bibliografia). Inoltre, F. FoRTINI, l dieci inverni. Contributo ad un discorso socialista, Milano I 9 57; A. Gumucci, Dallo zdanovismo allo strutturalismo, Milano I 967; G. ScALI A, Critica, letteratura, ideolo,f!,Ìa, Padova I 968; M. ZANCAN, Il « Politecnico» settimanale (settembre 194;-aprile 1946), in« La rassegna della letteratura italiana», 2-3, I 972, pp. 4I 2-430; S. PICCONE-STELLA, Intellettuali e capitale nella società italiana del do-· poguerra, Bari I972; F. FoRTINI, «Il Politecnico», un discorso aperto, in «Libri nuovi», VIII, I, I97D (intervista). Su «Società» e« Il Contemporaneo»: A. LEONE DE CASTRIS (a cura di), Critica politica e ideologia letteraria. Dall'estetica del realismo alla scienza sociale 1945-1970, Bari I973; E. CoLORNI, Scritti, introd. di N. BoBBIO, Firenze I975 (con completa bibliografia di e sull'autore).
www.scribd.com/Baruhk
Bibliografia
V. FoA, La ricostruzione capitalistica nel secondo dopoguerra, in « Rivista di storia contemporanea», 4, 1973, pp. 433-45 5; M. LEGNANI, Restaurazione padrona/e e lotta politica in Italia 19 45-19 48: ipotesi di lavoro e dibattito storiografico, in «Rivista di storia contemporanea», r, 1974, pp. 1-27; C. PAVONE, Sulla continuità dello stato nell'Italia I94J-4J, in «Rivista di storia contemporanea», 2, 1974, pp. 172-205; S. MERLI, Fronte antifascista e politica di classe, Bari 1975· vm. Sull'esistenzialismo italiano: E. GARIN-E. PACI-P. PRINI, Bilancio della fenomenologia e dell'esistenzialismo, Padova r 960; A. SANTUCCI, Esistenzialismo e filosofia italiana, Bologna 1967. La bibliografia generale più completa è quella di V.A. BELLEZZA, Studi italiani sull'esistenzialismo, in AuTORI VARI, L'esistenzialismo, in «Archivio di filosofia», 1946, pp. 163-217. Inoltre A. NEGRI, Studi italiani sull'esistenzialismo dal 1945 ad opgi, in «Cultura e scuola», 30, 1969. Su N. Abbagnano, si veda il volume curato da B. MAroRCA, Bibliografia degli scritti di e su N. Abbagnano (I92J-I97J), Torino 1974, 222 pp. Segnaliamo questi scritti: M. DAL PRA, Il pragmatismo assiolotJco di N. Abbagnano, in « Rivista di storia della filosofia», 3-4, 1948; G. MORPURGO TAGLIABUE, La struttura del trascendentale, Milano 1951; A. PALA: Antimetajìsica e metafisica del positivismo logico, in «Annali» della facoltà di lettere e filosofia, magistero dell'Università di Cagliari, 195 5; G. GIANNINI, L'esistenzialismo positivo di N. Abbagnano, Brescia I 9 56; G. LADRILLE, À propos de l' existentialisme de N. Abbagnano, in « Salesianum », r 9 57; A.M. SrMONA, La notion de liberté dans l' existentialisme positif de N. Abbagnano, Friburgo r 962; V.N. PASQUA, Il nuovo illuminismo di Abbagnano, in ((Filosofia e vita», 4, 1968; s. TRAVAGLIA, La nozione di possibilità nel pensiero di N. Abbagnano, Padova 1969; A. DENTONE, La possibilità in N. Abbagnano, Milano 1971; A. QuARTA, Esistenza, scienza, società nella filosofia di N. Abbagnano, in « Protagora-Saggio », 5, 197 r. Su P. Prini: G. DALMosso, Fenomenologia ed ontologia in Prini, in« Rivista di filosofia neoscolastica », 1968. Su P. Chiodi: G. GAMBANO e F. REMOTTI (a cura di), Bibliografia st1 e di P. Chiodi, in « Rivista di filosofia », 4, 1970. Su A. Massolo: AuTORI VARI, Studi in onore di A. Masso/o, in «Studi urbinati », 2 voli., 1967. Su A. Vedaldi: S. PoLACCO, Profilo di A. Veda/di, in « Rivista di filosofia», 4, 1961, pp. 429-460 (con bibliografia). rx. Sullo spiritualismo e il neotomismo italiani segnaliamo i seguenti scritti di carattere generale: G. VAN RIET, L'épistémologie thomiste. Recherches sur le problème de la connaissance dans l'école thomiste contemporaine, Lovanio 1946; N. INCARDONA, Problematica interna dello spiritualismo cristiano, Milano 195 2; F.P. ALESSIO, Studi sul neospiritualismo, Milano 19 53; C. FABRO, Nuove interpretazioni del tomismo, in « Rassegna di filosofia », 3, 195 3; In., Tomismo e pensiero moderno, in« Rassegna di filosofia», 4, 195 3; F. BATTAGLIA, M orale e storia della prospettiva spiritualistica, Bologna 19 54; E. Dr CASTRO, Rasse/!,na di .rtudi sul concetto di persona (pubblicazioni italiane postbelliche), in « Rassegna di filosofia », 1954; M.T. ANTONELLr-V. MATHIEu-V. SAINATI, Il neospiritualismo italiano: Carlini, Guzzo, Sciacca, in «Giornale di metafisica», 195 5; G. BoNTADINI, Spiritualismo cristiano e metafisica classica, in « Giornale critico della filosofia italiana », 19 55 ; N. LICCIARDELLO, Teoria dello spiritualismo integrale, Padova 19 55; G. CAMPANINI, Il problema del valore nello
www.scribd.com/Baruhk
Bibliografia
spiritualismo italiano contemporaneo, in « Giornale di metafisica», I962.; GARAJA, Critica dello pseudo-razionalismo neotomistico, in « Voprosy filosofii », I 966; R. SPINAZZI, Prospettive del tomismo dopo il Concilio, in «Responsabilità del sapere», 82., I967; C. DoLLO, Momenti e problemi dello spiritualismo (Varisco, Carabellese, Carlini, La Senne), Padova I967; P.P. 0TTONELLO, Sullo spiritualismo cristiano italiano dal dopoguerra ad OJ!,gi ( 19461972}, in« Cultura e scuola», I972., pp. 82.-92.; A. NEGRI, «Filosofia attuale e filosofia cattolica in Italia. Appunti sulla cosiddetta destra attualista», in Studi in onore di G. Bontadini, Milano I975· Scritti su alcuni autori, nell'ordine: E. CERIOLI, Il problema della personalità umana e della personalità divina nello spiritualismo trascendentale di A. Carlini, Milano I937; L. PAREYSON, Preesistenzialismo di A. Carlini, in Studi sull'esistenzialismo, Firenze I943, pp. 2.93-432.; G. DELLA VoLPE, Lo spiritualismo italiano contemporaneo. 1. La filosofia di A. Carlini, Messina I949; G. GALLI, Sul pensiero di A. Carlini e altri studi, Torino I95o; G. MrcHELETTI, A. Carlini: la trascendmtalità esistenziale, in« Filosofia», I97o; S. ALBERIGI, Originalità storica e limiti speculativi nel pmsiero di A. Carlini rispetto alle istanze spiritualistiche, in« Rivista rosminiana », I97I, pp. 2.II-2.I7; G. RIGHI, A. Carlini nella critica italiana, in« Giornale di metafisica», I973, pp. 337-362.. G. MARCHELLO, F. Battaglia, Torino I953; P. PIOVANI, Sulla prospettiva filosofica di E.P. Lamanna, Torino I96z.; AuTORI VARI, L. Lazzarini, Torino I963. AuTORI VARI, Studi sul pensiero di M.F. Sciacca, Milano I959; P.P. 0TTONELLO (a cura di), Bibliografia di M.F. Sciacca, Milano I969; AuTORI V ARI, La filosofia dell'integralità: M. F. Sciacca, in «Atti» del IV Congresso regionale di filosofia, z. voli., Messina I973· AuTORI VARI, A. Guzzo, Torino I954; P. FruAsr-CARCANO, L'evoluzione della scienza e la concezione della natura nel pensiero di A. Guzzo, in « Giornale critico della filosofia italiana », I 9 58, pp. 5I o- 540; A. Dr LAsCIA, L'antropologia filosofica di A. Guzzo, in« Rivista rosminiana », I96o, pp. I2.4-I37 e I78I95. M. GENTILE, L. Stejànini, in « Studia patavina », I956, pp. 36I-3 74; AuTORI V ARI, Scritti in onore di L. Stefanini, Padova I96o; A. RrGOBELLO, Struttura e significato, Padova I971. D. FoRMAGGIO, I problemi dell'estetica in L. Parryson, in Studi di estetica, 1962., pp. I2.5-143; G. SANTINELLO, Estetica della forma, Padova 1962.; L. BARILLI, Per un'estetica mondana, Bologna 1964. M. GENTILE, L'itinerario filosofico di U. Padovani, in« Bollettino filosofico », 8, 1968; A.M. MoscHETTI, L'itinerario ascetico di U.A. Padovani, in « Atti e memorie» dell'Accademia patavina di scienze, lettere ed arti, vol. LXXXII, 1969-70, pp. 143-I66. R. V. CRISTALDI, Profilo della critica bontadiniana, in« Teoresi », I973, pp. 79-I2.5; AuTORI V ARI, Studi in onore di G. Bontadini, Milano I975, 2. voli. (con completa bibliografia di e sull'autore, pp. 543-599). AuTORI VARI, Scritti in onore di C. Giacon, Padova I972. (con bibliografia completa); E. CLERICI, Monsignor F. 0/giati: l'apologeta e il polemista, Milano I972.. G. GrACON, Il movimento di Gallarate. I dieci convegni dai194J aii9J4, Padova I955; A. BABOLIN, Il movimento di Gallarate. I dieci convegni dal I9JJ al I96J, Bologna I966. x. La bibliografia degli Scritti italiani su Husserl è segnalata da M. Cucchi, in « Aut Aut», 54, I959, PP· 43 I-4H· Su E. Paci: Autopresentazione in La mia prospettiva estetica, cit. e La filosofia contemporanea in Italia. Invito al dialogo, cit.; P. CARUSO, Fenomenologia e dialettica platonica in Paci, in« Il V erri», I96o, pp. 78-9I; E. GARULLI, La phénomenologie de Husserl vue parE. Paci, in« Revue de métaphisique et de morale», I96z.; G. SEMERARI, Da Schelling a Merleau-
www.scribd.com/Baruhk
Bibliografia Ponty, Bologna I962, pp. 234-246; P. SALvuccr, SaJzgi, Urbino I963, pp. r85-2I8; F. RrvERSO, La ftlosofta OJ!gi, Roma I97I. Su G.M. Bertin: G. FRANCIONr, Il problematicismo pedagogico del Bertin nell'educazione alla socialità, in« I problemi della pedagogia», I967, pp. 37I-38o. Su Anceschi: L. MARINO, in «Rivista di filosofia», I968, pp. 99-IOI. Su Formaggio: G. ScARAMUZZA, Il senso dell'arte, in AuTORI VARI, Logica e semantica ed altri satJ!.i, Padova I975, pp. 89-97. Su R. Cantoni: Autopresentazione in La ftlosofta contemporanea in Italia, cit. xr. F. Rossi-LANDI e V. SoMENZr, La ftlosofta della scienza in Italia, in La ftlosofta contemporanea in Italia, cit., pp. 407-432; A. PASQUINELLI, La ftlosofta analitica in Italia, ibid., pp. 209-23 5; N. BoBBIO, Empirismo e scienze sociali in Italia, in «Atti» del xxrv Congresso naz.le di filosofia, vol. r. Relazioni introduttive, Roma I973, pp. II-32 e Per un bilancio dell'empirismo, ibid., vol. n, tomo 1. Comunicazioni, Roma I974, pp. 3 I 5-324. Su G. Preti: La discussione su Praxis ed empirismo in« Passato e presente», annata I95 8; C. LuPORINI, Marxisn1o, neopositivismo e altre cose, in «Il contemporaneo», Io, I95 9, pp. 3-22; G. MoRRA, Ilproblema morale nel neopositivismo, Manduria I962; E. MrGLIORINI, Il pensiero axiologico di G. Preti da « Praxis ed empirismo» a «Retorica e logica», in « Atti» del xxrv Congresso naz.le di filosofia, cit., vol. n, tomo I, pp. I8-25; F. ALESSIO-M. DAL PRA-E. GARIN, Ricordo di G. Preti, in «Rivista critica di storia della filosofia», 4, I974, pp. 432-447· Su L. Geymonat: V. CAPPELLETTI, La critica del positivismo nell'opera di L. Geymonat, in «La nuova critica», 4, I95 5; ]. Wu CHANG-TEH, Dal neopositivismo allo storicismo scientifìco, l'evoluzione ftlosojìca di L. Geymonat, Roma I97o; F. NuzzAcr, Il neorazionalismo di L. G~ymonat, in« Il Protagora-Saggio », vr, I972. R. AMENDOLAGINE, Il pensiero di P. Filiasi-Carcano, Roma I961. xn-xm. N. MATTEUCCI, La cultura italiana e il marxisllJO dal 1945 al 19 J I, in «Rivista di filosofia», I, I953; N. LoDA, La divergenza odierna sul marxismo (I9JO-I9J2),in «Rassegna di filosofia», I954; F. FERGNANI, Discussioni italiane sul marxismo, in« Rivista di filosofia», I 962; A. NEGRI, Gli studi italiani su Marx dal 1945 ad O/!J!,Ì, in «Cultura e scuola», 22, I967; L. GRUPPI, Note sulla politica cultumle del partito del dopoguerra, in «Critica marxista. Quaderni», 5, I 972; AuTORI V ARr, Il marxisn1o italiano degli anni sessanta e la formazione teorico-politica delle nuove generazioni, Roma I972; F. CASSANO, Marxismo e ftlosofta in Italia ( I9JS-I97T), Bari I973; G. VACCA (a cura di), Politica e teoria nel marxismo italiano I9J9-I969, Bari I974 (n ed.). Su C. Luporini: D. CANTIMORI, Studi di storia, Torino I959, pp. 399-407; A. MAsSOLo, Logica hegeliana e .filosofia contemporanea, Firenze I962, pp. 143-I67; S. TrMrANARO, Classicismo e il!utninismo nell'Ottocento italiano, Pisa I965; P. SALVUCCI, SaJ!,!!,Ì ftlosoftci, Urbino I965; S. LANouccr, in« Belfagor », 2, I975, pp. 235-239. Su Della Volpe: Autopresentazione in La ftlosofta contemporanea in Italia, cit.; G. PRESTIPINO, L'arte e la dialettica in Lukdcs e G. Della Volpe, Messina 196I; M. Rossi, G. Della Volpe. Dalla gnoseologia critica alla logica storica, in « Critica marxista », 4-5, I968; N. MERKER, Per una valutazione di G. Della Volpe teorico del marxismo, in «Rivista critica di storia della filosofia», 1970, pp. 315-317; G. VAccA, Scienza, stato e critica di classe. G. Della Volpe e il marxismo, Bari I97o; G. PRESTIPINO, La scuola di Della Volpe: ftlosofta e concezione dello stato, in« Critica marxista », 4, 1971, pp. 49-69.
www.scribd.com/Baruhk
Bibliografia Su Macchioro: P. BARuccr, Considerazioni a proposito di una «Storia del pensiero economico», in «Rivista int. di scienze sociali», 2-3, 197I; F. BoTTA, in «Rinascita», 17 settembre 1971.
CAPITOLO QUARTO
Biologia e filosofia Per i problemi teorico-scientifici, metodologici e filosofici che interessano la biologia del '9oo molto importante è la Bibliographia Biotheoretica, pubblicata in molti volumi dal 1925 da Leiden (E.J. Brill editore). Panorami sui vari settori in B. DAwAs, A hundred year.rOJ blology, Londra 19 52; ANONIMI, A century of progress in natura/ sciences, Californ. A. Se., San Francisco, I95 5; A. PoRTMANN, Biologia e Antropologia, in «I Propilei », Grande storia universale, vol. IX, Milano I966. Scritti di carattere generale sui problemi filosofici e metodologici della biologia: E. v. HARTMANN, Das Problem des Lebens, Berlino I9o6; J. ScHULTZ, Die Philosophie des Organischen, in« Jahrbuch der Philosophie », I9I3; J. ScHAXEL, Grundziige der theorienbildung in der Biologie, Jena 19I9; E. RIGNANO, Che cos'è la vita, Bologna I926; J.H. WooDGER, Biologica/ principles, Londra I929; J. NEEDHAM, The sceptical biologist, Londra I929; E.S. RussELL, The interpretatiot1 of development and heredity, Oxford I93o; L. HoGBEN, The nature of living matter, Londra I93o; H. DRIESCH e H. WoLTERECK (a cura di), Das Lebensproblem, Lipsia I93 I; L. VON BERTALANFFY, Theoretische Biologie, Berlino 1932; M. PRENANT, Biologie et marxisme, Parigi I934; W. Mc DouGALL, The riddle of /ife, Londra I938; M. CANELLA, Orientamenti della biologia moderna, Bologna I939; R. S. LrLLIE, Generai biology and philosopf[y of organism, Chicago I945; TH. BALLAUFF, Das Problem des Lebendigen, Bonn I949; E. MAY, Elementi di filosofia della scienza, Milano I95 I; G. CANGUILHELM, La connaissance de la vie, Parigi I95Z; L. VON BERTALANFFY, Problems of /ife, Londra I95 2; E. CALLOT, Philosophie biologique, Parigi I957; E. CAsSIRER, Storia della filosofia, vol. IV, Torino I95 8; M. BECKNER, The biologica/ wtry of thought, New York I959; G. BLANDINO, Problemi e dottrine di biologia teorica, Torino I96o (con bibliografia); AuTORI VARI, La vie et l'évolution, in« Recherches internationales à la lumière du marxisme », I96I; C.H. WADDINGTON, The nature of /ife, Londra I96I; G.G. SIMPSON, This view of /ife, New York I963; P.B. MEDAWAR, L'immaginazione scientifica, Bari I968; E. NAGEL, La struttura della scienza, Milano I968; J.G. GoODFIELD, Theories and f[ypothesis in biology, in « Boston studies in the philosophy of science »,vol. v, Dordrecht I969; W.J. VAN DER STEEN, The relation of biology to pf[ysics and chemistry - An evaluation of some recent issues in the philosopf[y of science, in « Acta Biotheoretica », I 970 (con bibliografia); E. UNGERER, Fondamenti teorici delle scienze biologiche, Milano I972 (con bibliografia molto estesa). Sul meccanicismo biologico si veda: O. HERTWIG, Zeit-und Streitfragen der Biologie: Priiformation oder Epigenese?, Jena 1894; Io., Mechanik und Biologie, Jena I897; W. Roux, Die Entwicklungsmechanik, Lipsia I905; P. JENSEN, Organische Zweckmassigkeit, Jena I907; J. ScHULTZ, Die Maschinentheorie des Lebens, Gottingen 1909 (n ed., Lipsia I929); S. LEouc, Théorie pf[ysico chimique de la vie, Parigi I91o; O. LEHMANN, Die neue Welt der fliissigen Kristalle, Lipsia I 9 I I; W. Roux, Ueber kausale und konditionale Weltanschauung,
www.scribd.com/Baruhk
Bibliografia
Lipsia I9I3; L.J. HENDERSON, Mechanism from the standpoint of p~ysica! science, in « Philosophical review », I 9 I 8; F. LE DANTEC, La « mécanique » de la vie, Parigi I 924; H. PRZIBRAM, Die anorganische Grenzgebiete der Biologie, Berlino I926. Altri scritti di M. VERVORN: Scienza naturale, Milano I905; L'ipotesi del Biogeno, Milano I905. Altro scritto di J. LOEB: Fisiologia comparata del cervello e psicologia comparata, Palermo I907. Su quest'autore: D. FLEMING, Introduzione a J. Loeb, The mechanistic conception of !ife, Cambridge, Mass., I 964. Ampia bibliografia sul problema dell'origine della vita in A.I. 0PARIN, L'origine della vita sulla terra, Torino I956, e in J.D. BERNAL, The origin of !ife, Londra I967. Sulle critiche e discussioni relative al vitalismo: G. WoLF, Mechanismus und Vita!ismus, Lipsia I 902; PH. FRANK, Mechanismus und Vita!ismus, in « Ostwaldt Annalen », I9o8; O. ZuR STRASSEN, Zur Wider!egung des Vita!ismus, in « Archiv fiir Entwicklungsmechanik », I9o8; A. O. LoVEJOY, The meaning of Driesch and the meaning of vita!ism, in « Science », I9o9, I9I I, I9I2; W.E. RrTTER, The controversy between materia!ism and vita!ism, in « Science », I9I r; W.T. MARVIN, Mechanism versus vita!ism, in « Philosophical review », I9I8; M. HARTMANN, Biologie und Phi!osophie, Berlino I925; G. WoLF, Leben und Erkennen, Monaco I933; L.R. WHEELER, Vita!ism its history and va!idity, Londra I939· Si ricorda di H.S. ]ENNINGS, Doctrines held as vitalism, in « Yhe american naturalist », I913, e Mechanism and vitalism, in« Philosophical review », 19I8. Sull'antimeccanicismo e sugli indirizzi dell'organicismo, olismo ed emergentismo specialmente nei paesi anglosassoni: L. I. HENDERSON, The fitness of the environment, New York I913; W.E. RrTTER, The unity oforganism, Boston I9I9; W.M. WHEELER, Emergent evo!ution, Londra I927; W. Mc DouGALL, Modern materialism and emergent evolution, Londra I929 (trad. it., Verona I947); W.E. RrTTER, J.S. HALDANE, E.S. RussELL, J. NEEDHAM e altri, Historical and contemporary relationship of physical and biologica! sciences, in « Archeion », I932; W.E. AGAR, Whitehead's philosopf(y of organism, in « Quarterly review ofbiology », I936; Io., The concept ofpurpose in bio!ogy, ibid., I938; T. GREENWOOD, Le principe de l'évo!ution émergente, in « Sigma », I948; D.C. PHILIPS, Organicism in the late nineteenth and ear!y twenteenth centuries, in « J ournal of history of ideas », I 97 r. Si ricorda di J.S. HALDANE: Life and mechanism, in « Mind », 1884; Mechanism, !ife and personality, Londra I913; The new P~J'Siology, Londra I9I9; The philosophical basis of biology, Londra I93 r. Su quest'autore, W. Mc DouGALL, The philosophy of].S. Ha/dane, in « Philosophy », I936. Ricordiamo fra i moltissimi scritti di A. MEYER (Abich), ldeen und Ideale der biologischen Erkenntniss, Lipsia I934, e L'idée du ho!isme, in « Scientia », I93 5. Inoltre di J.C. SMuTs-J.S. HALDANE, The nature of /ife, in« Reports of the British Association », Cape Town I929. Degli scritti di C. L. MoRGAN riportiamo: Emergent evo!ution, Londra I923; Naturalisme et vie, in « Scientia », I925; The emergence of novel(y, Londra I933· Fra quelli di E.S. RussELL: Vita!ism, in «Scientia», I9II; The question ojvitalism, ibid., I924; Finalità nelle attività organiche, Firenze I950. Sull'indeterminismo fisico e la biologia: E. MAY, Zur Frage der Uberwindung des Vitalismus, in « Zeitschrift fiir die gesamte Naturwissenschaft », I 9 38; F. MoNDELLA, Sui rapporti fra fisica quantistica e principi generali della biologia, in « Il pensiero », I 9 57. Degli scritti di R. S. LrLLIE riferiamo: The nature of vitalistic dilemma, in « The journal of philosophy », I926, e Pf(ysical indeterminism and vitalaction, in « Science », 1927. Fra gli scritti di P. JoRDAN, Die Pf(ysik und das Geheùnniss des Lebens, Braunschweig 1941. Sulle filosofie biologiche in Germania: K. GoLDSTEIN, Der Aufbau des Organismus,
www.scribd.com/Baruhk
Bibliografia
Haag I934; H. ANDRÉ, A. MOLLER e E. DACQUÉ, Deutsche Naturanschauung als Deutung des Lebendigen, Monaco I 9 3 5 ; inoltre H. ANDRÉ, Urbild und Ursache in der Biologie, Monaco I93 I; O. FEYERABEND, Das organologische Weltbild, Berlino I933; H. CoNRAD MARTIUS, Die « Seele >> der Pjlanzen, Breslau I934; R. WOLTERECK, Ontologie des Lebendigen, Stoccarda I 940. Degli scritti di R. H. FRANCÉ ricordiamo: Bios Die Gesetze der Welt, Monaco I92L Di quelli di K. GoEBEL, Organographie der Pjlanzen, Jena I928; di A. NAEF, Idealistische Morphologie und Philogenetik, Jena I9I9; di W. TROLL, Gesta/t und Urbild, Lipsia I941. Studi sugli autori trattati: M. ScHRÒTER, Edgar Dacqué, Leben und Werk, Monaco I946; F. MoNDELLA, Introduzione a J. VON UEXKULL, Ambiente e comportamento, Milano I 967. Sul problema della totalità e dell'organizzazione biologica: E. UNGERER, Die Teleologie Kants und ihre Bedeutung fiir die Logik der Biologie, Berlino I922; W. KòHLER, Zum Problem der Regulation, in« Archiv fiir Entwicklungsmechanik », I927; J. ScHAXEL, Das biologische Individuum, in« Erkenntniss », I93o; In., Das Weltbild der Gegenwart, Jena I932; In., Kritische Uebersicht der Theorien der ontogenetische Determination, Leiden I942. Di L. VON BERTALANFFY: The modern theories of development, Oxford I933; Il sistema uomo, Milano I97I; Teoria generale dei sistemi, Milano I97I (con ampia bibliografia). Su quest'autore A. BENDMANN, L. v. Bertalanffy Auffassung des Lebens, Jena I967. Su J. Woodger si veda J.R. GREGGe F.T.C. HARRIS (a cura di), Form and strategy in science, Dordrecht I964. Su organicismo e materialismo dialettico: J. NEEDHAM, Thoughts on the problem of biologica! organisation, in« Scientia », I932; In., Time the refreshing river, Londra I943; In., A biologist's view of Whitehead's philosop~y, in « The philosophy of A.N. Whitehead », a cura di P.A. ScHLIPP, New York I95 1. Di J.B.S. HALDANE si veda: Dialectical account of evolution, in « Science & Society », I937; Biology and marxism, « Modern Quarterly », I948; Science and !ife, Londra I968. Su quest'autore: K.R. DRONAMRAJU (a cura di), Ha/dane and modern biology, Baltimora I 968; R. W. CLARK, JBS: The !ife and work of Ha/dane, New York I969 (con una bibliografia quasi completa degli scritti). Sulla questione Lysenko si veda: J.S. HuxLEY, La genetica sovietica e la scienza, Milano I952; D. JoRAVSKY, The Lysenko affair, Cambridge, Mass., I97o; Z.A. MEDVEDEV, L'ascesa e la caduta di Lysenko, Milano I97L Sulla genetica: L.C. DuNN, A short history of genetics, New York I965; A.H. STURTEVANT, A history of genetics, New York I966; C. STERN, The continuiry of genetics, in « Daedalus », I97o; F. ]ACOB, La logica del vivente, Torino I97I; G. MoNTALENTr, Introduzione alla genetica, Torino I971 (con ampia e accurata bibliografia anche storica). Sul problema dell'evoluzione: Y. DELAGE e M. GoLDSMITH, Les théories de l'évolution, Parigi I927; G. BRUNELLI, Le teorie sull'origine e l'evoluzione della vita, Bologna I93 3; A. F. SHULL, Evolution, Londra I936; P. OsTOYA, Les théories de l'évolution, Parigi I95 I; G.G. SrMPSON, Il significato dell'evoluzione, Milano I 9 54; L. CuÉNOT, Teilhard de Chardin, !es grandes époques de son évolution, Parigi I95 8; TH. DoBZHANSKY, L'evo!ttzione della specie umana, Torino I965; J.S. HuxLEY, Evoluzione, la sintesi moderna, Roma I966; E. MAYR, L'evoluzione delle specie animali, Torino I970. In queste ultime tre opere bibliografia molto ampia.
www.scribd.com/Baruhk
CAPITOLO QUINTO
La logica nel ventesimo secolo ( 1) Dato il carattere di quest'opera, ci sembra possibile dare una bibliografia relativamente « succinta», tenuto anche conto del fatto che una rassegna esauriente o anche soltanto ragionevolmente estesa, secondo i normali canoni bibliografici, ci porterebbe sostanzialmente alla compilazione di un volumetto. Adotteremo quindi i criteri seguenti: per la produzione fino al r 9 3 5 rimanderemo a un repertorio completo pubblicato da Church nel 1936-38; per la ricerca successiva segnaleremo alcune bibliografie esistenti, specificamente dedicate a un argomento o generali (almeno per un certo periodo). Premetteremo l'indicazione di alcune storie della logica e di alcuni manuali; successivamente, per il periodo coperto dalla bibliografia di Church, elencheremo alcune antologie apparse di recente, che rendono più agevole il reperimento del materiale. Per il periodo post-godeliano, invece, ci limiteremo a indicare le maggiori riviste esclusivamente dedicate alla logica, o che comunque siano rilevanti per questa disciplina, e alcune collane librarie che abbiano gli stessi requisiti. Quindi citeremo esplicitamente alcuni volumi di interesse generale e infine, suddividendole in base agli argomenti principali (teoria della ricorsività, semantica e teoria dei modelli, ecc.), daremo succinte informazioni sui manuali e le opere più rilevanti relativi a quell'argomento. Si noti che in generale tutte le opere citate contengono ampie bibliografie. Nella presente edizione le modifiche riguardano solo le eventuali traduzioni italiane di testi già citati nella prima e l'aggiunta di due volumi. Cominciamo allora con l'indicare alcune storie della logica. F. BARONE, Logica fortnale e trascendentale: I. Da Leibniz a Kant, II. L'algebra della logica, Torino 1957; E. CARRUCCIO, Matematica e logica nella storia e nel pensiero contemporaneo, Torino 195 8; D.D. RuNES, Dizionario di filosofia, Milano r 96 3; TADEUSZ KoTARBINSKI, Leçons sur l' histoire de la logique, Parigi 1964; N.I. STYAZHKIN, History of mathematical logic from Leibniz to Peano, Cambridge, Mass., 1964; A. DrMITRIU, /storia logicii, Bucarest 1969; R. FEYS e F.B. FrTCH, Dictionary of D'mbols of mathematicallogic, Amsterdam 1969; I.M. BocHENSKI, A history of formallogic (rr ed.), New York 197o; W. e M. KNEALE, Storia della logica, Torino 1972. Veniamo ora ai manuali: A. CHURCH, Introduction to mathematicallogic, vol. I, Princeton 1956; A. PASQUINELLI, Introduzione alla logica simbolica, Torino 1957; R. CARNAP, Introduction to symbolic logic and its applications, New York 1958; E. CASARI, Lineamenti di logica matematica, Milano 1959; W.V.O. QurNE, Manuale di logica, Milano 196o; E.W. BETH, I fondamenti logici della matematica, Milano 1963; E. AGAZZI, La logica simbolica, Brescia 1964; C. MANGIONE, Elementi di logica matematica, Torino 1965; J.R. SHOENFIELD, Mathematicallogic, Londra 1967 (ne è prevista entro il 1976 una traduzione italiana presso l'editore Boringhieri, Torino); J.W. RoBBIN, Mathematical logic. A first course, New York 1969; A. TARSKI, Introduzione alla logica, Milano 1969; R. RoGERS, Mathematicallogic and formalized theories, Amsterdam 1971; E. MENDELSON, Introduzione alla logica matematica, Torino 1972; M. L. DALLA CHIARA ScABIA, Logica, Milano 1974. La bibliografia di CHURCH cui si è accennato è l'ormai classica A bibliography of symbolic logic, in « The journal of symbolic logic »(questa rivista verrà d'ora in poi ab-
www.scribd.com/Baruhk
Bibliografia
breviata in JSL), vol. I, n. 4, dicembre I936, con le successive Additions and corrections to « A bibliography of symbolic logic » pubblicate nella stessa rivista, vol. m, n. 4, dicembre I 9 38 (si noti che Church intende presentare « una bibliografia completa della logica simbolica per il periodo I 666- I 9 3 5 incluso »). Come detto, per il periodo coperto dalla rassegna di Church ci 1imiteremo a segnalare alcune antologie comparse di recente, relative a più autori o a· un singolo autore (e che in generale contengono, a loro volta, repertori bibliografici più maneggevoli); Cominciamo con alcune opere di riferimento generale: J EAN v AN HEIJENOOR T, From Frege to Gode!. A source book in mathematicallogic, I8J9-I9.JI, Cambridge, Mass., I967, che contiene le traduzioni inglesi dei principali scritti del periodo indicato tra cui scritti di FREGE, RussELL, RICHARD, ZERMELO, SKOLEM, HILBERT, BRouwER, HERBRAND, Go nEL ecc.; questo volume contiene inoltre una bibliografia pressoché completa degli autori considerati. In generale per la scuola polacca si può vedere S. McCALL (a cura di), Polish logic I920-I9)9, Oxford I967. Molto utile l'antologia di P. BENACERRAF e H. PuTNAM (a cura di), Philosoply of mathematics, New Jersey I964; traduzione di buona parte degli articoli ivi contenuti si trova in C. CELLUCCI (a cura di), La filosofia della matematica, Bari I 967, cui il curatore premette una interessante e aggiornata introduzione. Per RussELL citiamo Introduzione alla filosofia matematica, Milano I 962; l principi della matematica (n ed.), Milano I963; R.C. MARSH (a cura di), Logic and knowledge, Londra I956, di cui una traduzione italiana molto parziale è Logica e conoscenza, Milano I96I; alcu-'!i articoli non inseriti nella precedente traduzione il lettore potrà trovare in A. PASQUINELLI (a cura di), Il neoempirismo, Torino I969 e M.A. BONFANTINI (a cura di), B. RusSELL, Linguagg,io e realtà, Bari I 970; segnaliamo ancora La « teoria delle descrizioni» di Russell, in G.E. MooRE, Saggi filosofici, Milano I970. Per quanto riguarda PEANO ci limitiamo aricordare i tre volumi delle Opere scelte, a cura di U. CASSINA, Roma I957-59 e il Formulario matematico, riproduzione in facsimile dell'edizione originale, Roma I 960; su Peano segnaliamo A. TERRACINI (a cura di), In memoria di Giuseppe Peano, Cuneo I95 5, contenente studi di B. LEVI, G. Ascou, B. SEGRE, F. BARONE, L. GEYMONAT, T. BoGGIO, U. CASSINA, E. CARRUCCIO. Particolarmente significativo L. GEYMONAT, Peano e le sorti della logica in Italia, in « Bollettino dell 'uMI », serie m, anno XIV, n. I, marzo I 9 59, come pure dello stesso autore, per uno sguardo generale sul primo periodo da noi considerato, Storia e filosofia dell'unalisi infinitesimale, Torino I947· Per quanto riguarda PorNCARÉ segnaliamo le traduzioni italiane: Poincaré, Firenze 1949, che contiene una selezione di scritti curata da FRANCESCO SEVERI; La scienza e l'ipotesi, Firenze 1950; Il valore della scienza, Firenze I952 (n ed.). Per l'immediata prosecuzione del logicismo: L. CHWISTEK, The limits of science, Londra I948; R. CARNAP, Sintassi logica de/linguaggio, Milano 1961; F.P. RAMSEY, l fondamenti della matematica e altri scritti di logica, Milano I964. Su HILBERT e il formalismo: D. HILBERT, Gesammelte Abhandlungen, 3 voli., Berlino I935; ]. VON NEUMANN, Collected papers, vol. I, New York I96I; D. HILBERT e P. BERNAYS, Grundlagen der Mathematik, 2 voli. (n ed.), Berlino I968-7o; A.C. LEISENRING, Mathematicallogic and Hilbert' s e-simbol, Londra I 969; H. HERMES, Term logic with choice operator, Berlino I970; D. HILBERT, l fondamenti della geometria, Milano I 970; B. DREBEN, P. ANDREWS e S. ANDERAA, False lemmas in Herbrand, in « Bulletin of the american mathematical society » (BAMS), 69, I963, pp. 699-706; H. WEYL, Filosofia della matematica e delle scienze naturali, Torino I967; ]. VAN HEIJENOORT (a cura di), jacques Herbrand,
www.scribd.com/Baruhk
Bibliografia
Écrits logiques, Parigi I 968; M.E. SZABO (a cura di), The collected papers of Gerhard Gentzen, Amsterdam I970. Estremamente interessante J.E. FENSTAD (a cura di), Selected works in logic by Thoralf Skolem, Osio I970, preceduto da una esauriente introduzione di H. W ANG. Altrettanto interessante E. C. LusCHEI, The logica/ systems of Lefniewski, Amsterdam I 962.; come pure L. BARKOWSKI (a cura di), fan Lukasiewicz selected works, Amsterdam I 970. Opera di respiro generale particolarmente indicata anche per il lettore non specialista, E. AGAZZI, Introduzione ai problemi dell'assiomatica, Milano I96I, che contiene in appendice la traduzione italiana della memoria di Godei del I93 I; volumetto divulgativo sulla stessa è quello di E. NAGEL e J.R. NEWMAN, La prova di GOdei, Torino I96I; sempre sullo stesso argomento particolarmente notevole il volumetto di A. MosTOWSKI, S entences undecidable in formalized arithmetik (An exposition of the theory of Kurt GOdei), Amsterdam I 964; un panorama generale offre invece J. LADRIÈRE, Les limitations internes des formalismes. Étude sur la signiftcation du théorème de GOdei et des théorèmes apparentés, Lovanio 1957. Un'antologia dei lavori fondamentali per la teoria della ricorsività nella sua prima fase è M. DAVIS (a cura di), The undecidable. Basic papers on undecidable propositions, unsolvable problems and computable function, New York I 96 5, che citeremo in seguito con (un); per una prima introduzione sull'argomento il lettore potrà consultare E. CASARI, Computabilità e ricorsività. Problemi di logica matematica, Milano I959· Per quanto riguarda i lavori di Tarski del primo periodo è preziosa l'antologia curata da J.H. WoonGER, Logic, semantics, metamathematics. Papers from 1923 to 1938 ~y Alfred Tarski, Oxford I956; la traduzione italiana della fondamentale memoria tarskiana sul concetto di verità ivi contenuta il lettore italiano potrà trovare in F. RIVETTI BARBÒ, L'antinomia del mentitore nel pensiero contemporaneo (da Peirce a Tarski), Milano I96I; un'ulteriore esposizione della propria semantica dà TARSKI in un articolo in L. LINSKY (a cura di), Semantica e filosofia del linguaggio, Milano I969. Un panorama storico sulla teoria degli insiemi è dato in A.A. FRAENKEL e Y. BAR HILLEL, Foundations of set theor:_y, Amsterdam I95 8; una buona esposizione elementare il lettore potrà trovare in T. SKOLEM, Abstract set theory, Notre Dame I 962.; alcuni punti particolari sono discussi in A. A. FRAENKEL, Teoria degli insiemi e logica, Roma I97o; una visione d'assieme assai interessante e ampia è quella presentata da W.S. HATCHER, Fondamenti della matematica, Torino I973· Estremamente interessanti per l'ampiezza e la profondità delle questioni fondamentaliste trattate sono i due volumi: E. CASARI, Questioni di filosofia della matematica, Milano I 964 e M. L. DALLA CHIARA ScABIA, Modelli sintattici e semantici delle teorie elementari, Milano I968. Segnaliamo infine due ottimi articoli aggiornatissimi l'uno di tipo generale l'altro più specifico: C. CELLUCCI, Concezioni di insiemi, in «Rivista di filosofia», LII, n. z, 197I e G. LoLLI, La teoria degli insiemi prezermeliana e l'assioma di rimpiazzamento, ibid., n. 3, I97I. Anche per quanto riguarda il periodo post-godeliano cominceremo intanto col segnalare un primo panorama generale in A. MosTOWSKI, The present state of investigations on the foundations of mathematics, Varsavia 195 5 e quindi, dello stesso autore, Thirry years of foundational studies. Lectures on the development of mathematical logic and the study of the foundations of mathematics in 1930-1964, Oxford 1966. Questo secondo volume, che richiameremo all'occorrenza con la sigla (MI), contiene sedici lezioni su praticamente tutti i campi della ricerca logico-matematica odierna ed è corredato da una dettagliata bibliografia relativa al periodo nominato nel titolo. Immediatamente accessibile al lettore italiano e anch'esso con ampia rassegna bibliografica, L. GEYMONAT, La metamatematica 573
www.scribd.com/Baruhk
Bibliografia
dopo Hilbert, in« Atti del vn congresso dell'UMI »,Roma I965. Una recente visione d'insieme, per molti versi accessibile anche al lettore non specialista, è data da R. KLIBANSKI (a cura di), La philosophie contemporaine. Chroniques, I, II, III, Firenze I968; in particolare il primo dei tre volumi, che porta il titolo Logique et fondements des mathématiques offre un panorama storico-critico dello stato attuale della ricerca in ogni campo della logica con oltre trenta articoli firmati da alcuni fra i più prestigiosi studiosi del momento; ancora, ognuno di questi articoli è corredato di una bibliografia talora anche assai ampia e aggiornata. Veniamo ora ad indicare le riviste e le collezioni librarie di sicuro riferimento per le pubblicazioni di logica. Come si è già accennato sono oggi sempre più diffuse le pubblicazioni su questo argomento tanto a livello di articoli quanto di volumi. Ci limiteremo quindi a dare un'indicazione di alcune di esse particolarmente importanti e specifiche. Per le riviste: « Journal of symbolic logic » (JSL); « Annals of mathematical logic » (AML); « Zeitschrift fiir mathematische Logik und Grundlagen der Mathematik » (ZMLGM); « Fundamenta mathematicae » (FM); « Theoria » (r); « Studia logica» (sL); e la serie degli « Acta Philosophica Fennica » (APF). Per quanto riguarda le collane, il primo posto spetta di diritto alla serie « Studies in logic and the foundations of mathematics » della North Holland di Amsterdam che ha ormai pubblicato circa 70 volumi esclusivamente dedicati a temi logici; si può dire che questa collana- a parte l'ovvia maggior immediatezza offerta dalle riviste - dia il « polso » della situazione della ricerca logica attuale; assai interessante anche la serie Sinthese Library della D. Reidel di Dordrecht; della Springer di Berlino vanno ricordate le serie: « Die Grundlehren der mathematischen Wissenschaften in Einzeldarstellungen » (in essa compaiono ad esempio i classici di Hilbert-Ackermann, HilbertBernays, Schtitte ecc.); « Ergebnisse der Mathematik und ihrer Grenzgebiete », e la recente « Lecture notes in mathematics ». Altre collane da ricordare sono quella universitaria della V an Nostrand di Princeton e gli « Annals of mathematics studies » sempre di Princeton; della Gauthier-Villars di Parigi la « Collection de logique mathématique ». Fra le italiane ricordiamo la collana di filosofia della scienza di Feltrinelli a Milano e la recente serie di logica matematica dell'editore Boringhieri a Torino. Veniamo ora come detto a dare brevissime indicazioni sugli argomenti principali trattati nel corso del capitolo. Per la teoria della ricorsività, oltre ai già citati (un) e CASARI, indichiamo come manuali: M. DAVIS, Computabiliry and unsolvabiliry, New York I 9 58; s.e. KLEENE, Introduction to metamathematics, Amsterdam I 9 59; A. A. MARKOV, Theory of algorithms, Gerusalemme I962; H. RoGERS ]R., Theory of recursive functions and ejfective computabiliry, New York 1967 (ne è prevista una traduzione per la serie di Boringhieri); dello stesso autore un ottimo articolo panoramico, The present theory of Turing machine computabiliry, in J. HINTIKKA (a cura di), The philosophy of mathematics, Londra 1969; J.R. SHOENFIELD, Degrees of unsolvabiliry, Amsterdam I97I; H. HERMES, Enumerabilità, decidibilità, computabilità, Torino 1975; come riferimenti generali anche per recenti sviluppi si "9"edano vari articoli in J .C.E. DEKKER (a cura di), Recursive function theory, Providence, 1962; J.N. CROSSLEY e M.A.E. (a cura di), Formai ~stems and recursive functions, Amsterdam 1965; J.N. CROSSLEY (a cura di), Sets, models and recursion th1ory, Amsterdam I967; R.O. GANDY e C.N.E. YATES, Logic colloquium '69, Amsterdam I971. 574
www.scribd.com/Baruhk
Bibliografia
Per la teoria dei modelli si vedano come manuali G. KREISEL e J .L. KRIVINE,
Elements of mathematicallogic (mode/ theor_y), Amsterdam I967; G. GRATZER, Universal algebra, Princeton I968; J .L. BELL e A. B. SLOMSON, Models and ultraproducts. An introduction, Amsterdam I 969; A. RoBINSON, Introduzione alla teoria dei modelli e alla metamatematica dell'algebra, Torino I974· Interessante riferimento storico è A.I. MALCEV, Collected papers, Amsterdam I97I, mentre il riferimento generale obbligato è W. AnmsoN e altri (a cura di), The theory of models, Amsterdam I965, estremamente utile anche perché contiene una bibliografia completa sull'argomento. Per l'algebra della logica L. HENKIN, La structure algébrique des théories mathématiques, Parigi I956; P.R. HALMOS, Algebraic logic, New York I962; H. RASIOWA e R. SIKORSKI, The mathematics of metamathematics, Varsavia 1963; L. HENKIN, J.D. MoNK e A. TARSKI, Cylindric algebras, Amsterdam I97L Per i linguaggi infinitari si veda C. R. KARP, Languages with expressions of infinite length, Amsterdam I 964; J. BARWISE (a cura di), The sintax and semantics of inftnitary languages, Berlino I968; H.J. KEISLER, Mode/ theory for inftnitary logic, Amsterdam 1971. Per l'analisi non standard si veda A. ROBINSON, Non-standard ana(ysis, Amsterdam I966; W. LuxEMBURG (a cura di), Applications of models theory to algebra analysis and probabiliry, New York I 969; M. MACHOVER e J. HIRSCHFELD, Lectures on non-standard ana(ysis, Berlino I969. Per quanto riguarda la teoria della dimostrazione si vedano in generale K. ScHUTTE,
Beweistheorie, Berlino 196o; G. KREISEL, A survry of proof theory, I, in JSL, 33, I968, pp. 3ZI-388; A survry of proof theory, II, in J.E. FENSTAD (a cura di), Proceedings of the second scandinavian logic rymposium, Amsterdam I97I, pp. I09-I7o; nello stesso volume si veda D. PRAWITZ, Ideas and results in proof theory, pp. 23 5-307; utile anche la lettura di G. KREISEL, Il programma di Hilbert, in CELLUCCI, cit.; si veda anche l'articolo di A. KINO in KLIBANSKI, cit.; per le applicazioni dei metodi di Gentzen ai linguaggi infinitari si vedano in particolare l'articolo di W. W. T AlT in J. BARWISE (a cura di), cit., pp. 204-236 e l'articolo di FEFERMAN in M.H. LèiB (a cura di), Proceedings of the summer school in logic, Leeds 1~67, Berlino I968, pp. I-Io8. Utile volume di riferimento generale per la teoria della dimostrazione e per l'tntuizionismo che sarà appunto il nostro prossimo argomento, è J. MYHILL, A. KINO e R.E. VESLEY (a cura di), Intuitionism and proof theory, Amsterdam I970. Accessibile riferimento d'obbligo sull'intuizionismo è A. HEYTING, Intuitionism. An introduction, Amsterdam I 972 (m ed.); quale riferimento generale si può indicare A. HEYTING (a cura di), Constructiviry in mathematics, Amsterdam I959; ci limitiamo ora a ricordare G. KREISEL, Mathematicallogic, in L.A. SAATY, Lectures on modern mathematics, New York I965; s.e. KLEENE e R.E. WESLEY, The foundation of intuitionistic mathematics, Amsterdam I965; M. C. FITTING, Intuitionistic logic, mode/ theory and forcing, Amsterdam I 969; A. TROELSTRA, Principles of intuitionism, Berlino I 969; P. MARTIN-LèiF, Notes on constructive mathematics, Stoccolma 197o; D. ScoTT, Constructive truth, in Symposium on automatic demonstration, Berlino 1970. Per gli aspetti della ricerca logica cui ci siamo limitati ad accennare nel capitolo, daremo anche qui dei riferimenti molto generali, rimandando per un panorama complessivo dei vari argomenti al già citato KLIBANSKI. Come ulteriori volumi generali qui ricordiamo il CROSSLEY e DuMMETT già citato (in particolare per gli articoli di KRIPKE, del quale ri\:ordiamo anche, in questo contesto, l'articolo nel fascicolo del I963 degli APF, Moda/ and matry valued logics, che è un utile riferimento per tutte le logiche non classiche). Come volumi generali ricordiamo inoltre J.W. DAvls e altri (a cura di), Philosophical
575
www.scribd.com/Baruhk
Bibliografia
logics, Dordrecht I969; K. LAMBERT (a cura di), Philosophical problems in logic, Dordrecht I97o; per le logiche modali in particolare sono utili G.H. VON WRIGHT, An esscry in modallogic, Amsterdam I95 I; R. FEYS, Modallogics, Lovanio I965; G. E. HuGHES e M.J. CRESSWELL, Introduzione alla logica moda/e, Milano I973· Per quanto riguarda la teoria degli insiemi cominciamo intanto a citare alcuni manuali: P. BERNAYS e A.A. FRAENKEL, Axiomatic set theory, Amsterdam I968; K. KuRATOWSKI e A. MosTOWSKI, Set theory, Amsterdam I968; A.A. FRAENKEL, Abstract set theory, Amsterdam I968; J.L. KRIVINE, Théorie axiomatique des ensembles,Parigi I969; P.R. HALMOS, Teoria elementare degli insiemi, Milano I97o; J.D. MoNK, Introduzione alla teoria degli insiemi, Torino I972; A. ABIAN, La teoria degli insiemi e l'aritmetica transftnita, Milano I972; ci limitiamo ora a ricordare: K. GonEL, The consistenry of the axiom of choice and of the generalized continuum-lypothesis with the axioms of set theory, Princeton I 940; A. MosTOWSKI, Constructible" sets with applications, Amsterdam I969; P.J. CoHEN, La teoria degli insiemi e l'ipotesi del continuo, con appendice di G. LOLLI, Milano I973, fra lo sterminato numero di pubblicazioni dedicate alla teoria degli insiemi; come pure indichiamo fra i moltissimi volumi generali soltanto i seguenti: Y. BAR HILLEL (a cura di), Mathematicallogic and foundations of set theory, Amsterdam I97o; T.J. JECH, Lectures in set theory, Berlino I97I; D. ScoTT (a cura di), Axiomatic set theory, vol. I, Providence I97I, vol. n, a cura di T.J. ]ECH, id., I974· Come utile riferimento generale ricordiamo ancora al lettore italiano i volumi sopra citati di CASARI e DALLA CHIARA ScABIA, nonché i due articoli di LoLLI e CELLUCCI anch'essi già citati.
CAPITOLO SESTO
Problemi ftlosoftci della matematica e della fisica odierne Sui problemi di carattere generale della matematica si veda: S. EILENBERG-N. STEENROD, Foundation of algebraic topology, Princeton 195 2; H. CARTAN-S. EILENBERG, Homological algebra, Princeton I956; G. DEBREU, Axiomatic theory of value, New York I959; A. GROTHENDIECK-J. DIEUDONNÉ, Eléments de géométrie algébrique, Parigi I96o;. J. DIEUDONNÉ, Foundations of modern ana!Jsis, New York I96o (ed. frane., Parigi I965); F. LE LIONNAIS (a cura di), Les grands courants de la pensée mathématique, Parigi I962, con interventi e contributi di autori diversi, fra i quali segnaliamo: N. BouRBAKI, L'architecture des mathématiques (pp. 3 5-47); A. LAUTMAN, Symétrie et disrymétrie en mathématiques et en plysique (pp. 54-65); M. FRECHET, De l'espace à trois dimensions aux espaces abstraits (pp. I2I-I29); J. DIEUDONNÉ, David Hilbert (pp. 29I-297); A. WEIL, L'avenir des mathématiques (pp. 307-320); L. DE BROGLIE, Le role des mathématiques dans le développement de la pfysique moderne (pp. 398-4I2); J. DmuDONNÉ, Les méthodes axiomatiques moderneset /es fondements des mathématiques (pp. 543-5 55). Vanno inoltre segnalati, fra gli studi più recenti: S. MACLANE, The influence of M.H. Stone on the origins of the cathegory theory, in « Functional analysis and related fields », a cura di F.E. BROWDER, Berlino I968; H. NIKAIDO, Convex structures and economie theory, New York I968. Sulla personalità di Hilbert e la sua scuola si veda: C. REID, Hilbert, with an appreciation of Hilbert's mathematical work lry H. Wryl, Berlino-New York I97o. Non abbiamo citato la serie di fasci-
www.scribd.com/Baruhk
Bibliografia
coli e volumi del BouRBAKI: tali fascicoli e volumi sono pubblicati da Hermann (Parigi) a partire dal I939· Riguardo all'assiomatizzazione, fra le opere di carattere generale vanno citate le seguenti, che affrontano anche alcuni problemi connessi con l'assiomatizzazione delle teorie empiriche: P. SuPPES, Introduction to logic, Princeton, N.J. I957; R. CARNAP, Introduction to {Jmbolic logic and its applications, New York I95 8; E. KYBURG ]R., Philosophy of science. A formai approach, New York I968. In particolare sull'assiomatizzazione della matematica si veda: J.R. SHOENFIELD, Mathematicallogic, Reading, Mass., I967; A.A. FRAENKEL-Y. BAR-HILLEL, Foundations of set theory, Amsterdam 1969. Per i rapporti tra la matematica moderna e il materialismo dialettico si veda l'articolo su questo argomento, pubblicato in occasione del centenario di Lenin da B.V. GNEDENKO, in « Uspehi mat. nauk », vol. xxv, n. z, I97o (trad. inglese in « Russian math. surveys »). Per informazioni sulla storia della fisica del Novecento si veda: L. RosENFELD, La première phase de l'évolution de la théorie des quanta,« Osiris », 1936; M. VON LAUE, History of physics, Academica Press 1950; P.G. BERGMANN, Basic theories of physics: heat and quanta, Prentice-Hall I95 I, Dover I962; M. HESSE, Forces and ftelds, Nelson and Sons I961. In particolare, di alcuni aspetti della storia della meccanica statistica si occupa C. TRUESDELL, Esstrys in the history of mechanics, Springer-Verlag I968. Tra i saggi e gli articoli dedicati alla storia della fisica quantistica, vanno citati: N. BoHR, Die Entstehung der Quantenmechanik, in Werner Heisenberg und die Physic unserer Zeit, Braunschweig I96I; F. HUND, Gottingen, Kopenhagen, Leipzig und Riickblick, ibid.; CHEN NrNG YANG, Elementary particles, a short history of some discoveries in atomic physics, Princeton I 96 I (trad. it. Torino 1964); M. ]AMMER, The conceptual development of quantum mechanics, New York 1966; F. HUND, in« Physics today », I966; Y.G. DoRFMAN, Rozdenie kvantovqj mekhaniki (L'origine della meccanica quantistica), in« Filosofskie voprosy kvantovoj fisiki » (Problemi filosofici della fisica quantistica), Mosca I97o. Vastissima e ricca è la letteratura dedicata all'esame dei problemi connessi con il sorgere della meccanica quantistica. Ci limiteremo a segnalare i contributi essenziali, distinguendoli per autore e disponendo gli autori in ordine alfabetico. Di D. BoHM si veda: « Phys. rev. » 195 I; A suggested interpretation of quantum theory in terms of « hidden variables », in « Phys. rev. » I 9 5z; Causaliry and chance in modern physics, Londra I957· Tra le opere di N. BOHR segnaliamo: Atomic theory and the description of nature, Cambridge I934; Sur la méthode de correspondance dans la théorie de l'électron, « Structure et propriétés des noyaux atomiques. Rapports et discussions du septième conseil de physique, tenu à Bruxelles du zz au 29 octobre I933 »,Parigi I934; Quantum mechanics and physical realiry, in« Nature», I93 5; C an quantum-mechanical description of physical realiry be considered complete?, in« Phys. rev. », 193 5; Biology and atomic physics, in« Congressi di fisica, radiologia e biologia sperimentale, Bologna, 1937 »,Bologna I938; The causaliry problem in atomic physics, in« Conference on new theories in physics », Varsavia 1938, Parigi I939; On the notions of causaliry and complementariry, in « Dialectica », 1948; Some generai comments on the present situation in atomic physics, in Les particules élémentaires. « Rapports et discussions du 8e conseil de physique Solvay tenu à Bruxelles», Parigi I95o; Quantum physics and phiiosophy (Causaliry and complementariry), in Philosophy in the mid-ce11tury. A 577
www.scribd.com/Baruhk
Bibliografia survey, Firenze I 9 58; Discussione con Einstein sui problemi filosofici della fisica atomica, in A/bert Einstein scienziato e filosofo, Torino I 9 58 (citato nella bibliografia del capitolo xv del volume sesto); Quantum pf?ysics and biology, in Symposia of the sociery for experimental biology, n. I4; Models and analogues in biology, Cambridge I96o; Foreword in theoretical pf?ysics in the twentieth century. A memoria/ volume to Wolfgang Pauli, New York I96o; Teoria dell'atomo e conoscenza umana, Torino I 96 I (citato nella bibliografia del capitolo xv del volume sesto); Pf?ysical modefs and living organisms, in A {)'mposium on light and /ife, Baltimora I96o, I96I; Die Entstehung der Quantenmechanik, in Werner Heisenberg und die Pl!Jsik unserer Zeit, cit.; The So/va} meetings and the development of quantum pf?ysics. Address at the r2th Solv~y meeting, in La théorie quantique des champs. Institut international de physique Solvay. Douzième conseil de physique tenu à Bruxelles du 9 au I4 october I96I, New York I96z; Light and l~fe revisited, « ICSU rev. », I963; Essqys I9J8-rg62 on atomic pf?ysics and human knowledge, New York I963. Tra i lavori di M. BoRN vanno segnalati: Moderne Pf?ysik, Berlino I933; Natura/ philosopf?y of cause and chance, Oxford I949 (trad. it. Torino I96z); Pf?ysik und Metapf?ysik, « Naturwissenschaftliche Rundschau » I955; Experiment and theory in pf?ysics, New York I956 (pubblicato in italiano ne Il potere della fisica, Torino I96z); Pf?ysics in my generation. A selection of papers, Londra-New York I95 6; Atomic pf?ysics, Londra I95 7 (trad. i t. Torino I968); Pf?ysik in Wandel meiner Zeit, Braunschweig I958 (trad. it. Firenze I96I); The restless universe, New York-Dover I958 (trad. it. Milano I96o); Riflessioni d'un uomo di scienza europeo, in Discussione sulla fisica moderna (trad. it. di quattro conferenze organizzate dalle « Rencontres internationales de Genève », I95 z-I95 8, Torino I959); Symbol und Wirklichkeit, in « Physikalische BHitter », I964. Di L. DE BROGLIE si veda: Introduction à l'étude de la mécanique ondulatoire, Parigi I93o; La pf?ysique nouvelle et /es quanta, Parigi I936 (trad. it. Torino I938); Ondes, corpuscules, mécanique ondulatoire, Parigi I945 (trad. it. Milano I95 I); Pf?ysique et micropf?ysique, Parigi I 947; La pf?ysique quantique restera-I-elle indéterministe ?, Parigi I 9 53 ; Nouvelles perspectives en micropf?ysique, Parigi I956; La théorie de la mesure en mécanique ondulatoire, Parigi I 9 57; Sur /es sentiers de la science; Parigi I 960 (trad. i t. Torino I96z); The current interpretation of wave mechanics: a criticai stut!J, Amsterdam I 964. Va inoltre segnalato: L. DE ERoGLIE, J.L. ANDRADE e SILVA, La réinterprétation de la mécanique ondulatoire, tomo I: Principes généraux, Parigi I97I (questo volume contiene anche una schematica bibliografia e un sommario degli sviluppi storici della meccanica quantistica a partire dal I 92 3). Di DIRAC si veda: The principles of quantum mechanics, Oxford I958 (I ed. I93o), trad. it. Torino I959· Tra le opere di EINSTEIN che affrontano problemi riguardanti la fisica atomica, segnaliamo: Mein Weltbild, Amsterdam I934 (Ì:rad. it. Come io vedo il mondo, Milano I95o); A. EINSTEIN-B. PoDOLSKY-N. RoSEN, Can quantum-mechanical description of pf?ysical realiry be considered complete?, in « Phys. rev. », I93 5; Pf?ysik und Realitiit, in « Journal Franklin Institute », I936 (la traduzione italiana di tale articolo compare nel volume Idee e opinioni, Milano I957); Elementare Ueberlegungen zur Interpretation der Quantenmechanik, in Scientific papers presented to Max Born, New York I95 3; Einleitende Bemerkungen iiber Grundbegriffe der Quantenmechanik, in Louis de Broglie pf?ysicien et penseur, Parigi I 9 53 ; Replica alle osservazioni dei vari autori, in Alberi Einstein scienziato e filosofo, cit. Tra le opere di W. HEISENBERG ricordiamo: Die pf?ysikalischen Prinzipien der Quan-
www.scribd.com/Baruhk
Bibliografia
tentheorie, Lipsia I930 (trad. it. Torino I948); Wandlungen in den Grundlagen der Naturwissenschaft, Lipsia I935 (raccolta di conferenze tenute a partire dal I932; trad. it. Torino I 96o); The development of the interpretation of the quantum theory, in Niels Bohr and the development of physics, Londra I95 5; Physics and philosophy, Londra I95 8; La scoperta di Planck e i problemi filosofici della fisica atomica, in Discussione con Einstein sui problemi filosofici della fisica atomica, cit.; Der Tei! und das Ganze, Monaco I 969; Gesprache iiber das Verhiiltnis von Naturwissenschaft und Religion, in« Physikalische Blatter », I97o. Di W. PAULI va ricordato: Die allgemeinen Prinzipien der Wellenmechanik, in« Handbuch der Physik », Berlino I933· Va inoltre segnalata la raccolta Aufsiitze und Vortriige iiber Physik und Erkenntnistheorie (I933-I958), curata dallo stesso autore nel I958 (trad. it. Fisica e conoscenza, Torino I964). Di E. PERSICO si veda: Aspetti logici di questioni filosofiche, in« Atti dell'vrn congresso nazionale di filosofia», Roma I934; Fondamenti della meccanica atomica, Bologna I936; Fisica atomica e linguaggio, in« Analysis », I946; Analisi del determinismo fisico, in AuTORI V ARI, Fondamenti logici della scienza, Torino I947· Di MAx PLANCK segnaliamo: La conoscenza del mondo fisico (raccolta di saggi vari pubblicati dal I9o8 al I93o), Torino I956; Autobiografia scientifica e ultimi saggi (raccolta in cui figurano la Wissenschaftliche Selbstbiographie, pubblicata postuma, e altri saggi apparsi nel periodo I936-I94I). Di H. REICHENBACH si veda: I fondamenti filosofici della meccanica quantistica, Torino I954 e La nascita della filosofia scientifica, Bologna I96I (in particolare i capitoli x e xi), citati nella bibliografia del capitolo IX del volume settimo. Di L. RosENFELD ricordiamo: L'évolution de l' idée de causalité (discorso inaugurale all'università di Utrecht) I942; L'évidence de la complémentarité, in Louis de Broglie physicien et penseur, Parigi I95 3· Tra i lavori di E. ScHRODINGER rammentiamo: Ueber die Unanwendbarkeit der Geometrie in Kleinen, in « Naturwissenschaften », I934; What is !ife? The physical aspect of the living celi, Cambridge I 944 (basato su un ciclo di conferenze tenute sotto gli auspici dell'Istituto del Trinity College di Dublino nel febbraio I943; trad. it. Firenze I947); Science and humanism. Physics in our time (raccolta di quattro conferenze tenute all'University College di Dublino nel 1950), Cambridge I95I (trad. it. Firenze I953); The meaning of wave mechanics, in Louis de Broglie physicien et penseur, Parigi I95 3; Science theory and man, Londra I957; Mind and matter, Cambridge ·I95 8; L'immagine attuale della materia, in Discussione sulla fisica moderna, cit.; The fundamentals of wave mechanics in A treasury of world science, New York 1962; L'immagine del mondo (raccolta di quindici saggi apparsi in periodi vari), Torino I963. Di J.P. VIGIER si veda: Structure des micro-objets dans l'interprétation causale de la théorie des quanta, Parigi I 9 56; À propos de la théorie du comportement des micro-objets individuels, in « Recherches internationales », I 9 57; Les nouvelles particules et la révolution de la microphysique, in« La nouvelle critique », 195 8; Théorie des niveaux et dialectique de la nature, in «La pensée », I96I; Hidden parameters associated with possible interna! motions of elementary particles, in Quantum theory and realiry, Berlino I967; Possible interna! subquantum motions of quantum mechanics, in Physics, logic and history, New York I97o. Tra i lavori di C.F. VON WEIZSACKER segnaliamo: Zum Weltbild der Physik, Zurigo I95I; Le monde vupar laphysique, Parigi 1956. 579
www.scribd.com/Baruhk
Bibliografia
Per un più completo panorama della situazione creatasi in fisica in seguito all'apparizione della meccanica quantistica, si veda inoltre: P. JoROAN, Anschau/iche Quantentheorie, Berlino I936; E. CASSIRER, Determinismus und Indeterminismus in der modernen Physik, Goteborg I936 (trad. i t. Firenze I97I); P. ]OROAN, On the process of measurement in quantum mechanics, « Phil. of science », I949; A. LANOÉ, Ouantum mechanics, Cambridge I95 I; R.P. FEYNMAN, The concept of probabi!ity in quantum mechanics, in « Proceedings of the second Berkeley simposium on mathematical statistics and probability », Berkeley I95 I; E. CoTTON, Une importante contribution à la /utte contre l'indéterminisme en physique, in «La pensée », I95 3; G. LuoWIG, Die Grund/agen der Quantenmechanik, Berlino I954; A. LANOÉ, Foundation of quantum theory, New Haven I95 5; F. HALBWACHS, Une tentative pour édifier une microphysique matéria/iste, in «La pensée », I95 5; Io., Matéria/isme et physique quantique, in« La nouvelle critique », I956; W. HEITLER, Il distacco dal pensiero classico nella fisica moderna, in A/bert Einstein scienziato e filosofo, cit.; A. CROMBIE (a cura di), Turning points in physics, Amsterdam I959 (trad. it. Torino I96I), contenente saggi di R.]. BLIN-STOYLE, D. TER HAAR, K. MENOELSSOHN, G. TEMPLE, F. WAISMANN, D.H. WILKINSON; M. BuNGE, Causa!ity, the piace of the causa/ principle in modern science, Cambridge, Mass., I959 (trad. it. Torino I97o); A. LANOÉ, From dua/ism to unity in quantum mechanics, Cambridge I96o; Io., New foundations of quantum mechanics, Cambridge I965; F. BosiO, Heisenberg e l'orizzonte filosofico della scienza, in «Aut Aut», n. 85, I965 (fascicolo interamente dedicato ai problemi della scienza); M. BuNGE (a cura di), Delaware seminars in phi/osophy of science, Berlino I 967; Io., Quantum theor:y and reality, Berlino I 967; K. PoPPER, The /ogic of scientific discovery, Londra I968 (rifacimento del volume tedesco Logik der Forschung, Vienna I93 5; trad. it. Torino I97o); E. AGAZZI, Temi e problemi di filosofia della fisica, Milano I969; A. LANOÉ, The non-quanta/ foundations of quantum mechanics, in Physics, /ogic and history, cit., New York I970. In particolare per una più approfondita valutazione del pensiero e dell'opera di Bohr si veda: W. HEISENBERG, Nie/s Bohr zum fiinfzigsten Geburtstag am 1· Oktober I9jJ, in « Naturwiss. », I 9 3 5 ; ]. BoHME, Nie/s Bohr zu seinem JO Geburtstag, in « Z. phys. und chem. Unterr. », I936; W. PAULI, Nie/s Bohr on bis both birthday, in« Rev. mod. phys. », I945; C.F. WEIZSACKER, Niels Bohr. Der Schopfer des Atommodels, in « Forscher und Wissenschaftler im heutigen Europa», Amburgo I95 5; Io., Niels Bohr and the development of physics. Esscrys dedicated to Nie/s Bohr on the occasion of bis seventieth birthdtry, Londra I95 5; G. GAMOW, Der )unge Niels Bohr, in« Phys. BI.», I96o; F. BLOCH, Reminiscences of Nie/s Bohr, in « Physics today », 1963; L. DE BROGLIE, La vie et l'oeuvre de Niels Bohr, in« Ann. phys. », I963;]. CocKCROFT, Niels Henrik David Bohr, in« Biographical memoirs of fellows of the Royal Society », I963; ]. FRANCK, Niels Bohr Person/ichkeit, in « Naturwiss. », I963; G. GAMOW, Niels Bohr, the man who explained the atom, in « Science digest », 1963; G. HERTZ, Niels Bohr, in « Jahrbuch Dtsch. Akad. Wiss. », I963; H. HoRTZ, Niels Bahrein hervorragender Naturwissenschaftler und Humanist, in « Math. Phys. Schule », I963; P. ]oROAN, Gedenken an Nie/s Bohr, in « Phys. BI.», 1963; ].R. NIELSEN, Memories of Nie/s Bohr, in « Physics today », I963; R. PEIERLS, An appreciation of Nie/s Bohr, in « Proc. phys. soc.», I963; L. RosENFELO, Niels Bohr (7 oct. r88J-I8 nov. I962). Niels Bohr's publications, in « Nucl. phys. », 1963; Io., Niels Bohr' s contribution to epistemology, in « Physics today », I963; S. RosENTHAL, Niels Bohr ai JJ/ork, in « Nucl. phys. », I963; P. RoussEAU, Nie/s Bohr ou l'age héroi"que de
www.scribd.com/Baruhk
Bibliografia
l'atome, in « Revue de Paris », I963; V.F. WEISSKOPF, Niels Bohr, a memoria! tribute, in « Physics today », I963; J.A. WHEELER, Niels Bohr and nuclear physics, in « Physics today », I963; In., Niels Bohr. His !ife and work as seen by bis friends and collegues, Amsterdam I967; R. MooRE, Niels Bohr, the man and the scientist, Londra I967. Sull'assiomatizzazione della meccanica quantistica si veda: J. VON NEUMANN, Mathematische Grundlagen der Quantenmechanik, Berlino I 9 32.; I D., On an algebraic generalization of the quantum mechanical formalism, in « Matematiceskij sbornik », I936; G. B1RKHOFFJ. VON NEUMANN, The /ogic of quantum mechanics, in « Annals of mathematics », 1936; E. SEGAL, Postulates for genera! quantum mechanics, in « Annals of mathematics », I 94 7; G. W. MACKEY, Mathematicalfoundations of quantum mechanics, New York I963; C. P1RON, Axiomatique quantique, in « Helvetica physica acta», I964; R.V. KADISON, Transformation of states in operator theory and c!Jnamics, in « Topology », I965; M. GuEN1N, Axiomatic Joundations of quantum theories, in « Journal of mathematical physics », I966; S. GunDER, Coordina/es and momentum observables in axiomatic quantum mechanics, in « Journal of mathematical physics », I 967; J. GuNSON, On the algebraic structure of quantum mechanics, in « Communications on mathematical physics », I967; G. LUDWIG, Attempt of an c.xiomatic foundation of quantum mechanics and more genera! theories, in « Communications on mathematical physics », I967; G. DAHN, Attempt of an axiomatic foundation of quantum mechanics and more genera! theories, in« Communications on mathematical physics », I968; J. ]AUCH, Foundations of quantum mechanics, Reading, Mass., I968; G. LunwiG, Attempt of an axiomatic foundation of quantum mechonics and more generai theories, in « Communications on mathematical physics », 1968; R.]. PLYMEN, A modification of Piron's axioms, in « Helvetica physica Acta», I968; In., C*-algebras and Mackry's axioms, in « Communications on mathematical physics », I968; V. S. VARADARAJAN, Geometr_y of quantum theory, Princeton, N.J., I968; P. STOLZ, Attempt of an axiomatic Joundation of quantum mechanics and more genera! theories, in « Communications on mathematical physics », I969. Ai rapporti fra strutture sociali e sviluppo della scienza hanno dedicato una particolare attenzione, negli anni cinquanta, alcune riviste legate al partito comunista francese. In particolare, si veda: G. VASSAILS, C/aude Bernard et la prétendue neutralité philosophique de la science, in «La pensée », I95 I; J. KANAPA, Les joueurs de jlute et lo nation, in «La nouvelle critique », I95 I;]. DESANTI, La science, la /utte des classes et l'esprit de parti, in« La nouvelle critique », I95 I; F. FER, Pourrissement de la scienct bourgeoise, in« La nouvelle critique », I95 I; L. CASANOVA, A propos de la science, in «La nouvelle critique », I95 I; G. V ASSAILS, Les monopoles ftnanciers américains contre la science franraise, in «La pensée », I95 2.;]. DESANT1, La science et la lutte idéologique, in «La nouvelle critique », I95 z; CHEN-Po-TA, Discours aux scientifiques, in « La nouvelle critique », I95 3; G. VASSAILS, Progrès des sciences de la nature et progrès social, in «La pensée », I 9 53; F. CoHEN, Le pouvoir soviétique et la science, in «La nouvelle critique », I95 3; E. ScHATZMAN, Réjlexions sur l'avenir de la science, in « La pensée », I 9 58. Sui rapporti fra scienza della natura, industria e organizzazione della ricerca vanno inoltre segnalati: J. NEEDHAM e J.S. DAVIES, Science in Soviet Russia, Londra 1942.; P.M. S. BLACKETT, Military and politica/ consequences of atomic energy, Londra I948 (trad. it. Torino 1949); J.S. ALLEN, Atomic imperialism, New York 1952.; G. PIEL, Science in the cause oj man, New York I95 5; C. SNow, Science andgovernment, Londra I963; G. BERLINGUER,
www.scribd.com/Baruhk
Bibliografia
Politica della scienza, Roma I 970; AuTORI V ARI, La scienza nella società capitalistica, a cura della Soc. it. di fisica, Bari I971; In., Scienziati e tecnologi contemporanei, vol. m, Milano I975; In., Contributi alla storia della meccanica quantistica, a cura della Domus Galilaeana, Pisa I 976. V edasi inoltre la bibliografia del capitolo n del volume nono.
CAPITOLO SETTIMO Nuovi aspetti della cosmologia
Per la cosmologia pre-greca, greca e su Aristotele, l'età medievale e rinascimentale, si rimanda anche alla bibliografia sulla cosmologia apparsa in precedenti volumi. Qui ricordiamo solo: Exposition du .rystème du monde par le marquis de Laplace, Parigi I796 (trad. it. in LAPLACE, Opera, a cura di O. PESENTI CAMBURSANO, Torino 1967); J.L.E. DREYER, A history of planetary .rystem from Thales to Keplero, Cambridge I905 (trad. it. Milano 1970); F.R. JoHNSON, Astronomica! thought in Renaissance England, Baltimora I937; F.M. CoNFORn, Principium sapientiae, Cambridge I952; S. SAMBURSKY, The pf?ysical world of the Greeks, Londra 1956 (trad. it. Milano I959); A. KOYRÉ, From the closed world to the infinite universe, I957 (trad. it. Milano I969); G. ABETTI, La cosmologia scientifica, in «Storia delle scienze», Utet, Torino I96z; M.A. HASKIN, W. Herschel and the construction of heavens, Londra 1963; N.R. HANSON, Constellations and cotijectures, Boston I973· Per l'astronomia si veda: G. CECCHINI, Il cielo, z voli., Utet, Torino I95z; F. HoYLE, Frontiers of astronomy, Heinemann, Londra I95 5 (trad. it. Milano I95 8); G. ABETTI, Stelle e pianeti, Torino 1956; B.J. BoK, The astronomer's universe, Londra 1958; R.H. BAKER, Astronomy, New York I959; L. RasiNO, Fisica delle stelle, New York 1959; O. STRUVE, Elementar:_y astronomy, New York I959; A.I. 0PARIN e A. FESENKOV, Universo. La vita nel cosmo, Roma I96I; M. HACK, L'universo, pianeti, stelle e galassie, Milano I963. Per la radio astronomia si veda: A.C.B. LovELL e J.A. CLEGG, Radio astronomy, Londra 1952; J.L. PAWSEY e R.N. BRACEWELL, Radio astronomy, Oxford I955; R. CouTREZ, Radioastronomie, in« Monographies de l'observatoire royal de Belgique », Bruxelles 1956; J. PFEIFFER, The changing universe, New York 1956; R.H. BROWN e A.C.B. LovELL, The exploration of space lry radio, Londra 1957; R.D. DAVIES e H.P. PALMER, Radio studies ofthe universe, Londra 1959, New York 1959; A.C.B. LOVELL, The exploration of outer space, Londra I96z (trad. it. Milano I964). Per il sistema solare si veda: G. BRUHAT e E. ScHATZMAN, Les planètes, Parigi 1952; F.G. WATSON, Between the planets, Cambridge 1956; F.L. WHIPPLE, Earth, moon and planets, New York 1958. Per la galassia e le galassie si veda: E. HuBBLE, The realm of nebulae, New York 1936 (n ed. I958); H. SHAPLEY, Galaxies, Filadelfia I947; P. CounERC, L'univers, Parigi I95 5; B.J. BoK e P.F. BoK, The milky wqy, Cambridge I957; H. SHAPLEY, The inner metagalaxy, Londra I957; G. ABETTI e M. HAcK, Nebulose e universi isole, Torino I959; N. CALnER, Violent universe, Londra 1969.
www.scribd.com/Baruhk
Bibliografia
Per un'idea diretta sull'astronomia moderna, vedi: H. SHAPLEY, Source book in astronomy, Harvard University Press 196o. Per le premesse teoriche della cosmologia moderna sono articoli fondamentali: C.V.L. CHARLIER, due articoli in« Arkiv for Matematik Astronomi och Fysik »,vol. IV, n. 24, 1908, e n. 22, I922; A. EINSTEIN, Kosmologische Betrachtungen zur allgemeinen Relativitiitstheorie, in « Sitzungsberichte der preussischen Akademie der Wissenschaften », 19 I 7; W. PAULI, Relativitiitstheorie, in Encyclopadie der mathematischen Wissenschaften, Lipsia e Berlino I92I; A.S. EnmNGTON, The expanding universe, in « Proceedings of the physical society », I 9 32; W. DE SITTER, On the expanding universe, in « Proceedings Koninklyke Akademie van Wetenschappen te Amsterdam», n. j, I932; In., The astronomica! aspect of the theory of relativity, in « University of California publications in mathematics », Berkeley 1933; In., On the expanding universe and the time scale, in « Monthly notices of royal astronomica! society », I933; H.P. RoBERTSON, Relativistic cosmo/o!'), in « Review of modern physics », I933; W.H. McCREA e E.A. MILNE, un saggio in « Quarterly journal of mathematics », I934; E.A. MILNE, un articolo in « Quarterly journal of mathematics »,vol. v, I934; R.C. ToLMAN, Relativity, thermoc!Jnamics, and cosmo/o!'), Oxford 1934; E. HuBBLE, The rea/m of the nebulae, Londra, Oxford University Press, I936; In., Observational approach to cosmology, Oxford I937; O. HECKMANN, Theorien der Kosmologie, Berlino 1942; G.C. McVITTIE, Cosmologica/ theory, Londra 1957. Per la cosmologia moderna: a) articoli: M.K. MuNITZ, Scientiftc method in cosmo/o!'), in« Philosophy of science », I95 2; E.M. e G.R. BuRBIDGE, W.H. FowLER e F. HoYLE, Syntesis of the elements in stars, in « Reviews of modern physics », I957; T. GoLn, The arrow of time, in La structure et l'évolution de l'univers, Bruxelles I95 8; C. BRANS e R.H. DICKE, Mach's principle and a relativistic theory of gravitation, in « Physical review », I24, I961; A. SANnAGE, The ability of the 200- inches telescope to discriminate between selected world-models, in « The astrophysical journal », I961; A. LICHNEROWICZ e Y. FouRESBRUHAT, Problèmes mathématiques en relativité, in « Recent developments in generai relativity », Varsavia 1962; O. HECKMANN, Review of modern cosmo/o!'), in« I.c.s.u. »,vol. v, Amsterdam I963; AuTORI VARI, Cosmologica/ models, Lisbona 1964; U. GIACOMINI, Indagine critica sulla scientificità della cosmologia moderna, in «Atti dell'accademia delle scienze», Torino 1964; A. GI.Ao, On the theory of cosmologica/ models, in Cosmologica/ models, cit.; P. JoRnAN, Four lectures about problems of cosmo/o!'), in Cosmologica/ models, cit.; J.V. NARLIKAR, The direction oftime, in« Philosophy of science », I965; J. PACHNER, An oscillating ùotropic universe without singularity, in « Monthly notices of the royal astronomica! society », I965; A. SANnAGE, The existence of a new major constituent of the universe. The quasi-stellar galaxies, in « The astrophysical journal », I965; YA.B. ZELnOV1CH, Survey of modern cosmolog), in « Advances in astronomy and astrophysics », I965; L. DE BROGLIE, Sur le déplacement des raies émises par un objet astronomique, in «C. R. de l'académie des sciences », I966; F. HoYLE e J.V. NARLIKAR, On the ef!ects of the non-conservation of barions in cosmo/o!'), in« Proceedings of the royal society », 1966; In., A radica/ departure from the stea4J-state cosmo/o!'), in « Proceedings of the royal society », 1966; O. KLEIN, Instead of cosmolog), in« Nature», 211, I966; AuTORI VARI, Atti del convegno sulla cosmologia, tenuto presso l'Università di Padova nel settembre I964 (pubblicazioni per il IV centenario della nascita di Galileo), Firenze 1969; b) volumi: P. CounERC, L'expansion de l'univers, Parigi I95 I; G. GAMOW, The crf'tlHon ~( universe, New York 1952; M.K. MuNITZ,
www.scribd.com/Baruhk
Bibliografia
Space, time and creation, NewYork I953 (trad.it. Torino I959); E.FINLAY-FREUNDLICH, Cosmology, in Encyclopedia of unifted science, Chicago I957; M.K. MuNITZ, Space, time and creation, in« Glencoe »,m, I957 (trad. it. Torino 1959); E. ScHtiCKING e O. HECKMANN, World-models, in «La structure et l'évolution de l'univers », Bruxelles 1958; AuTORI VARI, Theories of universe, a cura di M.K. MuNITZ, New York I959; D. W. SerAMA, The unity of the universe, Londra I959 (trad. it. Torino I958); H. BaNDI, Cosmology, Cambridge I 96o (trad. i t. Milano I 97 I); G .C. Mc VITTIE, Cosmologica! theories, Londra I96o; In., Facts and theory in cosmology, Londra I96I; J. SINGH, Great ideas and theoriesof modern cosmology, I95I (trad. i t. Milano I966); G.J. WHITROW, The natura! philosopf?y of time, Londra I96I; AuTORI VARI, Riva! cosmologica! theories, I962 (trad. i t. Torino I965); J. MERLEAu-PoNTY, Cosmologie du x.xe siècle, Parigi I965; J.D. NoRTH, The measure oJ the universe, Oxford I965; c) volumi relativi agli sviluppi più recenti della cosmologia: A. UNSOLD, Der neue Kosmos, Ber/in Heidelberg, New York I967; L. GRATTON, Relatività cosmologia, astrofisica, Torino I968; L AsiMOV, The universe (from Jlat earth to the quasars), New York I968; R. SwiNBURNE, Space and time, capp. xrr-xv, Londra I968; N. CALDER, Violent universe, Londra I969; A. MASANI, Storia dell'universo, in «Problemi di storiagrafia», a cura di L. BuLFERETTI, Milano I97I; J.C. BRANT e S.P. MARAN, New horizons in astronomy, San Francisco I972; S. WEINBERG, Gravitation and cosmology, New York I972; AuTORIVARI, Astrofisica d'o,Pgi, a cura di M. HACK, Milano I973; G.C. Mc VrTTIE, Genera! relativity and cosmology, Londra I974; P. MAFFEI, Al di là della luna, Milano I975· CAPITOLO OTTAVO
La psicologia scientifica contemporanea Per quel che riguarda la storia della psicologia e la psicologia sperimentale in generale si vedano: R. ZAzzo, Psychologues et p~chologies d'Amérique, Parigi I942; E.G. BoRING, Sensation and perception in the history of experimental p~chology, New York I942; G. BERGMANN e K. W. SPENCE, The logic ofp~chopf?ysical measurement, in « Psychological review », I944, pp. I-24; E.G. BoRING, H.S. LANGFELD e H.P. WELD, Foundations of ps_ychology, New York I948; W. DENNIS, Readings in the history of p~chology, New York 1948; G. MuRPHIE, Historical introduction to modern p~chology, New York I949; E. G. BoRING, A history of experimental p~chology, New York I 9 5o; H. HELSON (a cura di), Theoretical foundations of psychology, New York I 9 5o; K. LORENZ, The comparative method in stu4Jing innate behavior patterns, in « Symposia of the society for experimental psychology », IV, I95o, pp. zzi-268; J.C. FLUGEL, A hundredyears of p~chology, Londra I95I; H.E. GARRETT, Great experiments in p~chology, New York I95 I; M.H. MARX, P~chological theory, New York I95 I; S.S. STEVENS (a cura di), Handbook of experimental p~chology, New York I95I; E.G. BoRING e altri (a cura di), A history ofps_ychology in autobiograpf?y, Worcester, Mass., I 9 52; A. BRUNSWICK, The conceptual framework ofp~chology, in « International encyclopedia of unified science », Chicago I95 2; C.E. Oscoon, Method and theory in experimental ps_ychology, New York I95 3; C. W. BROWN e E.E. GHISELLI, Scientiftc method in ps_ychology, New York I95 5; G. ZuNINI, Scuole di psicologia moderna, Brescia I95 5; V. LAZZERONI, Le origini della psicologia contemporanea, Firenze I 9 56; E. BRUNSWICK,
www.scribd.com/Baruhk
Bibliografia
Perception and representative design of psycho!ogica! experiments, Berkeley I 9 56; B. HoLZNER, Amerikanische und deutsche Psycho!ogie: eine verg!eichende Darste!!ung, Wi.irzburg I 9 57; S.L. RuBINSTEIN, O mysh!enii: puryakh ego iss!edovaniya (Pensiero e metodi per studiar/o), Accademia delle scienze, Mosca I95 8; C. L. MusATTI, Gli studi di psicologia in Italia, in La filosofia contemporanea in Italia, r, Asti-Roma I95 8, pp. 43 5-45 I; S. KocH (a cura di), Psycho!ogy: a stut/y oJ a science, 7 voli., New York 1958-7o; F. ATTNEAVE, App!ications ofinformation theory to psycho!ogy: a summary of basic concepts, methods and resu!ts, New York I959; B.B. WoLMAN, Contemporary theories and systems in p.rycho!ogy, New York I96o; C.I. HovLAND, Computer stimu!ation of thinking, in « American psychologist », I 5, I 960, pp. 687-693; F. METELLI, Oggetto e problemi della psicologia, Padova r96o; A. MAssucco CoSTA, Psicologia, 4 voli., Torino I96o-6I; F.J. Mc GurGAN, Experimenta! psycho!ogy: a methodo!ogica! approach, Englewood Cliffs, N.J., 196o; In., Les prob!èmes de la mesure en p.rycho!ogie, in « Symposium de l' Association de psychologie scientifique de langue française », Amsterdam 1961; H.E. GARRETT, Genera! p.rycho!ogy, New York 1961; M. REuCHLIN, Les méthodes quantitatives en psycho!ogie, Parigi 1962; A. MAssucco CosTA, Storia della psicologia, in « Storia delle scienze », vol. m, Torino r 962; C. ScARPELLINI, Correnti storiche contemporanee, in «Questioni di psicologia», Brescia 1962; J. ScHEER (a cura di), Theories of mind, New York 1962; A. MARZI, Psicologia, Firenze 1963; C.L. MusATTI, Condizioni dell'esperienza e fondazione della psicologia, Firenze 1964; R.C. ATKINSON, An introduction to mathematica! psycho!ogy, Stanford 1964; G. ZuNrNr, Psicologia, Brescia 1964; R.J. HERNSTEIN e E.G. BORING (a cura di), A source book, in the history of psycho!ogy, Harvard 1965; B.B. WoLMAN (a cura di), Scientiftc psycho!ogy, princip!es and approaches, New York I965; R.S. WoonwoRTH, Contemporary schoo!s of psycho!ogy, Londra I965; K.H. KuRTZ, Foundations oJ psycho!ogica! research, statistics, methodo!ogy and measurement, Boston I965; B.M. Foss (a cura di), New horizons in psycho!ogy, Harmondsworth I966 (trad. it. Torino I968); P. FRAISSE e J. PIAGET, Traité de p.rycho!ogie expérimenta!e, Parigi I967; P. GurLLAUME, Manuale di psicologia (trad. it. Firenze I968); J. FonoR, Psycho!ogica! explanation: an introduction to the phi!osopl!J of p.rychology, New York I 968; H. BIASCH, Die Psychologie innerhalb der Vie/fa/t der Wissenschaften, in « Psychologische Rundschau », I9, I968, pp. 234-257; D.A. BERLYNE, American and european psychology, in« American psychologist », 23, I968, pp. 447-45 2; J.G. TAYLOR, The ro!e of axioms in psycho!ogical theory, in« Bulletin of the british psychological society », 2I, I968, pp. 22I-227; D.A. NoRMAN, Toward a theory oJ memory and attention, in« Psychological review », 75, I968, pp. 522-5 36; M. HENLE, On the re!ation between logic and thinking, in « Psychological review », I 969, pp. 366-378; W. EPSTEIN e F. SHONTZ, Psycho!ogy in progress, New York I97I; A.F. NEEL, Theories of psycho!ogy: a discussion of the main theories deve!oped by leading p.rychologists during the present century, Londra I97I; B. SIMON, Intelligence, p.rychology and education, a marxist critique, Londra 1971. Sul neobehaviorismo e le teorie dell'apprendimento si vedano, oltre alle parti ad essi dedicate nelle opere generali sopra indicate: W.B. CANNON, The wisdom of the bot/y, New York 1932; T.M. FRENCH, Interre!ations between psychoana!Jsis and experimenta! work of Pav!ov, in« American journal of psychiatry », 89, 1933, pp. II65-I203; E.J. GIBSON, A systematic app!ication of the concepts oJ genera!ization and differentiation to verba! !earning, in « Psychological review », 47, I94o, pp. 196-229; E.R. HrLGARD e D.G. MARQUIS, Conditioning and !earning, New York I94o; W.K. EsTES e B.F. SKINNER, Some quantitative
www.scribd.com/Baruhk
Bibliografia
properties of anxiery, in « Journal of experimental psychology », 29, 1941, pp. 390-4oo; C. S. SHERRINGTON, The integrative action of the nervous .rystem, New Haven 1947; L. MISBACH, P.rychoana!Jsis and theories of learning, in « Psychological review », 55, 1948, pp. 143-156; W.O. JENKINS e J.C. STANLEY, Partial reinforcement; a review and critique, in « Psychological bulletin », 47, 1950, pp. 193-234; R.A. LrTTMAN e E. RosEN, Molar and molecular, in« Psychological review », 57, 1950, pp. 58-65; V.W. VoEx, Formalization and clarification of a theory of learning, in « Journal of psychology », 30, 1950, pp. 34I-362; C.T. MoRGAN e E. STELLAR, Pl!Jsiological p.rychology, New York I95o; W.K. EsTES, Toward a statistica/ theory of learning, in « Psychological review », 57, I95o, pp. 94-Io7; J.S. BROWN e LE. FARBER, Emotions conceptualized as intervening variables. Suggestions toward a theory of frustration, in « Psychological bulletin », 48, I95 I, pp. 465-495; P.E. MEEHL, Some methodological comments concerning expectanry theory, in « Psychological review», 58, I95I, pp. 230-233; J.M.R. DELGADO, W.W. RoBERTS e N.E. MrLLER, Learning motivated lry electrical stimulation of the brain, in « American journal of physiology », 79, I954, pp. 587-593; W.K. ESTES e C.J. BuRKE, Application of a statistica/ mode/ to simple discrimination learning in human suljects, in « Journal of experimental psychology », 5o, I 9 55, pp. 8 I -90; F. RESTLE, A theory of discrimination learning, in « Psychological review », 62, I95 5, pp. II-I9; K.W. SPENCE, Behavior theory and conditioning, New Haven I956; F. RESTLE, Theory of selective learning with probable reinforcements, in« Psychological review », 64, 1957, pp. I82-I9I; R. GRAHAM, Sensation and perception in an objective p.rychology, in« Psychological review », 65, I958, pp. 65-76; H.F. HARLOW e C.N. WooLSEY, Biologica/ and biochemical basis of behavior, Madison I 9 58; J .B. CARROL e J .B. CASA GRANDE, The function of language classifications in behavior, in E.E. MACCOBY e altri (a cura di), Readings in social psychology, New York I95 8; R.R. BuSH e W.K. EsTES (a cura di), Studies in mathematical learning theory, Stanford I 9 59; C. N. CoFER, Experimental studies in the role of verbal processes in concept formation and problem solving, in F.N. FuRNESS (a cura di), Fundamentals ofp.rychology: the p.rychology of thinking, New York I 96o; M.A.B. BRAZIER (a cura di), Centra/ nervous .rystem and behavior, New York I96o; B.J. UNDERWOOD e R.W. ScHULTZ, Meaningjulness and verbal learning, Filadelfia I96o; W.K. EsTES, Learning theory and the new menta/ chemistry, in « Psychological review », 67, I96o, pp. 207-223; R.C. ATKINSON, A theory of stimulus discrimination learning, in K.J. ARROW e P. SuPPES (a cura di), Mathematical methods in the social sciences, Stanford I96o; G.A. MrLLER, E. GALANTER e K.H. PRIBRAM, Plans and structures of behavior, New York I96o; J.J. GrBSON, The concept of the stimulus in p.rychology, in « American psychologist », I 5, I96o, pp. 694-703; A.E. Goss, Ear!J behaviorism and verbal mediating responses, in « American psychologist », I6, I96I, pp. 285-298; Io., Verbal mediating responses and concepts formation, in « Psychological review », 68, I96I, pp. 248-274; C.M. CoFER (a cura di), Verballearning and verbal behavior, New York I961; E.A. AsRATYAN, Some aspects of the elaboration of conditioned connections and formation of their properties, in J .F. DELAFRESNAYE (a cura di), Brain mechat~isms and learning, Oxford I96I; P.K. ANOKHIN, A new conception of the pl!Jsiological architecture oj conditioned rejlex, ibid.; C.D. SPIELBERGER e S.M. LEVIN, What is learned in verbal conditioning?, in « Journal of verbal learning and verbal behavior », I, I962, pp. I25-132; W.R. HEss, The biology of mind, Chicago I964; E. GRtiNTHAL, P.ryche und Nerven.rysteme, Geschichte eines Problem, Berlino I968; E.A. LUNZER, The regulation of behavior, Londra 1968; W. BEVAN, The contextual basis of behavior, in « American psychologist », 23, 1968,
www.scribd.com/Baruhk
Bibliografia pp. 70I-7I4; N. CHRISTENSEN, Prychological and logica! behaviorism, in « Nordisk psychology », 20, I968, pp. 89-Ioi; E.R. HILGARD e G.H. BowER, Le teorie dell'apprendimento (trad. it. Milano I97o); B. McLAUGHLIN, P~ycholof!)' of learning, New York I972. In particolare, su Thurstone si veda: H. GuLLIKSEN, L.L. Thurstone, experimental and mathematical prychologist, in « American psychologist », 2 3, I 968, pp. 786-8o2; su Tolman si vedano: K. MAc CoRQUODALE, Edward C. Tolman, in W.K. EsrES e altri, Modern learning theory: a criticai ana[ysis of ftve examples, New York I954; R. VENTURINI, Il problema metodologico della psicologia e il behaviorismo di E.C. Tolman, in «De Homine », I97o, pp. 93-II6; su Guthrie si vedano: F.D. SHEFFIELD, Avoidance, training and the contiguity principle, in « Journal of comparative physiological psychology », 4I, 1948, pp. I75-I77; M. WIENER e PH. KLEESPIES, Some comments and data on partial cue controverry. Perceptual and motor skills, 27, I968, pp. 847-86I; su Hull si vedano: B.F. SKINNER, Recensione di Hu/1. Principles of behavior, in « American journal of psychology », 57, I944, pp. 276-28I; ].P. SEWARD, Secondary reinforcement as tertiary motivation: a revision of Hull's revision, in « Psychological review », 57, I95o, pp. 362-374; S. KocH, CLARK L. HuLL in W.K. EsrEs e altri, Modern learning theory: a criticai anarysis of ftve examples, New York I954; L. CARINI, The aristotelian basis of Hull's behavior theory, in « Journal of the history ofthe behavioral sciences », 4, I968, pp. Io9-II8; su Skinner si vedano: D.E. DuLANEY, Hypotheses and habits in verbal « operant conditioning », in « Journal of abnormal and social psychology », 63, I96I, pp. 25 I-263; R.I. EvANS, B.F. Skinner: the man and his ideas, New York I968. Sulla psicologia sovietica si vedano: B. ANANIEV, Achievements of soviet prychologists, in« Journal of generai psychology », 26, I948, pp. 257-262; J. WoRTIS, Soviet prychiatry, Baltimora I95o; R.A. BAuER, The new man in soviet prycholof!)', Cambridge, Mass., I952; I.D. LONDON, Research on sensory interaction in the Soviet Union, in« Psychological bulletin », p, I954, pp. 53I-563; B. SIMON, Prycholof!)' in the Soviet Union, Londra 1957; G. RAZRAN, Soviet prycholof!)' since I9 JO, in « Science », II o, I95 7, pp. I 126-I I43; In., Soviet prycholof!)' and prychopf?ysiolof!)', in « Science », I 28, 195 8, pp. I I 87-I I94; S. L. RuBINSTEIN, Protsess myshleniya i zakonomernosti analiza, sinteza i obobshceniya: Eksperimental'trye issledovaniya (Il processo del pensiero e le leggi di analisi, sintesi e generalizzazione: studi sperimentali), Mosca I96o; F. WESLEY, Neither the soul nor the machine, in « Contemporary psychology », 6, I 96 I, pp. 4o6-4o8; G. RAZRAN, The observable unconscious and the inferable conscious in current soviet prychopf?ysiolof!)': interoceptive conditioning, semantic conditioning and the orienting reflex, in « Psychological review », 68, I96I, pp. 8I-I47; M. V. SoKOLOV (a cura di), Iz istorii russko/ psichologii (Dalla storia della psicologia russa), Mosca I96I; A. MAssucco CosTA, Psicologia sovietica, Torino I963; L.M. VEKKER, Urovni organizatsii psikhicheskikh protsessov kak signalov (Livelli di organizzazione dei processi psichici come segnali), in « Voprosy fìlosofii », 22, I968, pp. 58-69; A. N. LEONTIEV, Karl Marks i psikhologichesktrya nauka ( Karl Marx e la scienza della psicologia), in« Voprosy psikhologii », I4, I968, pp. 3-I6; R.A. DuRINYAN, O tsehotorikh metodologicheskikh voprosakh sovremennoi neiroftziologii (Su alcuni problemi metodologici nella neuroftsiologia contemporanea), in« Vestnik akademii meditsinskikh nauk sssR », 23, I968, pp. 6o-68; T. KussMANN, Bewusstseitt und Handlung: Probleme und Ergebnisse der soz:jetischen Prychologie, Berna I97I. Su Lewin si veda la bibliografia relativa al capitolo 11 del volume sesto. Su Piaget si vedano: W. KESSEN, Inte/lective development in children: a conference on
www.scribd.com/Baruhk
Bibliografia
Piaget' s contributions in relation to other theories of children' s thinking, 14, Items I 96o, pp. 2 5-30; W. KESSEN e C. KuHLMAN (a cura di), Thought in the young cbild, in « Monographs of social research in child development », 27, n. 2, I962; J.H. FLAVELL, Developmental psychology of Jean Piaget, Princeton I963; G. PETTER, Lo sviluppo mentale nelle ricerche di Jean Piaget, Firenze I966; H. AEBLI, Rilievi sullo sviluppo mentale del bambino, Firenze I 968; W.R. LooFT e W.H. BARTZ, Animism revised, in « Psychological bulletin », 7I, I969, pp. I-I9; H. GINSBURG e S. 0PPER, Introduction to Piaget's theory of intellectual development, Englewood Cliffs I969; M. NASSEFAT, La psychologie et l'épistémologie de Jean Piaget, in « Bulletin de psychologie », 23, I969-70, pp. I77-I88; D. ELKIND, Children and adolescents: interpretative essqys on the work of Jean Piaget, New York I97o; D.M.G. HYDE, Piaget and conceptual development, New York 1970.
CAPITOLO NONO
Weber e gli indirizzi della sociologia contemporanea In generale sulla sociologia e sulla sua storia, si vedano i seguenti lavori: E. BoGARDUS, A bistory of social thought, Los Angeles I 922; L. VON WIESE, Soziologie; Geschichte und Hauptprobleme, Berlino I926; T. PARSONS, The structure of social action, New York I937 (n ed. I949, trad. it. Bologna I962); H.E. BARNEs-H. BECKER, Social tbought from !ore to science, 2 voli., Boston I938; C. ANTONT, Dallo storicismo alla sociologia, Firenze I940 (n ed. I951); H.E. BARN~s e altri, Contemporary social tbeory, New York 194o; Twentietb century sociology, a cura di G. GuRVITCH e W.E. MooRE, New York I946; H.E. BARNES, An introduction to the bistory of sociology, Chicago 1948; G. GuRVITCH, La vocation actuelle de la sociologie, Parigi I 9 5o (n ed. I 96 3, trad. i t. Bologna I 96 5); G. BouTHOUL, Histoire de la sociologie, Parigi I95o (trad. it. Roma 1966); Modern sociological tbeory in continuiry and change, a cura di H. BECKER e A. BosKOFF, New York I957; Die Lehre von der Gesellscbaft, a cura di G. EISERMANN, Stoccarda I95 8; D. MARTINDALE, T be nature and rypes of sociological theory, Boston I96o (trad. i t. Bologna 1968); ]. MADGE, Tbe origins of scientiftc sociology, New York I962 (trad. it. Bologna I966); R. ARON, Les étapes de la pensée sociologique, Parigi I967; F. JoNAS, Geschichte der Soziologie, Amburgo 1968 (trad. it. Bari I97o). Si hanno numerose raccolte di scritti di MAx WEBER: Gesammelte Aujsatze zur Religionssoziologie, 3 voli., Tubinga I92o-21 (nuova ed. I947); Gesammelte politiscbe Schriften, a cura di MARIANNE WEBER, Monaco I921 (n ed., a cura di J.F. WINCKELMANN, Tubinga I958); Gesammelte Aufsatze zur Wissenscbaftslehre, a cura di MARIANNE WEBER, Tubinga I922 (n ed., a cura di J.F. WINCKELMANN, I95J, m ed. I968); Wirtscbaftsgescbichte, a cura di S. HELLMANN e M. PALYI, Monaco I923 (n ed. I924; III ed., a cura di J.F. WINCKELMANN, Tubinga I958); Gesammelte Aujsatze zur Soziologie und Sozia!politik, a cura di MARIANNE WEBER, Tubinga 1924; Gesammelte Aujsatze zur Sozial and Wirtschaftsgeschicbte, Tubinga I924;]ugendbrieje, I8JJ-I89J, a cura di MARIANNE WEBER, Tubinga 1936; Recbtssoziologie, a cura di J.F. WINCKELMANN, Tubinga I96o. Le principali opere di MAx WEBER sono tradotte in italiano: L'etica protestante e lo spirito del capitalismo, traduzione di P. Burresi, introduzione di E. SESTAN, III ed. Firenze
www.scribd.com/Baruhk
Bibliografia
I965; l/lavoro intellettuale come professione, traduzione di A. Giolitti, introduzione di D. CANTIMORI, Torino I948 (n ed. I965); Il metodo delle scienze storico sociali, a cura di P. Rossi, Torino I95 8; Economia e società, a cura di P. Rossi, Milano I96I (n ed. I968); Storia agraria romana dal punto di vista del diritto pubblico e privato, Milano I9o7; a cura di E. SERENI, Milano I967. Sono inoltre tradotti gli Scritti politici, a cura di P. MANGANARO, con un saggio introduttivo di A. BRUNO, Catania I97o. Sulla vita e sull'opera di Max Weber si vedano i seguenti studi: P. HONIGSHEIM, Max Weber als Soziologe, in« Kolner Vierteljahrshefte fiir Sozialwissenschaften », I92I; H. 0PPENHEIMER, Die Logik der soziologischen Begriffsbildung mit besonderer Berucksichtigung von Max Weber, Tubinga I925; R. WrLBRANDT, Kritisches zur Webers Soziologie, in « Kolner Vierteljahrshefte fiir Sozialwissenschaften », I926; M. WEBER, Max Weber. Ein Lebensbild, Tubinga I926; H.J. GRAB, Der Begriff des Rationalen in der Soziologie Max Webers. Ein Beitrag zu dem Problem der philosophischen Grundlegung der Sozialwissenschaft, Karlsruhe I927; B. PFISTER, Die Entwicklung zum Ideal-Typus. Bine methodologische Untersuchung uber das Verhiiltnis von Theorie und Geschichte bei Menger, Schmoller und Mux Weber, Tubinga I928; M. HALBWACHS, Economistes et historiens: Max Weber, un homme, une oeuvre, in « Annales d'histoire économique et sociale», I929; E. FECHNER, Der Begriff des kapitalistischen Geistes bei So mbart und Weber, in « W eltwirtschaftliches Archiv », I 929; S. LANDSHUT, Max Webers geistesgeschichtliche Bedeutung, in « Neue Jahrbiicher fiir Wissenschaft und Jugendbildung », I93 I; K. LòwrTH, Max Weber und Karl Marx, in « Archiv fiir Sozialwissenschaft und Sozialpolitik », I932 (trad. it. in Critica dell'esistenza storica, Napoli I967); H.M. RoBERTSON, Aspects f!f the rise of economie individualism. A criticism of Max Weber and his school, New York 1933; A. METTLER, Max Weber und die philosophische Problematik in unserer Zeit, Zurigo 1934; A. VoN ScHELTING, Max Webers Wissenschaftslehre, Tubinga I934; M. WEINRE1CH, Max Weber, l'homme et le savant, Parigi 1938; C. ANTONI, La logica del tipo ideale di Max Weber,in «Studi germanici», I938 (anche in Dallo storicismo alla sociologia, Firenze I94o); J.P. MAYER, Max Weber and the german politics, Londra I944 (n ed. 1956); A. BERTOL1NO, W. Sombart e Max Weber nel dissolvimento della scuola storica tedesca del pensiero economico, Firenze I944; E. FrsCHOFF, The protestant ethic and the spirit if capitalism, in « Social research », I944; R. BENDIX, Max Weber's interpretation if conduci and history, in « American journal of sociology », I946; E. BAUMGARTEN, Die Bedeutung Max Webers fur die Gegenwart, in « Die Sammlung », 1950; P. HoNrGSHEIM, Max Weber. His religious and ethical background and development, in« Church history », I95o; D. HENRICH, Die Einheit der Wissenschaftslehre Max Webers, Tubinga I952; J.F. WrNCKELMANN, Legitimitat und Legalitat in Max Webers Herrschaftssoziologie, Tubinga I952; E. ToPrTSCH e W. WEBER, Das Werturteilsproblem seit Max Weber, in « Zeitschrift fiir Nationalokonomie », I 9 52; P. Rossr, La sociologia di Max Weber, in« Quaderni di sociologia », I954; J.F. WINCKELMANN, Die Herrschafstkategorien der politischen Soziologie und die Legitimitat der Demokratie, in « Archiv fiir Rechts-und Sozialphilosophie », 1956; Io., Gesellschaft und Staat in der verstehenden Soziologie Max Webers, Berlino 1957; J. FREUND, La sociologie de Max Weber, Parigi I 9 58 (n ed. I 966, trad. i t. Milano I 968); W. MoMMSEN, Max Weber und die deutsche Politik, I890-I920, Tubinga I959; F.H. TENBRUCK, Die Genesis der Methodologie Max Webers, in« Kolner Zeitschrift fiir Soziologie und Sozialpsychologie », I959; E. RoTHA. GONTHER-R. BENDIX, Max Webers Einj!uss auf die amerikanische Soziologie, ibid.; R.
www.scribd.com/Baruhk
Bibliografia BENDIX, Max Weber. An inte/lectual portrait, New York I96o; G. KoLKO, Max Weber on America: theory and evidence, in « History and theory », I96I; J. DIECKMANN, Max Webers Begriff des « modernen okzidentalen Rationalismus », Colonia I96I; H. LuBBE, Die Freiheit der Theorie. Max Weber iiber Wissenschajt als Beruf, in « Archiv fiir Rechts-und Sozialphilosophie », I962; W. WEGENER, Die Quellen der Wissenschaftsauffassung Max Webers und die Problematik der Werturteilsfreiheit der Nationa!Okonomie, Berlino I 962; E. NoLTE, Max Weber von dem Faschismus, in« Der Staat », I963; W.J. MoMMSEN, Zum Begriff der « plebiszitiiren Fuhrerdemokratie » bei Max Weber, in « Kolner Zeitschrift fiir Soziologie und Sozialpsychologie », I963; E. BAUMGARTEN, Max Weber. Werk und Person, Tubinga I964; W. MoMMSEN, Universalgeschichtliches und politisches Denken bei Max Weber, in « Historische Zeitschrift », I 96 5 ; AuTORI V ARI, Max Weber und die oziologie heute, Tubinga I 96 5 (trad. i t. Milano I 967); « American sociological review », I965 e « Revue internationale cles sciences sociales », I965 (articoli vari su Weber); K. LoEWENSTEIN, Max Webers staatspolitische Auffammgen in der Sicht unserer Zeit, Francoforte I965; F. FERRAROTTI, Max Weber e il destino della ragione, Bari I965; G. ABRAMOWSKI, Das Geschichtsbild Max Webers, Stoccarda I 966; J .A. PRADES, La sociologie de la religion chez Max Weber. Essai d' analyse et de critique de la méthode, Lovanio I 966; L. CAVALLI, Max Weber: religione e società, Bologna I 968; A. CAv ALLI, La fondazione del metodo sociologico in Max Weber e Werner Sombart, Pavia I969; N.M. DE FEo, Introduzione a Weber, Bari I97o; «Rassegna italiana di sociologia », I97o (articoli vari in occasione del cinquantenario della morte). Di TALCOTT PARSONS, oltre alla Struttura dell'azione sociale, sono tradotti in italiano i seguenti scritti: Società e dittatura, a cura di A. P ASQUINELLI, Bologna I 9 56; Il sistema sociale, a cura di L. GALLINO, Milano I965. Su Parsons: L. CAVALLI, Il problema dell'ordine e del cambiamento sociale nel pensiero di T. Parsons, in «Quaderni di scienze sociali», I963; C.N. APOSTLE, Parsonian sociology, in « Sociology and soda! research », I967; M. H. LEsSNOFF, Parson's rystem problems, in« Sociological review », I968; L. SKLAIR, Thefate ofthe «jtmctional requisites »in parsonian sociology, in« British journal of sociology », r97o; R.R. BLAIN, A critique of Parsons' four function pradigm, in « Sociological quarterly », I97o. La Teoria della classe agiata di THORNSTEIN VEBLEN è stata tradotta in italiano, a cura di F. FERRAROTTI, Torino I949 (ristampa Milano 1969). Un'ampia raccolta di opere è stata edita a Torino, a cura di F. DE DoMENICO e F. FERRAROTTI, nel I969. I principali studi su Veblen sono i seguenti: W. jAFFÉ, Les théories économiques et sociales de T. Veblen: contribution à l'histoire des doctrines économiques aux États-Unis, Parigi I924; R. V. TEGGART, T. Veblen, Berkeley I932; J. DoRFMAN, The «satire» of T. Veblen' s « Theory of the leisure class », in « Politica! science quarterly », I 9 32; K.L. ANDERSON, The uniry of Veblen's theoretical rystem, in « Quarterly journal of ethics », I933; J. DoRFMAN, T. Veblen and his America, New York 1935; J.A. HoBSON, Veblen, Londra I936; T.W. ADORNO, Veblen's attack on culture. Remarcks occasioned lry the theory of the leisure class, in « Studies in philosophy and soda! science », I94I; A.K. DAvrs, Sociological elements in Veblen' s economie theory, in « Jo urna! of politica! economy », I 94 5 ; M.S. DAuGERT, The philosophy of T. Veblen, NewYork I95o; F. FERRAROTTI, La filosofia di T. Veblen, in « Rivista di filosofia », I 9 5o; D. RIESMAN, T. Veblen, a criticai interpretation, New York-Londra I95 3; B. RoSENBERG, The values of Veblen. A criticai appraisal, Washington I956 « Monthly review », I957 (numero dedicato a T. Veblen);
s
www.scribd.com/Baruhk
Bibliografia
L.E. DOBRIANSKY, Veblenism, a new critique, Washington 1957; A.K. DAvrs, T. Veblen recon.ridered, in « Science an d society », 19 57; AuTORI V ARI, T. Veblen: a criticai reapprai.ra/, a cura di D.F. Dowo, volume collettaneo in occasione del centenario della nascita di Veblen, Ithaca-New York 1958; M. VIANELLO, T. Veblen, Milano 1961; T.C. MAYBERRY, T. Veblen on human nature, in « The american journal of economics and sociology », 1969; L. DEL GRosso DESTRIERI, Indu.rtria e affari nel pen.riero di T. Veblen, in « Studi di sociologia », 1970. Per una bibliografia delle opere di C. Wright Milis rimandiamo all'appendice dell'edizione italiana di C. WRIGHT MILLS, Sociologia e cono.rcenza, Milano 1971, a cura di I.L. HoRowrTz. Le principali opere di C. WRIGHT MrLLS sono state tradotte in italiano: L'élite del potere, Milano 1959; Le cau.re della terza guerra mondiale, Milano 1959; L'immaginazione .rociologica, Milano 1962; Lettere cubane, Milano 1962; Colletti bianchi: la cla.r.re media americana, Torino 1966; Sociologia e pragmatismo, Milano 1968; I marxisti, Milano 1969; Politica e potere, Milano 1970. Ricordiamo inoltre l'antologia di classici della sociologia, curata da C. WRIGHT MILLS, Immagini dell'uomo, Milano 1962 e il libro scritto in collaborazione con H. GERTH, Carattere e .rtruttura .rociale, Torino 1969. Sull'opera di Wright Milis si veda: H. APTHEKER, The world of C. Wright Mi/l.r, New York 196o; G.B. SHARK, Mi/l.r and Weber: formalism and the ana(ysis of social structure, in« Science and society», 196o; D.F. Dowo, T. Veb/en and C. Wright Milis, in The new Sociolog;y, a cura di I.L. HoROWITZ, New York 1964; P.C. Luoz, Ein Rebel der amerikanischen Soziologie (C. Wright Milis), in « Merkur », 1965; J.A. SrGLER, The politica/ philosophy of C. Wright Milis, in « Science and society », 1966; G. MARSIGLIA, Classe e potere nell'opera di C. Wright Milis, in «Rassegna italiana di sociologia », 1969; Io., L'immaginazione .rociologica di C. Wright Milis, Bologna 197o; F. CAsSANO, Autocritica della sociologia contemporanea, Weber, Milis, Habermas, Bari 1971; G. AMENDOLA, Metodo sociologico e ideologia. C. Wright Milis, Bari 1971. La città di R. PARK, E. BuRGEss, R. MACKENZIE, e Le funzioni del conflitto sociale di L. CosER sono tradotti in italiano (Milano 1967). Sulla scuola di Francoforte si veda: A. ScHMIDT e G.E. RuscONI, La scuola di Francoforte, Bari 1972. Per quanto concerne la sociologia della conoscenza, oltre agli scritti di Max Weber, Max Scheler, Georg Lukacs, si vedano i seguenti studi più specifici: W. JERUSALEM, Die Soziologie des Erkennens, in «Die Zukunft», 1909; P. ANDREI, Die soziologische Auffassung der Erkenntnis, Lipsia 1923; AuTORI VARI, Versuche zu einer Soziologie des Wissens, a cura di M. ScHELER, Monaco-Lipsia 1924; K. MANNHEIM, Ideologie und Utopie, Bonn 1929 (xv ed. Francoforte 1965, ed. ingl. ampliata Londra 1936, trad. it. Bologna 1957, n ed. 1965); A. DEMPF, Wissenssoziologische Untersuchungen des uberganges vom Mittelalter zur Neuzeit, in « Archiv fiir angewandte Soziologie », I 9 3 I ; E. GRUNW ALD, Das Problem einer Soziologie des Wissens, Vienna-Lipsia 1934; P. SoROKIN, Social and cultura/ 4Jnamics, 4 voli., New York 1937-41; F. ZNANIECKI, The social role of the man of knowledge, New York 194o; C. WRIGHT MILLS, Methodical consequences of the sociolog;y of knowledge, in « American journal of sociology », 194o; A. CHILD, The problem of imputation in the sociolog;y of knowledge; the theoretical possibility of the sociolog;y of knowledge, in « Ethics », 1940-41; G.L. DEGRÉ, The sociolog;y of knowledge and the problem of truth, in « Journal of the history of ideas », 1941; A. CHILD, The existential determination of thought; the pro-
www.scribd.com/Baruhk
Bibliografia
b!em of imputation resolved; the problem of truth in the sociology of knowledge, in « Ethics », I94I-42, I943-44, I947-48; J. MAQUET, Sociologie de la connaissance, Lovanio I949; K. MANNHEIM, Essays on the sociology of knowledge, Londra I 9 5z; H.]. LIEBER, Wissen und Gesellschajt, Tubinga I952; T. GEIGER, Ideologie und Wahrheit; eine soziologische Kritik des Denkens, Stoccarda-Vienna I95 3; F. ADLER, A quantitative stutfy in sociology of knowledge, in « American sociological review », I954; W. STARK, Sociology of knowledge, Londra I958 (trad. it. Milano I963, n ed. I967); I.L. HoROWITZ, Philosophy, science and the sociology of knowledge, Springfield I 96 I ; A. Izzo, S ociologia della conoscenza, Roma I 966; D. MARTIN, The sociology of knowledge and the nature of social knowledge, in « British journal of sociology », I968; N. ELIAS, Sociology of knowledge. New perspectives, in « Sociology », I97I.
59 2
www.scribd.com/Baruhk
INDICE DEI NOMI I numeri in ror1ivo rimandano alla bibliografia
Abbagnano, Nicola, 63, 73, 74, 76, 82-85, 97, III, J6J Ackermann, Wilhelm, 215, 245 n., 256, 258, 291, 349 n. Adams, Walter Sydney, 445 Adler, Victor, 24, 26 Ajdukiewicz, Kazimierz, 269 n. Alexander, Samuel, 137 Alfieri, Vittorio Enzo, 6o Aliotta, Antonio, 55, 83, 92, J6I Allmayer, Vito Fazio, 59 Anastasi, Anna, 42 Anceschi, Luciano, 70, So, 95, J67
Anderson, Cari David, 422 Antoni, Carlo, 6o Arangio-Ruiz, Vladimiro,
59,
J62
Ardigò, Roberto, 52, 62 Aristotele, 86, 88, 108, 263 Arsen'iev, Aleksandr M., 19 Asor Rosa, 6o Attisani, Adelchi, 6o Auerbach, Felix, 142 Austin, John Langshaw, IOI, I02 Baade, Walter, 454 Bachelard, Gaston, 54, 56, 81 Badaloni, Nicola, IIO-III Bai re, René, I 99 n. Banfi, Antonio, 50, 63, 65-70, 73, 76, 78, So, 82, 92, 99, Io4, J64 Baratone, Adelchi, 62, 64, J6J Bariè, Giovanni Emanuele, 62, . 63, 64-65, J6J Barone, Francesco, 92, 96 n. Barth, Karl, 82 Bateson, William, 182 Battaglia, Felice, 89, J6J Bauer, Bruno, 75 Bellone, Enrico, u6 Beltrami, Eugenio, 52 Bernays, Pau!, 215, 26o n., 278, 349 n., 350 Bertalanffy, Ludwig von, I 57165, J68
Bertin, Giovanni Maria, 70, So, 96, J67 Bianchi-Bandinelli, Ranuccio, 79 Blackett, Patrick, 424 Bionde!, Maurice, 92 Blonskij (Blonsky) Pavel Petrovic, 34, 493-494 Bobbio, Norberto, 73, 74, 76, 81, IOI, 102-103, III, J6J Bohr, Niels, 55, 421, 430-431 Bondi, Hermann, 454, 184 Bonfantini, M., 75 Bontadini, Gustavo, 86, 91, 92 Bore!, Émile, I 99 n. Boro, Max, 420, 427, 429 Bose Satyendra Nath, 423 Bottai, Giuseppe, 76 Boubly, John, 25 Bourbaki, Nicolas, 406, 409, J76 Boveri, Theodor, 184 Bradley, Francis Herbert, I 3I, 2I9 Brentano, Franz, 92 Bridgman, Percy, 465-466 Broglie, Louis de, 419, JSJ Brouwer, Luitzen Egbertus Jan, 199-202, 246-248, 295-301, 336338, J72 Bruner, Jerome S., 46, 47 Burali-Forti, Cesare, 197, 225, 250, 25 3 Burgess, Ernest W., 54I, 542, J9I
Biitschli, Otto, 123-124 Buzano, P., 74 Buzzati-Traverso, Adriano, 74 Bykov, Konstantin, 501
Carabellese, Pantaleo, 62, 63-64, J6J
Caramella, Santino, 89 Carathéodory, Constantin, 413 Carbone, D.A., 81 Carella, D., 76 Carlini, Armando, 88 Carnap, Rudolf, II3, 255, 302304, 434 Cartesio (René Descartes), 97 Cassirer, Ernst, 56, 99 Castellana, Mario, 54 Castelli Gattinara di Zubiena, Enrico, 82, 89 Cattaneo, Carlo, 51, 77, 101, 110 Ceccato, Silvio, So Cerroni, Umberto, 109 Cesarini-Sforza, Widar, 59 Chadwick, James, 424 Charlier, Cari, 445, JSJ Chiocchetti, Emilio, 90 Chiodi, Pietro, 85, J6J Church, Alonzo, 356, 36o n., 361 n., J7I-JJ2 Chwistek, Leon, 208, 209, 269 n. Ciardo, Manlio, 6o Claparède, Édouard, 39 Codegone, C., 74 Codignola, Ernesto, 59 Cohen, ]. Pau!, 395-400, 176 Colletti, Lucio, 109, I II Colorni, Eugenio, 81 Conte, Amedeo G., 101 Cornu, Auguste, So Coser, Lewis A., 541, 543 Couturat, Louis, 53, 220, 243 Croce, Benedetto, 53, 57-62, 64, 71, 76, 95, III, 113, 250-253 Curie!, Eugenio, 66, 70, 77, 78 Curry, Haskell B., 286, 356 n.
Calamandrei, F., 77 Calogero, Guido, 58, J62 Campo, Mariano, 91 Cantoni, Remo, 70, So, 96, J67 Dacqué, Edgar, 146-147 Cantor, Georg, I96, 197, 198, Dal Pra, Mario, 74, SI, III D'Ambrosie, 75 225, 356 n. Decroly, Ovide, 14-15, 38, JJ8Capograssi, Giuseppe, 89 Capone Braga, Gaetano, 89 JJ9
593
www.scribd.com/Baruhk
Indice dei nomi Dedekind, Julius Wilhelm Richard, I97, I9S De Finetti, Bruno, 74 Della Volpe, Galvano, 63, 76, So, Io4, I07-I09, I I 3, J67 Del Pane, Luigi, I04 De Ruggiero, Guido, 6o, 92, J62 De Sarlo, Francesco, 6 I, S9, 92,
Galli, Gallo, S9 Gamow, George, 424, J84 Gangale, Giuseppe, 66 Garin, Eugenio, 74, J6J Gemelli, Agostino, SI, 90 Gentile, Giovanni, 55-57, 6I, 62, 7I, 76, II3 Gentile, Giovannino, 55 Gentile, Marino, SS J6J Descartes, René, -+ Cartesio Gentzen, Gerhard, 339-350 De Vreis, Hugo, ISI-IS2 Giacon, Carlo, SS, 9I Gioberti, Vincenzo, 92 Dewey, John, S3, S5 Gioia, Melchiorre, I I o Diano, Carlo, 95 Digges, Leonard, 443 Godei, Kurt, 27S, 305, 31 I-323, Dilthey, Wilhelm, 519-52I pS, 334-335, 340, 34I n., Dingler, Hugo, Ioi, IjS 349 n., 354, 356, J72-J7J, !76 Dirac, Pau! Adrien, 422, 423, Goebel, Karl, I47 Goethe, Johann Wolfgang, I47 !78 Goudsmit, Samuel Abraham, 42-2 Dollard, John, 4SS Doppler, Christian, 446 Gramsci, Antonio, 69, 79, I04, 110, III Driesch, Hans, 12S-I29 Granata, G., 75 Eddington, Arthur Stanley, S3, Grasselli, Giulio, S2 Grassi, Ernesto, S2 447, 45I, 466, J8J Gratton, Livio, So Einstein, Albert, 55 Engels, Friedrich, IIo, III, II2 Guastella, Cosmo, 62, J6J Enriques, Federigo, 52-54, 72, Guthrie, Edwin Ray, 4S4-4S5 Guye, Charles-Eugène, I42 96, II3, Jbr Erikson, Erik, 27 Guzzo, Augusto, S9, 92 Fachini, Giuseppe, So Fermi, Enrico, 423, 424 Ferrari, Giulio Cesare, 92 Ferrarotti, F., 74 Ferrata, Giansiro, 77 Ferretti, Gino Giuseppe, 59 Fichte, Johann Gottlieb, 92 Filiasi Carcano, P., 96 n., Io3, J66
Fiorani, Eleonora, I I I-I I2 Fiore, V., 75 Fisher, Ronald A., IS9 Flora, Francesco, 6o, J62 Formaggio, Dino, 70, So, 95, J67
Fortini, Franco, 77, !64 Fraenkel, Abraham A., 2I2, 270273, !73 Franchini, Raffaello, 6o Franz, Shepard Ivory, 475 Frege, Friedrich Gottlob, I95, I9S Freinet, Célestin, I 5 Freud, Anna, 25, !!9 Friedberg, Richard M., 365 Friedmann, Alexandr, 452 Frola, E., 74 Fromm, Erich, 47-4S Fubini, Mario, 6o, J62 Galilei, Galileo, 93, IoS
Hull, Clark Leonard, 4S0-4S2, !87
Hume, David, IOS Hunter, Walter Samuel, 473-474 Hurwitz, Adolf, I95 Husserl, Edmund, 6S, 69, 92, 93, 99 Hutchins, Robert Maynard, 45 Hylla, Erich, 44 Jaskowski, Stanislaw, 333 n., 34I n. Jaspers, Karl, S4, 90 Jennings, Herbert Spencer, 12S Johansen, Wilhelm Ludwig, IS2IS3, IS7 Jordan, Pascual, I43-I44 Jordan, Zbigniew A., 269 n.
Kant, Immanuel, 50, 62-65, 67, 69, S6, I05, Io6, IOS Keynes, John Maynard, I IO Kierkegaard, Soren Aabye, S6 Kilpatrick, William Heard, 2I-24, p, 4I, !!7-!!8 Kleene, Stephen Cole, 356, 357 n., 360-366, !74 Klein, Mélanie, 25, !!9 Kohler, Wolfgang, I56-I57 Kolmogorov, Andrej NikolaeHadamard, Jacques, I95 vic, 295, 3oo-3oi, 332-3.33 Haeckel, Ernst, I47 Konig, Julius, I96, 2II, 234 Haldane, John Burdon Sander- Kornilov, Konstantin, 494-496 Kotarbinski, Tadeuzs, 269 n., J7I son, I77-I79, IS9, !70 Haldane, John Scott, I3I-I35, Kreisel, Georg, 366, 3So, !7! I66-I67, !69 Kripke, Saul, 3S7-3S9, 39I Hardy, G.H., IS9 Kronecker, Leopold, 231-232 Hartmann, Eduard von, J68 Labriola, Antonio, 6S, 104 Hartmann, Heinz, 42-43 Hausdorff, Felix, 2 I I Lamanna, Eustachio Paolo, S9 Langford, Cooper Harold, 262 Hebb, Donald 0., 477-479 Hegel, Georg Wilhelm Friedrich, Lashley, Karl S., 475-476 Lasson, 65 54, 69, S5, Io6, IoS, I09 Heidegger, Martin, S4 La Via, Vincenzo, S2, S9 Heisenberg, Werner, 420-422, Lazzerini, Renato, S9 Lebesgue, Henri Léon, I99 n., 42S-43I, 432, !79 Henkin, Leon, 3I7 n. 244 n. Leibniz, Gottfried Wilhelm, 6I, Hepter, W., 269 n. Herbrand, Jacques, po-31 I, 34664, IOS Lemaltre, Georges, 4 52 347 Lenin (Vladimir Il'ic Ul'janov), Herzberg, ]., 269 n. III, II2, II5, II6 Hessen, Sergej, 17-I9, JJ8 Heyting, Arend, 202, 299 n., Leonetti, Alfonso, So 30I, 302, 330-334, 335, 36I n. Leonetti, Francesco, 79 Hilbert, David, 54, 2I2-2I6, 230- Leontiev, Aleksej Nikolaevic, I9, 234, 245, 256, 25S, 260 n., 496, 49S, !87 262, 2S6, 294, 299, 30I, 339, Lesniewski, Stanislaw, 269 n. Levi, Adolfo, 62, J6J 340, 350 n., 4oS, J72 Holt, Edwin Bissell, 474 Lewin, Kurt, 503-507 Lewis, Clarence Irving, 254, 262, Hoyle, Fred, 455 Hubble, Edwin Powell, 446 264-266
594
www.scribd.com/Baruhk
Indice dei nomi Lillie, Ralph S., I43 Lindembaum, Adolf, z69 Loeb, Jacques, IZ4-IZ7 Lombardi, Franco, 58-59, J62 Lombardo-Radice, Giuseppe, 59 Lowenheim, Leopold, 307-309, 313 Lukacs, So, Io8 Lukasiewicz, Jan, z66-z7o Luporini, Cesare, 63, 76, 79, 82, 86, I04-I07, I IO, J07 Luria, Aleksandr, 496, 498 Macchioro, Aurelio, Io9-I Io, Jo8 Mac Lane, Saunders, 4Io n. Maffi, Bruno, I IO Malcev, Anatolij lvanovic, 313 Malinowski, Bronislaw, 54I Mannheim, Karl, 548-5 53 Mao Tsetung, 69, 76 Markov, Andrej Andreevic, 357, 359 Markuschevic, Aleksej Ivanovic, I9 Marshall, A., I IO Martinetti, Piero, 65, 68, 76, 9I Marx, Karl, 33-34, 86, Ioo, I05Io8, I IO Masnovo, Amato, 9I Massolo, Arturo, 63, 79, 82, 86-87, JoJ Maturi, Sebastiano, 89 Mc Crea, W.H., 454 Mc Dougall, William, I 38 Mendel, Gregor, 18o-I8I Merker, Nicolao, Io9 Meyer-Abich, Adolf, I 34 Meyerson, Émile Azriel, 56 Michelstaedter, Carlo, 59 Miegge, G., 82 Mila, Massimo, 6o Miller, Neal, 488, 489 Millikan, Robert Andrews, 424 Milne, Edward Arthur, 452 Mirimanoff, Dimitri, 273 Mondolfo, Rodolfo, 68, I03-I04 Montague, Richard Merritt, 366 Morgan, ConwayLloyd, I37, J09 Morgan, Thomas H un t, I 24, I84-I85 Morpurgo Tagliabue, Guido, 95 Morris, Charles, IOI Moschovakis, Yannis Nicholas, 366 Mostowski, Andrzej, 395, J1J, !70
Mowrer, Hobart, 488, 489-490 Mucnik, A.A., 365 Miiller, Hermann Joseph, I85 Mussolini, Benito, 71 Myhill, John, z69 n., 332 n.
Nagel, Ernest, 433 Radcliffe-Brown, A., 54I Needham, Joseph, I74-I77, J68, Ragghianti, Carlo Ludovico, 6o Raggiunti, Renzo, 96 !70 Neumann, John von, 275-279, Ragionieri, Ernesto, I I z Ramsey, Frank Plumpton, 207, 29I, 292, 302, 303, 4I4 Newton, lsaac, Io6 208, 2II, 255, 280-285, 304, Nicod, Jean, 257 !72 Nietzsche, Friedrich, I45 Ranzoli, Cesare, 6I-6z, J6J Ravazzoli, Paoio, So Nuvoli, P., 74 Reichenbach, Hans, 56 Reid, Thomas, 88 Occhialini, Giuseppe, 424 Olgiati, Francesco, 90 Rensi, Giuseppe, 6z, JoJ Restaino, Franco, Ioi Omodeo, Adolfo, 6o, 75 Ostwald, Wilhelm, I25-126 Richard, Jules, 196, I97, 245 Ottaviano, C., 8I Rickert, Heinrich, po, 5ZI Riehl, 65 Paci, Enzo, 63, 70, 73, 76, So, Riemann, Bernhard, 407-408 Ritter, W.E., I4o 85, 92-95, Io7, J66 Padoa, Alessandro, 250 Robinson, Rafael Mitchel, 278 Padovani, Umberto, 88, 9I Rognoni, Luigi, 70, 95 Rosmini Serbati, Antonio, 88, 92 Paggi, M., 75 Rosser, J. Barkley, 3I6 n. Pandolfi, Vito, 77 Pannunzio, M., 75 Rossi, Bruno, 424 Papi, Fulvio, 70 Rossi, Mario Manlio, 62, 63, 65, Papini, Giovanni, 52 92, Io9, JoJ Parente, Alfredo, 6o Rossi, Paolo, 74 Pareto, Vilfredo, I Io Rossi, Pietro, 74, 85 Rossi-Landi, Ferruccio, 73, 74, Pareyson, Luigi, 82, 90, JOO Ioi-Ioz, J07 Park, Robert E., 54I, 542, J9I Roux, Wilhelm, I zz Parkhurst, Helen, 39 Parri, Ferruccio, 66 Rubinstein, Sergej, 499-500 Russell, Bertrand Arthur William, Parsons, Talcott, 54I-542, J90 Parsons, William, 446 53, 54, II3, I94-I96, I97, ZOO, Pasca!, Blaise, 88 ZOZ-2I2, 2I8-230, 243, 246, 28o-z85 Pastore, Annibale, 55, 92, JOI Pauli, Wolfgang, 42I-4zz, 429, Russell, Edward Stuart, I37-I41, I85, J09 !79, J80, J8J Peano, Giuseppe, 52, 53, 54, 55, Russell, Henry Norris, 446 92, 235, 236, 243 n., 246, 250, Russo, Luigi, 6o Ryle, Gilbert, IOI 251-253, JOI, !72 Pelloux, Luigi, 9I Sacks, Gerald E., 366 Persico, E., 74 Peter, Rosza, 355 Saitta, Giuseppe, 59 Petruzzellis, Nicola, 89 Salvatorelli, Luigi, 75 Piaget, Jean, I6, 4I, 507-5 I 2, Sartre, Jean-Paul, I07 Scarpelli, Uberto, IOI, I02, I03 !88 Piovesan, Renzo, IOI, Ioz Schaxel, Julius, I 53-I 54 Scheler, Max, 146, J9I Planck, Max, !79 P late, Ludwig, I 86 Schlick, Moritz, 56, 97 Platone, 86, 88, I08 Schoenfield, Joseph R., 365, J7I, Poincaré, Henri, 53, I98, I99!74 zoi, 223 n., 237, 238 n., 243- Schèinfinkel, Moses, 356 n. Schopenhauer, Arthur, I45 246 Post, Emi! Leon, 254, 256-258, Schrèidinger, Erwin, 420, 435, 357, 359, 363, 364, 365 !79 Preti, Giulio, 63, 70, 73, 78, So, Schultz, Julius, 127-128 Schutte, Kurt, 349 n. 9I, 97, 98-IOI, J07 Prior, Arthur Norman, 39I, 392 Sciacca, Michele Federico, 82, 88 Sears, Robert, 488 Quine, Willard van Orman, II3, Seeliger, Hugo von, 448 Semerari, Giuseppe, 96 2IO
595
www.scribd.com/Baruhk
Indice dei nomi Shapley, Harlow, 445 Sheffer, Henry Maurice, 257 Sherrington, Charles Scott, 47G Simmel, Georg, G5, 542 Sitter, Wilhelm de, 450-452 Skatkin, Mikhail Nikolaievic, 34 Skinner, Burrhus Frederick, 4S24S4, J86, J87 Skobel'tsyn, Dmitrij Vladimirovic, 424 Skolem, Thoralf, 212, 245 n., 255, 271-274, 293-295, 307-309, 313 S!eszynski, Jan, 2G9 n. Smirnov, Anatolij A., 19 Smuts, J an Christian, r 35- r 37 Solari, Gioele, 102 Somenzi, Vittorio, So, J67 Sommerfeld, Arnold, 420 Spencer, Herbert, G2 Spengler, Oswald, r 59 Spirito, Ugo, 57, J6z Spitz, René, 25 Spranger, G5 Stark, Werner, 550, 552 Stefanini, Luigi, S9-90, 92 Steiner, Albe, 77 Sukhodolski, Bogdan, 29 Sumner, W.G., 540 Sutton, Walter S., rS4
Teofrasto, 2G3 Terracini, Umberto, So Timpanaro, Sebastiano, r r 2 Togliatti, Palmiro, 75 Tolman, Edward Chace, 4S5-4SS Tresso, Pietro, So Trinchero, Mario, S5 Troilo, Erminio, G2, J6J Troll, Wilhelm, r4S Turing, A. Mathison, 357, 35S, 359 Twardowski, Kasimierz, 2G9 n. Uexkiill, Jacob von, 14S-152, J70 Uhlenbeck, George Eugene, 422 Ungerer, Emi!, 154-15G, J68 Vaccarino, Giuseppe, So Vailati, Giovanni, p, 54, 73, 92 ror, 113, 250 Vanni-Rovighi, Sofia, 92 Varisco, Bernardino, Gr, S9, J6J Veblen, Thorstein, 541, 544-545,
Washburne, Carleton W., rS, 32, 39> 40, 41, !!9 Weber, Max, 513, 5rG-539, J88J90
Weinberg, W., rS9 Weiss, Albert Pau!, 473 Weismann, August, I20-I2I, !22, 139, rS5 Weyl, Hermann, 225, 245 n., 292-293> J72 Whitehead, A. North, 92, 140, 1G7, 202, 221-222, 230 n., 2So2S5 Widmar, B., 75 Windelband, Wilhelm, po, pr Wittgenstein, Ludwig, ror, 209, 279 Wolf, Gustav, roS Woodger, Joseph Henry, 1G5173, J10 Wright, Georg Henryk von, J76 Wright Milis, Charles, 541, 545547, J9I
J90-J9I
Vedaldi, Armando, S7, J6J Verworn, Max, r2r-r23 Viano, Carlo Augusto, 74, S5 Vidoni, Ferdinando, rr2 Vigotsky, Leo, 49G-49S Vittorini, Elio, 77-7S, J64 Volpicelli, Arnaldo, 59 Volpicelli, Luigi, 59
Taine, Hyppolite, G2 Takeuti, Gaisi, 349 n. Tarozzi, Giuseppe, G2, J6J Wajsberg, Mordchaj, 2G9 Tarski, Alfred, 2G9, 317 n., 323- Wang, Hao, 332 n. Ward, L. Frank, 540 330, JJI, JlJ
www.scribd.com/Baruhk
Yukawa, Hideki, 425 Zawboni, Giuseppe, 91 Zankow, Leonid Vladimirovic, 20 Zawirski, Zygmund, 2G9 n. Zeremba, Stanislaw, 2G9 n. Zermelo, Ernst, 200, 211, 212, 234-242, 270-273 Zevi, Bruno, Go Zorbaugh, W., 543 Zwicky, Fritz, 453
INDICE DELLE CI'I'AZIONI CRI'I'ICHE
Abbagnano, Nicola -su Kant 63 - sulla filosofia 83-84 - sull'esistenzialismo 84 - sulla ragione 97 Asor Rosa -su Croce 6o Badaloni, Nicola - su Gramsci I I I Banfi, Antonio - su Carabellese 63 - sulla crisi di cultura nei primi due decenni del sec. xx 66 - sulla filosofia e sulla storia 67-69 - su Mao Tsetung 69 - sul marxismo 69 - sulla rivista « Studi filosofici » So - sui filosofi marxisti I04 Beker, Raymond de - su A. Adler 26 Bertoni Jovine, Dina - sulla pedagogia 29 Bobbio, Norberto - sulla figura dell'intellettuale
pedagogo 73 Borghi, Lamberto - sulla pedagogia 4 5
-
sul marxismo Io5, I07 su Kant I05-I06
Manacorda, Mario Alighiero - sulla pedagogia marxiana 33 Mazzetti, Roberto - sui problemi della pedagogia Della Volpe, Galvano 45 - sul principio strutturale della Merker, Nicolao nuova logica materialistica - su Della Volpe I09 I08-I09 Paci, Enzo Ferretti, Bruno - sull'esistenza 85 - sui problemi della pedagogia - sulla crisi della cultura euro46 pea 93-94 Persico, Enrico Haldane, John Scott - sulla fisica odierna 430, 43I- sull'affermazione dell'uomo 432, 434-435 nel mondo moderno I o Preti, Giulio- su Gentile 9I Labriola, Antonio - sulla necessità di una analisi Santoni Rugiu, Antonio di classe I07 - sulla pedagogia contemporaLeonetti, Francesco nea 12 Spirito, Ugo - su Vittorini 79 Luporini, Cesare ,...- su scienza e filosofia 57 - sull'attività della ragione 86
Curie!, Eugenio - sul Risorgimento 70
597
www.scribd.com/Baruhk
INDICE GENERALE
SEZIONE DECIMA
Problemi e dibattiti filosofici e scientifici CAPITOLO PRIMO
Nota introduttiva CAPITOLO SECONDO
Problemi fondamentali della pedagogia contemporanea DI RENATO TISATO
9
r Società democratica in cammino e « rivoluzione copernicana». r 3 II L'educazione in rapporto all'attività cognitiva e all'apprendimento. 20 III Educazione e formazione morale.
30 38 44
rv Educazione e formazione sociale. v Il problema dell'individualizzazione. vr La critica alla scuola progressiva nel campo borghese.
CAPITOLO TERZO
La filosofia italiana contemporanea DI LUDOVICO GEYMONAT E MARIO QUARANTA
50 51 56 59 65 70 75
r Struttura del capitolo. Difficoltà nei rapporti tra scienza e filosofia durante i primi decenni del secolo. III Sintomi di crisi all'interno dell'attualismo. rv Altri indirizzi idealistici. v Antonio Banfi. vr Profondo rinnovamento della problematica filosofica. VII Le nuove riviste filosofiche dell'immeII
82. 87 92 96 !03 II2.
diato dopoguerra. vrn L'esistenzialismo. rx Lo spiritualismo cristiano e la neoscolastica. x La fenomenologia. xr Il neoempirismo e la filosofia analitica. XII Il marxismo. XIII Scienza e filosofia. Rinascita del materialismo dialettico.
CAPITOLO QUARTO
Biologia e filosofia DI FELICE MONDELLA
II 8 II 9
r Premessa. Il meccanicismo biologico: difficoltà e contraddizioni. 128 III Alcune obiezioni al vitalismo. r 29 rv Critiche al meccanicismo e autonomia della biologia. r 31 v Organicismo, olismo ed emergentismo nei paesi anglosassoni. 141 vr Indeterminismo fisico e autonomia della vita. 144 VII Irrazionalismo e visioni biologiche del II
r 53 r 73 179 r86 191
mondo in Germania. Dal problema della totalità e della forma alle teorie dell'organizzazione biologica. rx Dall'organicismo al materialismo dialettico. x La genetica e la struttura materiale del «gene». xr La genetica e la nuova teoria dell'evoluzione. XII Conclusione. VIII
www.scribd.com/Baruhk
Indice generale CAPITOLO QUINTO
La logica nel ventesimo secolo ( r) DI CORRADO MANGIONE I94 2I7
I La crisi II I primi
dei fondamenti. venti anni del secolo ventesimo. Gli anni venti.
254
III
305 366
Gli anni trenta. v Dopo la seconda guerra mondiale. Sguardo su alcuni sviluppi della ricerca odierna. IV
CAPITOLO SESTO
Problemi filosofici della matematica e della fisica odierne 402 404 408 4I2 4I5 4I9
I Considerazioni preliminari. II Il metodo assiomatico in
VII Il significato filosofico attribuito al principio di indeterminazione. 428 VIII La base metodologica dei principi di indeterminazione e di complementarità. 43I Ix Considerazioni critiche sulla presunta « dimostrazione >> dei principi della meccanica quantistica. 43 5 x Considerazioni critiche sulla filosofia usualmente connessa alla meccanica quantistica. 426
matematica. III Conseguenze filosofiche dell'assiomatizzazione della matematica moderna. IV Sollecitazioni che provengono alla matematica dalle altre scienze. v Il potenziamento della matematica applicata. VI Uno sguardo allo sviluppo della fisica quantistica.
CAPITOLO SETTIMO
Nuovi aspetti della cosmologia DI UGO GIACOMINI 44I 442 444 448
4 53
La rinascita odierna della cosmologia. II Breve richiamo ai principali modelli cosmologici del passato. III La connessione tra tecniche osservative e modelli cosmologici. IV La cosmologia relativistica e i suoi principali modelli di universo. v La nuova cosmologia e i modelli dell'universo in stato stazionario. I
457 460
464
467
VI La rivoluzione cosmologica e le nuove idee di materia dopo il I966. VII Differenze tra la cosmologia e le altre scienze. Il concetto di « modello di universo». VIII I rapporti fra cosmologia e astronomia: obiezioni contro la scientificità della cosmologia. IX Cosmologia e filosofia oggi.
CAPITOLO OTTAVO
La psicologia scientifica contemporanea DI FRANCA MEOTTI 47I 473 475 479
Considerazioni introduttive. II Il primo behaviorismo. III Alcune ricerche neurofisiologiche nell'ambito del behaviorismo. IV Il neo-behaviorismo e le teorie dell'apprendimento. I
490 492 503 507
v Considerazioni generali sul neo-behaviorismo. VI La psicologia sovietica dopo Pavlov. VII Kurt Lewin. VIII Jean Piaget.
CAPITOLO NONO
Weber e gli indirizzi della sociologia contemporanea DI PINA MADAMI
5 I3 p6 5I9 526
555
593 597
Considerazioni preliminari. Vita di Max Weber. III L'oggettività nelle scienze storico-sociali. IV L'etica protestante e lo spirito del capitalismo.
I II
529 v La sociologia di Weber. 53 7 VI Valutazioni conclusive. 539 vn La sociologia dopo Weber. 548 VIII La sociologia della conoscenza.
Bibliografia INDICE DEI NOMI INDICE DELLE CITAZIONI CRITICHE
www.scribd.com/Baruhk