L’ENTROPIA SVELATA La seconda legge della termodinamica ridotta a puro buon senso Arieh Ben-Naim
Introduzione e traduzione a cura di Diego Casadei
Proprietà letteraria riservata © libreriauniversitaria.it Editore Webster srl, Padova, Italy I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adattamento totale o parziale con qualsiasi mezzo (compresi i microfilm e le copie fotostatiche) sono riservati per tutti i Paesi. Nessuna parte di questa pubblicazione può essere riprodotta, distribuita o trasmessa in qualsivoglia forma senza l’autorizzazione scritta dell’Editore, a eccezione di brevi citazioni incorporate in recensioni o per altri usi non commerciali permessi dalla legge sul copyright. Per richieste di permessi contattare in forma scritta l’Editore al seguente indirizzo:
[email protected]
ISBN: 978-88-6292-011-7 Prima edizione: luglio 2009 Titolo originale: Entropy demistified. The Second Law reduced to a plain common sense World Scientific Publishing Company, 2007.
Il nostro indirizzo internet è: www.libreriauniversitaria.it
Per segnalazioni di errori o suggerimenti relativi a questo volume potete contattare: Webster srl Via Stefano Breda, 26 Tel.: +39 049 76651 Fax: +39 049 7665200 35010 - Limena PD
[email protected]
Stampato da Logo srl Via Marco Polo, 8 - Borgoricco (PD) www.logosrl.com
Questo libro è dedicato a Ludwig Boltzmann
Fotografia scattata dall’autore a Vienna nel settembre 1978.
v
ORDINE
DISORDINE
vii
Introduzione La termodinamica classica, così come viene insegnata ancora oggi, è una teoria formalizzata nel corso del XIX secolo, quando il modello a cui tendevano tutti i fisici era la meccanica formulata da Isaac Newton (1642–1727) nei Principia[Newton, 1687], costruita basandosi su pochi semplici principi utilizzando un linguaggio matematico rigoroso per ottenere risultati confrontabili con i risultati sperimentali. Con la grandezza del suo genio Newton ha unificato i fenomeni terreni e quelli celesti, grazie all’ipotesi che la gravità responsabile della caduta dei corpi lasciati liberi — celebre è l’aneddoto della caduta di una mela matura da un ramo — sia la stessa che attrae i corpi celesti e spiega le osservazioni di Keplero sul moto dei pianeti. La meccanica di Newton è costruita in modo deduttivo, partendo da poche definizioni e dall’enunciato dei suoi famosi tre principi della dinamica e sviluppando teoremi che rappresentano i risultati da confrontare con gli esperimenti. Lo scopo è mostrare in quale modo il moto venga modificato da qualsiasi tipo di forza, inclusa la gravità, e la trattazione si riferisce a sistemi altamente idealizzati, in cui si immagina di avere corpi con dimensioni trascurabili (“puntiformi”, come si suol dire) in moto nel vuoto (o nell’aria, di cui però si trascura la resistenza), corpi solidi indeformabili con superfici perfettamente lisce e così via. La termodinamica, invece, fin dall’inizio ha avuto l’obiettivo di descrivere sistemi molto più complessi con un’attenzione particolare rivolta al miglioramento della costruzione delle macchine che avevano permesso la rivoluzione industriale. Non potendo affrontare la descrizione di sistemi così complessi partendo dalle leggi newtoniane, i fisici dovettero ricorrere a un tipo di descrizione diverso: si scelse di osservare quantità macroscopiche, ottenendo una descrizione molto più grossolana del sistema fisico. Tuttavia, il risultato fu di nuovo una teoria sviluppata in modo rigoroso a partire da pochi assiomi (i principi della termodinamica). Ciò che si studia ancora oggi è molto simile alla formulazione data nel 1850 da Rudolf Clausius (1822–1888), a cui si deve anche l’introduzione del concetto di entropia.
L’entropia svelata
Da una parte la meccanica newtoniana descrive ogni singola particella con estrema precisione e permette di predirne il moto futuro a partire dalla conoscenza del suo stato dinamico (posizione e velocità) a un certo istante, sebbene trovare la soluzione delle equazioni del moto sia un problema insormontabile quando si considerino molte particelle. Dall’altra la termodinamica affronta sistemi composti da un numero enorme di particelle, caratterizzati utilizzando poche quantità (ad esempio, temperatura, pressione, volume, eccetera) e quindi rinunciando fin dal principio a fornirne una descrizione completa (dal punto di vista meccanico). Le descrizioni termodinamiche si possono applicare a moltissimi sistemi, anche molto diversi fra loro (dai motori termici alle reazioni chimiche, dai buchi neri all’intero universo visibile!), proprio in virtù della loro “grossolanità”, risultando utilissime in molti campi della scienza. Storicamente non sono mancati gli esempi in cui i risultati sperimentali mostravano aspetti incompatibili con la termodinamica classica. Tuttavia, proprio dai casi più critici scaturì la rivoluzione concettuale che segnò all’inizio del XX secolo la transizione verso la meccanica quantistica. Emilio Segrè (1905–1989) affermò che “la termodinamica, durante le successive rivoluzioni nella fisica del XX secolo, è rimasta stabile come una roccia, e [. . . ] i grandi innovatori, Planck e Einstein, la usarono come un’ancora quando tutto sembrava dovere essere messo in dubbio.”[Segrè, 1996, cap. 4, pag. 291]. Tuttavia, risulta impossibile derivare la termodinamica classica dalle leggi della meccanica newtoniana, ovvero non la si può “spiegare” in termini meccanici. In particolare, l’interpretazione della sempre crescente entropia rappresentava già per i contemporanei di Clausius un problema centrale. Infatti, per la meccanica classica tutti i fenomeni sono reversibili nel tempo, mentre in termodinamica esiste una quantità fondamentale, l’entropia, che fissa una direzione allo scorrere del tempo. È Ludwig Boltzmann (1844-1906) per primo a capire che solamente l’introduzione dell’approccio statistico permette di conciliare i due punti di vista. Tuttavia, tradizionalmente i corsi di termodinamica classica non vi si soffermano più di tanto, rimandando a corsi specifici lo sviluppo dettagliato di questo approccio fondamentale. Uno spiacevole effetto collaterale di questa abitudine è che, anche al giorno d’oggi, gli studenti che affrontano la termodinamica classica rimangono perplessi dal fatto che, nonostante tutti i loro sforzi, non riescano a comprendere la seconda legge. Purtroppo, non tutti proseguono i loro studi fino ad affrontare la termodinamica statistica, la teoria che fornisce la “spiegazione” della seconda legge. Per fortuna, oggi tutti possono beneficiare della lettura di quex
Introduzione
sto libro, scritto da un professore universitario che per tre decadi si è trovato di fronte alle perplessità degli studenti alle prese con la seconda legge della termodinamica. Arieh Ben-Naim ha scritto questo libro rivolgendosi a chiunque voglia conoscere la “spiegazione” della seconda legge. Per non ostacolare nessuno, ha evitato l’uso di formule matematiche (limitandosi allo stretto minimo indispensabile, corredato di minuziose spiegazioni e relegato in paragrafi non essenziali, quando non addirittura in note a pie’ di pagina) e ha impostato la presentazione nel modo più graduale possibile. Inoltre, il suo linguaggio è estremamente semplice e diretto, colloquiale e teso a instaurare un rapporto diretto con il lettore. Questa versione italiana introduce varie correzioni, incluse nella nuova edizione inglese. Pur cercando di non alterare lo stile dello scritto originale, in pochi casi ho preferito modificare alcune frasi, che tradotte letteralmente sarebbero apparse incomprensibili o inappropriate. Inoltre, le numerose citazioni presenti nel testo sono state tradotte dall’originale anche nei casi in cui esista una traduzione italiana (nella bibliografia troverete tutte quelle che sono riuscito a trovare tramite Internet), per cui è probabile che le frasi riportate qui non coincidano perfettamente con quelle della traduzione ufficiale. Infine, ho aggiunto al testo originale alcune note (identificate dalla sigla N.d.T., ovvero “nota del traduttore”), nei punti in cui mi sembrava che il lettore italiano a cui il libro è indirizzato potesse beneficiare di qualche informazione in più. Spero che la lettura risulti piacevole e istruttiva tanto quanto lo è stata per me. Ai lettori che dovessero trovare errori o volessero suggerire modifiche chiedo cortesemente di inviare i loro messaggi a me, in modo che possa capire se si tratta di problemi introdotti dalla mia traduzione, piuttosto che di aspetti del lavoro originale (nel qual caso mi occuperò di inoltrare il messaggio ad Arieh Ben-Naim). Diego Casadei Department of Physics New York University New York, USA
[email protected] http://cern.ch/casadei
xi
Prefazione Sin da quando ho sentito la parola “entropia” per la prima volta, sono stato affascinato dalla sua natura misteriosa. Ricordo vivamente il mio primo incontro con l’entropia e con la Seconda Legge della Termodinamica. È stato più di quarant’anni fa. Ricordo la sala, chi faceva lezione, persino il posto dove sedevo; nella prima fila, di fronte al podio da cui la docente parlava. La docente stava spiegando il ciclo di Carnot, l’efficienza dei motori termici, le diverse formulazioni della Seconda Legge e, infine, introdusse l’intrigante e misteriosa quantità chiamata Entropia. Ero perplesso e disorientato. Fino a quel momento la docente aveva discusso concetti che ci erano familiari: calore, lavoro, energia e temperatura. Improvvisamente era stata introdotta una parola completamente nuova, mai sentita prima e con un significato completamente nuovo. Io aspettai pazientemente con l’intenzione di chiedere qualcosa, anche se non sapevo esattamente quale domanda fare. Che cos’è questa cosa chiamata entropia e perché essa cresce sempre? A conclusione della sua esposizione la docente disse “Se non capite la Seconda Legge, non scoraggiatevi. Siete in buona compagnia. Non riuscirete a comprenderla a questo livello, ma la capirete quando studierete termodinamica statistica al prossimo anno”. Con questi commenti finali, si svincolò dalla necessità di fornire qualsiasi altra spiegazione sulla Seconda Legge. L’atmosfera rimase carica di mistero. Io e molti altri presenti alla lezione rimanemmo senza parole con l’insoddisfazione provocata dal nostro profondo bisogno di comprendere. Anni dopo capii che la docente aveva ragione nel dichiarare che solo la meccanica statistica svela il segreto per comprendere l’entropia e che senza la meccanica statistica non c’è modo di capire che cosa si celi dietro il concetto di entropia e dietro la Seconda Legge. Tuttavia, all’epoca noi tutti sospettammo che la docente avesse scelto un modo elegante di evitare domande imbarazzanti alle quali non avrebbe potuto rispondere. Quindi accettammo il suo consiglio, anche se controvoglia.
L’entropia svelata
Quell’anno imparammo a calcolare i cambiamenti di entropia che avvengono in molti processi, dall’espansione dei gas ideali al miscelarsi dei gas fino al trasferimento del calore da un corpo più caldo a uno più freddo e molti altri processi spontanei. Affilammo le nostre abilità nel calcolo dei cambiamenti di entropia, ma non riuscimmo veramente a catturare l’essenza del significato di entropia. Facevamo i calcoli con destrezza professionale, pretendendo di considerare l’entropia solamente una quantità tecnica, ma dentro di noi sentivamo che l’entropia era rimasta circondata da un fitto alone di mistero. Che cos’è quella cosa chiamata entropia? Noi sapevamo che era stata definita in termini di calore trasferito (reversibilmente) diviso per la temperatura assoluta, ma essa non era né calore né temperatura. Perché cresce sempre, quale carburante usa per spingersi sempre più su? Eravamo avvezzi alle leggi di conservazione, leggi che sono considerate più “naturali”. Materia ed energia non si possono produrre dal nulla, ma l’entropia sembra sconfiggere il nostro senso comune. Come può una quantità fisica continuare inesorabilmente a “produrre” se stessa in continuazione senza un’apparente sorgente? Ricordo di aver ascoltato in una delle lezioni di chimica-fisica che l’entropia di una soluzione di argon in acqua è grande e negativa.1 La spiegazione fu che l’argon accresce la struttura dell’acqua. Incremento di struttura equivale a incremento di ordine. L’entropia era vagamente associata al disordine. Quindi, si supponeva che questo potesse spiegare la diminuzione di entropia. Durante quelle lezioni il docente spiegò che l’entropia di un sistema può decrescere se quel sistema è accoppiato con un altro sistema (come un termostato) e che la legge dell’incremento sempre positivo dell’entropia è solamente valida per un sistema isolato — un sistema che non interagisce con ciò che lo circonda. Quel fatto servì solo ad accrescere il senso del mistero. Non solo non sappiamo quale sia la sorgente che fornisce il carburante per la sempre crescente entropia, ma addirittura nessuna sorgente è ammessa in linea di principio: nessun meccanismo di alimentazione e nessun approvvigionamento di alcunché proveniente dall’esterno. Inoltre, da dove sbucano “struttura” e “ordine” nella discussione dell’entropia, un concetto definito in termini di calore e temperatura? Un anno dopo imparammo la meccanica statistica e in parallelo la relazione esistente tra l’entropia e il numero degli stati, la famosa relazione di 1
Questo fu un altro argomento affascinante che alla fine scelsi per la mia tesi di dottorato. xiv
Prefazione
Boltzmann che è scolpita sulla lapide di Ludwig Boltzmann a Vienna.2 La relazione di Boltzmann fornisce un’interpretazione dell’entropia in termini di disordine: l’incremento sempre positivo di entropia è interpretato come il modo in cui la natura procede dall’ordine al disordine. Ma perché un sistema dovrebbe andare dall’ordine al disordine? Ordine e disordine sono concetti intangibili, mentre l’entropia è definita in termini di calore e temperatura. Il mistero del perpetuo incremento di disordine di un sistema non risolve il mistero dell’entropia. Ho insegnato termodinamica e meccanica statistica per molti anni. Durante quegli anni gradualmente realizzai che il mistero associato alla Seconda Legge non può mai essere rimosso nel contesto della termodinamica classica (ovvero della formulazione non atomistica della Seconda Legge; si veda il capitolo 1). D’altra parte, ho anche capito che, guardando la Seconda Legge dal punto di vista molecolare, non c’è alcun mistero. Credo che il punto di svolta nella mia stessa comprensione dell’entropia, e quindi anche nella mia capacità di spiegarla agli studenti, sia stato lo scrivere un articolo sull’entropia di mixing e l’entropia di assimilazione. Fu solo allora che mi sentii in grado di penetrare la foschia che circonda l’entropia e la Seconda Legge. Mi diventò chiaro (durante la scrittura di quell’articolo) come due punti chiave della teoria atomistica della materia fossero cruciali nel disperdere gli ultimi sprazzi delle nuvole sovrastanti l’entropia: i grandi (inimmaginabilmente grandi) numeri e l’indistinguibilità delle particelle che costruiscono la materia. Una volta dissipata la foschia, ogni cosa divenne chiara come il cristallo. Non solo chiara, ma invero ovvia; il comportamento dell’entropia, un tempo difficile da capire, fu ridotto a una semplice questione di buon senso. Inoltre, capii improvvisamente che non si ha bisogno di conoscere affatto la meccanica statistica per comprendere la Seconda Legge. Questo potrebbe suonare contraddittorio, visto che ho appena affermato che la meccanica statistica fornisce indizi necessari alla comprensione della Seconda Legge. Ciò che ho scoperto fu che tutto ciò che serve è la formulazione atomistica dell’entropia e niente altro occorre della meccanica statistica. Questa scoperta costituì una potente motivazione per la scrittura di questo libro, che è indirizzato a chi non ha mai sentito parlare di meccanica statistica. Durante la scrittura di questo libro, mi sono chiesto varie volte quale fosse stato il momento esatto in cui decisi di doverlo scrivere. Penso che ci siano state almeno tre occasioni. 2
Una fotografia è mostrata nella pagina con dedica di questo libro (pagina v). xv
L’entropia svelata
Quando realizzai quanto cruciali e indispensabili fossero il fatto che la materia sia composta da un enorme numero di particelle e che tali particelle siano indistinguibili le une dalle altre. Questi fatti erano ben noti da almeno un secolo, ma mi sembra che essi non fossero abbastanza enfatizzati dagli autori che scrivevano a proposito della Seconda Legge. Il secondo momento fu durante la lettura dei due libri di Brian Greene [Greene, 1999, 2004]. Nel discutere l’entropia e la Seconda Legge, Greene scrisse [Greene, 2004]: Fra gli aspetti dell’esperienza comune che hanno resistito ad ogni tentativo di completa spiegazione ve n’è uno che sfocia nei più profondi misteri irrisolti della fisica moderna.
Non potei credere che Greene, che aveva spiegato così brillantemente e in parole semplici così tanti difficili concetti della fisica moderna, avesse potuto scrivere queste parole. La terza motivazione riguarda più l’estetica che la sostanza. Dopo tutto, ho insegnato termodinamica statistica e la Seconda Legge per molti anni, persino usando giochi di dadi per illustrare che cosa accade nei processi spontanei. Ad ogni modo, ho sempre trovato logicamente e persino esteticamente insoddisfacente la corrispondenza tra i i dadi che cambiano faccia e le particelle che corrono a occupare tutto lo spazio accessibile in un processo di espansione. Come vedrete nel capitolo 7, ho preso in considerazione la corrispondenza fra dadi e particelle e fra il risultato del lancio dei dadi con le posizioni delle particelle. Questa corrispondenza è corretta. Potete sempre assegnare un nome a una particella in un compartimento a destra chiamandola “particella-D” e un altro a una nel compartimento di sinistra chiamandola “particella-S”. Comunque, fu solamente durante la scrittura dell’articolo sull’entropia di mixing e l’entropia di assimilazione che “scoprii” un processo diverso per cui questa corrispondenza potesse essere resa in modo più “naturale” e soddisfacente. Mi riferisco a tale processo chiamandolo “deassimilazione”. Si tratta di un processo spontaneo per il quale il cambiamento di entropia è dovuto solamente all’acquisizione di nuove identità da parte delle particelle. La corrispondenza è ora tra un dado e una particella e tra l’identità del risultato del lancio di un dado e l’identità della particella. Ho trovato questa corrispondenza più gratificante esteticamente e un perfetto esempio per la pubblicazione della corrispondenza tra il gioco dei dadi e il processo reale di deassimilazione. In questo libro ho deliberatamente evitato uno stile tecnico di scrittura. Invece di insegnare che cosa sia l’entropia, come essa cambi e, soprattutxvi
Prefazione
to, perché cambi in una direzione sola, preferisco semplicemente guidarvi affinché possiate scoprire la Seconda Legge e godere della soddisfazione di svelare da soli il mistero che circonda l’entropia. Per la maggior parte del tempo ci troveremo giocando, o immaginando di giocare, semplici giochi con i dadi. Incominciando con un dado, poi due dadi, poi dieci, cento o mille, svilupperete le vostre abilità nell’analisi di ciò che accade. Scoprirete quale sia quella cosa che cambia nel tempo (ovvero con il numero di passi in ogni gioco) e come e perché essa cambi. Quando arriverete a un grande numero di dadi sarete capaci di estrapolare con facilità tutto ciò che avrete imparato da un piccolo numero di dadi per arrivare a un sistema contenente un enorme numero di dadi. Dopo aver sperimentato il funzionamento della Seconda Legge nel mondo dei dadi e raggiunto la piena comprensione di ciò che succede, rimane solo un passo per il quale dovrò aiutarvi con il capitolo 7. Allora tradurremo ogni cosa imparata dal mondo dei dadi nel mondo reale degli esperimenti. Una volta che avrete padroneggiato l’evoluzione nel mondo dei dadi, sarete capaci di capire la Seconda Legge della termodinamica. Ho scritto questo libro tenendo a mente un lettore che non sappia nulla di scienza e matematica. L’unico prerequisito per la lettura di questo libro è il puro buon senso e la ferma decisione di applicarlo. Un avvertimento prima che cominciate a leggere il libro: “buon senso” non significa una lettura facile e senza sforzo. Ci sono due “abilità” che dovrete sviluppare. La prima è che vi dovrete allenare a pensare in termini di grandi numeri, numeri fantasticamente grandi, numeri inconcepibilmente grandi e oltre. Vi aiuterò in questo nel capitolo 2. La seconda è un pochino più sottile. Dovrete imparare come distinguere tra uno specifico evento (ovvero stato o configurazione) e un evento (ovvero stato o configurazione) indistinto. Non abbiate paura di questi termini dal suono tecnico.3 Avrete abbondanti esempi per familiarizzarvi con essi. Essi sono indispensabili per la comprensione della Seconda Legge. Se avete dubbi sulla vostra abilità di capire questo libro, vi suggerisco di eseguire un semplice test. Andate direttamente alla fine del capitolo 2 (sezioni 2.7 e 2.8), dove troverete due quiz, disegnati specificamente per mettere alla prova la vostra comprensione dei concetti di “specifico” e “indistinto”. 3
Nella meccanica statistica questi termini corrispondono a “microstati” e “macrostati”. Nella maggior parte del libro ci occuperemo del gioco dei dadi e i dadi sono sempre macroscopici. Questo è il motivo per il quale adotto invece gli aggettivi “specifico” e “indistinto”. [Il termine inglese originale, tradotto con “indistinto”, è “dim”. N.d.T.] xvii
L’entropia svelata
Se risponderete correttamente alle domande, vi garantisco che capirete l’intero libro facilmente. Se non saprete rispondere alle domande o, dopo aver provato, fornirete una risposta sbagliata, non scoraggiatevi. Guardate le mie risposte a tali domande. Se vi sembreranno ragionevoli anche se non siete stati capaci di fornirle direttamente, credo possiate leggere e capire il libro, anche se magari con un po’ più di fatica. Se non sapete le risposte alle domande e persino dopo aver letto le mie risposte vi sentite persi, penso comunque che la comprensione del libro non sia oltre le vostre capacità. Vi suggerisco di leggere attentamente il capitolo 2 e di allenarvi a pensare in termini probabilistici. Se avete bisogno di ulteriore aiuto, siete invitati a scrivermi e prometto di fare del mio meglio per aiutarvi. Di nuovo, non siate impauriti dal termine “probabilistico”. Se non vi sorprende di non aver vinto un premio da un milione alla lotteria, nonostante abbiate spesso acquistato biglietti, è perché state pensando “probabilisticamente”. Vi racconto una piccola storia per rendervi più familiare questa parola altisonante. Mio padre era solito acquistare un biglietto della lotteria ogni settimana, e lo fece per circa sessant’anni. Egli era sicuro che qualcuno “lassù” gli volesse bene e che gli avrebbe accordato la grande vincita. Ho provato ripetutamente a spiegargli che le sue probabilità di vincita del primo premio erano veramente basse (in effetti, meno di un centesimo di percento). Ma egli fu sordo a ogni mio tentativo di spiegargli le sue chance. Qualche volta riuscì persino a indovinare sette o otto numeri su dieci (il primo premio corrisponde a dieci numeri indovinati), facendomi notare sprezzante come io non fossi stato capace di vedere i “segni” chiari e inequivocabili che riceveva da Lui. Era sicuro di essere sulla strada giusta per la grande vincita. Di settimana in settimana le sue speranze si affievolivano o si rinforzavano seguendo la quantità di numeri esatti che otteneva o, meglio ancora, seguendo il tipo di segni che credeva di ricevere da Lui. Poco prima di morire, all’età di 96 anni, mi disse che era alquanto contrariato, come se fosse stato tradito dalla divinità alla quale aveva creduto per tutta la vita. Io fui rattristato nel capire che non aveva mai pensato (e forse non avrebbe mai potuto pensare) in termini probabilistici! Se non avete mai sentito parlare della Seconda Legge o dell’entropia, potete leggere la breve e non matematica descrizione delle varie formulazioni e manifestazioni della Seconda Legge nel capitolo 1. Nel capitolo 2, presento alcuni elementi di base della teoria della probabilità e dell’informazione di cui avrete bisogno per poter esprimere le vostre scoperte in termini probaxviii
Prefazione
bilistici. Dovete capire che i fondamenti sia della teoria della probabilità sia di quella dell’informazione sono basati su niente più che il puro buon senso. Non avete bisogno di avere alcun background in matematica, fisica o chimica. Le sole cose che dovete conoscere sono: come si conta (matematica!), che la materia è composta di atomi e molecole (fisica e chimica!) e che gli atomi sono indistinguibili (questa è fisica avanzata!). Tutte queste cose sono spiegate in termini non matematici nel capitolo 2. Nei capitoli 3, 4, 5 giocheremo a dadi variando il numero dei dadi. Guardate che cosa accade e traete le vostre conclusioni. Avremo moltissime occasioni per “sperimentare” la Seconda Legge con tutti i nostri cinque sensi. Ciò riflette in maniera minuscola l’immensa varietà di manifestazioni della Seconda Legge nel mondo fisico reale. Nel capitolo 6 riassumeremo le nostre scoperte. Lo faremo in termini che saranno facili da tradurre nel linguaggio degli esperimenti reali. Il capitolo 7 è dedicato alla descrizione di due semplici esperimenti nei quali l’entropia aumenta; la sola cosa che dovrete fare è la corrispondenza tra il numero di dadi e il numero di particelle in una scatola e tra i diversi risultati del lancio dei dadi e i differenti stati delle particelle. Una volta fatta tale corrispondenza, potrete facilmente sfruttare tutto ciò che avrete imparato dai giochi di dadi per capire la Seconda Legge nel mondo reale. Quando avrete finito di leggere il capitolo 7 avrete anche compreso che cosa sia l’entropia e come e perché essa si comporta in modo apparentemente capriccioso. Vedrete che non c’è alcun mistero nel suo comportamento: esso semplicemente segue le regole del buon senso. Nel capire i due processi specifici discussi nel capitolo 7, comprenderete chiaramente come lavora la Seconda Legge. Certamente, ci sono molti altri processi che sono “guidati” dalla Seconda Legge e non è sempre semplice e diretto mostrare come la Seconda Legge lavori in questi processi. Per questo, dovrete conoscere un po’ di matematica. Ci sono molti altri processi complicatissimi nei quali noi crediamo che la Seconda Legge operi, pur senza avere ancora alcuna prova matematica di questo. I processi biologici sono di gran lunga troppo complicati per un’analisi sistematica a livello molecolare. Sebbene io sia al corrente che molti autori fanno uso della Seconda Legge a proposito dei vari aspetti della vita, credo che a questo livello ciò sia oltremodo prematuro. Concordo appieno con Morowitz [Morowitz, 1992] che scrisse: “l’uso della termodinamica in biologia ha una lunga storia di confusione”. Nell’ultimo capitolo, ho aggiunto alcune riflessioni e speculazioni personali. Queste non sono da considerarsi opinioni universalmente accettate xix
L’entropia svelata
e le vostre critiche a tutto ciò che dico in tale capitolo sono le benvenute. Il mio indirizzo e-mail si trova alla fine di questa prefazione. Il mio scopo principale nella scrittura di questo libro è aiutarvi a rispondere a due domande associate alla Seconda Legge. Una è: Che cos’è l’entropia? La seconda è: perché essa cambia in una sola direzione, in apparente contrasto con la simmetria temporale delle altre leggi della fisica? La seconda domanda è la più importante. Essa è il cuore e il nocciolo del mistero associato alla Seconda Legge. Spero di convincervi che: (1) la Seconda Legge è di base una legge di probabilità; (2) le leggi della probabilità sono di base le leggi del buon senso; (3) Segue da (1) e (2) che la Seconda Legge è di base una legge del buon senso. Niente di più. Ammetto ovviamente che le affermazioni (1) e (2) sono state formulate molte volte da diversi autori. La prima è implicata nella formulazione di Boltzmann della Seconda Legge. La seconda è stata espressa da Laplace, uno dei fondatori della teoria delle probabilità. Di certo, non posso dichiarare di essere il primo a fare tale affermazioni. Forse posso dichiarare di essere il primo a enunciare che quella di “basilarità” è una relazione transitiva, ovvero che l’affermazione (3) segue da (1) e (2). La prima domanda riguarda il significato di entropia. Per circa un secolo, gli scienziati hanno speculato su questa domanda. L’entropia è stata interpretata come una misura di disordine, mescolanza, disorganizzazione, caos, incertezza, ignoranza, informazione mancante e altro. A quanto ne so, la discussione è ancora in corso. Persino in libri recenti importanti scienziati esprimono opinioni diametralmente opposte. Nel capitolo 8 descriverò dettagliatamente il mio punto di vista su tale questione. Là commenterò brevemente come l’entropia possa essere resa identica, sia formalmente sia concettualmente, con una misura specifica di informazione. Questo è un punto di vista ancora ben lontano dall’essere universalmente accettato. L’origine della difficoltà nell’accettare questa identità è che l’entropia è una quantità misurabile fisicamente, avente dimensioni di energia diviso temperatura, e quindi si tratta di una quantità oggettiva. D’altra parte l’informazione è vista come una quantità adimensionale nebulosa, che esprime qualche sorta di attributo umano come la conoscenza, l’ignoranza o l’incertezza e che, quindi, si tratta di una quantità estremamente soggettiva.4 4
Altri dettagli su questo aspetto dell’entropia si possono trovare in Ben-Naim [2008]. xx
Prefazione
A dispetto dell’apparente inconciliabilità tra un’entità oggettiva e una soggettiva, io affermo e sostengo che l’entropia è informazione. Che una o l’altra di queste sia oggettiva o soggettiva è una questione che invade il campo della filosofia o della metafisica. La mia opinione è che entrambe siano quantità oggettive. Ma se qualcuno pensa che una sia soggettiva, allora dovrà ammettere che anche l’altra debba essere soggettiva. C’è uno scambio di concessioni se vogliamo ottenere queste identità. Dobbiamo ridefinire la temperatura in unità di energia. Ciò richiederà il sacrificio della costante di Boltzmann, che avrebbe dovuto essere stata eliminata dal vocabolario della fisica. Ciò porterà alcuni altri vantaggi nella meccanica statistica. Per lo scopo di questo libro, l’assenza della costante di Boltzmann renderà l’entropia automaticamente adimensionale e pure identica a una misura dell’informazione. Una volta per tutte, questo “esorcizzerà” il mistero dell’entropia. Al lettore di questo libro io oso promettere quanto segue. 1. Se avete mai imparato qualcosa sull’entropia e ne siete rimasti disorientati, io prometto di sciogliere il mistero. 2. Se avete già sentito parlare dell’entropia e non siete rimasti confusi, vi prometto l’immunità da ogni futura mistificazione. 3. Se siete circa a metà tra le due o qualcuno che ha sentito parlare dell’entropia ma non l’ha mai imparata o ancora se avete sentito parlare del profondo mistero che circonda l’entropia, allora vi prometto che leggendo questo libro voi sarete confusi e mistificati! Non dall’entropia e neppure dalla Seconda Legge, ma dall’intero strombazzamento sul “mistero” dell’entropia! 4. Infine se leggerete questo libro attentamente e diligentemente ed eseguirete i piccoli esercizi disseminati nel libro, proverete la gioia di scoprire e comprendere qualcosa che ha eluso la comprensione per molti anni. Dovreste anche sentire un profondo senso di soddisfazione nel capire “uno dei più profondi irrisolti misteri nella fisica moderna”. Ringraziamenti Voglio esprimere i miei più sinceri ringraziamenti e la mia stima a tutti coloro i quali hanno accettato di leggere, in parte o in toto, il manoscritto e hanno espresso commenti e critiche. xxi
L’entropia svelata
Voglio ringraziare prima di tutto i miei amici e colleghi Azriel Levy e Andres Santos per la loro lettura meticolosa e per il controllo dell’intero manoscritto. Mi hanno salvato da errori imbarazzanti di cui non mi ero accorto. Ringrazio anche Shalom Baer, Jacob Bekenstein, Art Henn, Jeffrey Gordon, Ken Harris, Marco Pretti, Samuel Sattath e Nico van der Vegt, che hanno letto parte del manoscritto e mi hanno spedito commenti preziosi. Infine, voglio esprimere i miei sinceri ringraziamenti alla mia compagna di vita Ruby per la sua pazienza nel combattere con la mia calligrafia confusa e nel correggere e ri-correggere il manoscritto. Senza il suo benevolo aiuto questo manoscritto non avrebbe visto la luce. La progettazione del libro ha avuto un lungo periodo di incubazione. La scrittura del libro è cominciata in realtà in Spagna, a Burgos, ed è stata completata a La Jolla, California, USA. Arieh Ben-Naim Department of Physical Chemistry The Hebrew University Jerusalem, Israel
[email protected] http://www.ariehbennaim.com/
PS: Giusto nel caso vi stiate chiedendo il significato delle piccole figure alla fine di ogni capitolo lasciatemi dire che, da quando ho assunto la responsabilità di spiegarvi la Seconda Legge, ho deciso di fare un piccolo spionaggio sui vostri progressi. Ho posizionato queste icone in modo da controllare i vostri progressi nel comprendere la Seconda Legge. Vi invito a confrontare lo stato della vostra comprensione con la mia valutazione. Se non siete d’accordo, fatemelo sapere e farò del mio meglio per aiutarvi. xxii
Prefazione all’edizione italiana È per me grande onore e piacere scrivere questa breve prefazione alla traduzione italiana del libro. La versione italiana non sarebbe stata possibile senza l’appassionato interesse e l’entusiasta aiuto del Dr. Diego Casadei. Egli è stato fra i lettori del mio libro che mi hanno fornito una lista di commenti che sarà preziosa per la preparazione della prossima edizione.5 Egli ha anche letto e commentato la bozza del mio libro più recente, A Farewell to Entropy. Statistical Thermodynamics Based on Information (World Scientific, 2008), a cui rimando i lettori che desiderino trovare un trattamento matematico più completo. Credo che i suoi inestimabili commenti, assieme alla lettura sistematica e meticolosa del testo, avranno una grande influenza sul suo contenuto. Sebbene io non parli italiano, sono sicuro che il Dr. Casadei abbia compiuto un ottimo lavoro nel tradurre il libro, apportandovi persino maggiore chiarezza e precisione. Ho in programma di sfruttare i suoi commenti e suggerimenti per la prossima edizione inglese. Spero che i lettori italiani di questo libro possano apprezzarlo tanto quanto a me è piaciuto scriverlo. Spero anche che possano divertirsi a leggere di un argomento che è rimasto circondato dal mistero per un tempo lunghissimo. Ci si può aspettare che la traduzione del Dr. Casadei contribuisca a svelare tale mistero. Chi avesse qualche commento, suggerimento o critica su qualsiasi aspetto del libro è cordialmente invitato a scrivere a me o al Dr. Casadei. Arieh Ben-Naim
5
Pubblicata pochi mesi dopo la stesura di questa prefazione (maggio 2008). N.d.T.
Indice Introduzione
ix
Prefazione Indice 1
2
xiii xxiv
Introduzione e breve storia della Seconda Legge della termodinamica 1.1 La formulazione non-atomistica della Seconda Legge . . . . 1.2 La formulazione atomistica della Seconda Legge . . . . . . .
1 1 7
Una breve storia della teoria della probabilità, della teoria dell’informazione e tutto il resto 2.1 La definizione classica . . . . . . . . . . . . . . . . . . . . . . 2.2 La definizione basata sulle frequenze relative . . . . . . . . . 2.3 Eventi indipendenti e probabilità condizionale . . . . . . . . 2.4 Tre avvertimenti . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Probabilità condizionale e probabilità soggettiva . . 2.4.2 Probabilità condizionale e nesso causa-effetto . . . . 2.4.3 Probabilità condizionale e probabilità congiunta . . 2.5 Un sorso di teoria dell’informazione . . . . . . . . . . . . . . 2.6 Un sorsino di matematica, fisica e chimica . . . . . . . . . . 2.7 A proposito di lotterie . . . . . . . . . . . . . . . . . . . . . . 2.8 A proposito di ordine e disordine . . . . . . . . . . . . . . . . 2.9 Un problema difficile . . . . . . . . . . . . . . . . . . . . . . . 2.10 Risposte ai problemi . . . . . . . . . . . . . . . . . . . . . . . 2.10.1 Risposte al problema della roulette . . . . . . . . . . 2.10.2 Risposte a “a proposito di lotterie” . . . . . . . . . . . 2.10.3 Risposte a “a proposito di ordine e disordine” . . . . 2.10.4 Risposta a “un problema difficile” . . . . . . . . . . .
15 24 26 29 33 33 36 38 40 47 53 53 55 57 57 58 59 60
L’entropia svelata
3
4
5
Dapprima giochiamo con dadi reali 3.1 Un solo dado . . . . . . . . . . . 3.2 Due dadi . . . . . . . . . . . . . 3.3 Tre dadi . . . . . . . . . . . . . . 3.4 Quattro e più dadi . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
Giochiamo con dadi semplificati e diamo un primo sguardo alla Seconda Legge 4.1 Due dadi; N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Quattro dadi; N = 4 . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Dieci dadi; N = 10 . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Cento dadi; N = 100 . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Mille dadi; N = 1000 . . . . . . . . . . . . . . . . . . . . . . . 4.6 Diecimila dadi; N = 10000 . . . . . . . . . . . . . . . . . . . . Sperimentate la Seconda Legge con tutti i vostri cinque sensi 5.1 Osservate con la vostra vista . . . . . . . . . . . . . . . . . . 5.2 Annusate con il vostro olfatto . . . . . . . . . . . . . . . . . 5.3 Assaporate con il vostro gusto . . . . . . . . . . . . . . . . . 5.4 Ascoltate con il vostro udito . . . . . . . . . . . . . . . . . . 5.5 Sentite con il vostro tatto . . . . . . . . . . . . . . . . . . . .
. . . . .
63 63 64 68 69
75 77 79 81 87 87 89 95 95 98 99 101 102
6
Infine, afferratela con il vostro buon senso
7
Passiamo dal mondo dei dadi al mondo reale 119 7.1 La corripondenza con il processo di espansione . . . . . . . 120 7.2 La corrispondenza con il processo di deassimilazione . . . . 127 7.3 Riassunto dell’evoluzione del sistema verso lo stato di equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 7.4 Miscelazione di tre componenti . . . . . . . . . . . . . . . . . 139 7.5 Trasferimento di calore da un gas caldo a uno freddo . . . . 141 7.6 Mettete alla prova la vostra comprensione della Seconda Legge 146
8
Riflessioni sullo stato della Seconda Legge della Termodinamica come legge della fisica 151 8.1 Qual è l’origine del mistero? . . . . . . . . . . . . . . . . . . . 153 8.2 L’associazione dell’entropia al “disordine” . . . . . . . . . . . 159 8.3 L’associazione dell’entropia all’informazione mancante . . . 161 xxvi
105
Indice
8.4 8.5 8.6
La Seconda Legge è intimamente associata alla direzione del tempo? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 La Seconda Legge della Termodinamica è una legge della fisica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 Possiamo fare a meno della Seconda Legge? . . . . . . . . . . 175
Bibliografia
177
xxvii
1
Introduzione e breve storia della Seconda Legge della termodinamica In questo capitolo presenterò alcune importanti pietre miliari nella storia della Seconda Legge della Termodinamica. Presenterò anche diverse formulazioni della Seconda Legge in modo descrittivo. Nel fare questo necessariamente sacrificherò la precisione. Il punto nodale qui non è insegnarvi la Seconda Legge, ma darvi una descrizione qualitativa dei tipi di fenomeni che portarono gli scienziati del XIX secolo a formulare la Seconda Legge. Ci sono molte formulazioni della Seconda Legge della Termodinamica. Le raggrupperemo tutte in due classi concettualmente diverse: nonatomistiche e atomistiche.1
§ 1.1 La formulazione non-atomistica della Seconda Legge Tradizionalmente la nascita della Seconda Legge è associata al nome di Sadi Carnot (1796–1832). Sebbene Carnot non abbia formulato di persona la Seconda Legge,2 il suo lavoro ha gettato le fondamenta sulle quali la Seconda Legge fu enunciata pochi anni dopo da Clausius e Kelvin. Carnot si interessò di motori termici e, in particolare, alla loro efficienza. Il motore termico più semplice è mostrato in figura 1.1. Supponiamo di avere un contenitore di volume V contenente un fluido qualsiasi, gas o liquido. 1
Con formulazione “non-atomistica” intendo la discussione della Seconda Legge senza alcun riferimento alla costituzione atomica della materia. Qualche volta si dice anche che questa formulazione considera la materia come un continuo. Il punto importante qui è enfatizzare che tali formulazioni fanno uso solo di quantità misurabili o osservabili macroscopicamente, senza alcun riferimento alla natura atomica della materia. Ciò non implica che la formulazione si applichi alla materia non-atomistica o continua. Come vedremo in seguito, se la materia fosse veramente non-atomistica o continua, la Seconda Legge non esisterebbe. 2 Questa è l’opinione più diffusa. Alcuni autori si riferiscono a Carnot come all’“inventore” o allo “scopritore” della Seconda Legge.
Capitolo 1
L’entropia svelata
Livello Due
Livello Uno
T1 = 0 C
T1 = 0 C
Isolante
Serbatoio
Isolante
Serbatoio
Isolante
T1 = 0 C
T2 = 100 C
I Stato 1
II Stato 2
III Stato 3
IV Stato 4
Stato 5
Figura 1.1 Motore termico
La parte superiore del contenitore è sigillata da un pistone mobile. Questo sistema è chiamato motore termico. Il contenitore si trova inizialmente nello Stato 1, termicamente isolato e alla temperatura T, diciamo 0 C. Come primo passo nel funzionamento di questo motore (Step I), posizioniamo un peso sul pistone. Il fluido verrà compresso un po’. Il nuovo stato è lo Stato 2. Di seguito, colleghiamo al contenitore un serbatoio di calore (Step II). Un serbatoio di calore, o termostato, è semplicemente un grande corpo a temperatura costante, diciamo T2 = 100 C. Quando il contenitore è collegato al termostato, dell’energia termica fluisce da esso al motore termico. Per semplicità, assumiamo che il serbatoio di calore sia immenso a confronto delle dimensioni del sistema costituito dal motore. In figura 1.1, il termostato è mostrato solo al di sotto del motore, anche se dovrebbe circondarlo interamente. Questo garantisce che, una volta ragiunto l’equilibrio, il sistema abbia la stessa temperatura T2 del termostato. Sebbene il serbatoio di calore abbia “perso” un po’ di energia, la sua temperatura rimane praticamente inalterata. Quando il gas (o il liquido) nel motore si scalda, si espande, spingendo di conseguenza il pistone verso l’alto. A questo stadio il motore ha compiuto del lavoro utile, sollevando il peso posizionato sopra il pistone da un livello uno a un livello superiore due. Il nuovo stato è lo Stato 3. Fino a questo punto il motore ha assorbito una certa quantità di energia sotto forma di calore, ricevuta dal serbatoio di calore, con la quale ha potuto compiere un certo lavoro sollevando il peso (che a sua volta potrebbe ruotare le ruote di un treno, o produrre elettricità, eccetera). Rimuovendo il peso (Step III), il fluido può espandersi ulteriormente. Lo stato finale è lo Stato 4. Se vogliamo convertire questo dispositivo in un motore che ripetuta2
1.1 La formulazione non-atomistica della Seconda Legge
Capitolo 1
mente compia lavoro, che ad esempio sollevi pesi (dal livello uno al livello due), dobbiamo farlo lavorare in maniera completamente ciclica. Per fare questo, dobbiamo riportare il sistema indietro fino allo stato iniziale, ovvero raffreddare il motore fino alla sua temperatura inizale T1 . Questo può essere ottenuto (Step IV) collegando il contenitore a un termostato a temperatura T1 = 0 C (di nuovo, assumiamo che il serbatoio di calore sia molto più grande del nostro sistema, di modo che la sua temperatura rimanga praticamente inalterata mentre è collegato al motore). Il motore si raffredderà fino alla temperatura iniziale T1 e, se portiamo via il peso, il sistema ritornerà allo stato iniziale e il ciclo potrà ripetersi. Questo non è il cosiddetto “ciclo di Carnot”. Nonostante ciò, esso possiede tutti gli elementi di un motore termico, compiendo lavoro operando tra due temperature T1 e T2 . L’effetto netto della ripetizione dei cicli è che del calore, ovvero l’energia termica, è pompato dentro il motore da un corpo a temperatura T2 = 100 C, del lavoro è compiuto sollevando un peso e un’altra quantità di energia termica è pompata fuori dal motore, dentro un corpo a temperatura inferiore T1 = 0 C. Il ciclo di Carnot è diverso in alcuni dettagli. La differenza più importante è che tutti i processi si compiono molto gradualmente e molto lentamente.3 Tali dettagli qui non ci interessano. Carnot era interessato all’“efficienza” di un tale motore, operante tra due temperature sotto certe condizioni ideali (ad esempio, un pistone a massa nulla, nessun attrito, nessuna perdita di calore, eccetera). Al tempo della pubblicazione del lavoro di Carnot [Carnot, 1824], si credeva che il calore fosse un tipo di fluido, chiamato calorico. Carnot era principalmente interessato a determinare limiti all’efficienza dei motori termici. Egli scoprì che l’efficienza limite dipende solamente dal rapporto tra le temperature fra le quali il motore opera e non dalla sostanza (ovvero dal particolare gas o liquido) usata nel motore. Più tardi fu dimostrato che l’efficienza del motore termico ideale di Carnot non può essere superata da alcun altro motore. Questa fu la pietra angolare per la formulazione della Seconda Legge e spianò la strada alla comparsa del nuovo termine “entropia”. Fu William Thomson (1824–1907), in seguito noto come Lord Kelvin, che per primo formulò la Seconda Legge della Termodinamica. Di base, la 3
Tecnicamente si dice che i processi avvengono in maniera “quasi-statica”. Qualche volta questo è anche chiamato “processo reversibile”. Questo aggettivo, tuttavia, è anche usato per un altro tipo di processo in cui l’entropia non cambia. Quindi, il termine “quasi-statico” è preferibile perché più appropriato. 3
Capitolo 1
L’entropia svelata
T2 = 100 C
T1 = 0 C
T = 50 C
Figura 1.2 Motore termico
formulazione di Kelvin dice che non può esistere alcun motore ciclico il cui solo effetto consista nel prelevare energia da un singolo serbatoio di calore convertendola completamente in lavoro. Sebbene tale motore non contraddicesse la Prima Legge della Termodinamica (la legge di conservazione dell’energia totale), tale formulazione pose un limite al lavoro che poteva essere svolto facendo operare un motore tra due termostati a temperature diverse. In termini semplici, riconoscendo che il calore è una forma d’energia, la Seconda Legge della Termodinamica afferma che è impossibile convertire completamente il calore (energia termica) in lavoro (sebbene l’opposto sia possibile, ovvero il lavoro può essere completamente convertito in calore, ad esempio, mescolando un fluido con un agitatore magnetico o facendo girare meccanicamente una ruota nel fluido). Questa impossibilità è qualche volta enunciata dicendo che “un moto perpetuo del secondo tipo è impossibile”. Se tale “moto perpetuo” fosse possibile, si potrebbe usare l’enorme serbatoio termico costituito dagli oceani per muovere le navi, che si lascerebbero dietro solo una scia di acqua leggermente più fredda. Sfortunatamente, questo è impossibile. Un’altra formulazione della Seconda Legge della Termodinamica fu data in seguito da Rudolf Clausius (1822–1888). Di fondo, la formulazione di Clausius è ciò che ognuno di noi ha osservato: il calore fluisce sempre da un corpo a temperatura maggiore (che quindi si raffredda) a uno a temperatura minore (che si scalda). Non osserviamo mai il processo contrario svolgersi spontaneamente. La formulazione di Clausius afferma che non esiste alcun processo il cui effetto netto sia solo il trasferimento di calore da un corpo freddo a uno caldo. Certamente possiamo ottenere questo trasferimento se compiamo lavoro sul fluido (e questo è esattamente ciò che il processo di refrigerazione compie). Ciò che Clausius affermò fu che il processo di trasferimento di calore tra un corpo caldo e uno freddo, quando questi vengono messi a contatto, è il solo che si svolge spontaneamente, mentre non si può mai osservare il processo contrario. Questo è mostrato schematicamente in figura 1.2, che mostra che cosa avviene quendo due corpi inizialmente isolati sono messi in contatto termico. 4
1.1 La formulazione non-atomistica della Seconda Legge
Capitolo 1
Figura 1.3
Figura 1.4
Ad ogni modo, un semplice ragionamento può essere articolato per dimostrare l’equivalenza dei due enunciati, come si può trovare in qualsiasi testo elementare di termodinamica. Ci sono molte altre formulazioni o manifestazioni della Seconda Legge della Termodinamica. Per esempio, un gas confinato in un volume V , se libero di espandersi rimuovendo una partizione, procederà sempre in una direzione (figura 1.3).4 Il gas si espanderà fino a occupare l’intero nuovo volume, ad esempio 2V . Non osserviamo mai un’inversione di questo processo, ovvero un gas che inizialmente occupa il volume 2V non converge spontaneamente fino a occupare un volume minore, ad esempio V . Ci sono molti altri processi con cui siamo familiari che procedono in un solo senso e mai nella direzione opposta, come quelli rappresentati nelle figure 1.2, 1.3, 1.4, 1.5. Il calore scorre sempre da un corpo a temperatura maggiore a uno a temperatura minore (figura 1.2); la materia va da una concentrazione maggiore a una minore (figura 1.3); due gas si miscelano spontaneamente (figura 1.4); una piccola goccia di inchiostro che cade in un bicchiere d’acqua si mescolerà spontaneamente con il liquido fino a colorare uniformemente l’acqua (figura 1.5). Non osserviamo mai il contrario di questi processi. Tutti questi processi hanno una cosa in comune. Essi procedono in una sola direzione e mai spontaneamente nella direzione opposta. Ma è ben lontano dall’essere chiaro il fatto che tutti siano guidati da una comune legge di natura. Fu Clausius a vedere il principio comune a tutti questo processi. Ricordate che la formulazione di Clausius della Seconda Legge non è altro 4
La Seconda Legge può anche essere formulata in termini di espansione spontanea di un gas. Si può anche dimostrare che questa formulazione, così come l’altra, è equivalente alla formulazione di Clausius e Kelvin. 5
Capitolo 1
L’entropia svelata
Figura 1.5
che un’affermazione di qualcosa a cui tutti noi siamo abituati. La grandezza del risultato di Clausius fu la previsione che tutti questi processi spontanei sono governati dalla stessa legge e che esiste una quantità che regola la direzione in cui gli eventi si sviluppano, una quantità che cambia sempre in una sola direzione in un processo spontaneo. Questo è stato paragonato a una freccia o a un vettore diretto in una direzione sull’asse del tempo. Clausius introdusse il nuovo termine entropia. Nello scegliere il termine “entropia”, Clausius scrisse:5 Io preferisco utilizzare i linguaggi antichi per i nomi delle quantità scientifiche importanti, in modo che essi abbiano lo stesso significato in tutte le lingue vive. Propongo quindi di chiamare S l’entropia di un corpo, dalla parola greca che significa “trasformazione”. Ho quindi coniato di proposito la parola entropia in modo che suoni simile a energia, dato che queste due quantità sono così analoghe nel loro significato fisico che un’analogia nelle denominazioni mi sembra utile.
Nel dizionario Merriam-Webster 2003 “entropia” è definita come: cambiamento, letteralmente svolta, una misura dell’energia non disponibile in un sistema termodinamico chiuso. . . una misura del grado di ordine del sistema. . .
Come vedremo nel capitolo 8, il termine entropia nel senso in cui lo intese Clausius è un termine inadeguato. Comunque, al tempo in cui esso fu coniato il significato molecolare dell’entropia non era conosciuto e compreso. Infatti, come vedremo in seguito, “entropia” non è la “trasformazione” (né il “cambiamento”, né la “svolta”): è qualcos’altro che si trasforma o cambia o evolve nel tempo. Con il nuovo concetto di entropia si poté proclamare la formulazione più generale e onnicomprensiva della Seconda Legge. In ogni processo spontaneo che si svolga in un sistema isolato, l’entropia non decresce mai. Questa 5
Citato da Cooper [1968]. 6
1.2 La formulazione atomistica della Seconda Legge
Capitolo 1
formulazione, che è molto generale, poiché riguarda molti processi, gettò il seme del mistero associato al concetto di entropia, il mistero che riguarda una quantità che non è soggetta a legge di conservazione. In fisica siamo abituati alle leggi di conservazione. Questo ha senso:6 la materia non si crea dal nulla, l’energia non ci è data gratis. Tendiamo a considerare una legge di conservazione come “comprensibile”, come qualcosa che “abbia senso”. Ma come può una quantità crescere indefinitmente e perché? Che cosa rifornisce tale inesorabile crescita? Non sorprende che la Seconda Legge e l’entropia possano essere circondate da mistero. In effetti, nel contesto della teoria macroscopica della materia, la Seconda Legge della Termodinamica è inspiegable. Avrebbe potuto rimanere un mistero per sempre, se la natura atomistica della materia non fosse stata scoperta e non avesse conquistato l’accettazione della comunità scientifica. Così, con la formulazione macroscopica raggiungiamo un vicolo cieco nella nostra comprensione della Seconda Legge della Termodinamica.
§ 1.2 La formulazione atomistica della Seconda Legge Prima dello sviluppo della teoria cinetica del calore (che si basa sul riconoscimento della natura atomistica della materia), la termodinamica fu applicata senza alcun riferimento alla composizione della materia — come se la materia fosse un continuo. Con questo approccio mancò qualsiasi ulteriore interpretazione dell’entropia. Questo di per sé non è inusuale. Ogni legge della fisica raggiunge un vicolo cieco quando la si accetta così com’è, senza alcun ulteriore comprensione. Inoltre, la Seconda Legge fu formulata come una legge assoluta — l’entropia cresce sempre in un processo spontaneo in un sistema isolato. Questo non differisce da ogni altra legge: ad esempio, le leggi di Newton sono sempre rispettate — nessuna eccezione.7 Un enorme passo in avanti nella nostra comprensione dell’entropia e della Seconda Legge della Termodinamica fu possibile grazie all’interpretazione statistica dell’entropia di Boltzmann — la famosa relazione tra l’entropia e il numero totale di microstati di un sistema caratterizzato macroscopicamente da valori fissati per energia, volume e numero di particelle. Date un’occhiata all’illustrazione nel frontespizio o alla fotografia della statua di Boltzmann a 6
Dicendo che “ha senso” intendiamo dire che è esperienza comune, non necessariamente una conseguenza del ragionamento logico. 7 “Sempre” nell’ambito dei fenomeni studiati a quel tempo, a cui oggi ci si riferisce come alla meccanica classica. 7
Capitolo 1
L’entropia svelata
pagina v. Ludwig Boltzmann (1844–1906),8 assieme a Maxwell e molti altri, sviluppò ciò che oggi è noto con il nome di “teoria cinetica dei gas” o “teoria cinetica del calore”. Questo non solo condusse all’identificazione della temperatura, che possiamo sentire tramite il tatto, con il movimento delle particelle che costituiscono la materia, ma anche all’interpretazione dell’entropia in termini del numero di stati accessibili al sistema. La formulazione atomistica dell’entropia fu introdotta da Boltzmann in due stadi. Dapprima Boltzmann definì una quantità che egli denotò con H e mostrò che, come risultato delle collisioni molecolari e poche altre ipotesi, tale quantità diminuisce sempre e raggiunge un valore minimo all’equilibrio. Boltzmann chiamò questo teorema “teorema del minimo”, che più tardi divenne famoso come il teorema-H di Boltzmann (pubblicato nel 1872). Inoltre, Boltzmann mostrò che un sistema di particelle con qualsiasi distribuzione iniziale di velocità raggiunge l’equilibrio termico. A questo punto H raggiunge il suo minimo e la distribuzione di velocità risultante deve necessariamente essere la cosiddetta distribuzione di Maxwell delle velocità (si veda anche il capitolo 7). A quel tempo la teoria atomistica della materia non era ancora stata né dimostrata né universalmente accettata. Sebbene l’idea di “atomo” fosse nella mente degli scienziati da oltre duemila anni, non c’era alcuna stringente prova della sua esistenza. Ciò nonostante, la teoria cinetica del calore era in grado di spiegare la pressione e la temperatura dei gas. Ma che dire riguardo all’entropia, la quantità introdotta da Clausius senza alcun riferimento alla composizione molecolare della materia? Boltzmann notò che la sua quantità H si comportava in modo simile all’entropia. Si deve solo ridefinire l’entropia come il negativo di H per ottenere una quantità che cresce sempre col passare del tempo e che rimane costante una volta che il sistema raggiunge l’equilibrio termico. Il teorema-H di Boltzmann attirò critiche non solo da persone come Ernst Mach (1838–1916) e Wilhelm Ostwald (1853–1953), che non credevano che gli atomi esistessero, ma anche dai suoi colleghi e cari amici.9 Alla base della critica stava l’apparente conflitto tra la reversibilità temporale10 o simmetria temporale delle equazioni di moto di Newton e l’asimmetria temporale della quantità H di Boltzmann (conosciuto come “obie8
Per un’affascinante storia della biografia di Boltzmann, si vedano Broda [1983]; Lindley [2001]; Cercignani [2003]. 9 Ad esempio, Loschmidt scrisse nel 1876 che la Seconda Legge non può essere un risultato di un principo puramente meccanico. 10 Dovremmo sottolineare come Greene [2004] abbia enfatizzato il fatto che la simmetria 8
1.2 La formulazione atomistica della Seconda Legge
Capitolo 1
zione della reversibilità” o “paradosso della reversibilità”). Questo conflitto tra la reversibilità delle collisioni molecolari e l’irreversibilità di H era veramente profondo e non poté essere riconciliato. Come si può derivare una quantità che distingua fra passato e futuro (cioè sempre crescente nel tempo), da equazioni del moto per le quali passato e futuro sono indifferenti? Le equazioni di Newton possono essere usate per descrivere l’evoluzione delle particelle sia nel passato sia nel futuro. Nel teorema-H vengono convogliate nozioni provenienti sia dalla meccanica sia dalla probabilità, la prima deterministica e simmetrica nel tempo, l’altra stocastica e temporalmente asimmetrica. Questo conflitto sembrava essere un difetto fatale nel teorema-H di Boltzmann. Si sospettava che qualcosa fosse sbagliato in questo teorema o perlomeno nella notevole ipotesi della natura atomistica della materia. Questo fu chiaramente un ostacolo per il teorema-H di Boltzmann e forse una (temporanea) vittoria dei non-atomisti. La reazione di Boltzmann all’obiezione di reversibilità fu che il teoremaH vale per la maggior parte del tempo, ma in casi estremamente rari può succedere il contrario, cioè H potrebbe crescere, ovvero l’entropia decrescere con il tempo. Questo era insostenibile. La (non-atomistica) Seconda Legge della termodinamica, come ogni altra legge della fisica, fu concepita e enunciata come assoluta — non v’era alcuno spazio per le eccezioni, neppure se rare. Nessuno aveva mai osservato violazioni della Seconda Legge. Così come non c’erano eccezioni alle equazioni del moto di Newton,11 non avrebbero dovuto esserci eccezioni alla Seconda Legge, neppure in casi rari. La Seconda Legge deve essere assoluta e inviolabile. A quel punto, ci si trovò con due punti di vista evidentemente differenti sulla Seconda Legge. Da un lato stava la legge classica, non atomistica e assoluta, formulata da Clausius e Kelvin e racchiusa nell’affermazione che l’entropia non può mai decrescere in un sistema isolato. Dall’altro c’era la formulazione atomistica di Boltzmann che pretendeva che l’entropia crescesse “per la maggior parte del tempo”, ma con eccezioni, sebbene rarissime. Boltzmann affermava che l’entropia potesse decrescere — che non si trattasse di impossibilità, ma solo di improbabilità.12 temporale non coinvolga il ribaltarsi del tempo stesso o il fatto che esso possa “scorrere” all’indietro. Piuttosto, la simmetria temporale è connessa al fatto che gli eventi che accadano nel tempo in un particolare ordine possono anche accadere nell’ordine opposto. Un modo più appropriato di esprimersi potrebbe essere “inversione degli eventi” o “dei processi”. 11 Nei limiti della meccanica classica. 12 Come vedremo nei capitoli 7 e 8, la non assolutezza ammessa per la formulazione atomistica della Seconda Legge è, in effetti, più assoluta che non la proclamata assolutezza 9
Capitolo 1
L’entropia svelata
In ogni caso, visto che tutte le osservazioni sembrano supportare la natura assoluta della Seconda Legge, sembrò che Boltzmann subisse una sconfitta e con lui la visione atomistica della materia. A dispetto di queste critiche Boltzmann non si arrese. Egli riformulò le sue idee sull’entropia. Invece del teorema-H, che aveva un piede nel campo della meccanica e l’altro nel regno della probabilità, Boltzmann ancorò entrambi i piedi fermamente al suolo della probabilità. Questo fu un modo radicalmente nuovo e sconosciuto di pensare in fisica. A quel tempo, la probabilità non era parte della fisica (non era neppure parte della matematica). Boltzmann dichiarava che l’entropia o, meglio, l’entropia atomistica fosse uguale al logaritmo del numero totale di disposizioni di un sistema. In questa formulazione completamente nuova non v’era traccia delle equazioni del moto delle particelle. Questa entropia sembra corrispondere a una definizione nuova e ad hoc, che si basa su una quantità svuotata di ogni significato fisico: il numero di stati o il numero di configurazioni. Questa entropia atomistica aveva in sé spazio per eccezioni che permettessero all’entropia di decrescere, anche se con una probabilità estremamente bassa. A quel tempo le eccezioni permesse dalla formulazione di Boltzmann sembrarono indebolire la validità della sua formulazione, in confronto alla formulazione atomistica della Seconda Legge, assoluta e inviolabile. Nel capitolo 8 ritornerò su questo punto sottolineando che, in effetti, lo spazio permesso alle eccezioni rafforza piuttosto che indebolire la formulazione atomistica. Sembrò esserci una fase di stagnazione come risultato dei due punti di vista inconciliabili sulla Seconda Legge. Si dovette aspettare che la teoria atomica della materia guadagnasse la piena accettazione per veder trionfare la formulazione di Boltzmann. Sfortunatamente ciò accadde solo dopo la morte di Boltzmann, avvenuta nel 1906. Un anno prima un articolo teorico fondamentale scritto da Einstein sul moto browniano condusse alla vittoria la visione atomistica della materia. A prima vista, questa teoria sembra non aver nulla a che fare con la Seconda Legge. Il moto browniano fu osservato dal botanico inglese Robert Brown (1773 –1858). Il fenomeno è molto semplice: particelle piccolissime, come quelle del polline, si vedono muovere in modo apparentemente casuale quando della formulazione non-atomistica. Su questo argomento Poincaré commentò: “... per vedere che il calore passa da un corpo freddo ad uno più caldo, non sarà necessario avere la visione acuta, l’intelligenza e la destrezza del diavoletto di Maxwell; sarà sufficiente avere un po’ di pazienza”, citato da Leff & Rex [1990]. 10
1.2 La formulazione atomistica della Seconda Legge
Capitolo 1
sono in sospensione nell’acqua. Si credette inizialmente che questo moto incessante fosse dovuto a qualche minuscolo organismo vivente in movimento nel liquido. Tuttavia, Brown e altri mostrarono più tardi che lo stesso fenomeno accade quando particelle inanimate e inorganiche vengono spruzzate in un liquido. Albert Einstein (1879–1955) fu il primo a proporre una teoria per il cosiddetto moto browniano.13 Einstein credeva nella composizione atomica della materia e fu anche un convinto sostenitore di Boltzmann.14 Egli sostenne che, se ci sono tantissimi atomi o molecole che vagano caoticamente in un liquido, allora ci devono anche essere fluttuazioni. Quando particelle minuscole (a confronto delle dimensioni macroscopiche, tuttavia grandi rispetto alle dimensioni delle molecole del liquido) sono immerse in un liquido, esse sono “bombardate” continuamente dalle molecole del liquido. Tuttavia, ogni tanto ci sarà qualche asimmetria in questo bombardamento delle particelle in sospensione, con il risultato che le minuscole particelle si muoveranno qua e là in modo zigzagante. Nel 1905 Einstein pubblicò una teoria su questi movimenti caotici, come parte della sua dissertazione dottorale.15 Una volta che la sua tesi fu corroborata dagli sperimentali, in particolare da Jean Perrin (1870–1942), l’accettazione della teoria atomistica divenne inevitabile. La termodinamica classica, basata sull’ipotesi della natura continua della materia, non ha spazio per le fluttuazioni. In effetti, le fluttuazioni in un sistema macroscopico sono estremamente piccole. Per questo motivo non riusciamo a osservare fluttuazioni in un pezzo macroscopico di materia. Ma con le piccolissime particelle browniane le fluttuazioni sono ingrandite e rese osservabili. Con l’accettazione della composizione atomica della materia, ci fu anche l’accettazione dell’espressione di Boltzmann per l’entropia. Dobbiamo notare che questa formulazione dell’entropia prese rapidamente il sopravvento e non risentì affatto (né richiese modifiche) delle due grandi rivoluzioni che accaddero nella fisica all’inizio del XX secolo: la mec13
È interessante notare come i fondatori della teoria cinetica dei gas, come Maxwell, Clausius e Boltzmann, non abbiano mai pubblicato alcunché per spiegare il moto browniano. 14 È interessante notare che Einstein, che lodava Boltzmann per la sua versione probabilistica dell’entropia, non poté mai accettare l’interpretazione probabilistica della meccanica quantistica. 15 Una storia molto narrata sulla teoria di Einstein del moto browniano si può trovare in Ridgen [2005]. Una dettagliata e autorevole discussione della teoria del moto browniano è stata pubblicata da Mazo [2002]. 11
Capitolo 1
L’entropia svelata
canica quantistica e la relatività.16 La porta per la comprensione dell’entropia fu così spalancata. L’associazione dell’entropia con il numero di configurazioni e con la probabilità divenne allora inattaccabile dal punto di vista della dinamica delle particelle. Tuttavia, essa non fu capita e accettata facilmente, specialmente perché a quel tempo la probabilità non faceva ancora parte della fisica. Più o meno nello stesso periodo in cui Boltzmann pubblicò le sue idee sulla Seconda Legge, Willard Gibbs (1839–1903) sviluppò la meccanica statistica, una teoria della materia basata su un approccio puramente statistico o probabilisto. Il successo straripante dell’approccio di Gibbs, sebbene basato su postulati probabilistici,17 ci ha fornito l’assicurazione che un sistema composto da un altissimo numero di particelle, sebbene queste siano governate dalle leggi del moto, si comporterà in modo casuale e caotico e che le leggi della probabilità prevalgono. La mera relazione tra entropia e numero di stati in un sistema non è sufficiente a spiegare il comportamento dell’entropia. Bisogna integrarla con tre fatti o assunzioni importanti. Primo, che il numero di particelle è enorme e che il numero di microstati è persino più grande. Secondo, che tutti questi stati sono ugualmente probabili, ovvero hanno la stessa probabilità di occorrenza e, quindi, la stessa probabilità di essere visitati dal sistema. Terzo, e più importante, che all’equilibrio il numero di microstati consistenti con (o appartenenti a) il macrostato che in pratica osserviamo, è confrontabile con il numero totale di microstati possibili. Torneremo su questi aspetti di un sistema fisico nei capitoli 6 e 7. Assieme a queste ulteriori assunzioni, che infine cristallizzarono nella solida teoria della termodinamica statistica, la formulazione atomistica dell’entropia guadagnò una vittoria decisiva. La formulazione non-atomistica della Seconda Legge viene ancora insegnata e applicata con successo. Non 16
Forse dovremmo notare che nell’ambito delle recenti teorie sui buchi neri, si parla della “Seconda Legge generalizzata” della termodinamica [Bekenstein, 1980]. Mi sembra che tale formulazioni non intacchi la formula di Boltzmann per l’entropia. 17 Oggi ogni libro di fisica, specialmente se riguarda la meccanica statistica, considera la struttura atomica della materia un fatto assodato. È interessante notare come nel libro di termodinamica statistica di Fowler & Guggenheim [1956] (pubblicato per la prima volta nel 1939) una delle prime assunzioni sia: “Assunzione 1: la costituzione atomica della materia.” Essi aggiunsero il commento: “Oggi questa difficilmente viene considerata allo stesso rango di un’ipotesi, ma è importante incominciare ricordando che questa è necessaria, visto che ogni riferimento alla costituzione atomica è sconosciuto alla termodinamica classica.” Oggi, nessun libro moderno sulla meccanica statistica fa più questa assunzione esplicitamente. È un fatto universalmente accettato. 12
1.2 La formulazione atomistica della Seconda Legge
Capitolo 1
ha nulla di sbagliato, a parte il fatto che non svela (né può farlo) i segreti nascosti nel concetto di entropia. La relazione euristica di Boltzmann tra l’entropia e il logaritmo del numero totale di stati18 aprì la porta alla comprensione del significato dell’entropia. Tuttavia, occorre qualche ulteriore passo per penetrare la foschia e dissipare il mistero che circonda l’entropia. Ci sono diversi percorsi per raggiungere questo fine. Io discuterò le due strade principali. Una si basa sull’interpretazione dell’entropia in termini del grado di disordine di un sistema.19 L’altra coinvolge l’interpretazione dell’entropia in termini di informazione mancante sul sistema.20 La prima strada, più vecchia e più popolare, ha le sue origini nell’interpretazione dell’entropia dello stesso Boltzmann: si può pensare che un grande numero di stati possegga un grande grado di disordine. Questa concezione portò all’affermazione comune che la Seconda Legge delle Termodinamica dice che “la Natura procede dall’ordine al disordine”. È mia opinione che, sebbene l’interpretazione dell’entropia in termini di ordine e disordine sia valida in molti esempi, essa non sia sempre ovvia. In modo qualitativo, essa può rispondere alla domanda su che cosa sia la cosa che cambia in alcuni processi spontanei, ma non in tutti. Tuttavia, essa non offre alcuna risposta alla domanda sul perché l’entropia debba sempre crescere. La seconda strada, sebbene meno popolare tra gli scienziati, è a mio modo di vedere migliore. Primo, perché l’informazione è una quantità definita meglio, quantitativamente e oggettivamente, mentre ordine e disordine sono quantità meno solidamente definibili. Secondo, l’informazione o, meglio, l’informazione mancante può essere usata per rispondere alla domanda su che cosa sia ciò che cambia in ogni processo spontaneo. “Informazione” è una parola familiare, come “energia”, “forza” o “lavoro”, e non evoca mistero. 18
Per semplicità e concretezza, pensate a N particelle distribuite in M celle. Una descrizione completa dello stato del sistema è una dettagliata specificazione di quale particella si trovi in quale cella. 19 L’associazione dell’entropia con il disordine è probabilmente dovuta a Bridgman [1941]. Guggenheim [1949] suggerì il termine “diffusione” [spread, N.d.T.] per descrivere la dispersione tra un grande numero di stati quantici possibili. Una dettagliata discussione di questo aspetto si trova in Denbigh & Denbigh [1985]. 20 La teoria dell’informazione fu sviluppata indipendentemente dalla termodinamica da Claude Shannon nel 1948. Più tardi si capì che la misura di informazione di Shannon è identica (a meno di una costante moltiplicativa che ne determina l’unità di misura) all’entropia di Boltzmann. 13
Capitolo 1
L’entropia svelata
La misura dell’informazione è definita precisamente nel contesto della teoria dell’informazione. Tale quantità mantiene il suo fondamentale significato di informazione con il quale abbiamo familiarità nel linguaggio di ogni giorno. Questo non è il caso se usiamo il concetto di “disordine” per descrivere la cosa che cambia. Discuteremo ulteriormente questo aspetto nei capitoli 7 e 8. L’informazione di per se stessa non fornisce alcuna risposta alla domanda sul perché l’entropia cambi in un modo così peculiare. Tuttavia, l’informazione (al contrario del disordine) è definita in termini di probabilità e, come vedremo, la probabilità reca in sé gli indizi per rispondere alla domanda sul perché. Per queste ragioni dedicheremo il prossimo capitolo a familiarizzarci con alcune nozioni di base sulla probabilità e sull’informazione. Faremo questo in modo molto qualitativo, affinché tutti (sia con che senza preparazione scientifica) possano seguire l’argomento. Tutto ciò che vi occorre è puro buon senso. Una volta presa confidenza con questi concetti, il mistero che circonda l’entropia e la Seconda Legge sparirà e sarete in grado di rispondere a entrambe le domande: “Che cosa è la cosa che cambia?” e “Perché essa cambia in questo modo particolare?”. 0%
25%
50%
75%
FINE CAPITOLO 1
14
100%
2
Una breve storia della teoria della probabilità, della teoria dell’informazione e tutto il resto La teoria della probabilità è una branca della matematica. Essa trova usi in tutti i campi della scienza, dalla fisica e chimica alla biologia e sociologia fino all’economia e psicologia. In breve, dappertutto e in ogni tempo nelle nostre vite. In molte decisioni che prendiamo compiamo “calcoli” o “valutazioni” probabilistici, consciamente o inconsciamente, che si tratti di attraversare la strada, prendere un taxi, evitare di mangiare cibo mai provato prima, andare in guerra, negoziare un trattato di pace e così via. In molte attività cerchiamo di stimare le probabilità di successo o fallimento. Senza questo tipo di ragionamento probabilistico, un dottore non potrebbe diagnosticare una malattia dai sintomi né potrebbe prescrivere la miglior medicazione per una malattia già diagnosticata. Allo stesso modo le compagnie di assicurazione non potrebbero aggiustare il prezzo di una polizza per l’automobile su persone differenti con diversi profili. La teoria della probabilità nacque da domande poste ai matematici da parte degli scommettitori, i quali speravano che i matematici avessero migliori conoscenze su come stimare le possibilità di vincita al gioco. Forse, qualcuno credette persino che certe persone avessero il potere di divinare e che potessero predire il risultato di un gioco.1 1
È interessante notare che la parola latina per “indovinare” è adivinare, mentre in spagnolo è adivinar. Il verbo contiene la radice “divino”. In origine il termine adivinare probabilmente implicava un qualche potere divino per predire il risultato di un esperimento o di un gioco. Oggi quando qualcuno dice “Io indovino” o uno Spagnolo dice “Yo adivino”, questo non implica che egli abbia il potere di predire il risultato. Bennett [1998] commenta così: “Gli antichi credevano che il risultato degli eventi fosse da ultimo controllato da una divinità, non dal caso. L’uso di metodi casuali per indovinare le intenzioni divine è chiamato divinazione, e le precauzioni che garantivano la casualità
Capitolo 2
L’entropia svelata
Di base, la probabilità è una quantità soggettiva che misura il grado di confidenza di una persona che un certo evento si verifichi.2 Per esempio posso stimare che ci sia solo il 10% di probabilità che il sospettato abbia commesso un crimine e che, quindi, egli debba essere assolto. Tuttavia, il giudice può raggiungere la conclusione completamente differente che ci sia alta probabilità che il sospettato sia colpevole. La ragione di una tale estrema discrepanza è principalmente che persone diverse possiedono differenti informazioni sulle prove e compiono diverse valutazioni su tali informazioni. Persino quando due persone hanno la stessa conoscenza, possono elaborarla in modo tale da raggiungere differenti stime delle possibilità o delle probabilità di occorrenza di un evento (o del grado di plausibilità di una qualche proposizione). Partendo da questa nozione, estremamente vaga, qualitativa e soggettiva, una teoria della probabilità distillata e raffinata si è evoluta in modo quantitativo e costituisce una branca oggettiva3 della matematica. Sebbene non si possa applicare a tutti i possibili eventi, la probabilità si può applicare a un grandissimo numero di circostanze, per esempio, nei giochi d’azzardo e con i numerosi “eventi” che costituiscono il risultato di esperimenti in fisica. Così, se voi dichiarate che c’è una probabilità del 90% che il Messia appaia lunedì della settimana prossima, mentre io affermo che la probabilità è solo dell’1%, non c’è alcun modo per decidere chi ha ragione o chi ha torto. Infatti, anche se aspettassimo il lunedì e constatassimo che nulla è accaduto, non potremmo dire chi abbia fatto la stima sbagliata della probabilità.4 Tuterano intese solamente a eliminare la possibilità di interferenze umane, cosicché la volontà della divinità potesse essere compresa.” 2 C’è un altro, più generale significato della probabilità, come misura della plausibilità di una proposizione, data qualche informazione o qualche conoscenza [Carnap, 1950, 1953; Jaynes, 2003]. Noi useremo il termine probabilità come viene usato in fisica. Discuteremo sempre di eventi, non di proposizioni. Non affronteremo la questione di significato di probabilità, casualità, eccetera. Queste domande si intrecciano con la filosofia. Come vedremo in questo capitolo, le questioni sulla probabilità riguardano sempre la probabilità condizionale. Qualche volta la condizione è formulata in termini di un evento che è accaduto o che accadrà. Altre volte la condizione può contenere qualsiasi informazione o conoscenza sia data sull’evento. Senza alcuna conoscenza, nessuna risposta può essere fornita ad alcuna domanda sulla probabilità. 3 Dobbiamo sottolineare che “oggettivo” qui non implica una “probabilità assoluta”. Ogni probabilità è una “probabilità condizionale”, cioè che dipende da qualche informazione o conoscenza. Essa è oggettiva solamente nel senso che chiunque, in possesso delle stesse informazioni, raggiungerebbe la stessa stima della probabilità. D’Agostini [2003] ha usato il termine “intersoggettività”, altri usano il termine “minima soggettività”. 4 C’è la tendenza, come ha commentato uno dei lettori di questo libro, a concludere che 16
Capitolo 2
tavia, per alcune classi di esperimenti ben definiti esiste una probabilità che “appartiene” all’evento; e quella è la probabilità che tutti accettano. Per esempio, se lanciamo una moneta, che non sospettiamo essere sbilanciata o truccata, le probabilità per testa (T) o per croce (C) sono 50%:50%. Essenzialmente, non c’è nessuna dimostrazione che queste siano le probabilità “giuste”. Si può adottare in pratica una prova sperimentale basata sul risultato vero di numerosi lanci di moneta, tenendo conto delle frequenze dei risultati. Se lanciamo una moneta un migliaio di volte, c’è una buona probabilità che circa 500 risultati siano T e circa 500 siano C. Ma c’è anche la possibilità di ottenere 590 volte T e 410 volte C. Infatti, possiamo ottenere qualsiasi sequenza di T e C lanciando la moneta un migliaio di volte: non c’è alcun modo per derivare o per estrarre le probabilità da tali esperimenti. Dobbiamo accettare assiomaticamente l’esistenza delle probabilità in questo e in esperimenti simili con i dadi. La stima di 50:50 per cento, ovvero metà per T e metà per C, deve essere accettata come qualcosa che appartiene all’evento, esattamente come una certa quantità di massa appartiene a un pezzo di materia. Oggi il concetto di probabilità viene considerato un concetto primitivo che non può essere definito in termini di concetti più primitivi.5 Torniamo all’era precedente la teoria della probabilità, nel XVI e XVII secolo, quando il concetto di probabilità doveva ancora incominciare a emergere. Un esempio. Ecco una domanda che — a quanto si dice — fu indirizzata a Galileo Galilei (1564–1642): supponiamo di giocare con tre dadi e che ci venga chiesto di scommettere sulla somma dei risultati del lancio simultaneo di tre dadi. Chiaramente sentiamo che non sarebbe saggio scommettere né sul risultato di 3 né su 18. Questo è corretto (nel senso discusso più avanti). chi fece la stima dell’1% fu “più corretto” di chi invece propose il 90%. Questo è vero se usiamo il termine probabilità in modo colloquiale. Tuttavia qui siamo interessati al significato scientifico di probabilità. Supponiamo che io faccia la stima che la probabilità di ottenere il risultato 4 nel lancio di un dado sia 90% e che voi la stimiate del 1%. Lanciamo il dado e il risultato è 4 (o 2 o qualsiasi altro risultato). Qual era la stima corretta? La riposta è nessuna delle due! In questo caso, noi conosciamo la probabilità di quel particolare evento e il fatto che l’evento risultato 4 sia occorso in un singolo lancio non prova nulla sulla probabilità di quell’evento. Nella domanda che abbiamo fatto riguardo il Messia, l’occorrenza o la non occorrenza dell’evento non ci dice nulla riguardo la probabilità dell’evento. Infatti, non è chiaro come definire la probabilità di quell’evento, e nemmeno se esista una “corretta” probabilità per quell’evento. 5 Cioè si postula che la “probabilità” esista e goda di certe proprietà matematiche. Questo è sufficiente per eseguire tutti i calcoli, mentre la questione dell’interpretazione della probabilità, qui interpretata come “grado di credibilità”, non viene affrontata. N.d.T. 17
Capitolo 2
L’entropia svelata
Tabella 2.1
Tutte le partizioni possibili per le somme 9 e 10 con 3 dadi.
Per 9: Per 10:
1:2:6 1:3:5 1:3:6 1:4:5
1:4:4 2:2:6
2:2:5 2:3:4 2:3:5 2:4:4
3:3:3 3:3:4
La ragione è che sia 3 sia 18 hanno solo un modo di capitare, 1:1:1 e 6:6:6 rispettivamente. Infatti, giudichiamo intuitivamente che questi eventi sono relativamente rari. Chiaramente, scegliere come somma 7 è meglio. Perché? Perché ci sono più partizioni del numero 7 in tre interi compresi fra 1 e 6, cioè 7 può essere ottenuto come risultato di 4 possibili partizioni: 1:1:5, 1:2:4, 1:3:3, 2:2:3. Sentiamo anche che, più alta è la somma, più grande è il numero di partizioni, fino a un certo punto, circa al centro tra il minimo di 3 e il massimo di 18. Ma come possiamo scegliere tra 9 e 10? Un semplice conteggio ci mostra che sia 9 sia 10 hanno lo stesso numero di partizioni, cioè lo stesso numero di combinazioni di interi (tra 1 e 6) che sommano a 9 o 10. Tutte le partizioni possibili sono illustrate nella tabella 2.1. A prima vista potremmo concludere che, siccome 9 e 10 hanno lo stesso numero di partizioni, essi debbano anche avere le stesse possibilità di vittoria. Questa conclusione è sbagliata: come vedremo tra poco, la risposta corretta è che 10 ha maggiore chance di vittoria di 9. La ragione è che, sebbene il numero di partizioni sia lo stesso per 9 e 10, il numero totale di risultati in cui tre dadi sommano a 9 è un po’ più piccolo del numero di risultati con somma 10. In altre parole, il numero di partizioni è lo stesso, ma ogni partizione ha un “peso” differente, per esempio il risultato 1:4:4 può essere realizzato in tre modi differenti: 1:4:4
4:1:4
4:4:1
Questo si capisce facilmente se facciamo uso di tre dadi con diversi colori, per esempio blu, rosso e bianco. Le tre possibilità per 1:4:4 sono: blu 1, rosso 4 e bianco 4 blu 4, rosso 1 e bianco 4 blu 4, rosso 4 e bianco 1 Contando tutte le partizioni possibili e tutti i pesi possibili otteniamo il risultato mostrato nelle tabelle 2.2 e 2.3. Il numero totale di modi distinguibili di ottenere la somma 9 è 25, mentre per la somma 10 è 27. Quindi, le possibilità relative di vittoria con 9 e 10 sono 18
Capitolo 2
Tabella 2.2
Tutti i risultati possibili con somma 9 per tre dadi.
1:2:6 1:6:2 2:1:6 2:6:1 6:1:2 6:2:1 Pesi: 6 Tabella 2.3
1:3:5 1:5:3 3:1:5 3:5:1 5:1:3 5:3:1 6
1:4:4 4:1:4 4:4:1
2:2:5 2:5:2 5:2:2
3
3
2:3:4 3:3:3 2:4:3 3:2:4 3:4:2 4:2:3 4:3:2 6 1
Tutti i risultati possibili con somma 10 per tre dadi.
1:3:6 1:6:3 3:1:6 3:6:1 6:1:3 6:3:1 Pesi: 6
1:4:5 1:5:4 4:1:5 4:5:1 5:1:4 5:4:1 6
2:2:6 2:6:2 6:2:2
3
2:3:5 2:4:4 2:5:3 4:2:4 3:2:5 4:4:2 3:5:2 5:2:3 5:3:2 6 3
3:3:4 3:4:3 4:3:3
3
25:27, cioè favoriscono la scelta di 10. Così la scelta migliore per il numero su cui scommettere, come presumibilmente suggerì Galilei, è 10. Ma che cosa significa che 10 è la “migliore” scelta e che è il numero “corretto” per la scommessa? Certamente io potrei scegliere 10 e voi potreste vincere avendo scelto 3. Il nostro calcolo garantisce forse che se scelgo 10 vinco sempre? Di sicuro no. E allora quale significato ha la frazione 25:27? La teoria della probabilità ci fornisce la risposta. Non è una risposta precisa né pienamente soddisfacente e non garantisce la vittoria. Essa dice solo che se facciamo questo gioco molte volte, la probabilità che 9 vinca è 25/216, mentre la probabilità che vinca 10 è poco più grande, 27/216 (216 è il numero totale di risultati possibili: 63 = 216). Quante volte devo giocare in modo da garantire la mia vittoria? Per questa domanda la teoria è muta. Essa dice solo che nel limite di infinite giocate, la frequenza di occorrenza di 9 dovrebbe essere 25/216 e quella di 10 dovrebbe essere 27/216. Ma non si può giocare infinite volte. Dunque qual è il significato di queste probabilità?
19
Capitolo 2
L’entropia svelata
A questo punto non possiamo dire nulla di più che la frazione 27:25 riflette il nostro grado di credibilità o confidenza che vincere con il numero 10 sia più probabile di vincere con il 9.6 Lasceremo questo particolare gioco per ora. Torneremo su questo e su altri giochi simili con più dadi in seguito. Nella discussione precedente abbiamo usato il termine “probabilità” senza definirlo. In effetti, ci sono stati molti tentativi di definire il termine probabilità. Risulta che ogni definizione ha le sue limitazioni e, soprattutto, che ogni definizione usa il concetto di probabilità nella definizione stessa, ovvero che tutte le definizioni sono circolari. Oggigiorno la teoria matematica della probabilità è fondata su un approccio assiomatico, molto simile alla geometria di Euclide, come ogni altra branca della matematica è fondata su assiomi.7 L’approccio assiomatico è molto semplice e non richiede conoscenze matematiche. Questo metodo fu sviluppato principalmente da Kolmogorov negli anni ’30 del XX secolo e consiste nei tre concetti di base seguenti: 1. Lo spazio degli eventi elementari. Questo è l’insieme di tutti i possibili risultati di uno specifico esperimento ben definito. Esempio: lo spazio degli eventi del lancio di un dado consiste nei sei possibili risultati {1, 2, 3, 4, 5, 6}. Il lancio di una moneta ha {T, C} (testa e croce) come spazio degli eventi. Questi sono chiamati eventi elementari. Chiaramente non possiamo scrivere esplicitamente lo spazio di qualsiasi esperimento: alcuni consistono di un numero infinito di elementi (ad esempio, il lancio di una freccetta contro un bersaglio circolare), mentre altri non possono nemmeno essere descritti. Noi siamo interessati solamente agli spazi semplici, in cui il conteggio dei risultati chiamati eventi elementari è diretto. 2. Una collezione di eventi. Un evento è definito come unione (o somma) di eventi elementari. Esempi:
6
Si noti come questa affermazione suoni molto soggettiva. Tuttavia, chiunque abbia buon senso e voglia usare la teoria della probabilità deve accettarla. 7 Si veda anche il commento nella nota 5 a pagina 17. N.d.T. 20
Capitolo 2
(a) Il risultato del lancio di un dado è “pari”. Questo consiste negli eventi elementari {2, 4, 6}, ovvero nell’occorrenza di un numero qualsiasi fra 2, 4 e 6.8 (b) Il risultato del lancio di un dado è “maggiore o uguale a 5”. Questo consiste negli eventi elementari {5, 6}, ovvero nell’occorrenza di 5 o di 6. In termini matematici la collezione di tutti gli eventi consiste di tutti i sottoinsiemi dello spazio degli eventi.9 3. Probabilità. A ogni evento noi assegnamo un numero, chiamandolo probabilità di quell’evento, che possiede le seguenti proprietà: (a) La probabilità di ogni evento è un numero compreso tra zero e uno (inclusi). (b) La probabilità di un evento certo (nel senso che il risultato sia uno qualsiasi fra tutti quelli possibili) è uno. (c) La probabilità di un evento impossibile è zero. (d) Se due eventi sono disgiunti o mutuamente esclusivi, allora la probabilità dell’unione (o somma) dei due eventi è semplicemente la somma delle loro probabilità. La condizione (3a) semplicemente fissa la scala della funzione probabilità. Nella vita di tutti i giorni possiamo usare la gamma di valori 0–100% per descrivere, ad esempio, le probabilità di pioggia per domani. Nella teoria della probabilità si usa invece 0–1. La seconda condizione (3b) afferma semplicemente che se eseguiamo realmente un esperimento, uno dei risultati deve occorrere.10 Tale evento è chiamato evento certo e gli viene assegnata probabilità uguale a 1. In modo simile assegnamo probabilità 0 all’evento impossibile.11 L’ultima condizione (3d) è intuitivamente evidente. Mutua esclusività significa che l’occorrenza di un evento esclude la possibilità di 8
Possiamo usare il passato o il futuro, riferendoci alla probabilità che il risultato sia stato o sarà pari, ma questo non implica che il tempo faccia parte della definizione di un evento o della probabilità. 9 Noi faremo uso solo di spazi di eventi limitati. La teoria della probabilità si applica anche a spazi infiniti o continui, ma non ne avremo bisogno in questo libro. 10 Cioè afferma la completezza dello spazio eventi. N.d.T. 11 Che corrisponde al sottoinsieme vuoto dello spazio degli eventi. N.d.T. 21
Capitolo 2
Figura 2.1
L’entropia svelata
Figura 2.2
Figura 2.3
occorrenza dell’altro. In termini matematici diciamo che l’intersezione dei due eventi è vuota (cioè non contiene alcun evento elementare). Per esempio, i due eventi A = {il risultato del lancio di un dado è pari} B = {il risultato del lancio di un dado è dispari} sono chiaramente disgiunti: l’occorrenza di uno esclude l’occorrenza dell’altro. Se definiamo l’evento C = {il risultato del lancio di un dado è maggiore o uguale a 5} chiaramente gli eventi A e C (o B e C) non sono disgiunti. Sia A sia C contengono l’evento elementare 6 (B e C contengono entrambi 5). Gli eventi “maggiore o uguale a 4” e “minore o uguale a 2” sono chiaramente disgiunti. Anticipando la discussione seguente, possiamo calcolare la probabilità del primo evento {4, 5, 6} trovando 3/6, mentre quella del secondo evento {1, 2} è 2/6. Quindi, l’evento combinato (ovvero l’unione) {1, 2, 4, 5, 6} ha probabilità 5/6, che è somma di 3/6 e 2/6. Un modo molto utile di mostrare il concetto di probabilità e la regola della somma è il diagramma di Venn. Supponiamo di lanciare bendati un dardo su un bersaglio rettangolare di area S = A × B. Assumiamo che il dardo debba sempre colpire un punto contenuto nel rettangolo (figura 2.1). Disegnamo ora un cerchio all’interno del bersaglio e chiediamoci quale sia la probabilità di colpire l’area racchiusa in questo cerchio.12 Con il solo buon senso assumiamo che la probabilità dell’evento “colpire l’interno del cerchio” sia uguale alla frazione tra l’area del cerchio e l’area dell’intero bersaglio.13 12
Escludiamo dalla presente discussione il problema di colpire un punto esatto o una specifica linea, come la circonferenza del cerchio, che hanno probabilità in pratica trascurabile e zero in teoria. Useremo i diagrammi di Venn solo come illustrazione. Nei calcoli sulla probabilità che effettueremo nei prossimi capitoli, considereremo sempre spazi di eventi discreti. 13 In realtà, ci stiamo chiedendo quale sia la probabilità condizionale che il dardo colpisca il cerchio, dato che esso abbia colpito il bersaglio rettangolare. Più avanti ritorneremo sulla probabilità condizionale. 22
Capitolo 2
Due regioni disegnate sul bersaglio si dicono disgiunte se non esiste alcuna sovrapposizione tra le regioni (figura 2.2). È chiaro che la probabilità di colpire una qualsiasi tra le due regioni è uguale alla frazione tra la somma dell’area delle due regioni e l’area del bersaglio completo. Questo porta direttamente alla regola della somma enunciata tra gli assiomi precedenti. La probabilità di colpire una qualsiasi delle due regioni è la somma delle probabilità di colpire ognuna delle regioni. Questa regola della somma non vale quando le due regioni si sovrappongono, ovvero quando ci sono punti sul bersaglio che appartengono a entrambe le regioni, come nel caso mostrato in figura 2.3. È chiaro che la probabilità di colpire una o l’altra regione, in questo caso, è la somma delle probabilità di colpire ogni regione meno la probabilità di colpire la sovrapposizione. Pensate semplicemente all’area coperta dalle due regioni: essa è la somma delle aree delle due regioni, meno l’area dell’intersezione. L’intero edificio della teoria matematica della probabilità è stato eretto sulle fondamenta relativamente semplici di questi assiomi. Non solo essa è estremamente utile, ma è anche uno strumento essenziale in tutte le scienze e oltre. Come dovreste aver capito, le basi della teoria sono semplici, intuitive, e non richiedono più che il buon senso. Nella struttura assiomatica della teoria della probabilità le probabilità si dicono assegnate a ogni evento.14 Queste probabilità devono rispettare le quattro condizioni (3a), (3b), (3c), (3d). La teoria non definisce la probabilità, né fornisce un metodo per calcolare o misurare le probabilità.15 Infatti, non esiste alcun metodo per calcolare la probabilità di un evento generico. Essa è ancora una quantità che misura il nostro grado di confidenza sull’occorrenza di un certo evento, e come tale è una quantità altamente soggettiva. Tuttavia, per alcuni semplici esperimenti, come il lancio di una moneta, di un dado o il conteggio del numero di atomi in una certa regione di spazio, possediamo alcuni utilissimi metodi per calcolare le probabilità. Tali metodi hanno 14
In termini matematici la probabilità è una misura definita per ogni evento. Esattamente come lo sono la lunghezza, l’area o il volume di una regione a una, due o tre dimensioni, rispettivamente. Nell’esempio con il diagramma di Venn anche noi consideriamo l’area di una regione come una misura della probabilità relativa. 15 In effetti, lo stesso Kolmogorov era ben cosciente di aver lasciato aperta la questione sul significato e sulla definizione della probabilità! Oggi viene quasi universalmente accettato che la probabilità sia un concetto primitivo non definibile (cfr. nota 5 a pag. 17, N.d.T.). Alcuni autori di libri di testo sulla probabilità si rifiutano persino di definire il termine probabilità. 23
Capitolo 2
L’entropia svelata
delle limitazioni e si applicano solamente ai casi “ideali”, ma le probabilità calcolate si rivelano estremamente utili. Cosa più importante, poiché tali probabilità sono basate sul ragionamento guidato dal puro buon senso, tutti noi dovremmo essere d’accordo che esse sono le “corrette” probabilità, ovvero queste probabilità diventano, da soggettive, quantità oggettive. Daremo due “definizioni” molto utili, che sono state suggerite per questo concetto.
§ 2.1 La definizione classica Questa definizione è a volte chiamata la definizione a priori.16 Sia Ntot il numero totale di possibili risultati di uno specifico esperimento. Per esempio, nel lancio di un dado Ntot è sei, ovvero ci sono sei risultati (o eventi elementari) di questo esperimento. Denotiamo con Nevt il numero di risultati (ovvero eventi elementari) che sono inclusi nell’evento a cui siamo interessati. Per esempio, il numero di eventi elementari inclusi nell’evento “pari” è 3, ovvero {2, 4, 6}. La probabilità dell’evento che ci interessa è definita come la frazione Nevt /Ntot . In effetti, abbiamo usato questa definizione intuitiva quando abbiamo calcolato la probabilità dell’evento “maggiore o uguale a 4”. Il numero di risultati o eventi elementari del lancio di un dado è Ntot = 6. Il numero di eventi elementari inclusi nell’evento “maggiore o uguale a 4” è Nevt = 3, quindi, la probabilità di questo evento è 3/6 o 1/2 e tutti siamo d’accordo sul fatto che questa sia la probabilità “giusta”. Tuttavia, occorre prestare attenzione quando si applica questa definizione di probabilità. Primo, non possiamo “decomporre” ogni evento in eventi elementari, come ad esempio l’evento “domani incomincerà a piovere alle 10 in punto”. Ma, più importante, la formula precedente presuppone che gli eventi elementari abbiano la stessa possibilità di occorrenza. In altre parole, si suppone che ogni evento elementare abbia la stessa probabilità, uguale a 1/6 nel caso di un solo dado. Ma come facciamo a saperlo? Abbiamo fornito una formula per calcolare la probabilità di un evento, basata sulla conoscenza della probabilità di ogni evento elementare. Questo è il motivo per cui la 16
Alcuni autori non sono d’accordo nell’usare il termine “a priori”. Qui usiamo tale termine solamente nel senso che non ci si affida a un esperimento per determinare le probabilità. D’Agostini [2003] preferisce chiamarlo il “metodo combinatorio”. Si dovrebbe notare, tuttavia, che il calcolo combinatorio è una branca della matematica che riguarda il numero di modi di fare una certa cosa. In quanto tale, esso non ha nulla a che fare con la probabilità. Tuttavia, in probabilità si usano metodi combinatori per calcolare le probabilità in accordo con la definizione classica. 24
2.1 La definizione classica
Capitolo 2
definizione classica non può essere usata in buona fede come definizione della probabilità: essa è una definizione circolare. A dispetto di ciò, questa “definizione” (o piuttosto il metodo di calcolo delle probabilità) è estremamente utile. Chiaramente, essa si basa sul nostro credere che ogni evento elementare abbia la stessa probabilità di 1/6. Perché crediamo in questa asserzione? Il meglio che possiamo fare è invocare l’argomento della simmetria. Poiché tutte le facce si presumono equivalenti, le loro probabilità devono essere uguali. Questa conclusione dovrebbe essere universalmente accettata, tanto quanto l’asserzione assiomatica che due rette si intersecano al più in un singolo punto. Dunque, mentre la probabilità dell’evento “domani pioverà” è altamente soggettiva, la probabilità dell’evento “pari” nel lancio di un dado è 1/2, come concorda chiunque voglia usare il ragionamento probabilistico, allo stesso modo in cui chiunque voglia adottare il ragionamento geometrico deve anche accettare gli assiomi della geometria. Come avviene in geometria, tutte le probabilità e tutti i teoremi derivanti dagli assiomi si applicano rigorosamente ai casi ideali; un dado “onesto”, una moneta “onesta”. Non esiste definizione di che cosa sia un dado onesto. Esso è un concetto altrettanto “ideale” di un sfera o cubo platonico.17 Tutti i dadi reali, così come i cubi e le sfere, sono solo repliche approssimate degli oggetti ideali di Platone. In pratica, se non abbiamo alcuna ragione per sospettare che un dado non sia omogeneo e simmetrico, possiamo assumere che esso sia ideale. A dispetto di queste limitazioni, questa procedura per il calcolo delle probabilità è utilissima in molte applicazioni. Uno dei postulati di base della meccanica statistica è che ognuno dei microstati che compongono un sistema macroscopico abbia la stessa probabilità. Di nuovo, non possiamo dimostrare questo postulato più o meno come non possiamo “dimostrare” l’asserzione che la probabilità di ogni risultato del lancio di un dado sia 1/6. Questo ci conduce alla seconda “definzione” o, se volete, alla seconda procedura per calcolare le probabilità.
17
Certamente si assume non solo che il dado sia onesto, ma anche che il metodo di lancio sia onesto e senza pregiudizi. La definizione di dado “onesto” o di “lancio casuale” coinvolge anch’essa il concetto di probabilità. Potremmo anche aggiungere che la teoria dell’informazione offre una sorta di “giustificazione” per la scelta di uguali probabilità. La teoria dell’informazione fornisce un metodo per indovinare la migliori probabilità basato su tutto ciò che conosciamo e niente più di ciò che conosciamo sull’esperimento. 25
Capitolo 2
L’entropia svelata
§ 2.2 La definizione basata sulle frequenze relative Questa definizione è chiamata definizione “a posteriori” o “sperimentale”, dato che si basa sul conteggio delle frequenze relative dell’occorrenza degli eventi. L’esempio più semplice è il lancio di una moneta. Ci sono due possibili risultati: testa (T) e croce (C). Escludiamo gli eventi rari come quando la moneta, cadendo in modo esattamente perpendicolare al pavimento, si rompe in pezzi durante l’esperimento o quando scompare dalla vista così che il risultato non è determinabile. Procediamo nel lancio di una moneta N volte. La frequenza dell’occorrenza di testa viene registrata. Questo è un esperimento ben definito e realizzabile. Se n T è il numero di teste occorse in Ntot tentativi, allora la frequenza dell’occorrenza di testa è n T /Ntot . La probabilità di occorrenza dell’evento “T” è definita come il limite di questa frequenza, quando N tende all’infinito.18 Chiaramente una tale definizione non è pratica. Primo, perché non possiamo eseguire un numero infinito di tentativi. Secondo, anche se potessimo, chi garantisce che un tale limite esiste davvero? Quindi, possiamo solamente immaginare quale sarà questo limite. Noi crediamo che tale limite esista e sia unico, ma in effetti non possiamo dimostrarlo. In pratica noi usiamo veramente questa definizione per un numero N grande. Perché? Perché crediamo che, se N è grande abbastanza e se la moneta è onesta, c’è una grande probabilità che la frequenza relativa di occorrenza di testa sia 1/2.19 18
La definizione basata sulla frequenza è Pr(H) = lim
N tot →∞
n(H) Ntot
(non si tratta di una convergenza in senso matematico, ma in probabilità, N.d.T.). Questa può essere interpretata in due modi diversi. O si esegue una sequenza di esperimenti e si misura il limite della frequenza relativa quando il numero degli esperimenti è infinito o si lanciano infinite monete contemporaneamente e si conta la frazione di monete che mostra T. Una delle assunzioni fondamentali della meccanica statistica è che le quantità medie calcolate con entrambi i metodi coincidono. Questa ipotesi è il seme di una intera branca della matematica, nota come teoria ergodica. 19 In effetti, crediamo che questo sia il risultato corretto anche senza compiere in realtà l’esperimento. Siamo convinti che facendo un esperimento mentale, il risultato convergerà alla probabilità esatta. Se, per esempio, eseguiamo l’esperimento del lancio di un dado e troviamo che la frequenza di occorrenza dell’evento “pari” è davvero circa 1/2, consistente con il risultato che abbiamo calcolato con la definizione classica, allora siamo ancora più 26
2.2 La definizione basata sulle frequenze relative
Capitolo 2
Vediamo che abbiamo usato ancora il concetto di probabilità nella definizione stessa di probabilità. Un metodo che potrebbe essere usato per “dimostrare” che la probabilità di ogni risultato del lancio di un dado è 1/6 è questo: semplicemente ripetete l’esperimento molte volte e contate il numero di volte che il risultato “4” (o qualsiasi altro) è occorso. La frequenza relativa può servire come “dimostrazione” della probabilità di quell’evento. Questo ragionamento si basa sul credere che se N è grande abbastanza, dovremmo ottenere la frequenza di uno su sei. Ma cosa succede se ripetiamo l’esperimento un milione di volte e troviamo che “4” è occorso con una frequenza di 0.1665 (invece di 0.1666...)? Che cosa dovremmo concludere? Si potrebbe concludere che il dado sia “onesto”, ma per farlo non abbiamo compiuto abbastanza esprimenti. La seconda conclusione potrebbe essere che il dado non sia onesto, ma un po’ più pesante su una faccia. La terza conclusione potrebbe essere che il lancio del dado non fosse perfettamente casuale. Così, come possiamo stimare la probabilità di un evento? L’unica risposta che possiamo fornire è che crediamo nel nostro buon senso. Adoperiamo il nostro buon senso per giudicare che, a causa della simmetria del dado (cioè le facce sono tutte equivalenti), deve esserci un’uguale probabilità per l’occorrenza di ogni faccia specifica. Non c’è modo in cui possiamo dimostrarlo. Tutto ciò che possiamo dire è che, se il dado è ideale (tale dado non esiste), allora noi crediamo che se lanciamo il dado molte volte, il risultato “4”, ad esempio, si mostrerà in 1/6 degli esperimenti su lungo termine. Questa convinzione, sebbene suoni soggettiva, deve essere condivisa da tutti noi e considerata oggettiva. Tuttavia, se non siete d’accordo con questo, non potete usare la teoria della probabilità, né essere convinti dalle argomentazioni fornite dal resto del libro. Dovremmo notare, tuttavia, che l’identificazione degli eventi elementari non è sempre semplice o possibile. Presentiamo un famoso esempio per dimostrarlo. Supponiamo di avere N particelle (ad esempio elettroni) e M scatole (ad esempio livelli energetici). Ci sono differenti modi per distribuire le N particelle fra le M scatole. Se non possediamo altra informazione, potremmo assumere che ogni possibile configurazione abbia la stessa probabilità. La figura 2.4 mostra tutte le configurazioni possibili per N = 2 particelle in M = 4 scatole. Possiamo assegnare uguali probabilità a tutte queste 16 configurazioni. Questo si chiama “statistica classica” – da non confondere con la definizione “classica” della probabilità. Ciò sarebbe vero per monete o dadi distribuiti convinti della “correttezza” della nostra assegnazione di probabilità. 27
Capitolo 2
L’entropia svelata
Figura 2.4 Ogni possibile configurazione.
Figura 2.5 Configurationi nel caso di Bose-Einstein.
tra le scatole. Ma non funzionerebbe per particelle molecolari distribuite fra livelli energetici. Risulta che la Natura impone alcune restrizioni su quali configurazioni debbano essere contate come eventi elementari. La Natura ci dice anche che ci sono due modi di contare eventi elementari, che dipendono dal tipo di particelle. Per un tipo di particelle (come i fotoni o gli atomi di 4 He), chiamate bosoni, solo a 10 di queste configurazioni possiamo assegnare uguale probabilità. Queste sono mostrate in figura 2.5. Il secondo gruppo di particelle (come gli elettroni o i protoni), chiamate fermioni, può avere solo sei di queste configurazioni. Queste sono mostrate in figura 2.6. Nel primo caso (figura 2.5) diciamo che le particelle seguono la statistica di Bose-Einstein, mentre nel secondo caso (figura 2.6) diciamo che le particelle obbediscono alla statistica di Fermi-Dirac. Ho fatto questo esempio solo per mostrare che in generale non possediamo una regola universale su 28
2.3 Eventi indipendenti e probabilità condizionale
Figura 2.6
Capitolo 2
Configurationi nel caso di Fermi-Dirac.
come contare gli eventi elementari. Solo attraverso tentativi ed errori possiamo riuscire a selezionare gli eventi elementari e poi trovare quale sia il supporto teorico che consente la selezione corretta. In questo modo sono stati scoperti profondi e importanti principi della fisica.20
§ 2.3 Eventi indipendenti e probabilità condizionale I concetti di dipendenza tra gli eventi e di probabilità condizionale sono centrali nella teoria della probabilità e hanno molti usi nella scienza.21 In questo libro avremo bisogno solamente del concetto di indipendenza tra due eventi. Tuttavia, il ragionamento basato sulla probabilità condizionale appare in molte applicazioni della probabilità. Due eventi si dicono indipendenti se l’occorrenza di un evento non ha effetti sulla probabilità di occorrenza dell’altro. Per esempio, se due persone molto distanti lanciano un dado onesto ciascuno, i risultati dei due dadi sono indipendenti nel senso che, per esempio, l’occorrenza di “5” con un dado non ha alcun effetto sull’occorrenza del risultato “3” con l’altro (la coppia di dadi a sinistra, in figura 2.7). D’altra parte, se i due dadi sono connessi da un filo inflessibile (la coppia a destra, in figura 2.7), i due risultati saranno dipendenti. Intuitivamente è chiaro che se due eventi sono indipendenti, la probabilità dell’occorrenza di entrambi 20
Nella figura 2.5 abbiamo eliminato sei configurazioni (all’interno del rettangolo tratteggiato di figura 2.4). Tutte queste erano contate due volte nella figura 2.4, in cui le particelle sono indistinguibili. Nella figura 2.6 abbiamo poi eliminato altre quattro configurazioni (all’interno del rettangolo a tratto e punto nella figura 2.4). Per le particelle fermioniche è vietato avere due particelle nella stessa scatola. (Questo è chiamato il principio di esclusione di Pauli.) Risulta che queste regole seguono da qualche richiesta di simmetria delle funzioni d’onda del sistema di particelle. A quanto ne so, l’assegnazione delle probabilità precedette la scoperta del principio di simmetria. 21 Dovremmo sottolineare che l’introduzione delle probabilità condizionali e dell’indipendenza tra gli eventi è unica della teoria della probabilità, ed è ciò che la rende differente dalla teoria degli insiemi e dalla teoria della misura. 29
Capitolo 2
L’entropia svelata
Figura 2.7
gli eventi, per esempio “5” con un dado e “3” con l’altro, è il prodotto delle due probabilità. La ragione è piuttosto semplice. Lanciando due dadi simultaneamente, abbiamo in tutto 36 possibili eventi elementari. Ognuno ha probabilità di 1/36, che è anche uguale a 1/6 per 1/6, ovvero al prodotto delle probabilità di ciascun evento preso separatamente. Un secondo concetto fondamentale è la probabilità condizionale. Questa è definita come la probabilità di occorrenza di un evento A dato che B è occorso. Scriviamo questa come Pr{A ∣ B} (si legga “probabilità di A dato B”).22 Chiaramente, se due eventi sono indipendenti, allora l’occorrenza di B non ha effetti sulla probabilità di occorrenza di A. Scriviamo questo come Pr{A ∣ B} = Pr{A}. I casi interessanti sono quando gli eventi sono dipendenti, ovvero quando l’occorrenza di un evento influisce sull’occorrenza dell’altro. Nella vita di tutti i giorni, compiamo spesso tali stime di probabilità condizionale. Qualche volta l’occorrenza di un evento aumenta la probabilità di occorrenza del secondo evento; altre volte la diminuisce. Esempi: 1) La probabilità che oggi pomeriggio piova, dato che il cielo è molto nuvoloso a mezzogiorno, è maggiore della probabilità di “oggi pomeriggio piove”. 2) La probabilità che oggi pomeriggio piova, dato che il cielo è terso a mezzogiorno, è minore della probabilità di “oggi pomeriggio piove”. 3) La probabilità che oggi piova, dato che il risultato del lancio di un dado è “4”, è la stessa di “oggi piove”. 22
Si noti che la probabilità condizionale è definita solo per una condizione, la cui probabilità non sia zero. Nell’esempio appena citato, richiediamo che l’evento B non sia un evento impossibile. 30
2.3 Eventi indipendenti e probabilità condizionale
Capitolo 2
Possiamo dire che nel primo esempio i due eventi sono correlati positivamente; nel secondo esempio essi sono correlati negativamente; nel terzo esempio essi sono non-correlati o indifferenti.23 Nei tre esempi precedenti sentiamo che le affermazioni sono corrette. Tuttavia, non possiamo quantificarle. Persone diverse farebbero stime differenti per la probabilità di “oggi pomeriggio piove”. Per tornare a cose più quantitative e oggettive, consideriamo gli eventi seguenti: A = {Il risultato del lancio di un dado è “4”} B = {Il risultato del lancio di un dado è “pari” (cioè 2, 4 o 6)} C = {Il risultato del lancio di un dado è “dispari” (ovvero 1, 3 o 5)} Possiamo calcolare le due probabilità condizionali seguenti: Pr{A ∣ B} = 1/3 > Pr{A} = 1/6 Pr{A ∣ C} = 0 < Pr{A} = 1/6 Nel primo esempio sapere che B è occorso accresce la probabilità di occorrenza di A. Senza saperlo, la probabilità di A è 1/6 (una possibilità su sei). Data l’occorrenza di B, la probabilità di A diventa maggiore, 1/3 (una su tre possibilità). Ma dato che C si è verificato, la probabilità di A diventa zero, cioè minore della probabilità di A senza tale informazione. È importante distinguere tra eventi disgiunti (ovvero mutuamente esclusivi) e indipendenti. Eventi disgiunti sono eventi che sono mutuamente esclusivi: l’occorrenza di uno esclude l’occorrenza del secondo. Essere disgiunti è una proprietà degli eventi stessi (cioè i due eventi non hanno alcun evento elementare in comune). L’indipendenza tra due eventi non è definita in termini di eventi elementari compresi in entrambi, ma in termini delle loro probabilità. Se due eventi sono disgiunti, allora essi sono fortemente dipendenti. L’esempio seguente illustra la relazione tra la dipendenza e l’estensione della sovrapposizione.
23
Nella teoria della probabilità la correlazione è normalmente definita per variabili aleatorie. Per variabili aleatorie, “indipendente” e “non-correlato” sono concetti diversi. Per singoli eventi, le due cose coincidono. 31
Capitolo 2
L’entropia svelata
Figura 2.8
Consideriamo il caso seguente. In una roulette, ci sono in tutto 12 numeri {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} (figura 2.8). Ognuno di noi sceglie una sequenza di sei numeri consecutivi e, ad esempio, io scelgo la sequenza A = {1, 2, 3, 4, 5, 6} e voi scegliete la sequenza B = {7, 8, 9, 10, 11, 12} La puntina viene fatta rotolare nella roulette. Assumiamo che la roulette sia onesta, ovvero che ogni risultato abbia la stessa probabilità di 1/12. Se la puntina si ferma nel mio territorio, ovvero se si ferma in uno qualsiasi dei numeri {1, 2, 3, 4, 5, 6} che ho scelto, io vinco. Se la puntina si ferma nel vostro territorio, ovvero se si ferma su uno dei vostri numeri {7, 8, 9, 10, 11, 12}, vincete voi. Chiaramente ognuno di noi ha probabilità di vincita 1/2. La puntina ha uguale probabilità 1/12 di fermarsi in ogni numero e ognuno di noi ha 6 numeri nel proprio territorio. Quindi, ciascuno di noi ha la stessa probabilità di vittoria. Ora supponiamo di fare questo gioco ma che vi venga detto che ho vinto io. Qual è la probabilità di vittoria se scegliete B? Chiaramente Pr{A ∣ B} = 0 < 1/2, ovvero la probabilità condizionale di B dato A è zero, che è minore della probabilità non condizionale, Pr{B} = 1/2. Come semplice esercizio, provate a calcolare le seguenti probabilità condizionali. In ogni esempio la mia scelta della sequenza A = {1, ..., 6} è fissata. Calcolate le probabilità condizionali per le seguenti scelte differenti della vostra sequenza.
32
2.4 Tre avvertimenti
Capitolo 2
(Notate che in questo gioco possiamo vincere entrambi simultaneamente). Pr{7, 8, 9, 10, 11, 12 ∣ A}, Pr{6, 7, 8, 9, 10, 11 ∣ A}, Pr{5, 6, 7, 8, 9, 10 ∣ A}, Pr{4, 5, 6, 7, 8, 9 ∣ A}, Pr{3, 4, 5, 6, 7, 8 ∣ A}, Pr{2, 3, 4, 5, 6, 7 ∣ A}, Pr{1, 2, 3, 4, 5, 6 ∣ A} Si noti come la correlazione cambi da estremamente negativa (“dato A” certamente esclude la vostra vincita nel primo esempio) a estremamente positiva (“dato A” garantisce la vostra vincita nell’ultimo caso). Nel mezzo, troviamo una scelta che è indifferente all’informazione “dato A”. Qual è la scelta? Se riuscite a calcolare tutte le probabilità condizionali citate, questo dimostra che avete capito la differenza tra eventi disgiunti ed eventi indipendenti. Se non riuscite a fare il calcolo, guardate le risposte alla fine di questo capitolo. È un esercizio carino, sebbene non essenziale per la comprensione della Seconda Legge.
§ 2.4 Tre avvertimenti § 2.4.1 Probabilità condizionale e probabilità soggettiva C’è la tendenza a riferirsi alla “probabilità” come oggettiva e alla probabilità condizionale come soggettiva. Innanzitutto si noti che la probabilità è sempre condizionale. Quando diciamo che la probabilità del risultato “4” del lancio di un dado è 1/6, intendiamo dire in verità che la probabilità condizionale del risultato “4”, dato che uno dei risultati possibili 1, 2, 3, 4, 5, 6 si è verificato o si verificherà, che il dado è onesto e che il lancio è casuale, e data ogni altra informazione che sia rilevante. Di solito omettiamo questa data informazione nella nostra annotazione e parliamo di probabilità non condizionale. Questa è considerata una probabilità oggettiva.24 Ora consideriamo le seguenti due coppie di esempi: O1 : La probabilità condizionale del risultato “4”, dato che Jacob sa che il risultato è “pari”, è 1/3. O2 : La probabilità condizionale del risultato “4”, dato che Abraham sa che il risultato è “dispari”, è 0. 24
Qui vogliamo enfatizzare il cambiamento del grado di “oggettività” (o soggettività), quando ci spostiamo dalla probabilità di un evento a una probabilità condizionale. 33
Capitolo 2
L’entropia svelata
S1 : La probabilità condizionale che “l’accusato è colpevole”, dato che è stato visto dalla polizia sulla scena del delitto, è 9/10. S2 : La probabilità condizionale che “l’accusato è colpevole”, dato che è stato visto da almeno cinque persone in un’altra città al momento del crimine, è circa 0. In tutti gli esempi menzionati c’è una tendenza a riferirsi alla probabilità condizionale come a una probabilità soggettiva. La ragione è che in tutti gli esempi menzionati abbiamo fatto uso di conoscenza personale nelle condizioni. Quindi, ci sembra che ciò sia altamente soggettivo. Tuttavia non è così. Le due probabilità denotate O1 e O2 sono probabilità oggettive. Il fatto che abbiamo menzionato il nome delle persone, fonti delle informazioni, non rende soggettive le probabilità condizionali. Potremmo ripetere l’affermazione in O1 , ma con Rachel al posto di Jacob. La probabilità condizionale del risultato “4”, dato che Rachel sa che il risultato è pari, è 1/3. Il risultato è lo stesso. La soggettività di questa affermazione è solo un’illusione che risulta dal coinvolgimento del nome della persone che “conosce” la condizione. Un miglior modo di riformulare O1 è: La probabilità condizionale del risultato “4”, dato che noi sappiamo che il risultato è pari, è 1/3. O anche meglio: La probabilità condizionale del risultato “4”, dato che che il risultato è pari, è 1/3. Nelle ultime due affermazioni è chiaro che il fatto che Jacob o Rachel o chiunque di noi conosca la condizione non ha alcun effetto sulla probabilità condizionale. Nell’ultima affermazione abbiamo reso la condizione completamente impersonale. Dunque, possiamo concludere che aggiungere “data la condizione” non tramuti, di per sé, una probabilità oggettiva (incondizionata) in una probabilità soggettiva. Considerate il paragrafo seguente da Callen [1985]: Il concetto di probabilità ha due distinte interpretazioni nell’uso comune. “Probabilità oggettiva” si riferisce a una frequenza o alla frazione di occorrenze; l’affermazione che “la probabilità che un neonato sia maschio è poco meno di 1/2” è un’affermazione riguardante dati demografici. “Probabilità soggettiva” è una misura di aspettazione basata su un’informazione meno che ottimale. La probabilità (soggettiva) che un dato bambino non ancora nato sia maschio, come stimata da un medico, dipende dalla conoscenza da parte di quel medico delle storie familiari dei genitori, dall’aver accumulato dati sui livelli ormonali della madre, dalla crescente chiarezza delle immagini a ultrasuoni e, infine, dalla sua stima di esperto, pur sempre soggettiva. 34
2.4 Tre avvertimenti
Capitolo 2
Sebbene non sia detto esplicitamente, ciò che l’autore implica è che nel primo esempio: “la probabilità che un neonato sia maschio è poco meno di 1/2”, così formulata, sia la risposta a una domanda sulla probabilità incondizionata “qual è la probabilità che un neonato sia maschio?”. Il secondo esempio è messo in forma di risposta a una domanda sulla probabilità condizionale: “qual è la probabilità che un dato bambino non ancora nato sia maschio, dato che. . . (tutte le informazioni, così come enunciate)?”. Chiaramente la risposta alla seconda domanda è altamente soggettiva. Medici differenti a tale domanda daranno risposte diverse ma la stessa cosa è vera per la prima domanda, se forniamo informazioni diverse. Ciò che rende soggettive la seconda domanda e la sua risposta non è la condizione o le informazioni specifiche o le conoscenze specifiche di questo o quel dottore, ma la mancanza di conoscenza sufficiente. La conoscenza insufficiente dà la libertà di fornire ogni risposta (soggettiva) alla seconda domanda. Lo stesso è vero per la prima domanda. Se tutte le persone interpellate hanno la stessa conoscenza, così come descritta, ovvero nessuna informazione, esse sono libere di fornire ogni risposta che possono immaginare. La prima domanda non riguarda “dati demografici” come citato; è una domanda sulla probabilità dell’occorrenza del sesso maschile in un neonato, data l’informazione sui “dati demografici”. Se non avete alcuna informazione, non potete rispondere a questa “domanda oggettiva”, ma chiunque abbia le stesse informazioni sui “dati demografici” fornirà necessariamente la stessa risposta oggettiva. Sembra esserci un accordo generale sul fatto che esistano due tipi diversi di probabilità. Una è la probabilità altamente soggettiva legata al giudizio, e la seconda è la probabilità fisica o scientifica, considerata oggettiva. Entrambe possono essere condizionali o incondizionate. In questo libro useremo solamente probabilità scientifiche, quindi oggettive. Nell’uso della probabilità in tutte le scienze assumiamo sempre che le probabilità siano date esplicitamente o implicitamente da una certa ricetta che spieghi come calcolarle. Mentre a volte queste sono molto facili da calcolare, altre volte sono molto difficili,25 ma si può sempre essere sicuri che esse “appartengo25
Per esempio la probabilità di estrarre tre biglie rosse, cinque blu e due verdi da un’urna contenente 300 biglie, cento di ogni colore, dato che le biglie sono identiche e che abbiamo estratto dieci biglie in modo casuale e così via... Questo è un problema un pochino più difficile e potreste non essere capaci di calcolarla, ma la probabilità di quest’evento “appartiene” all’evento stesso. Ciò vale anche per la probabilità di trovare due atomi a una certa distanza l’uno dall’altro, in un liquido con date temperature e pressione, dato che conoscete e accettate le regole della meccanica statistica e che sapete che queste regole sono state estremamente utili nel predire molte proprietà medie di quantità macroscopiche, ecc. Questa probabilità 35
Capitolo 2
L’entropia svelata
no” all’evento, allo stesso modo in cui la massa è attaccata a ogni pezzo di materia. § 2.4.2 Probabilità condizionale e nesso causa-effetto La “condizione” nella probabilità condizionale di un evento può essere la causa oppure no dell’evento. Si considerino i due esempi seguenti: 1. La probabilità condizionale che il paziente muoia di cancro ai polmoni, dato che si tratta di un incallito fumatore, è 9/10. 2. La probabilità condizionale che il paziente sia un fumatore incallito, dato che ha un cancro ai polmoni, è 9/10. Chiaramente l’informazione data nella prima condizione è la causa (o la causa più probabile) dell’occorrenza del cancro ai polmoni. Nel secondo esempio, l’informazione data nella condizione — che il paziente ha il cancro — certamente non può essere la causa del fatto che il paziente è un fumatore incallito. Il paziente potrebbe aver cominciato a fumare all’età di 20 anni, molto tempo prima che il cancro si sviluppasse. Sebbene i due esempi precedenti siano chiari, ci sono casi nei quali la probabilità condizionale si confonde con il nesso causa-effetto. Così come percepiamo la causa precedere l’effetto, allo stesso modo la condizione è percepita come precedente nel tempo nella probabilità condizionale. Si consideri il seguente semplice e illustrativo esempio, studiato ampiamente da Ruma Falk.26 Potete considerarlo un semplice esercizio nel calcolo delle probabilità condizionali. Ad ogni modo, credo che quest’esempio contenga di più. Esso dimostra come tendiamo intuitivamente ad associare la probabilità condizionale con la freccia del tempo, confondendo la causalità con la probabilità condizionale. Questo può essere o no rilevante all’associazione della direzione del cambiamento di entropia con la freccia del tempo (discusso ulteriormente nel capitolo 8). Il problema è molto semplice: un’urna contiene quattro palle, due bianche e due nere. Le palle sono ben mescolate e ne estraiamo una bendati. Dapprima chiediamo: qual è la probabilità di occorrenza dell’evento “palla bianca alla prima estrazione”? La risposta è immediata: 1/2. Ci sono quattro equiprobabili risultati: due di loro sono consistenti con l’evento “palla bianca”, quindi la probabilità dell’evento è 2/4 = 1/2. è oggettiva! Potreste non essere capaci di calcolarla, ma sapete che “appartiene” all’evento. 26 Questo esempio e l’analisi delle sue implicazioni sono presi da Falk [1979]. 36
2.4 Tre avvertimenti
Capitolo 2
Poi chiediamo: qual è la probabilità condizionale di estrarre una palla bianca al secondo tentativo, dato che alla prima estrazione abbiamo tirato fuori una palla bianca (la prima palla non è stata rimessa dentro l’urna). Scriviamo questa probabilità condizionale come Pr{bianco2 ∣ bianco1 }. Il calcolo è molto semplice. Sappiamo che una palla bianca è stata estratta al primo tentativo e non è stata reinserita. Dopo la prima estrazione, rimangono tre palle: due nere e una bianca. La probabilità di estrarre una palla bianca è semplicemente 1/3. Questo è piuttosto semplice. Scriviamo Pr{bianco2 ∣ bianco1 } = 1/3 Ora la domanda più difficile: qual è la probabilità che abbiamo estratto una palla bianca al primo tentativo, dato che la seconda estratta è bianca? Simbolicamente, ci chiediamo quale sia Pr{bianco1 ∣ bianco2 } =? Questa è una domanda sconcertante. Come può un evento nel “presente” (palla bianca alla seconda estrazione) influire sulla probabilità di un evento nel “passato” (palla bianca al primo tentativo)? Queste domande sono state effettivamente poste durante una lezione. Alla domanda su Pr{bianco2 ∣ bianco1 } gli studenti risposero facilmente e senza sforzo, pensando che l’estrazione di una palla bianca al primo tentativo avesse causato un cambiamento nell’urna e che, quindi, avesse influenzato la probabilità di estrarre una seconda palla bianca. D’altro canto, la domanda su Pr{bianco1 ∣ bianco2 } causò un tumulto in classe. Alcuni pretendevano che questa domanda fosse priva di significato, pensando che un evento nel presente non potesse influenzare la probabilità di un evento nel passato. Altri pensarono che, visto che un evento nel presente non può influenzare la probabilità di un evento nel passato, la risposta alla domanda fosse 1/2. Tutti sbagliavano. La risposta è 1/3. Ulteriori dettagli su questo problema e l’analisi di Falk si possono trovare in Falk [1979]. Voglio attirare l’attenzione del lettore sul fatto che qualche volta ci confondiamo e associamo la probabilità condizionale con il nesso di causa-effetto, quindi intuitivamente percepiamo la condizione come precedente l’effetto; di qui l’associazione della probabilità condizionale con la freccia del tempo. La distinzione tra la causalità e la probabilità condizionale è importante. Forse dovremmo menzionare una proprietà caratteristica della causalità 37
Capitolo 2
L’entropia svelata
che non è condivisa dalla probabilità condizionale. La causalità è transitiva. Questo significa che, se A causa B e B causa C, A causa C. Un esempio semplice: se fumare causa il cancro e il cancro causa la morte, allora fumare causa la morte. La probabilità condizionale potrebbe essere o non essere transitiva. Abbiamo già fatto distinzione tra la correlazione positiva (o favorevole) e negativa (o contraria). Se A è favorevole a B, cioè se la probabilità di occorrenza di B dato A è maggiore della probabilità di occorrenza di B (Pr{B ∣ A} > Pr{B}), e se B è favorevole a C (ovvero Pr{C ∣ B} > Pr{C}), allora non segue necessariamente che A sia favorevole a C. Ecco un esempio in cui una probabilità condizionale favorevole non è transitiva. Si considerino i tre eventi seguenti nel lancio di un dado: A = {1, 2, 3, 4},
B = {2, 3, 4, 5},
C = {3, 4, 5, 6}.
Chiaramente A è favorevole a B (ovvero Pr{B ∣ A} = 3/4 > Pr{B} = 2/3). B è favorevole a C (ovvero Pr{C ∣ B} = 3/4 > Pr{B} = 2/3), ma A non è favorevole a C (ovvero Pr{C ∣ A} = 1/2 < Pr{C} = 2/3). § 2.4.3 Probabilità condizionale e probabilità congiunta Se non avete mai studiato la probabilità, potete beneficiare di questo avvertimento. Avevo un amico che era solito andare in motocicletta. Una notte, mentre guidava sull’autostrada, è stato colpito da un camion e si è ferito gravemente. Quando gli ho fatto visita in ospedale era ilare ed euforico. Ero sicuro che fosse perché la sua guarigione era stata veloce e completa. Con mia sorpresa, mi disse che aveva appena letto un articolo che riportava le statistiche sulle frequenze di incidenti automobilistici. Nell’articolo c’era scritto che la probabilità di rimanere coinvolto in un incidente d’auto è di uno su mille. La probabilità di essere coinvolto in due incidenti nella vita è di una su un milione. Quindi, concludeva: “Ora che ho avuto questo incidente, so che le probabilità di rimanere coinvolto in un altro incidente sono molto piccole...” Non volli smorzare il suo entusiasmo. Stava chiaramente confondendo la probabilità di avere “due incidenti nel corso della vita” con la probabilità condizionale di avere “un secondo incidente, dato che uno era già capitato”. Certo, potrebbe anche aver avuto ragione nella sua conclusione. Ma il suo ragionamento probabilistico era sbagliato. Se l’incidente fosse stato il 38
2.4 Tre avvertimenti
Capitolo 2
risultato di un suo errore, allora egli avrebbe poi potuto prendere la precauzione di stare molto attento in futuro, evitando di guidare sulle autostrade o di notte, o avrebbe potuto addirittura smettere di guidare una motocicletta. Queste precauzioni possono effettivamente ridurre le possibilità di rimanere coinvolto in un secondo incidente. Ma questo ragionamento implica che ci sia una dipendenza tra due eventi, ovvero che il “data la condizione” influisca sulla probabilità di essere coinvolto in un secondo incidente. Se, d’altra parte, non esiste alcuna dipendenza tra due eventi, come ad esempio nel caso in cui l’incidente non fosse stata colpa sua, anche stare estremamente attento in futuro potrebbe non ridurre la probabilità di incorrere in un nuovo incidente solo perché uno è già capitato! Rendiamo il ragionamento più preciso. Supponiamo che voi abbiate lanciato una moneta 1000 volte ottenendo tutte le volte testa (T). Qual è la probabilità che il prossimo risultato sia T? La maggior parte delle persone che non hanno studiato la probabilità direbbe che la probabilità di ottenere 1001 volte T è estremamente bassa. Questo è vero: la probabilità è di (1/2)1001 , davvero molto bassa. Ma la domanda riguarda la probabilità condizionale del risultato T dati 1000 T negli ultimi 1000 lanci. Questa probabilità condizionale è 1/2 (assumendo che tutti gli eventi siano indipendenti). La ragione psicologica per tale confusione è che voi sapete che la probabilità di T e C è 1/2. Quindi, se lanciate normalmente 1000 volte, è maggiormente probabile che otteniate circa 500 T e 500 C. Dato che è possibile che i primi 1000 lanci risultino testa (sebbene sia un evento molto raro), potreste “sentire” che “è venuto il tempo in cui le possibilità svoltino verso C” e che la sequenza di risultati debba comportarsi come si deve. Quindi, voi “sentite” che la probabilità di ottenere croce in coda alla sequenza di 1000 testa già verificatasi sia ora molto vicina a uno. Tuttavia, questo è sbagliato. Infatti, se una moneta mostra una serie di 1000 testa, io potrei sospettare che la moneta non sia bilanciata e, quindi, potrei concludere che la probabilità di ottenere di nuovo T sia maggiore di 1/2. Per concludere, se ci viene data una moneta onesta e se questa viene lanciata casualmente (ciò equivale a dire che la probabilità di T è 1/2), la probabilità di avere 1000 risultati di T è molto bassa, (1/2)1000 , ma la probabilità condizionale di avere T come prossimo risultato, data la sequenza di 1000 testa, è ancora 1/2. Questo ovviamente è vero nell’ipotesi in cui gli eventi a ogni lancio siano indipendenti. 39
Capitolo 2
L’entropia svelata
§ 2.5 Un sorso di teoria dell’informazione La teoria dell’informazione è nata nel 1948 [Shannon, 1948]. Quello di “informazione”, come quello di “probabilità”, è un concetto qualitativo, impreciso e altamente soggettivo. La stessa “informazione” ottenuta da persone differenti può avere diversi significati, effetti, valore. Se ho appena investito in azioni IBM mentre voi avete appena venduto le vostre, reagiremo in modo molto differente apprendendo la notizia che l’IBM ha appena lanciato un nuovo computer molto avanzato. Un contadino nel Mozambico che dovesse sentire esattamente la stessa novità sarebbe indifferente a questa notizia; infatti, per lui questa potrebbe anche essere priva di senso. Esattamente come la teoria della probabilità si è evoluta da un concetto soggettivo e impreciso, così ha fatto la teoria dell’informazione, che è stata raffinata fino a svilupparsi in una teoria quantitativa, precisa, oggettiva e molto utile. Per il presente libro, la teoria dell’informazione si rivela come un’importante pietra miliare nella comprensione del significato dell’entropia.27 In origine la teoria dell’informazione fu introdotta da Claude Shannon [Shannon, 1948] nel contesto della trasmissione delle informazioni attraverso linee di comunicazione. Più tardi essa si mostrò essere molto utile nella meccanica statistica, così come in tanti altri diversi campi della ricerca, per esempio in linguistica, economia, psicologia e molte altre aree. Io presenterò qui solamente alcune delle idee basilari della teoria dell’informazione — la conoscenza minima necessaria per usare il termine “informazione” in connessione col significato di entropia e per rispondere alla domanda “che cosa è che cambia?”. Nel capitolo 8 dimostrerò che l’entropia non è altro che l’informazione mancante così come definita nella teoria dell’informazione. Incominciamo con un gioco familiare. Io scelgo un oggetto o una persona e voi dovete scoprire chi o che cosa ho scelto, facendo domande binarie, ovvero domande a cui si possa rispondere solamente sì o no. Supponiamo che io abbia scelto una persona, diciamo Einstein: voi dovete scoprire chi è 27
Alcuni autori preferiscono riferirsi all’informazione mancante come alla “incertezza”. Sebbene io pensi che “incertezza” sia un termine appropriato, la mia inclinazione personale di prediligere “informazione” o “informazione mancante”. Credo che nel contesto dell’applicazione della teoria dell’informazione alla meccanica statistica, come convincentemente sviluppata da Jaynes [1983] e Katz [1967], la parola “informazione” sia preferibile. 40
2.5 Un sorso di teoria dell’informazione
Capitolo 2
la persona facendo domande binarie. Qui ci sono due possibili “strategie” per porre domande: “Strategia stupida”
“Strategia intelligente”
1 ) È Nixon? 2) È Gandhi? 3) Sono io? 4) È Marilyn Monroe? 5) Sei tu? 6) È Mozart? 7) È Niels Bohr? 8) . . .
1 ) La persona è un maschio? 2) È vivo? 3) È un politico? 4) È uno scienziato? 5) È molto famoso? 6) È Einstein?
Ho qualificato le due strategie come “stupida” e “intelligente”. La ragione è piuttosto semplice e spero siate d’accordo con me. La ragione è la seguente: se usate la prima “strategia”, certo potreste indovinare già alla prima domanda, mentre con la “strategia” intelligente non è possibile vincere con una sola domanda. Tuttavia, indovinare la risposta giusta al primo tentativo è altamente improbabile. È più probabile che continuiate a chiedere “per sempre” domande specifiche come quelle nella lista, senza mai trovare la risposta giusta. La ragione per preferire la seconda “strategia” è che a ogni risposta voi guadagnate più informazione (si veda più avanti), cioè escludete un grande numero di possibilità (idealmente metà delle possibilità; si veda più avanti il caso più preciso). Con la “strategia” intelligente, se la risposta alla prima domanda è SÌ, allora avete escluso un enorme numero di possibilità — tutte le donne. Se la risposta alla seconda domanda è NO, allora avete escluso tutte le persone viventi. A ogni ulteriore risposta che ottenete, restringete ulteriormente il range di possibilità, ogni volta escludendo un grande gruppo. Con la “strategia” stupida, d’altro canto, assumendo che non siate così fortunati da indovinare la risposta giusta con le prime poche domande, a ogni punto in cui ottenete una risposta potete escludere solamente una possibilità e, in pratica, non avete cambiato la gamma di possibilità sconosciute. Intuitivamente è chiaro che usando la “strategia” intelligente guadagnate più informazione da ogni risposta che non con la “strategia” stupida, anche se non abbiamo ancora definito il termine “informazione”. Sembra essere meglio scegliere pazientemente la “strategia” intelligente che correre impa41
Capitolo 2
L’entropia svelata
zientemente cercando di indovinare la domanda giusta nel più breve tempo possibile. Tutto ciò che ho detto prima è molto qualitativo. Questa è anche la ragione per la quale io metto tra virgolette la parola “strategia”. Il termine “informazione” come usato qui è impreciso (diventerà più preciso nel contesto della teoria dell’informazione). Tuttavia, spero che siate d’accordo con me e che intuitivamente sentiate che io ho correttamente etichettato la prima lista come “stupida” e la seconda come “intelligente”. Se non sentite così, dovreste provare a fare il gioco parecchie volte, usando alternativamente le due strategie. Sono sicuro che scoprirete che la strategia intelligente è davvero la più intelligente. In breve, renderemo il gioco più preciso e giustificheremo perché un insieme di domande è chiamato “stupido” e l’altro “intelligente” e, soprattutto, non avrete altra scelta che concordare con me e convincervi che la strategia “stupida” è davvero la più stupida. Prima di fare ciò, comunque, riflettiamo su questo gioco semplicissimo e proviamo a capire perché non possiamo fare alcuna affermazione precisa in merito alle due strategie. Innanzitutto, potete sempre pensare che, siccome sapete che io sono uno scienziato e che probabilmente sceglierei una persona come Einstein, sarebbe stato meglio per voi scegliere la prima strategia avendo persino successo. Tuttavia, sapendo che voi sapete che io sono uno scienziato e che potreste pensare che io avrei probabilmente scelto Einstein, io potrei essere più intelligente di voi e scegliere invece Kirk Douglas. Forse, voi potreste addirittura essere più intelligenti di me e sapere che io avrei probabilmente cercato di essere più furbo di voi scegliendo Kirk Douglas e così via. Certamente è molto difficile ragionare seguendo queste linee. Ci sono molti altri elementi di soggettività che potrebbero entrare nel gioco. Per illustrare ciò ulteriormente, potreste aver sentito nel notiziario del mattino che un serial killer a lungo ricercato è stato catturato e potreste aver dedotto o saputo che anch’io ho sentito lo stesso notiziario e, poiché esso è ancora fresco nella mia mente, avreste potuto indovinare che io avrei probabilmente scelto quella persona. Questo è il motivo per cui non si può costruire una teoria matematica dell’informazione su questo tipo di gioco. Ci sono troppi elementi qualitativi e soggettivi che resistono a ogni tentativo di quantificazione. Ciò non di meno, grazie alla teoria dell’informazione di Shannon, è possibile “ridurre” questo tipo di gioco in modo tale che si svuoti di ogni traccia di soggettività. Descriviamo ora un nuovo gioco che essenzialmente è lo stesso di prima, ma che nella sua forma distillata è molto più semplice e meglio si presta a un trattamento preciso, quantitativo e oggettivo. 42
2.5 Un sorso di teoria dell’informazione
Capitolo 2
Figura 2.9
Supponiamo di avere otto scatole uguali (figura 2.9, in alto). Io nascondo una moneta in una delle scatole e voi dovete scoprire dove l’ho messa. Tutto ciò che sapete è che la moneta deve essere in una delle scatole e che io non ho preferenze. Poiché la scatola è stata scelta casualmente, c’è una probabilità di 1/8 di trovare la moneta in ogni specifica scatola. Per essere neutrali, la scatola è stata scelta da un computer che ha generato un numero casuale tra 1 e 8, così che non possiate usare alcuna informazione che potreste avere sulla mia personalità per aiutarvi a indovinare dove ho “probabilmente” messo la moneta. Notate che in questo gioco abbiamo completamente rimosso ogni traccia di soggettività — l’informazione di cui abbiamo bisogno è “dove sta la moneta”. Il “nascondere” la moneta può essere fatto da un computer che sceglie una scatola a caso. Voi potete anche fare al computer domande binarie per trovare la posizione della moneta. Il gioco non dipende da che cosa voi sapete o da che cosa sappia il computer: l’informazione richiesta è dentro il gioco, indipendentemente dalla personalità o dalla conoscenza dei giocatori. Fra poco assegneremo una misura quantitativa a questa informazione. Chiaramente ciò di cui avete bisogno è informazione su “dove sta la moneta”. Per acquisire questa informazione, vi si permette solamente di fare domande binarie.28 Invece del numero indefinito di persone nel gioco prece28
Certo, esistono molti altri modi di ottenere questa informazione. Potete chiedere “dove sta la moneta?” o potete semplicemente aprire tutte le scatole e guardare dove sta. Queste cose però non sono in accordo con le regole del gioco. Abbiamo concordato di acquisire informazione solo tramite domande binarie. 43
Capitolo 2
L’entropia svelata
dente, abbiamo solo otto possibilità. Più importante, queste otto possibilità hanno uguali probabilità, 1/8 ciascuna. Di nuovo, ci sono molte strategie per porre domande. Ecco qui due strategie estreme e ben definite. Strategia stupida
Strategia intelligente
1 ) La moneta è nella scatola 1?
1 ) La moneta è nella metà destra (delle otto)? No 2) La moneta è nella metà superiore (delle rimanenti quattro)? No 3) La moneta è nella metà destra (delle rimanenti due)? Sì 4) Ora so la risposta!
2) La moneta è nella scatola 2?
3) La moneta è nella scatola 3? 4) La moneta è nella scatola 4? 5) . . .
Innanzi tutto, notate come io abbia usato qui il termine strategia senza virgolette. Le strategie qui sono ben definite e precise, mentre nel gioco precedente non sono stato in grado di definirle precisamente. In questo gioco, con la strategia più stupida chiedete: “la moneta è nella scatola k?”, con k che va da 1 a 8 . La strategia più intelligente è diversa: ogni volta voi dividete l’intera gamma di possibilità in due metà. Ora potete capire perché non abbiamo potuto definire la strategia più intelligente nel gioco precedente. Prima non era chiaro quali fossero tutte le possibilità ed era ancor meno chiaro se dividerle per due fosse possibile. Anche se ci fossimo limitati a scegliere solo persone che hanno lavorato in un campo specifico, ad esempio in termodinamica, non avremmo comunque saputo come dividerle in due metà o se tale divisione fosse possibile in linea di principio. Secondo, notate che in questo caso io dico che le due strategie sono “la più stupida” e “la più intelligente” (non ho potuto farlo nel gioco precedente così ho scritto solo “stupida” e intelligente”). La ragione è che ora uno può dimostrare matematicamente che se scegliete la strategia più intelligente e fate il gioco molte, molte volte, batterete qualsiasi altra possibile strategia, inclusa la peggiore, chiamata “la più stupida”. Poiché non possiamo usare gli strumenti matematici di una dimostrazione, lasciatemi provare a convincervi che la strategia “più intelligente” è di gran lunga migliore di quella “più stupida”(e voi potete anche “dimostrarlo” da soli facendo questo gioco con un amico o contro il computer). 44
2.5 Un sorso di teoria dell’informazione
Capitolo 2
Qualitativamente, se scegliete la strategia “più stupida”, potreste indovinare la scatola giusta alla prima domanda. Ma questo succederebbe con una probabilità di 1/8 e potreste fallire con una probabilità di 7/8. Supponendo che voi falliate alla prima domanda (cosa che è sempre più probabile con un maggior numero di scatole), avrete la probabilità di 1/7 di indovinare subito dopo e una probabilità di 6/7 di fallire, e così via. Se non l’avete trovata dopo sei domande, dopo la settima domanda saprete quale sia la risposta, ovvero possiederete l’informazione su dove sia la moneta. Se, d’altra parte, scegliete la strategia “più intelligente”, di sicuro fallirete alla prima domanda. Fallirete anche alla seconda domanda, ma è sicuro che avrete l’informazione richiesta dopo la terza domanda. Provate a ripetere il ragionamento precedente nel caso di una moneta nascosta in una fra 1000 scatole. Qualitativamente il motivo è lo stesso che nel gioco precedente, ma può ora essere più preciso e quantitativo. Chiedendo “la moneta è nella scatola 1?” potreste vincere con la prima domanda, ma con probabilità molto bassa. Se fallite dopo la prima domanda, avete eliminato solamente la prima scatola e diminuito solo di poco il numero di possibilità rimanenti: da 8 a 7. D’altra parte, con la strategia più intelligente la prima domanda elimina metà delle possibilità, lasciandone solo quattro. La seconda domanda ne elimina un’altra metà, lasciandone solo due e alla terza domanda ottenete l’informazione! Nella teoria dell’informazione la quantità di informazione mancante, cioè la quantità di informazione che dobbiamo acquisire facendo domande, è definita in termini della distribuzione di probabilità.29 In questo esempio le probabilità sono: {1/8, 1/8, 1/8, 1/8, 1/8, 1/8, 1/8, 1/8}. Nel fare la domanda più furba, uno guadagna da ogni risposta la massima informazione possibile (ci si riferisce a questo come a un bit di informazione). È possibile dimostrare che l’informazione massima si ottiene in ogni domanda quando lo spazio di tutti i possibili risultati viene suddiviso in due parti ugualmente probabili. Così, se a ogni passo della strategia più intelligente io guadagno l’informazione massima, otterrò tutta l’informazione con il minimo numero di domande. Di nuovo, sottolineo che questo è vero in media, cioè facendo il gioco molte, molte volte, la strategia più intelligente ci fornisce un metodo per ottenere l’informazione richiesta con il minimo nu29
Si noti che la “probabilità” non è stata definita ma è stata introdotta assiomaticamente. La definizione generale è:somma su tutti Pr{i} log Pr{i}, dove Pr{i} è la probabilità dell’iesimo evento. Questa ha la forma di una media, ma è una quantità media molto speciale. 45
Capitolo 2
L’entropia svelata
mero di domande. La teoria dell’informazione ci permette anche di calcolare il numero di domande di cui avremo bisogno in media per ogni strategia. Notate anche che la quantità di informazione richiesta è la stessa, non importa quale strategia scegliate. La scelta della strategia vi permette di ottenere la stessa quantità di informazione con un numero diverso di domande. La strategia più furba vi garantisce che la otteniate, in media, con il minimo numero di domande. Se questo ragionamento non vi convince, provate a pensare allo stesso gioco con 16 scatole. Ho raddoppiato il numero di scatole, ma il numero di domande che la strategia più intelligente richiede cresce solo di uno! Il numero medio di domande che la strategia più stupida ha bisogno di fare è molto maggiore. La ragione è ancora la stessa. La strategia più intelligente guadagna la massima informazione a ogni passo, mentre la strategia più stupida guadagna poca informazione nei primi pochi passi. In figura 2.9 sono mostrati due ulteriori casi del gioco con diversi numeri di scatole. Il numero di domande in ogni caso, calcolato con la teoria dell’informazione, è dato più avanti.30 Il punto importante da notare ora è che, più grande è il numero di scatole, più grande è la quantità di informazione di cui avrete bisogno per localizzare la moneta, quindi più grande è il numero di domande necessarie per acquisire quella informazione. Questo è intuitivamente chiaro. La quantità di informazione è determinata dalla distribuzione di probabilità, che nel nostro caso è {1/N , . . . , 1/N} per N scatole ugualmente probabili. Per rendere il gioco completamente impersonale e, quindi, totalmente oggettivo, pensate di giocare contro un computer. Il computer sceglie una scatola e voi fate al computer domande binarie. Supponete di pagare un centesimo per ogni risposta che ottenete con le vostre domande binarie. Di sicuro, cercherete di ottenere l’informazione richiesta (dove sia la moneta) pagando il meno possibile. Scegliendo la strategia più intelligente, voi otterrete il massimo valore per il vostro denaro. Con una definizione specifica dell’unità di misura della informazione, possiamo rendere la quantità di “informazione” uguale al numero di domande che dobbiamo porre utilizzando la strategia più intelligente. Riassumiamo il caso che coinvolge N scatole e una moneta nascosta in una delle scatole. Sappiamo che la scelta della scatola selezionata è stata fatta 30
Se N è il numero di possibilità ugualmente probabili, allora il numero di domande necessarie per localizzare la moneta è log2 N. Per esempio, per N = 8, log2 8 = 3; per N = 16, log2 16 = 4; per N = 32, log2 32 = 5; e così via. 46
2.6 Un sorsino di matematica, fisica e chimica
Capitolo 2
casualmente, cioè chi ha nascosto la moneta non ha alcuna “preferenza” né alcun pregiudizio nei confronti di alcuna scatola. In altre parole, la scatola è stata scelta con uguale probabilità di 1/N. In questo caso è chiaro che, più grande è il numero di scatole, più grande sarà il numero di domande che dovremo porre per localizzare la moneta nascosta. Possiamo dire che più grande è il numero di scatole, più grande è la quantità di informazione mancante: è questo il motivo per il quale dobbiamo porre più domande. Procediamo di un altro passo. Ci hanno detto che due monete sono state nascoste in N scatole. Assumiamo per concretezza che le due monete siano state posizionate in due scatole differenti. Di nuovo sappiamo che le scatole sono state scelte a caso. La probabilità di trovare la prima moneta in una specifica scatola è 1/N. La probabilità di trovare la seconda moneta, avendo localizzato la prima, è solo 1/(N − 1). Chiaramente in questo gioco dobbiamo porre più domande per localizzare le due monete. In generale, per un numero N fissato di scatole, più grande è il numero n di monete nascoste, più grande sarà il numero di domande che dobbiamo porre per localizzarle. Quando n è maggiore di N/2 possiamo alternativamente chiedere quali scatole siano vuote:31 una volta che le scatole vuote siano state trovate sapremo quali scatole sono state occupate. Per n = N (come per n = 0) abbiamo già tutta l’informazione e non abbiamo bisogno di porre domande.
§ 2.6 Un sorsino di matematica, fisica e chimica Come ho detto nella prefazione non è richiesta alcuna conoscenza di matematica avanzata per comprendere questo libro. Se davvero non conoscete nulla di matematica, vi suggerisco di allenarvi a pensare in termini di grandi numeri, numeri molto grandi, numeri inimmaginabilmente grandi. È anche utile avere familiarità con la notazione degli esponenti. Questa è semplicemente una notazione compatta per i grandi numeri. Un milione si scrive 106 che significa uno, seguito da sei zeri. O meglio ancora, la moltiplicazione di dieci per se stesso sei volte: 106 = 10 × 10 × 10 × 10 × 10 × 10 . Per un milione, è facile scrivere esplicitamente il numero per esteso, mentre se avete un numero come 1023 (che è più o meno il numero di atomi 31
Notate che assumiamo che le monete siano identiche. Tutto ciò che ci serve sapere è quali scatole sono occupate o, equivalentemente, quali scatole sono vuote. 47
Capitolo 2
L’entropia svelata
in un centimetro cubo di gas), troverete poco conveniente scrivere il numero esplicitamente. Per numeri nella forma 1010 000 , dovreste riempire molte pagine di zeri, cosa davvero poco pratica! Se poi avete un numero nella for23 ma 10(10 ) , dovreste spendere tutta la vostra vita scrivendo gli zeri e ancora non riuscireste a vedere la fine. Per avere un’idea del tipo di numeri di cui stiamo parlando, ho appena scritto il numero “1000” in un secondo, ovvero uno seguito da tre zeri. Forse potrei scrivere più velocemente, diciamo “10 000” in un secondo. Supponiamo che voi siate veramente veloci e possiate scrivere il numero “1 000 000” (cioè uno seguito da sei zeri, ovvero un milione) in un secondo: in 100 anni potreste scrivere esplicitamente il numero di zeri che seguono uno (assumendo che vogliate fare solo questo) 6 × 60 × 60 × 24 × 365 × 100 = 18 921 600 000. Questo è uno seguito da circa 1010 zeri. Certamente, questo è un numero molto grande. Possiamo scriverlo come 10(10
10 )
= 10(1 seguito da 10 zeri) = 1010 000 000 000 .
Supponete che voi o qualcun altro abbiate fatto la stessa cosa, non per cento anni ma per 15 miliardi di anni (circa l’età oggi stimata per l’universo): il numero scritto esplicitamente avrebbe circa 1018 zeri, ovvero esso sarebbe 18
1010 = 10(1 seguito da 18 zeri) . Questo numero è certamente un numero inimmaginabilmente grande. Come vedremo più avanti in questo libro, la Seconda Legge riguarda eventi 23 che sono così rari che potrebbero accadere una volta ogni 1010 esperimenti.32 Questi numeri sono molto più grandi di quello che potreste scrivere esplicitamente se vi sedeste e scriveste per 15 miliardi di anni. Questi sono i tipi di numeri che incontrerete quando discuteremo la Seconda Legge della Termodinamica dal punto di vista molecolare. Questa è tutta la matematica di cui avete bisogno per comprendere la Seconda Legge. Se volete anche seguire alcune delle note più dettagliate sarebbe utile familiarizzarvi con le tre notazioni seguenti: 32
Questo tipo di numeri non solo richiederebbe un tempo inimmaginabile per essere scritto esplicitamente, ma potrebbe darsi che un tale lasso di tempo non abbia proprio esistenza fisica. Il tempo, secondo la cosmologia moderna, potrebbe aver avuto inizio al bigbang, circa 15 miliardi di anni fa. Esso potrebbe terminare al big-crunch, se mai questo accadrà in futuro. 48
2.6 Un sorsino di matematica, fisica e chimica
Capitolo 2
1) Valore assoluto. Il valore assoluto di un numero, scritto ∣x∣, semplicemente significa che qualsiasi sia x, ∣x∣ è il valore positivo di x. In altre parole, se x è positivo non dovete cambiare nulla. Se x è negativo, semplicemente cancellate il segno “meno”. Quindi ∣5∣ = 5 e ∣ − 5∣ = 5. Tutto molto semplice. 2) Logaritmo di un numero. Questa notazione è estremamente utile in matematica. Essa rende facile scrivere numeri grandissimi. Il logaritmo in base 10 di un numero x è semplicemente il numero che dovete scrivere 10QUI per ottenere x. Molto semplice! Lo scriviamo così: log10 x. Esempio: qual è il numero che dobbiamo scrivere 10QUI per ottenere 1000? Questo è semplicemente 3, dato che 103 = 1000. Si scrive log10 1000 = 3. Qual è il logaritmo di 10 000? Semplicemente scrivete 10 000 = 104 e otterrete log10 10 000 = 4. Questo è semplicemente il numero di volte che moltiplicate dieci per se stesso. Sebbene non avremo bisogno del logaritmo di ogni numero arbitrario, è abbastanza chiaro che log10 1975 è maggiore di 3 ma minore di 4. Il simbolo log10 è chiamato “logaritmo in base dieci”. In modo simile, il “logaritmo in base due” log2 x è il numero che dovete scrivere 2QUI per ottenere x. Per esempio, il numero da scrivere 2QUI per ottenere 16 è semplicemente 4, perché 24 = 16, o equivalentemente questo è il numero di volte che moltiplicate 2 per se stesso per ottenere 16. Si può definire log2 x per ogni numero x positivo, ma per semplicità noi useremo questa notazione solamente quando x ha la forma 2(qualche intero) . Nella teoria dell’informazione, la quantità di informazione di cui abbiamo bisogno per localizzare la moneta nascosta fra N scatole identiche è definita uguale a log2 N. 3. Fattoriali. I matematici usano con molto successo una notazione abbreviata per la somma (∑) e il prodotto (∏). Noi non ne avremo bisogno. Una notazione molto utile esiste per un prodotto speciale, denotato N!. Esso significa moltiplicare tutti i numeri interi tra 1 e N. Dunque, per N = 5, N! = 1 × 2 × 3 × 4 × 5. Per N = 100, moltiplicate N! = 1 × 2 × 3 × ⋯ × 100. Con queste nozioni, abbiamo coperto tutto ciò di cui avremo bisogno dalla matematica. Per la fisica? Come nel caso della matematica, non avete bisogno di sapere nulla di fisica o chimica per comprendere la Seconda Legge. Tuttavia, esiste un fatto che dovreste conoscere. Nelle lezioni di Richard Feynmann, troviamo [Feynman, 1996]: 49
Capitolo 2
L’entropia svelata
Figura 2.10
Figura 2.11
Se, a causa di qualche cataclisma, tutta la conoscenza scientifica dovesse essere distrutta e solo una frase potesse passare alle future generazioni, quale affermazione conterrebbe la maggior informazione nelle minori parole? Io credo sia l’ipotesi atomica (o il fatto atomico, o qualsiasi altro nome vogliate dargli) che “tutte le cose sono fatte di atomi — piccole particelle che si spostano in moto perpetuo, attraendosi a vicenda quando si trovano separati da una piccola distanza, ma respingendosi se compressi l’uno sull’altro”.
Il fatto è che tutta la materia è composta di atomi (e molecole). Sebbene oggigiorno questo fatto sia dato per garantito, non è sempre stato così. La struttura atomica della materia ha le sue radici nella filosofia degli antichi Greci e ha più di duemila anni. Non faceva parte della Fisica, ma era una speculazione filosofica. Non abbiamo avuto alcuna prova dell’esistenza fisica degli atomi per circa duemila anni. Persino alla fine del XIX secolo, questa ipotesi era ancora vigorosamente dibattuta. Quando la Seconda Legge della Termodinamica fu formulata, la natura atomica della materia era un fatto ancora ben lontano dall’essere stabilito. Boltzmann fu uno dei promotori della struttura atomica della materia e, come abbiamo detto, egli aprì la porta alla spiegazione molecolare della Seconda Legge della Termodinamica. Egli dovette fronteggiare potenti oppositori che dichiaravano che l’esistenza dell’atomo fosse solo una speculazione e, quindi, non dovesse far parte della fisica. Oggigiorno la struttura atomica della materia è un fatto accettato. Il secondo fatto che dovreste sapere è un po’ più sottile. Si tratta della indistinguibilità di atomi e molecole. Passeremo un tempo considerevole giocando con dadi e monete. Due monete potrebbero differire nel colore, dimensione, forma, eccetera, come mostrato in figura 2.10. Nella vita quotidiana usiamo i due aggettivi “identico” e “indistinguibile” come sinonimi. Le due monete di figura 2.11 sono identiche in forma, dimensione, colore e ogni altra cosa vogliate. Diremo che esse sono distinguibili l’una dall’altra, nel senso che se esse si spostano possiamo seguire ognuna con i nostri occhi e, in qualsiasi istante, possiamo dire quale moneta proviene da quale posto. 50
2.6 Un sorsino di matematica, fisica e chimica
Capitolo 2
Figura 2.12
Supponente di scambiare le due monete a sinistra di figura 2.11 per ottenere la configurazione mostrata a destra. Se le monete sono identiche, allora non potete dire quale sia la differenza tra le configurazioni a sinistra e a destra. D’altra parte, se seguite il processo di scambio delle monete, potete dire da dove proviene ogni moneta. Questo è impossibile, in linea di principio, per particelle molecolari identiche. In questo caso, usiamo l’aggettivo indistinguibile piuttosto che identico. Considerate un sistema di due compartimenti separati da una partizione (figura 2.12). Inizialmente ci sono cinque monete in ogni compartimento. Le monete sono identiche sotto ogni aspetto. Ora rimuoviamo la partizione e scuotiamo l’intero sistema. Dopo un po’ di tempo vedremo una nuova configurazione simile a quella mostrata nella parte destra della stessa figura. Diciamo che le particelle (in questo caso, le monete) sono distinguibili anche se esse sono identiche, se possiamo dire in ogni istante da quale compartimento è partita ogni moneta, semplicemente perché possiamo seguire le traiettorie di tutte le particelle. Diciamo che le particelle sono indistinguibili se, ripetendo lo stesso esperimento di prima, non siamo in grado di dire da dove provengano le monete dopo la rimozione della partizione perché non possiamo seguire le traiettorie delle particelle. Questa possibilità era sconosciuta alla meccanica classica. In meccanica classica pensiamo sempre che le particelle di ogni dimensione siano “etichettate” o, almeno, sono in linea di principio “etichettabili”. L’equazione del moto di Newton predice le traiettorie di ogni specifica particella del sistema. Nella meccanica quantistica questo non è possibile in linea di principio.33 33
Notate che possiamo distinguere tra particelle diverse e identiche. Non possiamo distinguere con alcuno dei nostri sensi tra particelle identiche e indistinguibili (questo è il motivo per cui questi termini sono considerati colloquialmente sinonimi). Notate anche che possiamo cambiare le particelle da differenti a identiche continuamente, almeno in teoria. Ma non possiamo cambiare da distinguibili a indistinguibili in modo continuo. Le particelle o sono distinguibili o sono indistinguibili. L’indistinguibilità non è qualcosa che osserviamo nella vita di tutti i giorni. Essa è una proprietà imposta dalla Natura alle particelle microscopiche. 51
Capitolo 2
L’entropia svelata
Figura 2.13
Nei prossimi due capitoli avremo molti esempi dove incominceremo con dadi distinguibili e volontariamente faremo a meno della loro distinguibilità. Questo processo di “disetichettamento” delle particelle sarà essenziale nella comprensione della Seconda Legge della Termodinamica. Per quanto riguarda la chimica, non avete bisogno di conoscere nulla più del fatto che la materia è composta di atomi e molecole. Tuttavia, se volete capire l’esempio che ho inserito nell’ultima parte del capitolo 7 (interessante ma non essenziale), dovete sapere che alcune molecole hanno un centro asimmetrico (o centro chirale) e che tali molecole esistono in coppie, denotate con ℓ e d;34 sono quasi identiche, ma sono una l’immagine speculare dell’altra (dette enantiomeri). Tutti gli amminoacidi — i mattoni che costruiscono le proteine, che a loro volta sono i mattoni per costruire i muscoli e molti altri tessuti del corpo — esistono in una versione sola di queste coppie. Un esempio è l’amminoacido alanina (figura 2.13). La maggior parte degli amminoacidi naturali è della forma ℓ e si distinguono grazie alla loro attività ottica. La sola cosa che avete bisogno di sapere è che queste coppie di molecole sono quasi esattamente la stessa cosa per quanto riguarda i parametri molecolari come massa, momento di inerzia, momento di dipolo, eccetera. Le molecole dello stesso tipo, per esempio la forma ℓ, sono indistinguibili tra loro, ma le forme ℓ e d sono distinguibili e, in linea di principio, separabili. A questo punto abbiamo discusso tutti i “prerequisiti” necessari affinché possiate comprendere il resto di questo libro. A dire il vero, l’unico prerequisito che vi serve per capire i prerequisiti dati in questo capitolo è il buon senso. Per mettervi alla prova, provate a risolvere i due quiz seguenti.
34
I due isomeri ruotano la luce polarizzata in differenti direzioni: ℓ (per levogiro) a sinistra e d (per destrogiro) a destra. 52
2.7 A proposito di lotterie
Capitolo 2
§ 2.7 A proposito di lotterie Una lotteria di stato ha venduto un milione di biglietti. Ogni biglietto è stato venduto al prezzo di $10. Quindi, l’incasso lordo è stato di $10 000 000. Un biglietto vince $1 000 000, mentre 999 000 biglietti vincono $1 o il suo equivalente in valute diverse, e 999 biglietti vincono $10 o il suo equivalente in valute diverse. Quindi, tutto sommato il venditore deve distribuire l’equivalente di $2 008 990, ritrovandosi un bel guadagno netto di circa $8 000 000. Notate che tutte le vincite da $1 o da $10 sono in valute diverse e distinguibili. In altre parole due persone che vincono il valore di $1 ricevono premi diversi, ovvero differenti premi con lo stesso valore. Ora le domande (rispondete Sì o No alle prime tre domande). Io ho comprato un solo biglietto. 1. Vi dico che ho vinto $1 000 000 alla lotteria: ci credete? 2. Vi dico che ho vinto l’equivalente di $1 in valuta indiana: ci credete? 3. Vi dico che ho vinto l’equivalente di $10 in valuta cinese: ci credete? Ora stimate le probabilità seguenti: 4. Qual è la probabilità di vincere il premio da $1 000 000? 5. Qual è la probabilità di vincere il premio da $1 in valuta indiana? 6. Qual è la probabilità di vincere il premio di $10 in valuta cinese? 7. Qual è la probabilità di vincere $1 in qualsiasi valuta? 8. Qual è la probabilità di vincere $10 in qualsiasi valuta? 9. Dopo aver risposto alle domande 4-8, volete rivedere le vostre risposte alle domande 1-3? Per le risposte si veda la fine del capitolo (sezione 2.10.2).
§ 2.8 A proposito di ordine e disordine Guardate le due figure mostrate all’inizio del libro (pagina vii). Le ho intitolate “ordine” e “disordine”. Chiamiamole B e A.35 Ora che voi conoscete 35
Diciamo B per Boltzmann e A per Arieh. 53
Capitolo 2
L’entropia svelata
alcune nozioni elementari di probabilità, provate a rispondere alle domande seguenti. Supponiamo che 200 dadi siano stati usati per costruire entrambe le figure A e B. 1. Vi dico che ho ottenuto esattamente le due configurazioni A e B lanciando 200 dadi una volta ciascuna: ci credete? 2. Vi dico che ho disposto i dadi nella configurazione A e poi ho scosso la tavola per qualche secondo e ho ottenuto B: ci credete? 3. Vi dico che ho disposto i dadi nella configurazione B e poi ho scosso la tavola per qualche secondo e ho ottenuto A: ci credete? Per rispondere alle domande precedenti, avete solo bisogno di fare una stima qualitativa delle probabilità dei due eventi A e B. Ora cerchiamo di capire se potete anche fare stime quantitative delle probabilità. Supponiamo vi dica che la tavola è divisa in 1000 quadretti, per esempio. Ogni quadretto può contenere solo un dado. L’orientazione del dado non è importante, ma solo la faccia superiore di ogni dado è importante. Una configurazione è una descrizione esatta della faccia superiore e della posizione del dado (cioè in quale quadretto si trova). Ci sono in tutto 200 dadi (non contate il numero di dadi o quadretti nella figure: essi sono differenti da 200 e 1000, rispettivamente). Ogni dado può mostrare solamente uno dei sei numeri 1, 2, . . . , 6 nella sua faccia superiore e può essere localizzato in uno qualsiasi dei 1000 quadretti, ma non più di un dado in un singolo quadretto (e l’orientazione non importa). Ora stimate le probabilità degli eventi seguenti: 4. La probabilità di ottenere esattamente la configurazione A. 5. La probabilità di ottenere esattamente la configurazione B. 6. La probabilità di ottenere esattamente la configurazione A, ma ora senza far caso al numero di punti sulla faccia. 7. La probabilità di ottenere esattamente la configurazione B, ma ora senza far caso al numero di punti sulla faccia. Dopo aver fatto pratica con queste (piccole) probabilità e supponendo che abbiate risposto correttamente, provate con le prossime due domande, le più facili. 54
2.9 Un problema difficile
Capitolo 2
8. Ho lanciato di nuovo gli stessi 200 dadi due volte, ottenendo esattamente le stesse due configurazioni A e B: ci credete? Ora fate molta attenzione alla configurazione A: vedete qualche forma o lettera riconoscibile? Guardate solamente i dadi che mostrano un solo punto sulla loro faccia: riconoscete qualche cosa? Se non ci riuscite, guardate la stessa figura in fondo al libro (a pagina 181; dovreste ora capire perché io ho scelto A per Arieh e B per Boltzmann). Ora l’ultima domanda: 9. Volete rivedere qualcuna fra le vostre risposte alle otto domande precedenti? Le risposte sono date alla fine di questo capitolo (sezione 2.10.3).
§ 2.9 Un problema difficile Il problema seguente ha un significativo valore storico ed è considerato uno dei problemi la cui soluzione non solo ha cristallizzato il concetto di probabilità ma anche trasformato il ragionamento sulle possibilità fatto nei saloni delle scommesse in un ragionamento matematico che occupa la mente dei matematici. Né il problema né la soluzione sono rilevanti per la comprensione della Seconda Legge. Il mio scopo nel raccontarvi questa storia è triplice. Primo, per farvi sentire il sapore del tipo di problemi che venivano affrontati al tempo della nascita della teoria della probabilità. Secondo, per farvi assaporare il tipo di difficoltà incontrate nel calcolo delle probabilità, persino in problemi che sembrano molto semplici. Infine, se vi piacciono i problemi “cattivi”, potrete assaporare il delizioso sapore di come i matematici possono offrire una soluzione incredibilmente semplice a un problema apparentemente difficile e intrattabile. Il problema seguente fu assegnato a Blaise Pascal dal suo amico Chevalier de Mere nel 1654.36 Supponiamo che due giocatori mettano $10 ognuno su un tavolo. Ciascuno sceglie un numero compreso tra uno e sei. Supponiamo che Dan scelga il 4 e che Linda scelga il 6. Le regole del gioco sono molto semplici: lanciare un singolo dado e registrare la sequenza di risultati. Ogni volta che un 36
Una trattazione storica di questo e di altri fra i primi problemi di probabilità si può trovare in David [1962]. 55
Capitolo 2
L’entropia svelata
4 appare, Dan riceve un punto. Quando esce un 6 Linda ottiene un punto. Il giocatore che colleziona per primo tre punti vince la somma totale di $20. Per esempio, una sequenza possibile potrebbe essere: 1, 4, 5, 6, 3, 2, 4, 6, 3, 4 Una volta che il numero 4 sia apparso tre volte, Dan vince l’intera somma di $20. Ora supponiamo che il gioco sia iniziato e che a un certo momento la sequenza di risultati sia: 1, 3, 4, 5, 2, 6, 2, 5, 1, 1, 5, 6, 2, 1, 5 A questo punto, a causa di una qualche emergenza, il gioco deve essere fermato! La domanda è su come dividere la somma tra i due giocatori. Notate che il problema non sorgerebbe se le regole del gioco istruissero esplicitamente il giocatore su come dividere la somma in caso di interruzione. Ma in assenza di una tale regola, non è chiaro come dividere la somma. Chiaramente sentiamo che poiché Dan ha “collezionato” un punto mentre Linda ha “collezionato” due punti, Linda dovrebbe ottenere la frazione maggiore dei venti dollari. Ma quanto maggiore? La domanda è: qual è la più onesta maniera per dividere la cifra, data la sequenza di risultati? Linda dovrebbe forse ottenere il doppio di Dan, dato che ha guadagnato il doppio di punti? O magari dovremmo semplicemente dividere la somma in parti uguali, visto che il vincitore non è determinato? O piuttosto Linda dovrebbe avere l’intera cifra, visto che è “più vicina” alla vittoria di Dan? Uno scambio di lettere tra Blaise Pascal e Pierre de Fermat durò per diversi anni. Questi furono i primi fondamentali ragionamenti che portarono allo sviluppo della teoria della probabilità. Notate che nel XVII secolo il concetto di probabilità era ancora ben lontano dall’essere cristallizzato. La difficoltà non era solo quella di trovare la soluzione matematica: non era meno difficile chiarire quale fosse il problema, cioè che cosa significasse trovare il più onesto modo di suddividere la somma. La risposta all’ultima domanda è la seguente. Siccome non c’è alcuna specifica regola su come dividere la somma in caso di interruzione del gioco, “il più onesto” modo di suddividere la somma sarebbe di dividerla seguendo la proporzione delle probabilità che i giocatori vincano il gioco in caso di prosecuzione. 56
2.10 Risposte ai problemi
Capitolo 2
Nel formulare il problema in termini di probabilità abbiamo superato una difficoltà. Ora abbiamo un problema ben formulato. Ma come possiamo calcolare le probabilità di vincita di ogni giocatore? Sentiamo che Linda ha migliori chance di vittoria poiché è “più vicina” a collezionare tre punti di Dan. Possiamo facilmente calcolare che la probabilità che vinca Dan al prossimo lancio è zero. La probabilità che vinca Linda al prossimo lancio è 1/6 e la probabiltà che nessuno dei due vinca al prossimo lancio è 5/6. Si può calcolare la probabilità di vittoria dopo due lanci, tre lanci, eccetera. Diventa molto complicato e in linea di principio si dovrebbe trovare la somma di una serie infinità, ma la soluzione matematica a problemi di questo tipo non è facile. Provate a calcolare la probabilità che ogni giocatore vinca nei prossimi due lanci e nei prossimi tre lanci e vedrete come diventa complicato. Certo, se vi piace la matematica, vi piacerà la semplice soluzione basata sulla soluzione di una equazione a una incognita data alla fine di questo capitolo (sezione 2.10.4).
§ 2.10 Risposte ai problemi § 2.10.1 Risposte al problema della roulette In tutti questi problemi la mia scelta per la sequenza è fissata {1, 2, 3, 4, 5, 6} e ha probabilità 1/2 di vincere. Se voi scegliete l’evento disgiunto {7, 8, 9, 10, 11, 12}, allora la probabilità condizionale è Pr{B ∣ A} = Pr{7, 8, 9, 10, 11, 12 ∣ A} = 0 , perché la conoscenza che A è occorso esclude l’occorrenza di B. Nel primo esempio in cui è stata scelta una sequenza con parziale sovrapposizione, abbiamo (figura 2.14): Pr{B ∣ A} = Pr{6, 7, 8, 9, 10, 11 ∣ A} = 1/6 < 1/2 . Sapere che A è occorso significa che la vostra vincita è possibile solamente se è uscito “6”; quindi, la probabilità condizionale è 1/6, minore di Pr{B} = 1/2, ovvero c’è una correlazione negativa. Allo stesso modo, per B = {5, 6, 7, 8, 9, 10} abbiamo Pr{B ∣ A} = Pr{5, 6, 7, 8, 9, 10 ∣ A} = 2/6 < 1/2 . Qui, “dato A”, vincerete solamente se esce “5” o “6”; quindi la probabilità condizionale è 2/6, ancora minore di Pr{B} = 1/2. 57
Capitolo 2
L’entropia svelata
Figura 2.14
Nel terzo caso, B = {4, 5, 6, 7, 8, 9}, quindi Pr{B ∣ A} = Pr{4, 5, 6, 7, 8, 9 ∣ A} = 3/6 = 1/2 . Qui la probabilità condizionale è 1/2, esattamente la stessa della probabilità “non condizionale” Pr{B} = 1/2. Questo significa che i due eventi sono indipendenti o non correlati. Per gli ultimi tre esempi abbiamo Pr{B ∣ A} = Pr{3, 4, 5, 6, 7, 8 ∣ A} = 4/6 > 1/2 Pr{B ∣ A} = Pr{2, 3, 4, 5, 6, 7 ∣ A} = 5/6 > 1/2 Pr{B ∣ A} = Pr{1, 2, 3, 4, 5, 6 ∣ A} = 6/6 = 1 > 1/2 Nell’ultimo esempio sapere che A si è verificato rende l’occorrenza di B certa. In questi esempi abbiamo visto che eventi che si sovrappongono possono essere positivamente correlati, negativamente correlati, o non correlati. § 2.10.2 Risposte a “a proposito di lotterie” 1. Probabilmente non ci crederete, anche se è possibile. 2. Probabilmente ci crederete, anche se le probabilità sono tanto basse quanto la vincita del premio da $1 000 000. 3. Probabilmente ci crederete, anche se le probabilità sono tanto basse quanto la vincita del premio da $1 000 000. 4. La probabilità è uno su un milione (10−6 ). 58
2.10 Risposte ai problemi
Capitolo 2
5. La probabilità è uno su un milione (10−6 ). 6. La probabilità è uno su un milione (10−6 ). 7. La probabilità è 999 000/1 000 000 ≈ 1. 8. La probabilità è 999/1 000 000 ≈ 1/1000. 9. Se la vostra risposta alla prima domanda era SÌ, probabilmente avete confuso l’evento esatto “vincere un dollaro in una specifica valuta” con l’evento indistinto37 “vincere un dollaro in qualunque valuta”. Il primo è molto improbabile mentre il secondo è quasi certo. § 2.10.3 Risposte a “a proposito di ordine e disordine” 1. Dovreste probabilmente credere a A ma non a B. Ma guardate il seguito. 2. Non dovreste crederlo. 3. Potreste crederlo, se considerate A come una configurazione ottenuta casualmente. Ma non dovreste crederlo, se considerate la configurazione specifica A. 4. La probabilità che un dado mostri una faccia specifica e che si trovi in 1 una posizione specifica è 61 × 1000 . La probabilità che tutti i 200 dadi mostrino le facce specificate e occupino le posizioni specificate (si noti che i dadi sono distinguibili e che non vi può essere più di un dado 200 1 in ogni scatola) è ( 61 ) 1000×999×998×⋯×801 . Si tratta di una probabilità piccolissima. 5. La risposta è la stessa della domanda precedente. 6. La probabilità è
1 1000×999×998×⋯×801 ,
ancora molto piccola.
7. La probabilità è la stessa della domanda precedente, piccolissima. 8. Probabilmente non dovreste. Potreste essere tentati di credere che io abbia ottenuto la configurazione A casualmente. Tuttavia, la domanda si riferisce alla configurazione esatta A. 37
Il termine “evento indistinto” verrà discusso nei prossimi capitoli. 59
Capitolo 2
L’entropia svelata
9. Potete essere sicuri che, ogni volta che la domanda riguarda una configurazione specifica come A o B, la probabilità è estremamente piccola. Tuttavia, se considerate A come una configurazione casuale, potreste aver ragione nell’assegnarvi la probabilità maggiore. Il motivo è che ci sono molte configurazioni che “sembrano” A, cioè casuali, da cui la maggior probabilità. Tuttavia, dopo aver realizzato che A contiene la parola “Arieh”, appare chiaro che essa è certamente non casuale. § 2.10.4 Risposta a “un problema difficile” La soluzione al problema è questa. Denotiamo con X la probabilità che Linda vinca. Ora, nel prossimo lancio, ci sono tre eventi mutuamente esclusivi: I: risultato {6} con probabilità 1/6 II: risultato {4} con probabilità 1/6 III: risultato {1, 2, 3, 5} con probabilità 4/6 Se denotiamo l’evento “Linda vince” con LV, vale l’equazione seguente:38 X = Pr{LV} = Pr{I} Pr{LV ∣ I} + Pr{II} Pr{LV ∣ II} + Pr{III} Pr{LV ∣ III} 1 1 1 4 = ×1+ × + ×X 6 6 2 6 ovvero abbiamo un’equazione con una sola incognita 6X =
3 + 4X 2
la cui soluzione è X = 3/4. Si noti che gli eventi I, II e III si riferiscono ai possibili risultati del prossimo lancio. L’evento LV si riferisce a “Linda vince”, senza specificare il numero di lanci seguenti. L’equazione precedente significa che la probabilità che Linda vinca è la somma delle tre probabilità di tre eventi mutualmente esclusivi. Se l’evento I occorre, allora Linda vince con probabilità 1. Se l’evento II occorre, allora la probabilità di vittoria per lei è 1/2. 38
Nell’ultima riga il valore 1/2 che appare nel secondo fattore viene dal fatto che in questo caso entrambi i giocatori possiedono 2 punti e, quindi, hanno la stessa probabilità di vincere. N.d.T. 60
2.10 Risposte ai problemi
Capitolo 2
Se l’evento III occorre, allora la sua probabilità di vincita è X, la stessa probabilità del momento in cui il gioco è stato sospeso. 0%
25%
50%
75%
FINE CAPITOLO 2
61
100%
3
Dapprima giochiamo con dadi reali § 3.1 Un solo dado Incominceremo con un gioco molto noioso. Voi scegliete un numero fra 1 e 6, diciamo “4”, e io scelgo un numero diverso tra 1 e 6, diciamo “3”. Lanciamo il dado. La prima volta che il risultato 4 o 3 appare o voi o io vinciamo. Questo gioco non richiede alcuno sforzo intellettuale. Non c’è alcun risultato preferito: ogni risultato ha la stessa probabilità di apparire e ognuno di noi ha le stesse possibilità di vincere o perdere. Se facciamo lo stesso gioco molte volte, è probabile che in media saremo pari, né vincenti né perdenti (presumendo che il dado sia onesto, chiaramente). Come faccio a saperlo? Perché abbiamo accettato il fatto che la probabilità di ogni risultato è 1/6 e crediamo anche, in base alla nostra esperienza, che nessuno possa battere le leggi della probabilità. Tuttavia, non è stato sempre così. In tempi più antichi si credeva che alcune persone avessero un potere divinatorio che permettesse loro di predire il risultato del lancio di un dado o che esistesse una qualche potenza divina che determinasse i risultati a Sua volontà. Se potessimo comunicare con “Lui”, direttamente o tramite un mediatore, potremmo sapere meglio quale risultato scegliere.1 Oggi tuttavia, quando consideriamo lo stesso gioco con il dado, assumiamo che ci sono sei e solo sei possibili risultati (figura 3.1) e che ogni risultato ha la stessa probabilità, 1/6: la tabella 3.1 è ovvia. Risultato: Probabilità:
1 1/6
2 1/6
3 1/6
Tabella 3.1
1
Si veda la nota 1 a pagina 15, capitolo 2.
4 1/6
5 1/6
6 1/6
Capitolo 3
L’entropia svelata
Figura 3.1
1.1, 2.1, 3.1, 4.1, 5.1, 6.1,
1.2, 2.2, 3.2, 4.2, 5.2, 6.2,
1.3, 2.3, 3.3, 4.3, 5.3, 6.3,
1.4, 2.4, 3.4, 4.4, 5.4, 6.4,
1.5, 2.5, 3.5, 4.5, 5.5, 6.5,
1.6 2.6 3.6 4.6 5.6 6.6
Tabella 3.2
§ 3.2 Due dadi Un gioco leggermente più complicato si fa con due dadi. Ci sono diversi modi di giocare con due dadi. Potremmo scegliere, per esempio, un risultato specifico, ad esempio “dado bianco 6 e dado blu 1”. In tutto ci sono 36 possibili risultati specifici; questi sono elencati nella tabella 3.2. Chiaramente tutti i risultati sono ugualmente probabili. Come lo so? Assumendo che i dadi siano onesti e che i risultati siano indipendenti (un risultato non influenza l’altro), allora la risposta segue dal puro buon senso. Risposta alternativa: ogni risultato di un singolo dado ha probabilità 1/6; la probabilità di ogni specifico risultato di una coppia di dadi è il prodotto delle probabilità di ogni dado, ovvero 1/6 per 1/6, che è 1/36. Questo ragionamento richiede la regola che le probabilità di due eventi indipendenti è il prodotto delle probabilità di ogni evento. Questa regola è, tuttavia, basata anch’essa sul buon senso! Come nel caso di un dado, fare questo gioco è noioso e per nulla interessante e certamente non richiede alcuno sforzo mentale. Un gioco leggermente più impegnativo è scegliere la somma dei risultati dei due dadi, senza curarsi dei numeri specifici o dei colori specifici dei dadi. Ecco tutti i risultati possibili in questo gioco: Risultati:
2,
3,
4,
5,
6, 64
7,
8,
9,
10,
11,
12
3.2 Due dadi
Capitolo 3
Figura 3.2
In tutto, abbiamo 11 possibili risultati. Ci riferiremo a essi come a “eventi indistinti” per i motivi spiegati più avanti.2 Se dovete scegliere un risultato, quale scegliete? Contrariamente ai due giochi precedenti, qui dovete pensare un pochino (non troppo e certamente entro le vostre capacità!). Chiaramente i risultati elencati in precedenza non sono eventi elementari, cioè non sono equiprobabili. Come potete vedere nella figura 3.2 o contare da soli, ogni evento consiste nella somma (o unione) di eventi elementari. Gli eventi elementari di questo gioco sono gli stessi del gioco precedente, ovvero ogni specifico risultato ha probabilità di 1/36. Prima di calcolare le probabilità degli eventi composti, ovvero degli eventi che hanno una somma specifica, notate che in figura 3.2 gli eventi di uguale somma si presentano lungo le diagonali principali3 del quadrato. Questa figura è riprodotta in figura 3.3 rotata di 45 gradi in senso orario. Una volta compreso che potete contare il numero di eventi specifici (o elementari) contenuti in ognuno degli eventi composti, potete ora calcolare la probabilità di tutti questi eventi. Per facilitare il conteggio, abbiamo “compresso” la figura ruotata 3.3 per produrre la figura 3.4 (ogni coppia è ruotata all’indietro in senso antiorario, e abbiamo raggruppato le coppie con uguale somma. 2
Qui usiamo il termine “evento indistinto” per riferirci a un evento i cui dettagli non ci interessano. 3 Le diagonali principali sono quelle che partono in alto a sinistra e arrivano in basso a destra. N.d.T. 65
Capitolo 3
L’entropia svelata
Figura 3.3
Figura 3.4
66
3.2 Due dadi
Eventi indistinti Molteplicità Probabilità
Capitolo 3
2 1
3 2
4 3
5 4
6 5
7 6
8 5
9 4
10 3
11 2
12 1
1 36
2 36
3 36
4 36
5 36
6 36
5 36
4 36
3 36
2 36
1 36
Tabella 3.3
Le probabilità degli eventi composti sono elencate nella tabella 3.3. La “molteplicità” è semplicemente il numero di eventi specifici compresi nell’evento indistinto. Come faccio a sapere che queste sono le probabilità giuste? La risposta è, di nuovo, puro buon senso. Dovreste convincervi da soli di questo. Se non siete convinti, allora fate questo gioco qualche milione di volte e registrate le frequenze dei risultati. Tuttavia vi invito a non effettuare l’esperimento ma, invece, a fidarvi del vostro buon senso per giungere a queste probabilità, o equivalentemente a fare un milione di esperimenti mentali e immaginare quante volte otterrete ogni somma. Una volta che vi siete convinti, controllate che le probabilità di tutti gli eventi sommino a 1, come deve essere.4 Con questo background nel gioco di due dadi, andiamo avanti a giocare. Quale risultato sceglierete? Chiaramente non sceglierete 2 o 12. Perché? Perché questi eventi consistono solamente di un evento specifico (o elementare). Osservando la tabella ruotata (figura 3.3), vedrete che scegliendo il risultato 7, le vostre probabilità di vittoria saranno massime. Non c’è nulla di magico nel numero 7. Semplicemente accade che in questo particolare gioco la somma 7 consista nel numero massimo di eventi specifici; quindi, è il numero con il quale vincerete più probabilmente. Certamente se facciamo il gioco una sola volta, voi potreste vincere scegliendo 2. Ma se voi scegliete 2 e io scelgo 7 e se giochiamo molte volte, io vincerò la maggior parte delle volte. Le probabilità relative sono di 6:1, come mostra la tabella 3.3. Nella figura 3.5, rappresentiamo il numero di eventi elementari (o il numero di specifiche configurazioni) per somme differenti nei giochi con uno e due dadi. Una volta che vi sentiate sicuri con questo gioco, possiamo andare avanti con il prossimo gioco. È un gioco un pochino più difficile, ma vi porta sulla giusta strada nella comprensione della Seconda Legge della Termodinamica. 4
Per la completezza dello spazio degli eventi. N.d.T. 67
L’entropia svelata
2
Numero di eventi
Numero di eventi
Capitolo 3
UN DADO
1
0 0
1
2
3
4
5
6
7
8
DUE DADI 6 4 2 0
2
4
6
8
10
12
Somma dei risultati
Somma dei risultati
Figura 3.5
§ 3.3 Tre dadi Questo gioco è essenzialmente lo stesso del caso precedente. È un pochino più difficile e richiede qualche conteggio in più. Giochiamo con tre dadi e dobbiamo scegliere la somma dei risultati, solo la somma, senza curarci dei numeri specifici su ogni dado o del suo colore. Non c’è nulla di nuovo, in linea di principio, solamente il conteggio è più tedioso. In effetti, questo è esattamente il tipo di gioco con cui la teoria della probabilità si è evoluta. Quale risultato scegliere? La domanda fu rivolta ai matematici prima che la teoria delle probabilità fosse stabilita (si veda il capitolo 2). La lista dei risultati possibili è: 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18 In tutto, ci sono 16 differenti risultati. Elencare tutti i possibili risultati, ad esempio {blu = 1, rosso = 4, bianco = 3}, prenderebbe veramente uno spazio grande. In tutto ci sono 63 = 216 possibili risultati specifici. Chiaramente non vorreste scommettere sul 3 o sul 18, e neppure sul 4 o sul 17. Perché? Per esattamente lo stesso motivo per il quale non avete scelto il numero più piccolo o quello più grande nel gioco precedente. Ma qual è il miglior risultato da scegliere? Per rispondere a questa domanda, dovete contare tutti i risultati specifici (o elementari) che conducono a ognuna delle somme nella lista precedente. Questo richiede un piccolo sforzo, ma non c’è alcun nuovo principio da invocare, solamente il buon senso e la volontà di effettuare il conteggio. Oggi siamo fortunati ad avere il computer per fare il conteggio al posto nostro. I risultati sono elencati nella tabella 3.4: nella seconda riga elenchiamo il numero di possibilità per ogni somma; le probabilità si ottengono dalla seconda riga dividendo tutto per 216. Quindi, per un dado la distribuzione è uniforme. Per due dadi troviamo un massimo per somma = 7 (figura 3.5). Per tre dadi abbiamo due probabilità 68
3.4 Quattro e più dadi
Capitolo 3
Somma 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Moltepl. 1 3 6 10 15 21 25 27 27 25 21 15 10 6 3 1 3 6 10 15 21 25 27 27 25 21 15 10 6 3 1 1 Probab. 216 216 216 216 216 216 216 216 216 216 216 216 216 216 216 216 Tabella 3.4
massime alle somme di 10 e 11. Le loro probabilità sono 27/216. Quindi, se volete vincere, scegliete o la somma 10 o la somma 11. Nella figura 3.6, rappresentiamo il numero di eventi elementari per ogni possibile somma di tre dadi. Dividendo il numero di eventi per il numero totale 63 = 216 di eventi specifici otteniamo le probabilità corrispondenti, anch’esse mostrate in figura 3.6. Dovreste essere capaci di confermare da soli alcuni di questi numeri. Non avete bisogno di nessuna matematica avanzata, né di alcuna conoscenza di teoria della probabilità — il semplice conteggio e il buon senso sono tutto ciò che vi serve. Se lo fate e se capite perché le probabilità massime capitano a 10 o a 11, siete quasi a metà lungo la strada verso la comprensione della Seconda Legge. Proseguiamo a discutere qualche altro gioco dello stesso tipo ma con un numero crescente di dadi.
§ 3.4 Quattro e più dadi Il gioco con quattro dadi è lo stesso di prima. Dobbiamo scegliere un numero tra 4 e 24. Lanciamo quattro dadi simultaneamente e guardiamo la somma dei quattro risultati sulle facce superiori dei quattro dadi, senza cu-
TRE DADI Probabilità
Numero di eventi
0.2
TRE DADI
30
20
10
0
4
8
12
0.1
0.0
16
4
Somma dei risultati
8
12
Somma dei risultati
Figura 3.6 69
16
Capitolo 3
L’entropia svelata 0.12
0.12
0.10 4
0.08
0.08
5
0.06 0.04
6 7
0.02 0.00
Probabilità
Probabilità
0.10
0
5
10
15
20
25
30
35
0.06
4
0.04
5
0.02
6
0.00
40
Somma dei risultati
7
0.2
0.4
0.6
0.8
1
Somma ridotta
Figura 3.7
Figura 3.8
rarci della loro identità (o colore) o di quale dado mostri un certo risultato; solo la somma è importante. In questo caso, abbiamo 64 = 1296 possibili risultati specifici. Non è pratico elencarli tutti. La probabilità di ogni specifico risultato è 1/1296. Il conteggio in questo caso è piuttosto laborioso, ma non richiede alcun nuovo principio. La figura 3.7 mostra le probabilità, proporzionale al numero di risultati specifici diviso per il numero totale di eventi specifici, in funzione della somma. Per quattro dadi, le somme possibili vanno da un minimo di 4 a un massimo di 24. Per cinque dadi, i valori vanno da 5 a 30. Per sei dadi, la gamma è da 6 a 3 e per sette dadi esso va da 7 a 42. Nella figura 3.8 mostriamo gli stessi dati di figura 3.7, ma questa volta rappresentiamo le probabilità in funzione della somma “ridotta”. La somma ridotta è semplicemente la somma divisa per la somma massima. Quindi, un intervallo da 0 a N in figura 3.7 viene “compresso” nell’intervallo da 0 a 1. Questa compressione cambia l’area sotto le curve. In figura 3.7 l’area sotto ogni curva è 1, mentre in figura 3.8 essa è ridotta di un fattore N. Si noti che la dispersione delle probabilità in figura 3.7 è maggiore per N crescente. In contrasto, la dispersione in figura 3.8 diminuisce con il crescere di N: più grande è N e più appuntita diviene la curva. Questo significa che, se siamo interessati alle deviazioni assolute dal massimo (a N/2), dobbiamo guardare la figura 3.7. D’altra parte, se ci interessano solamente le deviazioni relative dal massimo (a 1/2), dobbiamo guardare la figura 3.8. Quando N diventa molto grande, la curva in figura 3.8 diventa estremamente appuntita, cioè le deviazioni relative dal massimo diventano così piccole da essere trascurabili. Notate anche che in ogni caso ci sono una o due somme per le quali la probabilità è massima. Osservate come diventa la forma della distribuzione. Questa assomiglia alla forma a campana, conosciuta anche con il nome di 70
Capitolo 3
0.30 10 0.25 0.20 20 0.15 50 0.10 100 0.05 0.00 0 10 20 30 40 50 60 70 80
Probabilità
Probabilità
3.4 Quattro e più dadi
Somma dei risultati
0.30 0.25 0.20 0.15 0.10 0.05 0.00 0
10 20 50
0.2
0.4
100 0.6
0.8
1
Somma ridotta
Figura 3.9
Figura 3.10
distribuzione normale o gaussiana.5 Questa è un’importante forma per una distribuzione di probabilità nella teoria della probabilità e nella statistica, ma non è importante per noi ora. Noterete anche che, quando il numero di dadi cresce, la curva in figura 3.8 diventa più stretta e la probabilità massima si abbassa. L’abbassamento del massimo è lo stesso che in figura 3.7, ma la “dispersione” della curva è diversa. Discuteremo ancora questo importante aspetto delle probabilità nel prossimo capitolo. Nelle figure 3.9 e 3.10 mostriamo curve simili alle figure 3.7 e 3.8 ma per più grandi valori di N. A questo punto ci fermiamo per riflettere su ciò che abbiamo visto fino ad ora, prima di procedere con il passo seguente. Dovreste porvi due domande. Primo, quale sia il numero vincente in ogni caso. Secondo, e più importante, perché esso sia il numero vincente. Non preoccupatevi del conteggio esatto. Assumete solo che vi siano una o due somme con probabilità massima in ogni gioco. Questo significa che, se fate il gioco molte volte, queste specifiche somme occorreranno più frequentemente di tutte le altre somme e se vi apprestate davvero a fare questo gioco vi conviene scegliere uno di questi numeri vincenti. La prima domanda è importante, persino critica, se vi interessa fare questo gioco. Tuttavia, se volete capire la Seconda Legge ed essere capaci di seguire gli argomenti dei capitoli seguenti, dovreste riflettere sulla domanda sul “perché”: perché tali numeri sono vincenti? Consideriamo il caso di tre dadi. Pensate alle ragioni per cui un tale numero vincente esiste. Cominciate con “somma = 3”. Abbiamo solamente uno specifico risultato: blu = 1,
rosso = 1,
bianco = 1
⇒ somma = 3
Potete immaginare come questo evento specifico sia molto raro. Così come l’evento “somma = 18”. 5
Dal nome del matematico tedesco Johann Carl Friedrich Gauss (1777–1855). N.d.T. 71
Capitolo 3
L’entropia svelata
C’è un solo specifico risultato che fornisce la somma 18: blu = 6,
rosso = 6,
bianco = 6 ⇒ somma = 18
Per “somma = 4” abbiamo tre eventi specifici: blu = 1, blu = 1, blu = 2,
rosso = 1, bianco = 2 ⇒ somma = 4 rosso = 2, bianco = 1 ⇒ somma = 4 rosso = 1, bianco = 1 ⇒ somma = 4
La partizione di “somma = 4” in tre interi è unica, 1:1:2 e, se non ci interessa quale dado mostri 1 e quale mostri 2, non faremo alcuna distinzione fra i tre casi mostrati in precedenza. Ci riferiremo a ognuna delle tre precedenti possibilità come a una specifica configurazione. Se, invece, ignoriamo le differenze tra le configurazioni specifiche e ci interessa solamente che la somma sia 4, chiameremo indistinto l’evento o la configurazione. Di seguito ci soffermiamo sul caso “somma = 5”. Qui abbiamo sei specifiche possibilità: blu = 1, rosso = 1, bianco = 3 ⇒ somma = 5 blu = 1, rosso = 3, bianco = 1 ⇒ somma = 5 blu = 3, rosso = 1, bianco = 1 ⇒ somma = 5 blu = 1, rosso = 2, bianco = 2 ⇒ somma = 5 blu = 2, rosso = 2, bianco = 1 ⇒ somma = 5 blu = 2, rosso = 1, bianco = 2 ⇒ somma = 5 Qui abbiamo due cause per la molteplicità dei risultati. Primo, abbiamo diverse partizioni possibili (1:1:3 e 2:2:1). Secondo, ogni partizione si presenta in tre diverse combinazioni di colori, ovvero ogni partizione ha peso 3. Diremo che ci sono sei configurazioni specifiche, ma solo una configurazione indistinta o un evento indistinto. I termini “evento indistinto” ed “evento specifico” sono importanti per comprendere la Seconda Legge. Come abbiamo visto, ogni evento specifico ha la stessa probabilità. Nel gioco dei due dadi, un evento specifico è una descrizione precisa di quale dado contribuisce con quale numero alla somma totale. Per il caso di tre dadi, se ignoriamo il colore dei dadi e la configurazione specifica di ogni dado nella somma totale, allora troviamo che per “somma = 3” abbiamo un evento indistinto che consiste di un solo evento specifico. Per “somma = 4” abbiamo un evento indistinto che consiste di tre 72
3.4 Quattro e più dadi
Capitolo 3
specifici eventi; per “somma = 5” abbiamo un evento indistinto che consiste di sei eventi specifici e così via. Nel prossimo capitolo faremo un gioco di dadi modificato che ci porterà più vicino all’esperimento reale che verrà discusso nel capitolo 7. Giocheremo con dadi più primitivi, recanti il numero “0” su tre facce e il numero “1” sulle altre tre. La semplificazione nel passaggio dai dadi reali a quelli semplificati è duplice. Primo, abbiamo solamente due risultati possibili per ogni dado (zero e uno). Secondo, per ogni somma abbiamo solo una partizione. Il numero di risultati specifici compresi nell’evento indistinto “somma = n” è semplicemente n, ovvero il numero di facce che mostrano “1”. 0%
25%
50%
75%
FINE CAPITOLO 3
73
100%
4
Giochiamo con dadi semplificati e diamo un primo sguardo alla Seconda Legge Il nuovo gioco è più semplice di quello precedente. Consideriamo dei dadi con tre facce marcate con “0” e tre facce marcate con “1” o monete con una faccia marcata con “0” e l’altra marcata con “1”. Visto che abbiamo cominciato con i dadi, continueremo con questi ma, se preferite, potete anche pensare in termini di monete. La cosa importante è che facciamo un “esperimento” (il lancio di un dado o di una moneta), il risultati del quale sono “0” oppure “1”, con uguali probabilità 1/2 e 1/2. Questa è una semplificazione. Invece di sei risultati possibili, ne abbiamo solo due. La seconda semplificazione deriva dalla scelta specifica dei valori 0 e 1. Quando sommiamo i risultati di N dadi, la somma è semplicemente il numero di “1”. Gli zeri non contribuiscono alla somma. Per esempio, con N = 10 (figura 4.1), potremmo avere come risultato specifico 1, 0, 1, 1, 0, 1, 0, 1, 0, 0. La somma è 5 e questo è anche il numero di “1” in questo risultato (o il numero totale di puntini nel caso di dadi aventi zero oppure un puntino per faccia). Ci interesserà l’evoluzione del gioco, più che le strategie di vittoria. Ma se vi sentite più a vostro agio con il gioco d’azzardo, ecco le regole. Giochiamo con N dadi onesti, con risultati “0” o “1” solamente. Cominciamo sempre da una configurazione predefinita: tutti i dadi che mostrano 0.1 Con “configurazione” intendiamo una descrizione dettagliata della sequenza di “0” e “1”, per esempio con il primo dado che mostra “1”, il secondo con “0”, il terzo con “0”, eccetera. Ci riferiremo alla configurazione iniziale come al passo zero del gioco. Per N = 10, la configurazione iniziale è: 0, 0, 0, 0, 0, 0, 0, 0, 0, 0. Ora possiamo scegliere un dado a caso, lanciarlo e rimetterlo al suo posto. Possiamo pensare a una macchina che scorre la sequenza di dadi, sceglie un dado a caso e gli dà un calcio e lo scuote di modo che il prossimo risultato 1
Più tardi cominceremo con configurazioni arbitrarie. All’inizio assumeremo che la configurazione iniziale sia quella che mostra tutti zeri.
Capitolo 4
1
L’entropia svelata
0
1
1
0
1
0
1
0
0
Figura 4.1
di quel particolare dado sia “0” o “1” con uguale probabilità. In alternativa possiamo far fare il gioco a un computer.2 Con queste semplici regole seguiremo l’evoluzione delle configurazioni. Ma, di nuovo, se vi sentite più a vostro agio, giochiamo. Voi scegliete un numero fra 0 e 10, diciamo 4, e io scelgo un numero fra 0 e 10, diciamo 6. cominciamo con una configurazione di tutti zeri e proseguiamo il gioco seguendo le regole appena descritte. A ogni lancio controlliamo la somma. Se la somma è 4 voi vincete un punto; se è 6, io vinco un punto. Quale somma sceglierete? Non affrettatevi a scegliere la somma zero. Potete pensare di vincere certamente al passo zero poiché conoscete la configurazione iniziale. Invero, questo è completamente corretto. Voi vincereste sicuramente al passo zero! Ma cosa succede se decidiamo all’inizio di eseguire un milione di passi? Esaminiamo attentamente e pazientemente come questo gioco evolve dopo molti passi. Dovreste seguire l’evoluzione del gioco anche se vi interessasse solamente trovare il numero vincente: seguire l’evoluzione del gioco è cruciale per la comprensione della Seconda Legge della Termodinamica. Quindi, state attenti e concentratevi su che cosa succede, perché essa va in questo o quel modo e come ci va. Ricordate che stiamo facendo un nuovo gioco. I dadi hanno solamente due risultati possibili: “0” e “1”. Quindi, la somma dei risultati di N dadi può essere uno qualsiasi dei numero che vanno da zero (tutti “0”) a N (tutti “1”). Inoltre, esiste solamente una partizione per ogni somma e questa è una grande semplificazione rispetto al gioco precedente, quando dovevamo contare diverse partizioni con pesi differenti, un compito molto complicato per grandi N (si vedano i capitoli 2 e 3). Qui ci dobbiamo preoccupare solamente del peso di una sola partizione. Per esempio, con N = 4 e una scelta “somma = 2” esiste una sola partizione di 2 in termini di due 0 e due 1: 0011 0101
0110
1001 1010
1100
Ci sono sei configurazioni specifiche, ovvero sequenze ordinate di zeri e uno, per l’evento indistinto “somma = 2”. Per evento indistinto, intendiamo 2
Il programma è molto semplice. Prima sceglie un numero da 1 a N, poi cambia la faccia del dado in quella particolare posizione per ottenere un nuovo risultato. 76
4.1 Due dadi; N = 2
Capitolo 4
il numero di “1” presenti nell’evento o configurazione, senza curarci delle posizioni precise di questi “1” nella sequenza. Per ogni evento indistinto scelto, diciamo “somma = n”, ci sono diversi modi di mettere in fila zeri e uno che determinano diverse configurazioni specifiche (o eventi specifici). Prima di procedere con giochi nuovi, vorrei attirare la vostra attenzione ancora sulle figure 3.7 e 3.8 (oppure 3.9 e 3.10). In queste figure mostriamo la probabilità come funzione delle varie somme e come funzione della somma ridotta (ovvero divisa per la somma massima, che è semplicemente il numero N). Notate che tutti questi grafici hanno un massimo a N/2 (o alla somma ridotta 1/2). Più grande è N, minore è il valore del massimo.
§ 4.1 Due dadi; N = 2 Come nel caso precedente, il gioco con un dado non è interessante quindi incominceremo analizzando il caso di due dadi. Vi ricordo che nel gioco presente e nei prossimi giochi incominciamo sempre con una configurazione specifica iniziale costituita da una sequenza di tutti zeri. Supponiamo che voi scegliate la “somma = 0”, pensando che siccome sapete il risultato al passo zero, che è proprio “somma = 0”, vincerete di sicuro con il passo zero. In effetti, avete ragione. Cosa dovrei scegliere io? Supponiamo io scelga “somma = 2”, il valore più grande possibile in questo gioco. Ricordate che nel gioco precedente con due dadi reali, la somma minima 2 e massima 12 avevano la stessa probabilità 1/36. Qui le regole del gioco sono diverse. Se scegliete la “somma = 0” e io scelgo la “somma = 2”, voi vincete con probabilità uno e io vinco con probabilità zero al passo zero, quindi voi fate meglio a tale passo. E per il primo passo? Voi vincerete al primo passo se il dado, scelto a caso e lanciato, ha risultato di zero. Questo occorre con probabilità 1/2. E io? Io ho scelto “somma = 2”. Non c’è modo di ottenere “somma = 2” al primo passo. Al primo passo, ci sono solo due possibili somme, 0 e 1. Quindi, la probabilità che io vinca al primo passo è ancora zero. Quindi voi fate meglio sia al passo zero sia al passo uno. E al prossimo passo? Si vede facilmente che le vostre chance di vincita al secondo passo sono ancora migliori. Affinché io possa vincere, la somma deve crescere da zero a uno nel primo passo e da uno a due al secondo passo. Voi avete più percorsi per ottenere “somma = 0” al secondo passo. La somma zero può essere realizzata sia “rimanendo alla somma = 0” al primo passo e “rimanendo alla somma = 0” al secondo passo sia giungendo a “somma = 1” al primo passo e tornando indietro a “somma = 0” al secondo passo. 77
L’entropia svelata
Somma
Somma
Capitolo 4 3.0 2.5 2.0 1.5 1.0 0.5 0.0
3.0 2.5 2.0 1.5 1.0 0.5 0.0
Primo run con 2 dadi
0
20
40
60
Numero di passi
80
100
Secondo run con 2 dadi
0
20
40
60
Numero di passi
80
100
Figura 4.2
La figura 4.2 mostra due esecuzioni di questo gioco,3 ognuna delle quali consiste di 100 passi. È chiaro che, dopo molti passi, il numero di “visite” a “somma = 0” e a “somma = 2” sarà circa uguale. Sebbene siamo partiti da “somma = 0”, diciamo che dopo molti passi il gioco perde “memoria” dei passi iniziali. Il risultato netto è che voi otterrete un risultato netto leggermente migliore in questo gioco. Che cosa succede se voi scegliete “somma = 0” e io scelgo “somma = 1”? In questo caso, vincerete con certezza al passo zero. Al primo passo avrete probabilità 1/2 di vincere e io avrò probabilità 1/2 di vincere. Al secondo passo, voi avrete probabilità 1/2 di vincere e io avrò probabilità 1/2 di vincere. Ma come si può osservare dall’“evoluzione” del gioco nella figura 4.2, dopo molti passi il gioco visiterà “somma = 0” molto meno spesso di “somma = 1”. Quindi è chiaro che dopo molti passi io sarò il vincitore nonostante la vostra vincita garantita al passo zero. Lasciamo il gioco per un momento e concentriamoci sull’evoluzione del gioco come mostrato nelle due esecuzioni di figura 4.2. Primo, notate che incominciamo sempre con “somma = 0”, ovvero con la configurazione {0, 0}. Vediamo che in un’esecuzione il primo passo rimane a “somma = 0” mentre nella seconda la somma cresce da zero a uno. Su lungo termine, visiteremo “somma = 0” nel 25% circa dei passi; “somma = 2” nel 25% circa dei passi; e “somma = 1” nel 50% circa dei passi. La ragione è esattamente la stessa che nel caso del gioco con due dadi del capitolo precedente. Esiste una configurazione specifica per “somma = 0”, una configurazione specifica per “somma = 2”, e due configurazioni specifiche per “somma = 1”. Questo può essere riassunto nella tabella 4.1. 3
Ci riferiamo a una “esecuzione” come all’intero gioco consistente in un numero predeterminato di passi. 78
4.2 Quattro dadi; N = 4
Configurazione
Capitolo 4
{0, 0} {1, 0} o {0, 1} {1, 1}
Peso Probabilità
1 1/4
2 1/2
1 1/4
Tabella 4.1
Questo si capisce facilmente e si può controllare facilmente sperimentando con dadi (o monete) o simulando il gioco con un computer. Nella figura 4.2 potete vedere e contare il numero di visite a ogni livello. Vedete che il piccolo vantaggio della scelta di “somma = 0” è dissipato a lungo termine. Prima di procedere con il prossimo gioco con quattro dadi N = 4, notiamo che nulla di ciò che abbiamo imparato in questo e nel prossimo gioco sembra rilevante per la Seconda Legge. Abbiamo mostrato queste cose principalmente per allenarci ad analizzare (non matematicamente) l’evoluzione del gioco e per prepararci a vedere come e perché nuovi aspetti appaiono quando il numero di dadi diventa grande. Questi nuovi aspetti non solo sono rilevanti, ma costituiscono in effetti l’essenza stessa della Seconda Legge della Termodinamica. Eseguendo molti giochi come questo al computer, potreste incontrare alcune “strutture” in alcune esecuzioni, per esempio una sequenza di 10 zeri consecutivi o una serie di zeri e uno alternati o qualsiasi altra struttura specifica riusciate a immaginare. Ogni “struttura” specifica, ovvero ogni specifica sequenza di risultati, è possibile e se eseguite molti giochi qualche volta essa occorrerà. Per esempio, la probabilità di osservare l’evento “somma = 0” in tutti i 100 passi è semplicemente (1/2)100 , ovvero esso si verificherà circa una volta ogni 1030 passi.
§ 4.2 Quattro dadi; N = 4 Proseguiamo con il gioco di quattro dadi. Questo ci introduce un piccolo aspetto nuovo. Di nuovo, incominciamo il gioco con una configurazione di tutti zeri al passo zero, scegliamo un dado a caso, lo lanciamo e lo rimettiamo a posto nella fila, facendogli mostrare la nuova faccia. La figura 4.3 mostra due esecuzioni di questo tipo. Ogni gioco è eseguito con 100 passi. Mostriamo un grafico della somma in funzione del numero di passi. La 79
6
Infine, afferratela con il vostro buon senso Dopo aver sperimentato varie manifestazioni della Seconda Legge con i dadi, è tempo di fare una pausa e di analizzare e razionalizzare ciò che abbiamo imparato fino ad ora. Vi ricordo che abbiamo osservato fenomeni differenti con meccanismi diversi. Vedremo nel prossimo capitolo che alcuni di questi esempi (colore, gusto e olfatto) possiedono una controparte nei sistemi sperimentali reali. Altri esempi non possono essere realizzati utilizzando particelle (particelle singole non emettono onde sonore; la temperatura che sentiamo con la punta delle dita è un risultato della distribuzione di velocità: uno non può semplicemente assegnare una temperatura a ogni singola molecola). Certamente esistono molti altri esempi. La domanda centrale che affrontiamo in questo capitolo è: “Quali sono le caratteristiche comuni a tutti i fenomeni che abbiamo osservato negli esperimenti descritti nei capitoli 4 e 5?”. I fenomeni discussi in questo capitolo sono essenzialmente gli stessi dei capitoli 4 e 5, eccetto che N è molto grande, molto più grande dei più alti valori di N discussi in precedenza. Le tre domande che dobbiamo porci sono: 1) Quale è la cosa comune che abbiamo osservato cambiare verso qualcosa che abbiamo chiamato la “linea di equilibrio”, in modo tale che una volta raggiunta quelle linea nessun ulteriore cambiamento potesse essere osservato? 2) Come si ottiene tale cambiamento? Qual’è l’aspetto essenziale del meccanismo che ci porta dallo stato iniziale a quello finale? 3) Perché tale cambiamento occorre solo in una direzione e una volta raggiunta la linea di equilibrio non possiamo osservare alcun ulteriore cambiamento?
Capitolo 6
L’entropia svelata
0 Figura 6.1
1
1
0
Quattro dadi colorati: rosso, blu, verde, giallo.
Discuteremo questi problemi per il semplice esperimento prototipo con un solo dado e due risultati possibili. Le nostre conclusioni si applicheranno anche a tutti gli altri tipi di dadi che abbiamo discusso nei capitoli precedenti e allo stesso modo si applicheranno agli esperimenti reali che discuteremo nel prossimo capitolo. Ricordate che il nostro sistema consiste di N dadi. Il risultato del lancio di ciascun dado è “0” o “1”, con uguale probabilità 1/2. Abbiamo prescritto le regole tramite le quali cambiamo la configurazione dei dadi. Abbiamo visto che le regole possono essere cambiate. Ciò che è importante è che ci debba essere almeno un elemento di casualità nelle regole: o scegliamo a caso un dado e ne cambiamo il risultato deterministicamente o scegliamo un ordine predeterminato per selezionare il dado e lo lanciamo per ottenere un nuovo risultato casuale o facciamo entrambe le cose casualmente. Abbiamo definito una configurazione (o evento) specifica come una precisa specificazione dei risultati di ogni dado individuale. La configurazione esatta dei quattro dadi nella figura 6.1 è: il primo dado a sinistra (rosso) mostra “0”; il secondo dado (blu) accanto al primo mostra “1”; il terzo (verde) mostra “1”; e l’ultimo (giallo) mostra “0”. Tale specificazione ci fornisce una descrizione completa e dettagliata del sistema. Abbiamo usato il termine “configurazione indistinta”, “stato indistinto” o “evento indistinto” per una descrizione meno dettagliata del sistema. In un evento indistinto noi specifichiamo solamente il numero di “1” (o equivalentemente il numero di “0”) senza curarci di quale specifico dado porti il numero “1” e di quale mostri il numero “0”. Quindi, per indicare una descrizione indistinta del sistema equivalente a quella mostrata in figura 6.1, che chiameremo “dim-2”, è sufficiente indicare “2”. Quando passiamo dalla configurazione specifica a quella indistinta omettiamo l’identità del dado (se esso sia rosso o blu o se sia primo o secondo nella riga). Diciamo che i dadi, in questa descrizione, sono indistinguibili. Qui, nel passare dalla descrizione specifica a quella indistinta, rinunciamo volontariamente alla conoscenza dell’identità del dado. Nel mondo reale atomi e molecole sono indistinguibili per natura e questa è un’importante differenza fra i dadi e gli atomi. Si discuterà ancora di questo nel prossimo capitolo. 106
Numero di eventi specifici
Capitolo 6
2.5×10299 2.0×10299 1.5×10299 1.0×10299 0.5×10299 0 0
200
400
600
800
1000
n
Figura 6.2
Due caratteristiche della configurazione indistinta dovrebbero essere attentamente notate. Primo, per ogni descrizione indistinta: “Ci sono n ‘uno’ in un sistema di N dadi”, il numero di descrizioni specifiche corrispondenti a questa descrizione indistinta cresce con N. Come semplice esempio, considerate la descrizione indistinta “C’è un singolo (n = 1) ‘uno’ in un sistema di N dadi”. Qui vi sono esattamente N configurazioni specifiche che costituiscono dim-1. Secondo, fissato N, il numero di configurazioni specifiche che costituiscono la stessa configurazione indistinta cresce man mano che n cresce da 0 a N/2 (se N è pari o dispari esistono due o uno punti massimali, rispettivamente). Abbiamo già visto questo tipo di dipendenza nel capitolo 4. Qui forniamo un altro esempio per un sistema con N = 1000 fissato, in cui n cambia da 0 a N (figura 6.2). È importante annotarsi questi due andamenti. Ciò richiede un po’ di conteggi che possono essere tediosi per N e n grandi, ma non c’è alcuna inerente difficoltà e non si richiede matematica sofisticata, solamente puro e semplice conteggio. Una volta che abbiamo definito la configurazione specifica e la configurazione indistinta, possiamo rispondere alla prima domanda posta all’inizio di questa sezione, ovvero “Che cosa è ciò che cambia in ogni passo dei giochi dei capitoli 4 e 5, che è anche comune a tutti i giochi?”. Chiaramente, la cosa che avete osservato cambiare è diversa in ogni esperimento. In uno, vedete cambiare il colore da giallo a verde; negli altri, vedete cambiare il sapore, l’odore, la temperatura, eccetera. Tutte queste sono 107
Capitolo 6
L’entropia svelata
manifestazioni diverse dello stesso processo soggiacente. Ora ci interessa la cosa comune che cambia in tutti gli esperimenti che abbiamo discusso negli ultimi due capitoli. Torniamo indietro al gioco di “0” e “1” discusso nel capitolo 4. Là abbiamo annotato la somma dei risultati. Chiaramente non possiamo seguire la “somma” dei risultati degli esperimenti del capitolo 5. Tuttavia, la “somma” nei giochi del capitolo 4 era anch’essa calcolata basandoci sul numero di “1” (o sul numero di zeri) nell’esperimento. In modo simile potremmo assegnare “uno” e “zero” ai due colori, ai due gusti o alle due temperature e tener traccia del numero di “uno” in ognuno dei giochi discussi nel capitolo 5. Questo va bene, ma non è totalmente soddisfacente. Abbiamo bisogno di trovare un nome appropriato per descrivere ciò che è comune a tutti gli esperimenti e fornirlo di valore numerico. Questo numero cresce fino a raggiungere un valore di equilibrio. Chiamiamo per ora questo numero d-entropia (d per dadi) o semplicemente “dentropia”. Per il momento, questo è solamente un nome senza alcun significato. Questo andrà bene per questo specifico gioco. Tuttavia, potreste fare due obiezioni alla descrizione. Primo, sappiamo che l’entropia (quella vera) cresce sempre. In questo esempio, la dentropia salirà se incominciamo dalla configurazione di tutti zeri. Ma cosa succede se incominciamo con una configurazione di tutti uno? La dentropia scenderà verso il basso. Questo contraddice la nostra conoscenza del comportamento dell’entropia reale. La seconda obiezione che potreste fare è questa. Che cosa succede se i dadi hanno tre risultati possibili, diciamo “zero”, “uno” e “due” o persino risultati non numerici come le note A, B, C o tre o quattro colori o magari un’infinita gamma di colori, velocità, eccetera? Quale numero dovremmo tenere sotto controllo? Le due obiezioni si possono affrontare primo notando che la cosa che osserviamo o sentiamo in ogni specifico gioco è una cosa, ma la cosa che teniamo sotto controllo è un’altra. Nel nostro semplice gioco di dadi, abbiamo tenuto sotto controllo il numero di “1”. Questo numero cresce stabilmente solamente se iniziamo da una configurazione di tutti zeri. Se avessimo iniziato con una configurazione di tutti uno, il numero di “1” sarebbe diminuito stabilmente verso la linea di equilibrio. Ora vedremo che con una semplice trasformazione possiamo tenere sotto controllo una cosa che cresce sempre verso la linea di equilibrio.1 1
Non c’è alcun vero bisogno di farlo. Tuttavia, lo facciamo per rendere il comportamento della dentropia consistente con il comportamento della vera entropia, come discuteremo nel 108
Capitolo 6
Per farlo, avremo bisogno del simbolo di valore assoluto, come definito nel capitolo 2. Invece del numero di “1” denotato da n, possiamo tenere sotto controllo il numero ∣n − N/2∣. Ricordate che N è il numero di dadi e n è il numero di “1”. Quindi, questa quantità misura la deviazione o “distanza” tra n e la metà del numero di dadi. Prendiamo il valore assoluto in modo che la distanza tra n = 4 e N/2 = 5, per esempio, è a stessa della distanza tra n = 6 e N/2 = 5. Ciò che conta è quanto lontano siamo dalla quantità N/2 che, come ricorderete, è la linea di equilibrio.2 Quando iniziamo con una configurazione di tutti zeri, abbiamo n = 0 e quindi ∣n − N/2∣ = N/2. In entrambi i casi le distanze da N/2 sono uguali. Se n cambia, questa quantità tende a cambiare da N/2 a zero. Quindi abbiamo una quantità che decresce praticamente sempre da qualsiasi configurazione iniziale cominciamo.3 Una volta che raggiungiamo il valore minimo di ∣n − N/2∣ = 0, siamo alla linea di equilibrio. Verificatelo, per esempio, per N = 10 e tutti i valori possibili di n. Se non vi piace tenere sotto controllo un numero che decresce, prendete l’opposto di questi numeri,4 cioè −∣n − N/2∣. Questo crescerà stabilmente da −N/2 a zero. Se non vi piace osservare numeri negativi, prendete N/2 − ∣n − N/2∣. Questo numero crescerà stabilmente da qualsiasi configurazione iniziale verso il massimo valore di N/2 in tutti i casi.5 Come potete vedere, con una semplice trasformazione possiamo definire una nuova quantità che cresce sempre con il tempo (o con il numero di passi). Ma questa quantità non risponde alla seconda obiezione. Essa funziona per il gioco che ha solo due possibili risultati, ma non può essere applicata al caso più generale in cui il dado abbia tre o più risultati. Così, dobbiamo cercare una quantità che sia comune a tutti gli esperimenti possibili del tipo descritto nei capitoli 4 e 5. Ora costruiremo una nuova quantità che crescerà sempre e sarà valida anche per i casi più generali. Ci sono molte possibilità per scegliere una tale quantità. Sceglieremo la quantità che è più vicina alla quantità chiamata capitolo 7. 2 Una quantità equivalente sarebbe il quadrato di n − N/2, ovvero (n − N/2)2 . 3 Ricordate che usiamo le parole “sempre” e “mai” nel senso discusso alla fine del capitolo 4. 4 Di nuovo, farlo non è essenziale. Ricordate il teorema-H, in cui anche la quantità H diminuisce verso l’equilibrio. 5 Se volete, potete anche “normalizzare” questa quantità dividendola per N/2 per ottenere qualcosa che cominci da zero e cresca fino a uno. 109
Capitolo 6
L’entropia svelata
entropia. Per farlo, abbiamo bisogno del concetto di informazione o più precisamente della misura matematica dell’informazione. La quantità che sceglieremo per descrivere la cosa che cambia è l’“informazione mancante”. La denoteremo con IM (per ora, IM è acronimo di “informazione mancante”, ma più tardi nel prossimo capitolo esso verrà identificato con il concetto di entropia). Questa quantità ha parecchi vantaggi visto che descrive quantitativamente che cosa cambia nel processo. Primo, essa è conforme al significato di informazione che usiamo nella vita di tutti i giorni. Secondo, essa fornisce un numero che descrive quella cosa che cambia da ogni stato iniziale allo stato finale e per ogni gioco in generale. Essa è sempre un numero positivo e cresce nei nostri giochi con i dadi così come nel mondo reale. Infine e soprattutto, essa è la quantità che è comune a tutti i giochi di dadi e, quindi, è adatta a rimpiazzare il nostro termine temporaneo “dentropia”. Essa sarà anche identica alla quantità che è comune a tutti i sistemi fisici, cioè l’entropia.6 La definizione qualitativa è questa: ci viene data una configurazione descritta in modo indistinto, per esempio “ci sono n ‘1’ nel sistema di N dadi”. Non abbiamo informazioni sulla configurazione esatta. Il nostro compito è di scoprire quale sia la configurazione specifica.7 Chiaramente dalla conoscenza della sola configurazione indistinta non possiamo inferire la configurazione esatta o specifica: ci serve maggiore informazione. Questa informazione è chiamata IM o informazione mancante.8 Come otteniamo tale informazione? Facendo domande binarie. Possiamo definire la IM come il numero di domande binarie che dobbiamo porre per acquisire tale informazione, ovvero la conoscenza della configurazione specifica. Abbiamo visto nel capitolo 2 che l’informazione mancante è una quantità definita in modo tale da essere indipendente dal modo in cui acquisiamo 6
Visto che ci interessano solamente i cambiamenti di entropia, ci basta determinare l’entropia a meno di una costante additiva e di una costante moltiplicativa che determina l’unità di misura per l’entropia. Si vedano anche i capitoli 7 e 8. 7 La definizione si applica anche al caso più generale in cui la descrizione indistinta è “ci sono n A dadi che mostrano la faccia A, n B che mostrano la faccia B, eccetera, in un sistema di N dadi”. 8 Si noti che possiamo usare sia il termine “informazione” sia “informazione mancante”. Il primo si applica all’informazione presente nel sistema. Usiamo il secondo quando vogliamo chiederci quanta informazione dobbiamo acquisire per scoprire lo stato specifico o la configurazione specifica. 110
Capitolo 6 0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
Figura 6.3
tale informazione. In altre parole, non importa quale strategia adottiamo. La IM è “dentro” il sistema. Tuttavia, se usiamo la strategia più furba, possiamo identificare la IM come il numero medio di domande binarie che dobbiamo porre. Così, se vogliamo usare il numero di domande binarie per misurare la quantità di IM, dobbiamo scegliere la procedura più furba per porre le domande, così come descritto nel capitolo 2. È chiaro che più grande è la IM, maggiore sarà il numero di domande che dobbiamo porre. Diamo un’occhiata a questo tipo di calcolo con pochi esempi. Data l’informazione che “c’è un singolo ‘1’ in un sistema di 16 dadi” (figura 6.3), quante domande dobbiamo porre per ottenere la IM in modo da conoscere la configurazione esatta o specifica? Questo è esattamente lo stesso problema di scoprire una moneta nascosta in 16 scatole equiprobabili (figura 2.9). Quindi, dobbiamo procedere con la stessa strategia (si veda il capitolo 2) e chiedere: è nella metà di sinistra? Se la risposta è sì, procediamo: è nella metà di sinistra? La risposta è no, quindi, scegliamo la metà destra (quattro scatole) e chiediamo: è nella metà di sinistra? La risposta è sì, quindi, chiediamo ancora: è nella metà di sinistra? Con l’ultima domanda possiamo localizzare la moneta. Con questa strategia localizziamo la moneta con esattamente 4 domande. Chiaramente se dobbiamo trovare un singolo “1” fra un numero N maggiore di dadi, diciamo N = 100 o 1000, la IM sarà maggiore e avremo bisogno di porre più domande. Provate a calcolare il numero di domande che occorrono quando il singolo “1” si trova in N = 32 e N = 64 dadi.9 Di seguito, supponiamo che ci venga detto “ci sono due ‘1’ in un sistema di 16 dadi” (figura 6.4). Per acquisire la IM in questo caso, ci servono più 9
Si può dimostrare che questo numero è log2 N, ovvero il logaritmo in base 2 del numero di dadi. Si noti che N è il numero di dadi ma in questo esempio è anche il numero di configurazioni specifiche. 111
Capitolo 6
L’entropia svelata 0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
0
Figura 6.4
domande. Dapprima possiamo porre domande per localizzare il primo “1”, e poi possiamo fare lo stesso tipo di domande per localizzare il secondo “1” nei rimanenti 15 dadi. Chiaramente, per N fissato il numero di domande da porre per ottenere l’informazione richiesta cresce con il numero n di “1”. Più grande è n e maggiore sarà il numero di domande di cui abbiamo bisogno per localizzare tutti gli “1” (o tutte le monete nascoste). Il numero di domande necessarie si può facilmente calcolare per ogni n e N. Incominciamo semplicemente ponendo domande per determinare dove sia il primo “1” fra gli N dadi, poi per trovare il secondo “1” fra i rimanenti N −1 dadi, il terzo “1” fra gli altri N −2 dadi e così via, fino a che non abbiamo tutta l’informazione richiesta per gli n “1”. Questo va bene per ogni n purché esso sia minore di N/2. Dovreste anche essere così furbi da scegliere non solo la miglior strategia, ma anche quale risultato conviene localizzare. Se n è maggiore di N/2, sarebbe meglio invertire e chiedere la posizione degli “0” invece che degli “1”. Per esempio, se ci sono dati tre “1” in un sistema di 4 dadi, la IM è esattamente la stessa che se ci fosse stata data una configurazione con un singolo “1” in un sistema di 4 dadi. In questo caso sarebbe più furbo porre domande per localizzare il singolo “0” (o il singolo “1” nel secondo caso). Facendo 2 domande, la configurazione esatta può essere interamente determinata. Quindi, la quantità IM cresce con N per n fissato. Per N fissato, la IM cresce con n da n = 0 (cioè con tutti zeri ci bastano zero domande) a n = N/2 (o (N + 1)/2 se N è dispari) e poi decresce quando n cresce oltre n = N/2. Quando raggiungiamo n = N, di nuovo la IM è zero (cioè quando abbiamo tutti uno il numero di domande da porre è di nuovo zero).10 10
Si noti che la IM discussa in questo paragrafo è una funzione strettamente crescente di N e n (per n < N/2). Nel realizzare un esperimento con dadi, la IM che dobbiamo tenere 112
Capitolo 6
Un procedimento simile può essere prescritto nei casi in cui i risultati possibili sono più di due. È un po’ più complicato, ma non è essenziale per comprendere la Seconda Legge. Ora abbiamo una quantità chiamata IM, che è un numero che descrive l’informazione mancante di cui abbiamo bisogno per specificare la configurazione esatta ogni volta che ci venga data la sola configurazione indistinta. Questo numero si può calcolare facilmente dati n e N.11 Torniamo al nostro gioco del capitolo 4, in cui tenevamo sotto controllo la somma dei risultati ovvero il numero di “1” nell’evoluzione del gioco. Invece di questi due numeri equivalenti, ora controlleremo la IM a ogni passo. Questa quantità è più generale (si può applicare per qualsiasi numero e tipo di risultati) e cresce sempre (non importa da quale stato si cominci) fino a un massimo per un certo valore (in questo caso n = N/2). Soprattutto, questa è la quantità che si può dimostrare essere identica all’entropia di un sistema reale. Dovreste capire che la IM è una quantità che scegliamo per tenere sotto controllo l’evoluzione del gioco. Questa è una fra le molte altre possibili quantità che possiamo scegliere (le altre possibilità sono il numero di “1”, la somma dei risultati, o la quantità N/2 − ∣n − N/2∣). La cosa che cambia è lo stato indistinto o la configurazione indistinta del sistema. Il numero che abbiamo assegnato a tali stati è solamente un indice che possiamo misurare e tenere sotto controllo. Lo stesso indice si può applicare a tutti gli esperimenti che abbiamo compiuto nei capitoli 4 e 5, in cui i risultati possibili non erano numeri, ma colori, toni, odori, sapori o temperature. Tutte queste sono differenti manifestazioni dello stesso processo soggiacente: il cambiamento da una configurazione indistinta avente un piccolo indice (per esempio la IM o la somma) a una configurazione indistinta con un indice maggiore. L’unica cosa che rimane da fare è assegnare all’indice un nome — nulla di più. Per il momento usiamo il termine IM che significa “informazione mancante” e chiaramente non richiama alcun mistero. Dopo aver trovato un nome per l’indice che stiamo tenendo sotto controllo, un nome sotto controllo si comporta in modo simile alle curve mostrate nel capitolo 4 per la somma in funzione del numero di passi. N! 11 Il numero di domande è log2 W, dove W = (N−n)! è il numero totale di configuran! zioni in cui ci sono n “1” (o monete) in N dadi (o scatole). Si noti che questo numero è simmetrico attorno a n = N/2, il punto in cui W è massimo. 113
Capitolo 6
L’entropia svelata
che ha anche il significato di informazione,12 possiamo scartare il termine temporaneo “dentropia”. Possiamo usare IM al suo posto. Vederemo più avanti che la IM è essenzialmente la stessa cosa dell’entropia del sistema.13 Proseguiamo ora con la domanda seguente, fra quelle poste all’inizio di questo capitolo. In quale modo giungiamo dallo stato iniziale a quello finale? La risposta è molto semplice per questi particolari giochi di dadi. Abbiamo prescritto le regole del gioco. La regole più semplici sono: scegli un dado a caso, lancialo per ottenere un nuovo risultato casuale e registra la nuova configurazione indistinta. Questa è la risposta alla domanda precedente. Abbiamo anche visto che abbiamo una certa libertà nel scegliere le regole. Possiamo scegliere un dado in qualche modo ordinato (per esempio da sinistra a destra o da destra a sinistra o in qualsiasi altro modo predeterminato) e poi lanciarlo per ottenere un nuovo risultato a caso. Oppure, potremmo scegliere un dado a caso e poi mutare il risultato in un modo predeterminato: se è “0” diventerà “1”, mentre se è “1” diventerà “0”. Ci sono molte altre regole che potremmo applicare, per esempio, scegliere due (o tre, quattro, eccetera) dadi a caso e poi lanciarli. L’evoluzione del gioco sarà leggermente differente nei dettagli di ogni passo, ma l’andamento generale dell’evoluzione sarà lo stesso che abbiamo visto negli esperimenti del capitolo 5. Ciò che conta è che le regole devono fornire a ogni dado una “onesta” possibilità di vincere e che ci deve essere un elemento di casualità nel processo. All’interno di questi limiti, abbiamo molte regole possibili per ottenere l’evoluzione. Dovremmo notare che possiamo facilmente immaginare una regola non casuale in cui l’evoluzione sarebbe molto diversa. Per esempio, se scegliamo un dado in modo ordinato, diciamo da sinistra a destra, e poi cambiamo la faccia del dado in un modo predeterminato da “0” a “1” o da “1” a “0”. Se iniziamo da una configurazione “tutti zeri”, il sistema evolverà in una configurazione “tutti uno” e poi tornerà indietro a “tutti zeri” ciclicamente, come mostrato nella sequenza successiva: {0, 0, 0, 0} → {1, 0, 0, 0} → {1, 1, 0, 0} → {1, 1, 1, 0} {1, 1, 1, 1} → {0, 1, 1, 1} → {0, 0, 1, 1} → {0, 0, 0, 1} {0, 0, 0, 0} → {1, 0, 0, 0} → ... 12
Questo aspetto è già stato discusso da Shannon [1948]. Un’esposizione un po’ più dettagliata di questo argomento si trova in Ben-Naim [1987]. 13 In verità, non ci interessa mai l’entropia assoluta del sistema. Ciò che conta ed è misurabile è solamente la differenza di entropia. 114
Capitolo 6
In tale caso, l’evoluzione del sistema è molto diversa se confrontata con l’evoluzione mostrata nei capitoli 4 e 5. Potremmo anche prescrivere regole che non permettono alcun cambiamento (scegliete un dado a caso e non cambiate la sua faccia) o cambiare l’intera configurazione da “tutti zeri” a “tutti uno” (scegliete un dado in modo ordinato e cambiate sempre “0” in “1” e lasciate “1” in “1”). Queste regole non ci interessano. Come discuteremo nel prossimo capitolo, queste regole non hanno controparte nel mondo fisico (si veda il capitolo 7). Concludiamo che la risposta alla domanda “in che modo” è molto semplice. Tutto ciò che ci serve è definire le regole in modo tale che esse contengano qualche elemento di casualità e assegnare a ogni dado una possibilità “onesta” di cambiare il proprio risultato. Infine, affrontiamo l’ultima e più importante domanda. Perché il sistema evolve da una bassa IM a un’alta IM (oppure perché la “somma” o il numero di “1” cresce stabilmente verso la linea di equilibrio nei giochi del capitolo 4)? La risposta a questa domanda giace proprio al cuore della Seconda Legge della Termodinamica. Sebbene la risposta data qui a questa domanda sia strettamente pertinente al nostro semplice gioco di dadi, vedremo che essa è anche valida per i processi fisici reali. Come in ogni legge della fisica, ci sono due possibili risposte alla domanda “perché” . Uno può semplicemente rispondere che “questo è quanto succede”, niente di più, niente di meno. Non c’è alcun modo di capire le leggi del moto di Newton in modo più approfondito. Una palla in moto su cui non agiscono forze continuerà a muoversi in linea retta e a velocità costante per sempre. Perché? Non c’è risposta a tale domanda. Questo è ciò che accade. Questo è il modo in cui la natura funziona. Non c’è alcuna ragione logica né spiegazione. In effetti, questa legge suona “innaturale” visto che è in conflitto con ciò che normalmente osserviamo nel mondo reale. Una persona dalla mentalità non scientifica, leggendo il manoscritto di questo libro, fu sorpresa di sapere che una tale legge esiste ed esclamò: “tutti sanno che una palla in moto, lasciata indisturbata, prima o poi si ferma”. Questa legge non si basa sul senso comune, né a esso si può ridurre. In effetti, la maggior parte delle leggi della meccanica quantistica sono persino controintuitive e certamente non suonano logiche o naturali (la ragione è probabilmente il fatto che noi non “viviamo” nel mondo microscopico, mentre gli effetti quantistici non fanno parte della nostra esperienza quotidiana). La seconda risposta è cercare un principio soggiacente più profondo o una spiegazione della legge. Questo è ciò che è stato tentato di fare per decadi 115
Capitolo 6
L’entropia svelata
riguardo alla Seconda Legge. La Seconda Legge della Termodinamica è unica nel fatto che possiamo fornire una risposta alla domanda “perché” basandoci sulla logica e il buon senso (forse l’unica altra legge di natura anch’essa basata sul buon senso è la legge di Darwin dell’evoluzione naturale14 ). Abbiamo visto nei capitoli precedenti che ci sono molte diverse manifestazioni dello stesso processo sostanziale (molte di più nel mondo reale). Sebbene nei vari esperimenti abbiamo tenuto sotto controllo differenti manifestazioni — per esempio in un gioco il numero di “1”; in un altro il numero di dadi “gialli”; in un altro ancora il numero di dadi “dolci” — abbiamo deciso di utilizzare lo stesso indice IM per seguire l’evoluzione di tutti questi diversi giochi. Ci sono differenti descrizioni per lo stesso processo soggiacente: “il sistema evolve verso più verde”; “il sistema evolve verso una maggiore somma”; “il sistema evolve verso una maggiore IM” e così via.15 Queste sono tutte descrizioni corrette di ciò che accade, ma nessuna può essere usata per rispondere alla domanda “perché”. Non c’è alcuna legge di natura che afferma che un sistema debba diventare più verde. Questo è ovvio. Neppure esiste una legge di natura che afferma che un sistema debba cambiare verso più disordine o verso una maggiore IM. Se vi avessi fornito, per la risposta sul “perché”, la risposta “perché la natura procede dall’ordine al disordine o da una piccola IM a una grande IM”, avreste giustificatamente continuato a chiedere “perché?”. Perché il sistema cambia da un basso a un alto grado di disordine o da una piccola a una grande IM? In effetti, una tale legge non esiste. Le cose che abbiamo tenuto sotto controllo vanno bene per descrivere, ma non per spiegare la causa di questa evoluzione. Per rispondere alla domanda sul “perché”, occorre una risposta che non generi una nuova domanda “perché”. La risposta alla domanda “perché” (per tutti i processi che abbiamo osservato finora e, in effetti, anche per tutti i processi reali) è molto semplice. Infatti, essa si può ridurre a niente più che il puro buon senso. Abbiamo visto che in ogni gioco, incominciando da ogni configurazione iniziale, il sistema procederà da una configurazione indistinta che consiste di un piccolo numero di configurazioni specifiche a una nuova configurazione indistinta che consista di un maggior numero di configurazioni specifiche. 14
Qui “buon senso” significa strettamente il senso logico. La teoria dell’evoluzione, fino ad anni piuttosto recenti, era ben lontana dall’essere “buon senso”. Fu solo con la scoperta del DNA e la conseguente comprensione del meccanismo dell’evoluzione a livello molecolare, che la teoria divenne buon senso. 15 Un’affermazione più comune è: “il sistema evolve verso un maggior disordine”. Commenteremo questo nel capitolo 8. 116
Capitolo 6
Perché? Perché ogni configurazione specifica è un evento elementare e come tale ha la stessa probabilità. Quindi, configurazioni indistinte che consistono di un maggior numero di eventi elementari hanno probabilità maggiore. Quando N è molto grande la probabilità degli eventi indistinti verso i quali il sistema evolve diventa estremamente alta (quasi uno!).16 Questo equivale a dire che: Eventi che ci si aspetta accadano più frequentemente, accadranno più frequentemente. Per N molto grande, “più frequentemente” equivale a “sempre”! Ciò riduce la risposta alla domanda “perché” a pura tautologia. In effetti, come abbiamo visto nel capitolo 2, è proprio questa la risposta alla nostra domanda “perché”. I cambiamenti che abbiamo osservato in tutti gli esperimenti sono da configurazioni indistinte di minore probabilità a configurazioni indistinte di maggior probabilità. Non c’è nulla di misterioso in questa scoperta. È semplicemente questione di buon senso, niente di più. È anche chiaro che, da questo punto di vista, l’incremento di IM (così come quello dell’entropia — si veda il prossimo capitolo) non è associato a un incremento della quantità di materia o di energia. Vi starete chiedendo: se il comportamento dell’entropia è nulla più che puro buon senso, perché si parla così tanto del profondo mistero della Seconda Legge? Proverò a rispondere a questa domanda nel capitolo 8. Per ora siamo ancora nel mondo dei dadi. Vi suggerisco di scegliere un numero N come 16 o 32 o qualsiasi altro e di eseguire il gioco mentalmente o sul vostro PC, seguendo una delle regole descritte nei capitoli 4 e 5. Seguite l’evoluzione delle configurazioni e chiedetevi che cosa sia ciò che cambia, come esso cambi e perché esso cambia in quel modo particolare. Le vostre risposte saranno strettamente rilevanti per questo specifico gioco di dadi ma, come vedremo nel prossimo capitolo, le risposte saranno anche rilevanti per il comportamento dell’entropia nel mondo reale. 0%
25%
50%
75%
100%
FINE CAPITOLO 6
16
Si noti che ho scritto “eventi indistinti” e non “evento indistinto” corrispondente alla linea di equilibrio. Quest’ultimo ha probabilità massima, ma essa non è uno! Gli eventi indistinti a cui mi riferisco qui sono gli eventi indistinti che corrispondono alla linea di equilibrio assieme alle sue immediate vicinanze. Riprenderemo l’argomento nel capitolo 7. 117
7
Passiamo dal mondo dei dadi al mondo reale Nel capitolo 6 vi ho assicurato che, se aveste capito l’evoluzione dei giochi di dadi e foste riusciti a rispondere alle domande “che cosa”, “in che modo” e “perché”, avreste praticamente compreso la Seconda Legge. Tutto ciò che rimane è mostrare che ciò che avete imparato nel mondo dei dadi è rilevante per il mondo reale. In questo capitolo tradurremo il linguaggio dei dadi nel linguaggio di due esperimenti reali. Incominceremo con il più semplice, un esperimento ben noto e ben studiato: l’espansione di un gas ideale. Per rendere più facile la traduzione, ridefiniamo il gioco di dadi del capitolo 4 considerando dadi con la lettera D scritta su tre facce e la lettera S sulle altre tre facce. Così, invece di “0” e “1” o giallo e blu o dolce e aspro, abbiamo semplicemente due lettere, D e S (“destro” e “sinistro”, ma per il momento possiamo interpretarle solamente come due risultati qualsiasi dei dadi o delle monete). Incominciamo con un sistema di tutte S e proseguiamo il gioco seguendo le regole prescritte nel capitolo 4. Possiamo tenere sotto controllo il numero di D o S oppure l’informazione mancante (IM). Perciò, in questo sistema, troveremo che dopo un po’ di tempo sia il numero di D sia quello di S sarà circa uguale a N/2, dove N è il numero totale di dadi. Mostriamo tre stadi di questo gioco con N = 10 nella figura 7.1. Notate che lo stato iniziale (dim-0) è unico. C’è solamente uno specifico stato che appartiene a questa configurazione indistinta. Lo stato intermedio descritto nella figura (dim-2) è uno fra i molti possibili stati specifici (10 × 9/2 = 45) equivalenti per questa particolare configurazione indistinta. L’ultimo stato specifico mostrato in figura 7.1 (dim-5) è di nuovo solo una fra le tante possibili configurazioni specifiche (10 × 9 × 8 × 7 × 6/5! = 252) equivalenti per tale configurazione indistinta. Nella figura 7.1 abbiamo indicato solo alcune delle configurazioni specifiche in cui consistono gli stati indistinti.
Capitolo 7
L’entropia svelata
Figura 7.1
Figura 7.2
§ 7.1 La corripondenza con il processo di espansione Considerate il sistema sperimentale rappresentato in figura 7.2. Abbiamo due compartimenti di uguale volume separati da una partizione. Il compartimento a destra è chiamato D e quello a sinistra è chiamato S. Incominciamo con N atomi, diciamo di argo, tutti racchiusi nel compartimento S. Fintanto che non rimuoviamo la partizione, non accadrà nulla di particolare. In verità a livello molecolare le particelle vagano incessantemente a caso, cambiando le loro posizioni e velocità. Tuttavia, a livello macroscopico non c’è alcun cambiamento misurabile. Possiamo misurare pressione, temperatura, densità, colore o ogni altra proprietà e troveremo un valore che non cambia con il tempo o con la posizione. Diciamo che il sistema è inizialmente contenuto nel compartimento S e si trova in uno stato di equilibrio.1 Se rimuoviamo la partizione, mettiamo in moto la Seconda Legge! Ora osserveremo dei cambiamenti. Possiamo tenere sotto controllo il colore, la pressione, la densità, eccetera. Troveremo che queste quantità cambieranno con il tem1
Qui ci riferiamo allo stato di equilibrio nel senso termodinamico. Dovremmo distinguerlo dalla linea di equilibrio. La distinzione verrà fatta più chiaramente nel seguito di questo capitolo 120
7.1 La corripondenza con il processo di espansione
Capitolo 7
Figura 7.3
po e la posizione. I cambiamenti che osserviamo sono sempre in una sola direzione: gli atomi si sposteranno dal compartimento S al compartimento D. Supponiamo di osservare la densità o il colore in S. Osserveremo che la densità decresce stabilmente (o che l’intensità del colore, se ne possiede uno, diminuisce) con il tempo. Dopo un po’ di tempo, il sistema raggiungerà uno stato di equilibrio e non osserverete più alcun cambiamento in nessuno dei parametri che state osservando. Una volta che avrete raggiunto questo stato, il sistema rimarrà lì “per sempre”. Non ritornerà “mai” allo stato iniziale. Questo processo è una manifestazione relativamente semplice della Seconda Legge. In questo specifico processo abbiamo incominciato con uno stato di equilibrio (tutti gli atomi in S) e abbiamo raggiunto un nuovo stato di equilibrio (gli atomi sono dispersi all’interno del volume complessivo di S e D). Ripetiamo ora l’esperimento in un modo leggermente diverso. Ciò renderà più facile la traduzione dal gioco dei dadi al mondo reale. Supponiamo che, invece di rimuovere la partizione come in figura 7.2, apriamo solamente un buco piccolissimo tra i due compartimenti tale che solamente una molecola o molto poche possano spostarsi da S a D in ogni dato intervallo di tempo. Se apriamo e chiudiamo questa piccola porta a piccoli intervalli di tempo, procederemo dallo stato iniziale allo stato finale esattamente come in figura 7.2, ma in questo caso procederemo attraverso una serie di stati di equilibrio intermedi.2 Mostriamo tre stadi lungo questo processo in figura 7.3. Ora faremo una corrispondenza tra il mondo dei dadi e il mondo reale del gas in espansione nel presente esperimento. Ogni dado corrisponde a 2
Ci si riferisce a questo tipo di processo come a un processo quasi-statico. Se la porta è abbastanza piccola non abbiamo bisogno di aprirla e chiuderla ogni volta che un atomo la attraversa. Il sistema non è in uno stato di equilibrio, ma le quantità misurabili come densità, temperatura, colore, eccetera cambieranno molto lentamente, come se passassimo attraverso una sequenza di stati di equilibrio. 121
Capitolo 7
L’entropia svelata
Figura 7.4
uno specifico atomo, cioè a una particella di argo. Le facce dei dadi marcate “S” e “D” nell’esperimento precedente corrispondono a uno specifico atomo nel compartimento S o D, rispettivamente. Rendiamo la corrispondenza tra i due “mondi” più specifica per il caso N = 2, mostrato nei due pannelli superiori della figura 7.3. Notate che in questa corrispondenza distinguiamo tra le particelle (rosse e blu). Nel pannello inferiore di figura 7.4 abbiamo anche aggiunto la corrispondenza con il processo di assimilazione che descriverò più avanti in questo capitolo. Di seguito, definiamo una configurazione specifica come una completa specificazione di quale particella si trovi in ogni compartimento. In contrasto con il mondo dei dadi, dove possiamo distinguere i dadi (sebbene abbiamo ignorato questa informazione quando tenevamo sotto controllo solamente le quantità pertinenti alla configurazione indistinta), qui le particelle sono indistinguibili fin dall’inizio. Quindi, non dobbiamo rinunciare ad alcuna informazione. L’indistinguibilità è una proprietà degli atomi; è qualcosa che la natura impone alle particelle microscopiche. I dadi potrebbero essere identici in ogni aspetto, tuttavia essi sono distinguibili nel senso che possiamo tenere sotto controllo ogni singolo dado. Se scuotiamo 10 dadi identici, possiamo osservarne uno specifico e in ogni istante possiamo dire da dove provenga questo specifico dado. Nel definire la configurazione indistinta dei dadi, ad esempio 5 “D” in 10 dadi, possiamo distinguere tra tutte le diverse configurazioni specifiche. Possiamo dire quale dado porti una “D” e quale porti una “S”, come appare chiaramente dalle figure 7.1 e 7.4. Non possiamo fare la stessa cosa in un sistema atomico. Tutto ciò che possiamo conoscere o misurare è il numero di atomi in D e non quale specifico atomo 122
7.1 La corripondenza con il processo di espansione
Capitolo 7
Figura 7.5
sia in D o S. Quindi, nel sistema rappresentato in figura 7.4 non possiamo distinguere tra i due stati specifici: “particella blu in S e particella rossa in D” e “particella blu in D e particella rossa in S”. Questi due stati finiscono in un solo stato indistinto: “una particella in S e una particella in D”. Chiamiamo “indistinta” una configurazione quando specifichiamo solamente il numero di particelle in D (questo specificherà corrispondentemente il numero di particelle in S), omettendo la specificazione dettagliata di quale atomo sia in S o in D. Chiaramente ogni configurazione indistinta consiste di molte configurazioni specifiche (eccezione fatta per le configurazioni “tutti in D” e “tutti in S”). Dovremmo notare di nuovo che tutto ciò che possiamo misurare o osservare è il numero totale di particelle in D o ogni altra quantità proporzionale a questo numero (per esempio l’intensità di colore, l’odore, la densità, la pressione, eccetera). Non possiamo “vedere” la configurazione specifica come nei giochi di dadi. A causa della sua importanza cruciale, descriveremo ancora una volta la distinzione tra una configurazione indistinta e le corrispondenti configurazioni specifiche (figura 7.5). Per chiarire la differenza fra le configurazioni specifiche abbiamo assegnato colori diversi alle particelle. In un sistema di particelle che consiste di atomi o molecole non esistono etichette (o colori) che permettono di distinguere tra due particelle identiche. Quindi, tutto ciò che vediamo o misuriamo è la configurazione indistinta come mostrato nella parte sinistra della figura 7.5. Tuttavia, dovremmo sottolineare che, sebbene non possiamo di123
Capitolo 7
L’entropia svelata
stinguere tra configurazioni specifiche, queste contribuiscono davvero alla probabilità della configurazione indistinta. Qui si assume che ogni configurazione specifica sia ugualmente probabile.3 Quindi, la probabilità di ogni configurazione indistinta è la somma delle probabilità delle configurazioni specifiche da essa comprese. Potete pensare che tutti gli eventi specifici nella parte destra della figura 7.5 confluiscano in un singolo evento indistinto nella parte sinistra. Le probabilità dei cinque eventi indistinti sono: 1/16, 4/16, 6/16, 4/16, 1/16. Ora siamo a un punto tale da poter rispondere alle tre domande sul “che cosa”, “in che modo” e “perché” per l’esperimento reale. Come nel caso dei giochi dei dadi, la domanda “che cosa è ciò che cambia?” ammette molte risposte. Per esempio, possiamo osservare come l’intensità di colore evolve durante l’espansione. Possiamo osservare il cambiamento nella densità, gusto o odore con il tempo. Possiamo persino calcolare il cambiamento nel tempo del numero approssimato di particelle in ogni compartimento. Inizialmente incominciamo con N atomi nel compartimento S. Dal momento in cui apriamo la porticina o rimuoviamo la partizione, il numero n di atomi in S decresce uniformemente con il tempo fino al punto in cui smette di cambiare. La risposta alla domanda “che cosa” è esattamente la stessa che abbiamo dato alla domanda “che cosa” nel capitolo precedente, ovvero ciò che cambia è la configurazione indistinta. Mentre essa sta cambiando, porta con sé alcune proprietà che possiamo vedere, sentire, annusare, gustare o misurare con strumenti macroscopici. Quindi, possiamo rispondere alla domanda “che cos’è ciò che cambia?” in quest’esperimento se lo confrontiamo con l’analisi fornita per il gioco dei dadi. L’unica differenza è l’interpretazione del termine “configurazione”, che qui è stato definito in termini di particelle nei due differenti compartimenti S e D, mentre nel caso dei dadi la configurazione era specificata in termini dei due risultati “S” e “D” del dado. Una volta che abbiamo fatto la corrispondenza tra il gioco dei dadi e l’espansione del gas, possiamo usare la stessa risposta per la domanda “che cos’è ciò che cambia?”. Torneremo più tardi sulla questione di quale sia la quantità più adatta per descrive ciò che accomuna tutti i processi. Ora passiamo alla domanda seguente: “in che modo passiamo dallo stato iniziale a quello finale?”. Nel gioco dei dadi decidevamo noi le regole del gioco. Quindi, la risposta alla domanda nel contesto del gioco dei dadi era semplice: i cambiamenti si svolgono in accordo alle regole prescritte. La ri3
D’altra parte, si veda la discussione sui fermioni e sui bosoni nel capitolo 2. 124
7.1 La corripondenza con il processo di espansione
Capitolo 7
sposta alla stessa domanda è diversa per l’esperimento reale. Qui in linea di principio sono le equazioni del moto che governano l’evoluzione delle posizioni e velocità di tutte le particelle. Tuttavia, in un sistema composto da un grande numero di particelle possiamo applicare le leggi della probabilità.4 Possiamo dire più o meno che, se cominciamo da una qualche descrizione esatta delle posizioni e velocità di tutte le particelle, dopo poco tempo il sistema perderà tale informazione. A causa delle collisioni casuali e della natura scabra delle pareti, l’evoluzione del sistema può essere più efficacemente descritta dalle leggi della statistica piuttosto che dalle leggi della meccanica.5 Così, possiamo efficacemente applicare ragionamenti probabilistici simili a quelli applicati al gioco dei dadi perché esiste un elemento di casualità che fornisce a ogni particella una chance di cambiare da S a D o viceversa. Quindi, la risposta alla domanda “in che modo” è effettivamente (anche se non esattamente) la stessa che nel caso del gioco dei dadi. Abbiamo anche visto che le regole precise del gioco dei dadi non erano particolarmente importanti: ciò che era importante è che ogni dado avesse una possibilità “onesta” di cambiare in modo casuale. Questo ragionamento si applica anche all’esperimento reale dell’espansione di un gas, ovvero ogni atomo o molecola deve possedere una possibilità “onesta” di spostarsi da S a D e viceversa. Se rimuoviamo l’elemento di casualità, il sistema non evolverà seguendo la Seconda Legge. Nel capitolo 6 abbiamo prescritto regole la cui applicazione risulta o in nessun cambiamento o in un cambiamento da “tutti zeri” a “tutti uno”, cioè oscillante tra queste due configurazioni estreme. Allo stesso modo, possiamo pensare a un sistema di molecole che non si evolve seguendo la Seconda Legge. Considerate i due seguenti “esperimenti immaginari”. Supponiamo che tutte le particelle si muovano inizialmente verso l’alto in modo concentrato come mostrato nella figura 7.6a. Se le pareti fossero perfettamente piane, 4
Nella meccanica classica, se conosciamo le posizioni e le velocità esatte di tutte le particelle in un dato istante, allora in linea di principio possiamo predire le posizioni e le velocità di tutte le particelle in ogni altro istante. Tuttavia, questa enorme quantità di informazione non può essere elencata, per non parlare del problema di risolvere qualcosa come 1023 equazioni del moto. Il successo rimarchevole della meccanica statistica è una monumentale testimonianza di quanto sia giustificato applicare argomenti statistici a un sistema composto da un grande numero di particelle. 5 Il problema di tentare di predire le probabilità dalla dinamica delle particelle è profondo e difficile. Tutti i tentativi, a partire da quelli di Boltzmann, sono falliti. In linea di principio, non si può far derivare le probabilità dalle equazioni del moto deterministiche. D’altra parte, è ben noto che un sistema composto da un grande numero di particelle che si muovono caoticamente mostra rimarchevoli regolarità e un comportamento predicibile. 125
Capitolo 7
L’entropia svelata
Figura 7.6
senza irregolarità né rugosità ed esattamente perpendicolari alla direzione del moto degli atomi, allora osserveremmo le particelle muoversi su e giù per sempre. Persino dopo la rimozione della partizione, tutte le particelle che si trovavano inizialmente nel compartimento S rimangono in questo stesso compartimento. La Seconda Legge non può “operare” su un tale sistema.6 Un secondo “esperimento immaginario” è illustrato nella figura 7.6b. Supponiamo di nuovo di incominciare con tutte le particelle in S, che però ora si muovono in linea retta da sinistra a destra e da destra a sinistra. Inizialmente, tutte le particelle si muovono di concerto e con la stessa velocità. Le traiettorie di tutte le particelle sono simili: colpiscono la partizione e rimbalzano indietro. Se rimuoviamo la partizione, il flusso di particelle si muove ora di concerto da S a D e viceversa indefinitamente. In entrambi questi esperimenti immaginari non c’è alcuna evoluzione governata dalla Seconda Legge. In effetti, tali processi non si possono ottenere in un esperimento reale. Questo è il motivo per il quale ci siamo riferiti a questo processo come a un esperimento immaginario. Chiaramente tutte le pareti reali devono avere alcune imperfezioni e persino se potessimo incominciare con uno dei due precedenti movimenti sincronizzati, molto presto le leggi della probabilità prenderebbero il sopravvento e la Seconda Legge diventerebbe operativa. Va sottolineato che in termodinamica non ci interessa la domanda su come un sistema si muova dallo stato iniziale a quello finale. Tutto ciò che 6
Tale sistema è ovviamente impossibile da realizzare. La realizzazione di un esperimento di questo tipo è tanto impossibile quanto conoscere la posizione e la velocità esatte di ogni particella in ogni istante. 126
7.2 La corrispondenza con il processo di deassimilazione
Capitolo 7
conta è la differenza tra lo stato iniziale e quello finale. Qui abbiamo guardato attraverso una lente di ingrandimento i dettagli del movimento delle particelle individuali per stabilire la corrispondenza tra le regole del gioco dei dadi e le regole del movimento da S a D o da D a S nell’espansione dei gas. È tempo di procedere alla prossima e più importante domanda, il “perché”! Come abbiamo notato nel capitolo 6 la risposta alla domanda “perché” data nel gioco dei dadi si può anche applicare al caso del gas in espansione. Il gas procederà da configurazioni indistinte di minore probabilità a configurazioni indistinte di maggiore probabilità. Qui una configurazione specifica significa una dettagliata specificazione di quale particella si trova in ogni compartimento. Una configurazione indistinta (che è l’unica cosa che possiamo tenere sotto controllo) è “quante particelle ci sono nel compartimento D”. Se avete capito i ragionamenti presentati nei capitoli 4, 5 e 6 a riguardo dell’evoluzione del sistema dallo stato iniziale allo stato di equilibrio, allora comprenderete anche l’evoluzione del sistema fisico descritto in questo capitolo. Avete visto che persino con 104 o 105 dadi la probabilità di tornare allo stato iniziale è trascurabilmente piccola e concluso che, una volta che il sistema giunge in prossimità della linea di equilibrio, vi rimarrà “per sempre”, senza “mai” ritornare allo stato iniziale. Il ragionamento è a maggior ragione vero per un sistema di 1023 dadi o particelle. Come nel caso del gioco dei dadi, abbiamo enfatizzato che non esiste alcuna legge di natura che dice che un sistema debba evolvere da giallo a verde o dall’ordine al disordine o da una minore IM a una maggiore IM. Tutte queste sono manifestazioni osservabili dell’evoluzione del sistema, ovvero modi per tenere sotto controllo l’evoluzione del sistema. La ragione fondamentale dell’evoluzione osservata del sistema è ovvia e auto-evidente. Ogni sistema spenderà sempre un tempo maggiore negli stati di maggiore probabilità piuttosto che negli stati di minore probabilità. Quando N è molto grande, ad esempio dell’ordine di 1023 , “alta probabilità” si tramuta in “certezza”. Questa è l’essenza della Seconda Legge della Termodinamica. È anche una legge basilare del buon senso, niente di più.
§ 7.2 La corrispondenza con il processo di deassimilazione Nel realizzare la corrispondenza tra l’evoluzione del gioco dei dadi e l’esperimento del gas in espansione ho completato la mia missione: guidarvi verso la comprensione del funzionamento della Seconda Legge della Termodinamica. Tuttavia, vorrei delineare un’altra corrispondenza tra il gioco dei dadi 127
Capitolo 7
L’entropia svelata
e un esperimento fisico. Questo ulteriore esempio non aggiungerà nulla di nuovo alla vostra comprensione della Seconda Legge, ma costituirà un altro esempio di processo spontaneo governato dalla Seconda Legge della Termodinamica e lo presento principalmente per motivi estetici. Lasciate che vi spieghi il perché. Ogni processo spontaneo che coinvolge un incremento di entropia è guidato dalla stessa legge del buon senso: evento più probabili accadranno più spesso. Abbiamo visto solamente un processo fisico di questo tipo, l’espansione spontanea di un gas. Ci sono ovviamente molti altri processi complicati, come una reazione chimica, il miscelarsi di due liquidi, gli schizzi di un uovo caduto e molti altri. Non è sempre facile definire precisamente gli stati del sistema su cui la Seconda Legge opera. Nell’insegnare la Termodinamica è solito e piuttosto istruttivo classificare i processi secondo il tipo di stati che sono coinvolti nel processo. In termini di informazione o, meglio, di informazione mancante noi classifichiamo ulteriormente i processi in accordo con il tipo di informazione che viene persa. Nel processo di espansione ogni particella era inizialmente localizzata in un volume V più piccolo. Dopo l’espansione le particelle si trovano localizzate in un volume maggiore 2V , quindi, è più “difficile” localizzare le particelle, ovvero possediamo minore informazione sulle posizioni delle particelle. In un processo di trasferimento di calore tra due corpi a differenti temperature c’è un cambiamento più sottile nella quantità di informazione. Prima del processo le particelle di un corpo caldo sono caratterizzate da una distribuzione di energia (velocità) e le particelle del corpo freddo da un’altra distribuzione di velocità. Dopo il contatto e il raggiungimento dell’equilibrio, c’è una sola distribuzione di velocità per tutte le particelle dei due corpi. Discuteremo ancora questo processo più avanti. In processi più complicati, come lo spiaccicarsi di un uovo, è difficile definire il tipo di informazione persa: fra le altre cose, potrebbe essere informazione sulla posizione, velocità, orientazione, eccetera. Questo è un processo complicatissimo, un po’ al di fuori della nostra capacità di descrizione. Nel gioco dei dadi avevamo N dadi identici; ognuno poteva essere in due (o più) stati, ad esempio, “0” e “1” o giallo e blu o “S” e “D”. Nel processo di espansione abbiamo fatto la corrispondenza tra i due risultati dei dadi e le due posizioni delle particelle dello stesso tipo (ad esempio, atomi di argo). Questo va bene. Possiamo sempre denotare un atomo nel compartimento D come un atomo-D e, allo stesso modo, un atomo nel compartimento S come un atomo-S. Questo è formalmente corretto, ma esteticamente insoddisfa128
7.2 La corrispondenza con il processo di deassimilazione
Capitolo 7
Figura 7.7
cente poiché l’inerente identità degli atomi non cambia in questo processo. In altre parole abbiamo fatto la corrispondenza tra l’identità del risultato dei dadi e la localizzazione della particelle. Lasciatemi presentare ora un nuovo esperimento che è ancora guidato dalla Seconda Legge, ma in cui la corrispondenza tra il gioco dei dadi e il processo fisico è più plausibile ed esteticamente soddisfacente. Faremo la corrispondenza tra l’identità del risultato dei dadi e l’identità delle particelle. Nell’affrontare questo processo ci possiamo permettere anche un piccolo “bonus”: possiamo immaginare un esperimento reale in cui possiamo seguire il colore, l’odore o il sapore del sistema mentre evolve nel tempo. Considerate una molecola avente due isomeri, diciamo Cis e Trans, schematicamente rappresentati nella figura 7.7. Incominciando con puro Cis, il sistema potrebbe non cambiare per lungo tempo. Se aggiungiamo un catalizzatore (l’analogo della rimozione della partizione), osserveremo il cambiamento spontaneo dalla pura forma Cis a una qualche miscela di forme Cis e Trans. La meccanica statistica fornisce una procedura per il calcolo del rapporto tra le concentrazioni dei due isomeri all’equilibrio. In questa particolare reazione possiamo identificare due tipi diversi di cause per il cambiamento di entropia o equivalentemente due tipi di cambiamento di informazione: uno è associato all’identità delle molecole mentre l’altro è associato alla ridistribuzione dell’energia sui gradi di libertà interni delle due specie. C’è un esempio particolare di una reazione chimica in cui cambia solamente l’identità delle molecole (i gradi di libertà interna sono gli stessi per le due specie). Questo è il caso di due enantiomeri, ovvero due molecole otticamente attive. Si tratta di due isomeri che hanno esattamente la stessa struttura e gli stessi costituenti chimici; l’unica differenza è che una è l’immagine speculare dell’altra. Ecco un esempio di tale molecola (figura 7.8). Chiamiamo questi due isomeri d e ℓ (per destrogiro e levogiro, rispettivamente).7 Queste due molecole possiedono la stessa massa, lo stesso mo7
I due isomeri ruotano il piano della luce polarizzata in senso orario (destrogiro) o 129
Capitolo 7
L’entropia svelata
Figura 7.8
mento di inerzia, gli stessi gradi di libertà interni e lo stesso insieme di livelli energetici. Dunque, quando eseguiamo una “reazione” che coinvolge la trasformazione dalla forma d alla forma ℓ, l’unico cambiamento nel sistema è nel numero di particelle indistinguibili. Eseguiamo l’esperimento seguente.8 Incominciamo con N molecole nella forma d. Posizioniamo un catalizzatore che induca una trasformazione spontanea da d a ℓ o da ℓ a d. Si può dimostrare che all’equilibrio troveremo circa N/2 molecole della forma d e N/2 della forma ℓ.9 Possiamo anche calcolare il cambiamento di entropia in questo processo e trovare che esso è esattamente lo stesso del processo di espansione di cui abbiamo discusso prima. Tuttavia, il tipo di “forza motrice” è diverso e, a mio giudizio, la corrispondenza tra il gioco dei dadi e questo processo è più soddisfacente e più “naturale”. Per capire perché, notiamo che in entrambi gli esperimenti abbiamo fatto la corrispondenza: uno specifico dado ←→ una specifica particella Nell’esperimento di espansione abbiamo inoltre fatto la corrispondenza: una specifica identità del risultato di un dado una specifica localizzazione della particella antiorario (levogiro). 8 Questo processo è stato chiamato “deassimilazione”, ovvero il contrario del processo di assimilazione definito come il processo di perdita d’identità delle particelle. In alcuni libri di testo questo processo è erroneamente chiamato mixing. Per ulteriori dettagli, si vedano Ben-Naim [1987, 2008]. 9 Questo è intuitivamente chiaro. Poiché i due isomeri sono identici a parte il fatto di essere immagini speculari, non c’è ragione per cui all’equilibrio una forma debba essere più abbondante dell’altra. Esattamente per gli stessi motivi per cui nel processo di espansione ci sarà circa lo stesso numero di particelle in S e in D (presupponendo che i due volumi siano uguali). 130
7.2 La corrispondenza con il processo di deassimilazione
Capitolo 7
Nel secondo esperimento, chiamato “deassimilazione”, la corrispondenza è: una specifica identità del risultato di un dado una specifica identità della particella Quindi, mentre nel processo di espansione l’evoluzione dallo stato iniziale a quello finale riguarda cambiamenti nell’informazione posizionale, nel processo di deassimilazione, d’altra parte, c’è un cambiamento nell’identità delle particelle.10 Questo è lo stesso tipo di perdita di informazione che abbiamo osservato nel gioco dei dadi. La corrispondenza tra i dadi e le particelle in questo processo è mostrata nella parte inferiore della figura 7.4. Sia nel gioco dei dadi sia nel processo di deassimilazione c’è un’evoluzione che riguarda il cambiamento di identità delle particelle. Incominciamo con N dadi tutti con “0” in un caso e con tutte molecole in forma d nell’esperimento reale. Dopo un po’ di tempo N/2 dadi sono cambiati in “1” in un caso e N/2 particelle acquisiscono una nuova identità, la forma ℓ, nell’altro caso.11 Questa corrispondenza è più naturale di quella tra il gioco dei dadi e il processo di espansione. L’evoluzione del sistema può essere esattamente descritta nello stesso modo che abbiamo usato per l’espansione del gas. Semplicemente sostituite d e ℓ a D e S e comprenderete l’evoluzione di questo esperimento. Come abbiamo visto in precedenza nelle figure 7.1 e 7.3, mostriamo anche in figura 7.9 i tre stadi del processo di deassimilazione e la corrispondenza sia con il processo di espansione sia con il gioco dei dadi. La risposta alle domande “che cosa” e “perché” sono esattamente le stesse che in questi due processi. La risposta alla domanda “in che modo” è un pochino diversa.12 Tuttavia, come abbiamo notato in precedenza, la domanda “in che modo” non è importante per la comprensione della Seconda Leg10
Dovremmo notare che in un sistema con gas ideale ci sono solamente due tipi di informazione: posizione e velocità. L’identità delle particelle non è un nuovo tipo di informazione. Tuttavia, il cambiamento di identità contribuisce davvero al cambiamento di informazione (per ulteriori dettagli, si veda Ben-Naim [2008]). 11 Ogni volta che diciamo N/2 particelle in realtà intendiamo un numero nelle vicinanze di N/2. 12 Invece della probabilità che un atomo colpisca la porticina nella partizione e la attraversi da S a D o da D a S, c’è la probabilità di un isomero di acquisire abbastanza energia (tramite collisioni) per trasformarsi dalla forma d alla forma ℓ e viceversa o alternativamente di colpire il catalizzatore, che indurrà la trasformazione da un isomero all’altro. 131
Capitolo 7
L’entropia svelata
Figura 7.9
ge. Ciò che conta è solamente la differenza di entropia fra lo stato iniziale e quello finale. Ora il bonus: nel capitolo 5 abbiamo discusso alcuni processi ipotetici in cui il colore, sapore o odore venivano tenuti sotto controllo in un sistema di dadi. In linea di principio questi processi possono essere resi reali. Supponiamo di avere due isomeri che possiedono strutture differenti così che essi abbiano diversi colori, odori, sapori. Eseguendo l’esperimento della isomerizzazione spontanea, potremmo seguire il cambiamento di colore da blu a verde (come nel primo esempio del capitolo 5) o dall’odore A alla miscela di odori A e B (come nel secondo esempio) o da un sapore aspro a un gusto agrodolce (come nel terzo esempio). Questi cambiamenti possono essere tenuti sotto controllo continuamente in un sistema omogeneo.13 È difficile trovare un esperimento fisico analogo al cambiamento di tono (quarto esempio) visto che le particelle non emettono onde sonore. È impossibile trovare l’analogo dell’ultimo esempio del capitolo 5: la temperatura è un fenomeno complesso che dipende da una distribuzione continua di ve13
Potremmo anche ottenere lo stesso effetto miscelando due diversi gas, come in figura 1.4. In questo caso il colore (o l’odore o il gusto) verrebbe osservato continuamente, ma non omogeneamente in tutto il sistema, come nel processo descritto in questa sezione. 132
8
Riflessioni sullo stato della Seconda Legge della Termodinamica come legge della fisica Se mi avete seguito fin qui e avete raggiunto questo ultimo capitolo, dovreste sentirvi a vostro agio con il concetto di entropia e con la Seconda Legge. Se lanciate un paio di dadi (reali) molte volte e trovate che la somma = 7 appaia in media più volte di molte altre somme, non dovreste esserne sorpresi. Se lanciate un centinaio di dadi semplificati (con “0” e “1”), non dovrebbe stupirvi scoprire che la somma dei risultati sarà praticamente sempre vicina a 50. Se lanciate un milioni di dadi semplificati, non dovrebbe rappresentare un mistero il fatto che non otterrete “mai” la somma 0 o la somma 1 000 000. Sapete che entrambi i risultati sono possibili, ma anche che sono così rari che potreste giocare per tutta la vita senza mai assistere neppure una volta al loro verificarsi. Non sarete disorientati poiché avete riflettuto su questo argomento e perché il vostro buon senso vi dice che gli eventi con probabilità maggiore sono osservati più frequentemente, mentre gli eventi estremamente improbabili non si verificano “mai”. Se non avete mai sentito parlare della costituzione atomica della materia e guardate un gas colorato inizialmente contenuto in un compartimento di un contenitore mentre fluisce e riempie entrambi i compartimenti del contenitore, come mostrato in figura 8.1a; oppure se osservate due compartimenti con due gas diversi, diciamo giallo e blu, mentre si trasformano in una sfumatura di verde omogeneo, come mostrato in figura 8.1b; o ancora se verificate che un corpo caldo a temperatura T2 = 100 C mentre, a contatto con un corpo freddo, inizialmente a T1 = 0 C, si raffredda e raggiunge una temperatura intermedia fra T1 e T2 , come mostrato in figura 8.1c, dovreste essere confusi. Perché il gas blu fluisce da una camera per riempire l’altra camera? Perché i due gas colorati si sono trasformati in un singolo colore? Perché le temperature dei due corpi sono cambiate in una singola temperatura? Quali sono le forze nascoste che spingono tutti questi fenomeni, sempre in queste
Capitolo 8
L’entropia svelata
a
VUOTO
b
BLU
c
T2 = 100 C
GIALLO
VERDE
T1 = 0 C
T = 50 C
Figura 8.1
direzioni e mai nelle direzioni opposte? In effetti, fintanto che la teoria atomica della materia non fu scoperta e accettata,1 tutti questi fenomeni erano circondati dal mistero. “Mistero” potrebbe non essere la parola esatta. Forse “perplessità” potrebbe descrivere meglio la situazione. L’unica ragione per cui siete perplessi è che non capite il motivo per il quale tali fenomeni accadono in una particolare direzione. Ma questo si può dire per ogni legge della fisica. Una volta che avrete accettato la legge come un fatto, sentirete che essa è naturale e che ha senso.2 Lo stesso è vero per la Seconda Legge: il fatto che questi processi siano così comuni nella vita quotidiana significa che essi divengono lentamente e gradualmente percepiti come “naturali” e “sensati”. Se, d’altra parte, sapete che un gas è costituito da circa 1023 atomi o molecole, che vagano e collidono incessantemente milioni di volte al secondo, allora sapete che le leggi della probabilità prevalgono e che non c’è alcun mistero. Non c’è alcun mistero in tutti questi processi così come non c’è alcun mistero nel non vincere il premio da un milione all’ultima lotteria. Vorrei credere che, anche se aveste incontrato le parole “entropia” e “Seconda Legge” per la prima volta in questo libro, vi stiate in realtà domandando perché la parola “mistero” sia stata associata a questi termini. Non avrete più motivi per vergognarvi all’udire la parola “entropia” o di domandarvi quale sia la “forza” invisibile che spinge il gas da una parte all’altra. Non c’è 1
Per “scoperta e accettata”, voglio dire “non ancora scoperta e accettata”. Se la materia non consistesse di atomi e molecole, allora non ci sarebbe stato alcun mistero perché nessuno di questi fenomeni sarebbe occorso. La Seconda Legge, così come formulata nella termodinamica classica, non sarebbe potuta esistere. 2 Qui “avere senso” è usato per dire che è una esperienza comune e familiare, non in senso logico. 152
8.1 Qual è l’origine del mistero?
Capitolo 8
neppure alcun motivo che continuiate a leggere questo libro. La mia missione di spiegarvi i “misteri della Seconda Legge” è terminata con le ultime pagine del capitolo 7, quando avete raggiunto una piena comprensione della Seconda Legge. In questo capitolo mi prendo la libertà di esprimere alcune riflessioni personali sulla Seconda Legge. Alcuni dei miei punti di vista non sono necessariamente accettati da tutti. Tuttavia, mi avventuro nell’esprimere queste opinioni e mi assumo il rischio di sollevare le critiche di scienziati con opinioni diverse e forse anche più giuste delle mie. In questo capitolo mi porrò alcune domande e cercherò di rispondere. Incomincerò con una domanda relativamente innocente: “perché la Seconda Legge è stata circondata dal mistero per così tanto tempo?”. Il motivo è forse che essa contiene il seme del conflitto tra la simmetria per inversione temporale delle equazioni del moto e la osservata irreversibilità dei processi naturali? In seguito discuterò poche altre domande, le cui risposte sono ancora controverse. L’entropia è davvero una misura del “disordine” e che cosa significano ordine e disordine di un sistema? Come ha potuto l’“informazione” invadere un “territorio” in cui trovavano posto solamente entità fisiche misurabili? È la Seconda Legge intimamente associata con la freccia del tempo? Qual è lo status della Seconda Legge della Termodinamica a confronto delle altre leggi di natura? È forse possibile che un giorno la scienza possa fare a meno della Seconda Legge della Termodinamica poiché essa sarà ridotta a ridondanza, un retaggio del punto di vista pre-atomistico sulla materia che non arricchisce ulteriormente la nostra conoscenza di come funzioni la natura?
§ 8.1 Qual è l’origine del mistero? A mio giudizio, ci furono molte ragioni che fecero sorgere il mistero che avvolge la Seconda Legge. La prima e forse più semplice ragione del mistero è la parola stessa “entropia”. Tutti hanno familiarità con concetti come forza, lavoro, energia e simili. Quando imparate la fisica, incontrate le stesse parole, sebbene qualche volta con un significato piuttosto diverso da quello a cui siamo abituati nella vita di ogni giorno. La quantità di “lavoro” che ho impiegato nello scrivere questo libro non è misurata con le stesse unità di misura del lavoro (o energia) che si usano in fisica. Allo stesso modo, la “forza” esercitata su un politico per sostenere una specifica legge non è la stessa cosa della forza usata in fisica. Ciò non di meno, i concetti precisi di 153
Capitolo 8
L’entropia svelata
lavoro e forza così come definiti in fisica conservano un po’ del sapore qualitativo del significato di queste parole usato nella vita quotidiana. Quindi, non è difficile far posto al nuovo e più preciso significato conferito a concetti familiari come forza, energia o lavoro. Quando incontrate per la prima volta una parola nuova, come “entropia”, questo di per sé produce un alone di mistero; questa in particolare ha uno strano effetto e vi dà l’idea di qualcosa di difficile. Se non siete studenti di fisica o chimica e ascoltate per caso degli scienziati che parlano di “entropia”, certamente potete pensare che questo concetto sia oltre le vostre capacità e ciò accade a maggior ragione, se sentite che gli stessi scienziati si riferiscono all’“entropia” come a un mistero. Leon Cooper [Cooper, 1968], subito dopo aver citato la spiegazione di Clausius delle ragioni per la sua scelta del termine “entropia”, commenta:3 Così facendo, piuttosto che estrarre un nome dal corpo del linguaggio corrente (ad esempio, calore perso), egli è stato capace di coniare una parola che possiede lo stesso significato per tutti: nulla.
In generale concordo con il commento di Cooper, ma ho due riserve su di esso. Innanzitutto, la parola “entropia” è sfortunatamente fuorviante. Ciò è chiaramente diverso dal significare “nulla”. Aprite un dizionario qualsiasi e troverete: “entropia — dal greco antico, cambiamento, letteralmente svolta”. Certamente il concetto di entropia non è “trasformazione”, né “cambiamento”, né “svolta”. Come abbiamo visto, l’entropia come definita sia nella formulazione non atomistica sia in quella atomistica della Seconda Legge, è qualcosa che cambia. Ma non è la “trasformazione” che si trasforma e neppure il “cambiamento” che cambia e certamente non è la “svolta” che si evolve. La mia seconda riserva riguarda il suggerimento estemporaneo di Cooper che “calore perso” sarebbe stato un termine più appropriato. Certamente, “calore perso” è un termine che possiede più significato di “entropia”. È anche in accordo con il significato universalmente assegnato all’entropia di una “misura dell’energia non più disponibile”.4 Tornerò a questo significato attribuito all’entropia più avanti, nella sezione 8.3. Oltre alla non familiarità con un nuovo concetto che crea un’aria di mistero, questo enigma ha una seconda causa. Proprio il fatto che molti autori 3
Si veda il capitolo 1, pagina 7. Citiamo ancora dagli scritti di Clausius, circa la scelta del termine “entropia”. Clausius dice: “Propongo, di conseguenza, di chiamare S l’entropia di un corpo, dalla parola greca che significa ‘trasformazione’.” 4 Da Merriam-Webster [2003]. 154
8.1 Qual è l’origine del mistero?
Capitolo 8
scrivendo sull’entropia dicono che l’entropia sia un mistero, rende l’entropia un mistero. Questo è vero per gli scrittori di divulgazione scientifica così come per gli autori di seri libri di testo sulla termodinamica. Prendete, ad esempio, un libro recente, brillantemente scritto per i profani da Brian Greene [Greene, 2004]. Egli scrive: Fra gli aspetti dell’esperienza comune che hanno resistito ad ogni tentativo di completa spiegazione ve n’è uno che sfocia nei più profondi misteri irrisolti della fisica moderna, il mistero che il grande fisico inglese Sir Arthur Eddington chiamò la freccia del tempo.
Nelle pagine seguenti del suo libro, Greene spiega il comportamento dell’entropia usando le pagine del romanzo epico di Tolstoj Guerra e pace. Ci sono moltissimi più modi in cui le pagine di tale romanzo possono cadere in disordine, ma solamente uno (o due) modi per ordinarle. Mi sembra che la frase citata in precedenza contribuisca a perpetuare un mistero che non c’è più. Con poche altre frasi Greene avrebbe potuto facilmente spiegare l’“entropia”, così come ha spiegato tanti altri concetti di fisica moderna. E davvero è per me fastidioso che egli scriva “. . . il più profondo mistero irrisolto della fisica moderna”, mentre credo che avrebbe invece dovuto scrivere: “oggi il mistero associato con la Seconda Legge non esiste più”. Ci sono molti autori che hanno scritto della Seconda Legge con l’intenzione di spiegarla, ma nei fatti hanno finito per propagare il mistero.5 Ecco un classico esempio. Il libro di Atkins [Atkins, 1984] su La Seconda Legge comincia con le parole seguenti: Nessun’altra parte della scienza ha contribuito alla liberazione dello spirito umano tanto quanto la Seconda Legge della Termodinamica. Tuttavia, allo stesso tempo, poche altre parti della scienza sono altrettanto recondite. Menzionare la Seconda Legge fa sorgere visioni di antichi motori a vapore, matematica intricata e infinitamente incomprensibile entropia.
Perché qualcuno dovrebbe scrivere queste frasi introduttive? Io sono decisamente in disaccordo con tutte e tre le frasi citate. La prima frase è ambigua. Non sono mai riuscito a capire che cosa abbia a che fare la Seconda Legge con la “liberazione dello spirito umano”. Tuttavia, lo scopo di questo 5
Un’eccezione è il libro di Gamov Uno, due, tre, infinito [Gamov, 1947] che apre una sezione con il titolo “La misteriosa entropia” ma termina dicendo “e come vedete, non c’è nulla in essa che vi possa spaventare”. 155
Capitolo 8
L’entropia svelata
libro non è ragionare insieme ad Atkins sui punti di vista sulla Seconda Legge. Cito queste frasi introduttive dal libro di Atkins per dimostrare come ognuna di esse contribuisca a propagare il mistero. La prima frase fa insorgere grandi aspettative dalla Seconda Legge e presumibilmente vi incoraggia a leggere il libro. Tuttavia, le vostre aspettative sono di gran lunga frustrate nel continuare a leggere il libro. Le due frasi seguenti sono esplicitamente scoraggianti — una “infinitamente incomprensibile entropia” non solletica il vostro appetito neppure per farvi provare ad assaggiare questo piatto. In molti libri di testo sulla termodinamica gli autori spendono un sacco di tempo discutendo differenti manifestazioni della Seconda Legge, ma molto poco su ciò che è comune a tutte queste manifestazioni. Invece di selezionare uno o due semplici esempi di processi che sono manifestazioni della Seconda Legge, gli autori presentano un grandissimo numero di esempi, alcuni dei quali sono troppo complicati per essere compresi. Leggendoli tutti non riuscite a riconoscere la foresta pur vedendo tanti alberi.6 Nel capitolo 7 abbiamo discusso due esempi relativamente semplici che dimostrano il funzionamento della Seconda Legge. In ognuno di questi esempi solamente un parametro cambia. Nel primo il cambiamento che osserviamo è nell’informazione posizionale, ovvero particelle inizialmente confinate in un volume minore si diffondono e riempiono un volume maggiore. Nel secondo esempio le identità delle molecole vengono cambiate. Nell’esperimento sul calore trasferito da un corpo caldo a uno freddo è la distribuzione delle velocità che cambia. Certamente esistono molti processi complicati che coinvolgono cambiamenti in molti parametri (o gradi di libertà). Qualche volta è difficile contarli tutti. Per esempio, i processi che avvengono in seguito allo spiaccicarsi di un uovo coinvolgono cambiamenti di posizione, di identità delle molecole, della distribuzione di velocità, di orientazioni e di rotazioni interne alle molecole. Tutto ciò complica la descrizione del processo, ma il principio della Seconda Legge è sempre lo stesso. Per capire il principio, è sufficiente focalizzarci su un processo semplice; più semplice è e migliore e più semplice sarà da capire. Il libro di Atkins [Atkins, 1984] dedica un intero capitolo a “vedere come la Seconda Legge renda conto dell’emergenza delle forme intricatamente ordinate caratteristiche della vita”. Secondo la mia opinione, questa promessa non è mantenuta: ho letto l’intero libro di Atkins dalla prima all’ultima 6
È interessante notare che “entropia” e “la Seconda Legge” appaiano nei titoli di molti libri (si guardi qualche titolo fra i libri nella bibliografia). Per quanto ne so, nessun’altra singola legge della fisica ha goduto di un simile trattamento. 156
8.1 Qual è l’origine del mistero?
Capitolo 8
pagina, e non sono riuscito a “vedere come la Seconda Legge renda conto dell’emergenza delle forme intricatamente ordinate caratteristiche della vita”. Questo tipo di promesse contribuisce alla frustrazione dei lettori e li scoraggia ad affrontare la Seconda Legge. I fenomeni della vita coinvolgono processi estremamente complicati. Tutti “sanno”, scienziati così come non scienziati, che la vita è un fenomeno complesso, di cui molti aspetti, coinvolgendo la mente e la coscienza, non sono ancora ben compresi. Quindi, discutere della vita in un libro che si suppone debba spiegare la Seconda Legge lascia il lettore con l’impressione che l’entropia, così come la vita, sia così difficile che non vi è speranza di comprenderla e che, quindi, sia molto misteriosa. È vero che molti scienziati credono che tutti gli aspetti della vita, coscienza inclusa, siano in ultima analisi sotto il controllo delle leggi della fisica e della chimica e che non ci sia un’entità separata, come la mente, che non soccomba alle leggi della fisica. Personalmente io credo che questo sia vero. Tuttavia questa opinione è ancora ben lontana dall’essere dimostrata e compresa. Può darsi che alcuni aspetti della vita richiedano estensioni delle leggi fisiche chimiche così come oggi le conosciamo, come brillantemente arguito da Penrose [Penrose, 1989, 1994]. Quindi, secondo la mia opinione, è prematuro discutere la vita come se fosse solamente un altro esempio, per quanto affascinante, all’interno del contesto della spiegazione della Seconda Legge. Ci sono ragioni più serie per il mistero che ha offuscato l’entropia. Per più di un secolo la Seconda Legge è stata formulata in termini termodinamici e, persino dopo che la teoria molecolare della materia fu stabilita, la Seconda Legge viene tuttora insegnata in termodinamica, impiegando termini macroscopici. Questo approccio conduce inevitabilmente a un vicolo cieco. Davvero, come il mio primo insegnante correttamente proclamò (si veda la prefazione), non vi è alcuna speranza di capire la Seconda Legge all’interno della termodinamica. Per raggiungere la luce, dovete attraversare i tunnel della termodinamica statistica, ovvero la formulazione della Seconda Legge in termini di un numero enorme di particelle indistinguibili. Se scorrete le diverse formulazioni della Seconda Legge nel contesto della termodinamica classica, potete dimostrare l’equivalenza di una formulazione con qualche altra formulazione; potete mostrare che l’entropia che guida un processo, ad esempio l’espansione di un gas, è la stessa entropia che guida un altro processo, ad esempio il mescolarsi di due diversi gas. È un po’ più difficile dimostrare che si tratta anche della stessa entropia 157
Capitolo 8
L’entropia svelata
che guida una reazione chimica o il miscelarsi di due liquidi. È impossibile dimostrare che sia la stessa entropia che causa la confusione creata dallo spiaccicarsi di un uovo (tuttavia noi assumiamo che essa sia davvero la stessa entropia e che un giorno, quando gli strumenti della termodinamica statistica saranno più potenti, noi riusciremo a dimostrarlo). Comunque, non importa quanti esempi elaboriate e dimostriate essere guidati dalla inesorabile e sempre crescente entropia, voi raggiungerete sempre un vicolo cieco. Non potrete mai capire quale sia la sorgente soggiacente a questa crescita mono-direzionale dell’entropia. La termodinamica non vi rivela nulla degli eventi molecolari soggiacenti. Se la natura atomica della materia non fosse stata scoperta e accettata,7 non saremmo mai stati capaci di spiegare la Seconda Legge; essa sarebbe rimasta per sempre un mistero. Questa era la situazione tra la fine del XIX secolo e l’inizio del XX secolo. Sebbene la teoria cinetica del calore fosse riuscita a spiegare pressione, temperatura e alla fine persino l’entropia in termini del moto di atomi e molecole, queste teorie venivano considerate solamente al rango di ipotesi. Scienziati importanti e influenti come Ostwald8 e Mach9 pensavano che il concetto di atomo e le teorie basate sulla sua esistenza non avrebbero dovuto far parte della fisica. Invero, ne avevano motivo. Fintanto che gli atomi non furono “visti” direttamente o indirettamente, la loro incorporazione in ogni teoria della materia fu considerata speculativa. La situazione cambiò drasticamente all’inizio del XX secolo. Fu Einstein che contribuì decisamente alla sconfitta dell’etere,10 lastricando anche la strada per la vittoria degli atomisti. L’accettazione dell’interpretazione molecolare dell’entropia di Boltzmann divenne inevitabile (si veda il capitolo 1). Ma come mai il mistero non è svanito con l’accettazione dell’interpretazione di Boltzmann dell’entropia? Davvero, la porta fu allora ampiamente 7
Si veda la nota 1 a pagina 152. Il chimico tedesco Friedrich Wilhelm Ostwald (1853–1932) ricevette il premio Nobel per la chimica nel 1909 per i suoi lavori sulla catalisi, l’equilibrio chimico e la velocità delle reazioni. N.d.T. 9 Lo scienziato austriaco Ernst Waldfried Josef Wenzel Mach (1838–1916) è oggi ricordato soprattutto per i suoi studi sulle velocità supersoniche. N.d.T. 10 L’etere è il mezzo attraverso il quale si pensava che la luce si propagasse fino alla fine del XIX secolo. Tuttavia, gli esperimenti mostravano che l’etere dovesse possedere proprietà assurde; che presentasse, ad esempio, una rigidità enorme da un lato, pur garantendo il suo attraversamento da parte dei pianeti dall’altro. Oggi si sa che la luce si propaga attraverso il vuoto. N.d.T. 8
158
8.2 L’associazione dell’entropia al “disordine”
Capitolo 8
Figura 8.2
aperta alla piena comprensione del funzionamento dell’entropia, nonostante ciò il mistero persistette. Non sono sicuro di avere la risposta certa a questa domanda. Ma so come mai, per mia stessa esperienza, il mistero ha continuato a fluttuare nell’aria per lungo tempo. Il motivo, credo, coinvolge la controversia mai risolta che sorse dall’associare l’entropia al “disordine”, all’“informazione mancante” e alla “freccia del tempo”. Discuterò tutte queste associazioni separatamente.
§ 8.2 L’associazione dell’entropia al “disordine” L’associazione dell’entropia al disordine è forse la più vecchia delle tre e ha le sue radici nell’interpretazione di Boltzmann dell’entropia. Ordine e disordine sono concetti vaghi e altamente soggettivi e, sebbene, sia vero che in molti casi un incremento di entropia si può correlare con un incremento di disordine, l’affermazione che “la natura procede dall’ordine al disordine” equivale a dire che “la natura procede dalla bassa all’alta entropia”. Essa non spiega perché il disordine debba crescere in un processo spontaneo. Non esiste alcuna legge di natura che affermi che un sistema tende a evolvere dall’ordine al disordine. Infatti non è vero che, in generale, un sistema evolva dall’ordine al disordine. La mia contrarietà all’associazione dell’entropia al disordine è principalmente che ordine e disordine non sono concetti ben definiti, ma molto sfumati. Essi sono molto soggettivi, qualche volta ambigui e a volte completamente fuorvianti. Considerate i seguenti esempi. Nella figura 8.2 abbiamo tre sistemi. A sinistra abbiamo N atomi nel volume V . Nel secondo alcuni degli N atomi occupano un maggior volume 2V . Nel terzo gli N atomi sono sparsi uniformemente nell’intero volume 2V . Date un’occhiata. Potete dire quale dei tre sistemi sia il più ordinato? Beh, uno può pensare che il sistema sinistra, dove gli N atomi sono raggruppati in metà del volume, sia più ordinato del sistema a destra, dove N atomi sono sparsi nell’intero volume. Questo è plausibile quando associamo l’entropia con l’informazione mancante (si veda più avanti) ma, per quanto riguarda 159
Capitolo 8
L’entropia svelata
Figura 8.3
l’ordine, personalmente non riconosco alcun sistema nella figura essere più ordinato o disordinato dell’altro. Considerate ora i due sistemi rappresentati nella figura 8.3. Nel sistema a sinistra, abbiamo N particelle blu in una scatola di volume V e N particelle rosse in un’altra scatola di uguale volume V . A destra, abbiamo tutti gli atomi miscelati nello stesso volume V . Ora, qual è il più ordinato? A mio giudizio, la parte sinistra è più ordinata — tutte le particelle blu e quelle rosse sono separate in due scatole diverse. Nella parte destra, esse sono mescolate assieme in una sola scatola. “Mescolate” è certamente uno stato disordinato, parlando colloquialmente. In effetti, persino Gibbs stesso ha usato il termine “mescolanza” per descrivere l’entropia. Tuttavia, si può dimostrare che i due sistemi citati prima possiedono la stessa entropia. L’associazione del mescolamento con l’aumento del disordine e, quindi, con l’aumento di entropia è dunque solamente un’illusione. Il problema con i concetti di ordine e disordine è che essi non sono quantità ben definite — l’“ordine”, tanto quanto “struttura” e “bellezza”, sta negli occhi dello spettatore! Non sono al corrente di nessuna precisa definizione di ordine e disordine che possa essere usata per convalidare l’interpretazione di entropia in termini di grado di disordine. Esiste un’eccezione, tuttavia. Callen nel suo libro sulla termodinamica [Callen, 1985] scrive (pag. 380): Infatti, il quadro concettuale della “teoria dell’informazione” eretto da Claude Shannon, alla fine degli anni 1940, fornisce una base per l’interpretazione dell’entropia in termini della misura di disordine di Shannon.
E in seguito nella stessa pagina Callen conclude: Per un sistema chiuso l’entropia corrisponde alla misura quantitativa di Shannon del massimo disordine possibile nella distribuzione del sistema sui suoi microstati accessibili.
Ho insegnato termodinamica per molti anni e usato il libro di Callen come testo di riferimento. È un eccellente libro di testo. Tuttavia, con tutto il 160
8.3 L’associazione dell’entropia all’informazione mancante
Capitolo 8
rispetto dovuto a Callen e al suo libro, devo dire che confonde il lettore con queste affermazioni. Ho letto attentamente l’articolo di Shannon “La teoria matematica della comunicazione”, parola per parola dalla prima all’ultima pagina e ho scoperto che Shannon non ha definito il “disordine” e neppure vi si riferisce. A mio giudizio, Callen sta imbrogliando con la definizione di disordine nell’affermazione citata e nel resto del capitolo. A quale scopo? Per legittimare l’uso di disordine nell’interpretare l’entropia. Ciò è chiaramente in disaccordo con lo scritto di Shannon. Ciò a cui Callen si riferisce come alla definizione di Shannon del disordine è in realtà la definizione di Shannon dell’informazione. Secondo la mia opinione la ridefinizione di Callen dell’informazione in termini di disordine non aiuta a raggiungere l’obbiettivo di spiegare l’entropia. Come abbiamo visto nei capitoli 2 e 6, il concetto di informazione, nato da un concetto qualitativo e altamente soggettivo, è stato trasformato in una misura quantitativa e oggettiva nelle mani di Shannon. Come abbiamo anche visto, il concetto distillato di “informazione” mantiene anche il significato di informazione come lo usiamo nella vita di ogni giorno. Questo non è vero per il disordine. Certamente uno può definire il disordine come ha fatto Callen, precisamente usando la definizione di Shannon di informazione. Sfortunatamente questa definizione di “disordine” non possiede in generale il significato di disordine come lo usiamo nella nostra vita quotidiana, come dimostrato negli esempi precedenti.11 Per concludere questa sezione, direi che l’incremento di disordine (o di uno dei termini equivalenti) può a volte, ma non sempre, essere associato all’incremento di entropia. D’altra parte, l’informazione può sempre essere associata all’entropia e, quindi, è superiore al disordine.
§ 8.3 L’associazione dell’entropia all’informazione mancante Sin da quando Shannon ha proposto la sua definizione del concetto di informazione, questa è stata molto utile nell’interpretare l’entropia.12 Secondo la mia opinione, il concetto di informazione mancante ha non solo contribuito alla nostra comprensione di quale cosa sia la cosa che cambia (chiamata 11
Inoltre, Shannon ha costruito la misura dell’informazione (o dell’incertezza) richiedendo che tale misura soddisfi poche condizioni. Tali condizioni sono plausibili per l’informazione, ma non per il disordine. Per ulteriori letture su questo aspetto dell’entropia si veda Ben-Naim [2008]. 12 Si vedano Tribus & McIrvine [1971] e Jaynes [1983], entrambi sull’interpretazione dell’entropia basata sulla teoria dell’informazione. 161
Capitolo 8
L’entropia svelata
entropia), ma ci ha anche portati più vicini all’ultimo e finale passo nel capire che il comportamento dell’entropia è nulla più che buon senso. Questa opinione, tuttavia, non è universale. Su questo argomento, Callen [Callen, 1985, pagina 384] scrive: Esiste una scuola di termodinamica che vede la termodinamica come una scienza soggettiva di predizione.
Nel paragrafo precedente la discussione dell’entropia come disordine, Callen scrive: Il concetto di probabilità ha due distinte interpretazioni nell’uso comune. “Probabilità oggettiva” si riferisce a una frequenza o alla frazione di occorrenze; l’affermazione che “la probabilità che un neonato sia maschio è poco meno di un 1/2” è una affermazione riguardante i dati demografici. “Probabilità soggettiva” è una misura di aspettazione basata su un’informazione meno che ottimale. La probabilità (soggettiva) che un dato bambino non ancora nato sia maschio, come stimata da un medico, dipende dalla conoscenza da parte di quel medico delle storie familiari dei genitori, dall’aver accumulato dati sui livelli ormonali della madre, dalla crescente chiarezza delle immagini a ultrasuoni e, infine, dalla sua stima di esperto, pur sempre soggettiva.
Come ho spiegato nel capitolo 2 (nella sezione 2.4.1 sulla “probabilità condizionale e probabilità soggettiva”), le mie opinioni differiscono da quelle di Callen in modo fondamentale. Entrambi gli esempi forniti da Callen potrebbero essere sia soggettivi sia oggettivi, cosa che dipende dalla condizione data o dalle informazioni rilevanti date. Ho citato il paragrafo precedente di Callen per mostrare che i suoi ragionamenti a favore del “disordine” sono essenzialmente fallaci. Credo che Callen abbia male applicato argomenti probabilistici per ritenere l’informazione “soggettiva” e per propugnare a favore del “disordine”, che nel suo modo di pensare è “oggettivo”. Un visitatore extraterrestre, che non abbia informazioni sul genere dei neonati, non avrebbe idea di quali siano le probabilità per un maschio o per una femmina e i suoi assegnamenti di probabilità sarebbero totalmente soggettivi. D’altra parte, data la stessa informazione e la stessa conoscenza, includendo le frequenze di bambini e bambine, e l’affidabilità di tutte le registrazioni statistiche mediche, il suo assegnamento di probabilità sarebbe inevitabilmente oggettivo. 162
8.3 L’associazione dell’entropia all’informazione mancante
Capitolo 8
È sfortunato e forse persino ironico che Callen abbia accantonato “informazione” come soggettiva, mentre allo stesso tempo abbia abbracciato la definizione di Shannon dell’informazione, ma rinominandola “disordine”. Facendo ciò, egli in verità rimpiazza una quantità ben definita e oggettiva con il concetto più soggettivo di disordine. Se Callen non avesse usato la definizione di Shannon di informazione, il concetto di disordine sarebbe rimasto una quantità indefinita, qualitativa e altamente soggettiva. A mio modo di vedere, non fa alcuna differenza se vi riferite all’informazione o al disordine, come soggettivo o oggettivo. Ciò che conta è che ordine e disordine non sono concetti scientifici ben definiti. D’altra parte, l’informazione è una quantità scientifica ben definita, tanto quanto un punto o una linea sono scientifici in geometria o come massa e carica di una particella sono scientifici in fisica. Ilya Prigogine, nel suo recente libro Fine delle certezze [Prigogine, 1997], cita Murray Gell-Mann [Gell-Mann, 1994], che dice13 : L’entropia e l’informazione sono intimamente collegate. Infatti, l’entropia può essere vista come una misura dell’ignoranza. Quando si sa solamente che un sistema si trova in un dato macrostato, l’entropia del macrostato misura il grado di ignoranza riguardo al microstato contando il numero di bit di informazione addizionale necessaria per specificarlo, essendo tutti i microstati trattati come ugualmente probabili.
Sono pienamente d’accordo con questa citazione di Gell-Mann, tuttavia Ilya Prigogine, commentando proprio questo stesso paragrafo, scrive: Crediamo che questi argomenti siano insostenibili. Essi implicano che sia la nostra stessa ignoranza, la nostra grossolanità a condurre alla seconda legge.
Insostenibile? Perché? La ragione di queste due diametralmente opposte opinioni di due grandi premi Nobel si trova nel fraintendimento del concetto di informazione. Secondo la mia opinione, non solo Gell-Mann ha ragione nella sua affermazione, ma egli è anche attento a dire “l’entropia può essere vista come una misura dell’ignoranza... L’entropia... misura il grado di ignoranza”. Egli non dice “la nostra stessa ignoranza”, come male interpretato da Prigogine. 13
I miscrostati e macrostati a cui ci si riferisce qui sono ciò che abbiamo chiamato configurazioni, stati o eventi specifici e indistinti. 163
Capitolo 8
L’entropia svelata
Invero, l’informazione, come abbiamo visto nel capitolo 2, è una misura che sta nel sistema (o nel gioco del capitolo 2). Nel contesto della “teoria dell’informazione”, l’“informazione” non è una quantità soggettiva. Gell-Mann usa il termine “ignoranza” come sinonimo di “mancanza di informazione”. Come tale, anche l’ignoranza è una quantità oggettiva che appartiene al sistema e non è la stessa cosa che “la nostra stessa ignoranza”, che potrebbe essere o non essere una quantità oggettiva. L’errato intendimento dell’interpretazione in senso informatico-teorico dell’entropia come un concetto soggettivo è piuttosto comune. Citerò ancora un paragrafo dalla prefazione di Atkins dal libro La Seconda Legge [Atkins, 1984]. Ho deliberatamente omesso di riferirmi alla relazione tra la teoria dell’informazione e l’entropia. Mi sembra che vi sia il pericolo di dare l’impressione che l’entropia richieda l’esistenza di una qualche entità cognitiva capace di possedere “informazione” o di essere in qualche grado “ignorante”. Allora è piccolo il passo alla presunzione che l’entropia stia tutta nella mente e quindi sia un aspetto dell’osservatore.
Il rifiuto dell’interpretazione dell’entropia in termini di informazione da parte di Atkins, basandosi sul fatto che questa “analogia” potrebbe portare alla “presunzione che l’entropia stia tutta nella mente”, è ironico. Invece, egli usa i termini “disordine” e “disorganizzato”, eccetera, che a mio modo di vedere sono concetti che stanno molto di più “nella mente”. Il fatto è che non vi è solo una “analogia” tra entropia e informazione: i due concetti possono anche essere resi identici. Dovremmo sottolineare di nuovo che l’interpretazione dell’entropia come misura dell’informazione non può essere usata per spiegare la Seconda Legge della Termodinamica. L’affermazione che l’entropia è una quantità sempre crescente in ogni processo spontaneo (in un sistema isolato) non si spiega dicendo che questo è il modo con cui “la natura procede verso un disordine crescente” o che “la natura procede verso una crescente ignoranza”. Tutte queste sono descrizioni possibili della cosa che cambia in un processo spontaneo. Come descrizione, “informazione” è un termine persino più appropriato del termine “entropia” stesso nel descrivere ciò che cambia. Prima di terminare questa sezione sull’entropia e l’informazione, dovrei menzionare un fastidioso problema che ha impedito l’accettazione dell’interpretazione dell’entropia come informazione. Ricordo che l’entropia fu definita come una quantità di calore divisa per una temperatura. Come tale, essa possiede le unità di misura di un’energia divisa per la temperatura (cioè 164
8.3 L’associazione dell’entropia all’informazione mancante
Capitolo 8
Joule diviso Kelvin ovvero J/K, dove K è l’unità di misura della temperatura assoluta nella scala di Kelvin). Questi due concetti sono tangibili, misurabili e ben definiti. Come può essere che “l’informazione”, una quantità adimensionale,14 un numero che non ha nulla a che fare con l’energia o la temperatura, possa essere associata all’entropia, una quantità che è stata definita in termini di energia e temperatura? Io credo che questo sia un dubbio molto valido che merita qualche ulteriore considerazione. Infatti, persino lo stesso Shannon riconobbe che la sua misura di informazione diventava identica all’entropia solamente quando essa veniva moltiplicata per una costante k (oggi nota come costante di Boltzmann), che ha le unità di misura di un’energia divisa per una temperatura. Questo di per sé non aiuta molto a dimostrare che questi due concetti apparentemente molto diversi sono identici. Credo che vi sia una ragione più profonda per la difficoltà nell’identificare l’entropia con l’informazione. Elaborerò questo problema su due livelli. Primo, si noti che nel processo rappresentato in figura 8.1c il cambiamento di entropia coinvolge invero una qualche quantità di calore trasferito, così come la temperatura. Ma questo è solamente un esempio di processo spontaneo. Si consideri l’espansione di un gas ideale nella figura 8.1a o il mescolamento di due gas ideali nella figura 8.1b. In entrambi i casi l’entropia aumenta. Tuttavia, in entrambi i casi non vi è alcun cambiamento nell’energia, alcun trasferimento di calore né alcun coinvolgimento della temperatura. Se realizzate questi due processi con gas ideali in un sistema isolato, allora il cambiamento di entropia sarà fissato, indipendentemente dalla temperatura alla quale il processo si è svolto e ovviamente nessun trasferimento di calore da un corpo all’altro sarà chiamato in gioco. Questi esempi sono semplici suggerimenti del fatto che il cambiamento di entropia non coinvolge necessariamente quantità di energia e temperatura. Il secondo punto è forse a un livello più profondo. Le unità di misura dell’entropia (J/K) non solo non sono necessarie per l’entropia, ma non dovrebbero proprio essere usate per esprimere l’entropia. Il coinvolgimento di energia e temperatura nella definizione originale dell’entropia è un evento storico accidentale, un residuo dell’era pre-atomistica della termodinamica. Ricordate che la temperatura fu definita prima dell’entropia e prima della teoria cinetica del calore. Kelvin intordusse la scala assoluta della temperatura nel 1854. Maxwell pubblicò il suo lavoro sulla distribuzione delle velocità molecolari nel 1859. Ciò condusse all’identificazione della tempera14
Ovvero priva di unità di misura. 165
Capitolo 8
L’entropia svelata
tura con l’energia cinetica media degli atomi o molecole del gas.15 Una volta che l’identificazione della temperatura con una misura dell’energia cinetica media degli atomi fu confermata e accettata, non rimase alcuna ragione per mantenere le vecchie unità di misura in K. Dovremmo, invece, ridefinire una nuova temperatura assoluta, denotandola provvisoriamente con T, definita come T = kT. La nuova temperatura T avrebbe le unità di misura di un’energia e non ci sarebbe alcun bisogno della costante di Boltzmann k.16 L’equazione per l’entropia sarebbe semplicemente S = ln W e l’entropia sarebbe adimensionale!17 Se la teoria cinetica dei gas fosse stata precedente a Carnot, Clausius e Kelvin, il cambiamento di entropia sarebbe comunque stato definito come un’energia divisa per una temperatura, ma questo rapporto sarebbe stato adimensionale. Questo non solo avrebbe semplificato la formula di Boltzmann per l’entropia, ma avrebbe anche facilitato l’identificazione dell’entropia termodinamica con l’informazione di Shannon. Nel 1930, G.N. Lewis scrisse [Lewis, 1930]: Incremento di entropia significa sempre perdita di informazione e nulla di più.
Questa affermazione quasi profetica fu fatta diciotto anni prima della nascita della teoria dell’informazione. L’affermazione di Lewis non lascia alcun dubbio sul fatto che egli considerasse l’entropia concettualmente identica all’informazione. Shannon [1948] ha mostrato che l’entropia è formalmente identica all’informazione. C’è un aneddoto [Tribus & McIrvine, 1971] sul suggerimento di John von Neumann a Claude Shannon di usare il termine “entropia” nel discutere l’informazione, perché: Nessuno sa che cosa sia realmente l’entropia, dunque in una discussione sarai sempre in vantaggio. Questa identità, per particelle atomiche di massa m, ha la forma 3kT/2 = m⟨v 2 ⟩/2 dove T è la temperatura assoluta, ⟨v 2 ⟩ è la media del quadrato delle velocità degli atomi e k è la stessa k che appare sulla pietra tombale di Boltzmann. 16 Nel fare ciò, la relazione 3kT/2 = m⟨v 2 ⟩ diventerebbe più semplice: 3T/2 = m⟨v 2 ⟩/2. La costante dei gas R che appare nell’equazione di stato per i gas ideali dovrebbe essere cambiata nel numero di Avogadro N A = 6.022 × 1023 e l’equazione di stato per una mole di gas ideale si leggerebbe PV = N A T, invece di PV = RT. 17 La formula di Boltzmann presuppone che sappiamo quali configurazioni contare in W. Per quanto ne so, quest’equazione è valida nel contesto della termodinamica nonrelativistica. Nel caso dell’entropia dei buchi neri, non sappiamo realmente se tale relazione sia valida. Devo questo commento a Jacob Bekenstein. 15
166
8.3 L’associazione dell’entropia all’informazione mancante
Capitolo 8
In conclusione, senza entrare nella controversia sul problema della soggettività o oggettività dell’informazione, qualunque cosa sia, io credo che l’entropia possa essere resa identica, sia concettualmente sia formalmente, all’informazione. L’identificazione dei due concetti è resa possibile dalla ridefinizione della temperatura in termini di unità di energia.18 Ciò eliminerebbe automaticamente la costante di Boltzmann (k) dal vocabolario della fisica. Questo semplificherebbe la formula di Boltzmann per l’entropia e rimuoverebbe l’inciampo che ha impedito l’accettazione dell’entropia come informazione per oltre un secolo. È anche ora di cambiare non solo le unità di misura per l’entropia per renderla adimensionale,19 ma anche il termine stesso “entropia”. Entropia, come ora sappiamo, non significa “trasformazione”, “cambiamento” o “svolta”. Essa significa informazione. Perché non dovremmo cambiare un termine che non significa “nulla”, come ha notato Cooper e che non possiede neppure il significato che Clausius intendette comunicare quando lo scelse? Perchè non sostituirlo con un termine semplice, familiare, che possiede significato e che è definito in modo preciso come “informazione”? Ciò non solo rimuoverebbe gran parte del mistero associato alla non familiare parola entropia, ma renderebbe anche più facile accettare il punto di vista di John Wheeler che “guarda il mondo fisico come fatto di informazione, in cui energia e materia sono fatti accidentali”.20 Prima di concludere questa sezione, vi devo una spiegazione della mia seconda riserva sul commento di Cooper citato a pagina 154. Concordo che “calore perso” potrebbe essere migliore di “entropia”. Tuttavia, sia il termine “calore perso” sia il più comune termine “energia non disponibile” sono solitamente applicati a TΔS (ovvero al prodotto della temperatura con la variazione di entropia) e non alla variazione stessa di entropia. L’associazione frequente dell’entropia al “calore perso” o all’“energia non disponibile” è dovuta al fatto che è l’entropia che porta le unità di misura dell’energia. Tuttavia, se uno definisce la temperatura in termini di unità di energia, allora l’entropia diventa adimensionale. Quindi, nel formare il prodotto TΔS, è la temperatura che porta il carico delle unità di energia. Ciò faciliterebbe l’interpretazione di TΔS (non della variazione di entropia) come “calore perso” o “energia non disponibile”. Devo anche aggiungere un ulteriore commento sulla nomenclatura. Bril18
Come si fa realmente in molti campi della fisica. Notate che l’entropia rimarrebbe una quantità estensiva, ovvero proporzionale alle dimensioni del sistema. 20 Citato da Bekenstein [2003]. 19
167
Capitolo 8
L’entropia svelata
louin [1962] suggerisce di riferirsi alla “informazione” come “neg-entropia”.21 Questo equivale a sostituire un termine semplice, familiare e informativo con un termine vago ed essenzialmente fuorviante. Invece, io suggerirei di sostituire all’entropia “neg-informazione”,22 “informazione mancante” o “incertezza”. Infine, dovremmo dire che, persino quando identifichiamo l’entropia con l’informazione, esiste una differenza importantissima tra l’informazione termodinamica (ovvero l’entropia) e l’informazione di Shannon, che si usa nelle comunicazioni o in ogni altra branca della scienza. Si tratta di una differenza enorme nell’ordine di grandezza tra le due.23 Come abbiamo visto, l’associazione tra entropia e probabilità non solo rimuove il mistero, ma riduce anche la Seconda Legge a puro buon senso. Forse è ironico che il modello atomico della materia, che ha portato alla piena comprensione dell’entropia, abbia creato inizialmente un nuovo mistero apparentemente più profondo. Questo ci conduce alla prossima domanda.
§ 8.4 La Seconda Legge è intimamente associata alla direzione del tempo? Ogni giorno vediamo numerosi processi accadere evidentemente in una sola direzione, dal mescolamento di due gas al decadimento di vecchie piante o animali. Non osserviamo mai il contrario di questi fenomeni. È quasi naturale sentire che questa direzione di occorrenza degli eventi sia la direzione giusta, consistente con la direzione del tempo. Ecco ciò che Greene [2004] scrive a questo proposito: Prendiamo per garantito che vi sia una direzione nel modo in cui le cose si svolgono nel tempo. Le uova si rompono, ma non si riparano; le candele si fondono, ma non si solidificano; le memorie riguardano il passato, mai il futuro; le persone invecchiano, non ringiovaniscono. 21
Entropia negativa, N.d.T. Informazione negativa, N.d.T. 23 Una domanda binaria vi fornisce un bit (unità binaria) di informazione. Un tipico libro contiene circa un milione di bit. Tutto il materiale stampato nel mondo si stima contenga circa 1015 bit. In meccanica statistica abbiamo a che fare con informazioni dell’ordine di 1023 bit e oltre. Uno può definire l’informazione in unità di centesimi di dollaro o euro. Se costasse un centesimo comprare un bit di informazione, allora comperare l’informazione contenuta in un tipico libro costerebbe un milione di centesimi, mentre l’informazione contenuta in un grammo di acqua non potrebbe essere acquistata neppure con tutto l’oro del mondo! 22
168
8.4 La Seconda Legge è intimamente associata alla direzione del tempo?
Capitolo 8
Tuttavia, Greene aggiunge: Le leggi accettate della fisica non mostrano alcuna tale asimmetria, ogni direzione del tempo, in avanti o indietro, è trattata dalle leggi senza distinzione, e quella è l’origine di un enorme puzzle.
In effetti è così! Per circa un secolo i fisici furono perplessi per l’apparente conflitto tra la Seconda Legge della Termodinamica e le leggi della dinamica.24 Per dirla come Brian Greene, Non solo le leggi note [della fisica] falliscono nel dirci perché vediamo gli eventi svolgersi in un solo ordine, esse ci dicono anche che, in teoria, gli eventi possono svolgersi nell’ordine inverso. La domanda cruciale è: perché non vediamo mai accadere tali cose? Nessuno ha mai veramente testimoniato il riassemblarsi di un uovo spiaccicato, e se quelle leggi trattano lo spiaccicarsi e il riassemblarsi allo stesso modo, perché un evento accade mentre il suo contrario non accade mai?
Sin da quando Eddington25 associò la Seconda Legge della Termodinamica alla freccia del tempo [Eddington, 1928], gli scienziati hanno tentato di riconciliare questo apparente paradosso. Le equazioni del moto sono simmetriche rispetto all’andare in avanti o all’indietro nel tempo. Nulla nelle equazioni del moto suggerisce la possibilità di un cambiamento in una direzione e impedisce un cambiamento nella direzione opposta. D’altra parte, molti processi che vediamo ogni giorno procedono davvero in una sola direzione e non si osservano mai accadere nella direzione opposta. Ma la Seconda Legge è realmente associata alla freccia del tempo? La classica risposta fornita a questa domanda è che se vedete un film girare all’incontrario, immediatamente riconoscerete, anche se non vi è stato detto, che il filmato sta andando all’indietro. Lo riconoscerete, per esempio, nel vedere che un uovo spiaccicato e disperso sul pavimento all’improvviso e spontaneamente si raccoglie, che i pezzi di guscio tornano assieme e che il 24
Qui ci riferiamo sia alle leggi classiche (Newtoniane) sia alle leggi quantistiche della dinamica. Queste sono simmetriche rispetto al tempo. Ci sono fenomeni che coinvolgono particelle elementari che non sono invertibili nel tempo. Tuttavia, nessuno crede che questi siano le radici della Seconda Legge. Devo questo commento a Jacob Beckenstein. 25 L’astrofisico inglese Sir Arthur Stanley Eddington (1882–1944) è famoso soprattutto per aver sfruttato l’eclissi di sole del 1919 per verificare la curvatura dei raggi di luce prevista dalla teoria della relatività generale di Einstein, di cui è stato uno dei primi divulgatori. È ricordato anche per il “limite di Eddington” sulla luminosità delle stelle. N.d.T. 169
Capitolo 8
L’entropia svelata
guscio ritorna intero, che l’uovo vola verso l’alto e atterra intatto sulla tavola.26 Se vedete questo tipo di film, sorriderete e concluderete inevitabilmente che il filmato sta andando all’indietro. Perché? Perché sapete che questo tipo di processo non può procedere in questa direzione temporale. Ma cosa succederebbe se voi realmente, sedendo un giorno in cucina, vedeste un uovo spiacciato e sparso sul pavimento improvvisamente ritornare indietro nel suo stato integro e saltare indietro in cima alla tavola? Per quanto possa suonare fantastico, la vostra associazione del processo di rottura di un uovo con la freccia del tempo è così forte che non credereste a ciò che i vostri occhi hanno visto e probabilmente vi guardereste intorno per vedere se qualcuno vi sta facendo uno scherzo proiettando il vostro film all’indietro. Oppure, se capite la Seconda Legge, potreste convincervi che siete fortunati ad avere osservato un processo reale, nella corretta direzione del tempo, un processo estremamente raro ma non impossile. Questa è esattamente la conclusione a cui giunse il fisico nel libro Mr. Tompkin’s Adventure in Wonderland di George Gamov [Gamov, 1940]. Quando egli vide il suo bicchiere di whisky improvvisamente e spontaneamente bollire nella parte superiore, mentre cubetti di ghiaccio si formavano nella parte inferiore, il professore sapeva che questo processo, sebbene estrememente raro, può invero capitare. Egli potrebbe essere stato perplesso nell’osservare un così raro evento, ma non cercò qualcuno che proiettasse all’indietro il “film” in cui egli era attore. Ecco l’adorabile paragrafo dal libro di Gamov: Il liquido nel bicchiere era coperto da un violento scoppiettare di bolle, e una sottile nuvola di vapore si stava lentamente sollevando verso il soffitto. Era particolarmente strano, tuttavia che il drink stesse bollendo solo in un’area relativamente piccola attorno al cubetto di ghiaccio. Il resto del drink era ancora piuttosto freddo. “Incredibile!” disse il professore con voce timorosa e tremante. “Ecco, vi stavo parlando delle fluttuazioni statistiche nella legge del26
Il principio di conservazione dell’energia richiede che l’energia richiesta per risalire sulla tavola venga fornita dall’ambiente, sotto forma di energia termica. In effetti, il processo di caduta trasforma l’energia cinetica dell’uovo in altre forme: parte viene utilizzata per romperlo e spargerlo sul pavimento, parte viene impiegata nelle reazioni chimiche eventualmente associate a questa trasformazione, parte viene dispersa nell’ambiente circostante sotto forma di calore. Sebbene tutti i processi su scala microscopica siano invertibili, la complessità della trasformazione in calore (il trasferimento di energia alle molecole dell’ambiente circostante, aumentandone di poco l’energia cinetica) rende il processo inverso praticamente impossibile. N.d.T. 170
8.4 La Seconda Legge è intimamente associata alla direzione del tempo?
Capitolo 8
l’entropia quando ne abbiamo vista una in realtà! Per qualche incredibile possibilità, forse per la prima volta dalla nascita della terra, le molecole più veloci si sono tutte raggruppate accidentalmente in una parte della superficie dell’acqua, e l’acqua ha cominciato a bollire da sola. Nei miliardi di anni che seguiranno, noi continueremo ad essere probabilmente le uniche persone che avranno mai avuto la possibilità di osservare questo fenomeno straordinario.” Egli guardò il suo drink, che ora si stava lentamente raffreddando. “Che colpo di fortuna!” sospirò felicemente.
La nostra associazione dell’occorrenza dei processi spontanei con la freccia del tempo è, tuttavia, una mera illusione. Un’illusione creata dal fatto che nella nostra vita non abbiamo mai visto un singolo processo che si svolga nella direzione “opposta”. L’associazione della naturale occorrenza dei processi spontanei con la direzione del tempo è praticamente sempre valida — praticamente, ma non assolutamente sempre. Nel suo piacevole libro Mr. Tompkin’s Adventure in Wonderland, George Gamov tentò di spiegare i risultati difficili da accettare della teoria della relatività e della meccanica quantistica narrando le avventure del signor Tompkins in un mondo in cui si può realmente vedere e sperimentare i risultati difficili da accettare. Egli cercò di immaginare come apparirebbe il mondo se la velocità della luce fosse molto inferiore a 300 milioni di metri al secondo o, alternativamente, come apparirebbe il mondo a qualcuno che viaggiasse a velocità vicine alla velocità della luce. In questo mondo si potrebbero osservare fenomeni che non sono praticamente mai sperimentati nel mondo reale. In modo simile, si può immaginare un mondo in cui la costante di Planck (h) sia molto grande e sperimentare ogni sorta di fenomeni incredibili come, per esempio, penetrare senza sforzo con la vostra automobile attraverso un muro (effetto tunnel) e simili fenomeni che non sperimentiamo mai nel mondo reale in cui viviamo. Prendendo a prestito dall’immaginazione di Gamov, possiamo immaginare un mondo in cui la gente possa vivere per un tempo estremamente 30 lungo, molte volte l’età dell’universo, diciamo 1010 anni.27 27
Forse dovremmo sottolineare qui che, per quanto si sa, non esiste alcuna legge di natura che limiti la longevità delle persone o di ogni altro sistema vivente. Ci potrebbe essere tuttavia qualche fondamentale legge di simmetria che lo preclude. Ma questo potrebbe essere anche vero per la velocità della luce e la costante di Planck. Se questo è vero, allora 171
Capitolo 8
L’entropia svelata
In un tale mondo, nel realizzare l’esperimento dell’espansione del gas o con la miscela dei gas, dovremmo vedere qualcosa che assomiglia a ciò che abbiamo osservato nel sistema di 10 dadi. Se incominciamo con tutte le particelle in una scatola, dovremmo dapprima osservare l’espansione e le particelle riempire l’intero volume del sistema. Ma “di tanto in tanto” osserveremmo anche visite allo stato originale. Quanto spesso? Se vivessimo per 30 un tempo estremamente lungo come 1010 anni e se il gas consistesse di circa 1023 particelle, allora dovremmo osservare molte volte nella nostra vita la visita allo stato originale. Se guardaste un film sull’espansione del gas andare avanti o indietro non sareste capaci di vedere la differenza. Non avreste alcun preconcetto su quale fenomeno potrebbe essere più “naturale” di altri e non vi sembrerebbe esserci una “freccia del tempo” associata all’incremento (o occasionalmente decremento) dell’entropia. Dunque, il fatto che noi non osserviamo il riassemblarsi di un uovo spiaccicato o la separazione di due gas mescolati non è dovuto ad alcun conflitto tra la Seconda Legge della Termodinamica e le equazioni del moto o le leggi della dinamica. Tale conflitto non esiste. Se vivessimo “abbastanza a lungo” saremmo in grado di osservare tutti questi processi all’incontrario! La connessione tra la freccia del tempo e la Seconda Legge non è assoluta, ma solo “temporanea”, giusto per qualche miliardo di anni. Dovremmo aggiungere che, nel contesto dell’associazione della Seconda Legge alla freccia del tempo, alcuni autori invocano la nostra esperienza umana che distingue il passato dal futuro. È vero che ricordiamo gli eventi del passato e mai quelli del futuro. Sentiamo anche che possiamo influenzare gli eventi nel futuro, ma mai gli eventi passati. Condivido completamente queste esperienze. L’unica domanda che ho è: che cosa hanno a che fare queste esperienze con la Seconda Legge o con ogni altra legge della fisica? Questo mi porta alla prossima domanda.
§ 8.5 La Seconda Legge della Termodinamica è una legge della fisica? La maggior parte dei libri di testo sulla meccanica statistica enfatizza che la Seconda Legge non è assoluta: vi sono eccezioni. Sebbene sia estremamente raro, l’entropia può diminuire “una volta ogni tanto”. nessuna delle cose immaginate da Gamov potrebbe essere realizzata in alcun “mondo” in cui la velocità della luce o la costante di Planck possiedano valori diversi. 172
8.5 La Seconda Legge della Termodinamica è una legge della fisica?
Capitolo 8
Notando questo aspetto della Seconda Legge, Greene [2004] scrive che la Seconda Legge “non è una legge nel senso convenzionale”. Come ogni legge di natura, la Seconda Legge fu fondata su basi sperimentali. La sua formulazione in termini dell’incremento di entropia racchiude, in modo molto succinto, l’aspetto comune di un enorme numero di osservazioni. Nella sua formulazione termodinamica o, piuttosto, nella formulazione non-atomistica, la Seconda Legge non ammette eccezioni: come ogni altra legge della fisica, essa proclama una legge assoluta, senza eccezioni. Tuttavia, una volta che abbiamo ottenuto la Seconda Legge con un approccio molecolare, comprendiamo che ci possono essere eccezioni: sebbene sia raro, estremamente raro, l’entropia può procedere nell’altra direzione. Si riconosce così che la Seconda Legge non è assoluta, da cui il commento di Greene che essa non è una legge nel “senso convenzionale”. L’affermazione di Greene ci lascia l’impressione che la Seconda Legge sia in qualche modo “più debole” delle leggi convenzionali della fisica e che sia “meno assoluta” delle altre leggi della fisica. Ma che cosa è una legge nel senso convenzionale? La legge d’inerzia di Newton è assoluta? La costanza della velocità della luce è assoluta? Possiamo realmente sostenere che almeno una legge della fisica sia assoluta? Noi sappiamo che queste leggi sono state osservate durante poche migliaia di anni in cui gli eventi sono stati registrati. Possiamo estrapolarle a milioni o miliardi di anni esaminando le registrazioni geologiche o le radiazioni emesse al tempo vicino al Big Bang, ma non possiamo sostenere che queste leggi debbano sempre essere state le stesse o che saranno sempre le stesse nel futuro o che non si troverà alcuna eccezione. Tutto ciò che possiamo dire è che entro pochi milioni o miliardi di anni è improbabile che possiamo trovare eccezioni a queste leggi. Infatti, non c’è alcuna ragione teorica o sperimentale per credere che le leggi della fisica siano assolute. Da questo punto di vista, la Seconda Legge davvero “non è una legge nel senso convenzionale”, non in senso più debole, come alludeva Greene, ma in senso più forte. Il fatto che ammettiamo l’esistenza di eccezioni alla Seconda Legge la rende “più debole” di ogni altra legge della fisica solamente quando le altre leggi si proclamano valide in senso assoluto. Tuttavia, il riconoscere l’estrema rarità delle eccezioni alla Seconda Legge la rende non solo più forte, ma la più forte fra tutte le leggi della fisica. Per ogni altra legge della fisica uno può arguire che non ci si possano aspettare eccezioni al massimo entro qualche decina di miliardi di anni. 173
Capitolo 8
L’entropia svelata
Ma le eccezioni della Seconda Legge possono capitare solamente una volta ogni 1010 000 000 000 o più anni. Quindi, la Seconda Legge, quando formulata nel contesto della termodinamica classica (non-atomistica), è una legge assoluta della fisica. Essa non ammette eccezioni. Se è formulata in termini di eventi molecolari, sono permesse violazioni. Sebbene possa suonare paradossale, la relativa “debolezza” della formulazione atomistica rende la Seconda Legge la più forte fra le leggi della fisica, inclusa la formulazione non-atomistica della Seconda Legge stessa. Per dirlo in modo diverso, l’ammessa non-assolutezza della Seconda Legge atomistica è, infatti, più assoluta della proclamata assolutezza della Seconda Legge non-atomistica.28 Nel contesto della moderna cosmologia si pensa al malinconico destino dell’universo, che alla fine raggiungerà uno stato di equilibrio termico o “morte termica”. O forse no?! Dall’altra parte della scala del tempo, è stato detto che, visto che l’entropia cresce sempre, l’universo deve aver avuto inizio con il minimo valore dell’entropia. O forse no?! E inoltre, l’ultima congettura è in diretto “conflitto” con la Bibbia: 1. In principio Dio creò i cieli e la terra. 2. E la terra era informe e deserta. (Genesi, 1:1). א בְּראשׁית בָּרא אֱלהִי אֵת הַמַי ואֵת הָאָר י תְהוֹ ורוּ"ח אֱלהִי מְר!חֶפֶת%פּ נ ְ בֹהוּ וחֹשׁ*) עַל-ב והָאָר הָיתָה תֹהוּ ו י הַמָּי%עַלפְּ נ
La versione originale ebraica include l’espressione “Tohu Vavohu” invece di “informe” e “deserta”. L’interpretazione tradizionale di “Tohu Vavohu” è caos totale o disordine totale o se preferite massima entropia! Avendo detto questo, mi avventurerei verso il punto di vista provocatorio che la Seconda Legge della Termodinamica non è né “più debole” né “più forte” di ogni altra legge della fisica. Semplicemente non è per niente una legge della fisica, ma piuttosto un’affermazione di puro buon senso. Questo mi conduce all’ultima domanda. 28
Sebbene la mia conoscenza della cosmologia sia minima, credo che ciò che ho affermato in questa sezione sia anche applicabile alla “seconda legge generalizzata” usata in connessione con l’entropia dei buchi neri. Si veda Bekenstein [1980]. 174
8.6 Possiamo fare a meno della Seconda Legge?
Capitolo 8
§ 8.6 Possiamo fare a meno della Seconda Legge? Se la Seconda Legge della Termodinamica non è nulla più che un’affermazione di buon senso, dobbiamo elencarla e insegnarla come una delle leggi della fisica? Seguendo questa domanda, supponete che nessuno abbia mai formulato la Seconda Legge della Termodinamica. Saremmo in grado, con ragionamenti puramente logici e di buon senso, di derivare la Seconda Legge? La mia risposta è: probabilmente sì, a patto di aver già scoperto la natura atomica della materia e il numero immenso di particelle indistinguibili che costituiscono ogni pezzo di materia. Credo che sia possibile procedere da ciò e dedurre la Seconda Legge.29 Possiamo certamente farlo per il semplice esempio dell’espansione di un gas o della miscela di due gas diversi (come abbiamo fatto alla fine del capitolo 7). Se sviluppiamo una matematica estremamente sofisticata, possiamo anche predire il destino più probabile di un uovo che cade.30 Tutte queste predizioni non si baserebbero tuttavia sulle leggi della fisica, ma sulle leggi della probabilità, ovvero sulle leggi del buon senso. Potete certamente dichiarare che io ho potuto fare questa “predizione” perché ho beneficiato delle scoperte di Carnot, Clausius, Kelvin, Boltzmann e altri. Quindi, non è una grande conquista “predire” un risultato che si conosce in anticipo. Ciò è probabilmente vero. Perciò riformulerò la domanda in modo più intrigante. Supponete che tutti questi grandi scienziati, fondatori della Seconda Legge, non siano mai esistiti o che siano esistiti, ma non abbiano mai formulato la Seconda Legge. Sarebbe la scienza capace di giungere alla Seconda Legge solamente attraverso il ragionamento logico, presupponendo la conoscenza oggi disponibile sulla natura atomica della materia e tutto il resto della fisica?
29
Qui non intendo dire che si possa dedurre la Seconda Legge risolvendo le equazioni del moto delle particelle, ma dal comportamento statistico del sistema. Il primo modo è impraticabile per sistemi di 1023 particelle. 30 Di nuovo, non intendo predire il comportamento dell’uovo che cade risolvendo le equazioni del moto di tutte le particelle che costituiscono l’uovo. Tuttavia, conoscendo tutti i possibili gradi di libertà di tutte le molecole che formano l’uovo, potremmo in linea di principio predire il destino più probabile dell’uovo che cade. 175
Capitolo 8
L’entropia svelata
La risposta a questa domanda potrebbe essere NO! Non perché non si possa derivare la Seconda Legge dal resto, ma perché la scienza troverebbe non necessario formulare una legge della fisica basata sulla pura deduzione logica. 0%
25%
50%
FINE DEL LIBRO
176
75%
100%
Bibliografia Atkins, P.W. (1984) The Second Law, New York, W.H. Freeman and Co., 1984, Scientific American Books, trad. it. Il secondo principio, Bologna, Zanichelli, 1988. D’Agostini, G. Bayesian Reasoning in Data Analysis, A Critical Introduction, Singapore, World Scientific, 2003. Barrow, J.D.; Webb, J.K. “Inconstant Costants”, Scientific American, Vol. 292, 2005, p. 32. Bekenstein, J.D. “Black-Hole Thermodynamics”, Physics Today, Jan 1980, p. 24. Bekenstein, J.D. “Information in the Holographics Universe”, Scientific American, Aug 2003, p. 49. Ben-Naim, A. Is Mixing a Thermodynamic Process?, American Journal of Physics, 55, 1987, p. 725. Ben-Naim, A. Molecular Theory of Liquids, New York, Oxford University Press, 2006. Ben-Naim, A. A Farewell To Entropy: Statistical Thermodynamics Based on Information, Singapore, World Scientific, 2008. Bent, H.A. The Second Law, New York, Oxford University Press, 1965. Bennett, D.J. Randomness, Cambridge, Massachusetts, Harvard University Press, 1998. Bridgman, P.W. The Nature of Thermodynamics, Cambridge, Massachussets, Harvard University Press, 1941. Brillouin, L. Science and Information Theory, New York, Academic Press, 1962. Broda, E. Ludwig Boltzmann. Man. Physicist. Philosopher, Woodbridge, Connecticut, Ox Bow Press, 1983. Brush, S.G. Statistical Physics and the Atomic Theory of Matter, from Boyle and Newton to Landau and Onsager, Princeton, Princeton University Press, 1983. Callen, H.B. Thermodynamics and an Introduction to Thermostatistics, 2nd edition, New York, John Wiley and Sons, 1985.
L’entropia svelata
Carnap, R. The Logical Foundations of Probability, Chicago, The University of Chicago Press, 1950. Carnap, R. “What is Probability?”, Scientific American, Vol. 189, 1953, p. 128-138. Carnot, S. (1824) Reflections on the motive power of fire and on machines fitted to develop this power, Paris, 1824, trad. it. La potenza motrice del fuoco, Napoli, CUEN, 1996. Cercignani, C. Ludwig Boltzmann. The Man Who Trusted Atoms, London, Oxford University Press, 2003. Cooper, L.N. An Introduction to the Meaning and Structure of Physics, New York, Harper and Low, 1968. David, F.N. Games, Gods and Gambling, A History of Probability and Statistical Ideas, New York, Dover Publications, 1962. Denbigh, K.G.; Denbigh, J.S. Entropy in Relation to Incomplete Knowledge, Cambridge, Cambridge University Press, 1985. Eddington, A. The Nature of the Physical World, Cambridge, Cambridge University Press, 1928. Falk, R. “Revision of Probability and the Time Axis”, Proc. of the 3rd Intern. Conf. for the Psychology of Mathematics Education, Warwick, UK, 1979, p. 64-66. Fast, J.D. Entropy. The significance of the concept of entropy and its applications in science and technology, Philips Technical Library, 1962. Feller, W. An Introduction to Probability Theory and its Application, New York, John Wiley and Sons, 1950. Feynman, R.; Leighton, R.B.; Sands, M. Feynman Lectures on Physics, Reading, Addison Wesley, 1996, trad. it. La fisica di Feynman, Masson Italia, 1985; Zanichelli, 2007. Fowler, R.; Guggenheim, E.A. Statistical Thermodynamics, Cambridge, Cambridge University Press, 1956. Gamov, G. Mr. Tompkins in Wonderland, Cambridge, Cabridge University Press, 1940. Gamov, G. One, Two, Three. . . Infinity, Facts and Speculations of Science, New York, Dover Publications, 1947. Gamov, G.; Stannard, R. The New World of Mr. Tompkins, Cambridge, Cabridge University Press, 1999. Gatlin, L.L. Information Theory and the Living System, New York, Columbia University Press, 1972.
178
Bibliografia
Gell-Mann, M. The Quark and the Jaguar, London, Little Brown, 1994, trad. it. Il quark e il giaguaro: avventure nel semplice e nel complesso, Milano, Bollati Boringhieri, 1996. Gnedenko, B.V. The Theory of Probability, New York, Chelsea Publ. Co., 1962, trad. it. Teoria della probabilità, Roma, Editori Riuniti, 1992. Greene, B. The Elegant Universe, New York, Norton, 1999. Greene, B. The Fabric of Cosmos, Space, Time, and the Texture of Reality, New York, Alfred A. Knopf, 2004. Greven, A.; Keller, G.; Warnecke, G. editors Entropy, Princeton, Princeton University Press, 2003. Guggenheim, E.A. (1949) Thermodynamics, Amsterdam, North-Holland Publishing, Company 1949, ottava edizione pubblicata da Elsevier Science, 1985. Jaynes, E.T. “Information Theory and Statistical Mechanics”, Physical Review, 106, 1957, p. 620. Jaynes, E.T. “Gibbs vs. Boltzmann Entropies”, American Journal of Physics, 33, 1965, p. 391. Jaynes, E.T. Papers on Probability Statistics and Statistical Physics, edited by R.D. Rosenkrantz, London, D. Reidel Publishing Co., 1983. Jaynes, E.T. Probability Theory: The Logic of Science, edited by G.L. Bretthorst, Cambridge, Cambridge University Press, 2003. Katz, A. Principles of Statistical Mechanics, The Information Theory Approach, San Francisco, W.H. Freeman and Co., 1967. Kerrich, J.E. An Experimental Introduction to the Theory of Probability, Johannesburg, Witwatersrand University Press, 1964. Lebowitz, J.L. “Boltzmann’s Entropy and Time’s Arrow”, Physics Today, Sep 1993, p. 32. Leff, H.S.; Rex, A.F. (1990) Maxwell’s Demon: Entropy, Information, Computing, Taylor & Francis, 1990, seconda edizione, 2002. Lewis, G.N. “The Symmetry of Time in Physics”, Science, 71, 1930, 0569. Lindley, D. Boltzmann’s Atom: The Great Debate That Launched A Revolution In Physics, New York, The Free Press, 2001. Mazo, R.M. Brownian Motion, Fluctuations, Dynamics and Applications, Oxford, Clarendon Press, 2002. Merriam-Webster Collegiate Dictionary, 11a ed., Merriam-Webster, 2003 Morowitz, H.J. The Beginnings of Cellular Life: Metabolism Recapitulates Biogenesis, New Haven, Yale University Press, 1992. 179
L’entropia svelata
Newton, I. Philosophiae Naturalis Principia Mathematica, Londra, 1687. Nickerson, R.S. Cognition and Chance, The Psychology of Probabilistic Reasoning, London, Lawrence Erlbaum Associates Publishers, 2004. Papoulis, A. Probability, Random Variables and Stochastic Processes, New York, McGraw Hill Book Companies, 1965. Penrose, R. The Emperor’s New Mind, Oxford, Oxford University Press, 1989, trad. it. La nuova mente dell’imperatore, Milano, Rizzoli, 2000. Penrose, R. Shadows of the Mind. A Search for the Missing Science of Consciousness, Oxford, Oxford University Press, 1994, trad. it. Ombre della mente. Alla ricerca della coscienza, Milano, Rizzoli, 1996. Planck, M. Treatise on Thermodynamics, New York, Dover Publications, 1945. Prigogine, I. The End of Certainty, Time, Chaos, and the New Laws of Nature, New York, The Free Press, 1997, trad. it. La fine delle certezze. Il tempo, il caos e le leggi della natura, Milano, Bollati Boringhieri, 1997. Ridgen, J.S. Einstein 1905. The Standard of Greatness, Cambridge, Harvard University Press, 2005. Schrödinger, E. What is Life?, Cambridge, Cambridge University Press, 1945, trad. it. Che cos’è la vita? La cellula vivente dal punto di vista fisico, Milano, Adelphi, 1995. Schrödinger, E. Statistical Thermodynamics, Cambridge, Cambridge University Press, 1952, trad. it. Termodinamica statistica, Milano, Boringhieri, 1961. Segrè, E. Personaggi e scoperte della fisica classica, Milano, Mondadori, 1996. Shannon, C.E. “The Mathematical Theory of Communication”, Bell System Technical Journal 27, 1948, p. 379-423 July; p. 623-656 October. Shannon, C.E.; Weaver W. The Mathematical Theory of Communication, Urbana, University of Illinois Press, 1949. Tribus, M.; McIrvine, E.C. “Entropy and Information”, Scientific American, 225, 1971, p. 179-188.
180
DISORDINE?
DISORDINE?
181