A Gianfranco Menestrina, esempio di grande professionalità e umiltà
M. Dapor M. Ropele
Elaborazione dei dati sperime...
107 downloads
1493 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
A Gianfranco Menestrina, esempio di grande professionalità e umiltà
M. Dapor M. Ropele
Elaborazione dei dati sperimentali
12 3
MAURIZIO DAPOR, MONICA ROPELE Centro per la ricerca scientifica e tecnologica via Sommarive 18 38050 Povo (Trento)
Springer-Verlag Italia fa parte di Springer Science+Business Media GmbH springer.it © Springer-Verlag Italia, Milano 2005 ISBN 88-470-0271-0 Quest’opera è protetta dalla legge sul diritto d’autore. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’uso di figure e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla riproduzione su microfilm o in database, alla diversa riproduzione in qualsiasi altra forma (stampa o elettronica) rimangono riservati anche nel caso di utilizzo parziale. Una riproduzione di quest’opera, oppure di parte di questa, è anche nel caso specifico solo ammessa nei limiti stabiliti dalla legge sul diritto d’autore, ed è soggetta all’autorizzazione dell’Editore. La violazione delle norme comporta le sanzioni previste dalla legge. L’utilizzo di denominazioni generiche, nomi commerciali, marchi registrati, ecc, in quest’opera, anche in assenza di particolare indicazione, non consente di considerare tali denominazioni o marchi liberamente utilizzabili da chiunque ai sensi della legge sul marchio. Riprodotto da copia camera-ready fornita dall’Autore Progetto grafico della copertina: Simona Colombo, Milano In copertina: disegno di Francesca Pasquazzo Stampato in Italia: Arti Grafiche Nidasio, Assago, Milano
Maurizio Dapor e Monica Ropele
Elaborazione dei dati sperimentali 14 febbraio 2005
Springer Berlin Heidelberg NewYork Hong Kong London Milan Paris Tokyo
A Gianfranco Menestrina, esempio di grande professionalit`a, correttezza ed umilt`a.
Prefazione
L’analisi statistica dei dati sperimentali, la loro elaborazione ed una corretta stima degli errori sono conoscenze necessarie agli studenti di fisica, biologia, chimica, ingegneria e dei corsi di specializzazione tecnico-scientifici in cui `e richiesta pratica di laboratorio. Chi si occupa di problemi tecnici e di misure, per studio o per lavoro, deve possedere gli strumenti matematici di calcolo e di analisi necessari ad una corretta interpretazione dei dati sperimentali. Il testo fornisce in modo sintetico, chiaro ed esaustivo, tutte le nozioni e le conoscenze utili allo scopo. Sono stati evidenziati argomenti ampiamente fruibili da una vasta popolazione di studenti. Il testo `e anche inteso come una guida per i docenti e un punto di riferimento per ricercatori e tecnologi. Gli argomenti sono esposti in modo rigoroso ma fluido e vengono introdotti con gradualit` a. Sono riportati i teoremi e le formule essenziali per una completa comprensione evitando, tuttavia, eccessivi appesantimenti matematici. Scopo del libro `e di rendere accessibili i contenuti fondamentali dell’analisi statistica dei dati agli studenti del primo anno dei corsi di laurea scientifici che stanno acquisendo, durante lo stesso periodo di studio, familiarit` a con i metodi dell’analisi matematica. Il testo intende inoltre essere un riferimento per coloro che, indipendentemente dalla preparazione di base e dalle conoscenze dei metodi dell’analisi matematica e statistica, hanno la necessit`a di elaborare ed interpretare dati sperimentali. Mentre nei primi capitoli prevale un’impostazione di tipo didattico, lo studio della seconda parte del volume presuppone conoscenze matematiche di base che gli studenti dei diversi corsi universitari ad indirizzo scientifico dovrebbero aver acquisito frequentando i primi mesi del parallelo corso di analisi. Il libro `e stato pensato per consentire ai docenti di scegliere autonomamente gli esperimenti per l’applicazione delle nozioni studiate. Gli autori desiderano ringraziare il professor Davide Bassi, dell’Universit` a di Trento, per i suoi preziosi suggerimenti.
Trento, Febbraio 2005
Maurizio Dapor Monica Ropele
Indice
misura delle grandezze fisiche . . . . . . . . . . . . . . . . . . . . . . . . . 1 Grandezze fondamentali e derivate . . . . . . . . . . . . . . . . . . . . . . . . 1 Relazione dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Il Sistema Internazionale di unit` a di misura . . . . . . . . . . . . . . . . 4 Notazione scientifica e ordine di grandezza . . . . . . . . . . . . . . . . . 7 Unit` a di misura. Multipli e sottomultipli . . . . . . . . . . . . . . . . . . 8 Il metodo scientifico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Misure dirette e indirette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1
La 1.1 1.2 1.3 1.4 1.5 1.6 1.7
2
Errori nelle misure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Errori e cause d’errore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Errori casuali ed errori sistematici . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Errore assoluto nelle misure dirette . . . . . . . . . . . . . . . . . . . . . . . 2.4 La media come miglior stima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Deviazione standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Cifre significative e arrotondamenti . . . . . . . . . . . . . . . . . . . . . . . 2.7 Errore relativo ed errore percentuale . . . . . . . . . . . . . . . . . . . . . . 2.8 Propagazione degli errori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.1 Calcolo della propagazione degli errori nel caso di funzioni di una variabile . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.2 Calcolo della propagazione degli errori nel caso di funzioni di pi` u variabili . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.3 Propagazione degli errori utilizzando le deviazioni standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11 11 13 15 17 19 21 23 24
Presentazione dei dati sperimentali . . . . . . . . . . . . . . . . . . . . . . . 3.1 Presentazione dei dati sperimentali . . . . . . . . . . . . . . . . . . . . . . . 3.2 Tabelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Istogramma a intervalli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Grafici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Grafici lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Retta di regressione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Linearizzazione con trasformazione di variabili . . . . . . . . . . . . . 3.8 Grafici in scala non lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9 Coefficienti di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31 31 32 34 36 39 41 44 47 48
3
24 25 28
VIII
Indice
3.10 Curve sperimentali e curve teoriche . . . . . . . . . . . . . . . . . . . . . . . 3.11 Dalla relazione didattica all’articolo scientifico . . . . . . . . . . . . . . 3.11.1 La relazione didattica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.11.2 L’articolo scientifico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49 50 50 52
4
Strumenti di misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Gli strumenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Caratteristiche degli strumenti . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Strumenti di misura analogici e digitali . . . . . . . . . . . . . . . . . . . . 4.4 Il manuale d’uso dello strumento . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Il ruolo dello sperimentatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Protezione e sicurezza nei laboratori scientifici . . . . . . . . . . . . .
55 55 56 60 60 62 63
5
Introduzione alla probabilit` a ed al calcolo combinatorio . . . 5.1 Probabilit` a: definizioni e principali teoremi . . . . . . . . . . . . . . . . 5.1.1 Fisica e probabilit` a ............................... 5.1.2 Il concetto di probabilit` a .......................... 5.1.3 La definizione classica di probabilit` a ................ 5.1.4 La frequenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.5 La definizione soggettiva di probabilit` a.............. 5.1.6 La definizione assiomatica di probabilit` a. . . . . . . . . . . . . 5.1.7 Teoremi sulla probabilit` a .......................... 5.2 Il calcolo combinatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Disposizioni semplici e con ripetizione . . . . . . . . . . . . . . . 5.2.2 Permutazioni semplici e con ripetizione . . . . . . . . . . . . . . 5.2.3 Combinazioni semplici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.4 Coefficienti binomiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65 65 65 66 67 67 70 71 71 73 73 75 75 76
6
Variabili casuali, densit` a di probabilit` a e distribuzioni . . . . 6.1 Tipi di dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Eventi e probabilit` a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Probabilit` a dell’unione di 2 eventi . . . . . . . . . . . . . . . . . . 6.2.2 Probabilit` a dell’unione di n eventi . . . . . . . . . . . . . . . . . . 6.2.3 Probabilit` a condizionale . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.4 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Lo schema successo-insuccesso . . . . . . . . . . . . . . . . . . . . . 6.3.2 Variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 La densit` a di probabilit` a di una variabile casuale . . . . . . . . . . . 6.5 La distribuzione di probabilit` a di una variabile casuale . . . . . .
79 79 80 82 83 85 86 87 87 89 90 92
Indice
7
Valore atteso e varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Il valore atteso di una variabile casuale . . . . . . . . . . . . . . . . . . . . 7.1.1 Alcune importanti propriet` a del valore atteso . . . . . . . . 7.2 La varianza di una variabile casuale . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Alcune importanti propriet` a della varianza di una variabile casuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.2 Covarianza e variabili casuali indipendenti . . . . . . . . . . .
IX
93 93 94 96 97 99
8
Alcune importanti densit` a di probabilit` a . . . . . . . . . . . . . . . . . . 101 8.1 La densit` a di probabilit` a binomiale . . . . . . . . . . . . . . . . . . . . . . . 101 8.1.1 Valore atteso e varianza della densit` a binomiale . . . . . . 102 8.2 La densit`a di probabilit` a di Poisson . . . . . . . . . . . . . . . . . . . . . . . 106 8.2.1 Utilizzo della densit` a di probabilit` a di Poisson . . . . . . . 106 8.2.2 Definizione della densit` a di Poisson . . . . . . . . . . . . . . . . . 107 8.2.3 La densit`a di probabilit` a di Poisson come limite della densit` a di probabilit` a binomiale . . . . . . . . . . . . . . . . . . . . 108 8.2.4 Valore atteso e varianza della densit` a di Poisson . . . . . . 109 8.3 La densit` a di probabilit` a di Gauss . . . . . . . . . . . . . . . . . . . . . . . . 111 8.3.1 La densit`a di probabilit` a di Gauss come limite della densit` a di probabilit` a binomiale . . . . . . . . . . . . . . . . . . . . 111 8.3.2 Valore atteso e varianza della densit` a di Gauss . . . . . . . 116 8.3.3 La densit` a normale standard e la funzione di ripartizione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 8.3.4 Studio della forma della densit` a di probabilit` a di Gauss 119 8.4 La densit`a di probabilit` a di Lorentz . . . . . . . . . . . . . . . . . . . . . . . 121 8.4.1 Valore atteso e larghezza a met`a altezza della densit` a di Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 8.5 La densit`a di probabilit` a uniforme sull’intervallo reale (a, b) . 123 8.5.1 Generatori di numeri pseudo-casuali uniformemente distribuiti su un dato intervallo . . . . . . . . . . . . . . . . . . . . 124 8.5.2 Generazione di numeri casuali distribuiti su un dato intervallo con una legge di probabilit` a data . . . . . . . . . . 125 8.5.3 Valore atteso e varianza della densit` a uniforme sull’intervallo (a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
9
La Legge dei Grandi Numeri ed il Teorema del Limite Centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Due importanti disuguaglianze . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 La disuguaglianza di Markov . . . . . . . . . . . . . . . . . . . . . . . 9.1.2 La disuguaglianza di Chebyshev . . . . . . . . . . . . . . . . . . . . 9.2 Differenza dal valor medio per pi` u di una fissata quantit` a.... 9.3 Valore atteso e deviazione standard della media di una serie di osservazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Numero minimo di osservazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 La Legge dei Grandi Numeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129 129 129 130 131 132 134 135
X
Indice
9.6 Il Teorema del Limite Centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 10 Strumenti per l’elaborazione dei dati sperimentali . . . . . . . . 10.1 Il principio della massima verosimiglianza . . . . . . . . . . . . . . . . . 10.2 Misure distribuite con la stessa densit` a di probabilit` a ....... 10.3 Misure distribuite con differenti densit` a di probabilit` a....... 10.4 Questioni di consistenza statistica . . . . . . . . . . . . . . . . . . . . . . . . 10.5 Il metodo dei minimi quadrati . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5.1 Il metodo dei minimi quadrati per una linea retta . . . . 10.5.2 Il metodo dei minimi quadrati per un polinomio . . . . . . 10.5.3 Il metodo dei minimi quadrati per una funzione esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5.4 Il coefficiente di correlazione . . . . . . . . . . . . . . . . . . . . . . . 10.5.5 Applicazioni del metodo dei minimi quadrati . . . . . . . . . 10.6 L’approssimazione di una variabile discreta con una variabile continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.7 La consistenza tra distribuzioni reali di dati e distribuzioni teoriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.7.1 Il test del χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
141 141 142 144 146 147 147 150 151 151 153 156 158 158
A
Funzione di ripartizione della densit` a di probabilit` a di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
B
Valutazione della correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
C
Tabella del χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
1 La misura delle grandezze fisiche
Questo `e un capitolo introduttivo. Gli argomenti esposti riguardano le nozioni di base relative alle operazioni di misura e al metodo sperimentale. Cosa significa misurare? Qual `e l’oggetto della misura? Quali informazioni possiamo ricavare da un’attivit` a di tipo sperimentale? Perch´e si realizzano degli esperimenti? Alcuni tra gli studenti conosceranno gi` a le risposte a queste domande e avranno probabilmente gi` a incontrato gli argomenti esposti durante il loro corso di studi. Una rapida lettura sar` a per loro un’ottima occasione per rinfrescare la memoria. Se invece cos`ı non fosse, allora lo studio dei paragrafi seguenti `e consigliato sia allo scopo di familiarizzare con gli argomenti e con il lessico specialistico che per apprendere le informazioni di base utili ad un corretto approccio alle scienze sperimentali.
1.1 Grandezze fondamentali e derivate Una delle operazioni fondamentali nella sperimentazione e nella ricerca scientifica `e quella di misurare. L’attivit` a di misura `e un’operazione che si esegue quotidianamente e spesso anche in modo istintivo: si misura il peso delle merci che si acquistano, la velocit` a con cui si viaggia, si osserva l’orologio per conoscere l’ora. In tutti questi esempi, peso, velocit`a e tempo sono gli oggetti dell’azione di misura: le grandezze fisiche. Tutte le caratteristiche o le propriet`a dei corpi che si possono determinare quantitativamente, cio`e misurare, sono chiamate grandezze fisiche. Lunghezza, tempo, massa, superficie, volume, velocit` a, accelerazione, forza, carica elettrica, sono perci`o esempi di grandezze fisiche, in quanto soggette all’operazione di misura. Misurare significa confrontare una grandezza fisica con un’altra, ad essa omogenea, assunta come campione. Il confronto permette di stabilire quante volte tale campione `e contenuto nella grandezza stessa e di esprimere il rapporto tra la grandezza fisica e il campione attraverso un valore numerico. Il numero delle grandezze fisiche, che descrivono i fenomeni che si verificano in natura, `e molto elevato; fortunatamente `e stato possibile individuarne sette, dimensionalmente indipendenti, che sono state scelte come grandezze fondamentali; tutte le altre dipendono da quelle fondamentali, da cui posso-
2
1 La misura delle grandezze fisiche
no essere ricavate mediante l’uso di espressioni algebriche: per questo motivo sono chiamate grandezze derivate. Le grandezze fisiche scelte come fondamentali sono lunghezza, massa, tempo, intensit` a di corrente elettrica, temperatura termodinamica, quantit` a di materia e intensit` a luminosa. Queste sette grandezze fisiche identificano il sistema di unit` a di misura noto come Sistema Internazionale (SI). Le relazioni algebriche che legano le grandezze fondamentali F alle grandezze derivate D sono numerose e, in generale, possono essere rappresentate matematicamente con la seguente formula. Se indichiamo con D una grandezza fisica derivata e con Fiαi la i-esima grandezza fondamentale elevata all’esponente αi , la relazione algebrica che lega Fiαi a D `e: D=k Fiαi , (1.1) i
dove k `e un opportuno coefficiente numerico e Fiαi ≡ F1α1 · F2α2 · · · Fiαi · · · .
(1.2)
i
Utilizzando la rappresentazione (1.1) la pressione p, ad esempio, `e definita attraverso le tre grandezze fisiche fondamentali, massa m, lunghezza l e tempo t, nel modo seguente: p = m · a · l−2 = m · l−1 · t−2 ,
(1.3)
dove a `e l’accelerazione.
1.2 Relazione dimensionale Una volta definita la relazione funzionale tra la grandezza derivata e le grandezze fondamentali, `e possibile esprimere la relazione dimensionale dalla quale ricavare le dimensioni della grandezza derivata per mezzo delle dimensioni delle grandezze fondamentali. Le dimensioni vengono indicate con lettere maiuscole comprese tra parentesi quadre. Se indichiamo con [D] le dimensioni della grandezza derivata e con [Fi ]αi quelle delle grandezze fondamentali Fi con esponente αi , l’equazione dimensionale diventa: [Fi ]αi . (1.4) [D] = i
Nel caso della forza, l’espressione dimensionale assume la forma: [F ] = [M ] · [L] · [T ]−2 ,
(1.5)
dove [M ], [L] e [T ] indicano le dimensioni rispettivamente della massa, della lunghezza e del tempo.
1.2 Relazione dimensionale
3
La relazione dimensionale consente anche di determinare esplicitamente la relazione funzionale tra le grandezze fondamentali e la grandezza derivata, qualora quest’ultima non sia nota a priori. Consideriamo il periodo di oscillazione τ di un pendolo semplice nel caso di piccole oscillazioni. Da quali grandezze fondamentali dipende e in che modo `e esprimibile la relazione funzionale tra queste, una volta individuate? Supponiamo che il periodo di oscillazione dipenda dalla lunghezza del pendolo l, dalla massa applicata m e dall’accelerazione di gravit` a g; questa `e una ipotesi dettata dall’osservazione del moto del pendolo e consente, attraverso l’equazione dimensionale, di ottenere interessanti risultati. Infatti l’equazione del periodo τ , secondo la (1.1), diventa: τ = k · lα · mβ · g γ = k · lα · mβ · lγ · t−2γ = k · lα+γ · mβ · t−2γ ,
(1.6)
dove con k indichiamo, in questo caso particolare, una costante numerica adimensionale mentre denotiamo con α, β e γ gli esponenti incogniti, da determinare. L’equazione (1.6), riscritta sostituendo alle grandezze fondamentali le corrispondenti dimensioni, diventa: [τ ] = [L]α+γ · [M ]β · [T ]−2γ .
(1.7)
Poich´e questa `e un’equazione, essa risulta soddisfatta se entrambi i termini hanno le stesse dimensioni; dato che il primo membro ha le dimensioni di un tempo, cos`ı deve essere anche per il secondo. Tale condizione `e soddisfatta se nel secondo membro le dimensioni di massa e lunghezza vengono eliminate e rimane il tempo con esponente uguale a 1. Ci` o si traduce algebricamente in un sistema di tre equazioni a tre incognite: ⎧ ⎨α + γ = 0 β=0 , (1.8) ⎩ −2γ = 1 da cui si ricavano facilmente le soluzioni per i tre esponenti: α = 1/2, β = 0 e γ = −1/2. Da questi valori si evince immediatamente che la relazione che lega il periodo di oscillazione alla lunghezza e alla accelerazione di gravit` a non `e lineare ed `e inoltre indipendente dalla massa. Sostituendo opportunamente i valori ottenuti nell’equazione (1.6) si ricava l’espressione algebrica del periodo: l . (1.9) τ =k g
Da semplici considerazioni dimensionali abbiamo cos`ı ottenuto la ben nota equazione che descrive il periodo di oscillazione di un pendolo semplice nell’ipotesi di piccole oscillazioni. Naturalmente non `e possibile determinare, con
4
1 La misura delle grandezze fisiche
questo metodo, il valore della costante adimensionale k (che `e pari a 2π, come ogni studente di fisica sa bene). Dal punto di vista puramente algebrico, in generale, quando si deve determinare la relazione funzionale di una grandezza non nota, `e necessario scrivere l’equazione (1.1) completa con tutte e sette le grandezze fondamentali. In questo caso il sistema risolutivo di equazioni potr` a risultare un po’ pi` u complicato e i calcoli saranno, di conseguenza, un po’ pi` u lunghi. La relazione dimensionale facilita anche la determinazione delle dimensioni di alcune costanti fisiche. Vediamo il caso della legge di gravitazione universale, per la quale l’espressione scalare della forza `e: F = G · m1 · m2 · r−2 .
(1.10)
Poich´e, come si vede facilmente, l’espressione dimensionale di una forza `e data dall’equazione [F ] = [L] · [M ] · [T ]−2 , affinch´e l’equazione (1.10) sia dimensionamente compatibile, la costante di gravitazione universale, G, deve avere le dimensioni: (1.11) [G] = [L]3 · [M ]−1 · [T ]−2 . Infine, l’analisi dimensionale dei due termini di un’equazione permette di controllare l’esattezza dell’espressione: condizione necessaria e sufficiente affinch´e l’uguaglianza sia fisicamente corretta `e che i due termini risultino dimensionalmente omogenei. Se cos`ı non `e, si pu` o concludere che l’espressione non `e esatta ed `e necessario rivedere i calcoli alla ricerca di possibili errori.
1.3 Il Sistema Internazionale di unit` a di misura Abbiamo visto che misurare una grandezza fisica significa confrontarla con un’altra ad essa omogenea scelta come unit`a di misura. Non `e tuttavia consigliabile, anche se concettualmente possibile, pensare di scegliere per ogni grandezza fisica una corrispondente unit`a di misura ad essa omogenea, dato l’elevato numero di grandezze; ci` o creerebbe molta confusione. Inoltre, la scelta dell’unit` a di misura non pu` o essere n´e soggettiva n´e variabile; `e necessario, a garanzia di oggettivit` a e universalit` a, che l’unit` a di misura scelta rimanga costante nel tempo e possa essere riprodotta facilmente, in modo da consentirne un ampio utilizzo. L’XI Conferenza Generale dei Pesi e delle Misure tenutasi a Parigi nel 1960 ha adottato, quale sistema comune di unit` a di misura, il Sistema Internazionale, che contiene sette unit`a di misura fondamentali, mentre tutte le altre vengono derivate attraverso definizioni e regole. A queste sono state aggiunte altre due unit` a supplementari, il radiante e lo steradiante, relative alle due grandezze geometriche dell’angolo piano e dell’angolo solido: si tratta di unit` a prive di dimensione, ottenute da rapporti tra grandezze omogenee. Riportiamo le unit` a SI fondamentali nella Tabella (1.1), cui abbiamo aggiunto le due supplementari.
1.3 Il Sistema Internazionale di unit` a di misura
5
Tabella 1.1. Il Sistema Internazionale (SI): le unit` a fondamentali. I simboli utilizzati per identificare le dimensioni fisiche non sono sempre quelli convenzionali Grandezza Lunghezza Massa Tempo Intensit` a di corrente elettrica Temperatura termodinamica Intensit` a luminosa Quantit` a di materia Angolo piano Angolo solido
Dimensioni fisiche Unit` a SI Simbolo [L] metro m [M ] chilogrammo kg [T ] secondo s [I] ampere A [T T ] grado Kelvin K [IL] candela cd [QM ] mole mol [AP ] radiante rad [AS] steradiante sr
Introduciamo ora le definizioni delle unit` a fondamentali e di quelle supplementari. –
–
–
–
– –
–
–
Il metro corrisponde a 1 650 763.73 lunghezze d’onda della radiazione relativa alla transizione di un atomo di kripton nel vuoto tra i livelli 2p10 e 5d5 . Il chilogrammo `e la massa del prototipo internazionale conservato a Sevres (Francia) presso il Bureau International des Poids et Mesures (BIPM), un cilindro di altezza uguale al diametro realizzato in lega platino-iridio (90%-10%). Il secondo `e l’intervallo di tempo corrispondente a 9 192 631 770 periodi della radiazione relativa alla transizione tra i due livelli iperfini dello stato fondamentale dell’atomo di cesio 133. L’ampere `e l’intensit` a di corrente elettrica che, rimanendo costante in due conduttori paralleli di lunghezza infinita e sezione circolare infinitesimale posti nel vuoto alla distanza di un metro l’uno dall’altro, produrrebbe una forza pari a 2 · 10−7 N per ogni metro di lunghezza. Il grado Kelvin `e pari alla frazione 1/273.16 della temperatura termodinamica del punto triplo dell’acqua. La candela `e l’intensit` a luminosa di una sorgente che emette, in una data direzione, una radiazione monocromatica di frequenza pari a 540 · 1012 hertz. (L’intensit` a energetica in quella stessa direzione `e pari a 1/683 watt allo steradiante). La mole `e la quantit` a di materia di un sistema che contiene tante entit`a elementari quanti sono gli atomi di 0.012 kg di carbonio 12 (non legati, a ` necessario specificare la natura delle riposo e nello stato fondamentale). E entit`a elementari, che possono essere atomi, molecole, ioni, elettroni, ecc., cio`e gruppi specificati di tali particelle. Il radiante `e l’angolo piano al centro che intercetta su una circonferenza un arco di lunghezza pari a quella del raggio.
6
1 La misura delle grandezze fisiche
– Lo steradiante `e l’angolo solido al centro che intercetta su una sfera una calotta di area uguale a quella del quadrato il cui lato ha la lunghezza del raggio. Come accennato, le unit`a derivate si ottengono da combinazioni delle unit` a fondamentali attraverso le definizioni; cos`ı ad esempio, l’unit`a di misura della velocit` a, grandezza definita dal rapporto tra lo spazio percorso e intervallo di tempo impiegato a percorrerlo, sar` a data dal rapporto tra le cora derivata rispondenti unit` a di misura, ovvero m · s−1 . In generale, ogni unit` d `e espressa da una relazione algebrica del tipo: i um (1.12) d = mα · kg β · sγ · Aδ · K · cdι · molκ · radλ · srµ ≡ i , i
dove con ui si `e indicata la i-esima unit`a fondamentale e con le lettere mi (i = 1, · · · , 9) gli esponenti (interi). Nell’esempio precedente della velocit`a v, i valori degli esponenti diversi da zero sono: α ≡ m1 = 1, γ ≡ m3 = −1. Alcune unit` a derivate vengono indicate con un nome particolare (per il quale sono pi` u comunemente conosciute). Tali unit` a sono riportate nella tabella (1.2). Tabella 1.2. Unit` a derivate Grandezza Forza Pressione Frequenza Energia, Lavoro Potenza, Flusso energetico Carica elettrica Potenziale elettrico Capacit` a elettrica Resistenza elettrica Conduttanza elettrica Induzione magnetica Flusso d’induzione magnetica Induttanza Flusso luminoso Illuminamento Attivit` a di una sorgente radioattiva Dose assorbita Equivalente di dose
Dimensioni fisiche [L][M ][T ]−2 [L]−1 [M ][T ]−2 [T ]−1 [L]2 [M ][T ]−2 [L]2 [M ][T ]−3 [T ][I] [L]2 [M ][T ]−3 [I]−1 [L]−2 [M ]−1 [T ]4 [I]2 [L]2 [M ][T ]−3 [I]−2 [L]−2 [M ]−1 [T ]3 [I]2 [M ][T ]−2 [I]−1 [L]2 [M ][T ]−2 [I]−1 [L]2 [M ][T ]−2 [I]−2 [IL][AS] [L]−2 [IL][AS] [T ]−1 [L]2 [T ]−2 [L]2 [T ]−2
Unit` a SI m · kg · s−2 m−1 · kg · s−2 s−1 m2 · kg · s−2 m2 · kg · s−3 s·A m2 · kg · s−3 · A−1 m−2 · kg −1 · s4 · A2 m2 · kg · s−3 · A−2 m−2 · kg −1 · s3 · A2 kg · s−2 · A−1 m2 · kg · s−2 · A−1 m2 · kg · s−2 · A−2 cd · sr m−2 · cd · sr s−1 m2 · s−2 m2 · s−2
Nome Simbolo newton N pascal Pa hertz Hz joule J watt W coulomb C volt V farad F ohm Ω siemens S tesla T weber Wb henry H lumen lm lux lx becquerel Bq gray Gy sievert Sv
1.4 Notazione scientifica e ordine di grandezza
7
1.4 Notazione scientifica e ordine di grandezza Spesso le grandezze fisiche assumono valori o molto grandi o estremamente piccoli e la loro espressione attraverso il sistema decimale non solo disturba la lettura, ma appesantisce anche i calcoli. Ad esempio, la distanza percorsa in un anno dalla luce `e pari a 9 460 000 000 000 000 metri, mentre la carica elettrica di un elettrone `e un numero molto piccolo e vale 0.00000000000000000016 ` conveniente in questi casi introdurre la notazione scientifica, che Coulomb. E consente di scrivere il valore della misura come prodotto di un numero, chiamato mantissa m, e di una potenza del 10; tale espressione privilegia la sintesi, semplifica i calcoli, permette l’applicazione delle propriet` a delle potenze e il confronto tra pi` u numeri. In generale, una grandezza g pu` o essere espressa, attraverso la notazione esponenziale, nel modo seguente: g = m · 10n ,
(1.13)
dove 1 < m < 10 e n `e un intero. Possiamo dunque riscrivere i numeri corrispondenti all’anno-luce al e alla carica dell’elettrone e dell’esempio precedente in notazione scientifica come: al = 9.46 · 1015 m, e = 1.6 · 10−19 C. La notazione scientifica consente inoltre di sostituire l’unit` a di misura con i suoi multipli o sottomultipli e di confrontare le dimensioni di grandezze diverse introducendo dei prefissi decimali alle unit` a di misura, come `e illustrato nel seguito. Tale confronto risulta pi` u efficacie se si introduce l’ordine di grandezza di un numero, che corrisponde alla potenza di 10, a esponente intero, pi` u vicina al numero stesso. Se si esprime il numero in notazione scientifica, g = m · 10 n , l’ordine di grandezza di g `e 10n se m ≤ 3.16227, e 10n+1 se m > 3.16227. La ragione di questa differenza deriva dall’andamento esponenziale della funzione 10n . Consideriamo infatti la funzione y = 10x , con x compreso tra 0 e 1. I corrispondenti valori della variabile dipendente sono compresi tra 1 e 10, proprio come i valori che assume la mantissa m. La potenza di 10 viene approssimata al valore n o al valore n + 1, a seconda che l’esponente n sia minore di 0.5 o maggiore di 0.5. Ci` o si verifica quando il valore di y `e, rispettivamente, minore o maggiore di 3.16227 = 100.5 . Riferendoci agli esempi proposti, l’anno-luce ha un ordine di grandezza pari a 1016 , mentre la carica dell’elettrone ha come ordine di grandezza 10−19 . Vogliamo ora confrontare tra loro le dimensioni del raggio medio dell’atomo di idrogeno, che `e pari a 5.29 · 10−11 m, con quelle del raggio medio del suo nucleo, che `e pari a 1.2 · 10−15 m. Nel primo caso abbiamo l’ordine di grandezza di 10−10 , mentre nel secondo caso di 10−15 . Il confronto `e dato dal rapporto tra i due ordini di grandezza, che in questo caso `e pari a 105 . Possiamo concludere che l’atomo di idrogeno ha un raggio 100 000 volte pi` u grande di quello del suo nucleo.
8
1 La misura delle grandezze fisiche
1.5 Unit` a di misura. Multipli e sottomultipli Oltre alla notazione esponenziale, un altro modo per evitare l’utilizzo di numeri rappresentati con molti zeri o con molte cifre decimali, `e quello di ricorrere all’uso di multipli e sottomultipli decimali delle unit` a di misura, indicati spesso attraverso i simboli dei loro prefissi decimali. L’unit` a di misura deve essere preceduta da un unico prefisso; se questo viene riportato privo della unit` a a cui si riferisce, la scrittura risulta senza significato. Il prefisso, il corrispondente valore decimale e il simbolo di multipli e sottomultipli sono riportati nella tabella (1.3). Un miliardo di elettronvolt Tabella 1.3. Prefissi di multipli e sottomultipli
Prefisso deci centi milli micro nano pico femto atto zepto yocto
Multipli Sottomultipli Valore Simbolo Prefisso Valore Simbolo deca 101 da 10−1 d −2 etto 102 h c 10 kilo 103 k m 10−3 mega 106 M µ 10−6 giga 109 G n 10−9 −12 tera 1012 T p 10 peta 1015 P f 10−15 exa 1018 E a 10−18 zetta 1021 Z z 10−21 yotta 1024 Y y 10−24
(eV) pu` o pertanto essere espresso nei tre modi seguenti, tra loro equivalenti: 1 000 000 000 eV ≡ 109 eV ≡ 1 GeV. Analogamente, un milionesimo di milionesimo di secondo si pu` o esprimere nei tre modi tra loro equivalenti: 0.000000000001 s ≡ 10−12 s ≡ 1 ps.
1.6 Il metodo scientifico Lo scopo principale delle scienze di base, della fisica, della chimica, della biologia e dei diversi ambiti dell’ingegneria, `e quello di analizzare i fenomeni, di comprenderli, di effettuare misure quanto pi` u precise di grandezze fisiche e di scoprire relazioni tra i risultati delle misure. Per riuscire nell’intento `e necessario seguire un metodo d’indagine razionale e organico che, partendo da uno studio preliminare del fenomeno, ne consenta la riproducibilit` a in laboratorio, la semplificazione attraverso dei modelli, l’accessibilit` a alla misura, il controllo delle condizioni e della loro evoluzione. Tale procedimento, noto come metodo scientifico, `e stato introdotto da Galileo Galilei (1564-1642) e pu` o essere illustrato schematicamente per mezzo della seguente successione di passaggi.
1.6 Il metodo scientifico
9
Analisi del fenomeno ed individuazione delle grandezze da misurare Inizialmente `e necessaria l’osservazione preliminare del fenomeno, l’acquisizione di tutte le informazioni utili allo studio e, sulla base di queste conoscenze, l’individuazione delle grandezze considerate determinanti per la sua interpretazione, che diventeranno oggetto della misura. Formulazione di ipotesi In seguito ad una analisi qualitativa del fenomeno, all’esperienza e alle conoscenze eventualmente gi`a acquisite, `e possibile procedere alla formulazione di ipotesi interpretative e suggerire relazioni tra le grandezze che saranno poi oggetto della misura. Progettazione dell’esperimento e della procedura di misura Si `e ora in grado di procedere alla definizione dell’esperimento, alla ideazione di eventuali simulazioni attraverso modelli ed alla individuazione del metodo da seguire per raccogliere i dati numerici che verranno poi elaborati. Analisi dei risultati ottenuti e verifica delle ipotesi I risultati delle misure vengono analizzati attraverso metodi di elaborazione statistica, per mezzo dei quali si cercano delle relazioni significative tra le diverse grandezze che intervengono nell’esperimento, a conferma delle ipotesi formulate. Si verifica poi quanto i dati sperimentali possano soddisfare le relazioni matematiche proposte e con quale livello di bont` a queste siano in grado di descrivere il fenomeno osservato. Formulazione della legge Se, infine, le ipotesi vengono corroborate dai dati sperimentali, allora si esprime la relazione ipotizzata tra le diverse grandezze attraverso un’espressione matematica, che diventa legge. Se, al contrario, le ipotesi vengono confutate, `e necessario, sulla base delle informazioni dedotte dai risultati delle misure, proporre altre ipotesi che devono essere successivamente confermate. Pu` o accadere anche che l’ipotesi sia solo in parte confermata, oppure che si presentino delle discrepanze apparentemente inspiegabili tra i risultati delle misure e le ipotesi proposte. Ci` o richiede la realizzazione di ulteriori esperimenti i cui risultati possono suggerire da un lato modifiche alla precedente formulazione della legge, dall’altro portare a nuove e impreviste scoperte. In ogni singola fase lo sperimentatore deve porre la massima accortezza, procedere con molta attenzione e non sottovalutare alcun evento. L’esperimento
10
1 La misura delle grandezze fisiche
pu` o essere ripetuto pi` u volte purch´e in condizioni accessibili, controllabili e misurabili. Gli studenti chiamati a verificare, attraverso gli esperimenti, leggi fisiche ben note, non devono sottovalutare l’importanza del loro impegno, ma assumere un comportamento metodico, critico e responsabile; devono essere consci che l’obiettivo fondamentale del loro lavoro `e quello di acquisire una mentalit`a e una pratica sperimentali utili per un futuro lavoro di ricerca.
1.7 Misure dirette e indirette Nei paragrafi precedenti abbiamo illustrato il significato dell’operazione di misura di una grandezza fisica, come confronto tra la grandezza fisica e un’altra, ad essa omogenea, assunta come campione. In questo modo `e possibile associare alla grandezza un numero, che esprime il rapporto tra la grandezza stessa e l’unit` a di misura scelta. Per eseguire questo confronto dobbiamo avvalerci di metodi e di strumenti idonei. Quando si confronta direttamente la grandezza fisica con la sua unit` a di misura, la misura si dice diretta. Il confronto avviene in modo diretto anche quando per effettuare la misura si ricorre all’uso di strumenti opportunamente tarati. In effetti, se si escludono alcune misure di lunghezza, che vengono effettuate in modo diretto confrontando operativamente l’unit` a di misura (rappresentata dal regolo) con la grandezza da misurare, le altre grandezze fondamentali vengono misurate attraverso l’uso di strumenti: il cronometro per misure di tempo, la bilancia per misure di massa, il termometro per misure di temperatura, ecc. La misura `e diretta quando l’operazione di misura fornisce direttamente il risultato. Nel caso in cui, invece, la grandezza sia derivata, si misurano in modo diretto le grandezze fisiche fondamentali che sono ad essa correlate attraverso la definizione di una qualche relazione algebrica. Solo successivamente, mediante il calcolo, si deduce il valore della misura della grandezza derivata. Questo tipo di misura si dice indiretto. Ad esempio, la misura della velocit`a, grandezza derivata definita dal rapporto s/t (s = spazio percorso, t = tempo impiegato) `e indiretta se si misurano s e t e si calcola poi il loro rapporto, mentre risulta essere diretta se `e misurata con il tachimetro. Sia che la misura venga effettuata in modo diretto o indiretto, `e necessario saper valutare quanto il risultato ottenuto sia attendibile. Infatti la misura non fornisce mai il valore vero della grandezza in esame, che rimane sconosciuto, ma `e sempre caratterizzata, come vedremo nei prossimi capitoli, da un certo grado di indeterminazione.
2 Errori nelle misure
Ogni qual volta si esegue la misura di una grandezza fisica, si commettono inevitabilmente degli errori che impediscono di conoscere il valore vero della grandezza stessa. Questo limite intrinseco alla misura `e accettato dagli sperimentatori che hanno, tra gli altri, il compito di riuscire a quantificare nel miglior modo possibile questi errori e di cercare di ridurli al minimo. Per questo `e necessario conoscere l’origine, la tipologia, le cause e l’entit`a di questi errori. Vedremo in questo capitolo come si presentano, quali sono le principali cause, come caratterizzano la misura, in che modo si calcolano e come vengono espressi.
2.1 Errori e cause d’errore Supponiamo di dover misurare la lunghezza di una parete e di stimare “ad occhio” il suo valore come pari a circa 300 cm. Questa valutazione `e imprecisa e sicuramente affetta da un errore. Nulla vieta di pensare che la lunghezza della parete sia in realt` a compresa tra 305 cm e 295 cm. Utilizzando infatti un metro a nastro si ottiene un valore pi` u preciso della misura, pari ad esempio a 301.4 cm. Tale precisione potrebbe per` o non bastare. Per qualche motivo potrebbe essere necessario conoscere i centesimi o addirittura i millesimi di millimetro. Utilizzando un distanziometro laser, un dispositivo che misura le distanze sfruttando principi di interferenza ottica, si pu` o arrivare alla precisione di un milionesimo di metro. Esasperando il nostro desiderio di precisione, potremmo tentare di esprimere la misura con strumenti sempre pi` u sensibili. Nonostante ci`o, non sar` a possibile conoscere il valore vero della lunghezza. L’incertezza, seppur molto ridotta, rimane. Infatti, sebbene alcune cause d’errore possano essere eliminate (nel nostro caso, ed esempio, utilizzando strumenti pi` u precisi), altre sono intrinsecamente legate alla natura della grandezza e al processo di misura ed `e impossibile eliminarle completamente. Il passo successivo `e dunque quello di cercare di stabilire le cause degli errori, anche se molteplici e spesso difficilmente individuabili. Esse sono principalmente attribuibili alla strumentazione utilizzata, alla procedura operativa, all’azione dello sperimentatore, ad agenti ambientali ed esterni. In particolare, possono essere ricercate in una o pi` u delle seguenti circostanze:
12
2 Errori nelle misure
– Erronea taratura dello strumento. Questa condizione si verifica quando lo strumento, per problemi costruttivi o perch´e lasciato inutilizzato per lungo tempo, non `e in grado di fornire risposte coerenti alle sollecitazioni per le quali `e stato progettato. In questo caso `e necessario provvedere alla verifica dello strumento mediante misure di controllo ed alla taratura. – Rottura, cattivo funzionamento o modificazioni dello strumento provocate da variazioni delle condizioni ambientali, di temperatura, di pressione, di umidit` a. Uno strumento deteriorato e mal funzionante fornisce misure inattendibili, caratterizzate da errori a volte anche grossolani. Le variazioni delle condizioni ambientali, inoltre, possono condizionare la risposta strumentale introducendo un errore difficile da riconoscere e quantificare. Ad esempio, uno strumento progettato per lavorare alla temperatura a le stesse risposte se la temperatura deld’esercizio di 20 ◦ C non dar` ` necessario l’ambiente varia, aumentando o diminuendo di alcuni gradi. E riconoscere i guasti e procedere alla riparazione; inoltre devono essere controllati i parametri ambientali affinch´e siano rispettate le condizioni di corretto esercizio. – Presenza di vibrazioni, di piccoli spostamenti d’aria, di contaminazioni, di inadatta luminosit` a, di instabilit` a della alimentazione di rete. Queste situazioni possono non solo condizionare la rilevazione delle misure con errori difficili da trattare, ma compromettere addirittura l’esito dell’esperimento. La misura di una grandezza fisica in condizione di equilibrio meccanico risulter` a scorretta se cause esterne, come piccoli spostamenti d’aria dovuti al movimento dell’operatore o vibrazioni meccaniche minime, come quelle provocate dal passo di una persona, saranno presenti durante la rilevazione. Anche in questo caso l’operatore dovr` a porre la massima attenzione ed evitare situazioni che possano interferire modificando arbitrariamente la misura. – Usura dello strumento o di parti dello stesso. Si provveder`a alla sostituzione completa dello strumento o di quelle parti che risultassero usurate e inutilizzabili. ` evi– Limitate caratteristiche (sensibilit`a e prontezza) dello strumento. E dente che se lo strumento non `e sufficientemente sensibile oppure fornisce il risultato della misura in tempi pi` u lunghi rispetto allo svolgersi del fenomeno oggetto della misura, questa sar` a caratterizzata da un errore pi` u o meno grande. Se, ad esempio, il diaframma di uno strumento ottico ha un tempo di apertura di 1 millisecondo, `e impensabile riuscire a rilevare fenomeni che si svolgono in tempi pi` u lunghi o pi` u brevi del millisecondo. ` indispensabile scegliere uno strumento idoneo alle misure che si devono E effettuare. – Scelta della strumentazione e/o delle unit` a di misura inadeguate rispetto alla grandezza ed alla procedura operativa. Anche in tal caso gli errori saranno inevitabili e sar` a necessario porre maggiore attenzione alla scelta dello strumento.
2.2 Errori casuali ed errori sistematici
13
– Errori di riflesso, di allineamento, di parallasse. Uno sperimentatore che deve attivare durante l’esperimento dispositivi di partenza e di arresto introdurr` a, per effetto di questa operazione, errori dovuti ai suoi riflessi sensoriali. Inoltre il risultato della lettura di uno strumento cambia se l’operatore si sposta leggermente di lato, a destra o a sinistra. Questo errore, abbastanza comune, `e noto come errore di parallasse. La rilevazione della misura avviene in modo corretto solo se effettuata di fronte, in posizione perpendicolare al piano dello strumento. – Errori di definizione, quando la grandezza da misurare non `e definita con esattezza. Questo `e il caso, ad esempio, di un’asta di legno spezzata ` evidente in modo irregolare, di cui si voglia misurare la lunghezza. E l’impossibilit` a di conoscere la lunghezza dell’asta. Anche in questo caso si introduce un errore di cui bisogna tenere conto nella discussione. – Errori umani di lettura, di disattenzione, di trascrizione. Questi sono errori grossolani dovuti soprattutto a disattenzioni nella lettura degli strumenti e nella trascrizione dei risultati. Questi errori devono essere evitati con l’assunzione di un atteggiamento scrupoloso e attento durante tutte le fasi dello svolgimento dell’esperimento. Abbiamo cercato di illustrare le principali cause d’errore, riportando anche qualche esempio. Tale descrizione non si esaurisce con questo elenco: ogni esperimento `e un caso a s´e e va studiato e affrontato con particolare cura e attenzione. Soltanto una buona conoscenza teorica del problema, accompagnata da un comportamento serio e scrupoloso, pu` o aiutare lo sperimentatore a prevedere e quindi ridurre o eliminare, quando possibile, la presenza di errori nelle misure di laboratorio.
2.2 Errori casuali ed errori sistematici Le misure sono sempre affette da errori le cui cause sono diverse, come evidenziato nella sezione precedente. Anche gli errori sono tra loro differenti e possono essere distinti in errori sistematici ed errori casuali. L’errore da cui `e affetta una misura possiede una componente sistematica ed una casuale, non distinguibili tra loro e di diversa origine. Gli errori sistematici incidono sulla misura in modo costante, sempre in una direzione, in eccesso o in difetto: nel primo caso la misura avr`a un valore maggiore del valore vero, nel secondo caso minore. L’origine degli errori sistematici `e da ricercarsi nelle deficienze strumentali, in metodi o procedure non idonei, in distorte letture di scala: la causa pu` o risiedere nell’utilizzo di uno strumento difettoso, con lo zero di scala non perfettamente segnato, con piccole anomalie costruttive come un disallineamento meccanico o distorsioni elettroniche di segnali, oppure nell’uso di uno strumento molto sensibile alla temperatura o all’umidit` a funzionante in condizioni diverse da quelle indicate dal costruttore. In questi casi il risultato della misura sar` a affetto da un errore sistematico. Se volessimo,
14
2 Errori nelle misure
ad esempio, misurare una massa incognita su una bilancia non perfettamente azzerata, il cui indice segna a vuoto “un chilogrammo”, tutte le misure effettuate saranno sovrastimate di una quantit` a pari ad un chilogrammo. Viceversa, se l’indice `e spostato in negativo rispetto allo zero, le misure saranno tutte sottostimate. In casi come questo `e sufficiente controllare l’azzeramento dello strumento prima di effettuare la misura per accorgersi di eventuali anomalie che possono dare origine ad errori sistematici. Questi, se sono noti, possono essere eliminati. Il riconoscimento degli errori sistematici non risulta tuttavia sempre facile: non esistono infatti indicazioni o regole generali per individuarli, n´e tanto meno la ripetizione delle misure pu`o servire a svelarli. Solo uno sperimentatore molto attento ed esperto pu` o riuscire a riconoscerli e a sopprimerli. Se, nel corso di un esperimento, nascesse il dubbio relativo alla possibile presenza di errori sistematici, converrebbe procedere alla misura della grandezza utilizzando altri strumenti e modificando la procedura sperimentale. Gli errori casuali, invece, sono il risultato di effetti deterministici derivanti da molteplici cause; ma `e proprio il numero elevato di queste ultime che conferisce il carattere aleatorio, casuale agli errori. Gli errori casuali incidono sulla misura, a volte in eccesso e a volte in difetto, in modo irregolare e perci`o imprevedibile. Essi possono essere dovuti all’utilizzo degli strumenti, alle piccole fluttuazioni degli indici delle scale, a piccole variazioni delle condizioni ambientali, all’azione dello sperimentatore (tipici esempi sono i tempi di reazione soggettivi nell’avviare o arrestare dispositivi di misura, o gli errori di lettura), a problemi di definizione. A differenza degli errori sistematici, gli errori casuali possono essere messi in evidenza ripetendo pi` u volte la misura. La loro osservazione `e possibile se si utilizza uno strumento sufficientemente sensibile. In caso contrario, l’errore casuale `e mascherato dalla incertezza di entit` a maggiore introdotta dalla lettura della scala. Possiamo concludere osservando che tutte le misure sono soggette sia ad incertezze casuali che ad incertezze sistematiche, la cui distinzione risulta a volte difficile. In generale, gli errori sistematici possono influenzare la misura molto pi` u degli errori casuali: una misura si dice accurata qualora sia affetta da piccoli errori sistematici; una misura si dice precisa quando `e affetta da piccoli errori casuali. Poich´e l’incidenza dell’errore sistematico `e costante su una serie di misure, `e evidente l’inutilit` a di ripetere pi` u volte la misura per migliorare il risultato: questo tipo di errore non pu` o essere soggetto alla trattazione statistica. L’applicazione dei metodi di analisi statistica riguarder` a invece i dati sperimentali soggetti a errori casuali, rilevati dopo aver operato con la massima accuratezza e aver accertato che l’entit`a degli errori sistematici `e inferiore alla precisione richiesta e risulta pertanto trascurabile. La trattazione statistica degli errori casuali consentir` a di esprimere una stima realistica della loro entit` a e di caratterizzare al meglio la misura.
2.3 Errore assoluto nelle misure dirette
15
2.3 Errore assoluto nelle misure dirette Nelle sezioni precedenti abbiamo mostrato come ogni misura sia inevitabilmente caratterizzata da un errore e abbiamo individuato le possibili cause di questi errori; dobbiamo ora affrontare il compito di imparare a valutarne oggettivamente l’entit`a. Consideriamo un semplice esempio. Supponiamo di dover misurare la lunghezza di un oggetto utilizzando un righello. Dopo aver allineato l’oggetto allo strumento, con la prima estremit` a in coincidenza con lo zero, andiamo a leggere sulla scala graduata il valore individuato dalla seconda estremit` a. La lunghezza risulta molto vicina a 83 mm: minore o uguale di 82 mm ma maggiore o uguale di 83 mm. Una stima pi` u precisa `e impossibile, utilizzando il nostro righello, in quanto la scala dello strumento `e suddivisa in millimetri. Potremmo allora concludere che la migliore stima della lunghezza dell’oggetto `e pari a 82.5 mm, ma che tale valore `e affetto da una incertezza quantificabile nell’intervallo di probabilit` a che va da 82 a 83 mm. Come possiamo rappresentare sinteticamente questo risultato? Se indichiamo con l la misura della lunghezza, possiamo scrivere: l ∼ 82.5 mm oppure 82 mm ≤ l ≤ 83 mm. Poich´e l’intervallo di variabilit` a della misura, determinato dalla suddivisione della scala, `e pari a 1 mm, possiamo riscrivere il risultato della misura in un modo in cui appaia pi` u immediata la lettura dell’ampiezza dell’intervallo di incertezza. Lo sperimentatore indica come miglior stima della lunghezza il valore di 82.5 mm e suggerisce, con buon grado di confidenza, che il valore vero della grandezza si trovi all’interno dell’intervallo determinato dai valori estremi, ovvero: l = (82.5 ± 0.5) mm. La quantit` a pari a 0.5 mm costituisce il cosiddetto errore assoluto della misura (della lunghezza, in questo esempio): in generale l’errore assoluto viene espresso con la stessa unit`a con cui si esprime la misura della grandezza a cui si riferisce. Nei casi in cui si ha a disposizione un’unica misura, ottenuta dalla lettura della scala di uno strumento, l’errore assoluto pu` o essere ragionevolmente assunto pari alla met` a della pi` u piccola divisione della scala; nel nostro esempio la divisione di scala `e 1 mm e, dunque, l’errore assoluto `e pari a 0.5 mm. Se ripetessimo pi` u volte la misura della lunghezza del nostro oggetto con il regolo, nelle stesse condizioni e con la medesima precisione, otterremmo sempre lo stesso risultato. Ci sono per` o casi, e sono la maggioranza, in cui l’errore dedotto dalla lettura della scala potrebbe essere sovrastimato, definito in modo troppo approssimativo oppure pi` u difficile da valutare. Occorre allora procedere in modo diverso. Prendiamo in considerazione il seguente esempio. Supponiamo di dover misurare il periodo di oscillazione di un pendolo, misurando con un cronometro il tempo t che il pendolo impiega a compiere un’oscillazione completa. ` facile provare che, ripetendo l’operazione pi` E u volte, otterremo valori della misura non tutti uguali tra loro. Ci` o significa che gli errori non sono dovuti solo alla suddivisione della scala dello strumento: le differenze tra le diverse
16
2 Errori nelle misure
misure si devono, in tal caso, alla presenza di errori casuali introdotti dall’operatore nell’azionare i dispositivi di partenza e di arresto del cronometro. Una sola misura sarebbe insufficiente per rilevarli. Riportiamo i risultati di sei misure del periodo, espresse in secondi: 1.8 s, 1.9 s, 2.0 s, 1.9 s, 1.8 s, 2.0 s. Rispetto all’esempio precedente, in cui avevamo un unico risultato, che abbiamo considerato come miglior stima della nostra misura, in questo caso ci troviamo di fronte a due problemi. Il primo riguarda la determinazione, a partire dai sei valori misurati, del valore da assumere come miglior stima della nostra misura. In secondo luogo, si deve trovare un’espressione ragionevole per una valutazione dell’errore assoluto. Intuitivamente potremmo, per il momento, risolvere il primo problema adottando come miglior stima la media aritmetica, definita come la somma delle sei misure divisa per il loro numero:
t=
1.8 + 1.9 + 2.0 + 1.9 + 1.8 + 2.0 s = 1.9 s . 6
(2.1)
Osserviamo inoltre che le misure realizzate assumono valori che variano da un minimo tmin = 1.8 s a un massimo tmax = 2.0 s, cio`e esse fluttuano all’interno di un intervallo di variabilit` a di ampiezza ∆t = tmax − tmin = 0.2 s, pari alla differenza tra il valore massimo (2.0 s) e il valore minimo (1.8 s). Poich´e il valore medio cade esattamente al centro di questo intervallo di variabilit` a, `e possibile osservare che tutte le misure sono comprese nell’intervallo definito dal valor medio meno la met` a dell’intervallo di variabilit` a e dal valor medio pi` u la met`a dell’intervallo di variabilit` a. Possiamo perci`o decidere di rappresentare il risultato della misura esprimendo l’errore assoluto come la semidifferenza tra il valore maggiore, tmax , e il valore minore, tmin , ossia: =
tmax − tmin = 0.1 s . 2
(2.2)
Il risultato della misura, ovvero il valore misurato della grandezza t, `e dunque esprimibile nel modo seguente: t = (1.9 ± 0.1) s .
(2.3)
In questa scrittura sono evidenziati sia il valore assunto come miglior stima della grandezza che l’entit`a dell’errore. Siamo ora in grado di generalizzare questo risultato. Data una grandezza fisica G, la sua misura g si esprime nel modo seguente: g=g±
∆g = g ± . 2
(2.4)
In altre parole, il valore misurato della grandezza g `e uguale alla migliore u o meno l’errore assoluto di g, = ∆g/2. L’errore assoluto stima di g, g, pi` `e ragionevolmente stimabile come met`a della pi` u piccola divisione della scala
2.4 La media come miglior stima
17
dello strumento, nel caso di una singola misura; se le misure sono invece ripetute, `e dato dalla semidispersione, ovvero: gmax − gmin . (2.5) = 2 Il calcolo dell’errore assoluto come semidispersione risulta sostanzialmente semplice e offre una stima immediata dell’intervallo di confidenza, ma presenta degli inconvenienti. In particolare, pu` o accadere che i due estremi dell’intervallo di indeterminazione, che abbiamo indicato con gmax e gmin , rimangano gli stessi anche se aumentiamo il numero delle misure: in questo caso l’intervallo di indeterminazione, dato dalla loro semidifferenza, non cambia. Ci` o significa che la precisione sulla misura pu` o non migliorare all’aumentare del numero di misure. Inoltre, dalla semidispersione non si ricava nessuna informazione riguardo allo sparpagliamento delle misure all’interno dell’intervallo di confidenza: che esse siano distribuite tutte vicino al valor medio oppure omogeneamente su tutto l’intervallo, non fa alcuna differenza e non `e rilevabile. Come abbiamo visto in questi esempi, misurare una grandezza e valutare l’entit` a di un errore sono compiti non sempre facili, ma determinanti per la conoscenza. Abbiamo anche notato come sia importante, quando possibile, ripetere la misura, perch´e solo in questo modo si possono valutare gli errori di tipo casuale.
2.4 La media come miglior stima Supponiamo di aver misurato una grandezza fisica e di aver ottenuto come risultato della misura n valori, non tutti uguali tra loro. Sappiamo che la misura `e influenzata da un’indeterminazione, perci` o `e impossibile conoscere il valore vero della grandezza in esame. Ci chiediamo allora quale valore sia il pi` u significativo, il pi` u rappresentativo della grandezza misurata, tenuto conto di tutti gli n dati ottenuti dai risultati della misura. Possiamo contare quante volte ognuno dei valori si `e presentato e decidere di assumere come pi` u rappresentativo della misura quello che si `e presentato con maggior frequenza. Tale valore `e chiamato moda dell’insieme di numeri. Questa scelta considera solo il risultato pi` u frequente, indipendentemente da tutti gli altri; inoltre questo indice potrebbe non essere unico: pi` u valori potrebbero presentarsi con la stessa frequenza, o addirittura, come caso limite, presentarsi tutti lo stesso numero di volte, rendendo impossibile l’identificazione della moda. Ci` o rende difficoltosa e non univoca la scelta. Inoltre, se due valori con la stessa frequenza (quella maggiore) si trovano esattamente agli estremi dell’intervallo di misura, `e evidente l’ambiguit`a della scelta che non pu` o garantire la rappresentativit` a del dato eventualmente scelto. Un’altra possibilit` a `e quella di scegliere il valore che divide a met` a un insieme di dati, ordinati in modo crescente o decrescente, in due parti uguali: tale valore `e chiamato mediana. La mediana `e uguale ad uno dei valori
18
2 Errori nelle misure
misurati se il numero delle misure `e dispari, mentre dovr` a essere ricavata calcolando la semisomma dei due valori centrali nel caso di misure in numero pari. La scelta pi` u ragionevole, certo gi` a familiare ai lettori, `e quella di assumere come miglior stima della misura la media aritmetica dei valori ottenuti. La media aritmetica di una serie di numeri `e la combinazione pi` u adatta perch´e tiene conto di tutti i valori misurati. Sia data la grandezza fisica X, di cui siano state effettuate n misure. Indichiamo con x1 , x2 , x3 , . . . , xn i risultati delle n misure. Si definisce media a: aritmetica x dei risultati delle n misure la quantit`
1 (2.6) · (x1 + x2 + x3 + . . . + xn ) . n n Di solito si utilizza il simbolo i=1 xi per indicare la somma degli n termini xi . Con tale notazione compatta, la media aritmetica si scrive: x=
n
1 xi . x= n i=1
(2.7)
Potremmo ora chiederci come sono distribuite le singole misure rispetto alla media, poich´e la valutazione dello sparpagliamento delle misure ci fornisce un’importante indicazione di quanto le misure siano precise. Per fare ci` o dobbiamo calcolare quanto ogni singola misura xi si discosta dal valor medio x, cio`e valutare le differenze xi − x che, nel seguito, chiameremo scarti. Se tali differenze sono grandi, significa che le misure sono molto disperse e quindi la misura della grandezza in oggetto non `e molto precisa; viceversa, se le differenze sono piccole, significa che le misure cadono abbastanza vicino al valor medio che risulta essere cos`ı una buona stima del valore vero della misura. C’`e una relazione tra queste differenze e l’errore sulla misura xi ? In analogia con il calcolo della media aritmetica, proviamo a calcolare il valor medio dello scarto: n n n 1 1 i=1 xi (2.8) − x i=1 = x − x = 0 . (xi − x) = n n n i=1
La somma degli scarti risulta nulla e, quindi, il valor medio degli scarti `e uguale a zero. Abbiamo cos`ı ottenuto una importante propriet` a di cui gode la media: la media degli scarti `e identicamente nulla. Tale risultato era peraltro prevedibile sulla base di considerazioni intuitive. Alcuni valori di xi sono maggiori del valor medio, altri minori, e le rispettive differenze sono in un caso positive e nell’altro negative! Di conseguenza la media degli scarti non costituisce una grandezza utile per caratterizzare l’errore sulla misura.
2.5 Deviazione standard
19
2.5 Deviazione standard La media degli scarti non pu` o, dunque, essere utilizzata per valutare l’attendibilit` a delle misure. Per ovviare al problema delle differenze negative, possiamo elevare tutti gli scarti al quadrato e considerare gli scarti quadratici (xi − x)2 . Calcoliamo ora il valor medio degli scarti al quadrato, grandezza nota come scarto quadratico medio o varianza, σ 2 :
σ2 =
n
1 (xi − x)2 . n i=1
(2.9)
In questo caso il risultato `e diverso da zero e, per far s`ı che abbia anche le stesse dimensioni di xi , estraiamo la radice quadrata della varianza, ottenendo in tal modo la cosiddetta deviazione standard: n 1 (2.10) (xi − x)2 . σ=
n i=1
La deviazione standard `e una grandezza sempre positiva, che permette di esprimere una stima del grado di attendibilit` a della misura. Si noti come, al crescere del numero delle misure n, diminuisca il valore numerico assoluto della deviazione standard e aumenti di conseguenza la precisione della misura. Questo risultato fornisce inoltre una stima di come le singole misure sono distribuite all’interno dell’intervallo di indeterminazione. Prendiamo in considerazione i risultati ottenuti dalle sei misure del periodo di oscillazione del pendolo. Calcoliamo il valor medio di queste sei misure, la semidispersione, lo scarto per ogni misura, lo scarto quadratico per ogni misura, la media degli scarti, la media dei quadrati degli scarti e infine la deviazione standard. Nella Tabella (2.1) sono riportati i valori degli scarti quadratici. Tabella 2.1. Scarto quadratico
Numero misura Valore misurato Scarto Scarto quadratico (in s2 ) (in s) (in s) 0.01 -0.1 1.8 1 0.00 0.0 1.9 2 0.01 +0.1 2.0 3 0.00 0.0 1.9 4 0.01 -0.1 1.8 5 0.01 +0.1 2.0 6
6 Da questi valori si ricavano il valor medio, x = i=1 xi /6 = (1.8 + 1.9 + 2.0 + 1.9 + 1.8 + 2.0)/6 s = 1.9 s; la semidispersione, (xmax − xmin )/2 =
20
2 Errori nelle misure
6 (2.0 − 1.8)/2 = 0.1 s, la media degli scarti, [ i=1 (xi − x)]/6 = [(−0.1) + 0.0 + 0.1 + 0.0 + (−0.1) + 0.1]/6 = 0 s, la media dei quadrati degli scarti 6 (varianza o scarto quadratico medio), [ i=1 (xi − x)2 ]/6 = (0.01 + 0.00 + 0.01 s2 = 0.007 s2 e, infine, la deviazione standard = + 0.00 + 0.01 + 0.01)/6 √ 6 [ i=1 (xi − x)2 ]/6 = 0.007 s2 = 0.08 s. Come si pu`o osservare, la stima dell’indeterminazione ottenuta come semidispersione offre una valutazione semplice ed immediata dell’errore. Per contro, per mezzo della deviazione standard la stima `e pi` u precisa anche se il calcolo `e pi` u complesso e, qualora le misure siano molte, il procedimento diviene piuttosto lungo. Abbiamo visto poc’anzi che la scelta del valor medio come miglior stima `e stata suggerita dal buon senso e dalla ragionevolezza. Possiamo ora chiederci se questo valore ci offre anche sufficienti garanzie di precisione. A tale scopo possiamo domandarci se esista una relazione tra la deviazione standard di una serie di misure e la precisione della media e, in caso affermativo, determinarla. Come prima osservazione `e ragionevole aspettarsi che l’indeterminazione sul valor medio di una serie di misure sia pi` u piccola rispetto a quella relativa a un singolo risultato. L’analisi statistica mostra che l’indeterminazione sulla media `e data dalla deviazione standard divisa per la radice quadrata del numero n di misure: si tratta della deviazione standard della media σx cos`ı definita:
σ σx = √ . n
(2.11)
Il risultato della misura `e costituito dal valor medio pi` u o meno l’indeterminazione, stimata dalla deviazione standard della media, cio`e:
σ x=x± √ . n
(2.12)
Si pu` o osservare che σx diminuisce, seppur lentamente, al crescere di n; ci`o significa che maggiore `e il numero di misure effettuate, minore `e l’incertezza σx cui `e affetta la media. Quindi il valor medio `e ragionevolmente la stima pi` u precisa di una serie di misure. Consideriamo infine la definizione della deviazione standard. Nella definizione di deviazione standard, la media degli scarti quadratici `e stata calcolata dividendo per n, assumendo pertanto che n fosse il numero di parametri indipendenti del sistema. Ma, in realt` a, lo stesso insieme di dati `e gi`a stato utilizzato per il calcolo della media. Pertanto il numero di scarti indipendenti non `e n, bens`ı n − 1. Gli scarti sono stati infatti ottenuti dalle differenze tra le singole misure xi ed il loro valor medio x, riducendo cos`ı il numero dei parametri indipendenti da n a n − 1. Un’espressione per la deviazione standard che tenga conto del giusto numero di parametri indipendenti si ottiene pertanto sostituendo n con n−1:
2.6 Cifre significative e arrotondamenti
σ=
n i=1 (xi
− x)2 . n−1
21
(2.13)
La differenza tra la deviazione standard definita dall’equazione (2.13) e quella definita dall’equazione (2.10) `e concettualmente significativa, ma quasi sempre quantitativamente irrilevante: `e comunque importante specificare, nella discussione dei risultati sperimentali, quale formula `e stata utilizzata nei calcoli.
2.6 Cifre significative e arrotondamenti Affrontiamo ora un importante problema, riguardante il numero di cifre con cui il risultato della misura e il corrispondente errore devono essere scritti. Consideriamo le misure del periodo di oscillazione del pendolo, riportate nelle precedenti sezioni. Il grado di approssimazione di questa serie di misure coincide con la sensibilit` a dello strumento, nel caso specifico un cronometro, in grado di apprezzare i decimi di secondo. Osservando i risultati ottenuti, possiamo concludere che la misura “certa” `e quella relativa ai secondi, mentre “l’incertezza” interessa i decimi di secondo. Aggiungendo un dato, 1.8 s, le misure diventano sette e la media ottenuta con una calcolatrice con un display a 10 cifre, `e: t = 1.885714286 s. L’errore assoluto, calcolato come semidispersione, non `e cambiato con l’aggiunta di un dato, ed `e rimasto pari ` assai chiaro che non ha alcun senso riportare come risultaa: = 0.1 s. E to della media un numero con nove cifre decimali, dal momento che esiste un’incertezza sulla prima cifra decimale. Dall’espressione delle singole misure, indicate con una sola cifra decimale, si deduce che lo strumento non `e in grado di apprezzare quantit` a inferiori al decimo di secondo; il valor medio pertanto non pu` o e non deve essere ` inespresso con una precisione del milionesimo di millesimo di secondo! E tuitivo approssimare il valor medio a 1.9 s, in modo che la misura e l’errore siano “compatibili”. Ci` o comporta l’eliminazione di otto cifre decimali e l’approssimazione per eccesso del risultato alla unit` a decimale successiva. Specificare correttamente il numero di cifre con cui viene espresso il risultato sperimentale `e molto importante perch´e indica il grado di precisione della misura. Tutte le cifre che indicano il risultato di una misura si chiamano cifre significative. Nel nostro caso t = 1.9 s e, dunque, il numero di cifre significative `e uguale a 2, di cui una nota con certezza (1) e una incerta (9). Il numero di cifre significative si ottiene contando tutte le cifre comprese tra la cifra incerta, ultima a destra, e la cifra pi` u significativa, vale a dire la prima a sinistra diversa da zero, cifra incerta e cifra pi` u significativa incluse. In tabella 2.2 sono riportati alcuni esempi. Osservando gli ultimi due esempi si nota che, mentre gli zeri a destra della cifra pi` u significativa, anche se finali, si annoverano nel numero di cifre
22
2 Errori nelle misure Tabella 2.2. Numero di cifre significative
Valore Cifra incerta Cifra pi` u significativa Numero di cifre significative 1.9 9 1 2 0 1 3 1.90 0 1 4 1.900 1 3 4 3751 0 1 4 10.10 3 2 4 0.0000002203 0 2 4 0.0000002200
significative, non vengono invece conteggiati gli zeri presenti alla sinistra della cifra pi` u significativa. La definizione del numero di cifre significative del valore di una misura ci consente di stabilire e distinguere immediatamente il diverso grado di precisione di risultati apparentemente equivalenti. Ad esempio, i valori numerici 1.9 s, 1.90 s e 1.900 s, ottenuti da una misura di tempo, non sono fisicamente uguali; nel primo caso abbiamo una precisione al decimo di secondo, nel secondo caso al centesimo di secondo, nel terzo caso al millesimo di secondo. Un altro caso in cui si presenta il problema dell’approssimazione numerica, come conseguenza di calcoli matematici, `e quello del calcolo dell’errore di una misura, eseguito sia come semidispersione che come deviazione standard. I valori dell’errore che si ottengono dai calcoli spesso presentano un eccessivo numero di cifre; `e dunque necessario effettuare il corretto arrotondamento. Non ha alcun senso stimare un errore con una precisione maggiore della misura alla quale si riferisce, ed esprimerlo attraverso un valore numerico caratterizzato da un maggior numero di cifre significative. Convenzionalmente, si `e assunto di arrotondare gli errori delle misure sperimentali ad una cifra significativa, eccetto i casi in cui l’approssimazione per difetto sulla prima cifra significativa modifichi eccessivamente l’errore: si tratta di casi per i quali `e consigliabile mantenere 2 o pi` u cifre significative nell’espressione dell’errore. Gli esempi che seguono chiariranno queste idee. Supponiamo di aver calcolato la deviazione standard di una serie di misure di lunghezza (in m) e di aver ottenuto il seguente valore: σ=0.0188761223011 m. L’approssimazione in questo caso viene fatta alla prima cifra significativa, e la deviazione standard si esprime come σ=0.02 m. Se invece il valore calcolato della deviazione standard fosse stato pari a σ=0.0141789900113 m, allora l’approssimazione per difetto alla prima cifra significativa, cio`e a 0.01 m, corrisponderebbe ad una riduzione di un buon 40% dell’errore, che risulterebbe pertanto eccessivamente sottostimato. In questo caso conviene approssimare alla seconda cifra significativa, vale a dire che si assume di approssimare la deviazione standard a σ=0.014 m. Nella maggior parte dei casi in cui il risultato della misura e l’errore derivino da un calcolo matematico, `e necessario procedere ad approssimazioni
2.7 Errore relativo ed errore percentuale
23
numeriche. Nella scrittura del risultato `e importante che l’ultima cifra significativa del dato misurato e la prima cifra significativa dell’errore siano dello stesso ordine di grandezza. La scrittura (7.2 ± 0.01) s non `e corretta mentre `e corretta la scrittura (7.21 ± 0.01) s. Analogamente, mentre le scritture (25.0 ± 2) m e (25 ± 0.2) m non sono corrette, `e corretto scrivere (25 ± 2) m.
2.7 Errore relativo ed errore percentuale L’errore assoluto `e strettamente legato alla misura cui si riferisce e fornisce una stima della attendibilit` a della misura stessa. Non consente per` o di confrontare la precisione di misure di grandezze diverse, omogenee o non omogenee. Ad esempio, supponiamo di voler confrontare tra loro le due seguenti misure di lunghezza: l1 = (100 ± 1) cm e l2 = (1000 ± 1) m. Nel primo caso l’errore assoluto `e di un centimetro, nel secondo di un metro. Ci` o potrebbe indurre a concludere che la prima misura `e pi` u precisa della seconda, essendo l’errore assoluto pi` u piccolo. Tale confronto non `e per` o corretto: la prima misura `e caratterizzata da un errore assoluto di 1 cm su una lunghezza misurata di 100 cm, mentre la seconda ha un errore di 1 m su una lunghezza di 1000 m. Relativizzando l’errore assoluto alla misura cui si riferisce, ovvero calcolando il rapporto tra l’errore assoluto e la misura della lunghezza nei due casi, si ottiene: 1 cm/100 cm = 0.01 e 1 m/1000 m = 0.001. Come si pu`o notare, osservando i risultati di questi due rapporti, l’errore rapportato alla seconda misura `e pi` u piccolo del primo; quindi possiamo concludere che la seconda misura `e pi` u precisa della prima. Chiamiamo errore relativo il rapporto tra l’errore assoluto di una misura ed il valor medio della misura stessa. Se la misura x della grandezza X ha dato il seguente risultato: (2.14) x = x ± ,
allora l’errore relativo r `e definito dal rapporto: r =
. x
(2.15)
L’errore relativo permette di confrontare la precisione di misure di grandezze anche non omogenee come, ad esempio, una lunghezza e un tempo, oppure quella di misure ottenute con metodi o strumenti diversi. Si pu` o infatti osservare, dall’esempio e dalla definizione, che l’errore relativo `e adimensionale: esso `e cio`e un numero puro, essendo il risultato del rapporto tra grandezze omogenee. Poich´e `e molto pi` u piccolo di x, il loro rapporto `e un numero minore di 1, generalmente molto piccolo. Spesso, per facilitarne la lettura e rendere il numero pi` u familiare, si conviene di moltiplicare l’errore relativo per 100. In questo caso si ottiene un valore percentuale, adimensionale, chiamato errore percentuale, p :
24
2 Errori nelle misure
. (2.16) x Mentre l’errore relativo pu` o variare da 0 a 1, l’errore percentuale varia dallo 0% al 100%. Una misura `e piuttosto precisa se l’errore relativo `e di qualche centesimo (0.01, . . . , 0.03), che corrisponde a un errore percentuale di qualche unit` a (1%, . . . , 3%). p = r · 100 = 100
2.8 Propagazione degli errori La maggior parte delle misure di grandezze fisiche sono indirette e si ottengono, attraverso calcoli, dalla misura diretta delle grandezze da cui derivano per mezzo di espressioni matematiche. Indichiamo con g = g(x, y, z, . . .) la misura di una grandezza fisica G che dipende dalle misure x, y, z, . . . di altre grandezze fisiche X, Y, Z, . . . Il calcolo dell’indeterminazione sulla misura della grandezza derivata viene effettuato a partire dagli errori delle misure dirette che si propagano sull’errore di g. Supporremo che tutte le misure dirette siano state ripetute un numero n di volte con accuratezza tale da poter trascurare la componente sistematica dell’errore (non trattabile, quest’ultima, con i metodi della statistica). 2.8.1 Calcolo della propagazione degli errori nel caso di funzioni di una variabile Iniziamo con l’analizzare il problema della propagazione dell’errore nel caso di una funzione di una sola variabile. Indichiamo con la lettera g la misura di una grandezza G funzione di un’altra, X, la cui misura `e x: g = g(x). La grandezza X `e misurata in modo diretto e il risultato dell’operazione di misura `e: (2.17) x = x ± ∆x ,
dove con ∆x abbiamo indicato l’errore assoluto sulla misura. Il calcolo dell’incertezza su g, nell’ipotesi in cui siano assenti errori sistematici e in cui le misure x siano state ripetute un numero di volte tale per cui ∆x sia sufficientemente piccolo, `e dato da ∆g = |g(x + ∆x) − g(x)| .
(2.18)
Questa espressione `e l’incremento della funzione g(x) che pu` o essere espresso, in prima approssimazione, dalla derivata della funzione, calcolata nel punto x, moltiplicata per ∆x: dg ∆x . (2.19) ∆g ≈ dx x=x
La relazione (2.19) non `e esatta: infatti le indeterminazioni su g e x sono date da intervalli finiti, mentre la derivata della funzione `e il risultato di un
2.8 Propagazione degli errori
25
passaggio al limite. Fisicamente, questo significa che `e possibile che qualche misura cada all’esterno di questi intervalli d’errore. g in funzione di x `e dunque espressa come: g = g ± ∆g ,
(2.20)
g = g(x)
(2.21)
dove
e ∆g `e dato dalla (2.19). Concludiamo con un esempio. Supponiamo di voler conoscere lo spazio percorso da un oggetto in caduta ma di non essere in grado di misurarlo in modo diretto. Trascurando l’attrito dell’aria, lo spazio percorso s `e funzione del tempo di caduta t, s = s(t), secondo la ben nota legge cinematica: s(t) =
1 2 at , 2 2
a. dove abbiamo indicato con a ≈ 9.8 m/s l’accelerazione di gravit` Il tempo impiegato dal corpo a cadere viene misurato direttamente. Supponiamo, dopo ripetute osservazioni, di aver ottenuto il seguente risultato: t = (3.20 ± 0.01) s. La miglior stima dello spazio percorso `e data da s = s(t) = 9.8 (3.20)2 /2 m = 50.2 m. L’indeterminazione si calcola utilizzando la formula (2.19) di propagazione degli errori: ds (2.22) ∆t = |a t| ∆t . ∆s ≈ dt t=t
Sostituendo i corrispondenti valori numerici, otteniamo: ∆s = |9.8 · 3.20| · 0.01 m = 0.3 m . Il risultato della misura dello spazio percorso `e perci` o: s = (50.2 ± 0.3) m . 2.8.2 Calcolo della propagazione degli errori nel caso di funzioni di pi` u variabili Spesso la grandezza che vogliamo conoscere `e funzione di pi` u di una variabile: solo per citare qualche semplice e ben noto esempio, si pensi alla velocit`a, espressa in funzione dello spazio percorso e dell’intervallo di tempo impiegato a percorrerlo, v = v(s, t) = s/t; alla tensione ai capi di una resistenza, funzione del valore della resistenza e della corrente che l’attraversa, V = V (R, I) = R · I; al momento angolare rispetto a un punto, il cui modulo dipende dalla massa m del corpo, dalla sua velocit` a v, dalla distanza r dal punto e dall’angolo α compreso tra r e v, M = M (m, v, r, α) = mvr sinα; e cos`ı via.
26
2 Errori nelle misure
In generale g `e espressa mediante una relazione analitica, g = g(x, y, z, . . .). Analogamente a quanto supposto nel paragrafo precedente, le misure x, y, z, . . . sono dirette e ripetute un numero di volte sufficiente da poter ritenere il valore dell’errore ad esse associato abbastanza piccolo. Supponiamo dunque che le misure delle singole grandezze siano: x = x ± ∆x , y = y ± ∆y , z = z ± ∆z , ...
(2.23)
e cos`ı via. L’incremento della variabile g che, nel nostro caso, rappresenta l’incertezza della grandezza, `e dato dalla seguente espressione: ∂g ∂g ∂g ∆z + · · · , (2.24) ∆y + ∆x + ∆g ≈ ∂z v=v ∂y v=v ∂x v=v
dove il termine |∂g/∂x| rappresenta il modulo della cosiddetta derivata parziale rispetto alla variabile x, calcolata nel punto di coordinate v = (x, y, z, . . .). Analogamente, |∂g/∂y| rappresenta il modulo della derivata parziale rispetto alla variabile y, calcolata nel punto di coordinate v = (x, y, z, . . .); e cos`ı via per tutte le altre variabili. Si noti anche che, per semplicit` a di scrittura, abbiamo introdotto, nell’equazione (2.24), i simboli di vettore v = (x, y, z, . . .) e v = (x, y, z, . . .). Passando da funzioni a una variabile a funzioni a pi` u variabili, si passa dalla derivata ordinaria alla derivata parziale: quest’ultima si calcola esattamente come la derivata ordinaria rispetto ad una singola variabile, assumendo di volta in volta costanti tutte le altre variabili. Ribadiamo che, per quanto riguarda la propagazione degli errori, il calcolo delle derivate parziali va sempre effettuato nel punto che ha per coordinate i valori medi. Applichiamo, a titolo di esempio, l’equazione (2.24) al caso della somma (o della differenza) di due grandezze g(x, y) = x ± y.
Analogamente
∂(x ± y) ∂g = 1. = ∂x ∂x
(2.25)
∂(x ± y) ∂g = ±1. = ∂y ∂y
(2.26)
Sostituendo nell’equazione (2.24) otteniamo l’errore assoluto su g: ∆g = ∆x + ∆y .
(2.27)
Come si pu`o vedere, a causa dei moduli, l’errore assoluto `e uguale alla somma degli errori sia nel caso in cui g `e definito dalla somma che in quello in cui `e definito come differenza di x e y.
2.8 Propagazione degli errori
27
Occupiamoci ora del prodotto: g(x, y) = x y. In tal caso:
∂(x y) ∂g = y, = ∂x ∂x
(2.28)
∂(x y) ∂g = x. = ∂y ∂y
(2.29)
Di conseguenza, se g(x, y) `e il prodotto di x e y: ∆g = |y| ∆x + |x| ∆y .
(2.30)
Veniamo poi al quoziente: g(x, y) = x/y:
1 ∂(x/y) ∂g = . = y ∂x ∂x
(2.31)
x ∂(x/y) ∂g = 2. = y ∂y ∂y
(2.32)
Cos`ı possiamo concludere che, nel caso in cui g(x, y) sia pari al quoziente di x e y, x 1 (2.33) ∆g = ∆x + 2 ∆y . y y
` interessante notare (anche come utile regola mnemonica) che sia nel caso E del prodotto che in quello del quoziente di grandezze con valor medio positivo, gli errori relativi si sommano:
∆x ∆y 1 ∆(x y) ∆g . + (y ∆x + x ∆y) = = = y x xy xy g
∆x ∆y x y 1 ∆(x/y) ∆g . + ∆x + 2 ∆y = = = x x x y x/y g y
(2.34)
(2.35)
Consideriamo infine un esempio concreto. Immaginiamo di dover determinare il volume di un cilindro avendone misurato il raggio della base r e l’altezza h. Supponiamo di aver trovato i seguenti risultati: r = r ± ∆r = (5.0 ± 0.1) cm e h = h ± ∆h = (27.8 ± 0.1) cm. Il volume di un cilindro `e dato da:
V = πr2 h . Il volume `e dunque funzione di due variabili, r e h, V = V (r, h). Ora V = V ± ∆V ,
dove
V = V (r, h) = 2182 cm3 .
28
2 Errori nelle misure
Il calcolo di ∆V , utilizzando la formula (2.24), procede come segue: ∂V ∂V ∆h , ∆r + ∆V ≈ ∂h ∂r v=v v=v
dove, in questo caso, v = (r, h) e v = (r, h). Calcoliamo le derivate parziali:
∂V = 2πrh, ∂r
∂V = π r2 . ∂h
Pertanto ∆V ≈ 2 π r h ∆r + π r 2 ∆h = 95 cm2 .
Nel prossimo paragrafo forniremo una formula, per la stima dell’errore nel caso di misure indirette, assai pi` u sofisticata della (2.24). 2.8.3 Propagazione degli errori utilizzando le deviazioni standard Consideriamo, come sempre, la misura di una grandezza fisica funzione delle misure di un certo numero di altre grandezze: g = g(x, y, z, . . .). Le misure x, y, z, . . . sono dirette, indipendenti e sono soggette ad errori casuali; la misura di ogni grandezza `e stata ripetuta n volte. Le migliori stime delle misure dirette sono state espresse mediante il calcolo delle loro medie; le indeterminazioni sono pari alle deviazioni standard. La stima della media e delle varianza di x `e data da: x = x ± ∆x ,
σx2
n 1 ∆x2i , = n i=1
(2.36)
(2.37)
dove abbiamo indicato con σx la deviazione standard di x, con xi i risultati delle singole misure e con ∆xi gli scarti delle misure dalla loro media, ∆xi = xi − x. Il calcolo di media e varianza delle altre misure dirette, cio`e y, z, . . ., viene effettuato in modo analogo:
y = y ± ∆y ,
σy2 =
n 1 ∆yi2 , n i=1
z = z ± ∆z ,
(2.38)
(2.39)
(2.40)
2.8 Propagazione degli errori
σz2 =
n 1 ∆zi2 , n i=1
29
(2.41)
e cos`ı via. La miglior stima di g `e data dal valor medio, desunto dai valori medi delle x, y, z, . . ., ossia: (2.42) g = g(x, y, z, . . .) .
Per il calcolo dell’errore su g, scriviamo la varianza di g, σg2 σg2 =
n
1 ∆gi2 , n i=1
(2.43)
dove gli scarti sono dati da ∆gi = g(xi , yi , zi , . . .) − g. Applichiamo ora la formula derivata nel paragrafo precedente relativa alla propagazione degli errori nel caso di funzioni di pi` u variabili: ∂g ∂g ∂g ∆zi + . . . (2.44) ∆yi + ∆xi + ∆gi ≈ ∂z v=v ∂y v=v ∂x v=v
Ricordiamo che tutte le derivate parziali vanno calcolate nel punto di coordinate v = (x, y, z, . . .). Elevando al quadrato gli scarti ∆gi , compare la somma di quantit` a positive, corrispondenti ai quadrati dei singoli termini, e una serie di termini provenienti dai prodotti misti: questi ultimi possono essere sia positivi che negativi e la loro somma `e nulla o assume un valore molto piccolo. Possono perci`o essere trascurati rispetto alla somma dei quadrati. Pertanto
2
2
2 ∂g ∂g ∂g 2 2 2 (∆zi )2 + . . . (∆yi ) + (∆xi ) + (∆gi ) ≈ ∂z v=v ∂y v=v ∂x v=v (2.45) Siamo a questo punto in grado di calcolare la varianza di g:
≈
=
+
+
n
1 (∆gi )2 n i=1
2
2 n 2 ∂g ∂g ∂g 1 2 2 2 (∆zi ) + . . . (∆yi ) + (∆xi ) + ∂z v=v ∂y v=v ∂x v=v n i=1
2 n 1 ∂g (∆xi )2 ∂x v=v n i=1
2 n 1 ∂g (∆yi )2 ∂y v=v n i=1
2 n 1 ∂g (∆zi )2 ∂z v=v n i=1
σg2 =
+...
30
2 Errori nelle misure
Siamo cos`ı giunti all’importante conclusione secondo cui la varianza di g `e una combinazione lineare delle varianze delle grandezze x, y, z, . . . di cui g `e funzione:
2
2
2 ∂g ∂g ∂g σ2 + . . . (2.46) σy2 + σx2 + σg2 ≈ ∂z v=v z ∂y v=v ∂x v=v
I coefficienti della combinazione lineare sono i quadrati delle derivate parziali di g calcolate nel punto di coordinate (x, y, z, . . .). Questo risultato `e molto importante perch´e ci consente di esprimere la deviazione standard della grandezza g, non direttamente misurabile, per mezzo delle varianze delle grandezze x, y, z, . . . misurate direttamente; inoltre tale stima risulta essere pi` u precisa di quella descritta nel paragrafo precedente. Vediamo come si applica questo risultato al caso della somma di due grandezze: g(x, y) = x + y . (2.47)
Poich´e, per questa funzione, ∂g/∂x = ∂g/∂y = 1 abbiamo che σg ≈ σx2 + σy2 .
(2.48)
La formula (2.46) ha carattere generale e pu` o essere applicata purch´e siano rispettate le ipotesi di indipendenza delle misure e di casualit`a degli errori.
3 Presentazione dei dati sperimentali
Uno degli aspetti sicuramente “critici” nella pratica di laboratorio consiste nella gestione dei dati numerici risultanti dalle misure sperimentali. Da una corretta manipolazione e soprattutto da una giusta rappresentazione degli stessi si possono ottenere informazioni estremamente utili sull’esito dell’esperimento, dedurre correlazioni tra le diverse grandezze, formulare ipotesi ` inoltre indiscutie proporre modelli interpretativi del fenomeno studiato. E bile che una chiara, esaustiva e sintetica presentazione dei risultati ottenuti `e prerogativa irrinunciabile nella comunicazione scientifica. Chi, tra i lettori di questo libro, avr` a l’opportunit` a di intraprendere la carriera scientifica, divulgher` a il proprio lavoro di ricerca mediante la stesura di articoli pubblicati dalle riviste scientifiche internazionali. In questo capitolo verranno fornite alcune indicazioni generali sulla rappresentazione dei dati sperimentali, sulla valutazione delle possibili correlazioni e sulle modalit` a di diffusione delle informazioni ottenute.
3.1 Presentazione dei dati sperimentali Durante l’esecuzione di un esperimento otteniamo un certo numero di dati, quali risultati delle nostre misure; questi rimarrebbero privi di significato e di ogni utilit` a pratica se l’esperienza di laboratorio si esaurisse nella elementare operazione di raccolta e di registrazione di numeri. Il ricercatore ha il compito di provare eventuali corrispondenze di proporzionalit` a, diretta o inversa, tra le diverse grandezze fisiche che interessano il fenomeno su cui sta investigando e, anche, di verificare la correttezza delle leggi gi` a conosciute. Attraverso l’analisi statistica dei dati sperimentali, cercher` a inoltre di estrapolare relazioni di interdipendenza allo scopo di formalizzare i risultati attraverso espressioni matematiche confrontabili, qualora possibile, con previsioni teoriche e, infine, formuler` a leggi fisiche. Gli strumenti utilizzati per rappresentare, organizzare e discutere i dati sperimentali sono diversi e consentono di ottenere informazioni di vario tipo. Noi faremo riferimento a tabelle, istogrammi e grafici. Attraverso le tabelle, che consentono di raccogliere in modo ordinato un consistente numero di dati, si possono rappresentare numerose informazioni numeriche. La variabilit` a dei dati viene visualizzata attraverso strumenti di rappresentazione grafica quali gli istogrammi, che al crescere
32
3 Presentazione dei dati sperimentali
del numero di misure tendono ad assumere una forma sempre pi` u regolare e simmetrica, ben approssimabile dalle distribuzioni limite. Infine si utilizzano i grafici, grazie ai quali `e possibile interpretare le correlazioni tra le diverse grandezze, estrapolare le leggi che descrivono i fenomeni fisici e confrontare i risultati sperimentali con le previsioni dei modelli e delle teorie.
3.2 Tabelle Prima di iniziare un esperimento `e opportuno, sulla base dell’analisi preliminare, predisporre una tabella per la raccolta ordinata dei dati. Ci` o consente di procedere pi` u agevolmente alla fase successiva, consistente nell’analisi statistica e, nello stesso tempo, di evitare di trovarsi al termine del lavoro con una serie di numeri annotati frettolosamente e di difficile interpretazione. Come si costruisce una tabella? Non `e possibile fornire una risposta di carattere generale alla domanda, perch´e non esiste una regola precisa o uno schema da seguire per la costruzione di una tabella che, normalmente, `e funzionale al tipo di informazione che si desidera ottenere. Si possono tuttavia suggerire indicazioni che rispondono a criteri di sinteticit` a, chiarezza ed esaustivit` a. In una tabella `e opportuno riportare: il numero progressivo delle misure effettuate, i valori ottenuti nella misura, i corrispondenti errori, i valori medi, la varianza, la deviazione standard, e altri valori ancora. L’utilizzo di strumenti informatici, opportunamente programmati, consente ottime rappresentazioni ed elaborazioni numeriche. I software grafici attualmente disponibili permettono una precisa gestione dei dati e una immediata visualizzazione dei grafici. Riportiamo qualche esempio utile a illustrare qualche modello di tabella. Facciamo ricorso all’esperimento della misura del periodo di oscillazione del pendolo. Si tratta di un esperimento semplice da realizzare che ci pu` o offrire diversi e utili spunti di riflessione. A parit` a di condizioni, realizziamo tre serie di misure: la prima di dieci misure, la seconda di venti, la terza di trenta. Riportiamo i dati ottenuti in tabella 3.1. Nella prima colonna di solito si indica il numero progressivo k delle misure. Questa informazione potrebbe apparire superflua; in effetti sarebbe tale se i dati fossero pochi, diciamo dell’ordine di una decina, in quanto si potrebbero contare velocemente. Se fossero invece qualche centinaio o pi` u, come accade nella maggior parte degli esperimenti, l’operazione di conteggio diventerebbe pi` u difficile e impegnativa. Conoscere il numero di misure effettuate, come gi`a discusso nel capitolo 2, `e indispensabile per i calcoli statistici. Nella seconda, terza e quarta colonna sono riportati i risultati delle misure. Lo strumento utilizzato permette di apprezzare il tempo con un’incertezza di 0.02 secondi. Se si osservano i dati numerici, non si notano differenze n´e rispetto alle tre serie n´e relativamente all’ordine in ogni serie: sembrano ottenuti a caso. Si rileva per` o che alcuni si ripetono pi` u volte di altri. Potremmo allora chiederci quante volte un dato compaia pi` u o meno di un altro, ovvero
3.2 Tabelle
33
Tabella 3.1. Periodo di oscillazione di un pendolo
k
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
T (s) 1.88 1.86 1.88 1.90 1.84 1.88 1.90 1.88 1.86 1.86
T (s) 1.86 1.88 1.88 1.92 1.88 1.90 1.90 1.86 1.88 1.80 1.90 1.94 1.86 1.88 1.90 1.82 1.88 1.86 1.90 1.92
T (s) 1.84 1.92 1.86 1.88 1.90 1.82 1.86 1.92 1.90 1.88 1.88 1.84 1.94 1.90 1.88 1.86 1.90 1.84 1.92 1.86 1.92 1.88 1.90 1.88 1.86 1.88 1.86 1.94 1.88 1.90
studiare come varia la loro frequenza. Per rispondere alla richiesta ricorriamo a un’altra rappresentazione, illustrata in tabella 3.2, in cui indichiamo, nella prima colonna il numero dei raggruppamenti relativi allo stesso valore numerico, i, nella seconda i corrispondenti valori numerici, Ti , nella terza, suddivisa per le tre serie di misure, il numero di volte in cui si `e presentato il risultato, ni , nella quarta, ancora suddivisa per le tre serie, la frequenza, fi , definita dal rapporto tra il numero di volte in cui si `e ottenuto il risultato diviso per il numero totale, n, di misure effettuate. I valori di fi riportati in tabella 3.2 indicano come sono “distribuiti” i dati. Si pu` o facilmente verificare che soddisfano la relazione:
34
3 Presentazione dei dati sperimentali Tabella 3.2. Periodo di oscillazione di un pendolo: distribuzioni dei dati
i Ti (s)
1 2 3 4 5 6 7 8
1.80 1.82 1.84 1.86 1.88 1.90 1.92 1.94
fi fi fi ni ni ni Prima serie Seconda serie Terza serie Prima serie Seconda serie Terza serie 0 1/20 0 0 1 0 0 1/20 1/30 0 1 1 1/10 0 3/30 1 0 3 3/10 4/20 6/30 3 4 6 4/10 6/20 8/30 4 6 8 2/10 5/20 6/30 2 5 6 0 2/20 4/30 0 2 4 0 1/20 2/30 0 1 2
8
fi = 1 .
(3.1)
i=1
Questa importante propriet` a, che nel caso di N intervalli diventa N
fi = 1 ,
(3.2)
i=1
`e nota come “condizione di normalizzazione”. Ora, per rendere pi` u evidente l’andamento delle misure, conviene visualizzare la loro “distribuzione” attraverso la rappresentazione grafica. Per farlo ricorreremo ad un altro strumento: l’istogramma.
3.3 Istogramma a intervalli L’istogramma `e un grafico, costruito in un sistema di assi cartesiani, dove sull’asse delle ascisse si riportano i valori misurati xi di un esperimento mentre sull’asse delle ordinate il numero di volte ni che ogni valore `e stato osservato. Talora, per rendere pi` u evidente la distribuzione dei risultati, si rappresenta sull’asse delle ordinate la frequenza fi invece di ni . Nel nostro caso avremo tre istogrammi, uno per ognuna delle tre serie di misure realizzate, come evidenziato nella figure 3.1, 3.2 e 3.3. Abbiamo scelto di riportare i valori di Ti al centro di un intervallo la cui larghezza tiene conto dell’errore sperimentale. Sopra ogni intervallo, viene disegnato un rettangolo la cui base corrisponde all’incertezza della misura, nel nostro caso pari a 0.02 sec, e la cui altezza `e uguale alla frequenza fi . Ci` o `e dovuto al fatto che, come abbiamo visto, nelle scienze sperimentali i valori derivati dalle misure sono caratterizzati dagli errori sperimentali. Una misura pertanto non `e definita solo da un valore numerico, ma `e caratterizzata
3.3 Istogramma a intervalli
35
0.45 0.4 0.35 0.3 f
0.25 0.2 0.15 0.1 0.05 0 1.78
1.8
1.82
1.84
1.86
1.88
1.9
1.92
1.94
T (s)
Figura 3.1. Istogramma relativo alle misure del periodo di oscillazione di un pendolo semplice. Sono messe in evidenza le frequenze relative in funzione dei valori misurati del periodo T nel caso di 10 misure
da un intervallo di valori che tiene conto dell’incertezza della misura. Anche quest’ultima deve essere rappresenta graficamente. Dall’osservazione degli istogrammi `e possibile dedurre importanti propriet` a. Gli istogrammi rappresentati dalle figure 3.1, 3.2 e 3.3 presentano, nel centro, rettangoli con altezze maggiori; ci`o indica che in quella regione cade il numero pi` u consistente di risultati della misura. Tali altezze diminuiscono poi gradualmente, sia a destra che a sinistra dei rettangoli centrali, fino ad annullarsi. Esiste inoltre una simmetria della distribuzione rispetto ai valori centrali, che diventa sempre pi` u evidente all’aumentare del numero di misure, come si evince confrontando i tre istogrammi nelle figure 3.1 (n = 10), 3.2 (n = 20) e 3.3 (n = 30). In generale, se indichiamo con dxi la larghezza di ogni rettangolo e con fi la sua altezza, l’area `e pari a fi · dxi . Quest’area `e proporzionale alla frazione di misure che cadono nell’intervallo i-esimo. Se le ampiezze degli intervalli sono tutte uguali, dxi = dx, condizione non necessaria ma molto frequente, l’area totale `e data da: N i=1
fi dxi = dx
N i=1
fi = dx ,
(3.3)
1.96
36
3 Presentazione dei dati sperimentali
0.35 0.3 0.25 0.2 f
0.15 0.1 0.05 0 1.78
1.8
1.82
1.84
1.86
1.88
1.9
1.92
1.94
T (s)
Figura 3.2. Istogramma relativo alle misure del periodo di oscillazione di un pendolo semplice. Sono messe in evidenza le frequenze relative in funzione dei valori misurati del periodo T nel caso di 20 misure
dove N `e il numero totale di intervalli. Se, nella costruzione dell’istogramma, si riportano in ordinata i valori delle frequenze fi divisi per le ampiezze degli intervalli dxi , allora l’area totale diventa pari a 1. In tal caso l’area e l’istogramma si dicono normalizzati. ` possibile infine osservare che, all’aumentare del numero n di misure, gli E intervalli di incertezza dxi , calcolati con la deviazione standard, diventano sempre pi` u piccoli e i rettangoli sempre pi` u stretti: l’istogramma assume una forma via via pi` u regolare. La distribuzione delle misure ben approssima una curva continua a forma di campana. Nel caso in cui si fa tendere n all’infinito, tutti i dxi tendono a zero e la curva che si ottiene `e espressa matematicamente da una funzione molto importante nell’analisi statistica dei dati sperimentali, nota come legge di Gauss, che sar`a trattata formalmente nel capitolo 8.
3.4 Grafici La rappresentazione attraverso tabelle e istogrammi fornisce utili informazioni per individuare e comprendere le relazioni tra i dati. Data una serie di misure potremmo chiederci se una grandezza dipende dall’altra e, in caso affermativo, voler stabilire il tipo di relazione. Il modo pi` u semplice e immediato
1.96
3.4 Grafici
37
0.3 0.25 0.2 f
0.15 0.1 0.05 0 1.78
1.8
1.82
1.84
1.86
1.88
1.9
1.92
1.94
T (s)
Figura 3.3. Istogramma relativo alle misure del periodo di oscillazione di un pendolo semplice. Sono messe in evidenza le frequenze relative in funzione dei valori misurati del periodo T nel caso di 30 misure
per indagare la possibile relazione tra due grandezze `e quello di costruire un grafico. Consideriamo un semplice esempio. Tre case di moda intendono studiare l’andamento delle vendite del loro prodotto di punta negli ultimi vent’anni, allo scopo di capire se gli investimenti sostenuti per le innovazioni introdotte e le strategie di marketing sono stati efficaci oppure inutili. I dati relativi al numero di articoli venduti (espressi in milioni di unit` a) e quelli relativi agli investimenti effettuati (espressi in unit` a arbitrarie), sono rappresentati nella figura 3.4 per la prima casa di moda, nella figura 3.5 per la seconda e nella figura 3.6 per la terza. Osservando il primo grafico si intuisce immediatamente che gli investimenti assegnati alle strategie hanno dato buoni frutti; all’aumentare dell’investimento si nota un sostanziale aumento delle vendite. In questo caso esiste una correlazione positiva tra le due grandezze, che appaiono essere anche direttamente proporzionali: all’aumentare dell’una corrisponde un aumento proporzionale dell’altra. La seconda azienda invece, come si rileva immediatamente dal grafico, non ha attuato buone strategie e, nonostante i capitali investiti, ha avuto una diminuzione progressiva delle vendite; anche in questo caso le due grandezze sono correlate, ma in modo negativo: l’aumento di una grandezza corrisponde a una diminuzione dell’altra. Infine i punti che si osservano nel terzo grafico sembrano disposti quasi a caso. Non si riesce a
1.96
38
3 Presentazione dei dati sperimentali
•
25
•
• •
20 •
15
•
M.u.
•
10 •
5
•
•
•
•
•
•
•
•
•
•
•
0
20
18
16
14
12
10
8
6
4
2
0
i (unit` a arbitrarie)
Figura 3.4. Milioni di unit` a vendute M.u. in funzione degli investimenti effettuati i nel corso di vent’anni. All’aumentare degli investimenti, la merce venduta aumenta
25
20 •
• •
15
• •
M.u.
•
• •
•
10
•
•
• •
• •
5
•
• • •
0
0
2
4
6
8
10
12
14
16
18
a arbitrarie) i (unit` Figura 3.5. Milioni di unit` a vendute M.u. in funzione degli investimenti effettuati i nel corso di vent’anni. All’aumentare degli investimenti, la merce venduta diminuisce
20
3.5 Grafici lineari
39
25 •
20
•
•
•
• •
•
15 M.u.
•
•
•
• •
10
•
•
• •
5
•
• •
0
0
2
4
6
8
10
12
14
16
18
i (unit` a arbitrarie)
Figura 3.6. Milioni di unit` a vendute M.u. in funzione degli investimenti effettuati i nel corso di vent’anni. Non si rileva alcuna correlazione tra le due grandezze: i punti sono distribuiti sul grafico in maniera quasi casuale
stabilire se gli investimenti abbiano o meno portato beneficio: le vendite a volte aumentano e a volte diminuiscono, in modo apparentemente del tutto casuale. In questo caso non `e possibile stabilire una correlazione tra le due grandezze, che si dicono indipendenti. I grafici consentono di analizzare insiemi di dati, di confrontare tra loro diverse grandezze e di stabilire l’eventuale correlazione (se esiste).
3.5 Grafici lineari Abbiamo appena mostrato che, quando si cerca di stabilire una correlazione tra due grandezze, `e comodo avvalersi dei grafici. Come si disegna un grafico a partire da una serie di dati? La prima cosa da fare `e ovviamente quella di disegnare gli assi cartesiani di riferimento; poi si assegna all’asse delle ascisse una grandezza X, a cui si far` a corrispondere la variabile indipendente x ed all’asse delle ordinate una grandezza Y , a cui si far` a corrispondere la variabile y. Alle estremit`a degli assi vanno indicati i nomi delle variabili, per esteso (massa) o con un simbolo (m), seguiti dalle corrispondenti unit` a di misura, indicate tra parentesi, (g). Molto importante `e la scelta della scala, che determina la chiarezza della rappresentazione e favorisce la lettura del grafico. Ci` o significa che sugli assi vengono individuati dei segmenti in corrispondenza dei
20
40
3 Presentazione dei dati sperimentali
quali si assegnano dei numeri ad essi proporzionali. Se indichiamo con s x e sy i valori di scala riferiti all’asse x ed all’asse y rispettivamente, con ux e a di misura rispettivamente degli assi x uy i segmenti corrispondenti alle unit` e y, i primi sono espressi in unit` a di misura di lunghezza, mentre i secondi nelle unit` a di misura delle grandezze riportate. La scala non deve essere neo essere diverso da sy ), ma cessariamente uguale per le due variabili (sx pu` deve tener conto dell’intervallo di variabilit` a delle stesse, in modo che i punti non risultino n´e troppo allargati n´e troppo vicini. Sugli assi di ogni grafico vanno indicate le suddivisioni della scala, su cui si riportano soltanto i valori numerici pi` u significativi, mentre non si scrivono i valori sperimentali. Eseguite queste operazioni preliminari `e possibile ora procedere alla rappresentazione dei dati sul grafico. Supponiamo di aver effettuato n misure di due grandezze fisiche, X e Y , e di aver raccolto i valori (xi , yi ) in una tabella, con i corrispondenti errori assoluti dxi e dyi . Ogni punto sperimentale sar` a identificato da coppie di numeri del tipo (xi ± dxi , yi ± dyi ). Questi valori, riportati sul piano cartesiano, individuano univocamente un rettangolo, il cui centro `e dato dal punto di coordinate (xi ,yi ). I lati del rettangolo, che corrispondono alle barre d’errore, misurano rispettivamente 2dxi e 2dyi . Ovviamente pu` o verificarsi il caso in cui le indeterminazioni delle misure siano cos`ı piccole che, nella rappresentazione grafica, la definizione delle barre d’errore rientri nella risoluzione grafica e il rettangolo degeneri in un punto. La risoluzione grafica rg `e dell’ordine di mezzo millimetro: rg = 0.5 mm. Come si pu`o sapere se il valore dell’indeterminazione della misura eseguita `e superiore o inferiore al valore “critico” di definizione grafica? Se la suddivia di misura a ux , il valore dell’errore sione di scala corrisponde a sx e l’unit` assoluto di X, x , `e dato, come limite grafico, dalla proporzione:
x ux . = rg sx
Pertanto x = rg
ux . sx
(3.4)
(3.5)
Ci` o significa che, se nella misura di una corrente, ad esempio, la scala scelta corrisponde a 10 mm, e l’unit`a di misura `e di 1 mA, l’indeterminazione `e rappresentabile solo se `e maggiore o uguale a 0.05 mA; se `e pi` u piccola rientra nella risoluzione grafica. Quindi, la precisione grafica dipende anche dalla scelta della scala. Non bisogna dimenticare che ogni grafico va accompagnato da un sintetico ma esauriente commento didascalico, che raccolga le informazioni essenziali, utili alla completa comprensione dei dati rappresentati. Un ultimo suggerimento. Non `e necessario attendere la conclusione dell’esperimento per riportare i valori sul grafico; questo pu` o essere infatti costruito durante le operazioni di misura, riportando i dati non appena sono acquisiti. Ci` o pu` o essere utile per ottenere indicazioni preliminari sull’andamento dell’e-
3.6 Retta di regressione
41
sperimento, per scoprire la presenza di eventuali errori sistematici, per avere un’idea dell’intervallo di variabilit` a delle grandezze oggetto della misura. Vediamo un esempio di grafico lineare. Vogliamo studiare la dilatazione elastica di un corpo e stabilire la corrispondenza tra l’allungamento ∆l del corpo e la forza F applicata. Utilizziamo un elastico sospeso a un supporto verticale, sottoposto alla forza peso F = µg 2 a). Si di diverse masse µ applicate (g = 9.8 m/s `e l’accelerazione di gravit` osserva che, all’aumentare della forza applicata, aumenta anche la deformazione del corpo. I dati relativi all’esperimento sono riportati nella tabella 3.3.
Tabella 3.3. Dilatazione elastica di un corpo in funzione della forza applicata
k
1 2 3 4 5 6 7 8
µ (g) 100 ± 2 200 ± 2 300 ± 2 400 ± 2 500 ± 2 600 ± 2 700 ± 2 800 ± 2
∆l (cm) 1.0 ± 0.2 1.9 ± 0.2 3.0 ± 0.2 4.1 ± 0.2 4.9 ± 0.2 6.3 ± 0.2 7.6 ± 0.2 8.5 ± 0.2
∆l/µ (cm/g) 10.0 · 10−3 9.5 · 10−3 10.0 · 10−3 10.2 · 10−3 9.8 · 10−3 10.5 · 10−3 10.8 · 10−3 10.6 · 10−3
Si nota che i valori del rapporto tra l’allungamento subito dal corpo e la massa applicata, riportati nella quarta colonna, sono pressoch´e costanti e suggeriscono una proporzionalit` a diretta tra ∆l e µ, esprimibile mediante la relazione ∆l = K µ, dove con K abbiamo indicato la costante di proporzionalit` a. Riportiamo in figura 3.7 i valori di ∆l in funzione di µ. La correlazione positiva dei punti sperimentali conferma la proporzionalit` a diretta tra le due grandezze riportate.
3.6 Retta di regressione L’esempio riportato nella sezione precedente ci ha permesso di disegnare il grafico che mette in relazione l’allungamento di un corpo elastico con le masse ad esso sospese: si tratta di un caso di proporzionalit` a diretta tra le due grandezze. In casi come questo (di dipendenza lineare tra due grandezze fisiche) si pu` o utilizzare, nelle fasi preliminari dell’esperimento, una procedura molto semplice e abbastanza precisa nonostante la sua natura empirica. Tale procedura permette di ottenere il valore della costante di proporzionalit` a K per via grafica. In realt` a oggi essa non `e molto utilizzata nei laboratori. Si tratta,
42
3 Presentazione dei dati sperimentali
9
8
7
6 ∆ l (cm)
5
4
3
2
1 0
0
100
200
300
400
500
600
700
800
µ (g)
Figura 3.7. Allungamento di un corpo elastico in funzione della massa applicata. Le barre d’errore sono evidenti solo per le misure dell’allungamento mentre gli errori corrispondenti alla massa rientrano nella risoluzione grafica
infatti, di un metodo non molto raffinato dal punto di vista matematico, il cui uso `e generalmente sconsigliato se non durante le prime fasi dell’esperienza, qualora si desideri farsi un’idea grossolana dell’andamento delle grandezze che si stanno investigando. Nel capitolo 10 verr` a presentata una procedura di calcolo molto pi` u sofisticata che consente di ricavare analiticamente, in modo altrettanto semplice ma assai pi` u rigoroso, i valori migliori per i parametri che individuano la curva che meglio approssima i dati sperimentali. In questo capitolo ci limiteremo a descrivere brevemente il metodo grafico. Supponiamo che il grafico, ottenuto riportando i risultati delle misure, sia tale da farci ritenere che esista una relazione lineare tra le due grandezze rappresentate (come nel caso di figura 3.7). Si disegnino allora due rette, una con la massima inclinazione possibile, l’altra con la minima inclinazione, passanti per tutti i “rettangoli” riportati in corrispondenza dei punti sperimentali (xi ± dxi , yi ± dyi ) (o, almeno, per la maggior parte degli stessi). Queste due rette “estreme”, che sono dette di massima e minima pendenza, avranno equazione: (3.6) y = mmax x + qmin , e y = mmin x + qmax .
(3.7)
3.6 Retta di regressione
43
Con mmax e mmin si sono indicati i valori dei coefficienti angolari delle due rette, di massima e minima pendenza, che corrispondono ai coefficienti di proporzionalit` a tra X e Y , e con qmin e qmax le relative intercette con l’asse delle ordinate. Con i due valori del coefficiente angolare `e possibile stimare il suo valore migliore m calcolandone la media:
m = (mmax + mmin )/2 ,
(3.8)
che `e affetta da un errore assoluto esprimibile mediante la semidispersione: m = (mmax − mmin )/2 .
(3.9)
` possibile dunque stimare il valore della costante di proporzionalit` E a come: m = m ± m .
(3.10)
Analogamente si pu` o procedere per valutare la migliore intercetta:
q = (qmax + qmin )/2 ,
(3.11)
q = (qmax − qmin )/2 ,
(3.12)
q = q ± q .
(3.13)
Attraverso il metodo di interpolazione grafica `e possibile perci`o stabilire l’espressione matematica della proporzionalit` a diretta che interessa le due grandezze X e Y , e calcolare il valore della costante di proporzionalit` a m, che generalmente ha un significato fisico importante. Dal grafico `e possibile anche ricavare il valore numerico di una delle due grandezze a partire dalla conoscenza dell’altra attraverso l’interpolazione lineare. Questo metodo ci consente di dedurre valori non misurati da altri ottenuti sperimentalmente. Avremmo potuto chiederci, ad esempio, quale sarebbe stato l’allungamento corrispondente a una massa pari a 250 g e dedurne il valore dall’equazione della retta ricavata con il metodo appena descritto, oppure utilizzando direttamente il grafico. Come, in quest’ultimo caso? Supponendo che la corrispondenza abbia un andamento lineare, supponiamo di dover determinare i valori di Y corrispondenti ai valori xi ± dxi , di X. Per questo, si tracciano sul grafico due rette, passanti per i punti sperimentali, parallele o convergenti, in modo che l’area della regione compresa tra queste due rette sia massima e che l’eventuale punto di intersezione sia esterno a su una delle due all’intervallo considerato. All’ascissa xi − dxi corrisponder` a rette un valore di Y , diciamo yi , mentre all’ascissa xi + dxi corrisponder` sull’altra retta un altro valore di y, che indichiamo con yj . Il segmento di o variare la grandezza lunghezza |yj − yi | individua l’intervallo entro cui pu`
44
3 Presentazione dei dati sperimentali
` poi Y calcolata graficamente in funzione del corrispondente valore di X. E possibile calcolare la media (yj + yi )/2 e la semidispersione (yj − yi )/2 per ottenere, rispettivamente, il valore pi` u attendibile e l’errore assoluto ad esso associato. Grafici di questo tipo vengono detti di taratura. Fino a che punto il grafico di taratura pu` o essere usato per ampliare le nostre conoscenze al di fuori dell’ambito strettamente sperimentale? In generale non `e considerato con favore l’utilizzo dell’estrapolazione al di fuori del dominio sperimentale. Se al nostro corpo elastico appendessimo una massa di 50 kg, avrebbe senso calcolare l’allungamento corrispondente, estendendo la validit` a del modello lineare sino a valori tanto elevati della variabile indipendente? Si tratterebbe di un uso illecito dell’estrapolazione lineare e la risposta alla domanda `e, ovviamente, negativa. In tal caso, infatti, il corpo, sottoposto a una sollecitazione eccessiva, perderebbe le sue caratteristiche elastiche e risponderebbe con un allungamento non pi` u proporzionale alla massa; il grafico risultante si discosterebbe dalla linearit` a e la tecnica della taratura grafica non risulterebbe pi` u applicabile. In generale, e indipendentemente dal metodo usato (grafico o analitico che sia), la procedura di estrapolazione lineare dei dati al di fuori del dominio in cui si sono effettivamente eseguite le misure `e fortemente scoraggiata perch´e, come discusso nel caso dell’allungamento del corpo elastico, pu` o condurre a conclusioni completamente sbagliate.
3.7 Linearizzazione con trasformazione di variabili Una delle esperienze classiche nei corsi di fisica sperimentale `e quella dello studio del moto in caduta libera di un corpo: lo scopo `e quello di verificare la legge che descrive il moto rettilineo uniformemente accelerato. Supponiamo di aver misurato gli spazi h percorsi da una piccola sfera in caduta libera in funzione del tempo t impiegato a percorrerli e di aver realizzato l’esperienza in condizioni ideali, trascurando attriti e dimensioni della sfera. I risultati delle misure sono riportati in tabella 3.4. Riportiamo sul diagramma cartesiano in figura 3.8 i dati relativi ai diversi valori di altezza in funzione del tempo. Gli errori sono piccoli e rientrano nella risoluzione grafica. Dall’osservazione del grafico `e evidente che le due grandezze hanno una correlazione positiva, ma `e anche altrettanto evidente che esse non sono proporzionali. Infatti, se tentiamo di tracciare una retta che si adatti al meglio ai punti sperimentali, notiamo che alcuni punti non stanno sulla retta e l’interpolazione risulta abbastanza approssimativa. Ci` o significa che la dipendenza tra h e t non `e lineare. Infatti i valori delle altezze crescono pi` u rapidamente dei tempi; tale affermazione `e provata dai valori dei rapporti tra h e t calcolati e riportati nella quarta colonna della tabella che, come si pu` o ben vedere, aumentano significativamente al crescere dell’altezza. I rapporti tra h e t2 riportati nella sesta colonna sono invece pressoch´e costanti e suggeriscono una
3.7 Linearizzazione con trasformazione di variabili
45
Tabella 3.4. Moto di un corpo in caduta libera
k
1 2 3 4 5 6 7 8
h (m) 0.10 0.20 0.50 1.00 1.25 1.50 1.75 2.00
h/t2 t2 h/t t 2 (s) (m/s) (s ) (m/s2 ) 0.14 0.71 0.02 5.00 0.20 1.00 0.04 5.00 0.32 1.56 0.10 5.00 0.45 2.22 0.20 5.00 0.50 2.50 0.25 5.00 0.55 2.73 0.31 4.84 0.60 2.92 0.36 4.86 0.64 3.12 0.41 4.88
2.5 •
2 • •
1.5 h (m)
• •
1 •
0.5 •
0
0
0.1
•
0.2
0.4
0.3
0.5
0.6
t (s)
Figura 3.8. Spazi h percorsi da una sfera in caduta libera in funzione del tempo t impiegato a percorrerli. I dati sperimentali (•) sono messi a confronto con la ben nota legge che descrive la caduta di un grave h = 12 g t2 (linea continua), dove a g = 9.8 m/s2 `e l’accelerazione di gravit`
proporzionalit` a diretta tra h e t2 . Riportando su un altro grafico (figura 3.9) i valori di h in funzione di t2 , si nota che i punti questa volta sono molto ben allineati, confermando la linearit` a tra le due grandezze riportate. Possiamo quindi affermare che c’`e una proporzionalit` a diretta tra h e t2 . La costruzione del grafico di h in funzione di t2 `e un esempio di linearizzazione di una curva. Quali sono i vantaggi di costruire un grafico lineare? Dedurre da un grafico lineare i parametri di proporzionalit` a diretta, che
0.7
46
3 Presentazione dei dati sperimentali
2.5 •
2 • •
1.5 h (m)
• •
1 •
0.5 •
0
0
•
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
t2 (s2 )
Figura 3.9. Spazi percorsi da una sfera in caduta libera in funzione del quadrato del tempo impiegato a percorrerli. I dati sperimentali (•) sono messi a confronto con la ben nota legge che descrive la caduta di un grave h = 12 g t2 (linea continua), a dove g = 9.8 m/s2 `e l’accelerazione di gravit`
rappresentano i coefficienti a e b di una funzione di primo grado del tipo: y = ax + b, `e un’operazione semplice e immediata, come gi`a abbiamo visto nella sezione 3.6. Non altrettanto facile sarebbe la determinazione diretta, attraverso l’analisi grafica, del parametro a in funzioni di secondo grado o superiore del tipo y = ax2 , y = ax3 , e cos`ı via. Ci` o che conviene fare, `e operare una opportuna trasformazione di variabili, sostituendo la variabile x con x2 , o con x3 , e cos`ı via, finch´e si riesce ad individuare una corrispondenza lineare. Lo stesso ragionamento `e applicabile a corrispondenze negative, di primo grado e superiori. Riportando su un diagramma cartesiano la grandezza y in funzione di x si otterr` a, in questo caso, una curva che `e conveniente cercare di linearizzare procedendo per gradi, valutando cio`e l’andamento di y prima in funzione di 1/x, poi di 1/x2 e cos`ı via, finch´e non si trova una corrispondenza lineare. Le variabili trasformate sono variabili ausiliarie e nel formulare la legge che descrive il fenomeno studiato si deve tener conto di questo aspetto. Perci`o l’equazione deve essere scritta per mezzo delle variabili che rappresentano le grandezze fisiche effettivamente misurate e non di quelle utilizzate come variabili ausiliarie. Inoltre la trasformazione delle variabili comporta anche una trasformazione delle indeterminazioni corrispondenti. Le barre d’errore
0.45
3.8 Grafici in scala non lineare
47
riportate sul grafico di partenza saranno in generale diverse da quelle che appariranno sul grafico trasformato, e dovranno essere calcolate per mezzo della legge di propagazione degli errori.
3.8 Grafici in scala non lineare Abbiamo visto nel paragrafo precedente come la linearizzazione di curve non lineari attraverso la trasformazione di variabili consenta di desumere graficamente il tipo di correlazione tra le diverse grandezze fisiche e di definire l’equazione che ne descrive la dipendenza. Non sempre per`o tale metodo risulta efficace. Consideriamo il seguente esempio. Supponiamo di dover determinare la relazione tra la tensione V ai capi di un condensatore e il tempo t impiegato dallo stesso per scaricarsi al fine di ricavare graficamente la costante di tempo τ del condensatore. Riportando i dati su un grafico in scala lineare, si ottiene una correlazione tra le due variabili che non `e lineare. I tentativi di trovare per via algebrica una trasformazione di coordinate che produca una linearizzazione della curva si rivelano vani. Non esiste nessuna funzione algebrica che descriva la curva ottenuta interpolando i dati sperimentali. Infatti, come sappiamo, la legge di scarica di un condensatore `e espressa da una funzione trascendente di equazione: V (t) = V0 e−t/τ ,
(3.14)
dove V0 `e la differenza di potenziale iniziale (t = 0) e τ rappresenta la costante di tempo. Per tentare di linearizzarla possiamo esprimerla in forma logaritmica, nel modo seguente: log V = −
t + log V0 . τ
(3.15)
Se ora si riporta sull’asse delle ascisse il tempo t e sull’asse delle ordinate il logaritmo della tensione log V , si ottiene una retta il cui coefficiente angolare corrisponde all’opposto del reciproco della costante di tempo cercata. La trasformazione di coordinate in questo caso richiede la sostituzione di una variabile con il suo logaritmo. In linea di principio `e possibile calcolare il logaritmo per tutti i dati rilevati, per poi trasferire questi valori su una scala lineare; ma tale procedura non `e conveniente. Poich´e molti fenomeni naturali sono stati studiati e interpretati attraverso leggi la cui espressione matematica `e data da funzioni esponenziali e da funzioni del tipo yxn = k (dove n e k sono due costanti) che si linearizzano mediante il calcolo dei logaritmi (log y + n log x = log k), si preferisce utilizzare carte gi`a predisposte in scala logaritmica. In questo caso, quindi, invece di procedere alla trasformazione di variabili, si modifica la scala del grafico, che da lineare diventa logaritmica. Cos`ı si possono avere carte con sistemi di riferimento con una scala lineare e l’altra logaritmica,
48
3 Presentazione dei dati sperimentali
chiamate carte semi-logaritmiche, oppure con entrambe le scale logaritmiche, dette carte logaritmiche. La scala logaritmica `e evidentemente una scala funzionale, in cui i segmenti indicati dalla suddivisione sull’asse sono proporzionali ai corrispondenti valori assunti dalla funzione logaritmica. Su queste carte, ovviamente, vanno riportati direttamente i valori della misura cos`ı come sono stati ottenuti. La scelta della base del logaritmo non condiziona la suddivisione di scala e non `e rilevante ai fini grafici. Normalmente, tuttavia, nel trattamento delle misure sperimentali, che sono espresse nel sistema decimale, si preferisce utilizzare i logaritmi in base 10. In questo caso, se indichiamo con sL la scala logaritmica, la corrispondente scala lineare sl `e data da sl = log10 sL . Perci`o, al valore 1 indicato sulla scala logaritmica, sL = 1, corrisponde un segmento nullo in scala lineare, sl = 0; al valore 2, sL = 2, corrisponde un segmento in scala lineare pari sl = log10 2 ≈ 0.301, e cos`ı via. La linearizzazione di una funzione del tipo: y = 10(ax+b) , dove a e b sono costanti da determinare, `e immediata su una scala semilogaritmica in cui l’asse delle ascisse `e lineare mentre l’asse delle ordinate `e logaritmico. Applicando i logaritmi a entrambi i membri dell’equazione, infatti, otteniamo: log10 y = ax + b .
(3.16)
Se invece la funzione `e data da y = axb , applicando ancora i logaritmi a entrambi i membri, si ottiene log10 y = log10 a + b log10 x .
(3.17)
L’utilizzo di scale logaritmiche consente di rappresentare sullo stesso grafico numeri che variano anche per diversi ordini di grandezza. Poich´e la funzione logaritmica `e definita per valori positivi, non si possono utilizzare grafici in scala logaritmica se la grandezza oggetto della misura assume valori negativi. Notiamo infine che, poich´e il logaritmo del prodotto di due numeri `e uguale alla somma dei logaritmi dei due numeri, moltiplicare o dividere i dati sperimentali per una costante corrisponde, graficamente, a traslare i valori corrispondenti di una quantit` a pari al logaritmo della costante.
3.9 Coefficienti di correlazione Una volta riportati i dati sperimentali con le corrispondenti barre di errore su un grafico e tracciata la retta di regressione che meglio approssima i valori, come possiamo stabilire la bont`a di questo adattamento? E nel caso in cui le incertezze sperimentali siano comprese nella risoluzione grafica e i punti corrispondenti alle misure sperimentali non siano perfettamente allineati, come possiamo sapere se la curva tracciata `e quella che approssima nel modo migliore i dati sperimentali?
3.10 Curve sperimentali e curve teoriche
49
Il metodo empirico della retta tracciata “a mano” che meglio approssia. Per stabilire ma i dati (xi , yi ) `e soggetto a un certo grado di arbitrariet` la bont` a dell’approssimazione `e necessario stimare quanto le singole misure si avvicinino alla relazione lineare. Tale valutazione consiste nel calcolare il “coefficiente di correlazione” r, un numero puro compreso tra -1 e +1 di cui forniremo, nel capitolo 10, l’espressione analitica [si veda l’equazione (10.44)]. Il valore di r indica quanto l’ipotesi di correlazione lineare sia ragionevolmente accettabile. In particolare, tanto pi` u il valore del coefficiente di correlazione assume valori prossimi a -1 o a +1, tanto pi` u l’adattamento `e buono. Se invece il valore di r `e prossimo allo 0, non esiste o `e molto azzardata l’ipotesi di una correlazione lineare. Ci` o non significa che non vi sia correlazione tra le due variabili x e y, ma esse potrebbero essere legate da una relazione di diverso tipo. Nel caso di correlazione non lineare, si pu` o ricorrere, come abbiamo illustrato nella sezione 3.7, alla linearizzazione della curva e procedere poi a stimare la bont`a dell’adattamento lineare attraverso il calcolo del coefficiente di correlazione lineare. Un altro metodo che valuta la bont` a dell’adattamento, lineare o no, consiste nel calcolare quanto i singoli valori dei dati sperimentali differiscano dai corrispondenti valori teorici dedotti dall’interpolazione: pi` u la curva `e vicina a tutti i punti sperimentali, migliore sar` a l’adattamento.
3.10 Curve sperimentali e curve teoriche Dopo aver realizzato le prime esperienze di laboratorio `e facile rendersi conto che, in generale, `e impossibile trovare una singola funzione analitica che, sulla base dei dati sperimentali, esprima un’unica correlazione tra due grandezze. Ci`o `e dovuto al fatto che le misure sono affette da una indeterminazione sperimentale che non `e possibile eliminare. Inoltre, il numero delle misure rappresentate graficamente dai punti sperimentali `e sempre un insieme finito; quindi, in linea di principio, possono esistere infinite funzioni che “passano” per i punti che rappresentano i dati sperimentali. In generale, perci` o, non `e possibile, partendo dai dati sperimentali, determinare univocamente l’espressione e la forma della funzione y = f (x) che lega le due grandezze studiate. Dopo aver riportato i dati su un grafico, come possiamo procedere per determinare la migliore espressione della correlazione che lega le due grandezze? Un modo `e quello di stabilire a priori la forma della funzione y = f (x) ed il numero dei parametri liberi (uno per una retta passante per l’origine, due per una retta generica, tre o pi` u per funzioni polinomiali, e cos`ı via), variando poi il valore di questi parametri fino a trovare la migliore corrispondenza tra i punti sperimentali e la curva che li approssima. L’ottimizzazione di questa approssimazione, detta “migliore interpolazione”, pu` o essere realizzata, se la curva `e semplice e i dati non sono molti, per via grafica e attraverso semplici calcoli oppure avvalendosi di opportuni programmi di calcolo automatico.
50
3 Presentazione dei dati sperimentali
La corretta interpretazione analitica dei risultati di un esperimento, espressa graficamente come migliore interpolazione dei dati, deve essere consistente con le previsioni teoriche. Ad esempio, uno studente che sta verificando la legge di Hooke conosce a priori la legge, la sua espressione analitica ed il parametro che definisce la costante di allungamento della molla. Pertanto `e in grado di disegnare perfettamente la retta che rappresenta la curva teorica, anche senza realizzare l’esperienza. Ma dopo aver realizzato l’esperimento, sar` a in possesso di una serie di dati sperimentali che, una volta riportati su un grafico, mostreranno un andamento lineare. Se l’esperimento `e stato realizzato in modo corretto, riducendo quanto pi` u possibile gli errori, i risultati ottenuti sperimentalmente dovranno avvicinarsi molto ai numeri derivati teoricamente. Ci si aspetta che, entro l’errore sperimentale, il valore teorico e quello determinato sperimentalmente coincidano. Si procede in modo analogo quando non si conosce a priori la legge che regola il fenomeno. Possono essere proposte una o pi` u teorie, espresse analiticamente attraverso espressioni matematiche pi` u o meno semplici, che devono essere verificate per mezzo di esperimenti. Il confronto tra le curve di interpolazione dei dati sperimentali e le previsioni `e determinante per verificare la correttezza delle teorie scientifiche proposte dai ricercatori al fine di interpretare i fenomeni fisici.
3.11 Dalla relazione didattica all’articolo scientifico 3.11.1 La relazione didattica Terminata l’esercitazione di laboratorio, raccolti i dati, elaborati e tratte le opportune conclusioni, si procede alla presentazione di tutto il lavoro svol` sufficiente seguire semplici to attraverso una “relazione dell’esperimento”. E istruzioni, riportate qui di seguito in maniera schematica, per scrivere in modo corretto una relazione didattica che, come vedremo, poco si discosta dallo stile degli articoli scientifici. Scopo dell’esperimento In modo sintetico si scrive qual `e la finalit` a dell’esperimento, quali sono le grandezze da determinare, quali sono le leggi da verificare, qual `e il fenomeno da studiare, da descrivere e interpretare. Ad esempio, nel caso dello studio della deformazione di un corpo elastico, lo scopo dell’esperimento potrebbe essere quello di studiare da un punto di vista qualitativo il fenomeno, di stabilire quali grandezze fisiche sono tra loro dipendenti e, in particolare, di determinare il tipo di corrispondenza tra l’allungamento del corpo e la forza ad esso applicata.
3.11 Dalla relazione didattica all’articolo scientifico
51
Introduzione Nel caso di esperienze didattiche i fenomeni fisici che si analizzano sono solitamente ben noti e le leggi fisiche che li descrivono ben conosciute; `e pertanto facile reperire informazioni utili di carattere teorico, puntualizzare le tappe storiche fondamentali che hanno condotto a tali risultati, presentare e discutere da un punto di vista matematico le formule che si andranno a verificare o a “riscoprire”. Con riferimento all’esempio considerato, questa sezione potrebbe contenere la descrizione della derivazione della legge di Hooke da un punto di vista matematico, l’osservazione qualitativa del diverso comportamento elastico dei corpi e le conseguenze da un punto di vista applicativo della loro differente elasticit`a. Descrizione dell’apparato sperimentale In questa sezione viene descritto, in maniera schematica e anche con l’ausilio della grafica, l’apparato sperimentale utilizzato. Pu` o trattarsi di un apparato semplice o molto complesso, costituito da una serie di apparecchiature e strumenti. In questo caso lo sperimentatore valuter` a se sia sufficiente una descrizione a blocchi piuttosto che una rappresentazione dettagliata. Materiali e strumenti Vanno elencati con ordine e precisione tutti i materiali utilizzati di cui vanno specificati il tipo, la ditta fornitrice, le quantit` a usate, gli accessori. Vanno descritti gli strumenti di misura riportando le loro caratteristiche principali. Metodo di misura Una scelta adatta ed una chiara definizione della metodologia operativa da seguire durante l’esperimento possono risultare determinanti per una corretta rilevazione dei risultati. In questa fase infatti si possono introdurre errori di tipo sistematico, difficili poi da identificare, che possono condizionare il risultato. L’acquisizione dei dati pu` o essere di tipo manuale, se essi non sono molti e se l’operazione non implica particolari impedimenti in termini di difficolt`a oggettive o di sicurezza; altrimenti si opter` a per un’acquisizione automatica attraverso un collegamento diretto con il calcolatore, che consentir` a cos`ı anche la successiva elaborazione statistica. In questa sezione vengono descritti dettagliatamente il metodo di misura applicato e le strategie adottate per ottimizzare lo svolgimento del lavoro, per economizzare le risorse e per migliorare, se possibile, le prestazioni. Accorgimenti apparentemente banali, come quello di segnare il punto di partenza e di arrivo di un’oscillazione, possono rivelarsi molto utili ai fini pratici.
52
3 Presentazione dei dati sperimentali
Presentazione dei risultati La fase di raccolta dei dati pu` o essere lunga e laboriosa e la loro rappresentazione tutt’altro che semplice. La scelta dello strumento pi` u idoneo `e a discrezione dello sperimentatore che, a seconda di ci` o che intende dimostrare, utilizzer` a tabelle, istogrammi e grafici. Se i dati sono molti, non conviene riportare tutte le tabelle. Le corrispondenze tra le diverse grandezze risultano pi` u evidenti e la determinazione di coefficienti di proporzionalit` a pi` u veloce se i dati sono riportati in grafici cartesiani. In questa parte vengono dunque trascritti e riportati i dati numerici scaturiti dalle misurazioni, nella forma pi` u consona al tipo di esperimento. Discussione e conclusioni Questa parte raccoglie le considerazioni derivate dall’analisi dei dati, la definizione degli errori di misura, le possibili dipendenze tra le grandezze. Queste valutazioni possono portare a delle conclusioni in merito al successo o insuccesso della prova sperimentale, a una analisi dei possibili errori commessi, degli eventuali accorgimenti da adottare e ai suggerimenti per eventuali ulteriori approfondimenti. 3.11.2 L’articolo scientifico Dalla stesura di relazioni su esperienze di laboratorio alla redazione di articoli, il passo `e breve: se le prime sono caratterizzate da un taglio prevalentemente didattico, i secondi rappresentano la loro forma pi` u evoluta. L’articolo `e scritto in lingua inglese e inizia con un “Abstract” (Riassunto) in cui viene sintetizzato il contenuto; vengono riportate alcune “Key Words” (Parole chiave) che vengono spesso riprese nel testo e riguardano materiale, procedure o caratteristiche dell’esperimento. Nella sezione “Materials and Methods” (Materiali e metodi) vengono riportati in modo preciso i materiali utilizzati (tipo, eventuale fornitura da altri laboratori di ricerca, propriet` a, e cos`ı via) e le metodologie adottate sia nella preparazione dei materiali sia nelle varie fasi dell’esperimento. Nel paragrafo “Results and Discussion” (Risultati e discussione), i risultati sono riportati in modo sintetico, generalmente atu corposa dell’artraverso grafici riassuntivi. Questa `e sicuramente la parte pi` ticolo, in cui vengono presentate e discusse le ipotesi proposte dal ricercatore sulla base dei risultati ottenuti, attraverso modelli interpretativi originali o a seguito di confronto con altri risultati gi` a ottenuti. L’articolo finisce con una breve sezione intitolata “Conclusion” (Conclusione) che riassume i risultati ottenuti. Normalmente seguono gli “Acknowledgements” (Ringraziamenti) verso enti che hanno contribuito finanziariamente o verso persone che hanno fornito suggerimenti. Infine si trova una lista di “References” (Riferimenti bibliografici): si tratta di un elenco di riferimenti ad articoli e testi aventi per oggetto lo stesso argomento dell’articolo.
3.11 Dalla relazione didattica all’articolo scientifico
53
Una volta scritto, l’articolo viene inviato a una rivista specializzata per la pubblicazione. La scienza ha i suoi canali di informazione basati su regole severissime e su rigorosi protocolli. Quando un articolo arriva all’ufficio editoriale di una rivista scientifica, il direttore lo trasmette a specialisti del settore molto ben informati e profondi conoscitori dell’argomento trattato (referee). A questi spetta il compito di valutare la fondatezza, la credibilit` a, la coerenza, l’importanza ed il contenuto innovativo dei risultati conseguiti. Per non condizionare il loro giudizio, che deve essere oggettivo e imparziale, l’autore non conosce i referee e mantiene i rapporti e le comunicazioni solo con il direttore della rivista e con gli uffici di redazione. Se la valutazione espressa `e positiva, l’articolo viene accettato e pubblicato: a questo punto tutta la comunit` a scientifica viene messa a conoscenza del lavoro svolto durante la ricerca. Ora l’esperimento pu` o essere ripetuto in pi` u laboratori e sottoposto a rigide prove di verifica, a conferma dei risultati conseguiti.
4 Strumenti di misura
Nel primo capitolo `e stato illustrato il significato della parola misurare. Misurare consiste, come abbiamo visto, nell’effettuare un confronto tra la grandezza oggetto della misura e una campione, assunta come unit` a di misura. In molti casi tuttavia l’operazione di misura non si realizza per confronto diretto con la grandezza campione, in quanto tale procedura pu` o rivelarsi molto complicata e di difficile attuazione. Si ricorre allora agli strumenti di misura: opportuni dispositivi in grado di effettuare le operazioni di misura. Attraverso il confronto tra la grandezza in esame e la corrispondente unit` a di misura, essi forniscono direttamente il risultato della misura.
4.1 Gli strumenti L’utilizzo di strumenti di misura fa parte della quotidianit` a nella pratica di laboratorio. A strumenti elementari e di semplice uso, quali il regolo o il cronometro, si affiancano strumenti pi` u complicati e sofisticati che l’evoluzione della tecnologia e dell’elettronica ha permesso di costruire. E, in tutti i casi, `e indispensabile che, prima di iniziare qualsiasi misura, lo sperimentatore sia a conoscenza delle caratteristiche, delle prestazioni e dei limiti degli strumenti che si appresta ad utilizzare; spesso si rende necessario uno studio vero e proprio dello strumento, corroborato da test, che non pu` o prescindere, come vedremo, da un’attenta lettura del manuale d’utilizzo. Molti strumenti in uso nei laboratori di ricerca e in quelli predisposti alle esercitazioni didattiche, presentano una struttura funzionale comune che viene descritta in questa sezione. Ci` o premesso, presentiamo uno schema generale che descrive le componenti principali degli strumenti di misura. Negli strumenti di misura si possono individuare tre parti costitutive principali: l’elemento rivelatore, il trasduttore ed il dispositivo di visualizzazione. L’elemento rivelatore `e rappresentato da un dispositivo sensibile alla grandezza da misurare, con la quale pu`o interagire. In un termometro a liquido l’elemento rivelatore `e costituito, ad esempio, dal mercurio contenuto nel bulbo, cio`e dal liquido che `e sensibile alla temperatura, la grandezza da misurare; nell’interazione con la temperatura il mercurio modifica il proprio volume. Il trasduttore `e quella parte dello strumento che trasforma l’informazione fornita dal rivelatore in una grandezza pi` u facilmente accessibile allo speri-
56
4 Strumenti di misura
mentatore. Nel caso del termometro a mercurio il trasduttore `e rappresentato dal bulbo e dal capillare che consentono di trasformare una variazione di temperatura in una variazione di volume. Il dispositivo di visualizzazione `e un indicatore che ha la funzione di fornire il risultato della misura “visivamente” con modalit` a diverse: per mezzo di una scala graduata a seguito dello spostamento di un indice mobile, tramite un display numerico sul quale si legge direttamente il risultato, oppure per mezzo di grafici riportati sullo schermo o registrati su carta. Ad esempio, la scala graduata posta accanto al capillare del termometro `e il dispositivo di visualizzazione dello strumento che misura il valore della temperatura, indicato dal livello raggiunto dal menisco; il quadrante di un orologio analogico `e il dispositivo di visualizzazione della misura del tempo, mentre un contatore dei punteggi di una partita di basket mostra i risultati per mezzo di un display numerico. Sullo schermo di un oscilloscopio `e possibile visualizzare graficamente le caratteristiche di un’onda, mentre sul registratore a carta di un elettrocardiografo si osserva il tracciato delle funzioni cardiache da cui `e possibile ottenere le informazioni numeriche. Questi sono tutti esempi di dispositivi di visualizzazione strumentale. La scelta dello strumento di misura `e funzionale alle necessit` a sperimentali e dipende dal tipo di misure che si debbono effettuare, ma anche dalle condizioni ambientali in cui si svolge l’esperimento. Gli strumenti possono essere di facile impiego oppure particolarmente complessi. In alcuni casi la loro messa a punto pu` o richiedere molti sforzi in termini di impegno e tempo. ` possibile tuttavia fornire uno schema generale delle componenti principali E degli strumenti di misura.
4.2 Caratteristiche degli strumenti Tutti gli strumenti di misura possiedono caratteristiche funzionali generali, la cui conoscenza `e indispensabile per un loro corretto utilizzo. Nella scelta di uno strumento di misura, ci` o che si nota immediatamente sono i due valori estremi che esso `e in grado di rilevare: il valore pi` u piccolo e il valore pi` u grande. Per un regolo, semplice strumento per la misura delle lunghezze, la pi` u piccola divisione di scala corrispondente alla minima quantit` a misurabile `e pari ad 1 millimetro. Il valore massimo misurabile pu`o essere di 20 centimetri, di 50 centimetri, di 1 metro, a seconda del tipo di regolo. L’insieme dei valori della grandezza che lo strumento `e in grado di apprezzare compresi tra il valore massimo, detto portata, e il valore minimo, detto ` opportusoglia, `e chiamato intervallo di funzionamento dello strumento. E no fare attenzione, nel corso di una misura, a non superare la portata dello strumento perch´e tale operazione potrebbe provocare danni anche gravi e irreversibili, o comunque fornire una risposta distorta, non pi` u corrispondente al valore della grandezza in esame. Qualora si debba misurare una grandezza la cui entit` a sia completamente incognita e lo strumento sia dotato di pi` u
4.2 Caratteristiche degli strumenti
57
intervalli di funzionamento, `e consigliabile iniziare la misura dalla scala pi` u alta, cio`e con portata maggiore. Quando si studiano fenomeni che variano con il tempo, lo strumento risponde alle variazioni delle grandezze da misurare con un certo ritardo, che dipende dalla sua struttura meccanica ed elettrica, dall’inerzia dei diversi meccanismi e dei dispositivi di visualizzazione. Quanto minore `e questo “ritardo”, cio`e l’intervallo di tempo necessario allo strumento per rispondere adeguatamente alla variazione della grandezza da misurare, tanto maggiore `e la sua prontezza. La prontezza rappresenta perci` o la rapidit` a con cui lo strumento `e in grado di fornire il risultato della misura. Se gli intervalli di tempo che caratterizzano le variazioni della grandezza da misurare sono pi` u piccoli del tempo di risposta strumentale, detto anche tempo caratteristico, lo strumento non sar` a in grado di apprezzare tali variazioni e quindi non fornir` a alcun risultato della misura. Il valore della prontezza `e ovviamente in relazione alla grandezza da misurare. Il termometro a mercurio utilizzato nella misurazione della temperatura di un liquido `e uno strumento di scarsa prontezza. Lo strumento, conservato normalmente a temperatura ambiente di 20◦ , viene immerso in un recipiente contenente un liquido molto caldo per misurarne la temperatura. Subito si osserva una rapida risalita del mercurio lungo il capillare seguita da un rallentamento. Dopo qualche minuto il livello dell’indicatore si stabilizza ed `e possibile leggere sulla scala graduata il valore della temperatura raggiunto dal liquido. Dal momento in cui il termometro viene immerso nel liquido a quando il livello raggiunto dal mercurio si stabilizza sulla scala, possono trascorrere anche alcuni minuti. Questo `e approssimativamente il tempo caratteristico del termometro a mercurio. Tale strumento non pu` o essere utilizzato per misurare variazioni pressoch´e istantanee di temperatura. Un voltmetro che ha un tempo di risposta dell’ordine di un decimo di secondo, potr` a apprezzare variazioni di potenziale che si verificano durante intervalli di tempo maggiori o uguali a questo valore, ma non sar` a in grado di misurare differenze di potenziale che variano pi` u rapidamente, ad esempio in tempi dell’ordine di un millesimo di secondo. Per misurare correttamente queste grandezze bisogner`a ricorrere a un voltmetro di prontezza pi` u elevata. Talvolta, sebbene la grandezza da misurare non cambi sensibilmente nel tempo, pu`o accadere che l’indice dello strumento non rimanga stabile ma sia soggetto a delle piccole fluttuazioni in prossimit` a del risultato della misura. Ci` o pu` o dipendere da diverse cause interne allo strumento (come surriscaldamento, usura di parti, ecc.) o esterne ad esso (come variazioni di temperatura, vibrazioni meccaniche, umidit` a, pressione atmosferica e cos`ı via). ` necessario allora ricorrere ad opportuni accorgimenti tecnici per ovviare E a tali inconvenienti e aumentare cos`ı la stabilit` a dello strumento. A volte `e sufficiente aumentare il tempo di risposta dello strumento per migliorarne la stabilit` a.
58
4 Strumenti di misura
La lettura della risposta dello strumento `e sempre caratterizzata da un’incertezza, data dalla pi` u piccola variazione della grandezza che pu` o essere rilevata rispetto alla corrispondente divisione della scala. La sensibilit` a dello strumento `e definita come il reciproco dell’incertezza. Il calcolo della sensibilit`a si effettua dividendo il numero di intervalli in cui `e suddivisa la scala di misura per la portata corrispondente alla scala stessa. Se, ad esempio, la scala di un voltmetro `e divisa in 10 intervalli e il valore della portata `e di 20 volt, la sensibilit` a dello strumento `e pari a 10 intervalli/20 volt = 0.5 intervalli/volt. Se la scala `e lineare, il valore della sensibilit`a `e costante, mentre nel caso di scale non lineari, abbastanza diffuse negli strumenti, la sensibilit` a pu` o subire dei cambiamenti nei diversi intervalli di scala e pu` o dipendere anche ` utile ricordare che la sensibilit` dai valori della grandezza. E a diminuisce se, a parit` a di cifre significative, viene aumentata la portata. Le caratteristiche di uno strumento non sono tra loro indipendenti: esse sono correlate da relazioni la cui conoscenza pu` o essere usata per migliorarne le prestazioni generali. Un qualsiasi strumento dovrebbe essere capace di fornire misure uguali della stessa grandezza con il trascorrere del tempo; in realt` a, come abbiamo visto nel capitolo 2, ci` o non sempre avviene e la misura risulta affetta da un margine di errore. Le apparecchiature soffrono talvolta di difetti dovuti alla costruzione, mostrano effetti meccanici indesiderati, o fluttuazioni di segnali elettrici. Inoltre l’usura di parti o di componenti, dovuta ad un uso prolungato o all’invecchiamento, cui si sommano condizioni di lavoro difficili e variazioni delle condizioni ambientali, possono modificare il corretto funzionamento nel tempo dello strumento compromettendo una delle sue caratteristiche fondamentali: la riproducibilit` a, cio`e la capacit`a dello strumento di ripetere nel tempo la misura di una grandezza fisica. Questa caratteristica `e strettamente correlata alla sua precisione. Infatti le diverse misure ripetute di una stessa grandezza si distribuiscono in un intervallo, e tanto minore `e la larghezza della distribuzione dei loro valori tanto maggiore `e la precisione dello strumento. La riproducibilit` a del suo funzionamento comporta anche una buona affidabilit` a, che consiste nella resistenza e nella durata nel tempo. Generalmente questa caratteristica viene quantificata come tempo di vita medio o vita media dello strumento, che corrisponde statisticamente all’intervallo di tempo che potrebbe trascorrere tra due successivi guasti, con il dispositivo operante in condizioni normali. Nell’operazione di misura, `e indispensabile che vi sia una corrispondenza stretta tra la risposta che fornisce lo strumento attraverso il dispositivo di ` perci` visualizzazione e il valore della grandezza da misurare. E o opportuno che il costruttore effettui la taratura dello strumento. Questa operazione consiste nel confronto con delle unit` a campione di misura o con altri strumenti pi` u sensibili, in modo che l’indice della scala, con lo strumento “a vuoto”, cio`e senza alcuna grandezza da misurare, sia posizionato esattamente sullo zero. Se cos`ı non fosse, `e necessario regolare sullo zero la posizione dell’indice,
4.2 Caratteristiche degli strumenti
59
operazione che si chiama azzeramento. Successivamente si sottopongono allo strumento delle unit` a campione note e si registrano sulla scala i corrispondenti valori. Si ripete alcune volte la procedura finch´e lo strumento risponde in modo soddisfacente. La taratura `e necessaria quando lo strumento viene costruito. Essa `e altres`ı consigliabile qualora lo strumento rimanga inutilizzato per un certo tempo. Se tale operazione non comporta grande dispendio di tempo e costi, sarebbe opportuno controllare l’azzeramento prima di iniziare ogni serie di misure. Uno strumento tarato correttamente fornisce il risultato di una misura in modo coerente a quello della grandezza fisica. La misura risulter` a accurata e i risultati saranno ben riproducibili e altrettanto ben distribuiti attorno al valore vero della grandezza. Come abbiamo visto nel capitolo 2, la bont` a della taratura strumentale pu` o ridurre in parte gli errori sistematici. La risoluzione, infine, `e la minima variazione della grandezza fisica oggetto della misura che lo strumento riesce ad apprezzare. Il suo ordine di grandezza coincide con il valore dell’ultima cifra significativa con cui si esprime il risultato della misura. Maggiore `e la risoluzione dello strumento, pi` u elevata sar`a anche la sua sensibilit` a: le misure effettuate con uno strumento ad alta risoluzione sono molto precise. Ad esempio, se un cronometro ha una risoluzione di 1 millisecondo, le misure effettuate non potranno avere una precisione superiore al millisecondo e saranno espresse al pi` u con tre cifre dopo la virgola, cos`ı come il valore dell’indeterminazione. Normalmente la casa costruttrice indica nel manuale la classe dello strumento, che corrisponde numericamente al valore percentuale da applicare al fondo scala dello strumento per calcolare l’errore di sensibilit` a strumentale su ogni misura. Ad esempio, se un misuratore di tensione ha una classe dichiarata di 1.0, una serie di misure realizzate con fondo scala di 5 volt saranno caratterizzate da un errore pari a: 5 volt · 1% = 0.05 volt e la misura della tensione V sar` a espressa nel modo seguente: V = (V ± 0.05) volt. Se, con lo stesso strumento, si cambia il fondo scala portandolo, ad esempio, a 200 volt, gli errori delle misure diventeranno: 200 volt · 1% = 2 volt, e le corrispondenti misure saranno indicate come: V = (V ± 2) volt. Grazie ai risultati raggiunti dalla tecnologia si sono potute migliorare le caratteristiche e le prestazione degli strumenti. Utilizzando i circuiti integrati `e stato possibile ottenere dei trasduttori molto efficienti in grado di trasformare grandezze fisiche di qualsivoglia natura, meccaniche, termiche, ottiche, ecc., in grandezze elettriche, con notevoli vantaggi in termini di prestazioni, favorendo la diffusione degli strumenti elettronici in svariati settori applicativi. La sensibilit` a di questi strumenti `e maggiore di quella degli strumenti meccanici di vecchia concezione, data la possibilit`a di amplificare i segnali elettrici; possiedono un tempo caratteristico molto pi` u piccolo e una prontezza nella risposta decisamente superiore a quella degli strumenti meccanici, consentendo anche la misura di grandezze che variano molto rapidamente nel
60
4 Strumenti di misura
tempo. Infine i dati possono essere direttamente trasferiti, cos`ı come acquisiti, a computer ed elaborati.
4.3 Strumenti di misura analogici e digitali Gli strumenti di misura sono classificati in analogici e digitali. Negli strumenti di misura analogici il valore della grandezza misurata viene visualizzato attraverso lo spostamento di un ago o un indice mobile su una scala graduata. Il segnale in ingresso viene analizzato, senza subire modifiche e senza conversioni, dai dispositivi interni allo strumento che sfruttano fenomeni analoghi alla natura del segnale. Il termine “analogico” deriva dal comportamento del dispositivo che funziona in “analogia” a quello delle grandezze del sistema studiato. Negli strumenti digitali la misura `e osservabile sul display direttamente sotto forma numerica, a seguito della digitalizzazione del segnale analogico in ingresso. Il principio di funzionamento di uno strumento digitale pu` o essere schematizzato nel modo seguente. Lo strumento legge il segnale analogico in ingresso. Un trasduttore trasforma il segnale corrispondente alla grandezza misurata in un altro segnale, ancora analogico, generalmente di natura elettrica: per esempio in una tensione, o in una corrente. Questo segnale elettrico viene inviato ad un convertitore analogico digitale (ADC), che lo trasforma in un segnale digitale. Quest’ultimo viene a sua volta analizzato e successivamente visualizzato sul display digitale che fornisce il risultato direttamente in forma numerica. Tra gli strumenti analogici pi` u conosciuti ricordiamo il cronometro analogico. Un altro strumento analogico molto comune nei laboratori di fisica `e il tester, utilizzato per le misure di tensione e corrente, alternate e continue, e di resistenza elettrica. Esempi di strumenti digitali sono invece il cronometro digitale, il contatore di impulsi ed il termometro a termocoppia.
4.4 Il manuale d’uso dello strumento Un’abitudine abbastanza diffusa, ma scorretta, consiste nel procedere con le operazioni di installazione degli strumenti e con la successiva esecuzione delle misure senza essersi preoccupati di leggere prima il manuale d’uso dell’apparecchiatura utilizzata e senza seguire, di conseguenza, puntualmente le istruzioni tecniche riportate. Tale comportamento pu`o compromettere il risultato della misura e fornire dati inesatti, se non addirittura danneggiare lo strumento, anche irreversibilmente. Forniremo qui alcune indicazioni operative e qualche osservazione di carattere generale sulle precauzioni da prendere. Non `e scopo di questo testo analizzare tutta la casistica che pu` o presentarsi a uno sperimentatore; ci`o che interessa `e suscitare nel lettore un atteggiamento di attenzione verso la
4.4 Il manuale d’uso dello strumento
61
propria attivit` a sperimentale e incoraggiare un atteggiamento critico, utile alla corretta realizzazione delle procedure operative e in sicurezza. Esistono alcune precauzioni abbastanza generali da adottare nella pratica sperimentale. Eccone un breve elenco. – Controllare l’erogazione di tensione ed il valore della frequenza della corrente, soprattutto per strumenti costruiti in paesi esteri; – verificare l’idoneit` a di un corretto sistema di messa a terra; – evitare l’installazione dello strumento in ambienti non idonei, non soddisfacenti alle richieste specificate nelle norme di protezione, e nei quali si possano presentare rischi di diverso tipo come incendio, produzione di vapori di sostanze tossiche o pericolose; – evitare di manipolare lo strumento o parti di esso con le mani o con oggetti bagnati, non elettricamente isolati e in assenza delle richieste precauzioni; – evitare di aprire lo strumento e di toccare parti interne senza essersi accertati di aver tolto l’alimentazione; – controllare di tanto in tanto la taratura dello strumento; – controllare l’azzeramento strumentale prima di ogni misura; – verificare che le linee elettriche di alimentazione forniscano corrente “pulita”, cio`e un segnale stabilizzato, privo di picchi di tensione casuali dovuti ad anomalie nella rete di distribuzione, che possono causare spiacevoli inconvenienti al funzionamento; – ripetere, se possibile, la misura almeno due volte; ci`o significa che, se possibile, conviene ripetere la misura molte volte; – sospendere le misure, nel caso di dubbio di malfunzionamento. Tutti gli strumenti dovrebbero operare in condizioni ottimali. In generale dovrebbero essere posti su supporti robusti e sicuri, privi di vibrazioni meccaniche, in ambienti a temperatura costante, lontani da fonti di calore, in assenza di ventilazioni, estranei a interferenze di tipo elettromagnetico, dovute allo strumento (autoinduzioni) o da altri apparati presenti nell’ambiente. Normalmente nel manuale vengono riportate le caratteristiche tecniche, la classe e le modalit`a d’impiego dello strumento. Consideriamo, ad esempio, una bilancia elettronica. Le caratteristiche tecniche comunemente indicate sono: la tensione di alimentazione, la potenza assorbita, il tempo di smorzamento, l’indicatore di scala, la tipologia dell’uscita dati, la risoluzione, la sensibilit`a e l’intervallo di funzionamento, il campo di variabilit` a di temperatura operativo. Sono forniti inoltre dati quali peso, dimensioni, tipologia dei materiali costruttivi utilizzati. Nelle modalit`a d’impiego vengono riportate le norme per l’installazione, per l’uso della tara, dei sistemi di controllo e di azzeramento nel caso di superamento della portata, per la calibrazione, lo schema e le tabelle che riportano i dettagli delle informazioni visualizzate. Tutte queste considerazioni normalmente sono acquisite con l’esperienza di lavoro sperimentale e vengono affinate nel corso degli anni.
62
4 Strumenti di misura
4.5 Il ruolo dello sperimentatore Desideriamo dedicare un piccolo spazio al vero attore sulla scena dell’esperimento: lo sperimentatore. Dipende infatti molto dal suo comportamento e dal suo corretto operato l’esito positivo o negativo dell’attivit` a sperimentale. Riportiamo di seguito una serie di consigli e suggerimenti, una sorta di vademecum di “norme comportamentali”. Come abbiamo gi` a ricordato, inizialmente si deve procedere ad un’analisi dettagliata dell’esperimento, individuando le grandezze fisiche in esame, scegliendo le apparecchiature adatte per eseguire le misure e procurando tutto il materiale necessario allo svolgimento dell’esperimento. Si deve prestare molta attenzione all’allestimento dell’apparato sperimentale, procedere in modo meticoloso alla definizione del metodo ed alla successiva fase di misurazione e infine esaminare in modo analitico e critico i risultati delle misure. Nella fase iniziale `e necessario un controllo rigoroso dell’intervallo di funzionamento strumentale, onde evitare di danneggiare lo strumento tentando di misurare grandezze di valore superiore al limite massimo, oppure di fallire nell’operazione nel caso di misure di grandezze inferiori al valore minimo ` importante anche il controllo delle condizioni ambientali, in misurabile. E quanto gli strumenti sono spesso sensibili non solo alla grandezza in esame ma anche ad altre sollecitazioni esterne. L’isolamento “fisico” dall’ambiente e la rimozione di tutte le cause possibili di disturbo, compreso anche l’allontanamento di persone estranee, possono risultare precauzioni necessarie per l’esecuzione di certi esperimenti. Se, ad esempio, dovessimo misurare con un sofisticato strumento le oscillazioni meccaniche su scala microscopica di un particolare materiale, il solo spostamento dell’aria dovuto a semplici movimenti dell’operatore o di altre persone presenti, oppure le vibrazioni prodotte sul pavimento dal passaggio di qualcuno, potrebbero compromettere il risultato della misura fornendo dei valori completamente inattendibili, caratterizzati da incertezze inaccettabili. Quindi, nella fase di preparazione e di esecuzione della misura, non bisogna sottovalutare nulla. E tale operazione non `e sicuramente facile: richiede molta attenzione, cura e precisione. Sono necessarie, da parte dell’operatore, anche destrezza e capacit`a manuale. Un filo messo in tensione non pu` o essere tirato troppo, perch´e pu` o leggermente modificare la sua lunghezza in seguito a trazione, o nel caso peggiore rompersi. Sta nell’abilit` a dello sperimentatore riuscire a trovare una giusta soluzione. La misura di precisione effettuata con il calibro potrebbe risultare inesatta se lo sperimentatore stringesse eccessivamente i rebbi; in particolare la misura risulterebbe sottostimata e il campione potrebbe subire una deformazione anche irreversibile. Lo sperimentatore deve possedere un quaderno di laboratorio sul quale annotare in maniera ordinata e precisa tutte le singole fasi sia della procedura di ` importanpreparazione sia di quelle relative all’effettuazione della misura. E te segnare ogni osservazione ritenuta potenzialmente utile o apparentemente trascurabile, annotare qualsiasi minima anomalia. Tra l’acquisizione dei dati
4.6 Protezione e sicurezza nei laboratori scientifici
63
sperimentali e la loro elaborazione pu` o passare un certo lasso di tempo e qualche informazione, se non `e stata registrata, potrebbe andare irrimediabilmente perduta. Ricordiamo che `e gi`a accaduto nella storia della scienza che qualche scoperta importante e innovativa sia derivata proprio dall’analisi di quelle che in un primo momento erano state stimate come anomalie, apparentemente inutili. Infine, un’altra “dote” che deve possedere lo sperimentatore `e la pazienza. A volte i tempi di riuscita di un esperimento sono imprevedibili, le attese possono diventare anche molto lunghe ed estenuanti ed il desiderio di arrivare in fretta alle conclusioni pu` o vanificare tutto il lavoro precedentemente realizzato. Spesso l’esperimento comincia a funzionare bene solo quando sarebbe ora di smettere!
4.6 Protezione e sicurezza nei laboratori scientifici Desideriamo dedicare quest’ultimo paragrafo ad un argomento di grande importanza e attualit` a, quello relativo al problema della sicurezza e della prevenzione dei rischi connessi all’attivit` a nei laboratori. I moderni laboratori didattici e di ricerca, presenti nei vari istituti, sono dotati di numerose attrezzature, di strumenti di misura, di dispositivi di vario genere, di differenti tipi di impianti, elettrici o idraulici. Vi possono inoltre essere conservati materiali chimici e sostanze di varia natura, potenzialmente ` pertanto immaginabile che esista per chi opera in questi ampericolosi. E bienti, almeno in via teorica, un ragionevole margine di rischio, tanto meno consistente quanto pi` u questo `e conosciuto, valutato e controllato. Per ottenere una corretta quantificazione e conoscenza dei pericoli connessi all’attivit` a sperimentale `e necessaria una perfetta conoscenza dell’ambiente in cui si opera, dei materiali e dei mezzi ivi presenti. Ogni istituto `e tenuto per obbligo di legge (D.L. 626/94 e D.L. 249/96), contestualmente alla propria organizzazione, a individuare e prevenire i possibili rischi, le fonti di pericolo e i comportamenti impropri, correlati all’attivit` a di laboratorio, per tutte le persone che vi operano attuando tutte le misure utili alla prevenzione ed alla sicurezza. Gli istituti di ricerca ed i laboratori devono per legge provvedere a informare e formare il personale, ad elaborare le misure preventive e di controllo, a predisporre i piani di sicurezza. Gli operatori devono essere informati, attraverso appositi documenti e schede tecniche, tenuti aggiornati dal personale responsabile della sicurezza; informazioni relative a divieti, avvertimenti, prescrizioni, norme di comportamento codificate, devono essere ben visibili all’ingresso dei laboratori. Tutti gli utenti sono tenuti a prenderne visione. I rischi oggettivi derivanti da un uso improprio o irresponsabile di attrezzature o materiali presenti nei laboratori quali, ad esempio, apparecchiature funzionanti sotto vuoto oppure in pressione, centrifughe, apparecchi riscaldanti, forni, impianti a gas o criogenici, sostanze chimiche, tossiche, materiali
64
4 Strumenti di misura
biologici, ecc., possono riguardare lesioni generiche e accidentali, quali tagli e abrasioni, o rivelarsi molto pi` u gravi: soffocamento per fuoriuscita di gas o sostanze tossiche, ustioni chimiche da contatto con sostanze, irritazioni cutanee e dell’apparato respiratorio. La presenza di agenti biologici infettanti pu` o dar luogo ad allergie, infezioni di diversa natura e gravit` a; il contatto o l’ingestione accidentale di sostanze caustiche e corrosive pu`o causare irritazioni o lesioni all’apparato digerente. Per questi motivi `e consigliabile leggere e seguire sempre le indicazioni contenute nei documenti predisposti dai responsabili per la sicurezza, le istruzioni dei manuali d’uso e quelle riportate sulle etichette dei materiali e mezzi che si devono maneggiare, controllare che le apparecchiature nuove rispettino le norme europee, e siano contrassegnate con relativo marchio CE, verificare la loro efficienza, il corretto funzionamento e la rispondenza alle norme di sicurezza, nonch´e rispettare le procedure di lavoro. Gli interventi di prevenzione possono riguardare il semplice rispetto di alcune elementari norme comportamentali, dettate dal buon senso e da un minimo di prudenza: ogni operatore `e tenuto a utilizzare tutti i necessari dispositivi di protezione e segnalare qualsiasi guasto od anomalia ai responsabili dei laboratori. Va infine ricordato che al termine del lavoro di laboratorio `e necessario riporre tutto il materiale al proprio posto, controllare che le apparecchiature siano spente, l’alimentazione di corrente interrotta, gli impianti a gas chiusi.
5 Introduzione alla probabilit` a ed al calcolo combinatorio
Abbiamo visto nei capitoli precedenti come la misura di una grandezza fisica sia sempre caratterizzata da un errore che impedisce la determinazione del valore vero della grandezza stessa e come la ripetizione di pi` u misure fornisca risultati tra loro diversi. I numeri ottenuti non avranno per` o tutti lo stesso “peso”: alcuni saranno pi` u attendibili, altri meno. In altri termini, alcuni saranno pi` u probabili di altri. Come `e possibile conoscere il grado di attendibilit` a di una misura e la probabilit` a del risultato di un esperimento? Il problema della misura e l’analisi delle incertezze si basano sulla teoria della probabilit` a. In questo capitolo introdurremo alcuni concetti fondamentali del calcolo della probabilit` a e del calcolo combinatorio.
5.1 Probabilit` a: definizioni e principali teoremi 5.1.1 Fisica e probabilit` a Gli sperimentatori ben sanno che molti fenomeni della fisica, come delle altre scienze sperimentali, pur verificandosi nelle stesse condizioni, a causa degli inevitabili errori casuali si manifestano in modi diversi e spesso non prevedibili. I fenomeni casuali possono essere descritti dal punto di vista statistico, con la condizione che non ci si limiti all’analisi di un solo evento, ma si possa estendere lo studio a un grande numero di eventi ripetuti. Infatti se `e impossibile predire il risultato di un evento, `e altrettanto vero che, ripetendo un numero molto grande di volte il singolo esperimento, l’effetto complessivo assume una definizione sempre pi` u precisa, tanto che i risultati non solo diventano prevedibili ma possono essere definite anche le leggi che li regolano. Le operazioni di misura forniscono dati sperimentali che vengono elaborati utilizzando gli strumenti di calcolo offerti dalla teoria della probabilit` a. In questo modo `e possibile stimare quanto il valore vero di una grandezza, che non `e determinabile, sia verosimilmente contenuto in un intervallo di valori risultanti da una serie di misure sperimentali.
66
5 Introduzione alla probabilit` a ed al calcolo combinatorio
5.1.2 Il concetto di probabilit` a La teoria della probabilit` a si interessa dello studio di fenomeni casuali o aleatori. Esempi tipici sono: il lancio di una moneta, di un dado, l’estrazione di una carta da un mazzo o di una pallina da un’urna. Nel primo caso abbiamo la possibilit` a che si verifichino due risultati: esce testa o esce croce; nel secondo caso i possibili risultati sono sei (le sei facce del dado); e cos`ı via. Tutte le diverse possibilit`a con cui un fenomeno casuale si pu` o presentare, ossia tutti i possibili risultati di un esperimento, costituiscono un insieme, l’insieme dei risultati, che indichiamo con la lettera E. Tale insieme pu`o essere finito o infinito. Nel caso del lancio della moneta l’insieme dei risultati ha due soli elementi, testa e croce, e possiamo scrivere E ={testa, croce}; analogamente nel lancio del dado l’insieme dei risultati possibili ha sei elementi e, in questo caso, E={1,2,3,4,5,6}. Ci` o che caratterizza questi fenomeni casuali `e che si manifestano in pi` u modalit` a. Nel caso del lancio del dado, consideriamo l’asserzione “esce un numero pari”. Le modalit`a possibili che soddisfano la richiesta sono: 2, 4, 6. Queste modalit`a costituiscono l’insieme {2,4,6} che, come si pu`o ben vedere, `e un sottoinsieme di E. Gli elementi di questo insieme corrispondono ai casi favorevoli rispetto alla condizione richiesta. Possiamo quindi individuare dei sottoinsiemi dell’insieme E, ognuno dei quali costituito da una o pi` u modalit` a, soddisfacenti a determinate condizioni prefissate. Chiameremo questo sottoinsieme di E, che indicheremo con la lettera A, evento casuale. L’insieme A pu` o coincidere con E oppure con l’insieme vuoto; nel primo caso tutti i risultati possibili coincidono con quelli favorevoli e l’evento `e certo. Nella seconda situazione non ci sono casi favorevoli al verificarsi della condizione: l’evento `e impossibile. Facciamo qualche esempio: sia A l’evento: “nel lancio della moneta esce ` evidente, in questo caso, che la richiesta sar` o testa o croce”. E a sempre soddisfatta. L’insieme dei casi possibili `e infatti E={testa, croce}, l’insieme delle modalit` a favorevoli `e A={testa, croce}. Il sottoinsieme A coincide con l’insieme E. Dunque l’evento `e certo, dal momento che si verificher` a senza dubbio una o l’altra delle modalit` a richieste. Supponiamo invece di lanciare un dado. L’evento A `e: “esce un numero inferiore a 1”. In questo caso `e evidente l’impossibilit` a del verificarsi della condizione. L’insieme dei casi favorevoli `e vuoto e l’evento `e impossibile. I fenomeni casuali, infine, godono anche di altre propriet` a che sono: la ripetibilit` a (`e possibile ripetere il lancio della moneta per quante volte si desideri), l’esclusione reciproca delle diverse possibilit`a (se esce testa non pu`o uscire simultaneamente anche croce, e viceversa), l’impossibilit` a di prevedere a priori il singolo evento (non `e possibile conoscere prima del lancio se uscir`a testa o se uscir`a croce).
5.1 Probabilit` a: definizioni e principali teoremi
67
5.1.3 La definizione classica di probabilit` a In molti esperimenti `e possibile conoscere a priori il numero dei casi favorevoli a un determinato evento e il numero dei casi possibili; in questo caso `e possibile esprimere la misura della valutazione circa la possibilit` a del verificarsi o meno dell’evento esaminato, introducendo la definizione “classica” di probabilit` a. La probabilit` a p che si verifichi un evento casuale `e il rapporto tra il numero di casi favorevoli a ed il numero di casi possibili n, purch´e tutti questi siano ugualmente probabili. Se con a indichiamo il numero di elementi dell’insieme A e con n l’insieme degli elementi dell’insieme E, la probabilit` a dell’evento A si scrive: a (5.1) p= . n Questa definizione ci permette di calcolare la probabilit` a di semplici eventi casuali. Quanto vale la probabilit` a nei due casi limite, corrispondenti all’evento certo e all’evento impossibile? Poich´e nel primo caso a coincide con n, il rapporto vale 1, mentre nel secondo caso a `e uguale a zero ed il rapporto a/n `e anch’esso nullo. Dato che 0 ≤ a ≤ n, segue che la probabilit` a di un evento casuale `e un numero compreso tra 0 (evento impossibile) e 1 (evento certo). Non sfugge la presenza di una circolarit` a nella definizione. Si richiede infatti che tutti gli eventi siano ugualmente probabili, cio`e equiprobabili, utilizzando, nel definire la probabilit` a, il concetto stesso di probabilit` a. Inoltre nella definizione `e implicito il presupposto di poter valutare la condizione di equiprobabilit` a delle diverse modalit`a con cui si pu` o presentare l’evento. Ci` o non pu` o sempre avvenire in realt` a, perch´e spesso un evento pu`o essere condizionato da diversi fattori. Ad esempio, l’esito finale di un esame ha due possibilit` a: a1 = superato, a2 =non superato. Non `e possibile affermare che la probabilit` a del superamento sia pari a 1/2, cos`ı come quella del fallimento. Entrambe le modalit`a sono influenzate da una serie di cause non prevedibili, che le rendono non ugualmente probabili. Inoltre l’applicazione di tale definizione implica la conoscenza a priori sia di a che di n, cosa che `e vera solo in certi casi. Tali osservazioni limitano l’applicazione della definizione “classica” di probabilit` a suggerendo l’introduzione di altre definizioni rispondenti in modo pi` u soddisfacente al problema in esame.
5.1.4 La frequenza La definizione classica permette di determinare i valori di probabilit` a nel caso di eventi semplici e solo in particolari condizioni. Come abbiamo visto esistono, infatti, limiti che restringono il suo campo di applicazione. In particolare si devono conoscere a priori il numero dei casi favorevoli a e il numero dei casi possibili n, condizione non sempre soddisfatta. Consideriamo infatti il caso seguente. Un’azienda farmaceutica ha prodotto un nuovo vaccino e vuol conoscere quale sar` a la probabilit` a che le persone
68
5 Introduzione alla probabilit` a ed al calcolo combinatorio
vaccinate contraggano comunque la malattia, e quanti casi di complicanze si avranno in seguito alla somministrazione del vaccino, prima di estendere la ` evidente l’impossibilit` vaccinazione a tutta la popolazione. E a di conoscere a priori la risposta ai quesiti posti e, di conseguenza, l’inadeguatezza del concetto di probabilit` a test´e presentato, inapplicabile a questo come ad altri casi simili. La risposta pu` o ottenersi solo dopo che la vaccinazione `e stata effettuata ed `e stato eseguito un attento monitoraggio dei pazienti, ovvero solo a posteriori. Ipotizziamo che su 1000 persone vaccinate si presentino 10 casi di malattia e 1 caso di complicanze da vaccino. Allora potremmo affermare che la malattia si `e presentata con la frequenza di 10 casi su 1000 e le complicanze con la frequenza di 1 caso su 1000. Se indichiamo con m la frequenza assoluta dell’evento (numero di persone vaccinate che hanno contratto la malattia oppure numero di casi in cui si sono verificate complicanze), e con n il numero totale di prove effettuate (numero complessivo di persone vaccinate), definiamo frequenza relativa, o semplicemente frequenza, e la indichiamo con la lettera f , il rapporto tra il numero m di casi verificatisi (frequenza assoluta) su n prove totali: m . (5.2) f= n Se, sfortunatamente, tutte le persone vaccinate contraessero la malattia, cio`e se m fosse uguale a n, il rapporto m/n varrebbe 1 e la frequenza relativa assumerebbe il valore 1. Se, al contrario, nessuna delle persone vaccinate contraesse la malattia, il numero m sarebbe uguale a zero, cos`ı come il rapporto m/n, e la frequenza relativa assumerebbe il valore 0. Dunque la frequenza relativa pu` o assumere valori compresi tra 0 e 1, 0 ≤ f ≤ 1. Questa definizione di frequenza, proprio per la sua natura empirica, `e ampiamente utilizzata nelle scienze sperimentali, dove spesso i risultati non sono prevedibili a priori. Resta da scoprire se esiste una relazione tra la frequenza e la probabilit` a. Ci` o che si osserva sperimentalmente `e che, se si ripete un esperimento per un numero molto elevato di volte, il valore della frequenza relativa al verificarsi dell’evento favorevole si avvicina sempre pi` u al valore della probabilit` a. Tale approssimazione `e tanto pi` u significativa quanto pi` u elevato `e il numero delle prove. Consideriamo il seguente esempio. Vogliamo mostrare che, se il numero delle prove non `e elevato, non `e possibile stabilire una relazione tra frequenza e probabilit` a e, confondendo queste due grandezze, si rischia di commettere errori grossolani. Lanciamo in aria un dado due volte e supponiamo che in entrambi i casi esca la stessa faccia: ad esempio la 4. Se fossimo interessati alla frequenza di uscita della faccia 4, avremmo, in tal caso, due eventi favorevoli su due prove: la frequenza relativa `e pari a 1. Se assumiamo che questo significhi anche che la probabilit` a sia pari a 1, arriviamo alla conclusione che si tratta di un evento certo. Potremmo allora affermare che se continuassimo a lanciare il dado otterremmo sempre la faccia 1? La riposta `e ovviamente negativa. Il numero di prove effettuato `e troppo esiguo per poter esprimere un
5.1 Probabilit` a: definizioni e principali teoremi
69
giudizio. In questo caso la probabilit` a a priori (definizione classica) dell’evento “faccia 4” vale 1/6, quindi ci aspettiamo che per un numero maggiore di prove la probabilit` a sperimentale, ovvero la frequenza con cui si presenta la faccia 4, sia approssimativamente pari a 1/6. Se accadesse invece che, su 100 lanci del dado, per 98 volte si presentasse la faccia 4, allora potremmo concludere che il dado `e truccato. Consideriamo l’andamento della frequenza relativa in funzione del numero di prove effettuate; ci aspettiamo significative oscillazioni del valore della frequenza per piccoli valori di n che andranno smorzandosi all’aumentare del numero delle prove fino ad avvicinarsi sempre pi` u ad un valore che corrisponder` a alla probabilit` a a priori dell’evento. Ad esempio, nel caso del lancio del dado, se i primi due lanci corrispondessero alla “faccia 4”, la frequenza della faccia 4 sarebbe pari a 1: ma l’esperienza mostra che la frequenza diminuir` a, all’aumentare delle prove, per tendere infine, con oscillazioni sempre pi` u piccole, al valore 1/6 che corrisponde alla probabilit` a calcolata a priori. L’esperienza insegna dunque che la frequenza relativa di un evento assume valori che approssimano sempre pi` u la probabilit` a a priori, quanto pi` u elevato `e il numero delle prove, tutte realizzate nelle stesse condizioni. Da queste considerazioni si deduce che il limite a cui tende la frequenza f con cui si presenta un evento, rispetto ad un numero di prove n molto elevato, `e pari alla probabilit` a a priori p: p = lim f (n) = lim n→∞
n→∞
m . n
(5.3)
Infatti la probabilit` a a priori non `e altro che la probabilit` a di un evento ricavata teoricamente, sulla base di conoscenze ipotetiche del fenomeno e delle sue stesse cause, mentre la frequenza relativa o probabilit`a sperimentale `e una valutazione a posteriori dei suoi effetti. Possiamo esprimere il valore approssimato della probabilit` a, quando questa non `e ottenibile a priori, attraverso la frequenza, mentre se `e nota la probabilit` a a priori possiamo formulare previsioni sull’esito di un evento casuale in quanto, effettuando un grande numero di prove, essa assumer` a valori prossimi alla frequenza relativa dell’evento. Consideriamo qualche semplice esempio. Sapendo che, nel lancio di una moneta, la probabilit` a a priori che esca testa `e pari a 1/2, quante volte `e prevedibile che esca testa su 100 000 lanci? Supponendo che il numero delle prove sia in entrambi i casi sufficientemente elevato: p = lim
n→∞
m m =f. ≈ n n
Pertanto, m=f ·n≈p·n=
1 · 100 000 = 50 000 . 2
Si pu` o cos`ı prevedere che su 1000 lanci esca testa 500 volte, su 10000 esca testa 5000 volte e cos`ı via.
70
5 Introduzione alla probabilit` a ed al calcolo combinatorio
Ritornando all’esempio del vaccino, in questo caso non si conosce la probabilit` a a priori dell’evento “contrarre la malattia a seguito della somministrazione del vaccino”. Se `e stato fatto un test su 100 persone e di queste solo una ha contratto la malattia, la frequenza dell’evento `e pari a 1/100 ed `e possibile stabilire quale sar` a la probabilit` a che un certo numero di persone sottoposte alla vaccinazione, ad esempio 2000, la contraggano: m ≈ 20, in tal caso. Se si stima che questo valore sia troppo elevato, si pu`o a questo punto decidere di non effettuare ulteriori vaccinazioni con quel tipo di vaccino. Un’ultima osservazione: non esiste la certezza assoluta che, se il numero di prove `e sufficientemente grande, il valore della frequenza approssimer` a il valore della probabilit` a. Questa incertezza nasce dal fatto che la generatrice della successione m/n, di cui si richiede di calcolare il limite, non `e nota, data la sua natura casuale. La giusta interpretazione sta dunque insita nel significato di “empirico” ossia nell’osservazione che, tanto pi` u elevato `e il numero di prove n, tanto pi` u ragionevolmente la frequenza converger` a alla probabilit` a. Se una moneta viene lanciata un milione di volte `e molto improbabile che si abbia una frequenza dell’evento croce pari a 1/4, anche se non `e impossibile. 5.1.5 La definizione soggettiva di probabilit` a Esiste una serie di eventi casuali, spesso anche non ripetibili, per i quali non `e possibile determinare la probabilit` a che si verifichino a priori, perch´e non si conosce il valore di a e nemmeno la frequenza, perch´e non sono noti m e n. La valutazione relativa al loro verificarsi `e affidata alla stima soggettiva, spesso suggerita dall’esperienza personale o dall’intuizione, non necessariamente supportata da considerazioni oggettive, ma espressa tuttavia in modo coerente. Qual `e la probabilit` a che un atleta vinca una competizione? Qual `e la probabilit` a che oggi piova? Qual `e la probabilit` a di indovinare una previsione sportiva? Qual `e la probabilit` a che una terapia risulti efficace nella cura di una malattia? Qual `e la probabilit` a che un investimento dia una resa aspettata? Questi sono tutti esempi di probabilit` a soggettiva. La risposta a queste domande `e la misura della fiducia che un individuo ripone nel verificarsi o meno di uno di questi eventi. In uno splendido giorno di sole la probabilit` a che piova sar` a un evento pressoch´e impossibile, pertanto la probabilit` a soggettiva dell’individuo che esprime la propria valutazione sar` a pari a 0. Analogamente per l’evento certo, il corrispondente valore di probabilit` a si attester`a sul valore pari a 1; per tutti gli altri casi il valore sar` a compreso tra 0 e 1, e sar`a tanto pi` u vicino a 0 quanto pi` u l’individuo riterr` a improbabile il verificarsi dell’evento in cui ripone poca fiducia, mentre sar` a pi` u vicina a 1 se l’evento sar` a ritenuto abbastanza probabile, nel senso che il soggetto ripone in esso la sua fiducia.
5.1 Probabilit` a: definizioni e principali teoremi
71
5.1.6 La definizione assiomatica di probabilit` a La definizione classica di probabilit` a `e applicabile a quei casi in cui tutti gli eventi sono equiprobabili e ripetibili e sono noti a priori il numero delle modalit`a ed il numero dei casi possibili. Nell’impossibilit` a di conoscere a priori queste informazioni, si ricorre alla definizione basata sulla frequenza, concetto applicabile dopo che l’esperimento `e stato effettuato e ripetuto. La definizione soggettiva si applica infine a fenomeni non ripetibili, per i quali non `e possibile conoscere n´e la probabilit` a secondo la definizione classica, n´e la frequenza. Risulta evidente la necessit`a di costruire una teoria matematica del calcolo della probabilit` a pi` u rigorosa, meno incline alle interpretazioni o soggetta all’empirismo, basata sulla logica formale e sulla teoria degli insiemi. Sia E l’insieme dei risultati di un fenomeno casuale ed il sottoinsieme A di E un evento. Definiamo la probabilit` a dell’evento A: si tratta di una funzione P (A) (tale che 0 ≤ P (A) ≤ 1) che associa univocamente ad ogni sottoinsieme di E un numero reale P (A) che soddisfa le seguenti propriet` a: Propriet` a 1: P (A) ≥ 0 per ogni A. Propriet` a 2: P (E) = 1. Propriet` a 3: Siano A1 , A2 , A3 , . . . eventi casuali, sottoinsiemi di E, a due a due disgiunti. La probabilit` a corrispondente alla loro unione `e uguale alla somma delle singole probabilit` a, cio`e P (A1 ∪ A2 ∪ A3 ∪ . . .) = P (A1 ) + P (A2 ) + P (A3 ) + . . . Si verifica facilmente che P(∅)=0. 5.1.7 Teoremi sulla probabilit` a Ci limitiamo qui ad enunciare alcuni teoremi (rimandando le dimostrazioni dei pi` u importanti al prossimo capitolo) utili per il calcolo delle probabilit` a. Evidenzieremo anche alcuni casi particolari. Teorema della probabilit` a dell’evento complementare o contrario ¯ la cui unione coincide con E e la cui intersezione `e vuota, Due insiemi A e A, sono detti essere l’uno il complementare dell’altro. Consideriamo dunque due eventi complementari A e A¯ e siano p = P (A) la probabilit` a del primo e q = ¯ la probabilit` P (A) a del suo complementare. Si ha che p+q = 1. Tale risultato `e utile quando si conosce la probabilit` a di un evento e si vuol calcolare quella dell’evento contrario. Ad esempio, se la probabilit` a che esca la faccia 1 nel lancio di un dado `e pari a 1/6, la probabilit` a che esca una qualsiasi delle altre facce `e: 1-1/6=5/6: infatti i due insiemi sono complementari. I due eventi dell’esempio appena considerato sono uno complementare dell’altro: il verificarsi dell’uno esclude il verificarsi dell’altro. Tale condizione pu` o presentarsi anche tra eventi che non siano necessariamente complementari purch´e gli insiemi corrispondenti siano disgiunti. In tal caso gli eventi si dicono incompatibili.
72
5 Introduzione alla probabilit` a ed al calcolo combinatorio
Teorema della probabilit` a totale o di eventi incompatibili Siano A1 e A2 due eventi incompatibili, tali che A1 ∩ A2 = ∅. Allora la probabilit` a dell’evento corrispondente alla loro unione `e data dalla somma delle corrispondenti probabilit` a. Consideriamo, nel caso del lancio del dado, il verificarsi degli eventi se` evidente l’incompatibilit` guenti: esce la faccia 1, esce un numero pari. E a dei due eventi, le cui probabilit` a valgono rispettivamente 1/6 e 1/2. La probabilit` a dell’evento composto: “esce la faccia 1 oppure esce un numero pari”, che corrisponde a quella dell’unione dei due insiemi, `e data dalla somma delle due probabilit` a: 1/6+1/2=4/6=2/3. Teorema della probabilit` a di eventi compatibili Siano A1 e A2 due eventi compatibili, tali cio`e che A1 ∩ A2 = ∅. Allora la probabilit` a dell’evento corrispondente alla loro unione `e data dalla somma delle probabilit` a dei singoli eventi a cui viene sottratta la probabilit` a dell’evento intersezione. P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) .
(5.4)
Teorema della probabilit` a di eventi compatibili indipendenti Consideriamo ora il seguente problema. Qual `e la probabilit` a che lanciando due volte un dado esca sempre il numero 6? Cominciamo a contare i casi possibili. Per ogni risultato del primo lancio abbiamo sei possibilit` a per il secondo, cosicch´e in tutto i casi possibili sono 36. Perci`o la probabilit` a che si verifichi l’evento richiesto `e data dal rapporto 1/36. Poich´e il verificarsi dell’uno `e del tutto indipendente dal verificarsi del secondo, i due eventi si dicono essere compatibili indipendenti. In generale, dati due eventi A1 e A2 compatibili e indipendenti, la probabilit` a dell’evento composto `e uguale al prodotto delle probabilit` a dei singoli eventi. Il problema relativo al lancio del dado, applicando il teorema appena enunciato `e di immediata soluzione e non `e necessario contare tutti i casi possibili. Infatti la probabilit` a che si verifichi l’evento A1 `e pari a 1/6. Lo a di ottenere, in due lanci consecutivi stesso vale per A2 . Cos`ı la probabilit` del dado, la faccia 6 `e pari a (1/6) · (1/6) = 1/36 (lo stesso risultato che avevamo ottenuto contando tutte le possibilit` a). Questo teorema offre una visione tranquillizzante della realt` a. Infatti la probabilit` a che, durante il volo di un aereo, il pilota si senta male `e un numero assai piccolo. Anche la probabilit` a che il pilota automatico abbia un guasto `e un numero molto piccolo. La probabilit` a che entrambe le condizioni si verifichino simultaneamente `e data dal prodotto di due numeri molto piccoli (vale a dire che essa `e piccolissima o, come si dice, trascurabile). Grazie alla teoria delle probabilit` a possiamo pertanto viaggiare tranquilli.
5.2 Il calcolo combinatorio
73
Teorema della probabilit` a di eventi compatibili dipendenti o della probabilit` a composta a dell’evento Dati due eventi A1 e A2 compatibili e dipendenti, la probabilit` a dell’evento A1 composto A = A1 ∩ A2 `e data dal prodotto della probabilit` per la probabilit` a dell’evento A2 , subordinato all’evento A1 . Consideriamo un’applicazione di tale teorema. In una scatola sono contenute 10 palline, 4 rosse e 6 nere. Qual `e la probabilit` a che in due estrazioni successive escano due palline entrambe nere? L’evento A1 : “esce una pallina nera alla prima estrazione” ha una probabilit` a pari a P (A1 ) = 6/10. Poich´e la prima pallina estratta non `e pi` u stata reintrodotta nella scatola, la probabilit` a dell’evento A2 : “esce una pallina nera alla seconda estrazione” `e pari a 5/9 (perch´e, alla seconda estrazione, 5 `e il numero delle palline nere e 9 `e il numero totale delle palline nella scatola). L’evento A: “esce una pallina nera alla prima estrazione e una pallina nera alla seconda estrazione” `e composto dai due eventi compatibili e dipendenti A1 e A2 : pertanto, applicando il teorema della probabilit` a di eventi compatibili dipendenti, otteniamo la probabilit` a di A: P (A) = (6/10) · (5/9) = 1/3.
5.2 Il calcolo combinatorio Il calcolo combinatorio fornisce gli strumenti matematici che vengono impiegati anche nella teoria della probabilit` a, agevolandone notevolmente le applicazioni. Per mezzo delle regole e delle formule del calcolo combinatorio `e possibile conoscere il numero di gruppi che si possono formare con un certo numero di elementi appartenenti ad un dato insieme e imparare il modo di ` possibile quindi costruirli seguendo determinate regole di composizione. E calcolare il numero di casi che possono presentarsi in un esperimento senza doverli esplicitare, operazione che spesso pu`o essere lunga e complicata. 5.2.1 Disposizioni semplici e con ripetizione Consideriamo un insieme costituito da 5 elementi distinti. Chiameremo disposizioni semplici di 5 elementi presi ad 1 ad 1 i raggruppamenti di un unico elemento. Indicheremo il numero delle disposizioni di 5 oggetti presi ad 1 ad 1 con il simbolo D5,1 . Ovviamente D5,1 = 5. Ci chiediamo ora quanti sono i gruppi che possiamo ottenere con i nostri cinque elementi presi a 2 a 2, cio`e quale sia il numero di disposizioni semplici di 5 oggetti presi a 2 a 2, D5,2 . La costruzione di questi gruppi si realizza facendo seguire ai 5 elementi dell’insieme di partenza, uno per volta, gli altri, che sono 5-1=4. In altri termini D5,2 = 5 · 4 = D5,1 · (5 − 2 + 1) = 20. Seguendo un ragionamento analogo, il numero di gruppi che si ottengono con 5 elementi presi 3 a 3, `e dato dal prodotto di D5,2 per il numero degli elementi rimasti, cio`e 3. Pertanto D5,3 = D5,2 · (5 − 3 + 1) = 5 · 4 · 3 = 60.
74
5 Introduzione alla probabilit` a ed al calcolo combinatorio
Attraverso un ragionamento induttivo `e possibile ora ottenere una formula di carattere generale. Il numero di disposizioni semplici di n oggetti presi 1 a 1 `e pari al numero n di oggetti: Dn,1 = n. Il numero di disposizioni semplici di n oggetti presi a k a k, con 0 < k ≤ n, `e dato dal prodotto delle disposizioni semplici degli n oggetti presi a k − 1 a k − 1 moltiplicato per il numero degli oggetti rimasti, che `e pari a [n − (k − 1)] = (n − k + 1): Dn,k = Dn,k−1 · (n − k + 1) = n · (n − 1) · (n − 2) . . . (n − k + 1) .
(5.5)
Ogni gruppo cos`ı composto si differenzia o per un elemento (almeno) o per l’ordine con cui gli oggetti sono disposti. Si noti che, mentre il calcolo del numero delle disposizioni semplici `e relativamente semplice, la costruzione e l’enumerazione esplicita di tutte le possibilit` a diventa sempre pi` u complessa al crescere di n. Nel caso in cui sia consentito ad un oggetto di figurare nei gruppi pi` u di una volta, si parla di disposizioni con ripetizione, la cui definizione `e la seguente. Sono disposizioni con ripetizione di classe k i raggruppamenti ottenibili da n oggetti distinti presi a k a k, in cui ogni oggetto pu` o essere e si ha che ripetuto fino a k volte: il loro numero si indica con il simbolo Dn,k Dn,k = nk .
(5.6)
Ovviamente il numero di disposizioni con ripetizione di n oggetti di classe 1 `e identico al numero degli oggetti e coincide con il numero di disposizioni = Dn,1 = n. semplici: Dn,1 Si noti che in questo caso non ci sono limitazioni su k. Infatti uno stesso oggetto pu` o essere ripetuto quante volte si desidera. I gruppi che contengono gli stessi oggetti ripetuti per lo stesso numero di volte si differenziano tra loro per l’ordine di disposizione degli oggetti. Osserviamo inoltre che ogni gruppo contiene k oggetti e che, in ogni gruppo, un oggetto non `e ripetuto pi` u di k volte. Consideriamo qualche esempio. Dato l’insieme delle 10 cifre da 0 a 9, si calcolino tutte le possibilit` a di comporre gruppi di tre cifre da utilizzare sulle targhe automobilistiche, nel primo caso senza che gli stessi numeri siano ripetuti, nel secondo caso ammettendo anche ripetizioni. Il problema si risolve ricorrendo al calcolo del numero delle disposizioni semplici e di quello delle disposizioni con ripetizione. Nel primo caso dobbiamo calcolare il numero delle disposizioni semplici di 10 elementi presi a 3 a 3: D10,3 = 10 · 9 · 8 = 720. Nel secondo caso dobbiamo calcolare il numero di disposizioni con ripetizione = 103 = 1000. di classe 3: D10,3 La combinazione di una cassaforte `e una sequenza di 6 cifre distinte. Qual `e il numero massimo di tentativi da esaminare, in una ricerca esaustiva, per individuare la combinazione senza conoscerla a priori? Qual `e la probabilit` a di trovare la combinazione giusta al primo tentativo? Il numero delle possibili combinazioni di 6 cifre ottenibili con le cifre da 0 a 9 corrisponde al numero di
5.2 Il calcolo combinatorio
75
disposizioni semplici di 10 oggetti presi a 6 a 6: D10,6 = 10·9·8·7·6·5 = 151 200. La probabilit` a di scoprire la combinazione giusta al primo tentativo `e data da p = 1/151 200 ≈ 6.614 · 10−6 . 5.2.2 Permutazioni semplici e con ripetizione Consideriamo ancora l’esempio precedente. Quante sarebbero le possibili combinazioni della cassaforte se utilizzassimo tutte e 10 le cifre? In tal caso dobbiamo calcolare il numero di disposizioni di 10 elementi presi a 10 a 10: D10,10 = 10 · 9 · . . . · (10 − 10 + 1) = 10 · 9 · 8 · 7 · 6 · 5 · 4 · 3 · 2 · 1 = 3 628 800: si tratta di un numero davvero grande! Le sequenze, in tal caso, contengono lo stesso numero di cifre e si differenziano soltanto per l’ordine nella disposizione dei numeri. Il numero di tali disposizioni corrisponde alle permutazioni semplici di 10 cifre distinte. Definiamo le permutazioni semplici di n oggetti come le disposizioni semplici degli n oggetti, presi a n a n; e indichiamo il loro numero con Pn . Pn = Dn,n = n·(n−1)·(n−2)·. . .·(n−n+1) = n·(n−1)·(n−2)·. . .·1 . (5.7) Il numero di permutazioni semplici di n oggetti `e dunque pari al prodotto dei primi n numeri interi. Tale prodotto viene indicato con n! ed `e noto come il fattoriale di n: n! = n · (n − 1) · (n − 2) · . . . · 1 . (5.8) Tale definizione perde di significato nel caso in cui n = 0: pertanto si definisce 0!=1. In conclusione, (5.9) Pn = Dn,n = n! . Definiamo ora le permutazioni con ripetizione. Il numero di permutazioni di n oggetti in cui uno o pi` u elementi sono ripetuti pi` u volte (r,s,t . . . volte) `e dato dal rapporto tra il numero di permutazioni semplici degli n oggetti e quello delle permutazioni semplici degli r, s, t, . . . oggetti: Pn(r,s,t,...) =
n! Pn = . Pr · Ps · Pt · . . . r! · s! · t! · . . .
(5.10)
Quanti anagrammi sono ottenibili con le lettere della parola orso? Si tratta (2) del numero di permutazioni di 4 oggetti di cui due sono uguali: P4 = 4!/2! = 4 · 3 = 12. Il numero di anagrammi ottenibili con le lettere della parola rosa, tutte diverse tra loro, `e pari a P4 = 4! = 24. 5.2.3 Combinazioni semplici Tra i dieci membri del consiglio di amministrazione di una grande azienda devono essere scelti tre rappresentanti uno dei quali sar`a poi nominato
76
5 Introduzione alla probabilit` a ed al calcolo combinatorio
presidente. In quanti modi `e possibile formare questi gruppi di tre persone? ` chiaro che dobbiamo formare dei gruppi di tre persone in modo tale che E ogni gruppo contenga almeno una persona diversa. I gruppi non sono distinti se i membri sono inseriti con ordine diverso. Il gruppo formato dai signori Rossi, Bianchi e Verdi `e evidentemente uguale a quello formato dai signori Bianchi, Verdi e Rossi. Questo gruppo va cio`e conteggiato una sola volta. Quindi si tratter` a di calcolare il numero delle disposizioni semplici di 10 elementi presi a 3 a 3, contando una sola volta tutti i gruppi che contengono gli stessi elementi e si differenziano solo per l’ordine. In pratica si tratta di dividere il numero di disposizioni semplici di 10 oggetti presi a 3 a 3 per il numero dei possibili scambi di tre oggetti, che corrispondono al numero delle permutazioni semplici di tre oggetti. Nel nostro caso ci sono 120 possibilit` a: D10,3 /P3 = 720/6 = 120. Chiamiamo combinazioni semplici di n oggetti distinti presi a k a k (con k ≤ n) tutti i gruppi contenenti k oggetti realizzabili con gli n oggetti dati, in modo tale che due gruppi qualsiasi differiscano tra loro per almeno un oggetto. Il loro numero si indica con Cn,k ed `e dato da: Dn,k . Pk
(5.11)
Pn . Pn−k · Pk
(5.12)
Cn,k = Si pu` o anche scrivere che: Cn,k =
Infatti si verifica facilmente che, se moltiplichiamo numeratore e denominatore della frazione Dn,k /Pk per Pn−k = (n − k)!, il numeratore si trasforma nel fattoriale di n (cio`e nel numero di permutazioni di n oggetti). In altri termini: n! . (5.13) Cn,k = (n − k)!k! 5.2.4 Coefficienti binomiali Concludiamo questo capitolo con un breve accenno ai coefficienti binomiali. Spesso il numero delle combinazioni semplici di n elementi presi a k a k si indica con il seguente simbolo: n . (5.14) Cn,k = k Consideriamo lo sviluppo della potenza del binomio (x + y)n , dove x e y sono due numeri reali qualsiasi ed n `e un numero intero positivo. Grazie al calcolo combinatorio possiamo conoscere i coefficienti dei vari termini dello sviluppo. Escludendo i termini estremi dello sviluppo, che hanno coefficiente uguale a 1, il termine xn−1 y compare n volte; il termine xn−2 y 2 compare un numero
5.2 Il calcolo combinatorio
77
di volte pari alla combinazione di n oggetti presi a 2 a 2, il termine xn−3 y 3 comparir` a tante volte quante sono le combinazioni di n oggetti presi a 3 a 3, e cos`ı via. Sulla base di queste considerazioni, possiamo ora scrivere lo sviluppo del binomio esplicitando i coefficienti dei singoli termini sotto forma di combinazioni, ovvero: n n n n n n−1 n−2 2 x y+ x y + ... + xy n−1 + y n , (x + y) = x + 1 2 n−1 (5.15) o, in forma pi` u compatta, n n n (x + y) = (5.16) xn−k y k . k k=0
Questo `e noto come formula sviluppo del binomio di Newton e i numeri n n n n n , , ,..., , sono chiamati coefficienti binomia0 1 2 n−1 n li. I coefficienti binomiali godono di alcune importanti propriet` a. La prima `e facilmente deducibile dalla “simmetria” dello sviluppo: i coefficienti binomiali corrispondenti ai termini equidistanti dagli estremi, compresi questi ultimi, sono uguali. Tale affermazione si traduce nella seguente identit` a: n n = . (5.17) k n−k La seconda propriet` a `e utile qualora si debbano calcolare solo alcuni coefficienti binomiali. Purch´e sia noto un coefficiente nello sviluppo, si ottiene il coefficiente successivo moltiplicando quest’ultimo per il fattore numerico (n − k + 1)/k: n−k+1 n n . (5.18) · = k k−1 k Infatti
n−k+1 k n! (n − k + 1) = (n − k + 1)! (k − 1)! k n! = k!(n − k)! n = . k n k−1
·
Ecco, infine, la terza propriet` a: n+1 n n = + . k k−1 k
(5.19)
78
5 Introduzione alla probabilit` a ed al calcolo combinatorio
Infatti
n + k n! n! + = k!(n − k)! (k − 1)! (n − k + 1)! n! k + n! (n − k + 1) = k! (n − k + 1)! (n + 1) n! = k! (n + 1 − k)! (n + 1)! = k! (n + 1 − k)!
n+1 = . k n k−1
Gli strumenti matematici illustrati in questo capitolo saranno approfonditi e sviluppati nei prossimi capitoli dedicati alla teoria della probabilit` a ed all’analisi statistica dei dati sperimentali.
6 Variabili casuali, densit` a di probabilit` ae distribuzioni
Nel capitolo 5 abbiamo introdotto il concetto di probabilit` a, abbiamo elencato le varie definizioni di probabilit` a, abbiamo descritto le principali propriet` a ed enunciato i teoremi pi` u importanti. In questo capitolo approfondiremo le nostre conoscenze sulla teoria della probabilit`a: dopo averne richiamato i concetti fondamentali e aver dimostrato i teoremi pi` u significativi, introdurremo gli importanti concetti di variabile casuale, di densit` a di probabilit` ae di distribuzione di probabilit` a.
6.1 Tipi di dati Immaginiamo di lanciare una moneta in aria e di associare il numero 1 ad ogni lancio in cui esce testa ed il numero 0 ad ogni lancio in cui esce croce. Va chiarito che non `e particolarmente rilevante, in questo caso, la scelta di 0 e 1 per indicare i risultati dei singoli lanci. Avremmo potuto altrettanto ragionevolmente decidere di identificare con le lettere t il risultato testa e c il risultato croce. Quando si trattano insiemi di dati `e infatti opportuno chiarire che ne esistono di due tipi. Esistono insiemi di dati quantitativi ed insiemi di dati qualitativi. Allorch´e misuriamo, ad esempio, le altezze di un gruppo di persone, abbiamo a che fare con un insieme di dati quantititativi. Se invece siamo interessati a conoscere la nazionalit` a delle persone appartenenti al gruppo considerato, stiamo occupandoci di un insieme di dati qualitativi. Se si tratta di un gruppo di europei, potremmo decidere di assegnare – convenzionalmente – il numero 1 agli ungheresi, il numero 2 agli spagnoli, il numero 3 ai norvegesi, il numero 4 ai greci e cos`ı via. Anche se abbiamo scelto di identificare le nazionalit` a con numeri, in questo contesto tali numeri non possiedono alcun valore numerico. Mentre sui dati quantititativi (le altezze delle persone, ad esempio) ha senso calcolare grandezze come la media, per i dati qualitativi (anche qualora siano espressi da numeri) le usuali operazioni aritmetiche non hanno significato. I dati quantititativi possono assumere valori continui oppure discreti. Le possibili concentrazioni di diossido di carbonio nell’atmosfera possono assumere un insieme continuo di valori e costituiscono pertanto una variabile continua, mentre il numero di computer per famiglia `e un dato quantititativo discreto.
80
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
Ricordiamo che, nel caso di variabili discrete, chiamiamo modalit` a i valori che possono essere assunti da un carattere (sia qualitativo che quantitativo). Per quanto riguarda il lancio della nostra moneta, ad esempio, il risultato `e un dato qualitativo le cui modalit` a sono testa e croce (0 e 1).
6.2 Eventi e probabilit` a Nel capitolo 5 abbiamo introdotto il concetto di probabilit` a e ne abbiamo esa` ora opportuno, prima di introdurre le variaminato alcuni aspetti intuitivi. E bili casuali e le distribuzioni di probabilit` a, approfondire le nostre idee sulla probabilit` a esaminandone alcuni aspetti formali. Per farlo conviene che riassumiamo le idee principali espresse nel precedente capitolo, approfondendole quando necessario. Ricordiamo che, se consideriamo l’insieme di tutti i possibili risultati di un esperimento, abbiamo riservato la lettera E per indicare questo insieme. Supponiamo di lanciare un dado: i possibili risultati dell’esperimento sono i numeri da 1 a 6. In altri termini E = {1, 2, 3, 4, 5, 6}, in tal caso. In generale, una volta individuato E, possiamo dire che qualunque risultato dell’esperimento in questione si trova in E. Possiamo essere interessati alla probabilit` a di un particolare risultato; ad esempio che, in un dato lancio, esca il numero tre. Se il dado in questione `e perfettamente regolare ed il lancio viene effettuato senza trucchi, tale probabilit` a `e facilmente calcolabile. Infatti, poich´e abbiamo assunto che i sei possibili risultati dell’esperimento siano equiprobabili (abbiano cio`e tutti la stessa probabilit` a di verificarsi) e poich´e inoltre `e certo che uno dei 6 numeri uscir` a, la probabilit` a che esca il numero tre (cos`ı come quella di qualunque altra faccia del dado) deve essere pari a 1/6. Non sempre la probabilit` a del risultato di un esperimento `e calcolabile tanto facilmente. Inoltre spesso siamo interessati alla probabilit` a di eventi pi` u complicati di quello descritto. Per esempio, nel caso del lancio del dado, potremmo essere interessati alla probabilit`a che il risultato del nostro esperimento sia un numero maggiore di 3, oppure un numero compreso tra 2 e 5. Per trattare problemi come questi abbiamo introdotto il concetto di evento. Gli eventi corrispondono ai sottoinsiemi di E. Un evento come quello in cui il risultato del nostro esperimento `e un numero minore o uguale a 3 corrisponde al sottoinsieme {1,2,3} di E. Analogamente, l’evento corrispondente all’uscita di un numero compreso (strettamente) tra 2 e 5 corrisponde al sottoinsieme {3,4} di E, e cos`ı via. L’evento corrispondente all’uscita del numero 3 corrisponde al sottoinsieme {3} di E. Nel caso del nostro dado regolare e senza trucchi, la probabilit` a dell’evento {1,2,3} `e pari a 3/6 mentre quella dell’evento {3,4} `e uguale a 2/6. In generale, se tutti gli elementi dell’insieme E sono equiprobabili, allora la probabilit` a di un qualunque evento `e uguale al rapporto tra il numero degli elementi del sottoinsieme corrispondente all’evento ed il numero degli elementi di E.
6.2 Eventi e probabilit` a
81
Indichiamo con A un generico evento corrispondente ad un sottoinsieme di E: spesso confonderemo, per semplicit` a di scrittura, la parola evento con il sottoinsieme di E che corrisponde all’evento. Parleremo cio`e dell’evento A anzich´e dell’evento corrispondente al sottoinsieme A dell’insieme E di tutti i possibili risultati dell’esperimento. Tutti gli elementi di A soddisfano, per definizione, la condizione che specifica l’evento. Ad esempio, se l’evento `e che il lancio di un dado dia come risultato un numero inferiore a 5, il sottoinsieme corrispondente all’evento `e A = {1, 2, 3, 4} e tutti i suoi elementi soddisfano la condizione che caratterizza l’evento. Tutti gli elementi di E che non appartengono ad A (cio`e gli elementi contenuti nel complementare di A rispetto ad E, che indichiamo con A¯ e che, per questo particolare esempio, `e costituito dal sottoinsieme A¯ = {5, 6}) non soddisfano la condizione specificata dall’evento. Indichiamo con P (A) la probabilit` a che l’evento A si verifichi. Allora, per ogni A, P (A) ≥ 0 . (6.1) Poich´e la probabilit` a di un evento certo deve essere uguale a 1, e poich´e E corrisponde a tutti i possibili risultati dell’esperimento e quindi l’evento E `e certo, segue che P (E) = 1 . (6.2) Se l’intersezione di due eventi `e un evento vuoto, i due eventi sono detti essere disgiunti: in altri termini diremo che due eventi sono disgiunti se l’evento corrispondente alla loro intersezione `e impossibile. Ovviamente la probabilit` a di un evento impossibile (cio`e la probabilit` a di un evento corrispondente ad un insieme vuoto) `e nulla: P (∅) = 0 . (6.3) La probabilit` a dell’unione di n eventi `e sempre minore o uguale alla somma delle probabilit` a dei singoli eventi: n n Ai ≤ P (Ai ) . (6.4) P i=1
i=1
Se, d’altronde, gli n eventi sono disgiunti, la probabilit` a della loro unione `e uguale alla somma delle probabilit` a dei singoli eventi: n n P Ai = P (Ai ) . (6.5) i=1
i=1
Quest’ultima equazione vale nel caso in cui, per ogni i e per ogni j, Ai ∩ Aj = ∅ .
(6.6)
il che `e equivalente alla condizione P (Ai ∩ Aj ) = P (∅) = 0 .
(6.7)
82
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
6.2.1 Probabilit` a dell’unione di 2 eventi Consideriamo il calcolo della probabilit` a dell’unione di due eventi corrispondenti ai sottoinsiemi A1 e A2 di E. La probabilit` a dell’evento corrispondente alla loro unione `e data da P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) .
(6.8)
Per dimostrare questa importante propriet`a, consideriamo i due eventi A1 e A¯1 ∩ A2 . Essi sono chiaramente disgiunti (si veda la figura 6.1). La loro unione `e uguale all’unione di A1 e A2 . Pertanto P (A1 ∪ A2 ) = P (A1 ∪ (A¯1 ∩ A2 )) = P (A1 ) + P (A¯1 ∩ A2 ) .
(6.9)
Figura 6.1. Intersezione tra gli insiemi A1 e A2 (evidenziata in colore nero)
Poich´e, per ogni sottoinsieme A1 di E, si ha che A1 ∪ A¯1 = E ,
(6.10)
possiamo esprimere qualunque sottoinsieme A2 di E come A2 = A2 ∩ E = A2 ∩ (A1 ∪ A¯1 ) = (A2 ∩ A1 ) ∪ (A2 ∩ A¯1 ) = (A1 ∩ A2 ) ∪ (A¯1 ∩ A2 ) .
(6.11)
Abbiamo applicato, nell’ultima equazione, le propriet` a distributiva e commutativa dell’intersezione di insiemi. Come accade sovente nella teoria degli
6.2 Eventi e probabilit` a
83
insiemi, anche il semplice esame della figura 6.1 permette di convincersi del risultato espresso dall’equazione. Siccome i due eventi corrispondenti ai sottoinsiemi (A1 ∩ A2 ) e (A¯1 ∩ A2 ) o sono disgiunti, concludiamo che la probabilit` a di un generico evento A2 pu` essere espressa come segue: P (A2 ) = P (A1 ∩ A2 ) + P (A¯1 ∩ A2 ) .
(6.12)
P (A¯1 ∩ A2 ) = P (A2 ) − P (A1 ∩ A2 )
(6.13)
Pertanto e, quindi, P (A1 ∪ A2 ) = P (A1 ) + P (A¯1 ∩ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) , (6.14) che `e esattamente quanto si voleva dimostrare. Si noti che, nell’ipotesi in cui i due eventi siano disgiunti, quest’ultima equazione si riduce alla seguente P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) .
(6.15)
La probabilit` a dell’unione di due eventi disgiunti `e pari alla somma delle probabilit` a degli eventi. 6.2.2 Probabilit` a dell’unione di n eventi Il risultato rappresentato dall’equazione (6.8) pu` o essere generalizzato ad un numero qualunque di eventi. Vediamo che forma assume nel caso di tre eventi. Consideriamo la figura 6.2 in cui i tre eventi A1 , A2 e A3 sono rappresentati come l’unione di sette eventi disgiunti. Indichiamo, come in figura, con i valori a dei sette eventi disgiunti. La p1 , p2 , p3 , p4 , p5 , p6 e p7 i valori delle probabilit` probabilit` a dell’unione di A1 , A2 e A3 `e pertanto pari a quella dell’unione dei sette eventi disgiunti caratterizzati dalle probabili` a pi (i = 1, . . . , 7). Possiamo dunque scrivere che 7 pi . (6.16) P (A1 ∪ A2 ∪ A3 ) = i=1
Dalla figura si vede che, d’altra parte, P (A1 ) + P (A2 ) + P (A3 ) = p1 + p2 + p3 + 2p4 + 2p5 + 2p6 + 3p7 ,
(6.17)
P (A1 ∩ A2 ) + P (A2 ∩ A3 ) + P (A1 ∩ A3 ) = p4 + p5 + p6 + 3p7 ,
(6.18)
P (A1 ∩ A2 ∩ A3 ) = p7 .
(6.19)
84
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
Figura 6.2. Calcolo della probabilit` a dell’unione di tre eventi
Possiamo dunque concludere che P (A1 ∪ A2 ∪ A3 ) = P (A1 ) + P (A2 ) + P (A3 ) (6.20) −P (A1 ∩ A2 )) − P (A2 ∩ A3 )) − P (A1 ∩ A3 ) +P (A1 ∩ P2 ∩ P3 ) . Si noti che, nell’ipotesi in cui i tre eventi siano disgiunti, quest’ultima equazione si riduce alla seguente: P (A1 ∪ A2 ∪ A3 ) = P (A1 ) + P (A2 ) + P (A3 ) .
(6.21)
La probabilit` a dell’unione di tre eventi disgiunti `e pari alla somma delle probabilit` a degli eventi. In generale la probabilit` a dell’unione di n eventi `e data da n n Ai = P (Ai ) (6.22) P i=1
i=1
−
P (Ai ∩ Aj )
i<j
+
P (Ai ∩ Aj ∩ Ak ) + · · · +
i<j
+(−1)n+1 P (A1 ∩ A2 ∩ · · · ∩ An )
6.2 Eventi e probabilit` a
e, nel caso gli eventi siano disgiunti, n n Ai = P (Ai ) . P i=1
85
(6.23)
i=1
6.2.3 Probabilit` a condizionale Siamo ora interessati ad esaminare come la probabilit` a di un dato evento B cambi dopo che abbiamo saputo che qualche altro evento A si `e verificato. Tale probabilit` a si indica con la notazione P (B|A) e viene chiamata probabilit` a condizionale di B dato A. Con questa espressione si intende che P (B|A) `e il valore assunto dalla probabilit` a dell’evento B qualora si sappia che si `e verificato l’evento A. La probabilit` a condizionale di B dato A si pu` o calcolare sulla base di considerazioni assai semplici. Sapendo che l’evento A si `e verificato, concludiamo che il risultato del nostro esperimento deve essere un elemento del sottoinsieme A di E. Quindi la valutazione della nuova probabilit` a di B deve tenere conto dei soli risultati che sono presenti sia nel sottoinsieme A che nel sottoinsieme B, vale a dire nel sottoinsieme di E ottenuto intersecando i due sottoinsiemi A e B. Definiamo pertanto P (B|A) come il rapporto tra la probabilit` a dell’intera di A: sezione di A e B e la probabilit` P (B|A) =
P (A ∩ B) . P (A)
(6.24)
Il teorema di Bayes Una conseguenza dell’equazione (6.24) `e rappresentata dal teorema di Bayes, ` ben noto che gli n insiedi cui diamo di seguito una breve dimostrazione. E mi A1 , A2 , . . . , An contenuti in E costituiscono una partizione di E se sono disgiunti e se la loro unione coincide con E. Consideriamo dunque una partizione A1 , A2 , . . . , An di E. Sia inoltre B un evento di E. Dalla definizione di probabilit` a condizionale segue che, per ogni i = 1, 2, . . . , n, P (Ai ∩ B) = P (Ai )P (B|Ai ) .
(6.25)
Consideriamo ora gli eventi A1 ∩ B, A2 ∩ B, . . . , An ∩ B. Essi costituiscono chiaramente una partizione di B: infatti sono disgiunti e la loro unione coincide con B. Pertanto la probabilit` a di B, P (B), `e uguale alla somma delle probabilit` a degli eventi Ai ∩ B (i = 1, 2, . . . , n): P (B) =
n j=1
P (Aj ∩ B) =
n j=1
P (Aj )P (B|Aj ) .
(6.26)
86
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
Applicando nuovamente l’equazione (6.24) otteniamo la formula di Bayes: P (Ai )P (B|Ai ) P (Ai |B) = n . j=1 P (Aj )P (B|Aj )
(6.27)
6.2.4 Eventi indipendenti Supponiamo che due eventi A1 e A2 siano indipendenti: con questo intendiamo che il verificarsi dell’uno non ha alcuna influenza sul verificarsi dell’altro. a Diremo che i due eventi A1 e A2 sono indipendenti se e solo se la probabilit` che si verifichino entrambi `e uguale al prodotto delle probabilit` a dei singoli eventi, cio`e se e solo se: P (A1 ∩ A2 ) = P (A1 )P (A2 ) .
(6.28)
a condizionale segue che Se P (A2 ) > 0, dalla definizione di probabilit` P (A1 |A2 ) =
P (A1 )P (A2 ) = P (A1 ) . P (A2 )
(6.29)
Questo significa che se due eventi sono indipendenti, la probabilit` a condizionale di uno dei due, una volta noto il verificarsi dell’altro, `e identica alla probabilit` a del primo quando non ci sono informazioni sul verificarsi del secondo. Vale anche l’osservazione inversa, secondo cui se P (A1 |A2 ) = P (A1 ) e se P (A2 |A1 ) = P (A2 ), allora i due eventi A1 e A2 sono indipendenti. La probabilit` a dell’unione di due eventi indipendenti `e data da: P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 )P (A2 ) .
(6.30)
L’indipendenza di un dato numero di eventi si definisce mediante la generalizzazione della definizione di indipendenza di due eventi. Per esempio, tre eventi A1 , A2 e A3 sono indipendenti se e solo se tutte le seguenti condizioni sono soddisfatte: (6.31) P (A1 ∩ A2 ) = P (A1 )P (A2 ) , P (A2 ∩ A3 ) = P (A2 )P (A3 ) ,
(6.32)
P (A3 ∩ A1 ) = P (A3 )P (A1 ) ,
(6.33)
P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ).
(6.34)
e Cos`ı n eventi A1 ,. . . , An sono indipendenti se e solo se, per ogni k tra essi (con k = 2, 3, . . . , n), P (Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P (Ai1 )P (Ai2 ) · · · P (Aik ).
(6.35)
6.3 Variabili casuali
87
6.3 Variabili casuali Il concetto di variabile casuale `e di fondamentale importanza nella trattazione degli errori sperimentali, in particolare in quella dei cosiddetti errori casuali, errori che interessano tutti i problemi di misura nelle scienze fisiche, chimiche e biologiche. Al fine di introdurre le variabili casuali con un esempio concreto, ricorreremo al lancio di una moneta per un fissato numero n di volte. Si tratta, in realt` a, di un esperimento che descrive uno schema molto importante ed ha a che vedere con una situazione assai pi` u generale di quella del semplice lancio di una moneta. Riguarda la configurazione sperimentale corrispondente ad una serie di eventi casuali indipendenti ognuno dei quali pu` o dare origine a due soli risultati: successo o insuccesso. Per tale ragione questo esperimento viene talora identificato con l’espressione schema successo-insuccesso. Lo schema successo-insuccesso, oltre a costituire un’interessante applicazione di quanto abbiamo appreso fino ad ora sulla teoria della probabilit` a, rappresenta un’esemplificazione molto semplice e utile per introdurre le variabili casuali (e anche, come vedremo successivamente, a descrivere una particolare densit` a di probabilit` a, quella binomiale). Per procedere esaminiamo dunque con attenzione lo schema successo-insuccesso. 6.3.1 Lo schema successo-insuccesso Immaginiamo di lanciare in aria una moneta per un certo numero di volte e di chiederci quale sia la probabilit` a di ottenere una particolare sequenza di testa e croce. Indichiamo con 1 il risultato corrispondente a testa e con 0 quello corrispondente a croce. Da quanto abbiamo appreso finora sulla probabilit` a, sappiamo che se la probabilit` a che il risultato del lancio di una moneta sia testa (1) `e pari a p, allora la probabilit` a che il risultato di un generico lancio sia croce (0) deve essere pari a 1 − p. Tipicamente ci aspettiamo, per una moneta regolare, che p sia uguale a 1/2: ma ora vogliamo considerare il caso pi` u generale in cui la moneta pu` o essere irregolare e imperfetta e in cui, pertanto, p pu` o assumere un qualunque valore compreso tra 0 e 1. Qual `e la probabilit` a di ottenere, lanciando la moneta per tre volte, una data sequenza di 1 e 0, ad esempio la 101? Per cominciare costruiremo l’insieme E di tutti i possibili risultati del nostro esperimento che `e costituito da tre lanci di una moneta con probabilit` a p di dare testa e probabilit` a 1-p di dare croce: E = {000, 001, 010, 100, 011, 101, 110, 111} .
(6.36)
Costruiamo poi i tre sottoinsiemi di E, Ai , (con i=1, 2, 3) definiti come gli eventi in cui il risultato dell’i-esimo lancio `e testa (1): A1 = {100, 101, 110, 111} ;
(6.37)
88
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
A2 = {010, 011, 110, 111} ;
(6.38)
A3 = {001, 011, 101, 111} .
(6.39)
` sufficiente un attimo di riflessione per convincersi che i sottoinsiemi A¯i E complementari di Ai rispetto ad E non sono altro che gli eventi in cui il risultato dell’i-esimo lancio `e croce (0): A¯1 = {000, 001, 010, 011} ;
(6.40)
A¯2 = {000, 001, 100, 101} ;
(6.41)
A¯3 = {000, 010, 100, 110} .
(6.42)
Osserviamo ora che ognuna delle sequenze possibili pu` o essere espressa come l’intersezione di tre tra i sottoinsiemi Ai e i loro complementari rispetto ad E, A¯i (i= 1, 2, 3). Ad esempio, l’evento corrispondente al sottoinsieme {101} si pu` o esprimere come: {101} = A1 ∩ A¯2 ∩ A3 .
(6.43)
Gli eventi corrispondenti ai sottoinsiemi A1 , A2 e A3 ed ai loro sottoinsiemi complementari rispetto ad E, A¯1 , A¯2 e A¯3 , sono tra loro indipendenti: infatti non c’e alcuna ragione per ritenere che la conoscenza dei risultati dei lanci di una moneta dia informazioni che possano essere utilizzate per prevedere i risultati dei lanci successivi. In altre parole la probabilit` a di un evento come quello costituito dalla sequenza di risultati 101 `e uguale al prodotto delle probabilit` a degli eventi di cui {101} `e intersezione: P ({101}) = P (A1 )P (A¯2 )P (A3 ) .
(6.44)
Se riflettiamo sulla definizione che abbiamo dato degli eventi corrispondenti ai sottoinsiemi Ai ed ai loro complementari rispetto a E, A¯i , ci rendiamo immediatamente conto che (6.45) P (Ai ) = p , e che P (A¯i ) = 1 − p .
(6.46)
Infatti l’evento costituito dal sottoinsieme Ai corrisponde a quello in cui il risultato dell’i-esimo lancio `e testa, a prescindere dall’esito degli altri due lanci: la sua probabilit` a `e p; analogamente l’evento costituito dal sottoinsieme A¯i corrisponde a quello in cui il risultato dell’i-esimo lancio `e croce, a prescindere dall’esito degli altri due lanci: la sua probabilit` a `e 1 − p. Di conseguenza: P {101} = p2 (1 − p) .
(6.47)
Pare opportuno osservare che, se gli eventi sono equiprobabili, cio`e nel caso speciale in cui la probabilit` a che esca testa `e identica alla probabilit` a che esca croce (p = 1 − p = 1/2), dall’equazione (6.47) segue che la probabilit` a
6.3 Variabili casuali
89
dell’evento {101} `e pari a 1/8. Nel caso di equiprobabilit` a avremmo potuto ottenere questo risultato osservando che la probabilit` a di ognuna delle otto sequenze `e data da 1/23 = 1/c(E), dove abbiamo indicato con c(E) la cosiddetta cardinalit` a dell’insieme dei risultati possibili (vale a dire il numero delle osservazioni possibili). ` ora assai chiaro che il risultato ottenuto per sequenze di tre lanci pu` E o essere esteso al calcolo della probabilit` a di ottenere una qualunque sequenza di n lanci. Infatti la probabilit` a di ogni particolare sequenza corrispondente all’evento in cui `e uscita testa per k volte e croce per n−k volte `e indipendente dalle posizioni degli 1 e degli 0 all’interno della sequenza. Pertanto `e sufficiente calcolare la probabilit` a dell’evento corrispondente al sottoinsieme α definito da (6.48) α = A1 ∩ A2 ∩ · · · ∩ Ak ∩ A¯k+1 ∩ A¯k+2 ∩ · · · ∩ A¯n , in cui i primi k lanci hanno dato testa (1) ed i rimanenti n−k lanci hanno dato croce (0). La probabilit` a dell’evento rappresentato dal sottoinsieme α, tenuto conto dell’indipendenza degli eventi A1 , A2 , . . . , Ak , A¯k+1 , A¯k+2 , . . . , A¯n , `e data da P (α) = P (A1 )P (A2 ) · · · P (Ak )P (A¯k+1 )P (A¯k + 2) · · · P (A¯n ) .
(6.49)
Il risultato finale – valido per ogni problema in cui siamo interessati a serie di esperimenti casuali indipendenti che possono sfociare in due soli possibili risultati le cui probabilit` a siano, rispettivamente, p e (1 − p) – `e pertanto che la probabilit` a della particolare sequenza in cui sono presenti k successi (1) ed n − k insuccessi (0) `e data da: P (α) = pk (1 − p)n−k .
(6.50)
6.3.2 Variabili casuali Abbiamo trattato l’esperimento del lancio di una moneta per n volte come un esempio di uno schema successo-insuccesso. Si tratta di un esempio interessante perch´e ci consente di introdurre il concetto di variabile casuale. Come sappiamo, la sequenza di 1 e 0 che possiamo costruire lanciando in aria un moneta per n volte `e un elemento dello spazio di probabilit` a E costituito da tutte le possibili sequenze di n cifre binarie 1 e 0. Abbiamo imparato a calcolare la probabilit` a di ognuna delle possibili sequenze di n cifre binarie 1 e 0 (che si possono realizzare, ad esempio, mediante il lancio di una moneta con probabilit` a p di dare testa e 1 − p di dare croce). ` ben chiaro che nel nostro esperimento (generalizzabile a ogni problema E del tipo successo-insuccesso) potremmo essere interessati alla probabilit` a di ottenere k successi in n prove. Indichiamo con ei (i = 1, 2, . . . , n) i risultati o assumere uno tra due valori (testa o croce, dei singoli lanci. Dunque ei pu` 1 o 0, successo o insuccesso, ecc.). Sia s una sequenza di n valori di ei . Sia X(s) la funzione a valori reali definita come il numero di successi (di teste,
90
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
di 1) all’interno di ogni sequenza. Il problema che in questo caso ci poniamo `e allora quello di conoscere la probabilit` a che X(s) sia uguale a k (si tratta, infatti, esattamente della probabilit` a di ottenere k successi in n prove). Tenendo presente questo esempio, possiamo ora dare una definizione un po’ pi` u formale del concetto di variabile casuale. In generale abbiamo appreso che, per ogni dato esperimento, `e sempre possibile definire (almeno in linea di principio) il relativo insieme E di tutti i possibili risultati: ad ognuno di tali risultati si pu` o assegnare un valore della probabilit` a che ha di verificarsi. Molto spesso, tuttavia, non siamo semplicemente interessati al calcolo delle probabilit` a dei vari possibili risultati: assai sovente desideriamo conoscere anche il valore della probabilit` a che una qualche funzione a valori reali dei risultati dell’esperimento sia minore o sia uguale ad un dato numero reale, o appartenga ad un determinato intervallo di numeri reali. L’applicazione X(s) che, in uno schema successo-insuccesso, associa ad ogni sequenza ei di n cifre binarie (1 e 0) il numero di successi `e un esempio di variabile casuale. In generale, se consideriamo un esperimento il cui insieme di possibili risultati `e E, diremo variabile casuale una applicazione X a valori reali definita sull’insieme E che associa ad ogni elemento di E un numero reale. Nell’esempio appena illustrato, X(101) = 2, X(010) = 1 e cos`ı via. Una variabile casuale X pu` o essere continua (cio`e assumere un insieme continuo di valori) oppure discreta (cio`e assumere un insieme di valori discreti, xi , con i = 1, 2, . . . , j, . . .).
6.4 La densit` a di probabilit` a di una variabile casuale Possediamo ora tutti gli strumenti matematici per introdurre formalmente gli importanti concetti di densit` a e di distribuzione di probabilit` a di una variabile casuale. Consideriamo innanzitutto una variabile casuale discreta X: supponiamo cio`e che X possa assumere valori appartenenti all’insieme di numeri reali {x1 , x2 , . . . , xj , . . .}. Tale insieme pu`o essere finito o infinito. Ad ognuno dei valori che X pu` o assumere, possiamo assegnare una probabilit` a p(xi ) tale che sia p(xi ) ≥ 0 per ogni i = 1, 2, . . . , j, . . . e tale che sia i p(xi ) = 1. La funzione p(xi ) che associa ad ogni valore della variabile casuale X la sua probabilit` a di occorrenza `e la cosiddetta densit` a di probabilit` a della variabile discreta X. Per trattare il caso di una variabile casuale continua, `e opportuna qualche ulteriore (breve) considerazione. Utilizziamo il simbolo P per indicare la probabilit` a. Ad esempio, con P (X < b) intendiamo identificare la probabilit` a che una data variabile casuale X (discreta o continua) assuma valori pi` u piccoli del numero reale b. Con la notazione P (a < X < b) intendiamo
6.4 La densit` a di probabilit` a di una variabile casuale
91
invece indicare la probabilit` a che la variabile casuale X (discreta o continua) assuma valori compresi tra i due numeri reali a e b, e cos`ı via. Per una variabile casuale discreta abbiamo introdotto la funzione p(xi ) per identificare la densit` a di probabilit` a di X. In altri termini – pi` u formali – si pu` o dire che, per una variabile casuale discreta, p(xi ) = P (X = xi ). Questo `e un modo compatto di asserire che la funzione densit` a p(xi ) rappresenta la probabilit` a P che la variabile discreta X assuma il valore xi . ` sufficiente una breve riflessione per renderci conto che, nel caso continuo, E qualunque sia il numero reale x, P (X = x) = 0. In altri termini, a causa delle caratteristiche del continuo, non `e interessante chiedersi (come nel caso di variabili casuali discrete) quale sia la probabilit` a che una variabile casuale continua assuma un particolare valore reale, perch´e tale probabilit` a `e sempre nulla. Per convincerci di questo fatto introduciamo una nuova applicazione, la cosiddetta funzione di ripartizione Z. Z(z) `e una funzione a valori reali che rappresenta la probabilit` a che la variabile casuale X assuma valori minori o uguali a z o, in altri termini, Z(z) = P (X ≤ z) .
(6.51)
La dimostrazione che, per qualunque valore reale x, la probabilit` a che la variabile casuale continua X assuma il valore reale x sia nulla, `e immediata. Infatti, per definizione, per ogni coppia di numeri reali a, b, si ha che P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) = Z(b) − Z(a) .
(6.52)
1 n,
dove n `e un
Consideriamo allora i due numeri reali a = x e b = x − qualunque intero positivo:
P (x ≤ X ≤ x −
1 1 ) = Z(x − ) − Z(x) . n n
(6.53)
Calcoliamo ora il limite di quest’ultima equazione al tendere di n all’∞. Il membro a sinistra del segno di uguaglianza tende alla probabilit` a che la variabile casuale X assuma il particolare valore x, P (X = x), mentre quello a destra del segno di uguaglianza tende a Z(x) − Z(x) = 0; di conseguenza, per ogni valore reale x si ha P (X = x) = 0 ,
(6.54)
che `e quanto si voleva dimostrare. Nel caso di una variabile casuale continua `e pertanto necessario utilizzare un altro genere di procedura per introdurre la sua densit` a di probabilit` a. Definiamo la densit` a di probabilit` a di una variabile casuale continua X come la funzione p(x) tale che, per ogni coppia di numeri reali a, b (con b ≥ a), si abbia a
b
p(x) dx = Z(b) − Z(a) = P (a ≤ X ≤ b) .
(6.55)
92
6 Variabili casuali, densit` a di probabilit` a e distribuzioni
Questa definizione `e equivalente alla seguente x p(u) du = Z(x) .
(6.56)
−∞
Infatti lim Z(z) = lim P (X ≤ z) = 0 .
z→−∞
z→−∞
(6.57)
In altri termini, la funzione di ripartizione Z `e la funzione integrale della ` chiaro che, anche nel densit`a di probabilit` a p. Data Z, dunque, p = Z . E caso continuo, p(x) ≥ 0. Semplificando un po’, si pu` o asserire che il passaggio dal caso discreto al caso continuo si ottiene trasformando le sommatorie in integrali. Ad esempio: +∞ p(x) dx = 1 (6.58) −∞
`e l’equazione analoga della
p(xj ) = 1 ,
(6.59)
j
valida nel caso discreto.
6.5 La distribuzione di probabilit` a di una variabile casuale Una volta introdotta la densit` a di una variabile casuale X, `e possibile definire la sua distribuzione di probabilit` a come la funzione che associa a un sottoinsieme di numeri reali S la probabilit` a che X assuma valori che vi appartengono. Nel caso in cui X sia una variabile casuale discreta, la probabilit` a che X assuma valori in S `e la somma delle probabilit`a che X assuma i valori xi appartenenti all’insieme S. Nel caso continuo, se i numeri reali a e b (con a ≤ b) sono gli estremi di S allora, conoscendo la densit` a di probabilit` a di X, otteniamo la sua distribuzione di probabilit` a mediante il calcolo dell’integrale: b p(x) dx . (6.60) P (a ≤ X ≤ b) = a
7 Valore atteso e varianza
Abbiamo gi` a introdotto i concetti di valor medio e di varianza. Dedicheremo questo capitolo ad un approfondimento di tali concetti che consenta una trattazione pi` u generale all’interno della teoria della probabilit` a.
7.1 Il valore atteso di una variabile casuale Abbiamo gi` a incontrato il concetto di valore atteso (una quantit` a nota anche come valor medio, o media, o speranza matematica): ma poich´e, in quell’occasione, ci siamo limitati a introdurre la media aritmetica, `e ora opportuno che presentiamo il concetto ad un livello pi` u generale. Un livello che ci consentir` a di effettuare il calcolo della media allorch´e tratteremo, nel prossimo capitolo, alcuni esempi concreti di densit`a di probabilit` a. Consideriamo, per il momento, una variabile casuale X con una distribuzione discreta caratterizzata da un certo numero (finito o infinito) di valori xi , a di probabilit` a dove i = 1, . . . , j, . . . Indichiamo con la lettera p(xi ) la densit` della variabile casuale X e definiamo il valore atteso di X, che indicheremo con E(X), mediante l’equazione: xi p(xi ) . (7.1) E(X) = i
Se i valori xi sono in numero finito, diciamo n, e, inoltre, sono equiprobabili, allora p(xi ) = 1/n ed il valore atteso si riduce alla media aritmetica: n xi (7.2) E(X) = i=1 . n
La definizione di valore atteso espressa dall’equazione (7.1) `e assai pi` u generale di quella espressa dalla media aritmetica (7.2); `e anche molto pi` u utile, dal momento che le variabili casuali pi` u interessanti nella pratica non sono costituite da valori equiprobabili: in generale ogni valore della variabile casuale, come sappiamo, ha una probabilit` a di occorrenza descritta da una densit` a di probabilit` a che, di solito, non `e una funzione costante. Possiamo pensare, nel caso finito, alla grandezza espressa dall’equazione (7.1) come ad una media ponderata, in cui si assegna ad ogni valore della
94
7 Valore atteso e varianza
variabile un “peso” w proporzionale alla sua probabilit` a di occorrenza. Nel n n caso finito, p(xi ) = w(xi )/n, i=1 w(xi ) = n i=1 p(xi ) = n e l’equazione (7.1) si trasforma nella n n i=1 xi w(xi ) i=1 xi w(xi ) (7.3) = E(X) = n n w(x ) i i=1
che ha una forma analoga a quella della media aritmetica, definita dall’equazione (7.2), ma con la differenza che l’equazione (7.3), che esprime la media ponderata, assegna ad ogni valore della variabile casuale il suo “peso” w. Come sappiamo, le variabili casuali possono anche avere distribuzioni continue. Nel caso di una variabile casuale X con una distribuzione continua la cui densit` a di probabilit` a `e data dalla funzione p(x), il valore atteso (o valor medio) `e definito dall’equazione seguente:
+∞
E(X) =
x p(x) dx .
(7.4)
−∞
Questa definizione si pu` o poi generalizzare al calcolo del valore atteso della somma di un numero arbitrario di variabili casuali. Consideriamo, per a di esempio, due variabili casuali, XA e XB , e sia p(xA , xB ) la loro densit` probabilit` a: allora il valore atteso della somma delle due variabili casuali `e dato da +∞ +∞ (xA + xB ) p(xA + xB ) dxA dxB . (7.5) E(XA + XB ) = −∞
−∞
7.1.1 Alcune importanti propriet` a del valore atteso Nel seguito noi considereremo esclusivamente variabili casuali per cui il valore atteso E(X) esiste e non ci preoccuperemo di specificare ogni volta tale condizione che assumeremo sempre valida. Dimostriamo di seguito le principali propriet` a del valore atteso. Le dimostrazioni saranno condotte utilizzando la definizione espressa dalle equazioni (7.4) e (7.5) che si riferiscono al caso di variabili continue. Le dimostrazioni nel caso di variabili discrete sono analoghe e sono lasciate al lettore per esercizio. Il primo semplice teorema che desideriamo dimostrare si pu` o enunciare come segue: se Y `e una variabile casuale tale che Y = a X + b, dove a e b sono due costanti reali, allora E(Y ) = a E(X) + b. Infatti E(Y ) = E(aX + b) = =a
+∞
(ax + b) p(x) dx
−∞ +∞
−∞
x p(x) dx + b
+∞
−∞
p(x) dx = aE(X) + b .
(7.6)
7.1 Il valore atteso di una variabile casuale
95
Un’altra importante propriet` a del valore atteso `e la seguente: se esiste una costante a tale che P (X ≥ a) = 1, allora E(X) ≥ a e, analogamente, se esiste un numero reale b tale che P (X ≤ b) = 1, allora E(X) ≤ b. Infatti +∞ +∞ x p(x) dx = x p(x) dx E(X) = −∞
≥
+∞
a p(x) dx = a P (X ≥ a) = a ;
a
E(X) = ≤
a
+∞
x p(x) dx =
−∞ b
−∞
b
(7.7)
x p(x) dx
−∞
b p(x) dx = b P (X ≤ b) = b .
(7.8)
Come immediata conseguenza di questo teorema abbiamo che, se P (a ≤ X ≤ b) = 1 ,
(7.9)
a ≤ E(X) ≤ b .
(7.10)
allora Se, poi, P (X ≥ a) = 1 e E(X) = a, allora P (X > a) = 0 e, di conseguenza, P (X = a) = 1. Osserviamo infine che il valore atteso della somma di due o pi` u variabili casuali `e pari alla somma dei valori attesi delle singole variabili casuali. La dimostrazione, che presentiamo qui per due variabili, pu` o essere facilmente estesa dal lettore ad un numero arbitrario di variabili casuali. Consideriamo dunque due variabili casuali XA e XB e calcoliamo il valore atteso della loro somma: +∞ +∞ (xA + xB ) p(xA + xB ) dxA dxB E(XA + XB ) =
+∞
−∞
+∞
= −∞ +∞
−∞ +∞
−∞
−∞
+
−∞
xA p(xA + xB ) dxA dxB xB p(xA + xB ) dxA dxB
= E(XA ) + E(XB ) .
(7.11)
In generale possiamo scrivere che, per ogni insieme finito di variabili casuali XA , XB , . . .: E(XA + XB + · · ·) = E(XA ) + E(XB ) + · · · .
(7.12)
La dimostrazione si ottiene per induzione. Sapendo che il teorema vale per 2 variabili casuali, X1 , X2 ,
96
7 Valore atteso e varianza
E(X1 + X2 ) = E(X1 ) + E(X2 ) , e supponendo che valga per n variabili casuali, X1 , X2 , · · · , Xn , n n E(Xi ) , Xi = E
(7.13)
(7.14)
i=1
i=1
dobbiamo far vedere che, allora, vale per n+1 variabili casuali, X1 , X2 , · · · , Xn+1 , n+1 n+1 E(Xi ) . (7.15) Xi = E i=1
i=1
Ecco, qui di seguito, la dimostrazione: n n+1 Xi = E Xi + Xn+1 E i=1
=E
n
Xi
i=1
+ E(Xn+1 ) =
i=1
=
n+1
n
E(Xi ) + E(Xn+1 )
i=1
E(Xi ) .
(7.16)
i=1
Come corollario dei teoremi dimostrati in questa sezione, osserviamo che il valore atteso di una combinazione lineare di n variabili casuali X1 , X2 , · · · , Xn `e uguale alla combinazione lineare dei valori attesi delle n variabili casuali: E(a1 X1 + a2 X2 + · · · + an Xn ) = a1 E(X1 ) + a2 E(X2 ) + · · · an E(Xn ), (7.17) dove a1 , a2 , · · · , an sono n costanti reali.
7.2 La varianza di una variabile casuale Un’altra grandezza importante, che abbiamo incontrato nella prima parte del libro, `e la varianza. La varianza, come gi`a sappiamo, `e una misura di quanto una data distribuzione risulta dispersa attorno al suo valore atteso; quanto pi` u la varianza di una data distribuzione di probabilit` a `e grande, tanto maggiore sar` a la dispersione dei dati. Una serie di misure precise, vale a dire affette da piccoli errori casuali, sar` a invece caratterizzata da una distribuzione molto concentrata attorno al valor medio e da un piccolo valore della varianza. Consideriamo una variabile casuale X caratterizzata da una densit` a di probabilit` a p(x) e da un valore atteso µ ≡ E(X). La varianza Var(X) della distribuzione di probabilit` a `e definita come: Var(X) = E[(X − µ)2 ] .
(7.18)
7.2 La varianza di una variabile casuale
97
In parole, la varianza `e data dal valore atteso della variabile casuale (X −µ)2 . Nel caso pi` u semplice di una variabile casuale discreta, finita e con densit`a di probabilit` a costante, la varianza, come gi` a sappiamo, `e pari alla media aritmetica dei quadrati degli scarti. Ricordiamo infine che abbiamo riservato i nomi deviazione standard o scarto quadratico medio alla radice quadrata della varianza. 7.2.1 Alcune importanti propriet` a della varianza di una variabile casuale La varianza, cos`ı come il valore atteso, possiede alcune propriet` a molto generali che valgono per qualunque variabile casuale e sulle quali ci soffermeremo in questo capitolo per la loro grande importanza in moltissime applicazioni (e che vanno anche al di l` a degli scopi di questo libro). Si pu` o innanzitutto facilmente mostrare che la varianza `e uguale a zero se e solo se esiste un numero reale c tale che P (X = c) = 1. In altri termini, la varianza non pu` o mai essere uguale a zero se si esclude il caso speciale in cui l’intera distribuzione di probabilit` a della variabile X `e concentrata in un singolo punto. Per dimostrare questa propriet` a della varianza, partiamo dall’ipotesi che questo sia il caso. Ammettiamo cio`e che esista un numero reale c tale che la probabilit` a che la variabile casuale X ne assuma il valore sia uguale a 1. In altre parole, facciamo l’ipotesi che la variabile X possa assumere solo il valore c. La condizione P (X = c) = 1 `e ovviamente equivalente alla P [(X − c)2 = 0] = 1 o, anche, alla P [0 ≤ (X − c)2 ≤ 0] = 1. L’equazione (7.10) assicura pertanto che 0 ≤ E[(X − c)2 ] ≤ 0 o, in altri termini, che Var(X) = E[(X − c)2 ] = 0 .
(7.19)
Scambiamo ora la tesi con l’ipotesi e immaginiamo di essere a conoscenza del fatto che una data variabile casuale `e caratterizzata da varianza nulla: sia cio`e Var(X) = 0. In tal caso, se indichiamo con µ il valore atteso di tale variabile casuale, la nostra ipotesi `e equivalente ad asserire che E[(X − µ)2 ] = 0 .
(7.20)
o essere un numero negativo. Ora, siccome (X −µ)2 `e un quadrato, esso non pu` Pertanto la probabilit` a che (X − µ)2 sia un numero maggiore o uguale a zero deve essere pari a 1: (7.21) P [(X − µ)2 ≥ 0] = 1 . Nella sezione precedente abbiamo d’altronde dimostrato che, per ogni variabile casuale Y , se esiste una costante a tale che P (Y ≥ a) = 1, allora E(Y ) ≥ a. Pertanto possiamo concludere che E[(X − µ)2 ] ≥ 0 .
(7.22)
98
7 Valore atteso e varianza
Siccome, per ipotesi, vale il segno di uguaglianza, concludiamo che P [(X − µ)2 = 0] = 1 ,
(7.23)
P (X = µ) = 1 .
(7.24)
o, in altri termini, Il numero c dunque esiste ed `e il valore atteso µ di X. Abbiamo cos`ı dimostrato un risultato intuitivamente assai plausibile. Un altro risultato molto sensato, che ora dimostreremo, riguarda l’osservazione che se si sposta rigidamente una distribuzione di probabilit` a di una quantit` a arbitraria data, la sua varianza rimarr` a immutata. Si tratta di un’aspettativa ragionevole se ricordiamo il significato della varianza: essa costituisce la dispersione attorno al valore atteso. Sommare una quantit` a costante b a tutti i valori di una data variabile casuale corrisponder` a, ovviamente, a modificare il suo valor medio, che risulter` a aumentato della quantit` a b, ma certamente non la dispersione dei dati attorno ad esso. In altre parole la dispersione della variabile X rispetto al valor medio E(X) `e identica alla dispersione della variabile X + b rispetto a E(X) + b. Gli errori sistematici sono responsabili di questo tipo di situazione. Per dimostrare tale propriet` a, calcoliamo la varianza della variabile casuale aX + b dove a e b sono costanti: Var(aX + b) = E{[(aX + b) − E(aX + b)]2 } = E[(aX + b − aµ − b)2 ] = E[(aX − aµ)2 ] .
(7.25)
Si noti che abbiamo fatto uso della seguente propriet` a del valore atteso, dimostrata in precedenza: E(aX + b) = aE(X) + b = aµ + b . Pertanto Var(aX + b) = E[(aX − aµ)2 ] = E[a2 (X − µ)2 ] = a2 E[(X − µ)2 ] . (7.26) In altri termini,
Var(aX + b) = a2 Var(X) ,
(7.27)
da cui segue immediatamente quanto anticipato e cio`e che Var(X + b) = Var(X) .
(7.28)
Dimostriamo ora un importante teorema sulla varianza, utile in molte occasioni. Per ogni variabile casuale X si ha: Var(X) = E(X 2 ) − [E(X)]2 .
(7.29)
In parole, la varianza di una variabile casuale X `e uguale alla differenza tra il valore atteso del quadrato di X ed il quadrato del valore atteso di X. La dimostrazione `e immediata:
7.2 La varianza di una variabile casuale
99
Var(X) = E[X 2 −2µX +µ2 ] = E(X 2 )−2µE(X)+µ2 = E(X 2 )−µ2 , (7.30) dove abbiamo fatto uso dell’uguaglianza µ = E(X). In effetti l’equazione (7.29) `e un’altra definizione di varianza (usata solitamente per il calcolo della stessa). 7.2.2 Covarianza e variabili casuali indipendenti Consideriamo ora il calcolo della dispersione della somma di due variabili casuali XA e XB : Var(XA + XB ) = E{[XA + XB − E(XA + XB )]2 } .
(7.31)
Applicando pi` u volte la regola secondo cui il valore atteso di una somma di variabili casuali `e uguale alla somma dei valori attesi delle singole variabili, la varianza diventa: Var(XA + XB ) = E{[XA − E(XA )]2 } + E{[XB − E(XB )]2 } +2 E{[XA − E(XA )] · [XB − E(XB )]} .
(7.32)
Definiamo ora la covarianza delle due variabili casuali XA e XB : Cov(XA , XB ) ≡ E{[XA − E(XA )] · [XB − E(XB )]} .
(7.33)
Da questa definizione, e ricordando che il valore atteso di una combinazione lineare di variabili casuali `e uguale alla combinazione lineare dei valori attesi delle variabili, segue immediatamente che la covarianza di due variabili casuali `e uguale alla differenza tra il valore atteso del prodotto delle due variabili ed il prodotto dei valori attesi delle due variabili: Cov(XA , XB ) = E(XA XB ) − 2 E(XA ) E(XB ) + E(XA ) E(XB ) = E(XA XB ) − E(XA ) E(XB ) .
(7.34)
Da quanto visto sino ad ora, concludiamo che Var(XA + XB ) = Var(XA ) + Var(XB ) + 2 Cov(XA , XB ) .
(7.35)
Nel caso in cui il valore atteso del prodotto di due variabili casuali sia uguale al prodotto dei valori attesi delle due variabili, le due variabili sono dette indipendenti. Il concetto di indipendenza di variabili casuali `e del tutto analogo a quello di indipendenza di eventi: due variabili casuali sono dette indipendenti qualora la conoscenza dei valori assunti dall’una non influenzi in alcun modo la previsione sui valori che saranno assunti dall’altra. Poich´e, per due variabili casuali indipendenti, abbiamo
100
7 Valore atteso e varianza
E(XA · XB ) = E(XA ) · E(XB ) ,
(7.36)
ne deduciamo che la covarianza di due variabili indipendenti `e nulla. Possiamo dunque concludere che la varianza della somma di due variabili indipendenti `e uguale alla somma delle varianze delle singole variabili: Var(XA + XB ) = Var(XA ) + Var(XB ) .
(7.37)
Tale propriet` a si estende ad un numero arbitrario di variabili casuali indipendenti. Se X1 , . . . , Xn sono n variabili casuali indipendenti, allora n n Var(Xi ) . (7.38) Xi = Var i=1
i=1
Concludiamo il capitolo osservando che la varianza della differenza di due variabili casuali indipendenti non `e uguale alla differenza delle varianze bens`ı , ancora, alla loro somma. Infatti: Var(XA − XB ) = Var[XA + (−XB )] = Var(XA ) + Var(−XB ) (7.39) = Var(XA ) + (−1)2 Var(XB ) = Var(XA ) + Var(XB ) .
8 Alcune importanti densit` a di probabilit` a
Questo capitolo, dedicato alla descrizione di alcune importanti densit` a di probabilit` a `e forse il pi` u difficile del libro: il lettore non si deve scoraggiare ma, piuttosto, deve seguire con attenzione tutti i calcoli perch´e l’argomento delle densit`a di probabilit` a ha una grande importanza anche in ambiti differenti da quelli per cui questo libro `e stato scritto. Oltre che per l’elaborazione statistica dei dati sperimentali, alcune tra le densit` a di probabilit` a che verranno descritte in questo capitolo si riveleranno utilissime per lo studio di discipline che, come la meccanica quantistica e la meccanica statistica, fanno parte del bagaglio di conoscenze indispensabile ad ogni fisico ed ad ogni chimico. In tal senso ci auguriamo che le pagine seguenti possano essere oggetto di consultazione anche durante i successivi studi universitari. Nel corso del capitolo descriveremo: la densit` a binomiale, la densit` a di Poisson, la densit` a di Gauss (o normale), la densit` a di Lorentz e la densit`a uniforme.
8.1 La densit` a di probabilit` a binomiale Siamo ora in grado di introdurre qualche esempio concreto di densit` a di probabilit` a. Iniziamo con la densit`a binomiale sia per la sua grande importanza (e, in particolare, per le sue connessioni con le densit` a di Poisson e di Gauss) sia perch´e possediamo gi`a tutti gli strumenti per definirla. Consideriamo lo schema successo-insuccesso e chiediamoci quale sia la densit` a di probabilit` a associata alla variabile aleatoria definita dal numero di successi. Noi gi`a conosciamo la probabilit` a di occorrenza di ogni particolare sequenza di n cifre binarie contenente esattamente k successi: essa `e pari a di successo di ogni singolo pk (1 − p)n−k dove p rappresenta la probabilit` esperimento casuale. La densit` a discreta cercata `e data dalla probabilit` a di ogni sequenza contenente k successi moltiplicata per il numero di sequenze contenenti esattamente k successi. Il numero di sequenze contenenti k successi `e dato dal numero di combinazioni di n oggetti presi a k a k, vale a dire
n! n n = . (8.1) Ck = k k!(n − k)!
La densit` a discreta corrispondente alla variabile casuale definita come il numero di successi in uno schema successo-insuccesso (la densit` a binomiale) `e
102
8 Alcune importanti densit` a di probabilit` a
dunque data da fb (k|n, p) =
n! k k!(n−k)! p (1
− p)n−k
per k = 0, 1, . . . , n , altrimenti .
0
(8.2)
Verifichiamo che k fb (k) = 1. Per dimostrarlo, una volta p, n poston! q = k1 − p q n−k non dobbiamo fare altro che osservare che k fb (k) ≡ k=0 k!(n−k)! altro non `e che lo sviluppo del binomio (p + q)n :
1 = (p + q)n =
n k=0
n! pk (1 − p)n−k . k!(n − k)!
(8.3)
a di probabilit` a di k successi in n prove fb (k) rappresenta dunque la densit` allorch´e la probabilit` a di successo di ogni singola prova `e pari a p: `e chiamata densit` a binomiale a causa del suo legame con il teorema del binomio.
0.25
0.2
0.15 fb (k)
0.1
0.05
0
0
5
10
15
k
Figura 8.1. Densit` a di probabilit` a binomiale con p=0.15 e n=20
8.1.1 Valore atteso e varianza della densit` a binomiale Una volta data una densit` a di probabilit` a, siamo interessati a conoscere due parametri importanti che la caratterizzano, vale a dire il suo valore atteso e la sua varianza. Per quanto riguarda il valore atteso della densit` a binomiale,
20
8.1 La densit` a di probabilit` a binomiale
103
0.25
0.2
0.15 fb (k)
0.1
0.05
0
0
5
10
15
20
k
Figura 8.2. Densit` a di probabilit` a binomiale con p=0.85 e n=20
0.18 0.16 0.14 0.12 fb (k)
0.1 0.08 0.06 0.04 0.02 0
0
5
10
15
k
Figura 8.3. Densit` a di probabilit` a binomiale con p=0.50 e n=20
20
104
8 Alcune importanti densit` a di probabilit` a
possiamo prevederlo intuitivamente: siccome il numero totale di prove `e n e, d’altronde, la probabilit` a di successo di ogni singola prova `e pari a p, ci aspettiamo che il valor medio sia uguale a np. A questo risultato si pu` o giungere anche con un ragionamento pi` u rigoroso. Calcoliamo la derivata rispetto a p dell’equazione (8.3): 0=
n k=0
n! [k pk−1 (1 − p)n−k − (n − k) pk (1 − p)n−k−1 ] . k!(n − k)!
(8.4)
Semplici manipolazioni algebriche ci permettono di scrivere n k=0
=n
n! [pk−1 (1 − p)n−k + pk (1 − p)n−k−1 ] k!(n − k)!
k
n k=0
n! pk (1 − p)n−k−1 . k!(n − k)!
Moltiplichiamo ora entrambi i membri dell’ultima equazione per p (1 − p), ricordandoci della condizione di normalizzazione (8.3), n
n! [pk (1 − p)n−k+1 + pk+1 (1 − p)n−k ] k!(n − k)!
k
k=0
= np
n k=0
n! pk (1 − p)n−k k!(n − k)!
= np .
Osserviamo che il primo membro dell’ultima equazione `e uguale a n
k
k=0
=
n
k=0
n! [pk (1 − p)n−k (1 − p) + ppk (1 − p)n−k ] k!(n − k)!
k
n! pk (1 − p)n−k . k!(n − k)!
Possiamo concludere che il valor medio di k, E(K) = k, di una variabile casuale K caratterizzata dalla densit` a di probabilit` a binomiale `e dato da:
E(K) ≡ k ≡
n k=0
n
k
n! kfb (k) = np , pk (1 − p)n−k ≡ k!(n − k)!
(8.5)
k=0
come previsto sulla base di argomenti intuitivi. Passiamo ora al calcolo della varianza della distribuzione Ab binomiale. 2 k f (k) e, per biamo bisogno di conoscere il valore della sommatoria b k effettuare tale calcolo, ricorriamo alla medesima idea utilizzata per ricava re il valore della media k = k k fb (k). Valutiamoinnanzitutto la derivata rispetto a p di entrambi i termini dell’uguaglianza k k fb (k) = np:
8.1 La densit` a di probabilit` a binomiale
105
n
n =
d k fb (k) dp
n
=
k=0
k=0
n! [k 2 pk−1 (1 − p)n−k − k (n − k) pk (1 − p)n−k−1 ] . k!(n − k)!
Moltiplichiamo ora il risultato per p (1 − p): n p (1 − p) n n! [k 2 pk (1 − p)n−k (1 − p) − k (n − k) pk (1 − p)n−k p] = k!(n − k)!
=
k=0 n
k=0
n n! n! k pk (1 − p)n−k . k 2 pk (1 − p)n−k − n p k!(n − k)! k!(n − k)! k=0
Pertanto n
k 2 fb (k) = n p (1 − p) + n p k ,
k=0
o, ricordando che k = n p, n
k 2 fb (k) = n p (1 − p) + n2 p2 .
(8.6)
k=0
A questo punto siamo nella condizione di poter calcolare la varianza Var(K) di una variabile casuale K caratterizzata dalla densit` a di probabilit` a binomiale: Var(K) =
= =
n
(k − k)2 fb (k) =
k=0 n
k=0 n k=0
n
(k − np)2 fb (k)
k=0
(k 2 − 2knp + n2 p2 ) fb (k) k 2 fb (k) − 2np
n
k fb (k) + n2 p2
k=0 2 2
n
fb (k)
k=0
= np(1 − p) + n2 p2 − 2n p + n2 p2 = np(1 − p) . Se indichiamo, al solito, con q = 1 − p la probabilit` a di “insuccesso”, il risultato finale `e il seguente: Var(K) = npq .
(8.7)
106
8 Alcune importanti densit` a di probabilit` a
8.2 La densit` a di probabilit` a di Poisson La densit` a di probabilit` a binomiale, come ben sappiamo, descrive lo schema successo-insuccesso. La densit` a di Poisson costituisce una sua approssimazione nel caso in cui il numero medio di successi in uno schema successoinsuccesso sia molto inferiore al numero totale n. Questa condizione `e equivalente alla circostanza in cui la probabilit` a di successo dello schema `e molto piccola: p 1. 8.2.1 Utilizzo della densit` a di probabilit` a di Poisson La densit` a di probabilit` a di Poisson si utilizza qualora si abbia a che fare con processi in cui il numero medio di successi, in uno schema successo-insuccesso, `e molto inferiore al numero totale n. Essa dipende, come la binomiale, dal numero di successi k. A differenza della densit`a di probabilit` a binomiale la densit` a di probabilit` a di Poisson `e caratterizzata da un solo parametro, λ, che, come dimostreremo, costituisce sia il suo valor medio che la sua varianza. Un tipico esempio di utilizzo della densit` a di probabilit` a di Poisson `e rappresentato dal decadimento di n nuclei radioattivi: se fossimo interessati, ad esempio, a conoscere la probabilit`a che k tra essi decadano entro un intervallo di tempo dato, diciamo ∆t, conoscendo la probabilit` a di decadimento p di ognuno di essi nel medesimo intervallo di tempo ∆t, dovremmo calcolare la densit`a binomiale fb . Tuttavia, nell’esempio considerato, l’ordine di grandezza dei numeri di interesse (n ∼ 1023 , p ∼ 10−20 ) `e tale da rendere proibitivo il calcolo della funzione fb . In un caso come questo `e opportuno ricorrere alle approssimazioni che utilizzeremo in questa sezione per dedurre la densit` a di Poisson. Anche nel caso in cui si studino le reazioni nucleari in un acceleratore `e consigliabile l’utilizzo della densit` a di probabilit` a di Poisson, al posto della binomiale, a causa dell’entit` a del numero n, assai elevato. Oltre che negli esperimenti di decadimento radioattivo e in quelli che interessano le reazioni nucleari all’interno degli acceleratori, la densit` a di probabilit` a di Poisson `e usata nelle simulazioni di Monte Carlo dell’interazione di fasci di particelle con un bersaglio solido: in quel caso la si usa per calcolare, passo dopo passo, la distribuzione dei tratti di cammino effettuati dalle singole particelle che penetrano nel solido usando, per il calcolo del parametro λ, il libero cammino medio delle particelle (una funzione dell’energia delle particelle, del tipo di particelle e delle caratteristiche del bersaglio). La densit` a di Poisson, oltre ad essere un’ottima approssimazione della binomiale qualora il numero n di possibili eventi sia molto grande e la probabilit` a p di successo assai piccola, ha il pregio di essere un’espressione analitica che dipende solo dal parametro λ (oltre che dalla variabile k): essa `e particolarmente appropriata allorch´e si debbano effettuare esperimenti per cui sia misurabile il numero medio di eventi osservati per unit` a di tempo (esperimenti di conteggio).
8.2 La densit` a di probabilit` a di Poisson
107
Poich´e la densit`a di probabilit` a di Poisson viene utilizzata in esperimenti di conteggio, essa si riveler`a utile, come vedremo, quando tratteremo il problema di come stimare se la distribuzione di una serie di osservazioni sperimentali sia consistente con una data distribuzione teorica (si veda la sezione 10.7). 8.2.2 Definizione della densit` a di Poisson La densit`a di Poisson `e definita da k exp(−λ) λk! fp (k|λ) = 0
per k = 0, 1, . . . , altrimenti ,
(8.8)
dove λ > 0. 0.18 0.16 0.14 0.12 0.1 fp (k)
0.08 0.06 0.04 0.02 0 0
5
10
15
20
k Figura 8.4. Densit` a di probabilit` a di Poisson con λ=5
Verifichiamo che k fp (k) = 1. Per farlo, ricordiamo un importante risultato dell’analisi matematica: exp(x) =
∞ xk k=0
k!
.
Tenendo conto di questa uguaglianza possiamo concludere che
(8.9)
108
8 Alcune importanti densit` a di probabilit` a ∞ k=0
fp (k) =
∞
∞
exp(−λ)
k=0
λk λk = exp(−λ) exp(λ) = 1 . = exp(−λ) k! k! k=0 (8.10)
8.2.3 La densit` a di probabilit` a di Poisson come limite della densit` a di probabilit` a binomiale Desideriamo dimostrare che la densit` a di probabilit` a di Poisson rappresenta il limite della densit` a binomiale qualora n sia molto grande e p sia molto piccolo. La densit` a di probabilit` a binomiale `e caratterizzata da due parametri indipendenti: n e p. Poich´e, come dimostreremo, la densit`a di probabilit` a di Poisson si ottiene come limite per n → ∞ e per p → 0 della densit` a binomiale, mantenendo costante la media np, anzich`e essere caratterizzata da due parametri indipendenti la densit` a di Poisson `e definita da un solo parametro. Si tratta del valor medio della binomiale np, che indichiamo qui con la lettera greca λ: λ = np. (8.11) Consideriamo dunque una distribuzione binomiale con n molto grande e p molto piccolo. Una delle conseguenze di tali ipotesi `e che k n: questo perch´e, essendo assai piccola la probabilit` a p, il numero k di eventi favorevoli sar` a anch’esso molto piccolo. Pertanto n! = n(n − 1) . . . (n − k + 1) ≈ nk . (n − k)!
(8.12)
Inoltre, e per gli stessi motivi, q k = (1 − p)k ≈ 1 .
(8.13)
Pertanto la distribuzione binomiale pu` o essere approssimata, nel caso di n molto grande e p molto piccolo, dalla seguente funzione: fb (k) ≈
λk (np)k (1 − p)λ/p . (1 − p)n = k! k!
(8.14)
Ricordiamo ora che la base e dei logaritmi naturali `e esprimibile come il risultato del seguente limite fondamentale dell’analisi matematica: x
1 = e, (8.15) lim 1 + x→∞ x
Posto p = −1/x, quest’ultima equazione `e equivalente alla lim (1 − p)1/p =
p→0
1 . e
(8.16)
8.2 La densit` a di probabilit` a di Poisson
109
Effettuando il passaggio al limite per p → 0 dell’equazione (8.14), otteniamo l’espressione della densit`a di Poisson fp (k) = exp (−λ)
λk . k!
(8.17)
8.2.4 Valore atteso e varianza della densit` a di Poisson Tenendo conto del modo con cui abbiamo dedotto la densit` a di probabilit` a di Poisson, ci aspettiamo che il suo valore atteso sia pari a λ. La dimostrazione `e immediata. Infatti: E(K) ≡ =
=
+∞ k=0 ∞ k=0 ∞
k fp (k) k exp (−λ)
λk k!
k exp (−λ)
λk . k!
k=1
Facciamo notare che, nell’ultima uguaglianza, abbiamo fatto partire la sommatoria da k = 1 dal momento che il termine corrispondente a k = 0 `e ovviamente uguale a zero. Ora, tenuto conto che k! = k (k − 1)! e ricordando l’equazione (8.9), E(K) = λ exp (−λ)
∞ k=1
∞ λi λk−1 = λ exp (−λ) i! (k − 1)! i=0
= λ exp (−λ) exp (λ) = λ .
(8.18)
Il valore della varianza pu` o essere facilmente previsto sulla base della derivazione della densit` a di Poisson che abbiamo illustrato nel paragrafo precedente. Infatti ci aspettiamo che esso sia pari al limite per p → 0 e per n → ∞ della varianza della densit` a binomiale n p q = n p (1−p) (con la condizione che, nel passaggio al limite, λ ≡ n p rimanga costante). Tenuto conto della costanza di n p nel passaggio al limite, possiamo scrivere Var(K) = lim n p q = lim λ(1 − p) = λ . p→0
(8.19)
p→0
Possiamo ricavare il valore della varianza anche mediante un calcolo diretto: Var(K) =
∞ k=0
(k−λ)2 fp (k) =
∞ k=0
k 2 fp (k) − 2λ
∞ k=0
k fp (k) + λ2
∞ k=0
fp (k) .
(8.20) Due sommatorie (la seconda e la terza) ci sono gi` a ben note e ci permettono di scrivere
110
8 Alcune importanti densit` a di probabilit` a
Var(K) =
∞
k 2 fp (k) − 2λ2 + λ2 =
k=0
∞
k 2 fp (k) − λ2 .
(8.21)
k=0
Non ci rimane che calcolare la somma ∞
2
k fp (k) =
k=0
=
k
∞ k=0 ∞
k 2 fp :
k 2 exp (−λ)
λk k!
k 2 exp (−λ)
λk . k!
k=1
Si noti che anche in questo caso, nell’ultima uguaglianza, abbiamo fatto partire la sommatoria da k = 1 dal momento che il termine corrispondente a k = 0 `e uguale a zero. Proseguiamo con il nostro calcolo, ricordando che k! = k (k − 1)!: ∞
k 2 fp (k) =
k=0
∞
λ exp (−λ) k
k=1
= λ exp (−λ)
= λ exp (−λ)
∞ k=1 ∞
i=0
λk−1 (k − 1)!
(k − 1)
∞ λk−1 λk−1 + λ exp (−λ) (k − 1)! (k − 1)!
∞ λi λ + λ exp (−λ) i i! i! i=0
k=1
i
∞ ∞ λi λi . + λ exp (−λ) i = λ exp (−λ) i! i! i=0 i=1
Ancora una volta abbiamo spostato l’inizio delle prima sommatoria da i = 0 a i = 1, essendo nullo il primo termine. ∞ k=0
k 2 fp (k) = λ2 exp (−λ)
∞ i=1
λi−1 + λ exp (−λ) exp (+λ) (i − 1)!
∞ λk +λ = λ2 exp (−λ) k! k=0
2
= λ exp (−λ) exp (+λ) + λ = λ2 + λ . Sostituendo quest’ultimo risultato nell’equazione (8.21), otteniamo infine quanto avevamo previsto sulla base di argomenti intuitivi: Var(K) = λ2 + λ − λ2 = λ .
(8.22)
8.3 La densit` a di probabilit` a di Gauss
111
8.3 La densit` a di probabilit` a di Gauss I vari tipi di misure hanno, come `e ragionevole, differenti distribuzioni limite. Sperimentalmente si trova, tuttavia, che esiste una grandissima quantit` a di misure che sono distribuite, al limite, secondo una curva simmetrica a campana: per essere pi` u precisi possiamo asserire che, qualora una misura sia affetta da molti piccoli errori casuali, allora i valori della grandezza in questione tenderanno, al limite, a distribuirsi su una curva simmetrica a campana il cui centro di simmetria corrisponde al valore medio della grandezza. La curva simmetrica a campana corrispondente alla distribuzione limite `e nota come curva di Gauss, o gaussiana, o normale. La legge di probabilit` a di Gauss (o densit` a normale) costituisce in effetti, e per molte ragioni, la pi` u importante tra le densit` a di probabilit` a della statistica: gi` a abbiamo osservato che le variabili casuali degli esperimenti della fisica, della chimica, della biologia sono distribuite assai spesso in modo approssimativamente normale. Se consideriamo, ad esempio, una popolazione omogenea di persone, si nota che le loro altezze ed i loro pesi seguono la legge di Gauss. Un’altra ragione che rende particolarmente rilevante lo studio della densit` a normale `e legata al Teorema del Limite Centrale che asserisce che se consideriamo qualunque campione casuale (sufficientemente grande e con varianza finita), allora la distribuzione delle medie `e approssimativamente gaussiana. In altri termini, anche qualora dati gruppi di osservazioni siano descritti da densit` a di probabilit` a non gaussiane, se calcoliamo le medie di tali gruppi, con l’ipotesi che essi siano numerosi, esse seguiranno la legge gaussiana. C’`e infine da osservare che, se un insieme di variabili casuali proviene da una densit` a gaussiana, allora `e facile esprimere in forme relativamente semplici le distribuzioni di molte altre funzioni assai importanti. La densit` a di probabilit` a di Gauss `e definita dalla seguente equazione: (x − µ)2 1 . (8.23) exp − fg (x|µ, σ) = √ 2σ 2 2πσ
Si tratta di una densit` a di probabilit` a che, come vedremo meglio nel seguito, caratterizza variabili casuali continue e descrive fedelmente la distribuzione degli errori casuali delle misure: i matematici lo hanno dimostrato e i fisici lo hanno ampiamente verificato. Nel paragrafo che segue ricaveremo, da semplici considerazioni matematiche, la legge di Gauss come limite della densit` a di probabilit` a binomiale. La verifica che l’equazione (8.23) soddisfa a anch’essa effettuata nel prossimo alla condizione fg (x|µ, σ) dx = 1 sar` paragrafo. 8.3.1 La densit` a di probabilit` a di Gauss come limite della densit` a di probabilit` a binomiale La dimostrazione che segue `e fondata sull’idea che ogni errore casuale possa essere pensato come l’esito di una grande quantit`a di errori elementari aventi
112
8 Alcune importanti densit` a di probabilit` a
ciascuno la medesima probabilit` a di generare modifiche sia in eccesso che in difetto della grandezza che si sta misurando. Se il numero di errori elementari n `e molto grande e gli stessi sono distribuiti secondo una funzione binomiale con uguale probabilit` a di successo e di insuccesso (p = q = 1/2), allora la funzione che descrive gli errori casuali `e data dalla legge di Gauss. Indichiamo con la lettera i singoli errori elementari distribuiti secondo la legge binomiale e cerchiamo di calcolare la probabilit` a che si verifichi un errore compreso tra −n e +n, dove n rappresenta il numero di errori elementari. Facciamo l’ipotesi che k sia il numero di errori elementari positivi. Di conseguenza il numero di errori elementari negativi sar` a pari a n − k e, pertanto, l’errore misurato x sar` a pari a x = k − (n − k) = (2k − n) .
(8.24)
Introduciamo la variabile ausiliaria r, definita dall’equazione: n 2
(8.25)
x = 2r .
(8.26)
r=k−
per cui La probabilit` a fg (x) associata a x, essendo gli errori elementari distribuiti secondo la legge binomiale fb (k|n, 1/2), `e pari a fg (x) ≡ fb (k|n, 1/2) =
n! n! . (1/2)k (1/2)n−k = k!(n − k)!2n k!(n − k)!
(8.27)
Prima di procedere `e bene ricordare alcune propriet` a della distribuzione binomiale, che ci consentiranno di calcolare la varianza dell’errore x: n
fb (k|n, p) = 1 ;
k=0
k=
n
k fb (k|n, p) = np ;
k=0 n
k 2 fb (k|n, p) = np(1 − p + np) .
k=0
Nel nostro caso (p = q = 1/2) queste tre ultime equazioni diventano: n k=0
fb (k|n, 1/2) = 1 ;
(8.28)
8.3 La densit` a di probabilit` a di Gauss
k=
n
k fb (k|n, 1/2) =
k=0
n
k 2 fb (k|n, 1/2) =
k=0
n ; 2
n(1 + n) . 4
113
(8.29)
(8.30)
Per quanto riguarda il valor medio degli errori x, esso deve ovviamente essere pari a zero, dal momento che gli errori elementari hanno la stessa probabilit` a di essere sia positivi che negativi. Il calcolo della varianza degli errori x, Var(X) ≡ σ 2 , richiede qualche semplice passaggio algebrico: σ2 =
n
x2 fb (k|n, 1/2) =
k=0
n
(2k − n)2 2 fb (k|n, 1/2)
k=0
n2 n(1 + n) + 2 n2 − 42 = 42 2 4 = n 2 .
Abbiamo dunque dimostrato che: σ (8.31) = √ ; n √ x n . (8.32) r= 2σ Calcoliamo ora il rapporto tra la probabilit` a di occorrenza dell’errore x + 2 e quella dell’errore x, fg (x + 2)/fg (x). Semplici manipolazioni algebriche permettono di scrivere che:
n/2 − r fg (x + 2) . = n/2 + r + 1 fg (x)
(8.33)
x + 2 = (2k − n) + 2 = [2(k + 1) − n]
(8.34)
Infatti e, tenuto conto dell’equazione (8.27), fg (x + 2) =
Pertanto
n! . (k + 1)!(n − k − 1)!2n
n−k fg (x + 2) . = k+1 fg (x)
(8.35)
(8.36)
Ricordando che k = r + n/2, la (8.33) segue immediatamente. Gli errori elementari sono molto piccoli. Pertanto, approssimando x con una variabile continua, possiamo espandere la probabilit` a fg (x+2) in serie di Taylor e trascurare tutti i termini della somma di ordine superiore al primo:
114
8 Alcune importanti densit` a di probabilit` a
fg (x + 2) ∼ = fg (x) + 2fg (x) ,
(8.37)
dove abbiamo indicato con fg (x) la derivata di fg rispetto alla variabile (ora continua!) x: dfg (x) . (8.38) fg (x) = dx Tenuto conto del fatto che siamo interessati a far tendere n all’infinito ed a zero (in modo da mantenere costante la varianza σ 2 = 2 n), il numeratore del primo membro dell’equazione (8.33) pu` o essere approssimato con la sua espansione di Taylor al primo ordine (8.37): √ √ fg (x) + (2σ/ n)fg n/2 − x n/2σ √ . (8.39) = n/2 + x n/2σ + 1 fg (x)
Segue che
√ fg (x) x/σ 2 + 1/(σ n) √ . =− fg (x) 1 + x/(σ n) + 2/n
(8.40)
Al tendere di n all’infinito quest’ultima equazione si semplifica considerevolmente, riducendosi alla seguente:
fg (x) x =− 2. σ fg (x)
(8.41)
Questa equazione differenziale si risolve facilmente osservando che
fg (x) d ln fg (x) . = dx fg (x)
(8.42)
Sostituendo ed integrando, otteniamo x2 x dx + ln A = − 2 + ln A ln fg (x) = − 2 2σ σ
e, quindi,
x2 fg (x) = A exp − 2 , 2σ
(8.43)
dove A `e una costante di integrazione da determinarsi in base alla condizione di normalizzazione: +∞
−∞
fg (x) dx = 1 .
(8.44)
Prima di calcolare la costante di normalizzazione A, osserviamo che abbiamo interpretato fin qui la variabile x come l’errore rispetto ad un’osservazione con valor medio uguale a zero. Nel caso pi` u generale, in cui il valor medio della grandezza osservata `e pari a µ, l’errore `e pari a x − µ. La nostra densit` a di probabilit` a diventa, in tal caso,
8.3 La densit` a di probabilit` a di Gauss
(x − µ)2 . fg (x) = A exp − 2σ 2
115
(8.45)
Veniamo infine al calcolo della costante di normalizzazione A. Introduciamo la nuova variabile y definita come y=
x−µ . σ
(8.46)
Poich´e dy = dx/σ, il nostro problema si riduce al calcolo del seguente integrale: +∞ exp(−y 2 /2) dy . (8.47) I≡ −∞
Una volta noto il valore di I, avremo infatti che A = 1/(I σ). Per effettuare il calcolo, ricorreremo ad un trucco. Consideriamo il quadrato di I: +∞ +∞ 2 2 I = exp(−y /2) dy exp(−z 2 /2) dz −∞ +∞
−∞
−∞ +∞
−∞ +∞
−∞
−∞
+∞
= =
exp(−y 2 /2) exp(−z 2 /2) dy dz exp[−(y 2 + z 2 )/2] dy dz .
(8.48)
Passiamo ora a coordinate polari, y 2 + z 2 = ρ2 , dy dz = ρ dρ dθ. Il nostro integrale doppio diventa ora: 2π +∞ 2 exp(−ρ2 /2) ρ dρ dθ I = 0 0 +∞ ρ exp(−ρ2 /2) dρ = 2π 0 +∞ exp(−t) dt = 2π , (8.49) = 2π 0 2 dove abbiamo effettuato una √ nuova sostituzione di variabile (2t = ρ , dt = ρ dρ). Di conseguenza I = 2π e
A=
da cui fg (x) = √
1 I , =√ σ 2πσ
(x − µ)2 1 . exp − 2σ 2 2πσ
(8.50)
(8.51)
116
8 Alcune importanti densit` a di probabilit` a
8.3.2 Valore atteso e varianza della densit` a di Gauss 2 1 dipende exp − (x−µ) La densit` a di probabilit` a di Gauss fg (x|µ, σ) = √2πσ 2σ 2 da due parametri, σ e µ. Nel paragrafo precedente abbiamo ricavato l’espressione della densit` a di Gauss e gi`a conosciamo il significato dei due parametri. In questo paragrafo ricaveremo il significato di tali parametri nella maniera consueta, vale a dire a partire dalle definizioni: dimostreremo, in particolare, che, indicata con X una variabile casuale caratterizzata dalla densit` a di probabilit` a di Gauss, il valore atteso E(X) `e uguale a µ mentre la varianza Var(X) `e uguale a σ 2 : E(X) = µ ; (8.52)
Var(X) = σ 2 .
(8.53)
Per il calcolo del valor medio, procediamo come segue: +∞ +∞ (x−µ)2 1 x e− 2σ2 dx . x fg (x) dx = √ E(X) ≡ x ≡ σ 2π −∞ −∞
(8.54)
Effettuiamo ora la sostituzione y(x) = x − µ, dy = dx, y(−∞) = −∞, y(+∞) = +∞:
+∞ +∞ y2 y2 1 (8.55) e− 2σ2 dy . y e− 2σ2 dy + µ E(X) = √ σ 2π −∞ −∞
Il primo dei due integrali `e uguale a zero. Infatti, se lo spezziamo nella somma di due integrali (da −∞ a 0 e da 0 a +∞, rispettivamente) e poi effettuiamo la sostituzione z(y) = y 2 /2σ, dz = y dy/σ, z(−∞) = +∞, z(0) = 0, z(+∞) = +∞, otteniamo +∞ y2 y e− 2σ2 dy −∞
0
= −∞ 0
= σ =
y2
y e− 2σ2 dy +
e−z dz + σ
+∞ σ e−z |+∞ 0
−
+∞
0 +∞
0 σ e−z |+∞ 0
y2
y e− 2σ2 dy
e−z dz
= 0.
(8.56)
Possiamo dunque concludere che +∞ +∞ y2 z2 µ √ µ µ 2π = µ , e− 2 dz = √ e− 2σ2 dy = √ σ E(X) = √ 2π σ 2π −∞ σ 2π −∞ (8.57) dove abbiamo effettuato la sostituzione z(y) = y/σ. Si noti che abbiamo √ +∞ z2 utilizzato un risultato del paragrafo precedente: I ≡ −∞ e− 2 dz = 2π. Il calcolo della varianza
8.3 La densit` a di probabilit` a di Gauss
+∞
Var(X) = −∞
(x − µ)2 fg (x) dx ,
117
(8.58)
richiede un’integrazione per parti. Ecco come conviene procedere. Prima di tutto effettuiamo la sostituzione z = (x − µ)/σ, dz = dx/σ: +∞ +∞ 2 σ2 2 3 z 2 e−z /2 dz . (8.59) Var(X) = σ z fg (z) dz = √ 2π −∞ −∞
Ora effettuiamo l’integrazione per parti u dv = u v − v du , sulle due funzioni u = z e v = −e−z +∞ 2 z 2 e−z /2 dz
2
/2
(8.60)
:
−∞
+∞
= −∞ +∞
=
z z e−z
2
/2
z d(−e−z
2
−∞
=
2 −ze−z /2 |+∞ −∞
dz /2
) dz
+∞
+
e−z
2
/2
dz =
√
2π .
(8.61)
−∞
Sostituendo questo risultato nell’equazione (8.59) concludiamo che, se X `e una variabile casuale con densit` a di probabilit` a di Gauss, allora Var(X) = σ 2 .
(8.62)
8.3.3 La densit` a normale standard e la funzione di ripartizione di Gauss La densit` a normale con media uguale a zero e con varianza uguale a 1, a normale standard: fg (x|0, 1), `e chiamata densit`
1 2 1 . (8.63) fg (x|0, 1) = √ exp − x 2 2π
Nel capitolo 6 abbiamo introdotto la funzione di ripartizione di una generica densit` a di probabilit` a. Consideriamo ora un esempio concreto. Indichiamo a normale standard: con φg (x) la funzione di ripartizione della densit`
x x 1 2 1 √ dt . (8.64) exp − t φg (x) = fg (t|0, 1) dt = 2 2π −∞ −∞
118
8 Alcune importanti densit` a di probabilit` a
0.8 0.7 0.6 0.5 fg (x)
0.4 0.3 0.2 0.1 0
-4
-6
-2
0
2
6
4
x
Figura 8.5. Densit` a di probabilit` a normale, o gaussiana, con µ = 0. Le tre curve corrispondono a σ = 0.5 (la campana pi` u alta e stretta), a σ = 1 (la densit` a normale standard) ed a σ = 1.5 (la campana pi` u bassa e larga) 2
Siccome e−x /2 `e una funzione pari, la densit` a normale standard `e simmetrica rispetto all’asse delle ordinate. Osserviamo, ora, che φg (x) = P (X ≤ x): la funzione di ripartizione di x `e, per definizione, la probabilit` a che la variabile casuale X descritta dalla densit` a normale standard sia minore uguale a x. La simmetria rispetto alla retta x = 0 della densit` a normale standard implica, d’altronde, che P (X ≤ x) = P (X ≥ −x) = 1 − P (X ≤ −x). Poich´e, d’altra parte, P (X ≤ −x) = φg (−x) φg (−x) = 1 − φg (x) .
(8.65)
La funzione di ripartizione non si pu` o esprimere in forma chiusa. In altri termini non `e possibile trovare una qualche combinazione di funzioni note che permetta di ottenere i valori di φg (x) in modo elementare: `e necessario, per calcolare φg (x), ricorrere a metodi numerici. Tipicamente, pertanto, φg (x) si trova tabulata per un certo insieme di valori di x (si veda l’appendice A). La funzione `e stata cio`e precedentemente calcolata utilizzando gli strumenti dell’analisi numerica ed i valori ottenuti sono stati inseriti in tabelle. Tali tabelle sono solitamente riferite ai valori positivi di x: i valori φg (−x) si ottengono allora a partire dall’equazione (8.65).
8.3 La densit` a di probabilit` a di Gauss
119
Calcolo della probabilit` a che X sia compresa tra due valori dati Utilizzando la tabella riportata in appendice A, assumendo che una data variabile casuale X sia caratterizzata da una densit` a di probabilit` a gaussiana, `e immediato calcolare la probabilit` a che X sia compresa tra due valori dati. Supponiamo, ad esempio, di sapere che una data variabile casuale Y , che descrive un insieme di misure, `e descritta da una densit` a di probabilit` a gaussiana. Immaginiamo che il valor medio µ delle misure sia pari a 4 unit` a. Supponiamo, infine, di aver valutato la deviazione standard σ e di sapere che essa `e pari a 1 unit` a. Allora la probabilit` a che Y sia compreso tra 3 unit` ae 7 unit` a, P (3 < Y < 7), `e uguale all’84 per cento. Questo risultato si ottiene facilmente, dopo aver introdotto la nuova variabile casuale X (con densit`a di probabilit` a normale standard) X=
Y −4 Y −µ = Y − 4, = 1 σ
(8.66)
utilizzando la tabella in appendice A. Infatti P (3 < Y < 7) = P (−1 < X < 3) = φg (3) − φg (−1) = φg (3) + φg (1) − 1 = 0.9987 + 0.8413 − 1 = 0.84 . 8.3.4 Studio della forma della densit` a di probabilit` a di Gauss La funzione fg (x|µ, σ) = fg (x) `e simmetrica rispetto all’asse x = µ: di conseguenza il suo valore atteso, E(X) = µ, rappresenta anche la mediana della densit` a di probabilit` a (la mediana, lo ricordiamo, si definisce come il u numero reale m per cui P (X ≤ m) = P (X ≥ m) = 12 ). La moda (o valore pi` probabile) di una densit` a di probabilit` a `e rappresentata dal valore M della variabile casuale corrispondente al massimo della densit`a. In generale, in una serie di misure, la moda M costituisce il valore che ha maggiori probabilit` a di essere osservato. Anche la moda, nella densit` a di Gauss, coincide con il valore atteso (e con la mediana). Osserviamo qui che, in generale, una data densit` a di probabilit` a non `e necessariamente simmetrica, per cui non c’`e ragione per ritenere che valore atteso, mediana e moda si sovrappongano: la coincidenza di tali grandezze per una data densit` a di probabilit` a `e legata alle sue caratteristiche di simmetria. ` il caso della densit` E a di probabilit` a di Gauss per la quale, dunque,
E(X) = µ = m = M .
(8.67)
Per avere le idee un po’ pi` u chiare attorno a questa importante densit` a di probabilit` a, conviene che ne studiamo la forma: questo non solo per dimostrare che il massimo della funzione coincide con il valor medio della densit`a ma anche per individuare altri suoi punti significativi. Per farlo osserviamo innanzitutto che
120
8 Alcune importanti densit` a di probabilit` a
lim
x → ±∞
fg (x) = 0 ,
(8.68)
il che significa che le code della funzione si avvicinano sempre pi` u all’asse delle ascisse man mano che il modulo di x, |x|, cresce. Poich´e, d’altronde, fg (x) `e una funzione sempre positiva che, pertanto, non interseca mai l’asse delle x, le code della funzione, al crescere di |x|, si avvicinano all’asse delle ascisse dall’alto. Possiamo farci un’idea migliore dell’andamento studiando il segno della derivata di fg (x) rispetto a x, fg (x):
fg (x) = −2α2 (x − µ) A e−α
2
(x−µ)2
,
(8.69)
dove si `e posto, per semplicit`a di scrittura, A= √
1 , 2πσ
(8.70)
1 α= √ . 2σ
(8.71)
La derivata della funzione `e positiva per x < µ,
(8.72)
x = µ,
(8.73)
x > µ.
(8.74)
si annulla per `e negativa per Questo, come ben sappiamo, significa che la funzione cresce per x minore di µ, raggiunge il suo valore massimo per x = µ e poi decresce per x maggiore di µ. 1 . Per x = µ la curva assume il suo valore massimo uguale a fg (µ) = A = √2πσ
Consideriamo ora il segno della derivata seconda di fg , fg :
fg (x) = −2α2 [−2α2 (x − µ)2 + 1] A e−α
2
(x−µ)2
.
(8.75)
Come ben sappiamo la concavit` a di una curva `e rivolta verso l’alto nelle regioni in cui la derivata seconda `e positiva, mentre `e rivolta verso il basso nelle regioni in cui la derivata seconda `e negativa. I flessi si trovano in corrispondenza dei punti in cui la derivata seconda si annulla e la concavit` a cambia. Nel nostro caso la derivata seconda `e negativa per (x − µ)2 <
1 = σ2 . 2α2
(8.76)
Questo significa che la curva ha una concavit` a volta verso il basso nell’intervallo µ − σ < x < µ + σ. (8.77)
8.4 La densit` a di probabilit` a di Lorentz
121
I valori assunti dalla funzione in corrispondenza dei due punti di flesso x = µ − σ e x = µ + σ sono uguali tra loro e pari a fg (µ ± σ) = √
1 √ e. 2πσ
(8.78)
Siamo cos`ı nella condizione di disegnare la nostra funzione con la sua caratteristica forma a campana [si veda la figura (8.5)].
8.4 La densit` a di probabilit` a di Lorentz Desideriamo ora introdurre la densit` a di probabilit` a di Lorentz (nota anche come densit`a di probabilit` a di Cauchy) per la sua importanza nella descrizione di dati relativi a fenomeni di risonanza (nelle reazioni nucleari, ad esempio, essa costituisce la funzione corretta per la descrizione delle sezioni d’urto in funzione dell’energia). La densit` a di Lorentz `e, come la densit` a di Gauss, una funzione continua e si esprime mediante la seguente legge: fl (x|µ, Γ ) =
Γ/2 1 , π (x − µ)2 + (Γ/2)2
(8.79)
∞ dove µ e Γ sono due parametri costanti. Per verificare che −∞ fl (x) dx = 1 non dobbiamo che effettuare la sostituzione y = 2 (x − µ)/Γ , dy = 2 dx/Γ :
+∞
−∞
=
1 π
fl (x) dx
+∞
−∞ +∞
2 dx/Γ [2(x − µ)/Γ ]2 + 1
dy 1 π −∞ y 2 + 1 1 π π 1 = 1. + = = arctan y|+∞ −∞ 2 π 2 π
=
(8.80)
8.4.1 Valore atteso e larghezza a met` a altezza della densit` a di Lorentz La densit` a di probabilit` a di Lorentz, come abbiamo visto, dipende da due parametri, µ e Γ , di cui ora chiariremo il significato. La funzione di Lorentz `e simmetrica rispetto all’asse x = µ e, per x = µ, essa assume il suo valore massimo. Dallo studio della funzione, che lasciamo per esercizio al lettore, si vede che la curva di Lorentz ha una forma a campana analoga a quella della densit` a di Gauss. La curva di Lorentz si distingue da quella di Gauss perch´e, per x → −∞ e per x → +∞, tende a zero molto pi` u
122
8 Alcune importanti densit` a di probabilit` a
0.3 0.25 0.2 fl (x)
0.15 0.1 0.05 0
-6
0
-2
-4
2
4
x
Figura 8.6. Densit` a di probabilit` a di Lorentz con µ=0 e Γ =2.5
lentamente: infatti, quando |x − µ| `e molto grande, la densit` a di Lorentz `e proporzionale all’inverso del quadrato di (x − µ), mentre quella di Gauss ha una decrescita di tipo esponenziale. La simmetria della lorentziana rispetto alla retta x = µ ci permette di identificare µ come il valore atteso (nonch´e come il valore pi` u probabile e come la mediana). Riportiamo di seguito il calcolo del valore atteso: Γ/2 1 ∞ dx . x E(X) = π −∞ (x − µ)2 + (Γ/2)2
Effettuiamo nuovamente la sostituzione y = 2 (x − µ)/Γ , dy = 2 dx/Γ :
dy 1 ∞ Γy +µ E(X) = 1 + y2 2 π −∞ y 1Γ ∞ dy + µ = µ , (8.81) = π 2 −∞ 1 + y 2
dal momento che l’integrale 1Γ π 2
∞
−∞
y dy 1 + y2
`e nullo poich´e ogni punto y fornisce un contributo che viene cancellato esattamente da quello del corrispondente punto −y.
6
8.5 La densit` a di probabilit` a uniforme sull’intervallo reale (a, b)
123
A differenza delle densit`a di probabilit` a studiate finora, per la funzione di Lorentz la varianza non `e definita: l’integrale da risolvere per calcolarla non ha infatti un valore finito a causa della lentezza con cui la funzione decresce al crescere di |x − µ|. La grandezza che viene pertanto utilizzata per valutare la dispersione della densit` a di Lorentz `e, convenzionalmente, la sua larghezza a met`a altezza. Per calcolarne il valore, valutiamo prima di tutto l’altezza massima della lorentziana: poich´e, come abbiamo brevemente discusso, a causa della simmetria della funzione il valore atteso corrisponde al valore pi` u probabile, l’altezza massima della campana si ottiene calcolando il valore della funzione per x = µ. Sostituendo si trova che tale valore massimo 2 . Pertanto il calcolo della larghezza a met` a altezza della `e pari a fl (µ) = πΓ campana passa attraverso la soluzione dell’equazione di secondo grado che si ottiene imponendo che la funzione di Lorentz sia uguale alla met`a di fl (µ), 1 πΓ : Γ2 x2 − 2 x µ + µ2 − = 0. (8.82) 4 Le soluzioni di questa equazione sono x1 = µ− Γ2 e x2 = µ+ Γ2 e costituiscono 1 con la lorentziana. La le ascisse dei punti di intersezione della retta y = πΓ differenza tra le ascisse dei due punti, x2 e x1 , x2 − x1 = Γ
(8.83)
rappresenta dunque la larghezza a met`a altezza cercata.
8.5 La densit` a di probabilit` a uniforme sull’intervallo reale (a, b) Desideriamo, infine, introdurre la densit` a di probabilit` a uniforme per la sua importanza in molte applicazioni, la pi` u nota delle quali `e certamente rappresentata dal metodo di Monte Carlo. Il metodo di Monte Carlo `e uno strumento matematico che viene utilizzato per calcolare il valore medio di molte grandezze utilizzando generatori di numeri casuali: esso `e, in sostanza, un metodo di integrazione numerica per la valutazione di integrali multipli. Sovente viene utilizzato come uno strumento per la simulazione di processi fisici che coinvolgono grandissimi numeri di particelle. Un tipico esempio `e rappresentato dallo studio dell’interazione di fasci di elettroni inviati contro bersagli solidi e film sottili. Il metodo di Monte Carlo (che deve il suo nome alle case da gioco della ben nota localit`a) si basa sull’utilizzo di insiemi di numeri casuali, distribuiti secondo leggi di probabilit` a come quelle che abbiamo studiato fino ad ora. Un codice di Monte Carlo basa i suoi calcoli sulla generazione di numeri casuali. Tipicamente, sequenze di numeri pseudo-casuali uniformemente distribuiti su un dato intervallo reale vengono generate mediante algoritmi
124
8 Alcune importanti densit` a di probabilit` a
gi` a presenti sotto forma di comandi in ogni linguaggio di programmazione. Tali algoritmi per la generazione di numeri pseudo-casuali uniformemente distribuiti su un dato intervallo, vengono realizzati in modo da approssimare una distribuzione di numeri casuali con densit` a di probabilit` a uniforme. Quest’ultima `e cos`ı definita: 1 per a ≤ x ≤ b, (8.84) fu (x) = b−a 0 altrove ,
dove a e b sono due valori costanti tali che b ≥ a. Essi caratterizzano la densit` a di probabilit` a uniforme, un gradino di altezza 1/(b − a) e larghezza (b − a). Chiaramente, fu (x) ≥ 0 e, inoltre,
+∞
−∞
fu (x) dx =
a
b
fu (x) dx =
b−a = 1. b−a
(8.85)
8.5.1 Generatori di numeri pseudo-casuali uniformemente distribuiti su un dato intervallo Supponiamo di dover calcolare l’area di una superficie chiusa da una curva complicata. Se possediamo un generatore di numeri casuali distribuiti uniformemente sull’intervallo (a, b) non dobbiamo fare altro che circondare la nostra curva con un quadrato di lato pari a (b − a) (assumendo che la superficie di area ignota sia tutta contenuta nel quadrato). Generiamo ora un grande numero di punti casuali che stiano all’interno del quadrato. Ogni volta che il punto casuale cade all’interno della superficie aggiorniamo un contatore sommandovi 1. Quando il numero di punti prodotti `e molto grande, il rapporto tra quelli caduti all’interno della superficie e il numero totale di punti generati sar` a prossimo al rapporto tra l’area della superficie e quella (nota) del quadrato. Le sequenze di numeri casuali permettono dunque di calcolare le aree delle superfici. La cosa non sarebbe tanto interessante (esistendo procedure di integrazione numerica migliori di quella appena descritta) se non fosse che questo metodo si applica altrettanto bene al caso di superfici con un numero arbitrariamente elevato di dimensioni. Non `e rilevante il fatto che il nostro cervello non ci permetta di visualizzare spazi con pi` u di tre dimensioni: in fisica e in matematica accade spesso di dover calcolare quantit`a definite su spazi con grandi numeri di dimensioni. Sistemi con un elevato numero di gradi di libert` a si incontrano molto spesso nella meccanica statistica. Per descrivere questi sistemi si fa ricorso alla valutazione di integrali multipli con un grande numero di dimensioni. Un caso importante, ad esempio, `e rappresentato dal calcolo della funzione di partizione di un gas contenente N atomi ` stato mostrato che, per un valore di N assai modesto alla temperatura T . E (20), un computer capace di effettuare 10 milioni di calcoli al secondo impiegherebbe, per calcolare la funzione di partizione con i metodi di integrazione numerica tradizionali, qualcosa come 1034 volte l’et`a dell’universo. Usando il
8.5 La densit` a di probabilit` a uniforme sull’intervallo reale (a, b)
125
metodo di Monte Carlo, invece, il tempo di calcolo non dipende dal numero di dimensioni rimanendo ragionevolmente contenuto anche per casi come questo. Quando il numero di dimensioni supera il quattro, il metodo di Monte Carlo `e la procedura numerica migliore per il calcolo degli integrali multipli. Complicati problemi di fisica coinvolgenti grandissimi numeri di particelle possono essere affrontati con il metodo di Monte Carlo: si possono realizzare vere e proprie simulazioni numeriche di processi fisici come l’interazione di un fascio di elettroni con un solido. Il problema della generazione di numeri casuali distribuiti uniformemente non `e affatto di semplice soluzione ed un suo esame va oltre gli scopi del presente libro. Tipicamente, come gi`a abbiamo osservato, ogni linguaggio di programmazione `e fornito di una funzione che produce numeri pseudo-casuali uniformemente distribuiti sull’intervallo (0, 1). 8.5.2 Generazione di numeri casuali distribuiti su un dato intervallo con una legge di probabilit` a data ` facile mostrare come, una volta che si possieda un algoritmo in grado di geE nerare numeri pseudo-casuali uniformemente distribuiti sull’intervallo (0, 1), sia possibile generare numeri casuali distribuiti secondo qualunque densit` a di probabilit` a si desideri. In altre parole possiamo asserire che le variabili casuali uniformemente distribuite soggiacciono alla generazione di qualunque altra distribuzione di numeri casuali. Sia infatti ξ una variabile casuale definita, sull’intervallo (a, b). Sia f la sua densit` a di probabilit` a, con f > 0 sull’intervallo (a, b) e f = 0 altrove. Indichiamo con ν una variabile casuale uniformemente distribuita sull’intervallo (0, 1). Desideriamo dimostrare che i valori di ξ si possono ricavare da quelli di ν mediante l’equazione: ξ f (x) dx = ν . (8.86) a
Sia infatti F (x) una funzione cos`ı definita: x F (x) = f (z) dz .
(8.87)
a
Si noti che F (a) = 0 e che F (b) = 1. Per definizione di probabilit` a, dF (x)/dx = f (x) > 0 sull’intervallo (a, b). Pertanto, avendo derivata ovunque positiva, F (x) `e strettamente crescente sull’intervallo (a, b). Consideriamo ora la retta y = ν: si tratta di una retta parallela all’asse delle x che deve intersecare la funzione F (x) in un solo punto. In altre parole, la soluzione dell’equazione (8.86) esiste ed `e unica, per qualunque valore reale della variabile casuale ν compreso tra 0 e 1. Non ci rimane che mostrare che la variabile casuale ξ `e distribuita con densit`a di probabilit` a f (x). Per farlo, consideriamo un intervallo (c, d) contenuto nell’intervallo (a, b) e osserviamo che, ovviamente,
126
8 Alcune importanti densit` a di probabilit` a
P (c < ξ < d) = P [F (c) < ν < F (d)] .
(8.88)
Ora, poich´e ν `e distribuita uniformemente sull’intervallo (0, 1), la sua densit` a di probabilit` a `e uguale a 1 nell’intervallo (0, 1) e vale 0 altrove [si veda l’equazione (8.84)]. Cos`ı P [F (c) < ν < F (d)] =
F (d)
F (c)
dx = F (d) − F (c) .
(8.89)
f (x) dx .
(8.90)
f (x) dx .
(8.91)
D’altronde, per definizione, F (d) − F (c) =
d
c
Dalle ultime tre equazioni, segue che P (c < ξ < d) =
d
c
Quest’ultima equazione `e precisamente quello di cui abbiamo bisogno per asserire che la variabile casuale ξ, definita dall’equazione (8.86), `e distribuita con densit` a di probabilit` a f (ξ) sull’intervallo (a, b). Generazione di una variabile casuale uniformemente distribuita sull’intervallo (a, b) Supponiamo di dover generare i valori di una variabile pseudo-casuale η uniformemente distribuita sull’intervallo (a, b), avendo a disposizione un generatore di numeri pseudo-casuali uniformemente distribuiti sull’intervallo (1, 0). La richiesta che la distribuzione sia uniforme implica che la corrispondente distribuzione di probabilit` a sia data, come sappiamo, da fu (x) =
1 , b−a
(8.92)
per a ≤ x ≤ b, e sia 0 altrove. Indicando con ν una variabile casuale uniformemente distribuita sull’intervallo (0, 1), η deve soddisfare la seguente equazione: η η dx . (8.93) fu (x) dx = ν= a a b−a
Pertanto, η = a + ν(b − a).
8.5 La densit` a di probabilit` a uniforme sull’intervallo reale (a, b)
127
Generazione di una variabile casuale con densit` a di probabilit` a di Poisson Una variabile casuale χ definita sull’intervallo (0, ∞), con densit`a di probabilit` a di Poisson, si genera a partire dalla soluzione dell’equazione x 1 χ dx , (8.94) ν= exp − λ 0 λ dove, al solito, ν indica una variabile casuale uniformemente distribuita sull’intervallo (0, 1). Pertanto χ = −λ ln(1 − ν) .
(8.95)
Quest’ultima equazione viene tipicamente usata, nelle simulazioni di Monte Carlo della penetrazione di un fascio di particelle in un bersaglio solido, per calcolare la distribuzione dei tratti di cammino di ogni particella utilizzando, per il calcolo dei valori di λ, il libero cammino medio della particella nel solido (una funzione dell’energia della particella e delle caratteristiche del bersaglio). 8.5.3 Valore atteso e varianza della densit` a uniforme sull’intervallo (a, b) Concludiamo il capitolo fornendo il valor medio e la varianza della densit` a di probabilit` a uniforme. Per quanto riguarda il valor medio, ci aspettiamo che esso sia la media dei valori degli estremi dell’intervallo su cui la densit`a `e diversa da zero: +∞ x fu (x) dx E(X) = −∞
b b2 − a2 1 x dx = b−a a 2(b − a) a+b (b − a)(b + a) = . = 2(b − a) 2 =
(8.96)
Meno ovvio `e il risultato del calcolo della varianza: ∞ Var(X) = (x − µ)2 fu (x) dx −∞
1 [(b − µ)3 − (a − µ)3 ] 3(b − a) (b − a)2 . = 12
=
(8.97)
9 La Legge dei Grandi Numeri ed il Teorema del Limite Centrale
In questo capitolo dimostreremo la disuguaglianza di Chebyshev che consente di valutare quale sia la probabilit` a che una variabile casuale assuma valori differenti dal valor medio per pi` u di un dato numero, fissato a priori. Utilizzeremo poi tale disuguaglianza per fornire una dimostrazione della Legge dei Grandi Numeri: quest’ultima asserisce che la media aritmetica di un campione casuale di variabili indipendenti ed identicamente distribuite converge in probabilit` a al valore atteso della densit` a teorica del campione casuale. Si tratta di una legge molto importante perch´e costituisce la conferma di un dato di esperienza che non `e per nulla ovvio, per quanto intuitivamente ragionevole. Studieremo anche la deviazione standard della media di una serie di osservazioni e tratteremo, infine, il Teorema del Limite Centrale che spiega perch´e le distribuzioni di molte delle variabili casuali studiate negli esperimenti di fisica seguano con ottima approssimazione – tanto migliore quanto maggiore `e il numero di osservazioni – la legge di Gauss.
9.1 Due importanti disuguaglianze 9.1.1 La disuguaglianza di Markov Consideriamo una variabile casuale X e indichiamo con f (x) la funzione che ne descrive la densit`a di probabilit` a. Supponiamo poi che la densit` a f (x) sia tale per cui la probabilit` a che X sia maggiore o uguale a 0 sia pari al cento per cento. In altri termini ammettiamo che P (X ≥ 0) = 1 .
(9.1)
Questo significa che la variabile casuale X non assumer` a mai valori negativi perch´e questi, per ipotesi, hanno probabilit` a di occorrenza nulla. Consideriamo ora un numero reale positivo, diciamo z: `e abbastanza facile far vedere che, qualunque sia il valore di z > 0, il valore atteso di X, E(X), `e maggiore o uguale alla probabilit` a che X sia maggiore di z moltiplicata per z: E(X) ≥ z P (X ≥ z) .
(9.2)
Questa espressione `e nota come disuguaglianza di Markov. La sua dimostrazione `e assai facile. Consideriamo, innanzitutto, il caso in cui la variabile X `e
130
9 La Legge dei Grandi Numeri ed il Teorema del Limite Centrale
discreta: in tal caso, se indichiamo con k l’indice per cui xk−1 < z e xk ≥ z, allora xi f (xi ) = xi f (xi ) + xi f (xi ) . (9.3) E(X) = i
i
i≥ k
Siccome, come gi`a osservato poco sopra, la variabile casuale X non pu` o assumere valori negativi e poich´e, d’altronde, per definizione di densit` a di probabilit` a, f (x) ≥ 0, segue che le due sommatorie non possono essere negative. In particolare xi f (xi ) ≥ 0 . (9.4) i
In conseguenza di ci` o E(X) ≥
xi f (xi ) .
(9.5)
i≥ k
Ora, siccome xk ≥ z,
xi f (xi ) ≥
i≥ k
z f (xi ) .
(9.6)
i≥ k
Concludiamo che E(X) ≥ z
f (xi ) = z P (X ≥ z) ,
(9.7)
i≥ k
che `e quanto si voleva dimostrare. La disuguaglianza di Markov vale per ogni densit` a di probabilit` a, sia essa continua o discreta. Se X `e continua, la dimostrazione `e analoga: z +∞ +∞ x f (x) dx x f (x) dx = x f (x) dx + E(X) = −∞
z
x f (x) dx +
= 0
≥
+∞
z
=z z
z
x f (x) dx ≥
+∞
−∞ +∞
z
x f (x) dx +∞
z f (x) dx
z
f (x) dx = z P (X ≥ z) .
9.1.2 La disuguaglianza di Chebyshev La disuguaglianza di Chebyshev `e molto importante perch´e permette di valutare la probabilit` a che una variabile casuale ha di assumere valori che differiscano dalla media per pi` u di un dato numero, fissato a priori. Tale valutazione `e indipendente dalla particolare densit` a di probabilit` a con cui si ha a che fare. La disuguaglianza di Chebyshev `e, come vedremo subito, una diretta conseguenza della disuguaglianza di Markov (9.2).
9.2 Differenza dal valor medio per pi` u di una fissata quantit` a
131
Come sappiamo, non tutte le densit`a di probabilit` a ammettono una varianza. Per la densit` a di probabilit` a di Lorentz, ad esempio, la varianza non esiste (perch´e l’integrale relativo diverge). La disuguaglianza di Chebyshev ha senso solo per le densit` a di probabilit` a per cui la varianza esiste. Sia, dunque, X una variabile casuale qualunque la cui densit` a di probabilit` a ha varianza finita. Consideriamo allora la variabile casuale Y = [X − E(X)]2 .
(9.8)
Y `e una variabile casuale non negativa. In altre parole, essa soddisfa l’ipotesi alla base della disuguaglianza di Markov: P (Y ≥ 0) = 1 . Di conseguenza P (Y ≥ z 2 ) ≤
Ora, poich´e
E(Y ) . z2
E(Y ) = E{[X − E(X)]2 } = Var(X) ,
(9.9)
(9.10) (9.11)
possiamo anche scrivere che, per ogni numero reale z > 0, P (|X − E(X)| ≥ z) ≤
Var(X) . z2
(9.12)
L’espressione (9.12) `e nota come disuguaglianza di Chebyshev.
9.2 Probabilit` a che i dati sperimentali differiscano dal valor medio per pi` u di una fissata quantit` a La disuguaglianza di Chebyshev `e del tutto generale ed indipendente dalla particolare densit` a di probabilit` a che caratterizza la variabile casuale X. Supponiamo di essere interessati a sapere quale sia la probabilit` a che i valori assunti da una variabile casuale differiscano dal loro valore atteso per pi` u di n deviazioni standard, dove n `e un numero intero maggiore di 1. Si tratta di una domanda che uno sperimentatore si pone allorch´e, dai risultati del suo esperimento, `e in grado di ricavare valor medio e varianza. Supponiamo che µ sia il valor medio dei dati e σ la loro deviazione standard. Allora Var(X) = σ 2
(9.13)
e, dalla disuguaglianza (9.12), segue immediatamente che P (|X − µ| ≥ n σ) ≤
1 σ2 = 2. 2 n σ
n2
(9.14)
132
9 La Legge dei Grandi Numeri ed il Teorema del Limite Centrale
Questo significa che, qualunque sia la densit` a di probabilit` a associata alla variabile casuale, la probabilit` a che una misura differisca dal valore atteso per pi` u di due deviazioni standard, ad esempio, `e certamente minore o uguale al 25%. Data la sua generalit`a, la disuguaglianza di Chebyshev (cos`ı come quella di Markov) `e interessante per valori relativamente grandi di z. Nel caso che stiamo esaminando, ad esempio, essa non ci dice nulla di nuovo se, utilizzando la (9.14), desideriamo conoscere la probabilit` a che una misura differisca dal valor medio per pi` u di una sola deviazione standard: in tal caso, infatti, la disuguaglianza di Chebyshev ci dice solo che tale probabilit` a `e minore o uguale a 1, un’informazione di cui gi` a disponevamo. Quando, tuttavia, n `e grande, la disuguaglianza di Chebyshev diventa utile. Possiamo asserire, con certezza, che la probabilit` a che una misura differisca dal valor medio per pi` u di tre deviazioni standard `e minore o uguale a 1/9 ≈ 0.11, vale a dire all’11%. In realt` a, qualora conoscessimo la densit`a, scopriremmo che questa `e una valutazione per eccesso e che tale probabilit`a `e (generalmente) inferiore a 1/9. Se, ad esempio, la densit` a della variabile casuale `e normale, allora, dalla tabella in appendice A, si ottiene che la probabilit` a che una misura cada in un intervallo di semiampiezza 3σ intorno alla media `e pari a φg (3) − φg (−3) = 0.9987 − (1 − 0.9987) = 0.9974, mentre quella che una misura cada in un intervallo di semiampiezza 2σ intorno alla media `e pari a φg (2) − φg (−2) = 0.9773 − (1 − 0.9773) = 0.9546 [si veda l’equazione (8.65)]: tali probabilit` a sono dunque pari al 997 per mille ed al 955 per mille, rispettivamente. Questo significa che, nel caso di dati distribuiti con densit` a normale, la probabilit` a che una misura differisca dal valore atteso per pi` u di tre deviazioni standard `e minore o uguale al 3 per mille mentre quella che differisca dal valore atteso per pi` u di due deviazioni standard `e minore o uguale al 45 per mille. Si tratta di valori assai inferiori all’11 per cento ed al 25 per cento previsti dalla disuguaglianza di Chebyshev. La disuguaglianza di Chebyshev fornisce dunque una valutazione per eccesso di tali probabilit` a. Per quanto la previsione di Chebyshev sia sempre maggiore di quella fornita dalla densit` a che concretamente descrive la variabile casuale a cui siamo interessati, la sua utilit` a sta nella sua grande generalit` a. Essa `e sempre valida, indipendentemente dalla densit` a di probabilit` a specifica che descrive i dati. In altri termini, la (9.14) pu` o essere utilizzata anche quando non siamo a conoscenza della densit` a di probabilit` a associata alla variabile casuale relativa ai dati di un esperimento.
9.3 Valore atteso e deviazione standard della media di una serie di osservazioni Consideriamo n variabili casuali indipendenti X1 , . . . , Xn tutte provenienti dalla stessa distribuzione teorica con media µ e varianza σ 2 . Possiamo pensare a X1 , . . . , Xn come a una serie di misure, od osservazioni, di una data
9.3 Valore atteso e deviazione standard della media di una serie di osservazioni
133
grandezza fisica. Ognuna di tali misure proviene dunque da un campione casuale caratterizzato da una data densit` a di probabilit` a. Consideriamo ora una nuova variabile casuale, X n , definita dalla media aritmetica delle osservazioni provenienti dal nostro campione casuale: n
Xn =
1 Xi . n i=1
(9.15)
Dalla definizione di variabile casuale segue che una combinazione lineare di variabili casuali `e anch’essa una variabile casuale. Pertanto la media del campione casuale, X n , che abbiamo appena definito, `e anch’essa una variabile casuale. Ha dunque senso chiedersi quali siano valore atteso e deviazione standard associati a tale variabile casuale. Le variabili casuali Xi , provenendo dalla stessa densit` a di probabilit` a teorica, hanno tutte la stessa media µ e la medesima varianza σ 2 : possiamo pensarle come una serie di misure ognuna delle quali si discosta dal valore atteso µ a causa degli inevitabili errori casuali. Ognuna di esse assumer` a, tipicamente, un valore diverso dal valore atteso µ. Tuttavia ci aspettiamo che la loro media sia tanto pi` u prossima a µ quanto pi` u grande `e il valore di n. Inoltre ci aspettiamo che tanto maggiore `e n tanto pi` u piccola sia la deviazione standard della media. Il fatto che il valore atteso della variabile casuale X n sia uguale a quello delle variabili casuali Xi `e, oltre che intuitivo, anche facilmente dimostrabile. Infatti il valore atteso di una combinazione lineare di variabili casuali `e uguale alla combinazione lineare dei valori attesi delle variabili casuali [si veda l’equazione (7.17)]:
E(a1 X1 + · · · + an Xn ) = a1 E(X1 ) + · · · + an E(Xn ) ,
(9.16)
dove a1 , · · · , an sono n costanti reali. Pertanto E(X n ) =
1 [E(X1 ) + · · · + E(Xn )] . n
(9.17)
Poich´e abbiamo fatto l’ipotesi che tutte le n osservazioni provenissero dalla stessa densit`a di probabilit` a teorica con media µ, E(Xi ) = µ per ogni valore di i. Pertanto, come intuitivamente previsto, E(X n ) =
nµ = µ. n
(9.18)
Ricordiamo poi che le nostre n osservazioni sono tra loro indipendenti. Nel capitolo 7 abbiamo visto che le variabili casuali indipendenti sono caratterizzate da covarianza nulla: in altre parole la varianza della somma di n variabili casuali indipendenti `e uguale alla somma delle varianze delle singole variabili. Prima di procedere `e anche opportuno ricordare un’altra propriet` a della varianza che abbiamo studiato nel capitolo 7. Se a `e una qualunque costante reale e X una variabile casuale, allora Var(a X) = a2 Var(X) .
(9.19)
134
9 La Legge dei Grandi Numeri ed il Teorema del Limite Centrale
Osserviamo allora che
Var(X n ) = Var
n
1 Xi n i=1
n 1 Xi . = 2 Var n i=1
(9.20)
Applichiamo ora la condizione di indipendenza delle variabili casuali Xi [si veda, in proposito, il paragrafo 7.2.2 e, in particolare, l’equazione (7.38)], n n Var Xi = Var(Xi ) = n σ 2 . (9.21) i=1
i=1
Da questa equazione deduciamo che la varianza della media del campione di variabili casuali `e pari a nσ 2 σ2 , (9.22) = 2 n n √ e che la sua deviazione standard `e uguale a σ/ n. Poich´e la deviazione standard della media di n osservazioni `e pi` u piccola di quella delle singole osservazioni, la variabile casuale X n `e caratterizzata da una densit` a di probabilit` a diversa da quella di cui le singole variabili casuali a di probabilit` a della X1 , . . . , Xn costituiscono un campione casuale: la densit` u “stretta” e “concentrata” in prossimit` a del valor media X n `e certamente pi` medio µ di quanto non sia la densit` a di probabilit` a originale che caratterizza le singole osservazioni. Var(X n ) =
9.4 Numero minimo di osservazioni Nella precedente sezione abbiamo esaminato da vicino il significato dell’osservazione intuitiva secondo la quale la media aritmetica di un grande numero di misure dovrebbe essere caratterizzata da una deviazione standard tanto minore quanto maggiore `e il numero di misure. Ci siamo convinti dell’idea che la densit`a di probabilit` a teorica della (variabile casuale rappresentata dalla) media deve essere caratterizzata da un “picco” attorno al valore atteso pi` u stretto di quello della densit` a teorica da cui provengono le singole osservazioni. In pratica questo significa anche che, se effettuiamo n gruppi di misure e calcoliamo la media di ogni gruppo, le medie si distribuiranno su una curva che sar` a pi` u concentrata attorno al valore atteso di quanto non siano le n curve che si possono costruire a partire dalle osservazioni appartenenti ad ogni singolo gruppo. A questo risultato si pu` o giungere osservando che, applicando la disuguaglianza di Chebyshev (9.12) alla variabile casuale rappresentata dalla media del campione, X n , troviamo che, per ogni numero reale z maggiore di zero, P (|X n − µ| ≥ z) ≤
σ2 . n z2
(9.23)
9.5 La Legge dei Grandi Numeri
135
Quest’ultima disuguaglianza esprime, in forma matematicamente precisa, quanto abbiamo asserito poc’anzi: la concentrazione attorno al valore atteso delle medie artimetiche di gruppi di osservazioni `e maggiore di quella dei singoli gruppi di misure. La probabilit` a che una media di n osservazioni differisca dal valore atteso teorico µ per pi` u di un fissato numero z risulta tanto minore quanto maggiore `e il numero n di variabili indipendenti ed identicamente distribuite che rappresentano il campione casuale. A partire dalle considerazioni fatte sino ad ora, possiamo giungere ad un’importante applicazione. Qualora fossimo a conoscenza che le misure che stiamo effettuando provengono da una densit` a di probabilit` a di cui ci `e nota la varianza (ma di cui non conosciamo il valore atteso), saremmo anche in grado di valutare quale sia il numero minimo di osservazioni necessario affinch´e la probabilit` a che una misura cada al di fuori di un intorno dato del valore atteso teorico (il “valore vero” che stiamo cercando) sia minore di una quantit` a desiderata. Se, ad esempio, sappiamo che la distribuzione teorica da cui provengono le osservazioni `e tale per cui la deviazione standard σ, espressa nell’unit`a di misura della grandezza che stiamo osservando, `e uguale a 3; e se noi desideriamo che sia minore o uguale all’1 per cento la probabilit` a che la media aritmetica delle misure si discosti dal valore atteso per pi` u, ad esempio, di un’unit` a, non dobbiamo che risolvere la semplice disequazione P (|X n − µ| ≥ 1) ≤
9 ≤ 0.01 , n
(9.24)
che implica n ≥ 900. Questo significa che se calcoliamo la media aritmetica su 900 osservazioni, abbiamo la garanzia che la probabilit` a che essa disti dal valore atteso (a noi non noto a priori) per pi` u di un’unit` a non `e maggiore dell’uno per cento. Se conoscessimo la particolare densit`a di probabilit` a che caratterizza le nostre misure, scopriremmo anche che 900 `e una valutazione per eccesso e che, per ottenere il risultato desiderato, `e sufficiente un valore pi` u piccolo di n. Ma non `e questo il punto che desideriamo qui evidenziare. In realt` a, dalla nostra discussione, emerge che `e possibile rendere piccola a piacere la distanza tra la media aritmetica di una serie di misure ed il valore atteso (non noto) della densit` a di probabilit` a teorica che le caratterizza, vale a dire la grandezza che stiamo investigando, semplicemente aumentando il numero di misure. Questo notevole risultato corrisponde alla nostra idea intuitiva secondo cui la media aritmetica di una serie di misure, affette da errori casuali, `e tanto pi` u vicina al “valore vero” quanto maggiore `e il numero delle misure.
9.5 La Legge dei Grandi Numeri Immaginiamo di lanciare in aria una moneta per un dato numero di volte, diciamo n. Indichiamo con k il numero di volte in cui esce testa. Immaginiamo che la moneta sia priva di difetti e che non ci siano particolari condizioni
136
9 La Legge dei Grandi Numeri ed il Teorema del Limite Centrale
esterne che favoriscano l’uscita di una faccia piuttosto che l’altra. In tal caso, ci aspettiamo che il rapporto k/n sia abbastanza vicino a 1/2. Ci aspettiamo anche che esso sia esattamente uguale a 1/2? L’esperienza ci insegna che questo non `e quasi mai il caso. Anzi, siamo ragionevolmente persuasi che `e possibile che, in una serie di lanci, il rapporto k/n possa assumere un valore anche piuttosto distante da 1/2. Le considerazioni che abbiamo fatto nelle sezioni precedenti e la nostra intuizione ci inducono comunque a ritenere che, se facciamo crescere molto il numero di lanci n, queste situazioni anomale dovrebbero verificarsi sempre pi` u raramente. Il rapporto k/n, ci dice l’intuizione, dovrebbe tendere al valore 1/2, pur discostandosi da esso in ogni singola serie di misure. Al crescere di n il rapporto k/n dovrebbe differire da 1/2 sempre meno. Un fatto interessante merita qui di essere evidenziato: non c’`e alcuna legge che imponga che, a fronte di un eccesso di teste nei primi lanci, debba seguire un eccesso di croci nei successivi, per compensare le anomalie e diminuire la distanza da 1/2: ogni lancio `e infatti indipendente e non `e influenzato dall’esito dei lanci precedenti. Tuttavia quello che accade, una volta che n venga fatto crescere opportunamente, `e che il rapporto k/n, indipendentemente dalla storia della particolare serie di lanci, tenda ad assestarsi attorno al valore 1/2. Se desideriamo essere pi` u precisi, possiamo dire che la media aritmetica delle variabili casuali e identicamente distribuite Xi – definite in modo tale che Xi = 1 quando esce testa e Xi = 0 quando esce croce – assumer` a valori che differiscono molto da 1/2 con probabilit` a decrescente al crescere del numero di lanci n. Al fine di rendere quanto detto in modo formale, `e opportuno introdurre il concetto di convergenza in probabilit` a di una successione di variabili casuali. Si a dice che la successione di variabili casuali X1 , X2 , . . . converge in probabilit` a X se, per ogni > 0, piccolo a piacere, si ha lim P (|Xn − X| < ) = 1 .
n→∞
(9.25)
Quando questa condizione `e soddisfatta, si scrive p
Xn → X per n → ∞ .
(9.26)
La convergenza in probabilit` a di una successione di variabili casuali corrisponde all’osservazione che, al crescere di n, la densit` a di probabilit` a assou concentrata. La Legge dei Grandi Numeri, che tra ciata a Xn `e sempre pi` breve dimostreremo, asserisce che la media di un campione casuale di variabili indipendenti e identicamente distribuite converge in probabilit` a alla media della densit` a teorica del campione casuale. Supponiamo, dunque, che X1 , . . . , Xn sia un campione casuale proveniente da una densit` a di probabilit` a con media µ e varianza finita σ 2 . Consideriamo ora la variabile casuale X n che rappresenta la media aritmetica del campione casuale: 1 (9.27) X n = (X1 + · · · + Xn ) . n
9.6 Il Teorema del Limite Centrale
137
La Legge dei Grandi Numeri asserisce che p
X n → µ per n → ∞ .
(9.28)
La dimostrazione di questo importante teorema discende direttamente, come vedremo subito, dalla disuguaglianza di Chebyshev. Infatti noi gi` a sappiamo che, per ogni n finito, E(X n ) = µ
e Var(X n ) =
σ2 , n
da cui, applicando la disuguaglianza di Chebyshev, segue che P (|X n − µ| ≥ ) ≤
σ2 . n2
(9.29)
Da quest’ultima disuguaglianza discende la seguente
σ2 n2
(9.30)
lim P (|X n − µ| < ) = 1 ,
(9.31)
P (|X n − µ| < ) ≥ 1 −
e, pertanto, n→∞
equazione che, come sappiamo, `e equivalente a p
X n → µ per n → ∞ .
(9.32)
Il fatto che la media aritmetica di una serie di osservazioni indipendenti e identicamente distribuite converga in probabilit` a a µ implica che la probabilit` a che la media aritmetica di un numero finito di osservazioni assuma un valore prossimo a µ diventa sempre pi` u grande al crescere del numero n delle stesse: in altri termini, qualora si effettuino n misure di una grandezza fisica, possiamo essere certi che la loro media aritmetica rappresenta una stima tanto migliore del valore “vero” della grandezza in esame quanto maggiore `e il numero n.
9.6 Il Teorema del Limite Centrale In questo capitolo abbiamo dimostrato alcuni importanti teoremi la cui validit` a `e assai generale: essi cio`e valgono per qualunque variabile casuale e a prescindere dal tipo di densit` a di probabilit` a che ne regola il comportamento. La disuguaglianza di Chebyshev e le sue conseguenze, in particolare la Legge
138
9 La Legge dei Grandi Numeri ed il Teorema del Limite Centrale
dei Grandi Numeri, sono state utilizzate per dimostrare in modo generale che la media aritmetica di una serie di misure provenienti tutte dalla stessa distribuzione teorica e quindi tutte con la stessa varianza costituisce la miglior stima del valore atteso; essa cio`e pu` o essere resa vicina a piacere al valore vero di una data grandezza fisica incognita facendo crescere opportunamente le dimensioni del campione casuale (aumentando il numero di osservazioni). Se desiderate misurare l’accelerazione di gravit`a g lasciando cadere un grave e cronometrando il tempo necessario perch´e il corpo in caduta percorra un tratto di lunghezza nota, otterrete una valutazione di g tanto migliore quanto maggiore sar`a il numero di misure che effettuerete per calcolarne la media. Una domanda che potreste porvi, eseguendo questo esperimento, potrebbe essere quella relativa a quale sia la distribuzione delle vostre misure attorno alla media. Se costruite un istogramma in cui vengono riportate le frequenze relative delle vostre osservazioni sperimentali di g, potrete verificare che esse si distribuiscono, come certo vi aspettate intuitivamente, su una curva simmetrica la cui forma ricorda quella di una campana. Tenendo conto della Legge dei Grandi Numeri, effettuerete un numero assai elevato di misure (compatibilmente con i vostri ulteriori impegni) per ottenere un valore della media che sia il pi` u possibile vicino al valore vero: in tal modo avrete a disposizione molti dati sperimentali che vi consentiranno di costruire un istogramma con un numero tanto elevato di intervalli da assomigliare ad una curva continua. Quello che accadr`a `e che tale curva approssimer`a sempre meglio una densit` a di probabilit` a gaussiana. Descriveremo nel prossimo capitolo uno strumento matematico che consente di stimare quantitativamente se i risultati di una data serie di osservazioni siano consistenti con l’ipotesi di una determinata distribuzione teorica. Per ora accontentiamoci di questa osservazione generale: `e un fatto noto (e sperimentalmente verificabile) che le distribuzioni di molte delle variabili casuali che vengono investigate negli esperimenti di fisica (e non solo in quelli) sono ottime approssimazioni della distribuzione normale, tanto migliori quanto maggiore `e il numero delle osservazioni. Il Teorema del Limite Centrale afferma precisamente questo. Ecco che cosa asserisce. Consideriamo un insieme di variabili casuali X1 , . . . , Xn . Supponiamo che esse siano indipendenti ed identicamente distribuite. Il fatto che siano identicamente distribuite, come ben sappiamo, significa che esse provengono tutte dalla medesima densit` a di probabilit` a: indichiamo, come ormai usuale in questo capitolo, con µ il valore atteso e con σ 2 la varianza (che, perch´e valga il teorema, deve essere finita) della densit` a di probabilit` a associata alle variabili casuali X1 , . . . , Xn . Sia, infine, X n la media aritmetica effettuata sulle n variabili casuali. Allora √ (X n − µ) n ≤ t = φg (t) , (9.33) lim P n→∞ σ
per ogni valore reale t, dove abbiamo indicato con φg (t) la funzione di ripartizione della densit`a normale standard (si veda il paragrafo 8.3.3):
9.6 Il Teorema del Limite Centrale
1 φg (t) = √ 2π
t
−∞
1 exp − u2 2
dove X=
139
(X n − µ) √ σ/ n
du = P (X ≤ t) ,
(9.34)
(9.35)
`e la variabile casuale distribuita secondo la densit` a normale standard. Il fatto veramente notevole, collegato al Teorema del Limite Centrale, `e costituito dall’osservazione che in esso non si fa alcuna ipotesi relativa alla natura della densit` a di probabilit` a da cui proviene il campione casuale: essa pu`o essere qualunque (sia continua che discreta, tra l’altro) con l’unico vincolo che ammetta varianza finita. Se un campione casuale (un insieme di misure di una data grandezza fisica, ad esempio) proviene da una qualunque distribuzione, non necessariamente nota, la densit` a di probabilit` a della media a sempre meglio (al crescere di n) una densit` a di aritmetica X n approssimer` probabilit` a gaussiana con media µ e varianza σ 2 /n. L’importanza che viene conferita in fisica alla densit` a di probabilit` a di Gauss si spiega dunque sulla base di questo importante teorema: la cui soglia di applicabilit` a, basata esclusivamente su considerazioni empiriche, `e tipicamente nell’intorno di valori di n maggiori o uguali a 50.
10 Strumenti per l’elaborazione dei dati sperimentali
` Questo capitolo costituisce sia un punto di arrivo che un punto di partenza. E un punto d’arrivo, perch´e `e grazie all’approfondimento dei capitoli precedenti che siamo ora in grado di introdurre una serie di strumenti assai sofisticati ` d’altronde, un punto di per l’elaborazione statistica dei dati sperimentali. E, partenza perch´e costituisce un’introduzione a metodi di analisi statistica che lo studioso dovr` a poi approfondire, nel corso della sua carriera scientifica, affinandoli ed estendendoli per adattarli alle situazioni reali che incontrer` a nella pratica di laboratorio. I contenuti di questo capitolo sono veramente importanti ed il suo studio cosentir` a allo studente di appropriarsi degli strumenti matematici, basati sul principio della massima verosimiglianza e sul metodo dei minimi quadrati, necessari per calcolare i coefficienti che identificano la curva che meglio si adatta ad un dato insieme di coppie di dati sperimentali. Al fine di controllare la qualit` a dell’approssimazione, sar` a poi introdotto il coefficiente di correlazione lineare che permette di valutare quantitativamente la correlazione lineare tra le osservazioni di due grandezze fisiche che si assume siano, su un dato dominio, linearmente dipendenti. Si descriver`a, infine, il test del χ2 : si tratta di una procedura statistica che permette di valutare la consistenza tra distribuzioni di osservazioni sperimentali e leggi di probabilit` a teoriche.
10.1 Il principio della massima verosimiglianza Il principio della massima verosimiglianza `e alla base di alcune importanti osservazioni che faremo nel corso di questo capitolo (e che abbiamo anticipato nei capitoli precedenti). Esso asserisce che, allorch´e eseguiamo una serie di misure relative ad una data grandezza fisica, quanto otteniamo corrisponde al risultato pi` u probabile. Supponiamo di essere in possesso di un insieme di osservazioni di una data grandezza fisica, tutte distribuite secondo la medesima densit` a teorica di probabilit` a. La domanda che ci poniamo `e la seguente: qual `e il valore vero della nostra grandezza fisica? Mediante diversi argomenti, in questo libro abbiamo mostrato che la miglior stima del valore vero `e costituita dalla media aritmetica. Quanto desideriamo mostrare ora `e che tale risultato `e una conseguenza del principio della massima verosimiglianza. In altre parole,
142
10 Strumenti per l’elaborazione dei dati sperimentali
dimostreremo che il valor medio costituisce il valore della grandezza che rende massima la probabilit` a della serie di misure. Tale dimostrazione pu` o forse sembrare inutile, dal momento che gi`a conosciamo il risultato. In realt` a essa `e molto importante, e per varie ragioni. La prima `e forse la pi` u ovvia. Ritrovare un risultato gi` a noto utilizzando il principio della massima verosimiglianza, conferisce maggior valenza al principio stesso. Esso `e in effetti assai ragionevole: tuttavia se in base allo stesso arrivassimo a conclusioni in contraddizione con quanto abbiamo dimostrato fin qui, non esiteremmo ad abbandonarlo immediatamente. Il principio della massima verosimiglianza non sarebbe cos`ı utile se non ci permettesse di arrivare ad altre importanti conclusioni. In particolare esso ci consentir` a di estendere le nostre idee attorno alla miglior stima del valore vero di una grandezza al caso in cui le misure siano distribuite secondo densit` a di probabilit` a teoriche tra loro differenti. Si immagini, ad esempio, di misurare la massa di un dato oggetto effettuando due insiemi di misure che utilizzano due strumenti diversi: i due insiemi di misure saranno distribuiti secondo due gaussiane con varianze differenti. Qual `e in questo caso il valore pi` u attendibile? Il principio della massima verosimiglianza ci consentir` a di trovarlo. Inoltre, grazie al principio della massima verosimiglianza, saremo in grado di introdurre uno strumento fondamentale per l’analisi dei dati sperimentali, il cosiddetto metodo dei minimi quadrati.
10.2 Il valore pi` u attendibile e la varianza di un insieme di misure distribuite secondo la stessa densit` a di probabilit` a Immaginiamo di aver eseguito una serie di misure di una data grandezza fisica che supponiamo provengano tutte dalla medesima densit` a di probabilit` a normale caratterizzata da varianza σ e valor medio µ. Quanto possiamo asserire, osservando i nostri dati sperimentali, `e che la probabilit` a di ottenere l’insieme di n misure xi (i = 1, . . . , n) che abbiamo effettivamente ottenuto `e uguale al prodotto delle probabilit` a di effettuare osservazioni negli intervalli che hanno per estremi xi e xi + dx (i = 1, . . . , n). Le nostre misure sono, infatti, tutte indipendenti. Si tratta dunque di calcolare il prodotto di n funzioni gaussiane moltiplicate per l’ampiezza dell’intervallo infinitesimale dx: Pi =
exp[−(xi − µ)2 /2σ 2 ] √ dx . 2πσ
(10.1)
In altri termini, la probabilit` a di osservare l’insieme di n misure che abbiamo effettivamente osservato `e data da n n (xi − µ)2 (dx)n . (10.2) exp − P = Pi = n 2σ 2 σ (2π)n/2 i=1 i=1
10.2 Misure distribuite con la stessa densit` a di probabilit` a
143
Per calcolare il valore pi` u attendibile della nostra serie di misure noi dobbiamo, sulla base del principio della massima verosimiglianza, rendere massima questa probabilit` a: in altri termini dobbiamo cercare il valore di µ che rende minimo l’argomento s della funzione esponenziale nella formula (10.2): s(µ) =
n (xi − µ)2
2σ 2
i=1
.
(10.3)
Calcolare il minimo di s(µ), essendo σ costante, corrisponde a trovare il valore di µ che annulla la derivata della funzione f (µ) cos`ı definita: f (µ) =
n
(xi − µ)2 .
(10.4)
i=1
Si tratta della somma dei quadrati degli scarti. Secondo il principio della massima verosimiglianza, il valore di µ che annulla la derivata di f `e il valore pi` u appropriato per identificare il valore vero della grandezza che stiamo misurando, poich´e `e quello che rende massima la probabilit` a del nostro insieme di misure. Calcoliamo allora la derivata di f (µ): n n n n df (µ) d 2 (xi − µ) = 2 µ−2 xi = 2(nµ − xi ) . = dµ dµ i=1 i=1 i=1 i=1
La condizione di minimo per f (µ) `e data da: df (µ) = 0. dµ
Pertanto
(10.5)
n
µ=
1 xi . n i=1
(10.6)
Il principio della massima verosimiglianza ci ha permesso di concludere, dunque, che il valore pi` u attendibile di una serie di misure caratterizzate da errori casuali distribuiti secondo la stessa legge normale e in assenza di errori sistematici `e dato dalla loro media aritmetica. Applicando il principio della massima verosimiglianza abbiamo cos`i confermato un risultato gi` a noto. ` ora assai facile, utilizzando la formula di propagazione degli errori, E ritrovare un altro importante risultato gi` a noto. Siamo interessati a calcolare quale sia la varianza della media µ. Quest’ultima `e una funzione delle n misure x1 , . . . , xn : dalla formula (10.6) si ricava che tutte le derivate parziali di µ sono uguali tra loro e sono pari a 1/n. Pertanto, se indichiamo con σµ la deviazione standard della media, σµ2 =
n σ2 1 1 2 2 , n σ = σ = n n2 n2 i=1
(10.7)
144
10 Strumenti per l’elaborazione dei dati sperimentali
n perch´e σµ2 = i=1 (∂µ/∂xi )2 σ 2 , dove con σ 2 abbiamo indicato la varianza della densit` a di probabilit` a teorica secondo cui sono distribuite le n misure [si veda l’equazione (2.46)]. La deviazione standard della media decresce dunque, al crescere del numero di osservazioni, come l’inverso della radice quadrata del loro numero: σ σµ = √ , n
(10.8)
un risultato gi` a ricavato per altre vie. In questo contesto non deve preoccuparci il fatto che, tipicamente, non siamo a conoscenza della densit` a teorica che descrive la distribuzione delle misure e, pertanto, nemmeno del valore di σ. Ci` o che si desidera evidenziare `e che la deviazione standard della media √ decresce, al crescere del numero n di osservazioni, come 1/ n. Inoltre, conoscendo una stima di σ, che si pu` o ottenere calcolando la radice quadrata della media della somma dei quadrati degli scarti di un gruppo di osservazioni, `e possibile calcolare il numero di osservazioni necessario affinch´e la deviazione standard della media sia pi` u piccola di un valore a piacere da noi fissato a priori. In altri termini noi possiamo stabilire, dopo aver stimato σ, quale sia il numero di osservazioni necessario affinch´e le misure abbiano una data deviazione standard della loro media: l’equazione (10.8) `e cio`e uno strumento statistico che ci permette di calcolare il numero di osservazioni necessario per ottenere l’attendibilit` a desiderata della grandezza da misurare.
10.3 Il valore pi` u attendibile e la varianza di misure distribuite secondo differenti densit` a di probabilit` a Abbiamo gi` a evidenziato che esistono casi in cui le nostre misure appartengono a distribuzioni teoriche diverse. Usando strumenti diversi per effettuare misure della stessa grandezza fisica, gli errori casuali saranno distribuiti, in generale, su campane aventi larghezze differenti. In altri termini possiamo generalizzare le conclusioni della sezione precedente assumendo che ad ogni misura sia associata una deviazione standard differente. In tal caso il principio della massima verosimiglianza ci impone di calcolare il minimo di una nuova versione della funzione s(µ). Si tratta di una generalizzazione della (10.3): n (xi − µ)2 . (10.9) s∗ (µ) = 2σi2 i=1
L’unica differenza tra la funzione s(µ) definita dalla (10.3) e la funzione s∗ (µ) definita dalla (10.9) consiste nel fatto che in s∗ (µ) le varianze sono tra loro differenti: in altri termini, abbiamo espresso la differenza tra le distribuzioni teoriche di provenienza assegnando ad ogni misura una varianza propria. Da notare che, siccome abbiamo fatto l’ipotesi che gli errori sistematici fossero
10.3 Misure distribuite con differenti densit` a di probabilit` a
145
assenti, abbiamo assegnato ad ogni distribuzione teorica il medesimo valore atteso µ: questa ipotesi `e consistente con l’idea che tutti gli strumenti di misura debbano fornire risultati distribuiti attorno al medesimo valore, in modo pi` u o meno concentrato a seconda della varianza della densit` a di probabilit` a che li caratterizza: si tratta del valore vero della grandezza da misurare. Il principio della massima verosimiglianza impone dunque di calcolare, in questo caso, il valore di µ che rende nulla la derivata della funzione s∗ (µ): ds∗ (µ) = 0. dµ
(10.10)
Calcoliamo la derivata: n xi − µ ds∗ (µ) =− σi2 dµ i=1
=−
n n 1 xi . + µ 2 σ2 σ i=1 i i=1 i
Ponendo uguale a zero la derivata, troviamo che il valore pi` u attendibile `e una media ponderata dei dati: n i=1 wi xi , (10.11) µ= n i=1 wi
dove
wi = σi−2 .
(10.12)
Nell’ipotesi in cui tutte le varianze siano uguali tra loro, σi = σ, wi = w = si riduce alla media aritmetica. In tal caso, infatti, σ −2 e la media ponderata n n n w x = w x e i i i i=1 i=1 i=1 wi = w n. Applicando la regola di propagazione degli errori (2.46) si trova, per la varianza della media, σµ−2 =
n i=1
Infatti σµ2 =
Ora
Pertanto
σi−2 =
n
wi .
(10.13)
i=1
2 n ∂µ σi2 . ∂x i i=1
1/σi2 ∂µ = 2 . ∂xi k (1/σk )
(10.14)
(10.15)
146
10 Strumenti per l’elaborazione dei dati sperimentali
σµ2
2 2 2 i ) σi i (1/σ 2 2 j (1/σj ) k (1/σk ) 2 ) i (1/σ i 2 2 i (1/σi ) j (1/σj )
=
=
1 2 . i (1/σi )
=
Se le varianze sono tutte uguali, σi = σ per ogni i e σµ−2 = nσ −2 ,
(10.16)
risultato equivalente a quello ricavato nella sezione precedente.
10.4 Questioni di consistenza statistica Una questione assai importante riguarda la cosiddetta consistenza statistica dei dati. Il lettore certo ricorder` a che abbiamo sempre dato per scontato, nelle nostre considerazioni, che le misure non fossero affette da errori sistematici. Tutta l’analisi statistica dei dati sperimentali riguarda gli inevitabili errori casuali. Pur non essendoci regole generali per evitare gli errori sistematici, ogni ricercatore esperto sa di doverli individuare ed eliminare. Ma essi non possono essere trattati con i metodi statistici. I metodi statistici ci mettono in grado, infatti, di trattare esclusivamente gli errori casuali perch´e questi ultimi sono distribuiti secondo leggi note e relativamente semplici. Il problema che ci poniamo `e il seguente: esiste qualche criterio per stabilire con ragionevole certezza se le nostre serie di misure sono affette da errori sistematici? La risposta a questa domanda dipende dal tipo di errore sistematico. In alcuni casi `e affermativa. Immaginiamo, ad esempio, di effettuare una serie di misure di una data grandezza fisica e di stabilirne media e varianza. Immaginiamo poi che un’altra serie di osservazioni della stessa grandezza venga effettuata in un altro momento. Il tempo trascorso potrebbe ripercuotersi sulle nostre misure introducendo errori sistematici: modificando, ad esempio, in modo permanente la natura chimica dei materiali oggetto di osservazione. Se le nostre misure fossero affette esclusivamente da errori casuali, noi ci aspetteremmo che i valori medi delle due serie di misure effettuate in momenti differenti fossero consistenti con l’entit` a delle deviazioni standard. Se questo non dovesse accadere, se cio`e ci accorgessimo invece che la differenza tra i valori medi delle due serie di misure fosse molto maggiore delle deviazioni standard, dovremmo concludere che i nostri dati non sono statisticamente consistenti. L’unica spiegazione plausibile, in tal caso, sarebbe rappresentata dalla presenza di errori sistematici in una delle due serie di misure o, forse, anche in entrambe: questo perch´e la probabilit` a che la differenza tra i valori medi di due serie di misure della stessa grandezza fisica sia maggiore delle deviazioni standard `e, per tutti i fini pratici, trascurabile.
10.5 Il metodo dei minimi quadrati
147
10.5 Il metodo dei minimi quadrati Il metodo dei minimi quadrati `e una diretta conseguenza del principio della massima verosimiglianza. Esso si fonda sull’ipotesi secondo la quale il valore pi` u attendibile di una grandezza corrisponde a quello per cui `e minima la somma dei quadrati degli scarti divisi per 2σi2 nel caso in cui le misure provengano da n distribuzioni teoriche differenti, ognuna caratterizzata da varianza σi2 , con i = 1, . . . , n. Abbiamo appreso che, nel caso di misure provenienti dalla medesima distribuzione teorica, il valore pi` u attendibile corrisponde alla media aritmetica. Nel caso, invece, di osservazioni provenienti da distribuzioni teoriche differenti esso `e la media pesata delle osservazioni, dove i pesi sono i reciproci delle varianze delle singole misure. Il principio della massima verosimiglianza, da questo punto di vista, non aggiunge molto di nuovo a quanto gi` a avevamo osservato nei precedenti capitoli sulla base di altre considerazioni. Ci ha permesso di generalizzare osservazioni fatte precedentemente, relative al valore pi` u attendibile, nel caso in cui le misure provengano da distribuzioni differenti; in effetti, sostanzialmente abbiamo fin qui mostrato che esso `e consistente con risultati gi`a conseguiti, allo scopo di dimostrare la sua ragionevolezza. Tuttavia la sua utilit` a diventa assai evidente qualora lo si applichi a problemi mai affrontati finora. In particolare a quello di stabilire quale sia l’equazione della retta che meglio si adatta ad un insieme di osservazioni. Questo `e l’argomento che affronteremo nel prossimo paragrafo. 10.5.1 Il metodo dei minimi quadrati per una linea retta Immaginiamo di aver effettuato le misure di due grandezze che siano l’una una funzione dell’altra. Supponiamo inoltre di ritenere che la relazione che lega le due grandezze in questione sia lineare. L’ipotesi di linearit` a pu` o essere un’idea da confermare, un primo tentativo di approssimare la legge che mette in relazione i dati, o una ragionevole approssimazione della funzione su un intervallo di valori della variabile indipendente sufficientemente piccolo perch´e abbia senso aspettarsi un andamento lineare. Pu` o anche essere, in alcuni casi, che noi gi` a sappiamo che la legge che regola il fenomeno che stiamo investigando `e lineare: in tal caso siamo interessati a determinare i valori del coefficiente angolare e dell’intercetta con l’asse delle y per assegnarli alle grandezze fisiche a cui sono associati. Se, ad esempio, stiamo misurando la velocit`a di un oggetto in funzione del tempo trascorso, nel caso in cui le forze applicate siano costanti, sappiamo bene che la funzione che associa la velocit`a al tempo `e lineare: in quel caso la determinazione del coefficiente angolare della retta che meglio si adatta ai dati ci fornisce una misura indiretta dell’accelerazione (costante), mentre l’intercetta con l’asse delle y costituisce una misura del valore della velocit` a iniziale. In generale, dunque, per un problema di questo tipo noi saremo interessati a determinare i valori di m e q presenti nella relazione
148
10 Strumenti per l’elaborazione dei dati sperimentali
y = mx + q ,
(10.17)
dove y rappresenta una grandezza fisica di cui abbiamo raccolto varie osservazioni per differenti valori misurati della grandezza fisica x. Ognuno dei valori di y pu` o corrispondere alla media su un grande numero di misure della grandezza y. Quale che sia l’origine dei dati, noi non ci aspettiamo che essi si dispongano su una linea retta ma, piuttosto, che siano distribuiti in modo causale: e i coefficienti m e q della retta che meglio si adatta ai dati vanno determinati in modo da rendere minima la differenza dei quadrati degli scarti. Si noti che stiamo ammettendo che la grandezza x sia misurata con una precisione assai pi` u elevata della y e che, inoltre, tutte le misure di y provengano dalla stessa distribuzione teorica. Se indichiamo con (xi , yi ) (con i = 1, · · · , n) le n coppie di misure, l’applicazione del principio dei minimi quadrati ci induce a calcolare i valori di m e q che rendono minima la somma dei quadrati delle distanze verticali di tra i punti di coordinate (xi , yi ) e la retta y = mx + q: di = yi − (mxi + q) .
(10.18)
In altri termini, siamo interessati al calcolo dei valori di m e q che rendono minima la funzione di due variabili f (m, q) definita come f (m, q) =
n
d2i =
n
[yi − (mxi + q)]2 .
(10.19)
i=1
i=1
Dobbiamo pertanto imporre che siano nulle le derivate parziali di f rispetto a m e rispetto a q: n ∂f (yi − mxi − q) . = −2 ∂q i=1
(10.20)
n ∂f (yi − mxi − q) xi , = −2 ∂m i=1
(10.21)
0=
0=
Otteniamo, in tal modo, le cosiddette equazioni normali per m e q: qn + m
n
xi =
i=1
q
n i=1
xi + m
n
n
yi ,
(10.22)
i=1
x2i =
n
i=1
xi yi .
(10.23)
i=1
Dalla prima equazione normale (10.22) segue immediatamente che q = y − mx.
(10.24)
10.5 Il metodo dei minimi quadrati
149
` ora sufficiente inserire quest’ultimo risultato nell’equazione (10.23) per E ottenere n n n n 2 xi − xi = xi yi . y xi − m x i=1
i=1
i=1
i=1
Semplici manipolazioni algebriche ci permettono di concludere che n nx y − i=1 xi yi n . m = nx2 − i=1 x2i
(10.25)
Le due equazioni (10.25) e (10.24) ci permettono dunque di calcolare i valori di m e q che identificano la retta che meglio si adatta ai nostri dati sperimentali. I valori di m e q ricavati in tal modo costituiscono misure indirette di grandezze fisiche: `e pertanto importante valutare quali siano le loro deviazioni standard. Queste ultime, infatti, sono le stime delle indeterminazioni associate alle grandezze fisiche corrispondenti ad m e a q. Abbiamo assunto che solo gli errori sulle yi fossero significativi, considerando trascurabili quelli sulle xi . Abbiamo anche fatto l’ipotesi che gli errori a teorica di prosulle misure yi fossero distribuiti secondo la medesima densit` babilit` a. La regola di propagazione degli errori descritta nel capitolo 2 ci permette allora di valutare le varianze di m e di q mediante le equazioni: 2 = σ2 σm
2 n ∂m , ∂yi i=1
(10.26)
σq2 = σ 2
2 n ∂q , ∂yi i=1
(10.27)
dove σ 2 costituisce la varianza teorica del campione che pu` o essere stimata come n 1 (yi − mxi − q)2 . (10.28) σ2 = n i=1
In quest’ultima equazione i valori di m e q sono ovviamente quelli ricavabili dalle equazioni (10.25) e (10.24), rispettivamente. Il calcolo delle derivate parziali delle funzioni (10.24) e (10.25) rispetto alle variabili yi non presenta particolari difficolt`a e permette di ottenere, utilizzando la formula di propagazione degli errori, l’indeterminazione su m e q: n 2 , (10.29) σm = σ n xi − ( xi )2 2 xi 2 . (10.30) σq = σ n xi − ( xi )2
150
10 Strumenti per l’elaborazione dei dati sperimentali
x ∂m nxj − i 2. = 2 ∂yj n xi − ( xi )
Infatti
(10.31)
Se ora inseriamo quest’ultimo risultato nell’equazione (10.26), otteniamo 2 2 xi )2 2 2 n xi − n( σm = σ , (10.32) 2 (n xi − ( xi )2 )2 da cui l’equazione (10.29) segue immediatamente. La deviazione standard di q, espressa dall’equazione (10.30), si ottiene seguendo un’analoga procedura. 10.5.2 Il metodo dei minimi quadrati per un polinomio Il metodo dei minimi quadrati non si applica solamente al caso di correlazione lineare tra i dati. Supponiamo di voler approssimare un andamento non lineare, ad esempio quadratico, esprimibile mediante l’equazione y = a0 + a1 x + a2 x2 .
(10.33)
In tal caso, siamo interessati al calcolo dei valori dei coefficienti a0 , a1 e a2 che rendono minima la funzione di tre variabili f (a0 , a1 , a2 ) definita da f (a0 , a1 , a2 ) =
n
[yi − (a0 + a1 xi + a2 x2i )]2 .
(10.34)
i=1
Per farlo occorre risolvere il sistema di tre equazioni nelle tre incognite a0 , a1 e a2 che si ottiene imponendo che siano nulle le tre derivate parziali di f (a0 , a1 , a2 ) calcolate rispetto alle variabili a0 , a1 e a2 : ∂f = 0, ∂a0 ∂f = 0, ∂a1 ∂f = 0. ∂a2
(10.35)
Il sistema di equazioni lineari da risolvere, nel caso della ricerca della parabola che meglio si adatta ai dati, `e dunque il seguente: a0 n + a1 a0 a0
n i=1 n i=1
n
xi + a2
i=1
xi + a1 x2i + a1
n i=1 n i=1
n
x2i =
i=1
x2i
+ a2
x3i + a2
n i=1 n i=1
n
yi ,
i=1
x3i
=
x4i =
n i=1 n i=1
xi yi , x2i yi .
(10.36)
10.5 Il metodo dei minimi quadrati
151
Il sistema di equazioni (10.36) `e costituito dalle 3 equazioni normali per a 0 , a1 e a2 . In generale i coefficienti della funzione polinomiale nella variabile x di grado k che meglio approssima un insieme di dati si trovano risolvendo il sistema di k equazioni normali per a0 , a1 , · · · , ak : a0 n + a1 a0
n
n
xi + · · · + ak
i=1
xi + a1
i=1
n
n i=1
x2i + · · · + ak
i=1
n
xki = n i=1
yi ,
i=1
xk+1 = i
n
xi yi ,
i=1
··· a0
n i=1
xki
+ a1
n i=1
xk+1 i
+ · · · + ak
n i=1
x2k i
=
n
xki yi . (10.37)
i=1
10.5.3 Il metodo dei minimi quadrati per una funzione esponenziale Nel caso in cui desideriamo verificare se i dati sperimentali seguano una legge esponenziale del tipo, ad esempio: y = A exp(αx) ,
(10.38)
dove A e α sono due costanti da determinarsi, dobbiamo semplicemente osservare che questa equazione `e equivalente alla seguente: log y = log A + αx .
(10.39)
Quest’ultima equazione `e lineare, ed il problema di trovare i valori dei coefficienti A e α corrispondenti alla funzione esponenziale che meglio si adatta ai dati (xi , yi ) si riduce alla determinazione della retta che meglio approssima la relazione tra log yi e xi . 10.5.4 Il coefficiente di correlazione Un problema che abbiamo fin qui trascurato `e il seguente: finora noi abbiamo sempre dato per scontato che i nostri dati fossero correlati, vale a dire che essi ubbidissero a qualche legge che determinasse l’andamento di una grandezza in funzione dell’altra. Tipicamente questo `e un punto di vista assai ragionevole. Ogni volta che si raccolgono dati sperimentali, lungi dal muoversi alla cieca, si `e piuttosto guidati da una sorta di pregiudizio teorico. Non esistono esperimenti che siano svolti in assenza della guida di qualche idea teorica generale. Si pu` o anzi asserire che lo scopo di un esperimento sia quello di corroborare oppure di falsificare una teoria: se l’esperimento non riesce
152
10 Strumenti per l’elaborazione dei dati sperimentali
a falsificare la teoria, quest’ultima ne viene infatti consolidata e rafforzata. Cos`ı si pu` o dire che gli esperimenti servono a corroborare le teorie scientifiche oppure a falsificarle. Si noti che non abbiamo mai usato la parola verificare perch´e, a rigore, un esperimento non potr` a mai verificare una teoria: infatti, a causa degli inevitabili errori sperimentali, esso potr` a al pi` u consolidare la teoria trovando una concordanza con i dati sperimentali migliore o uguale di quella degli esperimenti precedenti. Possiamo immaginare diverse situazioni: potrebbe essere che, ad esempio, una data teoria preveda che due grandezze siano legate da una relazione lineare e che tutti gli esperimenti condotti fino ad ora abbiano confermato tale linearit` a, in un dato dominio. Se un esperimento riuscisse a mostrare che la relazione di linearit` a `e valida per un dominio pi` u ampio, avrebbe esteso il dominio su cui la teoria non `e stata falsificata. Va anche detto che un esperimento condotto con strumenti pi` u sofisticati di quelli usati sino a quel momento, corrispondenti ad errori distribuiti secondo una legge con varianza pi` u piccola, potrebbe falsificare l’ipotesi di linearit` a e costringere a considerare relazioni meno semplici tra le due grandezze (ad esempio, polinomiali, o esponenziali). E se tra le due grandezze non esistesse alcuna correlazione? Se esse, cio`e, fossero completamente indipendenti? Se, in altre parole, le variazioni dell’una non avessero alcuna influenza sulle variazioni dell’altra? Per fornire una risposta quantitativa a queste domande, introduciamo uno strumento statistico che consenta di misurare il livello di correlazione tra due grandezze limitandoci, per il momento, al caso pi` u semplice di tutti: quello della correlazione lineare. In altre parole introduciamo, con argomenti assai intuitivi, un coefficiente che ci metta nella condizione di stimare, una volta al cospetto a della loro di una serie di misure (xi , yi ), con i = 1, · · · , n, quale sia la bont` correlazione lineare. Per farlo consideriamo prima di tutto il coefficiente angolare m della retta, ottenuta con il metodo dei minimi quadrati, che meglio si adatta ai dati espressa nella forma usuale y = mx + q .
(10.40)
Gi` a sappiamo che il valore di m cercato `e dato dall’equazione (10.25). Consideriamo poi gli stessi dati e cerchiamo di stabilire il coefficiente angolare della retta che meglio li approssima, questa volta espressa nella forma x = m1 y + q1 .
(10.41)
In tal caso il valore del coefficiente angolare m1 si ottiene semplicemente scambiando i ruoli di x e y nell’equazione (10.25). Confrontiamo prima di tutto le due equazioni che abbiamo appena scritto. Poich´e la seconda equazione pu` o essere riscritta come y=
q1 1 . x− m1 m1
(10.42)
10.5 Il metodo dei minimi quadrati
153
avremmo che, nel caso limite in cui i dati si trovassero esattamente su una retta, le due rette dovrebbero coincidere perfettamente e, pertanto, m=
1 . m1
(10.43)
In altri termini il prodotto di m e m1 dovrebbe essere prossimo a 1 qualora i nostri dati fossero effettivamente correlati linearmente. Se invece non ci fosse alcuna correlazione tra i dati, allora il metodo dei minimi quadrati fornirebbe due rette tra loro perpendicolari: nel primo caso [equazione (10.40)] otterremmo una retta parallela all’asse delle x (il primo caso corrisponde infatti a minimizzare la somma dei quadrati delle distanze verticali dalla retta). Nel secondo caso [equazione (10.41)] otterremo una retta parallela all’asse delle y (il secondo caso corrisponde infatti a minimizzare la somma dei quadrati delle distanze orizzontali dalla retta). Ovviamente, la completa assenza di correlazione implica che la retta che meglio si adatta ai dati sia quella parallela alle distanze tra i punti sperimentali e la retta. Concludiamo che, qualora non esistesse alcuna correlazione tra i dati, il prodotto di m e m1 dovrebbe essere esattamente uguale a zero. A causa degli inevitabili errori sperimentali, in realt` a, in nessun esperimento accadr`a mai di trovarsi in una delle due situazioni limite appena esaminate: si introduce pertanto il coefficiente r, definito come la radice quadrata a della correlazione del prodotto di m e m1 , allo scopo di stimare la linearit` tra due insiemi di dati. Quanto pi` u r `e prossimo a ±1, tanto pi` u probabile sar` a che i due insiemi di dati siano linearmente correlati. Se invece r risulta prossimo a 0, allora la probabilit` a che i dati siano linearmente correlati `e da considerarsi trascurabile. Per una valutazione quantitativa di tali probabilit` a, si veda l’appendice B. Conviene infine che scriviamo esplicitamente l’espressione di r: essa si ottiene semplicemente calcolando la radice quadrata del prodotto di m, dato dall’equazione (10.25), per m1 , ottenuto dalla medesima equazione una volta che si siano scambiati i ruoli di x e y, xi yi nx y − 2 1/2 , 2 1/2 (10.44) r = 2 yi ) xi ) (ny 2 − (nx −
dove si intende che tutte le sommatorie siano calcolate per i che va da 1 fino ad n. r, cos`ı definito, `e chiamato coefficiente di correlazione lineare. 10.5.5 Applicazioni del metodo dei minimi quadrati Nella tabella 10.1 abbiamo riportato due insiemi di dati che simulano i possibili risultati delle misure di due ipotetiche grandezze fisiche e abbiamo immaginato di dover stabilire se, tra le due grandezze, esista una correlazione
154
10 Strumenti per l’elaborazione dei dati sperimentali
lineare. I dati della tabella sono stati rappresentati poi nella figura 10.1, assieme alla retta ottenuta con il metodo dei minimi quadrati. Il valore del coefficiente di correlazione tra i dati `e pari a r=-0.968. Questo significa che la probabilit` a che le 20 coppie di osservazioni non siano correlate linearmente `e inferiore a 10−3 (si veda l’appendice B). Tabella 10.1. Dati utilizzati per realizzare la figura 10.1 che rappresenta un’applicazione del metodo dei minimi quadrati
x -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6 6.5 7 7.5 8 8.5
y 18 17 10 15 9 8 5 1 3 2 -4 -8 -3 -7 -4 -18 -12 -20 -25 -21
Utilizzando poi i dati sperimentali riportati nella tabella 3.3 del capitolo 3 abbiamo determinato, con il metodo dei minimi quadrati, la retta che meglio li approssima. La retta ci permette di valutare il valore della costante di proporzionalit` a K tra ∆l e µ, dato dal coefficiente angolare m: K = 0.0109 ± 0.0003 cm/g. Utilizzando, infine, i dati sperimentali riportati nella tabella 3.4 del capitolo 3 relativi agli spazi percorsi da una piccola sfera in caduta libera in funzione del quadrato del tempo impiegato a percorrerli, abbiamo costruito, con il metodo dei minimi quadrati, la retta che meglio li approssima: h = q + m t2 . In questa equazione h rappresenta lo spazio percorso (in m) e t2 il quadrato del tempo impiegato a percorrerlo (in s2 ). Si confronti questa retta con quella teorica di figura 3.9, costruita conoscendo a priori il valore dell’accelerazione di gravit` a g. La retta ottenuta con il metodo dei minimi
10.5 Il metodo dei minimi quadrati
20
•
15
•
• •
10
•
• •
5 y
155
•
0
•
• •
•
-5
•
-10
• • •
-15 •
-20
•
• •
-25
-1
0
1
2
4
3
5
6
7
8
x
Figura 10.1. Retta y = q + m x che meglio approssima l’insieme di dati in tabella 10.1, determinata con il metodo dei minimi quadrati: q = 14 ± 1, m = −4.2 ± 0.3. Il valore assoluto del coefficiente di correlazione tra i dati `e pari a |r|=0.968. Questo significa che la probabilit` a che le 20 coppie di osservazioni non siano correlate linearmente `e inferiore a 10−3 (si veda l’appendice B)
quadrati ci ha permesso di effettuare una valutazione sperimentale del valore dell’accelerazione di gravit` a g: m = g/2 = 4.85 ± 0.04 m/s2 . Si noti che, nel caso della figura 10.2, il valore dell’intercetta q con l’asse delle y risulta diverso da zero (il valore previsto teoricamente dalla legge di Hooke). Pi` u precisamente con il metodo dei minimi quadrati otteniamo q = −0.3 ± 0.1 cm. Questo significa che i dati sperimentali riportati in tabella 3.3 sono probabilmente affetti da un piccolo errore sistematico. Si considerino invece i dati rappresentati in figura 10.3: in quel caso il valore dell’intercetta q con l’asse delle y risulta compatibile con zero (il valore previsto teoricamente). Pi` u precisamente, con il metodo dei minimi quadrati abbiamo ottenuto q = 0.01 ± 0.01 m. Questo significa che i dati sperimentali riportati in tabella 3.4 sono privi di errori sistematici (o, meglio, gli eventuali errori sistematici possono essere considerati trascurabili).
156
10 Strumenti per l’elaborazione dei dati sperimentali
9
8
7
6 ∆ l (cm)
5
4
3
2
1 0
0
100
200
300
400
500
600
700
800
µ (g)
Figura 10.2. Retta che meglio approssima i dati sperimentali relativi alla dilatazione elastica di un corpo in funzione della forza applicata. La retta `e stata ottenuta con il metodo dei minimi quadrati: ∆ l = q + m µ dove ∆ l rappresenta l’allungamento (in cm) e µ la massa applicata (in g). I dati sperimentali sono quelli riportati nella tabella 3.3 del capitolo 3. Il coefficiente di correlazione `e assai prossimo a 1 (r=0.998). Si confronti questa retta con le due rette di figura 3.7 ottenute per via grafica. La retta ottenuta con il metodo dei minimi quadrati ci permette di valutare il valore della costante di proporzionalit` a K tra ∆l e µ, dato dal coefficiente angolare m: K = m = 0.0109 ± 0.0003 cm/g. Il valore dell’intercetta q con l’asse delle y risulta diverso da zero (il valore previsto teoricamente dalla legge di Hooke). Pi` u precisamente con il metodo dei minimi quadrati otteniamo q = −0.3 ± 0.1 cm. Questo significa che i dati sperimentali riportati in tabella 3.3 sono probabilmente affetti da un piccolo errore sistematico
10.6 L’approssimazione di una variabile discreta con una variabile continua Dal Teorema del Limite Centrale abbiamo appreso che qualunque distribuzione pu` o essere approssimata con una distribuzione gaussiana e che l’approssimazione sar`a tanto migliore quanto maggiore `e il numero n di variabili casuali X1 , · · · , Xn che costituiscono il campione casuale. Questo significa, in particolare, che una variabile discreta pu` o sempre essere approssimata con una variabile continua. La probabilit` a che la variabile casuale X sia compresa tra due valori dati a e b si calcola, per una densit` a di probabilit` a discreta q(k), come segue
10.6 L’approssimazione di una variabile discreta con una variabile continua
157
2.5 •
2 • •
1.5 h (m)
• •
1 •
0.5 •
0
0
•
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
t2 (s2 )
Figura 10.3. Retta che meglio approssima i dati sperimentali relativi agli spazi percorsi da una piccola sfera in caduta libera in funzione del quadrato del tempo impiegato a percorrerli. La retta `e stata ottenuta con il metodo dei minimi quadrati: h = q + m t2 dove h rappresenta lo spazio percorso (in m) e t2 il quadrato del tempo impiegato a percorrerlo (in s2 ). I dati sperimentali sono quelli riportati nella tabella 3.4 del capitolo 3. Il coefficiente di correlazione `e assai prossimo a 1 (r=0.9998). Si confronti questa retta con quella teorica di figura 3.9, costruita conoscendo a priori il valore dell’accelerazione di gravit` a g. La retta ottenuta con il metodo dei minimi quadrati ci permette di effettuare una valutazione sperimentale del valore dell’accelerazione di gravit` a g. Con il metodo dei minimi quadrati abbiamo ottenuto m = g/2 = 4.85 ± 0.04 m/s2 . Il valore dell’intercetta q con l’asse delle y risulta compatibile con zero (il valore previsto teoricamente). Pi` u precisamente con il metodo dei minimi quadrati abbiamo ottenuto q = 0.01 ± 0.01 m. Questo significa che i dati sperimentali riportati in tabella 3.4 sono privi di errori sistematici
P (a ≤ x ≤ b) =
b
q(k) ,
(10.45)
k=a
mentre la medesima probabilit` a per una densit` a di probabilit` a continua p(x) `e data da b p(x) dx . (10.46) P (a ≤ x ≤ b) = a
L’approssimazione della variabile discreta p(k) con la variabile continua q(x) si effettua pertanto sostituendo la sommatoria con l’integrale.
0.45
158
10 Strumenti per l’elaborazione dei dati sperimentali
In realt` a la semplice sostituzione della sommatoria con l’integrale introduce qualche problema. Infatti, mentre nel caso di una densit` a discreta la probabilit` a che la variabile casuale X assuma un dato valore c deve essere sempre maggiore di zero, quando la densit` a `e continua si ha che, per ogni c, P (X = c) = 0. Per questa ragione si introduce la cosiddetta correzione per la continuit` a. Se i nostri dati sono rappresentati da un istogramma, possiamo calcolare la probabilit` a che la variabile casuale sia compresa tra a e b sommando le aree dei rettangoli centrati in a, a + 1, a + 2, . . . , b (abbiamo qui assunto che le basi dei rettangoli dell’istogramma siano uguali a 1). Se p(x) `e la funzione continua che meglio approssima i valori q(k) dell’istogramma, la somma delle aree pu` o essere approssimativamente calcolata mediante l’integrale P (a ≤ x ≤ b) =
b+1/2
p(x) dx .
(10.47)
a−1/2
Gli estremi di integrazione di questo integrale sono leggermente diversi da quelli del precedente, espresso dall’equazione (10.46): le differenze negli estremi di integrazione dei due integrali costituiscono la correzione per la continuit` a. La correzione per la continuit` a risolve il problema che abbiamo evidenziato poco sopra. Infatti, grazie a tale correzione, ora avremo che P (X = c) =
c+1/2
p(x) dx ,
(10.48)
c−1/2
che, come si vede, `e una quantit` a diversa da zero e assai prossima all’area del rettangolo centrato in c.
10.7 La consistenza tra distribuzioni reali di dati e distribuzioni teoriche Supponiamo di ripetere molte volte un dato esperimento. Le nostre osservazioni si distribuiranno secondo una legge che costituisce quella che sovente viene chiamata distribuzione limite. Nei capitoli precedenti abbiamo studiato alcune densit`a di probabilit` a: si tratta di leggi che assai spesso descrivono l’andamento delle osservazioni sperimentali. Desideriamo ora presentare uno strumento matematico che consente di stimare quanto un insieme di dati sperimentali sia effettivamente descritto da una data distribuzione limite. 10.7.1 Il test del χ2 Immaginiamo di effettuare n misure di una data grandezza x. Indichiamole con x1 , . . . , xn . Una volta calcolate la media µ e la varianza σ delle nostre misure, ci chiediamo se esse siano consistenti con l’ipotesi di rappresentare
10.7 La consistenza tra distribuzioni reali di dati e distribuzioni teoriche
159
un campione casuale di una densit` a di probabilit` a data, ad esempio una gaussiana avente come valor medio µ e come varianza σ. Per procedere converr`a suddividere il dominio di variabilit` a di x in un dato numero di intervalli, diciamo m. A questo punto non ci rester` a che contare il numero Mj di misure che cadono all’interno del j-esimo intervallo. Ripeteremo questa operazione per ogni valore di j compreso tra 1 ed m. Utilizzando poi i valori di media e varianza stimati sulla base delle nostre n osservazioni, possiamo calcolare il numero di misure che dovrebbero cadere in ciascun intervallo qualora la distribuzione limite fosse quella ipotizzata. Per fissare le idee, ma anche perch´e si tratta del caso pi` u frequente, supponiamo di voler verificare la consistenza delle nostre n osservazioni sperimentali con l’ipotesi che siano distribuite normalmente, secondo cio`e una densit`a di probabilit` a gaussiana. La probabilit` a che una data osservazione cada in un dato intervallo `e costituita dall’area sottesa dalla funzione gaussiana (o dalla funzione che descrive la distribuzione limite di cui vogliamo verificare la consistenza con i dati) tra gli estremi di ogni intervallo. Per conoscere il numero atteso di misure in ogni singolo intervallo non dobbiamo fare altro che moltiplicare le probabilit` a per il numero totale di osservazioni n. Se indichiamo con Pj tali probabilit` a, ottenute dal calcolo delle aree sottese dalla gaussiana nei vari intervalli, il numero di misure che ci attendiamo nel j-esimo intervallo `e dato da n Pj . Poich´e non ci aspettiamo certo che Mj = n Pj per ogni j, ci chiediamo quale sia il criterio per stabilire quanto devono essere piccole le differenze tra Mj e Nj ≡ n Pj per avvalorare l’ipotesi che le osservazioni appartengano effettivamente alla distribuzione limite. A questo punto conviene ricorrere alla funzione di Poisson che, lo ricordiamo, `e la legge che descrive come si distribuiscono i dati in un esperimento di conteggio. Immaginiamo di ripetere molte volte il nostro esperimento, raccogliendo numerosi gruppi di n osservazioni: il numero Mj di osservazioni che cadono nel j-esimo intervallo `e, in tal caso, a tutti gli effetti il risultato di un esperimento di conteggio. Pertanto, fissato l’intervallo j, i diversi valori di Mj dovrebbero distribuirsi attorno al loro valor medio Nj ≡ n Pj con deviazione standard pari alla radice quadrata di Nj : infatti la deviazione standard della legge di Poisson `e pari alla radice quadrata del suo valor medio. In altre parole la grandezza cercata al fine di caratterizzare la bont` a dell’approssimazione deve contenere ilrapporto tra Nj − Mj e la deviazione standard della media dei conteggi, Nj . Non dobbiamo infine dimenticare che questo argomento vale per tutti gli intervalli e che, poich´e le differenze sono talora positive, talora negative, conviene, come sempre, elevare al quadrato i singoli termini per poi sommare su tutti gli m intervalli.
160
10 Strumenti per l’elaborazione dei dati sperimentali
Siamo finalmente nella condizione di introdurre χ2 , la grandezza che costituisce una stima della bont` a della nostra approssimazione, come segue: χ2 =
m (n Pj − Mj )2 . n Pj j=1
(10.49)
Nel caso in cui χ2 = 0, l’accordo tra la distribuzione delle osservazioni sperimentali e la distribuzione limite `e perfetto. Come anticipato, naturalmente tale circostanza non si verifica praticamente mai, e non c’`e alcuna ragione di u aspettarselo. Pi` u interessante `e il caso opposto: qualora χ2 fosse molto pi` grande del numero m di intervalli, saremmo nella condizione di poter escludere che le osservazioni sperimentali siano ben descritte dalla distribuzione limite ipotizzata. In definitiva, diremo che i dati osservati seguono una data distribuzione limite qualora il χ2 sia molto minore del numero di intervalli in cui abbiamo suddiviso il dominio di variabilit` a della grandezza che abbiamo misurato. Per un approccio quantitativo si rimanda all’appendice C.
A Funzione di ripartizione della densit` a di probabilit` a di Gauss
In tabella sono riportati i valori della funzione
2 x t 1 dt , exp − φg (x) = √ 2 2π −∞
(A.1)
che costituisce la funzione di ripartizione della densit` a normale standard. Dal momento che
2 0 1 t 1 √ (A.2) dt = , exp − 2 2 2π −∞ `e chiaro che i valori della funzione
2 x t 1 dt , (A.3) exp − ψ(x) = √ 2 2π 0
che in alcuni testi si trova tabulata al posto di φg (x), si ottengono sottraendo 1/2 dai dati in tabella: ψ(x) = φg (x) − 1/2. Qualche volta si introduce anche la funzione erf(x), definita come +x 1 exp(−t2 ) dt . (A.4) erf(x) = √ π −x
Basta un attimo di riflessione per convincersi che
x 1 . 1 + erf √ φg (x) = 2 2
(A.5)
Utilizzo della tabella Supponiamo che la variabile casuale Y sia descritta da una densit` a di probabilit` a gaussiana con µ = 3 unit` a e deviazione standard σ = 2 unit` a. Introduciamo la nuova variabile casuale X con densit`a di probabilit` a normale standard Y −3 Y −µ . (A.6) = X= 2 σ Il calcolo della probabilit` a che Y sia compreso tra 2 e 5 si ottiene utilizzando la tabella come segue:
P (2 < Y < 5) = P (−1/2 < X < 1) = φg (1) − φg (−1/2) = φg (1) + φg (1/2) − 1 = 0.8413 + 0.6915 − 1 = 0.5328 .
162
A Funzione di ripartizione della densit` a di probabilit` a di Gauss
Tabella A.1. Funzione di ripartizione della densit` a di probabilit` a di Gauss, φg (x)
x 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4.0
0.00 0.01 0.5000 0.5040 0.5398 0.5438 0.5793 0.5832 0.6179 0.6217 0.6554 0.6591 0.6915 0.6950 0.7257 0.7291 0.7580 0.7611 0.7881 0.7910 0.8159 0.8186 0.8413 0.8437 0.8643 0.8665 0.8849 0.8869 0.9032 0.9049 0.9192 0.9207 0.9332 0.9345 0.9452 0.9463 0.9554 0.9564 0.9641 0.9649 0.9713 0.9719 0.9773 0.9778 0.9821 0.9826 0.9861 0.9864 0.9893 0.9896 0.9918 0.9920 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000 1.0000
0.02 0.03 0.5080 0.5120 0.5478 0.5517 0.5871 0.5910 0.6255 0.6293 0.6628 0.6664 0.6985 0.7019 0.7324 0.7357 0.7642 0.7673 0.7939 0.7967 0.8212 0.8238 0.8461 0.8485 0.8686 0.8708 0.8888 0.8907 0.9066 0.9082 0.9222 0.9236 0.9357 0.9370 0.9474 0.9485 0.9573 0.9582 0.9656 0.9664 0.9726 0.9732 0.9783 0.9788 0.9830 0.9834 0.9868 0.9871 0.9898 0.9901 0.9922 0.9925 0.9941 0.9956 0.9967 0.9976 0.9983
0.04 0.05 0.06 0.07 0.08 0.09 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.7995 0.8023 0.8051 0.8079 0.8106 0.8133 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 0.9945 0.9948 0.9951 0.9959 0.9961 0.9963 0.9969 0.9971 0.9973 0.9977 0.9979 0.9980 0.9984 0.9985 0.9986 0.9989 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
B Valutazione della correlazione
La tabella consente di valutare la correlazione tra coppie di misure. Supponendo di avere n coppie di dati non correlati, dalla tabella si ricava la probabilit` a che il valore assoluto del coefficiente di correlazione r sia maggiore o uguale al valore tabulato. Utilizzo della tabella Se stiamo esaminando 30 coppie di dati non correlati, la probabilit` a che |r| a che |r| assuma valori maggiori o uguali a 0.307 `e pari a 10−1 ; la probabilit` a, infine, assuma valori maggiori o uguali a 0.464 `e pari a 10−2 ; la probabilit` che |r| assuma valori maggiori o uguali a 0.572 `e pari a 10−3 . Tabella B.1. Probabilit` a pr che, per n coppie di osservazioni non correlate, il valore assoluto del coefficiente di correlazione r sia maggiore o uguale al valore indicato
n 10 15 20 30 40 60 80 100
10−1 0.549 0.441 0.378 0.307 0.264 0.219 0.188 0.168
pr 10−2 0.765 0.641 0.561 0.464 0.403 0.337 0.291 0.259
10−3 0.872 0.760 0.679 0.572 0.502 0.422 0.366 0.327
C Tabella del χ2
Dalla tabella si risale alla probabilit` a pχ2 che i valori indicati hanno di essere superati dal χ2 di un campione della distribuzione teorica, dove n indica il numero di gradi di libert` a. Utilizzo della tabella Se il campione ha 20 gradi di libert` a, la probabilit` a che χ2 sia maggiore o −3 a che χ2 sia maggiore o uguale a 45.315 `e pari a 10 , mentre la probabilit` uguale a 8.260 `e pari a 0.99.
Tabella C.1. Probabilit` a pχ2 che i valori indicati hanno di essere superati dal χ2 di un campione della distribuzione teorica, dove n indica il numero di gradi di libert` a
n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
10−3 10.827 13.815 16.268 18.465 20.517 22.457 24.322 26.125 27.877 29.588 31.264 32.909 34.528 36.123 37.697 39.252 40.790 42.312 43.820 45.315 46.797 48.268 49.728 51.179 52.620 54.052 55.476 56.893 58.302 59.703
10−2 6.635 9.210 11.341 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892
pχ2 10−1 0.90 0.99 2.706 0.0158 0.000157 4.605 0.211 0.0201 6.251 0.584 0.115 7.779 1.064 0.297 9.236 1.610 0.554 10.645 2.204 0.872 12.017 2.833 1.239 13.362 3.490 1.646 14.684 4.158 2.088 15.987 4.865 2.558 17.275 5.578 3.053 18.549 6.304 3.571 19.812 7.042 4.107 21.064 7.790 4.660 22.307 8.547 5.229 23.542 9.312 5.812 24.769 10.085 6.408 25.989 10.865 7.015 27.204 11.651 7.633 28.412 12.443 8.260 29.615 13.240 8.897 30.813 14.041 9.542 32.007 14.848 10.196 33.196 15.659 10.856 34.382 16.473 11.524 35.563 17.292 12.198 36.741 18.114 12.879 37.916 18.939 13.565 39.087 19.768 14.256 40.256 20.599 14.953
Riferimenti bibliografici
1. Hugh D. Young, Statistical Treatment of Experimental Data (McGraw-Hill, New York, 1962) 2. Philip R. Bevington, Data Reduction and Error Analysis for the Physical Sciences (McGraw-Hill, New York, 1969) 3. Murray R. Spiegel, Statistica (Etas Libri, Milano, 1976) 4. I. M. Sobol, The Monte Carlo Method (MIR, Moscow, 1984) 5. Richard L. Burden, J. Douglas Faires, Numerical Analysis (PWS, Boston, 1985) 6. John R. Taylor, Introduzione all’analisi degli errori: lo studio delle incertezze nelle misure fisiche (Zanichelli, Bologna, 1986) 7. Morris H. DeGroot, Probability and Statistics (Addison-Wesley, Reading, 1986) 8. Marina Caporaloni, Silvia Caporaloni, Roberto Ambrosini, La misura e la valutazione della sua incertezza nella fisica sperimentale (Zanichelli, Bologna, 1987) 9. Steven E. Koonin, Dawn C. Meredith, Computational Physics (Addison-Wesley, Reading, 1990) 10. Anita Calcatelli, Il Sistema Internazionale di unit` a di misura (SI), (a cura del Consiglio Nazionale delle Ricerche, Istituto di Metrologia Gustavo Colonnetti, Seconda Edizione, Torino, 1994) 11. Marco Severi, Introduzione alla esperimentazione fisica (Zanichelli, Bologna, 1997) 12. Maurizio Loreti, Teoria degli errori e fondamenti di statistica (Zanichelli, Bologna, 1998) 13. Paolo Baldi, Introduzione alla probabilit` a con elementi di statistica (McGrawHill, Milano, 2003) 14. Maurizio Dapor, Electron Beam Interactions with Solids: Application of the Monte Carlo Method to Electron Scattering Problems (Springer-Verlag, Berlin, Heidelberg, 2003)
Indice analitico
Bont` a dell’approssimazione, 141, 158–160, 165, 166 Calcolo combinatorio, 65, 73, 76 Coefficiente di correlazione, 48, 49, 141, 151–157, 163 Coefficienti binomiali, 76, 77 Combinazioni, 74–77, 101 Covarianza, 99, 100, 133 Densit` a binomiale, 87, 101–106, 108, 109, 111, 112 Densit` a di Cauchy, 121 Densit` a di Gauss, 36, 101, 111, 112, 116, 117, 119, 121, 122, 129, 139, 161, 162 Densit` a di Lorentz, 101, 121–123, 131 Densit` a di Poisson, 101, 106–109, 127, 159 Densit` a di probabilit` a, 79, 87, 90–94, 96, 97, 101–109, 111, 114, 116–119, 121–127, 129–139, 142, 144, 145, 156, 158, 159, 161, 162 Densit` a uniforme, 101, 123, 124, 127 Deviazione standard, 19–22, 28, 30, 32, 36, 97, 119, 129, 131–135, 143, 144, 150, 159, 161 Disposizioni, 73–76 a, 79, 90, 92, Distribuzione di probabilit` 96–98, 126 Disuguaglianza di Chebyshev, 129–132, 134, 137 Disuguaglianza di Markov, 129–132 Errori assoluti, 15–17, 21, 23, 24, 26, 40, 43, 44 Errori casuali, 13, 14, 16, 28, 65, 87, 96, 111, 112, 133, 135, 143, 144, 146
Errori percentuali, 23, 24 Errori relativi, 23, 24, 27 Errori sistematici, 13, 14, 24, 40, 59, 143, 144, 146, 155, 157 Eventi, 66–73, 80–89, 99 Fattoriale, 75, 76 Frequenza, 32–34, 67–71 Funzione di ripartizione, 91, 92, 117, 118, 139, 161, 162 Grafici, 31, 32, 36, 37, 39–41, 44, 47, 48, 52 Grandezze derivate, 1–3, 10, 24 Grandezze fondamentali, 1–4, 10 Istogrammi, 31, 34–36, 52, 138, 158 Legge dei Grandi Numeri, 129, 135–138 Massima verosimiglianza, 141–145, 147 Media aritmetica, 16, 18, 93, 94, 97, 129, 133–139, 141, 143, 145, 147 Minimi quadrati, 141, 142, 147, 148, 150–157 Misure dirette, 10, 15, 24, 28 Misure indirette, 10, 28, 149 Notazione scientifica, 7 Numeri casuali, 123–125 Numeri pseudo-casuali, 124–126 Ordine di grandezza, 7, 23, 59, 106 Permutazioni, 75, 76 Propagazione degli errori, 24–26, 28, 29, 47, 143, 145, 149 Scarto quadratico medio, 19, 20, 97
170
Indice analitico
Schema successo-insuccesso, 87, 89, 90, 101, 106 Sistema Internazionale di unit` a di misura, 4
Tabelle, 31, 32, 36, 52 Teorema del Limite Centrale, 111, 129, 137–139, 155
Valore atteso, 93–99, 102, 109, 116, 119, 121–123, 127, 129, 131–135, 138, 145 Variabili casuali, 79, 80, 87, 89, 91, 93–96, 99, 100, 111, 125, 129, 132–134, 136, 138, 156 Varianza, 19, 20, 28–30, 32, 93, 96–100, 102, 104–106, 109, 111–114, 116, 117, 123, 127, 131–136, 138, 139, 142–147, 149, 152, 158, 159