---'
Ftç
_
--
t-r,r.r,]l
1l
a:
école notionole supérieure du pétrole et des moteurs
Ph. TASSI et S. LEGAIT
théorie des probabilités en vue des applications
statistiques
,dffifl ,:*-
,,
,tri'[e;Ë o)
6 {) o o= Lo
i
t"
-l
.',:
ffi? .$ffiffi
o. c
o
/ .. tj.i.'
f rll:-9.:l:11
o
.c
(D
,#fr.&TfrIr
E
o .ri'*1H1i*'r
.o
o a
af
*;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*
o-
TUTIONS TECHNIP
.\
-l ,
,t**jt-"\{
I
ll'i:
':, :'r- Q''|r a u
i 3
I I
I I I II I
I
I
I
i- 5l-9.21-:3il I
l I
352
1l TAS
ilit
fi
il
,
{,1'
519. AR?
?1-:3il
TAS
.r - I r' .- "l f
ù '') '-' i
't
INSTITUT FRANÇAIS DU PETROLE
École Nationale Supérieure du Pétrole et des Moteurs Centre d'études supérieures d'économie et gestion
Théorie des probabilités en vue des applications statistiques Philippe Tassi Directeur scientifique de Médiamétrie Professeur à I'ENSPM et à I'ENSAE
Sylvia Legait Attaché de t'INSEE
Éotnorus rEcHNtp 27, rue Giroux 75737 Paris Cedex 15
@
lgg0. Editions Technip, Paris et Institut Frmtçais du Pétrole, Rueil-Malmaison
tsBN 2-7108-0582-O rssN 0758-147X Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soil est rigouretnement interdite par les lois en vigueur
AVANT-PROPOS
déjà longue histoire des méthodes scientifiques montre que principale victoire du chercheur, du praticien, de |ingénieur, esi t;upprànt,.s"ge la du doute. Le scientifique éclairé remprace de prus en prùs fréquemmenio"" uttirrations comme "le résultat est ...> par des interrogations : *queile est ra probabirité pour que re résultat soit ..". Le calcul et la théàrie des probabilités jouent, joueront et un rôle fondamental dans ra démarche scientifique, d'une part en raison de ra nature aréa_ toire de la plupart des problèmes réels, d""utr" part grâce à la nécessité de recourir aux méthodes statistiques de traitement de donnée-s sans cesse plus nombreuses et complexes à analyser.
Le déterminisme étant souvent une réduction hâtive de la réalité, il n'est plus, maintenant, d'ingénieur chimiste. physicien, fiabiriste, astronome, sans parrer bien sûr des spéeialistes de ra gestion, d" i'é"onornie et prus généràtement des sciences sociales et humaines, qui n'aient à manipurer res ài r"" modères de ra probabilité et de la statistique. Mentionnons, "onË"pt, à titre 0,""".pie, ra physique des particules : les électrons ne décrivent pas des trajectoires autour du noyau comme le font les planètes autour du soleil. Les particules obéissent en effet aux lois de la mécanique quantique, et la notion de trajectoire doit être abandonnée. De manière générale, la seure chose qu'ir est possiÉre de connaître est la probabilité de pré_ sence d'une particule en un point donné et à un instant donné.
, .L',ouvrage propose une introduction aux principales notions des probabilités dont le praticien sera amené à se servir. ll est rédigé pour des lecteurs déjà familiarisés avec un certain bagage mathématique en anaryse et en l'usage de plus en plus repându des méthodes proba'bilirt""-I argèbre. En effet, qui ira encore en grandissant de par re déveroppement de rogiciers adaptés - montre qu'une mauvaise connaissance des propriétés fondamentares des techniques est à r,origine d'interprétations parfois aberrantes des résultats. ll nous apparaît donc important d'insister sur les bases, afin de faciliter la compréhension des méthodes. La rédaction fait en outre appel à de nombreux exemples d'applications et exercices résolus ou à résoudre.
. Le chapitre 1 présente les concepts probabilistes usuels selon I'axiomatique. maintenant classique, de Kormogorov. il'contient égarement res résurtats sur re conditionnement er [indépendanCe. et le célèbre théJrème dû à Thomas
de nprobabilité des causes>
Bayes, dit
chapitre 2 pronge re carcur des probabirités dans ra théorie. prus générare, de la mesure et présenre res principaux étéments de rintàgr"tion générarisée au sens de Lebesgue, dont ra pubrication, au début du 2o'"siècre, a permis
une
PH. TASSi - S. LEGAIT
AVANT PROPOS
approche unifiée des probabilités. Nous avons adopté cette démarche car elle apparaît pédagogiquement intéressante, de par l'unification du langage qu'elle permet et la portée des propriétés qu'elle engendre. Dans le troisième chapitre sont regroupés les principaux résultats sur les variables aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des cas particuliers de ceux obtenus au chapitre 2. Le chapitre 4 est important pour le praticien: il fournit les définitions et propriétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applications. ll donne également les principes des papiersfonctionnels adaptés à la détermination d'une loi de probabilité au vu des données, ainsi que des éléments sur la génération d'échantillons aléatoires souvent utilisés en simulation. Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoir donné une représentation géométrique de certains des outils de la statistique descriptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et la
régression.
Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsque l'on veut connaître la loi d'une somme de variables ou étudier les comportements asymptotiques : il s'agit de la fonction caractéristique. Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreuses applications statistiques sont fondées sur des propriétés (aux limites,, autorisant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'un des indices les plus utilisés en statistique est le nornbre des observations: lorsqu'il est impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorise
l'usage de résultats approximés.
Un certain nombre de compléments et d"approfondissements font l'objet du chapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance, existant entre deux lois de probabilités. ou entre des observations et un modèle théorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.
L'observation de données aléatoires fait parfois apparaître un ordre naturel ainsi un phénomène qui va en s'amplifiant donnera naissance à des données rangées en ordre croissant. En outre, depuis quelques années, on voit se développer' des méthodes statistiques utilisant des observations ordonnées, méthôdes dont les propriétés de stabilité sont du plus haut intérêt. Le clrapitre 9 est donc consacré aux résultats probabilistes particuliers à ce type de modèle ordonné. :
Enfin, les chapitres 10 et 11 portent sur les processus, c'est-à-ciire une généralisation des variables aléatoires. Leur domaine d'utilisation le plus fréquent est celui des séries temporelles, dont l'observation varie non seulement en fonction de l'individu observé mais aussi selon l'instant d'observation. Le chapitre 1O fournit des résultats probabilistes sur les proeessus, et le chapitre 1 1 présente des exemples de processus, en particulier les processus autorégressifs et moyenne mobile très répandus en automatique et en prévision. Les auteurs PH.
TASSI S. LEGAIT
TABLE EES MATIERES
AVANT PROPOS TABLE DES MATIERES
3 5
Chapitre 1 : LES eONCEPTS pROBAB|L|STES 1 Espace probabitisable 1 .1 Ëxpérience aléatoire 1.2 Evénement 2 Propriétés des tribus 3 Ouelques tribus particulières
3.1 Exemples "... 3.2 Tribu engendrée 3.3 Tribu borélienne
4
Probabilité sur un espace probabilisable 4.1 Définirion d'une probabiliré 4.2 Propriétés d'une probabilité 5 Fonction de répartition 6 Probabilité conditionnelle, indépendance d,événernents
6.1 Probabilité conditionnelle 6.2 lndépendance . . 6.3 Théorème de Bayes
.
Exercices Chapitre 2 : PROBAB|L|TE, MESURE, tNTEGRAT|ON 1 La théorie de la mesure : histoire et apport aux probabilités 2 Notion de mesure
2.1 Déf initions 2.2 Propriétér . ::::' ' ".:: 2.3 Meiure.iriin, sii
3 Mesurabilité
:.:.
:::::::.'
4lntégration ...
PH TASSI . S. TEGAIT
13
16 16 16 17 18 18 21
22 23 23 24 27 29 33 33 35 35
3.1 Application mesurable 3.2 Mesure-image 3.3 Tribu-produit . 4. 1 lntégration 4.2 lntégration
11
12 12 12
des fonctions mesurables étagées positives des fonctions mesurablei positives
37 39
40 4A
43
44 46 46 48
TABLE DFS MATIERES
4.3 Fonctions intégrables 4.4 Propriétés de l'intégrale 4.5 Généralisation 4.6 Exemples ... 5 Négligeabilité . 5.'l Définitions 5.2 Propriétés
50
6 Mesure définie Par une densité 7 lntégration par rapport à une mesure-image 8 lntégration par rapport à une mesure-produit
59
51
52 53 54 54 55 61
64 64 65 67
8.1 Mesure-produit 8.2 lntégration Exercices Chapitre 3 : LES VARIABLES ALEATOIRES 1 Caractéristiques des variables aléatoires réelles (unidimensionnelles) 1.1 Fonction de répartition . . ' . 1.2 Densité de probabilité . . ' .
71
2
80
1.3 Moments ... 1.4 Fractiles 1.5 Changement de variables
Vecteurs aléatoires 2.1 Fonction de répartition
72 72 73 75 77 78 80
80
2.2 Densité de probabilité . . ' . 2.3 Moments ... 2.4 Changement de variables 2.5 Lois marginales 2.6 lndépendance 2.7 Lois conditionnelles
82 85 86 87 91
103
Exercices Chapitre 4 : LES LOIS DE PROBABILITE USUELLES
107
1
107 107
Les lois
discrètes
..".
1.1 La loi de Dirac 1.2 Loi indicatrice (ou loi de Bernoulli) .. 1.3 Loi de Poisson
.'
108 109 110 110
.4 Loi binomiale 1.5 Loi multinomiale . . . 1,6 Loi hypergéométrique 1.7 Loi binomiale négative
1
2 Les lois continues
113 115
116 116
elassiques
2.1 Loi uniforme 2.2 Loi gamma 2.3 Loi de Weibull
117 119 PH
TASSI S. LEGAII
TABLE D.ES MATIERES
2.4
Loi bêta Loi de Gumbel 2.6 Loi normale unidimensionnelle 2.7 Loi normale multidimensionnelle 2.8 Loi log-normale 2.9 Loi du khi-deux 2.10 Loi de Student 2.11 Loi de Fisher-Snedecor Les papiers fonctionnels 3 1 Principe des pcrpters papiers fonctionnels toncltonnels :.: _,,,,v,r/ç uçù 3.2 txemples de construction de papier fonctionnel 3.3 Cas de variables discrètes
121
2.5
3
4
124
124 131
135 136 138
140 142
143 143 147
Divers
148 148
4.1 Création de lois de probabilité 4.2 Les coefficients de symétrie et d.ailaiissement srrucrure générâre , ra tamiirËïfànentierre 11 4.4 Y:" Génération d'éôhantillons aléatoires
150
152 154
Exercices
158
Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES 1 Espaces de variables aléatoires
1.1 Les espaces 9, elL. . . _. 1.2 Lesespaces7jett'. --._. z '' 1 .3 Les espaces 9É et I
...
'
' "
Un peu de géométrie 2 1 Statistiqu" J"""riptlu"'d",;l,;q;;' : : : : :. : : : : : : : : :. :. : : :. : : : : 2.2 Géométrie dans.L,
L, ....... : :... 3 ltry"'jmarion.daÀ's 2.4 lnterprétation des tois?u tni_oeux Liïe Stuoent
I
Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE
1 Définition et propriétés 1.1 Définition ... 1
d,une fonction caractéristique
.2 Propriétés
j" i"i'jËii"i;;;, 1 3 Un "^".ft" 2 Fonctions caractéristiques
;;i;'
des lois de probabilité usuelles
2.1 Loi de Dirac .... 2.2 Loi de Bernoulli 2.3 Loi binomiale 2.4 Loi de Poisson 2.5 Loi uniforme continue 2.6 Loi gamma 2.7 Loi normale 2.8 Loi du khi-deux 2.9 Loi de Cauchy PH TASSI
.
165 165 165
rob 169 171 171
174
175 180 185 185
185 187 190 191 191
191 191 191
192 192 192 192 192
S. LFGAIT 1
TABLE DFS MATIERES
192
2.10 Loi de Laplace 2.11 Loinormale multidimensionnelle
193 193
2.l2Loimultinomiale.'.
3 Applications de la fonction
caractéristique
3.1 Loi d'une somme de vecteurs aléatoires 3.2 Caractérisation de l'indépendance de deux vecteurs aléatoires 3.3 Obtention des moments non centrés . . Seconde fonction caractéristique . . . . """": 4.1 Définitionsetpropriétés '. 4.2 Applications aux développements d'Edgeworth et de Gram-Charlier ...
4
Exercices Chapitre 7 : I-ES GoNVERGENcES DE VARIABLES ALEAToIRES
'! Convergence Presque sûre 2 Gonvergeneeenprobabilité .
.""!
en loi . . . 3.1 Définition de la convergence en loi
3.2 Caractérisation de la convergence en
4
199 199
202 206 207 247
212 213
'roi".:::::.::::::.:::::::
î12 218
Relations entre les diverses formes de convergence
4.1 lmplicationsdiverses ..'. 4.2 Théorèmes de combinaison
195 196
209 209
2.1 Cas des variables aléatoires réelles 2.2 Cas des vecteurs aléatoires . . ' . .
3 Convergence
194 194
218 221
.'
5 Les lois des grands nombres
223
6 Comportements asymptotiquement gausslens 7 Application aux lois de probabilité classiques 7.1 Loi de Poisson 7.2 Loi binomiale 7.3 Loi gamma 7.4 Loi du khi-deux 7.5 Précision de l'approximation gaussienne donnée par le théorème
227
central limite Exercices chapitre 8
tr
:
COMPLEMENTS ET APPROFONDISSEMENITS SUR LES LOIS DE PROBABILITE
Les distances ,1 La distance 2 La distance .3 La distance .4 La distance
231 231
232
234 235 236 238 241 241
de Paul LévY en variation de Hellinger de LiPschitz
241
242
243 244 PH TASSI , S. LEGA]T
TABLE DES MATIFBFS
1.5 La distance de prohorov 1.6 Comparaison de distances 1.7 Autres indicateu rs ci'écart 1.8 Retour sur les convergences
244 245 246 249
Application à la fonction de répartition empirique 2.1 Propriétés à distance finie
251
252
2.2 Propriétés asymptotiques 2.3 Vitesse de convérgence : loi du logarithme itéré 2.4 lndicateurs de proiimité avec Fn . . .-. .
3 Ordres sur les variables aléatolres
252
253 254
"
258
Chapitre 9 : OBSERVATTONS OFDONNEES 1 Loi de l'échantillon ordonné
261 26a,
1.1 Définition de la staristique d,ordre 1.2 Loi de la statistique d,ordre
2
Lois particulières de l'échantillon de
X1r1
?1L"' 2.2 eas partiiulier
srdonné
261
262 ...
.
263 263 266
extrêmes X1l/ ..'.':..':'......:.:::.:.:.:::.:::..
des valeurs
2.3 Loijointe d,un couple 2.4 Catcutdesmomenrs
(X1py
267
268
3 Comportement asyrnptotique
4
3.1 Convergence d'un fractile empirique 3.2 Convergences des valeurs exirêmes 3.3 Les lois des extrêmes 3.4 Eléments sur la démonstration des convergences en loi 6e Xlny La loi de l'étendue 4.1
4.2
'Résultar
général L'étendue W
Chapitre't 0 : NOTTONS ELEMENTATRES SUR LES PROCESSUS 1 Définition d'un processus aléatoire 1.1 Définition d'un processus
2
3
1.2 Processus équivalent Processus stationnaires . . 2.1 Stationnarité stricte 2.2 Stationnarité faible 2.3 Remarques diverses sur la stationnarité
Corrélation et corrélogramme 3.1 Le coeff icient d'autocorrélation
3.2 Exemples de corrélogrammes
PH.TASSI
.S
LEGAIT
.....
273 273 275
276 280
284 284 286 289 289 289 290 291 291
292
293 296 296
298
TABLE DES MATIEBES
302
Fonction d'autocorrélation partielle . . .
4
302 302 303 304 304
4.1 Définition générale 4.2 Le théorème de Frisch et Waugh ' .. . . . ' 4.3 Système de dé termination de (h) 4.4 Un exemple
5 Les opérateurs
B et
F
Chapitre 11 : EXEMPLES DE PROCESSUS ' '
Poisson
1
Le processus de 1.1 Les processus à accroissements 1.2 Le processus de
Poisson
'
3O7 3O7
indépendants
3O7
308 310
2 Les processus de vie et de mort 3 Le mouvement brownien 4 Les processus autorégressifs
311 311 311
4.1 Définition .. . 4.2 Etude du modèle AR(P) .
5
Les processus moyenne
312
mobile
5.1 Définition ... 5.2 ProPriétés d'un MA(q) 5.3 Remarque sur le lien'entre AR et MA
319 319
':'''
319 320
'
323 327 355
BIBLIOGRAPHIE . TABLES NUMERIOUES
INDEX
1C
PI'J.
TASSI - S. LEGAIT
Chapitre
1
Les concepts probabilistes Dans de nombreux domaines relevant ou non de I'expérimentation scientifique' le langage courant fait de plus en plus appel au vocabulàir.e probabiliste. engenrant d'ailleurs de nombreux barbarismes ou'impropriétés o,usàge. on parlera ainsi d'événement (plus que probabreu ; un match de sérection en rugoy opposera res upossiblesn contre les uprobabres) ; une situation à venir sera décrite comme <pos_ sible. sinon probable, I etc. De telles expressions, mQme impropres, montrent que rincertain, r,aréatoire, prennent le pas sur le déterminisme.'Raison supplémeniaire pour fonder sur des bases solides la théorie et le calcul des probabilités. développer son enseignement et vulgariser ses résultats
si
le concept des probabirités remonte aux Egyptiens
ité en tant que nombre compris entre o et r #Àuià et aux Grecs, ra probabiFermat et Pascal connaissent implicitement l'axiome "pp"Ëitr" au 17. siècre. o'aâ'oitivite et la notion de probabilité conditionnelle. Dès ta iin oe ce siècre tes tois des grands nombres de Bernoulli. Le 18" siècle voit se""irt"niià"pLrance, développài'le conoitionnement, la formule de Bayes, ra théorie asymptotique,.et |usage des probabirités en physi_ f
que et en astronomie. ce^s applications aux science. ôt àrr sciences sociaau 19" siècte, sous t,imputsion de "i."t". A"fàrann, Laplace,
[:f;":"rr.uivent
Ouétef"t,
De nombreuses approches du concept de probabirité ont été proposées : on peut citer, par exempre, r'interprétation fréqueniiste von Mises) fondée tIàprace, sur la norion d'expériences répétées, ta pronaoitite;;t;;;ri;;(Keynes, Koopman), la théorie logique (carnap), la'formaiisaiion suolective ioe rinetïi, savage), t,approche purement mathématique (Kolmogorov).
Le lecteur intéressé par l'étude comparative de ces diverses fondations des probabilités pourra se reporter à r'ouvrage de T. Fine- p* il;iË#;Ëï;; avons choisi la présentation abstraite deé axiomes oe ror,.nogolJu, apperée (point de vue de ra théorie de ra mesure>, comme nous re verrons "ouu"nt cette approche définit une structure purement mathématique, peu au chapitre 2. interprétable a priori pratique. Elle n'est cependant pas sans liaison .en i;int"rprétation fréquentiste, mais ne la requiert point. On gardera "u"" néanmoins en mémoire cette dernière, pour la facilité de compréhension. PH TASSI - S.
LEGAIT
1
1
LES CONC EPTS PFOBABILISTES
1 1.1
ESPACE PROBABILISABLE
Expérience aléatoire
En guise d'introduction, nous allons considérer I'expérience physique qui consiste à .esuret la différence de potentiel U s'exerçant entre les bornes d'un circuit de résistance R: 1O ohms et dans lequel circule un courant d'intensité
:
2 ampères. Si le montage de l'expérience est parfait, le voltmètre indiquera une d.d.p. U : Rl : 20 volts. Tôutes choses égales par ailleurs, les mêmes conditions d'eipérience conduiront toujours au même résultat de 2O volts. Ce type d'expérience |
sera qualifiée de déterministe, le résultat étant parfaitement déterminé par la connaissance des paramètres qui la régissent (résistance. intensité). par opposition, une expérience sera dite aléatoire si son résultat ne peut être prévu a priori.
On note par Q I'ensemble de tous les résultats possibles pour une expérience donnée ; Q esi le référentiel, ou l'espace fondamental de l'expérience. Un élément a,l de O est dit résultat élémentaire. Exemples
a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé régulier ; le résultat du lancer prend ses valeurs dans Q : {1 , 2,3, 4, 5' 6 }' b) Soit l'expérience consistant à tirer au hasard un individu dans une population de taille N, représentée par un identifiant s, d : 1 à N ; O : {1, "' N} S! l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé
d'individus tous différents, l'ensemble des résultats possibles Q est l'ensemble des Cff échanti llons potentiels.
1.2
Evénement
ll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements)
élémentaires : on peut concevoir sanS difficulté un oévénement complexe> comprenant plusieurs résultats élémentaires, dont on peut dire, une fois l'expérience effectuée, s'il a été réalisé ou non. Ainsi, dans l'épreuve du lancer d'un dé' si O est l;ensemble t1,2,3,4, 5. 6] des résultats numériques possibles, un événement tel que *le résultat d'un lancer est pair, est un événement aléatoire complexe, comjosé des résultats élémentaires {2, 4,6}. De même. si un individu d'identifiant I lf < t ( N) est donné, on peut considérer l'événement complexe E défini comme tous les échantillons de taille n contenant l'individu L Cet événement E est donc la réunion O"s Ci-] échantillons vérifiant cette propriété. E (complexe), peuvent donc être associés tous les événequi le définissent'; si l'un d'entre eux est réalisé iors de l'expéments élémentaires rience, l'événement E le sera également.
A un événement
12
PH.
TASSI S. LEGAIT
LES
C ONC
EPTS PROBABITISTES
Notons ,41'ensemble de tous les événements aléatoires en |,absence de toute idée a priori sur res événements susceptibres d'intéresser ; i,""perir*nt;Ë;,;; pourra prendre .& : g (A), ensemble des parties Oe O.
Historiquement, des conditions de manipulation des événements ont conduit à doter -4 d'une structure d'algèbre, c'est-à-dire que .4"rt-un" crasse de parties, de Q, contenant Q, et stabre pa'. intersection et comprémentation (et donc par réu_ nion) ; sont vérifiées les conditions suivantes :
oQtr-'.r4 o
A€ ,tC., B€.4+ A)B€.& € .4 + Ae u4 Â désigne le complémentaire
cA
de A dans e). Cependant' dans une structure d'algèbre, la stabilité par réunion ou intersection dénombrabtes n'est pas assurée ; àinsi, si (A"t ; à rfi, une suite crois_ sante d'événements de ,4, c'est-à-dire une suite te'ile que "st An
C An*r,de rimite o: Y An: lim / An,il n'y a aucune raison pour que A soit un événement, ou n e e; de même pour la limite d'une suite décroissante. cette non-stabilité
Définition
,4 a'""e sii"cilàê,riu",
ou a-argèbre.
1
Une tribu (ou o-argèbre) sur |espace fondamentar e vérifiant
parties de
e
est une crasse .dl de
;
o Q€,"r/
o,-4
.,(/
est stable par complémentation, i.e. :A Ç .4+Ae .& eststable par réunion dénombrable : Ane .il,yn€ lN + n
!,*
Ona,
Le couple &, ,',/7 est apperé espace probabirisabre (on dit aussr espace mesurable) ; un élément de -4 est un événement.
Remarque : la théorie des probabirités a son vocabulaire propre ; ainsi deux nements A et B sont dits incompatibles si A O B:
évé_
e,
2
PROPRIETES DES TRIBUS
cette partie est composée de rappers mathématiques sur res tribus, peut être omise par le lecteur bien au fait des propriétés de ces structures. et Certaines démonstrations font l'objet d'exercices simples. Propriété
I
Une tribu est stable par intersection dénombrable. PH. TASSI
- S. LEGAIT
LES CONCEPTS PROBABILISTES
En effet, (An)ne
ru
étant une suite d'éléments de ''&' on a:
ô An= (uA"). nn Or UÂ e.& d'après b et c. et (U4) €.& d'après b ; le résultat est établi. n.n Propriété 2
Q€.&. Propriété 3
A,B€ ,'4, avecACB: B-AÇ"'(' Cela découle de B - A : B Ct Â. Propriété 4
€ ,&,Vn € lN, une suite d'événements de '4: on définit AnetlimsupAn:1n9* An;alorsliminf Anet timinf À"-: I "!*événem ents de "4' lim sup An sont des
Soit (An)n61*,An
réalisés L.événement lim inf An est réalisé si tous les événements An sont d'événements sauf un nombre fini. De même, lim sup An est réalisé si une infinité An est réalisée.
Théorème
1
soit ,-& une algèbre de parties de Q ; -4 est une tribu sur O si et seulement (croissante ou décroissante' au si- L& est rn" .i"r." stable par limite monotone choix).
Démonstration
o CN:,.4estunetribu.
par A la Soit (An)n une suite croissante d'événements de ''&' et notons On, or U An e "{puisque .&estunetribu; lim/An;onsaitqueA :
Y
.4,
est donc stable par limite croissante'
o CS : .& est une algèbre stable par limite croissante' .& étant une algèbîe, on sait que O € ''4'et que '4' est stable parOncomplé e '4 ? mentation. é"iiâoti'Àn) une suite d'événements ; a-t-on nE,* PH TASSI . S. LEGAIT
LES CONC EPTS PROBABILISTES
: . to::l. Bn : .
réunion finie
A. i
_ 9^ m(n
Bn
€ ,,4 puisque
Y
on
:
lim '/
,_&
est une algèbre donc stable par
Bn
''
..,
Par construction, (B j est une suite croissante d'éréments de ,-4. puisque est stable, par passage à la limite croissante, u An e ,,&. .Oest une tribu.
.&
Théorème 2
:::A.4,e
r.
I C lN, une famille de tribus sur
e; .& - n i€l
,4,esl
une tribu
'
Démonstration o ViC l, O € &i o A€ .4 e Vi€1,
Oe
,-&
l l
&, o Ae -4 o Soit (AJne une suite d'événements ae k: h{ vi e t, (Anl €. &i ce qui implique que, pour tout i €', y O" e &, et donc U Ane ,,&. Ae,-&i <+Vi, €
i
I I
I
Théorème 3 Soit .& une tribu sur e, O.C O. : La classe 9n, {ClC : Ann,, trace de ,,4 sur e,.
A4_,,4}est unetribu surO., appelée
Démonstration
o O' : OnO';comme Ae. ,&, e,e Ga, o soit c e Gn,; en notant, pour distinguer, rapport à O' et par
A
-
par * ra comprémentation par la complémentation par rapport à O, on a
..* - lC
appartena ntà
cn:
: Y
t" :
A o o'
An
de
o Q'
6n;
on peut écrire:
Pour tout
n€
lN
,Y o",ÔQ' ; uAnc ,'4,doncYa"a
ll en résulte que la classe PH TASSI - S.
:
,4,c* est."nI-A!O'
Soit (Cjn61, une suite d.éléments
et
:
G
*
est une tribu sur
Ga,
e,.
LEGATT 1
b
LES CONC EPTS PBOBABILISTES
€ &,
Corollaire; si f)'
G
n,
= { C/C e .4, e c o'].
Théorème 4 Considérons une partition finie (A'), i : n
: i:f
A,
O; la classe .4:
=
{I i€l
At
1
à n, de f), telle que
te g
:
(11,2,. , n])]
est une tribu sur O'
Dérnonstration R
oO:.>.Aieil l:
c(I
i€!
I
A.,)
: >-4e.t/ i€l
c Soit (l*) une suite cje parties de { 1, ..., n }'
U(: A') : : Aie", i€u lk k i€lk dsnc .& est une tribu sur O'
3 3,I
OUELOUES TRIBUS PARTICULIERES
ExemPles
est o I : \ A, Alest de façon évidente une tribu, appelée tribu grossière' I la tribu la plus fruste sur O. .9p., ensemble des parties de o, est également une tribu. appelée tribu discrète, la plus fine existant sur Q.
o soit A
e g@l; 9=
oengendréen {Q, A,A, O } est une tribu sur Q, dite tribu
par A.
3.2 Tribu engendrée Supposonsmaintenantque,-pouruneexpérience-donnée'seulesquelques a" g @'), soient intéressantes en tant qu'évépartiei d" n, torrunt rn" plus gross.e, c'e:l-È "'G "iu.i nements. plutôt que de munir O de la tribu a'événements la petite plus tribu contenant v' la g{Ol, étant on prè{ér"ra définir -4 comme dïe admissible' est Montrons qu'une telle définition 16
PH TASSl S, LEGAIT
LES CONC EPTS PROBABILISTES
i
€ t. :;"l"ffnrrU,",us"
-
de parries de O, et considérons toutes tes tribus (.4,),
il existe au moins une tribu contenant G, c,est d'après re théorème ,,? o,est une tribu qui, contenue dans chaque tribu .&i, i
e
g "n
@) ; donc I * e àuii", contient G, et est
l.
Définition 2
on appelle tribu engendrée par une crasse G rJe parries de prus petite tribu contenant G-, c'est-à-dire I'intersection de toutes les e ra tribus contenant G. On ta note o (Gl. Exemples
o G: [Q]:a(G):tA,A1 o G : {A} avec A + e et A * e : o(Gl :{@.A.À,A} oG:[Ar,...,An] où I A, :e: i:1 o(4t,...,An) : {.I. A,, I e gU1, ., n})} En effet, ments A,
i€t (At,....An) o étant une tribu contenant chacun des événe_
:
vte g({1,....
donc:
n}),
A' e o (Ar' "'' An)
I {,è, o,, t€g({1,...,n})} ie
Ca(A1,...,An)
ona monrré(théorème4)que{ r Ai.rÇ g({1. .,n})} éraitunetribu; elle contient chacun des A,. oonc eltJFJn,,"nt la prus petite des tribus contenant les A, :
er
iAr, ...,An)
c I I. it-t
Ai, I Ç
g{i1,
.. ,
n}}}
L'inclusion étant étahrie erans les deux sens, re résurtat est démontré.
3.3
TrËbu borcéEiemme
[-es notions d"aigèbre ou de tribu oni été définies jusqu,à présent sur des esBaces f,) amorBhes, c'est-à-dire sans aucune référence à i'eirr toporogie. i\éen_ rnoins, dans les situations usuelles elassiqures, fl est iR,
PH.
TASSI S. LEGAIT
ou
lRp,
au z, au lf{. ll est 17
LES CONC EPTS PROBABILISTES
donc fréquent de supposer qLle Q est un espace topologique, et même métrique ; il est alors cohérent de souhaiter disposer d'une tribu d'événements compatible avec la topologie de Q. Plus précisément, on imposera que les ouverts et les fermés pour la topologie de O soient des événements.
Définition 3
soit Q un espace topologique ; on appelle boréliens les éléments de la tribu engendrée par la famille O des ouverts de Q :
I : o(Ol
A;
ll est évident que fi est également engendrée par la classe ,9 des fermés de I s'appelle la tribu borélienne.
Eans le cas particulier usuel où O est lR, la tribu borélienne, notée 9l est engendrée par les diverses classes des intervalles :l* co, x1, l- -, xl, lx, + -1, que x < y. La classe des 1x, + -[, [x, y], [x, yt, ]x, y[. x et y étant deux réels tels privilégié. ouverts { l- -, x[ ] iouera par la suite un rôle De même, sur lRp, la tribu borélienne classe des pavés ouverts ]- -, xt I x .." x ]-
Remargue.' on notera
,4 l" t
est engendrée, entre autres, par la xp[.
frP
-,
ibu borélienne de
lR.
4 PROBABILITE SUR UN ESPACE PROBABILISABLE Comme nous I'avons annoncé dans l'introduction, la présentation de la probabilité adoptée est celle de A. Kolmogorov (1933). Celui-ci propose une axiomatique cohérente au niveau du langage mathématique, fondée sur la notion de omesur" norrnaliséeo (cf. chapitre 2) et la théorie des ensembles, mais dans laquelle l'interprétation concrète des concepts n'apparaît pas. Les hypothèses portant sur les événements ont été énoncées dans les paragraphes précédents. Suivent les axiomes portant sur la probabilité elle-même.
4.1 Définition d'unc Probabilité Définition 4
Soit un espace probabilisable (O, .41. On appelle probabilité sur (O, .41 l'application P : ,-4' - tO. 1 l, telle que a) P{O) : 1 :
1B
PH TASSI - S. LEGAIT
tES CONC EPTS PROBABILISTES
b) Si (An)est une suite d,événements disjoints
p( ; A.) : ; n:1 " r"i:l
:
p(A-) n'
Les conditions a et b portent respectivement les noms d'axiomes de normalisation
et de a-additivité.
Définition 5
Soit un espace probabirisabre (o, &). on appeile probabirité sur (e, .41 l'application p : ,r/ - IO, 1l telle que a) P(Q) = 1 c) Ae .&, Be e,llB: e: p(A+B) : p(A)+p(B) d) soit une suite d'événements (Anldécroissant uér" @',ii, \ p (An) : o. :
Les conditions c et d portent respectivement les noms d'axiomes d'additivité, de continuité monotone. Au plan des notations, I'intersection A O B de deux événements sera aussi notée AB.
ll est aisé de montrer que res définitions 4 et 5 sont équivarentes
oor|.,1"l:o9ï::; :i"
'u
:
condition (b) soit vérifiée' Alors. en prenant
P(A., +
Arl
:
An : a
P(A1)+ p(Az)
D'autre part, soit une suite (An) décroissant vers
@
:
æ
ce qui implique
An: _r- (A.n-Ar*1), m=n :
P(An) P
:
_Im:n
p(An.,-A',*r).
(An) est alors le reste d'ordre n de ra série
une série convergente car
u.:
m:I. I ll s'ensuit que lim \ p (An) : PH. TASSI
- S. LEGAIT
u, -
p
(A, -Ar*1)
eui est
:
m:1 -:.
P(Ar-Ar*1):
P(A')
O.
19
LES
PROBABILISTES
C ONC EPTS
(Aj
b) Supposons vraies (c) et (d), et soit on note
une suite d'événements disjoints
;
:
ASoit Bn
A, A
:
lim
: /
a m
D'autre part, si écrire J
:
I + (J
-
-
A) converge donc en décroissant vers @ ; I'axiome A) converge vers O quand r * oo.
-
let J sont deux événements de .& tels que lC J, on peut
l), avec I et J
-
I disjoints. L'axiome(e) implique que
P (J
ll s'ensuit
An,Ae-o
A.; par construction, la suite Bn converge en croissant vers
Bn. La suite {Bn
(d) implique que P (Bn
;
n:1
:
- l): P (J)- P (l)
:
Vn.
P
(Bn-A)
:
P (Bn)
-
P(A)
En outre, en étendant l'axiome (c) à un nombre fini d'événements
P
(Bn)
'|
:
>.
m:l et par conséquent
:
P (Am)
:
limP(Bn)
n
æoo
:
>_
m:1
Exemple: Supposons Q fini,
p(Am)
:p(A) :p( m=1
ç:
{cdr, .... ,r,r }, où tous les "individus, de Q sont a : 1à N. telle une population de personnes physiques identifiées par leur numéro nSécurité Socialeu ou une population d'entreprises identifiées par leur numéro SIRENE. A toute partie A de O, on associe la fonction f définie par discernables par un indice identifiant s,
:
A
* f 1R1 :
cardinal de A N
Montrons que f est une probabilité sur o f (Q) : o A€ g
P, g@l).ll
est évident que l'on a
1
(al, Be g(al, AnB
- e:
I (A+B)
:
:
f (A)+f (B).
91A1 elant fini, ces deux conditions suffisent à montrer que f, à valeurs dans t0, 1 l, est bien une probabilité. 20
PH.
TASSI S. LEGAIT
LES CONCEPTS PROBABILISTES
4.2
Propriétés d'une probabilité
Les démonstrations sont, en général, immédiates.
Propriété 5 P(@)
:
0
Propriété 6
A,Be .4: ACB;alors p(B-A) : p(B)-p(A) >
O.
Propriété 7 (probabilités totales)
P(AUB) + P(AnB)
=
p(A)+p(B).
Démonstration
AB On peut écrire
:
AUB:A+(BoÂ), B:(BoA)+(BnÂ). D'après l'axiome (c)
:
P(AUB):P(A)+p(BnÂ) P(B):P(AnB)+p(BnÀ). En éliminanr p (B
n Â;, on obtient le résultar.
Généralisation : formule de poincaré P(A1
uAzU..'uA")
:
r.!r
P(Ak)-,Ii ,(A,ôA,)+...+ (-1)n+1 p(Arn...nAn)
Propriété 8 (sous a-additivité)
t'?o"'
=;
P(An)
Démonstrafron.'soit (Bn) la suite d'événements définie de la façon suivante Br : A' Bz : AzO Â,,, ..., Bn: An O An_t a ... n Â1 PH. TASSI
- S. LEGAIT
:
LES CONC EPTS PFOBABILISTES
U Bn :
Les événements(Bn) sont 2 à 2 disjoints et
Comme, pour tout
ll s'ensuit
n.
:
Bn C
An, on a P (Bn) <
: P(UB.) : n"'nà1
P(U An)
Y
On
P (An).
_>" P(Bn)
( > P(An) n
Remarques 1) Si (An) est une suite décroissante d'événements de limite A, alors P
(A)=
lim
\
P (An)'
2) Si (An) est une suite croissante d'événements de limite A, alors
P(A)
:
lim/P(An)'
Pour démontrer 1), il suffit de se ramener à la condition (d) en écrivant An - A. Bn \ @ donc P (Bn) \ 0 et par conséquent P (An) \ P (A). De la mêrne façon. on écrit Bn = A - An. Bn
:
Définition 6 Le triplet
(A, ,-4, P) porte le nom d'espace probabilisé.
5 fr,
FONEflON DE REPARTITION
Soit P une probabilité définie sur l'espace probabilisable (lR, contienl en particulier tous les intervalles de type l- -' x[.
fr'l;
on sait que
Définition 7 On appelle fonction de répartition de P l'application F : lR Par :
vx
€
lR,
F
(x)
:
P
(l- -'
-
tO, 1l définie
x[)
Remargue
On trouve fréquemment, en particulier dans les ouvrages anglo-saxons, la définition F (x) : P (l- -, xl). La différence entre les deux définitions dépend de P ({x}), probabilité de l'événement élémentaire {x}. Les propriétés de F résultent pour la plupart des propriétés 5 à 8.
Propriété 9 La fonction F est croissante. PH. TASSI
- S. LEGAIT
LES
En effer,
C ONC
EPTS PROBABILiSTES
soirx( y;l_æ, xlcl_ *, y[;
ta propriété 6 étabtir te résutrat.
Propriété 1O La fonction F est continue à gauche.
Soit (xn) une suite de points de lR telle que lirn
,
^n:x; alors la suite (J__, xn[) vers'- -. x[) et donc p(]_;, xn[) = F (xn) converg" àn vers P(l- oo, x[): F (x).
converge en croissant croissant
Propriété 11
e
lim F (x)= X*+oo. o lim F (x)= O x--oo. Ces résultats proviennent de p (lR) 1
= 1 et p (el :
O.
Remargue De façon analogue on définirait la fonction_de répartition d'une probabilité définie sur lRp. muni trrwuuEverrerlrenrs n d,événements æ ,j7''Pconlenantlespavés(J--, ' de sa tribu
x. x1--
^oti
,
f
6
x,|[
""";;;';
(xr,
.
xo)
:
P
(l-oo, xl [x ... x]--, ;o 1;
PROBABILITE CONDITIONNELLE,
IN DEPE N DANCE D'EVENT rVr ÈrVrS
L'axiomatique de Kolmogorov contient une spécification de la probabilité d'un événement conditionnellemeni a ,n uutià.
6.1
Probabilité conditionnelle
Définition 8 Soit un espace probabilisé p, .4, p) et_B e,r/tetque p(B) ) O. On appelte probabilité de A conditionneilemeni a a, p.ooutiùté tonortionnele de A o, sachant que B va être réalisé (ou est réalisé) le'nombre :
P
(AiB)
:
P(AnB) P (B)
PH TASSI - S
LEGAII
..
L.ES CONC EPTS PBOBABILISTES
Q, *41:
Vérifions que la fonction ainsi définie est bien une probabilité sur O
< 1, VA e .& car AaBCB P(OîJL : P(B) :1 P(Q'B) : P (B) P (B)
<
P(A/B)
Soit (An) une suite d'événements disjoints. Comme les événements (An sont aussi disjoints, on a
n
B)
:
((U An)a
P P
(U An,/B)
nnn P (B)
:
n
P
(U
(An P
B))
n
:
(Ann
P
(B)
B)
P (B)
P(AnaB)
: P
B)
P(B)
n
l\./Bl est bien une probabilité sur (A,
n
.el
Remargue En écrivant P (B/A), et en tenant compte du fait que commutativité, on établit
P (A
Ô B) =
P (B
n A)
par
:
P(A/Bl.P(B)
:
P(B/A) .P(A)
La définition de la probabilité conditionnelle peut être généralisée à un nombre fini d'événements
:
P(An
B
n C)
:P lA/Bn
C) . P(B
a
C)
= P (A/Ba c) . P (B/C) . P (C). Soit (A,), i : 1 à n, une famille finie d'événements; on établit aisément
nnn An) : PlA,/ et A,).P(A"/ n 'i:3 r:r i:2 '
P(.n.
:
A').......P(An)
6.2 lndépendance Définition 9 Deux événements A et B sont dits indépendants si
:
P(AnB):P(A) .P(B) 24
PH, TASS1
'
S' LEGAIT
tES CONC EPTS PROBABILISTES
Remargues
o L'indépend3lq" esr une propriété des événements er de ra probabirité. o si P (A) et p (B) sont tous d'eux strictemeni poriiil., porturer que indépendants revient à imposer P
A er B sont
:
(B/A): P (B) ou
P (A,zB)
:
p (A)
apportée sur l'événement conditionné par l,événement ucondi-
tionnant" est nulle.
Définition 1O
i"i[J:":ii!".Ji"'"
e rarmée des n événemenrs A,, ..., Ao ; ,e est dite
o,Air
...
rl (Aik)
:
k
p (Aii)
,!,
pour tout k, pour toute suite (i1. .... ik) de (1, ..., n).
Remarques
_""",it,3,1
dit parfois que tes événemenrs A1, ..., An sont uindépendants dans teur
b) Pour savoir si
ci*
famiile .gest indépendante.
ra
. * cl
ir
faut donc vérifier
: 2"- c3- cl : 2n - n- 1 retations.
:
Exemple Soit l'expérience consistant au lancer de deux dés;
Q:{(i, j), i:1à6, j:1à6} On considère les événements
A:(iest
impair).
On vérifie facilement
:
B:(jest
Les événements A, B et pas indépendante. PH TASSI -
S LFGATT
e:(i+
jest
impair).
:
P(A) : P(B) : P(AB) = P(AC) P
impair),
(ABC)
:
P(C): 172 : P(BC) :1/4
9.
c sont indépendants 2 à 2,
mais ra famiile (A. B, c) n,est
25
LES CONC EPTS PROBABILISTES
Dé{inition
11
(An)ne
N*
est une suite d'événements indépendants si
vk € tN* v (ir,
..., ik), P
(Ai1 n ...
n o,J
k
:
t(o,/
i!,,
Propriétés 12
1)Si A et B sont deux événements indépendants alorsA et B le sont aussi, ainsi que A et B. 2)' Si (A^) est une suite d'événements indépendants, on obtient encore une suiiet'éuénurn"nts indépendants en remplaçant un nombre quelconque de A' Par leurs comPlémentaires.
Démonstration
: PtA-AnBl: P(A)-P(AnB) = P(A)-P(A)P(B) : P(A)(1 -P(B)) : P(A)P(B) P(ÂnB) = t -P(AUB) = 1-P(A)-P(B)+P(AÔB) - 1-P(A)-P(B)--P(A)P(B) = (1 -P(A))(1 -P(B)) : P (Â)P (B)
P(AnB)
Propriété 13 Soit (An)neru* une suite d'événements indépendants; on a
P( n
An)
n€lN*
Démonstration
:
:
n P(A") neN* rr
kk : n_P(An) An) n:1 " n:l
P( n
kn An est une suite d'événements n=1 "
Comme
décroissant
koo
n P( a A^)\P( " n:1
d'oùt
:
Ô
n=1"
An' on a
:
An)
"
æt
P('n=n A.) n' : zo
n:1
vers
P(An)
= n. n=
P(An)
1
PH. TASSI
- S. LEGAIT
LES CONC EPTS PROBABILISTÊS
Définition 12 : Généralisation Soit (Q, .4, el un espace probabitisé et soit {G,, 1 ( i (n} une famiile de parties de ,*/. Les parties ? 14 i ( n, sont indépendantes si : ,,
o
wur -ijJ
,Air
...
a Aik) :
k
e tR,) ,! .,
Lou| k, pour toute suile (i1, ..., ik) de (1, ..., n) et pour tout événement A,de
Définition 13 Dans le cas particurier où res G,sontdes sous-tribus de
sont indépendantes si
.4,
res G,,
l
:
P(A
i=1
pour tout Ai appartena nt
à
A,)
: ti i-l
p(A,) '
G,.
Le théorème qui suit propose une condition suffisante .bus engendrées. d'indépendance
de tri-
Théorème 5
1=.i n} une famiile de parties de .dreile que ,g,soitsrabre s pourtout ( ( Pjl'_!{t tntersection finie, 1 i n o ( 9,1, 1< i < n, indépendantes <ê g,, 1{ i s< n. indépendantes. :
6.3
Théorème de Bayes
Théorème 6 soient A et B deux événements de probabirité strictement positive ; on a
P(A/B)
-
P(B/A) P
P(A)
(B/AI. P(A) + P(B/À). P(À)
Démonstration ll suffit d'écrire l'événement B sous la forme d'où
B:
:
(BaA) U (BnA)
:
p(A/Bt- P(AnB) : P(B) PH TASSI . S. LEGAIT
P(B/A]P(A) PB/AIP(A) + P(B/Â)P(A)
:
par
LES CONC EPTS PBOBABILISTES
Généralisation
Soit A.,, Ar, ..., An, V1
n
événements formant une partition de Q, tels que
(4,,/B) =
(B/Ai)
n
: j:1
P
P (Ai)
(B/Ai)
P (Ai)
Exemple On dispose de 3 pièces de monnaie : la première est parfaitement équilibrée.
la seconde a 2 côtés npilen, la troisième est truquée de façon que la probabilité d'obtenir.pileo soit de 1/4. On tire une pièce au hasard. on la lance et elle donne est la probabilité d'avoir lancé la deuxième pièce "pilen. Ouelle
?
Soit B l'événement (obtenir pile", et A, l'événement
(Ar/Bl
: P
(B/A1)
P (A1)
+
P
(B/A2l P (A2l
P
(B/A2l
P
(42)
1x1/3 1/2x1/3+ 1 x1/3+ 1/4x1/3
+ P
et lancer la
(B/A3)
ième
P (43)
4 7
L'importance du théorème de Bayes dépasse très largement le simple énoncé du théorème 6. et porte sur les concepts. En effet, s'il existe un lien de type causal entre A et B, c'est-à-dire si B est, en un certain senS, une de A, le principe bayésien revient à calculer P (A/B) à partir de probabilités portant sur B, sur la cause. d'où son interprétation cornme nthéorème sur la probabilité des causes> très importante pour l'étude de l'environnement causal B d'un phénomène observé A. ll existera done des rnéthodes statistiques bayésiennes liées aux probabilités bayésiennes.
2B
PH.TASSI
-S
LEGAIT
EXEREICES 1'1
un facteur doit distribuer n letlres dans n boîtes aux leftres dont on a retiré les plaques, les rendant
indiscernables.
Comme les n lettres portent n noms différents, le facteur suppose qu'il y a une lettre et une seule distribuer dans chaque boîte et il dispose donc les lettres au hasard.
à
calculer la probabilité qu'une lettre au moins soir distribuée à son destinataire réel. calculer sa limite quand n croît. lndication
1l.t:t: -A l'événemenl ,,;. 1ème leftre est distribuée à son desrinataire P(ArUAzU...UAn).0na:
réei>. 0n cherche
n
P
(-
l;t'*t
U A,) :2 p (A,)- tr p (A. n A.)+ ... + i:1 ' '' i<j 'r I
(
> . p (A, t...o A,;+...+ (- l)n*iR 1R, n... a ik) '1
(i1'...,
rk'
An)
Ce résultat est connu sous le nom de formule de poincaré.
L'ensemble
o
des résultats possibles de l'expérience est l'ensemble des permutations
{1, .... n}. 0n te munir
de ia piobabitiré
VA€ P(A
'l
d'où
3 (ni, p(A) : ln-k)
a...fiA.): ,k'
t
!
##
' Vk€ {1'2' ',nl
:
llr
e1.Û.n,1
i:l
'
:n
' n -r:n
+..+ (-l)n'l -1- = nl PH,
:
IASSI
S. LEGAIT
(n-2) nl
I
+ ...
+ (- l)k+l çk n
(n
-
k)
nl
i (-l)k*, .t. ------> t-e-r n-oo k:l ' ' k!
!
de
LES CONCEPTS PROBABILISTES
1.2
:
soir Q
{ 1, 2, ...,
1) Délinir une 2)
3)
nl
(n
}
1).
O telle
probabilité P sur
que:Vi€ Q, P ({i}) :;
Trouver une condition nécessaire et suffisante sur n pour que
: (A, B) e g
0n note
(al
-
t@,
a],
I
:
A et B indépendants,
:
Vp'p€ Q A-
=
: {i€Q/pdivise i}, K:
I
(n)
a)
Montrer que si
Card
{q
e Q/q est premier
avec
{p, p diviseurpremier de n} n
p,, ..., pk sont élérnents de
b) MontrerquerP(n)
}' K alors Oo',, ',, Oo* sont indépendants.
: n l'l (l--)' I p€K
P
lndications Card A
llLafonctionV:91A1-t0,11,P(A):estuneprobabilitésurO(cf.4.1)et vérifie:Vi€O P({i}):
I '
n
n
2) S'il
existe A et B indépendants (A et B non égaux à @ ou
n Card A f-l
B:
O) alors on a ;
Card A x Card B.
n (CardAn B< Card A) doncn estnonpremier. Réciproquementsi n estnon k> 2 et p2 2, n : kp. Soit A : {1, 2, ...,k} et B : {k, k + 1, ..., k + p - 1 } ;
Card Adivise
premier, 1
onabienP(AnB) 3)a) Sipdivisen,
: P(A)
P(B)
lk€O, n:kp
Ao:
et
kkl -:-= kp n
PiAi: 'p' p {Ao'
n
...
n
Apk}
:
P
:
(Ao'
oJ
-p
car les p, sont premiers
1
_ Pr " Pr k
: n l-
30
{p,2p,...,kp} d'où;
I
car Pt '..
Pn
divise
n
PlAl . P:' I
PH TASSI - S. LEGAIT
LES CONCEPTS PROBABILISTES
b) Soit B
:
[q
€ Q/q est premier
avec n].
$: d'où: P(B)
=?(n) n n =
puisque les Ào sont indépendants.
PH.
IASSI
S. LEGAIT
n P€K
p€K
PtÀIp'
À
p
:n
p€K
(1--)
1
p
Chapitre 2
Probabilité, mesure, intégration L'axiomatique de Kormogorov (1933) qui a servi de base pour re chapitre précédent repose sur des concepts mathématiqués générau^ qr" uJni les mesures et l,in_ tégrale par rapport à une mesure. Le déveroppement de ra notion de fin du 19" siècle et du début du 20' siècle donne naissance à une mesure de ra théorie dont la probabilité ne peut que profiter, celle-ci en étant un cas purti.rri"r. ce chapitre, qui peut être omis en première lecture, fournit aux lecteurs familiarisés unu ;r;;J;tation mathématique abstraite. les principaux résultats rattachés "u". au concept de mesure, et qui seront repris et utilisés dans la suite de l'ouvrage pour les probabilités.
1
LA THEORIE DE LA MESURE : HISTOIRE ET APPORT AUX PROBABILITES Les fondements de ra probabirité mathématique présentés au chapitre précé_ dent, dus à. Kolmogorov (1933), ne marquent, bien sûr, ni I'achlvement ni les débuts de cette science. Les premiers écrits sur le calcul des probabilités semblent remon-
ter à 1525 (cardano) ; Huyghens, en 16s7, présente un ensembre cohérent de concepts probabilistes,
reprenant nombre de résultats obtenus par Blaise pascal et Pierre de Fermat. Huyghens définit, en particurier, r'espéranc" j,rn" variabre aréa_ toire prenant ses valeurs sur un nombre fini de points. Le 18" siècle est marqué par la contribution de la famille Bernoulli -Jacques, Nicolas, Jean, Daniel - ; Jacques Bernoulli. dans son -Àr, publié en 1718 énonce la loi des grands nombres. En 1733, de Moivre"oni""tandi, obiient la loi normale (ainsi qu'elle sera dénommée bien plus tard par poincaré) en approfondissant les calculs de la loi des grands nombres et en utirisant |approximation asympotique de n ! trouvée auparavant par rui-même et stirling ; it Éùntie egaiement ra première forme du théorème central limite. Autre personnalité importaîte pierre : Simon de Laplace; commencés en 1778, ses travàux servent de référence jusqu'à ra fin du 19" siècle et au début du 20' siècle. Citons Jean Dieudonné : n... le cercle vicieux de la définitionfd'une probabititél en termes de cas équipossibtes, I'apparition de variables aléatoires discrètes mais à nombre infini de valeurs possibles, telles que celles de Poisson, et des variables aléatoires à loi absolument continue telles que des variables aléatoires nor-atii. PH TASSI S LEGA]T
aa
PROBABILITE MESUFF, lNTEGRATION
ont amené graduellement à une idéatisation mathématique qui engloberait toutes ces possibilités,. Le développement de la théorie de la mesure va y contribuer fortement.
En 1881, A. Harnack introduit la notion d'ensemble discret, puis, en 1882, celle *d'égalité en général,, qui anticipe le concept d'égalité presque sûre du paragraphe 5. La nmesure, d'un ensemble apparaît ensuite dans de nombreux travaux ;
ies définitions sont différentes selon les auteurs (Cantor, 1884; Peano, 1887; Jordan, 1892). Mais c'est Emile Borel qui va introduire la notion d'ensemble de mesure nulle (1894), et la théorie des ensembles mesurables (1897). Travaillant sur lR, et, plus précisément sur [0, 1 ], il privilégie la classe des ensembles ouverts, qu'il .mesure, à partir de la longueur des intervalles; il montre que l'on peut définir sur cette classe {qui portera plus tard le nom de classe nboréliennen) une <mesure> p vérifiant les propriéiés, vues au premier chapitre, de s - additivité et de différence:
(ACB:s(B-A) : s(B) -
s(A))
La théorie de la mesure de Borel va alors ouvrir la voie à l'intégrale de Lebesgue, ou intégrale généralisée. qui va permettre à I'intégrale de Riemann et aux jusqu'à la fin [robabilités Oe Oépasser certaiRs contre-exemples gênants. En effet. f un segment sur fonction d'une du 19" siècle. la seule façon de déf inir l'intégraie à partir de Néanmoins, Riemann-Darboux. de les sommes Ia, b]consistait à utiliser tgZO, t'integrale de Riemann s'était vu opposer des particularités où elle était inemployable, comme les cas où f- converge simplement vers f, f n intégrable au sens de Riemann pour tout n, f norlnleman-n-intégrable.
En 1901, H. Lebesgue donne une théorie de l'intégration plus générale que Riemann, à partir ciu concept de mesure introduit par Borel. C'est cette construcLebesgue qui est présentée dans ce chapitre, ainsi que ses tion de l'intégrale -Sous de l'impulsion de J. Radon, les concepts de mesure et d'intégration applications. lRn; ainsi apparaîtra la théorie de la mesure abstraite définie IR et qlitt"tont vite ,ur un ensemble Q quelconque muni d'une tribu (1913)' C'est cette notion de mesure absiraite qui a permis le développement de la théorie mathématique des probabilités. Par exemple, pour définir dans tous les cas I'espérance E (X) d'une variable aléatoire X, il fallait l'intégrale de Lebesgue et ses extensions. L'achèvement de la construction des théories de la mesure et de l'intégration peut être daté de 1g30, avec les théorèmes de décomposition de Lebesgue-Nikodym et l'existence des densités.
Ainsi. la théorie de la mesure et de l'intégration ont jeté les bases d'une formalisation homogène et cohérente des probabilités, en y introduisant la rigueur du raisonnement mathématique ; rappelons en effet que Keynes, en 1921, écrivait ou d'alÀ propo, des probabilités que ./es savants y décèlent un relent d'astrologie n/e calcul que (1919) affirmant plus en direct que est encore von Mises chimie,, et des probabilités n'est pas une discipline mathématique"' La probabilité étant un cas particulier de mesure se voit donc, à partir des années trente, appliquer une grande partie des résultats de mesure et d'intégration' PH, TASSI
- S. LEGAIT
PROBABILIIE, MESURE, INTEGRATION
2
NOTION DE MESURE
2.', Définitions Définition
1
soit (Q' 4 un espace mesurabre..on appere mesure positive sur (Q, .4) toute appticarion 1u définie sur a u"ràlis Oa;;"iRî-: [0, + oo] vérifianr "4 l'axiome de a_additivité : Pour toute suite (An) d'éléments de
.r/, n € lN*, deux à deux disjoints
:
tr(;_A^)n' :; p(A-) n=1 n=1 ' '"n' Remargues
a) Par la suite, on dira mesure pour mesure positive. d'une mesu re p te nombre (positif) p (a);p (Q) peut être u*",:)"u?"?.l:l?il;;;1""* c) Une probabilité est une mesure de masse 1.
Définition 2 Le triplet (o, probabitité).
'i/,
!r) est appelé espace mesuré (ou probabilisé si g est une
Une autre définition de la mesure peut être donnée
Définition 3 soit (Q' '''/y un espace mesurabre. une apprication lr défini e sur dans lR*, non identiqu"r"nreô"i"'à-+ *, est une mesure si ; 1) g est addirive
V(A,
B)
.4à
vareurs
e ,,æ, AnB :e, tt(AUB):1l(A)+s{B)
(ouvA,,...,Andeuxàdeuxdisjoints
u \Q. AJ : .! gfn,tt t:l i_1 ,
2) V (An) suite croissante d,éléme nts de ,4,
lim i g(A^)
n"n
PH. TASSI
-
S.,
: g (tim 1 A
)
LEGAIT 35
I
PROBABILITE, MESURE, INTEGFATION
Montrons que les définitions 1 et 3 sont équivalentes
:
a) La a-additivité entraîne I'additivité de façon triviale' De plus, si An
1
A, alors;
A : A., + (Az-A.,) avec Vn, An
:
s(A)
-
s(A.,)
+
nlru(An-An-') tl :
/(An-An-
d'où
(An-An-r) +'..
An-,r éléments de ,'4, deux à deux disjoints ; d'où
or: et donc
+... +
:
u(An)
: -
g (A)
ll(An-An-,r) + l(Al)
p(An-r) car An-r C An
An-1 +(An-An_r)
:
nl,
n'A
:
= lim
Ét
:An
(Ar)
k*oo
b) Réciproque
:
Soit (An) une suite d'éléments de ,'4, deux à deux disjoints'
n.d'éléments croissante v,ooq suite v, vvt v,,s une Ju,.e U A, B en = ^k est tI
de
,4
dont la limite
est U
t
k= 1
AL' tr
Ona: lim 1p(Bn)
c'est-à-dire' Or
/ est additive donc
,irn
:
et. en passant à la limite
r s r*1,, ont
nn : 1l(U Au) k:1 ^
:
Ak)
/(uAk)
I_P(An)
k=1
:
n!' 36
: g(lim l Bn) : ll(U
:
p (u
Ak)
'(Ar.) PH. TASSI
- S. LEGAIT
PFUUAUTLl'
L \ltSuRL
TNTFGFAIIO\
Définition 4 Une mesure g sur
d'événements(An), n 1r
est dite finie,
(o. 4 €
eIt P:
tN.
sera dite a-finie
tetsquepÀJ 1
si Q est réunion
dénombrabre <** v n. ïi ulôr (+oo. ta mesure
g(cD Pestuneprobabilité.
Exemple Soit
€ e.
a.r
On définit l,application 6.upar:
ô,,(A)=1siar€A
V A€.4, ô,
ô,
(A)-f
si u É A
est une mesure (c'est même une probabilité). dite mesure de Dhac au point
Définition
S
o on appete mesure discrète s,ur (1:
,*/7
s(A) :Ér(AOl)
o on dit que 1, est concentrée Exempte.'l
:
{
qu,ir existe _ti : ô-et/ tete V A e,,4, p({ull
to_ute mesure
dénombrabte appartenant à _dvéiitiant p @
= : al€Aôl sur r.
1,2, ..., n}
V1
g est appelée probabilité
2.2
pUit) =].
tt(l):1 uniforme sur { 1, 2, ..., n}.
Propriétés
Propriété
1
s'il existe au moins un événement A ter que /
Tl
ar.
est non dégénérée), p
En effet
:s (A U e)
:
(e) =
(A)
O.
<
+ oc, (c'est-à-dire si
p (A) + p @1.
Propriété 2
V(A,B) PH. TASSI. S.
e &,p(AUB) :p(Al+u a) _s(AnB)
LEGAIT
37
r
PROBABILITE, MESURE, INTFGFATION
Propriété 3
ACB + ll(A)( s
(B).
Propriété 4
s(UAn) (Ig(An). nn Propriété 5
soit (An) suite décroissante d'éléments de ,4 de limite A ; on suppose qu',il existek'telque p(An) . + -.Alors lim\g(An) : l(A)' En effet,
ll s'ensuit
Vn
)
1, (Ar
-
:
An)/ (Ak
-
-
rr (Ak
+ s(A*) -
A).
An)
/ p (An
-
p(An) / 1t(Anl
Al
-
lt(A)
< +
oo fait que l'on peut simplifier. Remarquons que pour une probabilité. la ôondition 3 k : g (An) est f inie, est toujours vérifiée. La condit'ion g (Ak)
Propriété 6 : Composition de mesures Soit (gn), n e lN, une suite de mesures sur (O, '*/7 et (in), n C lN' une suite de réeià positifs; alors P : > ,1n /n est une mesure sur 1A' '41' , n
Démonstration '
,
soit à établir la o-additivité de g
:
æ
Ànqn (IAr) : Am' ):I 'u('n.'':1 n " " m
nm - t : Ànln (An.') mn : I p (A.). m
En particulier, si (Pn) est une suite de probabilités sur (o,,-41 et
si2 n:,1,, ^n^ :.'
: LÀ^ P^ est une probabilité sur @, ,,4\ Cette propriété permettra Iàî.tir"ti* o"''tnisuiàs ou oË pronabilités. alors p
PF],
.IASSI
,
la
S. LEIGAIT
PROBABITITE, MESURE, INTEGRATION
Théorème 1 ; Egalité de deux mesures
. };t: A,,47 un espace mesurabre ter que -4. estengendrée 17 de parries .ç( - mesurabtes de e, stàote pur.
par une famiile
intàrrËiion tini".
o si g et v sont deux mesures a-finies elles coincident su( ,,4.
sur (e. ,,4) co:incidant sur G, arors
En particulier, si deux mesures finies sur (lR,
alors elles sont égales.
2.3
&)
co'incident sur les intervalles,
Mesures sur (lR, gî/l
Définition 6
on appelle mesure continue sur
Vx€
(rR.
lR.
fr')
toute mesure p vérifiant
p({x}) :
:
O
a) Mesure de Lebesgue On appelle mesure de Lebesgue sur (lR, fr.y la mesure
i
définie par
:
i(la,bl) - b-a, Va,b.a < b on admettra I'existence et l'unicité- d'une telle mesure. La mesure,À prolonge la notion de longueur, et est continué. Propriétés 1)
.à
est a-finie
:
tR: 9_ln,n+11et,tr'n,n+tl) : n€Z : 3) Va, b, .à (la, bl) : 2) Y aC lR,,À ({aJ)
i
O donc,À est une mesurecontinue. ,a
(ta,
bl) = ,i fla, b[) : i (ta, b]y.
Remarque De la même façon, on définit Àu. mesure de Lebesguq sur
in(,!.!kpla,,b,J) :.t-t. t=l
PH. TASSI
- S. LEGAIT
i:l
À JaLb,l) r r
: n i:l
(lïk,
frly:
(b,-ai) 'l 39
PROBABILITE, MFSUBE, lNTEGRATION
b) Mesure de comptag" On définit sur (lN,
xC
g lNll l'ètre p" :
* : x:o *
ôx' . 6x masse de Dirac en x,
gc est une mesure d'après la propriété 6. Si A
€g
(N ), gc (A) est égal p^ au nombre d'éléments de A. La mesure s'appelle la mèsure de comptage. C'est une mesure discrète sur (lR, frl puisque boncentrée sur lN. lN
.
3
MESURABILITE
3.1 Application mesurable Définition 7 Soient (O, .&l et (O', ,,4,'lrdeux espaces mesurables. Une application O' est dite mesurable si
f :Q
-
:
v A' e -4', ou:
r'
f'
1.&'y
iA'l e ,4.
c,4
Définition 8
: {f-1 (A'), A' € .4.' } est une tribu ; c'est la plus petite tribu f mesurable, dite tribu engendrée par f, notée a (f).
f-1 1,4i rendant
Propnélé 7 Soit
A C O : A e ,4'e 1o
est mesurable de lA, ,'&) dans (lR,
g,L
Démonstration
Soit A
oSi
e
,,&.Montronsque loestmesurable. SoftBe
BcontientOetl
&:
:Qe .& l;t (B) : Q e .4 l;t te) : A e .4 1;1 {B) : A € .4 1;1 (B)
1 r Si B contient O er pas 1 o Si B contient 1 et pas 0 DoncVB e &,1;1 (B) e ,,4 et 1o estmesurable.Réciproquement:si loest mesurable, alors 111 ({1}} : A e -4.. o Si B ne contient ni
40
O
ni
PH, TASSI - S. LEGAIT
PFOBABILITE, MESURE, INTFGRATION
Vocabulaire; Si A
e ,,&, on dit que A esl -ol-mesurable.
Propriété 8
,r/)et (O', .&'y Ae,2<espaces mesurables oit .d,, est engendrée par uneclasse G'departiesde e', etf :e * A,;ators, --
Soient @,
o (l-' (G')l : f' (,4'l : t-, @ (G)l Démonstration
. G' C.4+ 1-' (G'l C t' (,,&') + o(f-, (G,l) c o1t1 1.4,y1 : I-, (.&,) puisque f' (,,4,1 est une tribu. o Soit 8r: {A' C e,/f A,) € o(t-1 (çqTt on montre facirement gue fi rest une tribu, dite tribu induite de o 1f-1 1G,y par f. En outre, 8, contient G, VA.€ G't-, (A,) € r, (G) C o6-1 1G,y d'où: o(G')C8, f-'(o( G'D C tn ( g) C o(f-1 1G,y1 pardéfinition de fir. ..
Propriété 9 : Critère de mesurabilité
Soitf : (O,.4) -.@',^.4'l où.4, f mesurable <+ f-' ( G,y C ,,4
: o(6,1, G, C A,.
Démonstration
o
o
Si f esr mesurable,. f-1_-1 ,,4,) C propriété B)d'où t1 1G;1 C .4. Réciproquemenr : si
-4 et o (t-1 ( G)l C ,d. @,après
f-' ( G,) C,4, o g-i ( ç6,)l C,-4, donc f1
(propriéré 8). f est mesurable.
1,,4,y
la
c,4
Exemple aoolication f : (o, .r/7
!1e(J *, 1 intervalles
-
1n,
â)
all est ./-mesurabre.
l--,a1.
v a € tR, est engendrée par ra crasse des
est mesurable si et seutement si
En effet
,4
Théorème 2 Soit Q et Q' deux es^paces topologiques, ,-4 et ,,&, leurs tribus boréliennes. Touteapplicationf :O - O'contiÀue est mesurable. PH. TASSI
- S. LEGAIT
PROBABILITE, ]VESURE, INTEGRAT1ON
Démonstration On note
/
l'ensemble des ouverts de O
et O' l'ensemble
des ouverts de O'
: o(O) et "4' : o(O'l f est continue de Q dans O' <+ f-l @'l C O =+ f-' @') c o @l : -4. =à f mesurable (d'après la propriété
:
.04
9).
Théorème 3 Soient trois espaces mesurables (O,
f
:O-Q'et g:Q'-O":
t-'
.rl), (A', .r4, P", .4:'l
(a (g))
:
et deux applications
a (gof)
et si f et g sont mesurables alors gof est mesurable.
Démonstration
a(gof)
-
(gof)-' G&"1
: f-l [g-t (4"11: f-l (e,(S))
Si f et g sont mesurables s" k&"1 C .&' et ï1 G4'l C .4, c f1 G'{') C .4' et gof est mesurable.
donc (sofl-1 G.4"1
Propriété 1O : Critère de mesurabilité Soit (Ei, ,/),1, i € l, une famille d'espaces mesurables et (f i)i€, des fonctions de Q'dans E. On munit Q'de la tribu engendrée par les (fi). i € l, c'est-à-dire
de a p us
o"n"I?":ïH,lËï.:":,il;:l:l.ul, I
i€l
f : (A, .47
-
@', "4'l est mesurable
<+
Vi€
l, f
I
of est mesurable.
Démonstration Vi e l,
f
of est mesurabte <+ Vi
€ I (f of)-x (fi il C .&
o .9. (f , of)-1 ç4 il C .d tel <+ f-' [ !, [' ç4 ill c -4 i€t
e ol'f-'',!, ['
Ftgil]l
c '4
f-' [a( !. q' çni)l] c,t{ iel o 11 ç&'7 c '4' <+
l
<+ f est mesurable. 42
PH, TASSI
- S. LFGA]T
PROBABII ITE, MESURE, iNTEGRATION
Théorème 4 a) si f et g sont deux apprications me_surabres de (e, .d,rt "- \--' v? fg sont mesurabtes de e, 4 _ (tR, fr) O)
Si (fn)ne
-
(rR,
fr,r
arors f + g,
est une suite d,applications mesurables de (O, ,4) * lR, g.) alors supf inf fn. rim sup f rim inf fn sont mesurabres n, à condition qu,eiles n, ne prennent pas des valeurs infinies. En particulier, si lim fn : f existe, alors f est mesurable. rN
Définition 9 : Variable aléatoire soit (o, .&, p) un espace probabirisé, er (a', -{') un espace probabirisabre. on appelle variable aléatoire une application mesurabte i oetinie s", ta, kl'i valeurs sur (e' , _{,) ,.
v A' e ,4'
x-1 A') Ç -4
Notations o si (o" ,r/r : (rR, &7,X est une variabre aréatoire réeile, ou unidimensionneile, ou univariée (v.a.r.)
o Si (O', ."1'l : (R", 9."1, X est une variable aléatoire n_dimensionnelle, ou n-variée, ou un vecteur aléatoire de dimension n o si(Q', ,rl') esttout ou partie de (2, g1zy,X est une v.a.r. discrète.
3.2 Mesure-image dans
soient @, f une apprication mesurabre de (o, .4r ') un espace mesuré, (o" ,/'t. oo'4'oerinit l'", k; i"{,"--''-" " 'vi J
""àï""ii""
V A' € .&', pf (A') : p{f-, gf est une
pl . pf c
(A,)}
mesure sur .4;,dite mesure-image depparf. En effet: a un sens puisque t-1 (A,,) e .4
est à valeurs dans IR* par construction o Soit (A'n) une suite disjointe d,événem ents de
sr (:A'J
PH TASST - S
LFGA|T
.d, p{f-1 (:A.n)} tt{> f-1 (A,n)}
: : :zp{f_1
(A.n)}
43
PROBABILITE, MESURE, INTEGRATION
Application : Loi d'une variable aléatoire Définition 1O ,,4' ) un espace probabilisable, o Soient @, ,,4, P) un espace probabilisé , @', (O',
X une v.a. définie sur (Q' .4'1à valeurs dans
o on
''4'l
par X appelle loi de probabilité de la v.a. X la probabilité image de P
notée Px.
V A, e .4;, px (A') :
p (X-1 (A'))
Notations
X-t (R')
: {u € A /
o On écrira souvent
€ A'} : {X €
A'}
:
px (A,)
o On donnera
x(ar)
:
p(X
€
A')
fréquemment à une variable aléatoire le nom de sa loi de
probabilité, Par abus de langage.
3.3
Tribu-Produit
Définition
11
o
Soient (O,
o
On note
o
.&i), i € l,
n:
,!,
(l quelconque inclus dans lN), des espaces mesurables.
n,"t Pn,l" projection (r.r;);e
r
_
de O sur Q,:
@i
, notée @ &, est la tribu engendrée par les (pn ), icl ' @ il. : o ( l) ,-' ..l 1..0(,ll
La tribu-produit des ,,4
iel.
i€l
'
i€l
Théorème 5 : Cas d'un produit fini de tribus
o
Soient
LQr&rl,
a € G..'
oonnote'
i:1àn,
.,=knE:
nespacesmesurablestelsque
1,,=T="
A'AeG
&r: o1 G,let
i
PH.
TASSI
S. LEGAIT
PROBABILITE, MESURE, INTEGRATION
Alors
:
A ,,4.=o ('l(i(n n '
e,l
l(i(n '
En particulier
:
@ ,-4.: o ( n 1(i(n ' l(i(n on dit que
ra
,,4.1
t'
tribu-produit est engendrée par res pavés mesurabres.
Démonstration Soit
:
n
A e Gi,,I. donc
A,
:
p;
,*2n
.
(Ai)
,*T*n
-,
:
n
n G,C a "
i:1
oou:
1=
,-{. I
n
o( n G) C a i:l
1(i(n
Réciproquement, montrons que
Vi :
,,4 I
1àn n
p-; G{t) C o ( n 61 t' "i ' i:1
Vi:1àn.VA.€G..oi,te1 :Ai X.l.O, e o( nn I r , i:1
)rt
donc: n
o-l ,.i lG,), C o (.i:n c1 1
'etn p-; ç4à)
- oâ, @(G)t - s(nrli rc1 c r t,!. t-
donc:
8 PH. TASSI
- S, LEGAIT
&i:
o (,8, o-l t-d,ll
n
. " ,,!., G,l
|
c,
G,) |
PROBABILITF, MESURE, INTEGRATION
corallaire g.e g,: fr'z el A
1
f : (O,.&) * (fl
si et seulement si V
Qi,
n.
à valeurs dans un espace
Théorème 6 : Mesurabilité des applications Une application
g fi'ni- fi:1 -
.9,il),, iet
(fi (ar))ie
produit
r est mesurable
i € I f. est mesurable.
ll suff it d'appliquer la propriété 10 aux fonctions pn.
4
INTEGRATION
On se place, dans tout le paragraphe, dans un espace mesuré @,
4.1 Intégration
&, pl'
des fonctions mesurables étagées
positives
Définition 12 On appelle fonctiotr étagée une fonction mesurable f définie sur :(O, ,4 valeurs dans (lR, fr.1, ne prenant qu'un nombre fini de valeurs x,, i 1 à n.
a
Notations Soit
:
n
Ai
: f-l ({x,})' A' e -4 ' f : ,-r. 1o, ^' I|
6*
est I'ensemble des fonctions étagées positives'
Théorème 7 (sans démonstration) Toute fonction numérique positive est mesurable si et seulement si elle est limite croissante d'une suite de fonctions étagées positives'
Définition 13 Soit
46
:
r e é*, f
:,_t, l:
*,
to,
(x,
)
o)
I
PH. TASSI - S. LEGAIT
PROBABILITE, MESURE, INTEGRATION
On définit
:
I
ldp
: I
x,| ll(A,)
i:1
r.
La quantité J f Op est appelée intégrale de
f par rapport
à p.
Remargues
1)Si A €,,4, p(A) : ! 1a dp 2) On fait la convention 0 X (+ -) 3)
si f
fl
ryl
=,1', "' to' :,1.,
uj
O
lri
:
x, l(A,) - :yj l(B,). cequi donne un sens à ta notation I I a a,dont ta définition est intrinsèque au s'ens où elle ne dépend pas de la spécification choisie 1t-1rs
pour f.
4) Onnote Propriété
n
J fdp: ! 1ofd1t:,:r,,
x,
l(A, O A)
11
e 8*, ge 8*, atorsf +ge g* etJ(f +g) dp : !tap + lsdtt Si .À€lR,ators e 8* et J(,f fldp: À jlaU ^f 2) f € 8*, ge 6*,sif (g ators !f dp (.l"Sdp. 1) Soit f
Démonstration 1)
f :. ). *, to, n:,],, y, 1r, t-
|
On suppose, sans perte de généralité, que
,r. l:l On peut alors écrire que
A, '
PH. TASSI
- S. LEGAIT
A,
:
= Q:
j:1
I
:
: i:1 J-r
J
:-r t-t
I
I
PROBABILITE, MESURE, INTEGRATION
d'où
nm i:1 j:1
:
f
f
(f +
g)d/
+g:
(x,+Y;) oo,
n t,
Iij 4*,rt(Ai nBj)'rt+> lrtuln
nB,)
t tap + "[ sdll
2l g:
f
+g-f
s
-f € 6., I
or:
: I
ldtt + -i
(g
-fl
dP
"i(s-ïdtt2O
d'où
J
Exempte: On munit (lR, Soit
alors
gdtt
:
t:
g'l
de la mesure de Lebesgue
n
,I.,
sdtl21ldp
f (ti)
I rti- ril' t € 1,
lR*'
i'
t'-
',
:
J fdÀ:,I.,
f (ti)
i(lti-r,t,l) :,j1
t(ti) (ti-ti-1)
ce qui revient à calculer une intégrale de Riemann'
4.2
lntégration des fonctions mesurables positives
On note 4B
,tt* l'ensemble
des fonctions mesurables positives' PH. TASSI _ S. LEGAIT
PROBABILITF, MESURF, INIEGRAT|ON
Définition 14 Soit f une fonction mesurable positive. On
définit t tdp :
sup g€8* s
_f
gdrr
Théorème 8 (Beppo-Levi) soit (fn), n
€
IN. une suite croissante de fonctions
alorsJlim lfndg
=
lim
I!
de
fnd1t.
En particulier, d'après le théorème 7, si f lim 1 fn alors :
f:
I lap :
e
,,/(,*,
I
"lt
teile que rim
(fn)ne
ru
e
l tne ,.1(,*
g*,croissante,
lim 1 Jfn dp
Propriétés 12
1)Vf e ,/(*, g€ "(/,., l(f+g) dp:ltdp+lgfp V.À e R. J (nll dp: À I tdp
2)îe "4L*, ge,tr,, f ( g + [ fdp(
.1" sd1,r
Propriété 13 Si (fn)ne
rrv
est une suite de fonctions
de ,/L*
r;n:O r^ n dtt: ;
lr-art 'n -r n=O "
cette propriété est une apprication directe du théorème g de Beppo-Levi à suite de fonctions croissantes
ra
:
n
9n:
: p:o
f-p
Lemme de Fatou Si (fn)ne
et:
rru
est une suite de fonctions mesurables positives alors
i
liminf fn:tim
:
I inf f_€,.4L* o_æ p>n p
J (tim inf fn) dp ( tim inf (,ifn ds) PH TASSI -
S LEGAIT
49
PROBABILITE, MESURF, INTEGFATION
Démonstration Par application du théorème 8 (Beppo-Levi),
|
t inf f^) dl/ : lim 1 "i ( 'If fo) dl n pln ' Pàn vp 2 n "i ( ilf fo) dr ç Jfo dtt,
(tim
pàn
d'où
+J(inf f^) dp( inf lr^dp p>n ' P2n ' :
(lim inf f^) d/ ( lim 1 n'np>nPn
J
4.3
inf I
1^
dp:
lim
inf J fn dg
Fonctionsintégrables
Définition 15 soit f une fonction mesurable définie sur (o. ,,41à valeurs dans définit les fonctions
B, fr.|. on
:
f* = f .i{rro} f_ _ _f .l{r*o}
et: f*
et
f
-
} 0} et {f < 0}
sont
dg < + æ' f-, on r;1on[;" que les deux définitions
sont
sont mesurables puisque les ensembles {f f : f* - f-.
,/-mesurableset
f est dite intégrable (ou g-intégrable) si
:
11*dg<+oôetJf-dp1+æ onPosealors: Itatt: îr* dp- Jr att Définition 16
f mesurableestintégrablesi J En remarquant que
lfl : f* +
ltl
équivalentes.
Propriété 14 On note
@, f* I 1,
î (O, ,,&,g) l'ensemble
des fonctions intégrables définies sur lQ, ,'41.
,'4,11) est un espace vectoriel sur lR et la fonction de 'C (O,
Idp
"4, p) dans lR'
est une fonction linéaire' PH TASSI - S. LEGAIT
PROBABITITE, MESURE, INTEGRATION
Cas des variables aléatoires réelles
Définition 17
SoitX:(A,.,4, p) - !n,8,y unev.a. on appelle espérance de X la quantité
p_intégrabte(i.e.
-i lXl dp < +*)
:
E(X)
4.4
:
-lXoP
Propriétés de l,intégrale
Propriété 15 Soient f et g deux fonctions mesurables telles alors f est intégrable. ll
quelil <
S ; si g est intégrable,
( g et f- ( S donc: I f* dp ( -f sd1r ( +oo J {- dp ( "i gdrr ( +æ
suffitderemarquerquef*
et: Propriété 16
Sif est intégrabte,ll +apl En effet
< "i ltl
ap.
:
II tapl : l"f f*dp - I f-dpl < .f ftdp + ! r-dp : I ltl
dp
Propriété 17 : Inégalité de Cauchy_Schwarz Soient f, g mesurables. de carré intégrable, alors
("i
f
sds)'
<
ll suffit d'écrire que, pour tout réel
(1
:
t" aû (1 s"
ap)
,À,
!(t+lg)'dtt>o Propriété 18 Soit f une fonction mesurable intégrable
;
st{lfl )a}t< 1rildp a
PH. TASSI
- S, LEGAIT
51
.
PROBABII ITF, MESUBE, INTEGRATION
Démonstration
J lrl os d'où
:
:
,l
Jrl,lrur
ltl
lfl ds + J1lrl<ar lfl ds >'l
os >- a l1{l,l=u}
dtt rlrl>ut lfl
dp: ap({lfl > a})
Propriété 19 : lnégalité de Bienayrné-Tchebychev
sa première démonstration est due à Tchebychev et date de 1863. Soit une v.a. X telle que (X -
E
{X))'soit intégrable'
E(X-Eg))2 À,r., r/v\l \.t > t) -+ P(lx-E(x)l E2 Démonstration
llsuffitd'utiliserlapropriétél8avecf
: (X-E(X))', a:
€2 et
g:
P'
Propriété 2O : lnégalité de Jensen
*
(p (x) soienl lR une fonction convexe, X une v.a.r. telle que X et : alors intégrables;
soit p :
lR
É
4"5 ll
.ll
{P(x))>
P (E(x))
Généralisation Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn;
désigne une norme sur
lRn
(toutes les normes sont, rappelons-le, équivalentes)'
o Une fonction f mesurable @, .&,l/)-*
(1R",
fr,n1 sera dite intégrable si
\ llfll ds ( +oo : (f,), i: 1 à n;alors: o UnebasedelRnayantétéchoisie.onécrit f I f dtt: (J fidp) (i : 1 à n) o X: (Q, .il, p\ * (1R". fr)1 étant un vecteur aléatoire de coordonnées i:1 àn: /*'\
:
"l
X:l
l\
\1 \x I \
52
(X')'
I
n,/
PH-
TASSI S, LEGAIT
PROBABILITF, ]\IESURF, lNTEGRATION
X est intégrabte donc :
si
J
I
X,l
Oe
<
E(X)
+ oo, Bour
tout
1 à n. Le vecteur-esBéranee est
l=
J x., on\
('"
:
\ I
\. ,,",
I
x"ae
I
1
4.6 Exemples a) lntégration par rapport à une mesure discrète Soit un espace T":yr.é LO, { brable, élément de ay', VAe -d,
s(A) Alors
,
/)
ret que g est discrète, c.est_à_dire
:
:
ar€Atll
f
I
dénom_
p({a})
:
vf e "u,* lfap:
f convergente
et toute fonction absolument
: f(u)p({wll
ar€l mesurabre est intégrabre si ra
série r r (4 p (uil u€l
Application à la mesure de comptage sur ( IR, gt1
F":
: n:O
:
ô-n
Une fonction mesurable réelle f est /c_intégrable si
J lrl cs.-
est
:
: i^ tr(n)l < +n:0
\
c'est-à-dire si la série de terme générar f (n) est absorument convergente. On a alors :
i- ,,n, I rdp": - n:o b) lntégration pat rapport à ta mesure de Lebesgue sur (lR, fr) on peut montrer que si une fonction f est intégrabre au sens de Riemann sur un intervalle b], Ia,
PH TASSI - S.
arors f est intégrabre par rapport à ra ,.nesure de Lebesgue et
LEGAIT
:
53
PROBABILITF. MESUFE, lNTEGRATION
J1a, bl f dÂ
:
-i3 tl*t o"
De même sur la, b[ {- oo absolument convergente , on montre que f est intégrable par rapport à la mesure de Lebesgue et :
J,lir,'l.. IdÀ:
5
J!t1^1
lim ,i3tl^t :r|,
or:
o*
NEGLIGEABILITE
C'est une notion cousine de "l'égalité en généralo citée au paragraphe 1 ; en 1882, Harnack définit l'égalité en général de deux fonctions f et g si, pour tout € > O, {x/lf (x)- S (x)l > e} esl un ensemble discret. L'apparition quelques années après de la mesure conduit assez naturellement à la négligeabilité.
5.1
Définitions
Soit (Q,
.&, pl un espace mesuré.
Définition 18 Un ensembleAest ditg-négligeablesi
f Be
,t4, AC
B et,t,r(B)
:
0.
Définition 19 une propriété n définie sur o sera dite vérifiée /-presque-partout (/-p.p.) si I'ensemble des ar € Q pour lesquels elle est fausse est pr-négligeable. Définition 2O Une fonction mesurable réelle estp-négligeable si est g-négligeable, i.e.
{ol Î(ul +
:
o}
tt{ul Î(al * 0} :
0
Remargue Dans le cadre d'un espace probabilisé
P,,,4,
P), on emploie le
qualificatif npres-
que sûrement" (p.s.).
54
PH' TASSI - S' LEGA1T
PROBABILITE, MESURF, }NTEGRATION
Propriété 21
soient f et g deux fonctions mesurabres. on définit la reration * par * f g si g /r-p.p. c'est une relation d'équivaience sur l,ensemble des fonctions mesurables.
f:
Propriété 22
soient (fn)ne ru et (gn)n€N, deux suites de fonctions réeiles mesurabres ; si : fn 9n g-p.p.Vn, alors :
o Sup f n : srjp gn /-p.p. o inf fn = inf gn g_p.p. o lim sup fn : lim sup gn /_p.p. o lim inf fn = lim inf gn p_p.p. o lim gn : lim fng-p.p. (à condition queVc.r, lim fn (r.,)existe). n
5.2
Propriétés
Propriété 23
soit f une fonction mesurabre réeile intégrabre définie sur est finie g-p.p.
(o, &, pr.Arors f
Démonstration On suppose que
f)
O.
:1*1. Vn ) 1 ng(M) : .[n1* dp < lldp( +oo car nlt ( f d'où: p(M) : o Pour une fonction intégrabrequerconque, I : f* - f-, ir suffit de considérer les deux ensembles Soit:M:
{c.rlf (ar)
:
:
: trl f' M- - {arl fM*
et
: (ar) : (c.r)
+ -1 +
oo1
Propriélé 24
1) PH.
Sif €,/(.*, J,tdp :
TASSI S. LEGAIT
O e>
f:
O g-p.p.
55
PROBABII
IIF.
ML SURF,
I\
ILCFATION 't
2) Si f est une fonction réelle mesurable
f :O /_p.p.<+Jlfl ds:O 3) Si f est une fonction réelle mesurable et Ae ,t4
g(A) : I + Jofds: 4)
O
Si f est une fonction mesurable
f : O Ë_p.p. + JfOg : I Démonstration 1) si
Si
hێi*:
h- I
x, 1^ i:1 | Ai
h: Op-p.p.alors:
si| e .,U* orsi 0 d'où
n
-lno/:: i:1 .
lfdtt :
x, rr(A;)
e 6*, O < h <
sup{-fhdpr, h
( h ( f: .. f : O g-p.p. + h :
O
/-p.p.
Jfdg :
:
Jfdp: O: Vn)1otI:-f
:O
+ Jhdp :
f}
Q
o
Réciproquement, si
donc:
n
r
tr<
dlt(nJfdP rt, n
1
Vn ) 1 p lI )-l:
rtlt+ol:
É,
< ; tt 1, >!1 tn:; 1 tt >1tt n I'l n:1 f :O
d'où:
o
P-P.P.
f : O g-p.p. <â lfl : O /-p.p. et 1r(A) : O alors f .ln : O ,u-p.p.:
2) lmmédiatcar 3) Si en effet
donc:
.
f e "4f
{co/ (f . 1^l@l+O\:{coeA/I
(ul+O} CA
ltlu/f .1^+ 0l:0 etf .1A:
O/-t-p.p. PH TASSI S. LEGA]T
PROBABILITF, N/ESURE, INTEGRAIION
D'après 1) eela entraîne alors que
:
î1.7a
Pourf : fo * f-,
dÉr
:
O
:
IOtau
lotaa=Lt.d/r-âf-dp:q
: {f + o}, u(A) : O. Îldp: lOtau: lUtau:
4) SoirA
JU
fdg:9
(f
:
O surÀy
Propriétés 2S
t, :,""'rïl
f et g deux apptications mesurabtes positirres, teiles que f
Jtap: jsdp 2) Soit f intégrabre, g mesurabre. teiles gue f : etJgds jfdi. =
:
g Ér_p.p.;
g p-p.B. Arors g est intégrâbre,
3) Sip est o-f inie,
f: g
s_p.p. <+
VA €
,* la tdp :
f, sal
Démonstration
A: {f + s}, p (A) : O I tap: lotau + IUtau: lUtau:.! sdr:.f, odr + sdr : gdrt J fi 2) llsuffitdeposer f = fn f- et g: g* _ g erd,appliquerl). 3) f : gp-p.p. è VA e ,t( lo.f : 1A.g /./_p.p. - lotau: .f, odl d'après2) 1) Soit
Réciproquemenr : VA
=
, lO ldp :
1O
OdU.
Notons que l'on peut supp.oser
f: g
p-p.p.,
ilsuffit
f à g " sans perte de généralité. d'avoir, f 1{rtn} : I 1{r"n} lr-P'P' f f tt,=nt =91{,
f et g jouant un rôle symétrique, on montre simplement que t
't
urn,
pour montrer
;
: 9l ti>nJ P-P'P'
PH TASSI S. LEGAIT 57
PROBABILITE, MESURE, INTEGRATION
F:f.l{r"n} etG:9.1{t"n}
onnote: (F>G I ro ror
i
:
Lnlr>n]
et il s'agit de montrer que F
rdP
: G
lon{r=n} sds :
:
L oou
lJ-p.p-
f 2 S : g étanta-finie f An € &,An C An*r et o : limlAn, /(An) < +-
Supposonsdoncque
On pose
:
:
[g<+-]
Bn: An n {s(n}:Bn C Bn+l,et limlBn:liml {g(n}: Yu /
lim
ll faut montrer que
1
Bn,g(ar)
:
+oo
:
f(t^r) puisque
f2
g
Vn, f I Bn : I l Bn g-p.p.
ttrn où:
gÎ'n )
tt'n
trn tou :
glBn) *nlsn
,ilen
-i(f
trn -
g lBn)
o
dg
* Jrn gdl
Jrn odl = Jrn ndg : ng(Bn) < + oo On simplifie et
:
-i(f len
- glBn) dlt: o = 1len = 9lrn
A-P'P'
d'après la proPriété 24.1).
limlf lBn = liml glrn f 1,,r,rn
d'où:
:
f :g
g
1,'r,rn
/-P.P.
l/-P'F'
p-p.p.
PH.
TASSI S. LEGAIT
PROBABILITE, MESURE, INTEGRATION
Théorèrne g (dit de Lebesgue ou de la convergence dominée ; 1gO3) soit fn une suite de fonctions mesurabres et g une fonction intégrabre.
onsupposequeVn,lf"l
< g p_p.p.et fn
Alorsfn etf sontintégrablesetJlf.
6
1Ër - fl du *
p_p.p.
O (n_oo;
MESURE DEFINIE PAR UNE DENSITE
Définition 21 soit (ô,
unespace mesuré etf € v:.r/ *"{tp lR'par:
VA e
.4,
y(A)
"r(,* @,-{,É/).on définit |apprication
:
lOtau
v est une mesure dite absorument continue au sens fort par rapport à g, et de densité f par rapport à p.
On note : v
:
f
.p; v définit bien une mesure
' (nio An) : : ; d'après la propriété
13.
J l:nn tdlt
sur (e,,,41
: J
nlo Jl^ fdp:rv(A)n' n:o ^n n
:
(lon f) drr
Remarques
1)
Sif : I'
p-p.p.,
VA C ,lOfdp
= lOfaU doncyestdéfinieparune
classe d'équivalence de densités, égales g_p.p.
Notation
fe
dv
dp
2l si f est intégrabre, on peut de cette façon engendrer une probabirité sur @,.r/l en écrivant: vA e PH. TASSI
- S, LEGAIT
.4
p(A)
= +# 59
PROBABILITE, MESURF, INTEGRATION
ExemPle
v:oe-exl,p-(x) .i
est une probabilité sur (lR, fr'1ae densité
:
f (x)
:
0e-0* 1,..(x)
Théorème 1O Soit g une fonction mesurable;
g esiv-intégrable <+ gf est g-intégrable ; on a alors "f
:
Sdv: Jgfd/
Démonstratian
cSi
g:1A,Ae.4l J 1o dv :
v (A) : JO fOl
:
: af dp ! gldU
.l'1
oSig € 8* g: I x 1^i Aie '&
: : -isdv : I ^i v(A,) : I x, to, tou J> x 1o. fdg lgldlt o Si g e"ht) g : liml gn, gn € d* .igdv :
o Sig
lim
1-igndv
: g* -
:
g-
sestv-intésrable
lim
Jgnfdg : ! gfd!
1
:
Jlim 1 gnfdl(Beppo-Levi)
(-in. ov ( + oo {ln. fdg ( o _ < * lrn- rou < irn_ o,
e <+
gf
+
oc
+
oo
estg-intégrable
Théorème 11
Soit v une mesure de densité f par rapport à trr' : O ,s(A) :0 + Y(A) D'après la proPriété 24.31:
g(A) 60
:O-lOldg:v(A)
:O PH' TASSI - S. LEGAIT
PFOBABILITF, MÊSURE, INTEGRATION
Définition 22 Une mesure v quelconque sur (O, ,.r4) est dite absolument continue au sens faible par rapport à une mesure l.{ sur (A,,,Ol
VA € On notera v < p
Ur
&,
domine
p(A)
:
"i:
O =+ v(A)
:
O
u).
on voit donc d'après ra définition 21 et re théorème 11 que toute mesure absolument continue au sens fort I'est au sens faible. En pratique. il est fréquent de travailler sur (lR, g,'), (n", fl.n1ou(N, .7(N)), munis de lois de probabirité qui seront dominés par,i. môsurÉ.,0" L"b""gue sur rR, 'Àn, mesure de Lebesgue sur rRn, os rtc, mesure discrète de comptage sur rN;ces lois admettront donc des densité" p", r.àpport à À, Ànou
lt".
Les théorèmes suivants énoncent des conditions générales d'existence de densités. Théorème 12 (Radon-Nikodym ; 1930) soit g une mesure a-finie sur (e. .4'y et v une mesure sur @,.q absorument continue au sens faibre par rapport à g. Arors ir existe une ctasse un,qi"-G de foncrions mesrrabres positives
v
:
r.p v
f€
(rR*, fr;i,-eô'"1." @,.ta) que G. en outre, ces fonctions- f sonr g-p.p. iinies rr-p.p.,teiles si et seurement
si v est o-finie, et eiles sont intégrabres si et seurement si v est finie.
Définition 23 v est dite étrangère à
p si
:
lN €.il,
u(N)
: O et
v(N;
=
6
Les mesures g et y sont donc presque partout à supports disjoints.
Théorème
3 (Lebesgue-Nikodym ; l93O) soient deux mesures g et v sur (e, -tJl, p o-Iinie. il existe une unique crasse de foncrions mesurabtes positives f :iO, ,_41 I g,.y, eg"r""r_p.p.,Li ffil,' une unique mesure v, étrangère à p, telles que 1
:
v:f.!+v'
7 INTEGRATION PAR RAPPORT A UNE MESURE-IMAGE Soit un espace mesuré @,.d, p), etlt une application mesurable
e,.tll PH TASSI - S
LEGAIT
:
1c:,.e) 61
PROBABILITE, IVESURE, INTEGRATION
Théorème 14 (Théorème de transfert)
fr'\'f.est intégrable par Soit f une application mesurable ', (O','&'l - (lR' mesurable foT rapport a t" r"suie i;";; gi si et Leulement si I'application outre en @,:.4,) - (lR, fr'1 est intégrable par rapport à lr ;
:
:
I
tapt:3 o'o
foTdg
Démonstration
oSi f e 6*
n
1o,A,e.z/'
f:,Ir*, l:l
n
.l-OfoTOg : J : X'"'l1o. oT dg O i:1 :;
:
xl 1^oTdP i:1 r-o Ai n
,It
*,
ln t1r-'{n;)} d/
n
: ;
,=t
o
= r *,i gT(A,)I : -lo'
x, Érlr-t (Ai)l l'-
fdgr
Sif € Jf, f = limlfn où fn € é* foT: limlfnoT
On utilise le théorème 8 de Beppo-Levi
In
tor dP
:
lim
'
ln
tn oT
o Pour f quelconque. on pose
dg
:
:
lim t
f : f* -
ln, tn dltr :
Jn' togr
f-'
Application
SoitXunev.a.de(Q,.'4,Pldans(1R,8'l,etguneapplicationmesurable: j ffn,-'&.1. Ani" goX est p-intégrable si et seulement si g est i,^,' n) Px-intégrable; on a alors E
ôl
:
(goX)
:
Jç
goX
dP
:
J,^
I
dPx PH' TASSI S' LEGAIT
PROBABILITF, MESURE, INTEGRATION
En particulier
:
E
où I est I'application identité de
lR
(X)
:
dans
J,,
rapportàÀet:
o Si Px
oex
lR.
o si Px < À (,r mesure de Lebesgue E(x)
r
sur rR). pX admet une densité f par
= IttdÀ: J]: xf (x) dx
4 F" (tt"mesure de comptage sur (lN, g +oo
g": il existe une densité f telle que pX
l'observation x"), on a
:
W)l
ô,
^lo
f .pc; en posant p,
:
f (x) (*probabilité de
:
+æ
E(X)
: ltfdp": ' x:O
x
Exemples 1) Une
v.a.r X est dite suivre une loi de poisson si
px-
E(X)
2) Si px E(X2)
:
e-" l,r_
*æ
: e-.À ^x x! x:0
:-itop*: (x) .,1
= |nX, Ot :
:
ni xe-i x:O
ô
x
À':À x!
:
Jn x" dpX
- JJ
x, e-, dx : l-(3;
: ,
Théorème 15 (Changement de variable) soit T un difféomorphisme (c'est-à-dire ung application inversible, différentiable ainsi que son inverse) de * :- 9,.t, g'éorun continûment ouvert de lRn : ?j^U T (#) un ouvert de tRn; alors;n etant'taï"rr"rL o" Lebesgue sur lRn:
11t.Ànlt = 1s.lL{t-rll .In PH TASSI - S
LEGAIT
63
PROBABILITE, MESURF, INTEGRATION
où J
11-1)
est le jacobien-de T-1, c'est-à-dire le déterminant de la matriee des
dérivées Premières de T-'.
a Rappelons que, sous les conditions usuelles de régularité' on
J (T-') -
:
1
J
{T)
Corollaire r^gPport à^1 g" n g une mesure admettant une densité I pt' U : F 19(l ; aloré ^ fr sur (gl ouvert de lRn). et soir T un difféomorphirt" de par par rapport à i n donnée trrT admet une densité Pr : 1 s/.lJ(T-'\l foT-'' Àn
Soit
:
8
INTEGRATION PAR RAPPORT A UNE MESURE.PRODUIT
8.1 Mesure-Produit Théorème 16
l}r &i, lr,) n esPaces mesurés (i : 1 à n) tels gue li n n On note' o, n = ,9,'' ,!,, "'
Soient
a-finies'
*
:
/ appelée mesure-produit sur @, ,-o\telle nn ,11 : n lr(A,) €,,4,,p : VA -''i ,' '- 'i-1 A,) '' i:1
ll existe une unique mesure
que
:
'
Notation
lJ:
A
1(i(n
Fi
Théorème 17
: 2, la mesure-produit g est définie par VA € &.,8 &r,! (A) :Joz tt1(Ar2l dltr(url - Jnr tt2l{rll dpr(utl Si n
64
:
PH' TASSI - S. LEGAIT
PROBABILITE, À/ESURF, INTEGRATION
où:
or., : {^z € Qr/ (c't'
o,rr)
e
A}
orr: {rt e Q,/ (t't'
torl
e
A}
(resp. Arr) est appelée section de A en a,1 (resp. , 1", raDle (resp. ..{ ,, -mesurable).
.
en ur) et est .& r-mesu-
Remarques
1) On vérifie aisément Ou" Aarl est ..{r_mesurable
larr(l"or):
1
<+
t' on no," F,1 I'application
,d. r-mesurable On
lAot :
"
2)
olrl
e A <+ 1o(u'
r): de O, dans ()1 X f)2 : u2 * @,, ur), po,t est cl
1
puisque ses 2 composantes le sont (théorème 6). 1A o Fr,, donc
SiA: At
tor,
X Az A, e f
d'où
(a,
:
uut .rlr-mesurable et par là-même
&r,A2e
o,' :
o.r= &r.
.il2
A, si a'r, €
A',
lO"':@si ,r/e, :
s(A)
: ,n, u,
(A,,,) dt,,
:
L.,
p2 (A2l
dttl
p2 (A2l p1
(A1)
Exemple : Mesure de Lebesgue
Vk,
8.2
k'
.Àk
Llk, :
ik*k.
lntégration
Théorème 18 (Fubini)
.ilt,
ttr) et (Qz, &2, lt2) deuxespaces mesurés, /r, et tt2 a-finies. On note ! : F1 E /r, sur (er x er, &., 9.421. Soit X une fonction mesurable positive ou intégrable définie sur (o.t x er, &1 a .421. Soient
PH. TASSI
-S
(Qt,
LEGAIT
65
PROBABILITF, MESURE, INTEGRATION
Ona:
tn'
: tn., ttn, * @,, url dttrl 61tt
* nr*ou
: tn, ttn1 * 1u| url dtt,tl dP2 Remargue
LorsqueX
:
1o avec A
'n.,
* nr
: tn' t\
e .41 Lt42
to dlt :
lt (A)
1a,., drzJ dP,
:
Jn,,
tt' (A'rl dtt'
: fo' [Jn, ln
Exemple Soit (X, Y) un couple de v.a.r. de densité f par rapport à E (XY)
:
Jn xvoe
:
J J,*, xydp(x'
dPz] dttt
i, : p(x' Y) : f i,
Y): J J,*, xv f (x, v) dx dv
: J,, [J,^ xY f (x. Y) dx] dY
66
PH. TASSI
- S. LEGAIT
EXERCICES
2'l
lA' e'
Soit g) un espace mesuré, f une fonction réelle définie sur fonction réelle quelconque. Montrer que fg est g_négligeable.
O 1u-négligeable et g
une
lndication
{u/f (u) s(al + 0} C {u/r@l + 2'2
0}
0n appelle fonction de répartition sur lR. toute fonction de lR dans lR croissante au sens large et
continue à gauche.
Montrer qu'il existe une biiection entre l'ensemble des mesures g finies sur lB et l'ensemble des fonctions de répartition définies à une c0nstante additive près. 0uelle est la fonction de répartition conespondant à la mesure de Lebesgue,.À ?
lndication..A partir d'une mesure
p
on définit Fu par
Vx ) a Vx ( a
:
: tt
(Ia, xîl
: -p
([x, a[]
Fa {x) Fa (x)
0n vérifie que F. est bien une fonction de répartition et:
Vx €
lR, Fb (x)
:
Fu (x)
+
constanre
D'autre part, on construit à partir d'une fonction de répartition F la mesure définie par
tt (la, x[l
:
F (x)
-
F
(a),
Vx )
A la mesure de Lebesgue correspond la fonction de répartition : F(x)
2'3
:
a
: x (+ constante).
En se servant des résultats du 2.2, on cherchera une condition nécessaire et suffisante pour qu,une mesure soit continue sur lR.
lndication
= 0 Vx e H. s({x}) : p([a,x])-([a,x[):
Une mesure est continue si
0r:
g ([x]]
F1x*;-r1x1
donc une mesure est continue si et seulement si sa fonction de répartition est continue. PH.
TASSI S. LEGAIT
6l
PROBABILITE, MESURE, INTEGBATION
2.4
Soit @, ,-4, vérifiant :
glun
espace mesuré,
(fn)n>t
une suile de fonctions réelles positives intégrables
f-
f
Ir
n-co --->
p-p.p.
!lndtt' lrdp où
f est positive et intégrable.
Montrerque
Jlfn-fl dg * 0
lndication.'ll suffit d'écrire
quandn*oo.
:
+ "ilf-fnl dl = -i(r-rn)* ds "f(f-fn)- dl Comme
:
-f (f -f.)
dp: I {f.-fn)* dp - t (f -fn)- apn*a
par hypothèse il reste à prouver que
:
-f(f-f-)'dg-. r' n**
..
(f
-fn)*
(f,
et: (f donc
2.5
-fn)*
f
-
-l(r-rJ*
L
Calculer en utilisant le théorème de Lebesgue
lim
.+
æ
n*oôJa
n2
,
dp
o
intégrable
o
:
d'après le théorème
0
g-p,p.
*
o
:
x'
"-n2
.'_l
dx (a>o)
lndication Jf+ a
oo n2 * r-n'xz , dx: ----
^
1+x2 æ
f+ - Jg
6B
[,e-u' l*na ----------
J
l+
du
uz
n-
u g-u'
1-lna'+æ1. {u} " -----2 1+ + n
du
PH. TASSI
- S, LEGAIT
PROBABITITE, N/ËSURE, INTEGRATION
Soit
:
2
fn (u)
lorsque n donc
* -,
:
u e-u
ltnr, * *1(r)
1+
,z
--^ nz
1[nr, *_J (u)
-
0,
:
fn(u)-0 0r:
lf,
(u)l
k
ue-"
et:
Jfr- ,r-'" u, : JËdonc:
rim Jf,
n-æ
PH. TASSI
- S. LEGAIT
f, u' (u) du
:
o, o
:* (
+oo
Chapitre 3
Les variables aléatoires Ce chapitre est consacré
à l'étude des variables aléatoires définies
sur un espace probabilisé. Outre les principales caractéristiques des variables aléatoires réelles (fonction de répartition, densité, moments, etc.), le chapitre présentera res variables multidimensionnelles et traitera des liens entie variables : indépendance, conditionnement, etc. lr fera référence, autant qu,ir sera possible de le faïre, a rup_ plication statistique de la théorie des probabilités.
RAPPEL DES DEFINITIONS Nous regroupons ici res
Définition
isurtats
vus dans res chapitres précédents
:
1
@,,-4., P) et
étant respectivement un espace probabilisé et un
.(A',.,,&,1 espace probabilisable, on appelle variabte atéatoire mesurable X: (Q, ,d1 - @,,,r/,1.
tv.â.ixiout"
"ppti""tiàn
Définition 2
on appelle loi de probabirité de la v.a. X Px, définie sur (O'.
&,1,
ra probabirité image de p par X, notée
VA, € ,,4.,, px(A,) : p(X_l (A,)) : p{X€A,} Langage et notations Si (O', ,,&'l est (tR, g,) (resp. ( tïp, (resp. vecteur aléatoire de dimension p).
&pD, X est une
v.a. réeile, notée v.a.r.
o Ayant muni (rR, &) (resp. ( rïp, g,p}), de ra mesure de Lebesgue i, (resp. '10), une.,v.a.r. (resp. vecteur aréatoire) sera dite absorument continue si px<<,À io) ; on dira, de façon usueile er par abus de rangage que x est
fffi"jj
PH. TASSI
"
- S. LEGAIT
LES VARIAB
tFS ALEATOIRES
De même, si X prend ses valeurs dans tout ou partie de(2, 9(Z)l,Xest g (ZDest muni de la mesure de comptage une v.a. discrète et PX << gc quand @,
.
lJ c.
o Les lettres rondes désigneront I'espace des valeurs prises par la variable ainsi ,%
;
est X (O).
Exemple '' A partir de l,expérience consistant à lancer un dé parfaitement par le dé équilinré, on peut àétinir une v.a. discrète : la valeur du point amené (t : ti, z, s,4, 5, 6]), ou une v.a continue : la distance entre le centre de gravité : lR1)' du dé pàr rapport à unâ origine liée à un repère 'fixé (fi Remargue: Dans la pratique statistique. il est parfois difficile d'avoir des obserodiscrétiSer' AinSi les vationS d'une v.a. continue, et on Sera Souvent amené à la tranches de revenus, des démographes utilisent des classes d'âge, les économistes etc.
un Dans la Suite, et sauf mentioh expresse, les v.a. seront toutes définies sur même espace Q,,4,P\.
1
CARACTERISTIOUES DES VARIABLES ALEATOIRES REELLES (u NIDIM ENSION N ELLES) 1
,1 Fonction de réPartition partant de la définition, de la fonction de répartition d'une probabilité (cha-
pitre 1) :
Définition 3
soit X une v.a. à valeurs dans tout ou partie de (lR, fr) rce qui inclut les variables odiscrètes,).
on
la appelle fonction de répartition (f.r.) de X la fonction de répartition de
probabilité P^
:
: Px (l--, x[) F(x) :P{t';/X(.,l<xl\ F(x) : P(X < x)'
Vx € lR,
notéefréquemment
F(x)
Notation F*' Par la suite, lorsqu'on aura besoin d'identifier la f.r. cl'une v.a. X, on utilisera 12
PH.
IASS]
-S
LEGAIT
LES VAR]AB LFS ALEATOI RES
Propriétés : Elles sont identiques à celles vues au chapitre 1
:
o F est continue à gauche e F est une application croissante e lim F(x) : 1 x*+oo o lirrr F (x) : I X--oo
Remarque : Si X est une v.a. continue,
F est en plus eontinue à droite et dérivable.
1.2 Densité de probabilité Définition 4
soit X une v.a. absorument continue par rapport à,1. on sait qu,ir existe une
fonction mesurable f
déf inie sur (lR, &.,1,
Px:
f
posi,tr", teile que
:
.,À
f étant la densité de probabilité de X. Remarques
1) Par définition. une densité sera donc à valeurs sur CA er nullesurÀ, A€ 4.,sera écrite
égale à h pourx
rR+.
Toute densité f,
:
f (x)
:
h (x).
to(x)
Ainsi,parexemple,radensitéf (x) d'uneroi uniforme %ro,,r neserapasécrite:
t,^, :
1 {r1^1 : 6 f
mais
:
f (x)
si o
t (x)
^'oo*
x -<
1
sinon,
:
tto,r1(^)
2) Soit unev.a. discrète:PX <<É/" où dénombrabl"
u'
(
e g,r*11*1y
!":
Z ô",
: > xeI
pxu.rl
xdécrivant l,ensemble
,^
on retrouve donc I'anarogie avec re cas continu : ici pX - 1 . Fc où yx Ç gl:, px ({*}). En calcul del probabilités, on n'emploie pas le terme de densité -
pour f (x) mais celui de probabilité élémentaire. PH. TASSI
- S. LEGAIT
l3
LES VARIABLES ALEATOIRES
Ainsi, comme on l'a vu au chapitre 1, les cas discret et continu se traitent de la même façon : par exemple, ointégrer, consistera, pour le premier, à sommer une série, pour le second à calculer une intégrale de Riemann (dans les cas usuels), ou une intégrale généralisée comme vu au chapitre 2. Liaison entre densité et fonction de répartition
Théorème
I
fr./ muni de la mesure de Lebesgue i, X une v.a. absolument continue, de densité f i-presque partout continue, de f.r. F : alors F est dérivable À-presque partout, et : soit (lR,
lim
F(x+6; -
dx-O
F(x)
:
dx
d
d,
F(x)
:
f
(x)
Démonstration Sous les hypothèses du théorème. on a F
:
(x): {n 1,__, ",dp* : JR 1 x{f (t) d,À (t) ]- -,
: Jr- f (t)dt'
Remargues
1) Retrouver la densité f par dérivation de F ou F par intégration de de sens que pour les v.a. continues.
f n'a donc
2) Ona:
(t)dx: Cela correspond à la propriété P(O) : 1 : F(+oo) ; en effet : {n f (^tdx: PX(IR) P(Q) : Jrn f
1
:
1
Pour une v.a. discrète, de probabilité élémentaire f, on a
Z
x€9[
sf
Jf t (t) dt :
F
(b)-
f (x)
:
:
1
F (a)
PH.
TASSI S. LEGAIT
LES VARIAB LES ALEATOIRES
1
.3 Moments
, D"n: tout ce qui suit, res diverses intégrares et sommes sont écrites sous réserve d'existence, en utirisant re symbore d;intégration sans orstinguer v.a. dis_
crète ou continue.
Définition 5
on appelle moment non centré d'ordre k de ra v.a.r. X ra quantité
rr. En passant dans l'espace-image
:
PX admet une densité
JIR xk dpx
Si X est absolument continue
JtR xk i 1x; cp
:fI
^k
1,
.t
:
1x;
t1";
0,,
;
-n: :
lR, on a
:
rr,
Pour k
1x1
f par rapport à une mesure p sur
rr :
Si X est discrète
Jo xk op
:
r* : Si
:
Px (lxl)
^èuxk n'est autre que l,espérance E (X).
Définition 6 On appelle moment centré d,ordre k de la v.a.r. X la quantité
ttr.
: 1e
tX
lrr : JtR (x Pour k
:2,
-
;
E (X)lk dp
m.,)k opx (x)
le moment p2porte lenomdevariancedeX.notéeV(X)
:
V(X) :E(X-E(X))2 PH TASSI S
LEGATT
t5
LES VARIABLES ALEATOI RES
Par simple développement, on établit le résultat suivant, conRu sous le nom de théorème de KOENIG :
V(X) : E(X2) - E2(X) : mz- m| La quantité a (X)
la même unité que X.
: firc
s'appelle écart-type de X. Elle est mesurée avec
Définition 7
Onappellemomentfactorield'ordrekdelav'a'Xlaquantité:
/[r]: Etx(x-1) Propriété
(X-k + 1)l
'..
1
I'ensemble des fonctions mesurables déf inies sur (Q, .4 ' Pl à valeurs pour (X' Yl € 92' dans (lR, fr,1, intégrables. I est un espace vectoriel sur lR ;
Soit
I
ona: r E(X+Y) : E(X) + E(Y) o Va € IR E(aX) : aE(X)
et
V(aX)
:
a2 v(x)'
Ces résultats découlent directement de la linéarité de l'intégrale.
Propriété 2 : Inégalité de Bienaymé-Tchebichev'
Pllx-al > si < **,
v€ >
o, Va
€
rR
Preuve
E(X-
E(x-
al2
a\2: lA (X-a)2 dP
: I (X-a)21t1*-al
< €) dP + -l(X-a)2
En minorant la première intégrale par 0, on a
E(x-
d'où:
alz
ltl*-ul>eldP
:
2 Î(X-a)21t1*- al> eldP > ! t' ltlx-al)e1 E(x-
a\2
>
e2
dP
P{lx- al>El
corollaires.. lls varient selon le choix de a et de la v.a. considérée. a) Pour a :0, on obtient
:
P(lxl 16
>rr
.3 t' PH TASSI , S. LEGAIT
LES VARIABLES ALEATOIFES
:
b) Pour a E (X), on obtient ra formure *crassique,. déjà vue au chapitre 2, de Bienaymé-Tchebichev :
P(lx-E(x)l > 6) < v(x) E,
cette formule donne une majoration de ra probabirité pour que X prenne des valeurs hors de t'inrervaile lE (X) - €, E (X) + e[. Le principe ÀCrn" de ta démons_ tration donne une idée de la qualité de cette majoration. Par exemple. si X suit une
loi binomiale g fiOOO,+), on montre (cf. chapirre 4) que E (X) : bOO et 2 V(X):250;pourr.: b: p(lX-bOOl > 5) << tO,cedontonsedoureapriori, puisqu'une probabilité est à valeurs sur [0, I ]. Supposons que X suive une loi uniforme à valeurs sur densité f (x) : 1to, (*) ; on montre (chapitre 4) que : r1
:]
: "t L'inégalité de Bienaymé-Tchebicheu f?urnit. pou, ; :t,1_111 p(lx E(x)
,
alors qu'il est trivial que
1.4
:
v(X)
[0,
1
].
%rc, r1, d"
1
12
-11 >T) <E
P(lx-]t 2',
"1, 2
:
o
Fractiles
Définition 8 On appelle fractile d'ordre a de la loi de X {O < a que xd : sup {x,zF" (x) < a} :
PH, TASSI
.
S
<
1) le nombre réel xo tel
LES VARIABLES ALEATOIRES
Dans le cas d'une v.a.r. X continue, F* est strictement croissante et continue. et donc xo est l'unique nombre tel que :
F*(x/:a Exemple d'une v.a. discrète Soit X à valeurs dans (lN, 9l(lN))de loi de Poisson de paramètre 3 (cf. chapitre 4) : X - > I (Sl. ta lecture de la table 4 nous f ournit les valeurs de F", et donc son
graphe:
_
0,1992 0,0498 X
a:
Ainsi pourO < x ( O,5, ontrouveXo,s:
: P(X<1) : P(X:O) = 3 ; poura: 0,1992, lefractilevautl. 1
F*(x)
0,0498. Pour
Notations :
o
o o
1.5
Pour a:0,5, xa estappelémédiane;poura: O,25 (resp.0,75). xoest le premier (resp. troisième) quartile Pour a : k/10 (k entier de 1 à 9), x^ est un décile Pour s : k/lOO (k entier de 1 à gg),"xo est un centile.
Changement de variables
Théorème 2
o
g Soit X une v.a.r. absolument continue, de densité f . 1 g par rapport à À, étant un ouvert de lR" Soit g,une application g; - g (g étant un autreouvertde lR), inversi-
o
difféomorphisme). Y: po X est une v.a.r. absolument continue, de densité g par rapport à
o
ble, continÛment différentiable ainsi que son inverse (9 est un g (y)
18
:
focp-' (y).l(e-')'
1v)1
.
1
i
:
7(y) PH,
TASSI S
LEGA]T
LES VARIABLES ALEATOI RES
Exemples
a) X suit une loi exponentielle de densité
:
f (x)
e-x
1
:
,*_ (x)
On considère la v.a. y : r,&, par l,application g de lRi - lRi définie par e fu) = r,6. tr est évident que g vérifie les hypothèses du théorème 2.
u:lRi'
d'où:
g (y)
(ç-'|(v):2v
= 2y e-v, l rn; (V)
b) soit X une v.a. suivant une roi uniforme sur lo, 1 de densité [ f (x) = IIo,,,t(*). soit
p:x--xtdel0, tI
dans ]0,
différentiable, ainsi que son inverse a pour densité
1[
:
uneapprication inversibre,continûment
e-, :x *
,,,& de lO,
rIoans tô,
ii . y: i;'
:
g(y)
:
1
1ro,r1(v)
Z6-
c) ll est parfois possibre de déterminer ra roi de de la fonction de répartit'on de y, Soit X de loi normate N (0, 1) (cf. chapirre 4),
:
y:
et y
9 (X) par
= g(X) = { 2
< Y) = O Fy(y) :P(Y
P(Y
si y si
: p(-,/2y < x < \/2y) : Par dérivation, on obtient la densité
ry (y)
PH. TASSI
.
S.
de
y
Fx
(
O
y)O
tt/Wl _ Fxî\6)
:
: J' t* 6/2y y t,^. (v) .,Æ
f.Y(y) :
"
f,
re carcur direct
,n1
-IVil 6
LEGAIT
"-Y
lR.
(Y)
:
+
Y-1/2
e-
'
1,n;
(v)
79
LES VARIAB LES ALEAIOI RES
2
VECTEURS ALEATOIRES
: (A, .4, P) * (lïp, g.p) : 1àp). vecteurX(i Soit X
; on notera par X,
;"
|ème
coordonnée du
On munit lRo, 8,o7 de la mesure de Lebesgue iD ou éventuellement, dans le cas discret, de la mesure de comptage-produit.
2.1 Fonction de répartition La f.r. de X est une application de lRp dans F
(x'' ' xo)
: :';" .::_,ï'. P
2.2 Densité Si
X:
{X.,
<
x,. ..., Xp
",
.
[0, 1 ] définie par
l-,; :':,,
,
:
xp (",)
.
"o]
*o}
de probabilité
(Xr, ...,X0) est un vecteur aléatoire absolument continu par rapport
à
il existe une fonction mesurable positive f :(lRp, n'pl'1lR*, fr'*l telle que PX : f . Àr;f est la densité de probabilité de X.
À0,
Théorème 3 : Lien entre densité et fonction de répartition
: f (xr, . ...,^o) P Ainsi, dans le cas n le Pavé
D : l- -,
F {x,,
BO
xr)
x, I X
: Jlo
ôP F (x'. ..., xo)
:----:ôx, ôx, ... ôx,
: 2, la f.r. au point (xl, x2) est l'intégrale de la densité ]- -, xz[ soit
sur
:
f (u. v) du dv
PH TASSI . S. LEGAIT
LES VARIABLES ALEATOIRES
Exemple Soit (X, y)de densité f (x,
où:
: + x"A
y)
to
(x, v)
A : {(x,Vl;x 2 l,y 2 O,y (
On définit les domaines suivants
x}
:
: {(x,y) ; x ( 1 ou y < O} c: {(x,Yl; x} l,y ) x} D: {(x,yl x21,0 < y ( 1}; E: A-D B
F est
définie par
:
F (x'
o
V(x,y) €
Y)
: "lâ i
-;1
r-
-,
xlxr - -. yl
du dv
B
F(x,y) : g o Soit
(x,
y) €
D
F(x,y) o Soit (x, y)
PH.
e
: 4 # r{ out o, :
E
F(x,y)
:d'jï#our
F(x,y)
t- t - I - 2x' - 2v
IASSI - S. LEGAIT
ir-I,
ov+{'{#dur
dv
B1
LES VAFIAB LES ALEATOIFES
.
Soit (x, Y)
€
C
F(x,y)
:4
'Jï#duldv.{l{#duldv 1
-1
;
Remargues a) Jpn f (xr, .... xo) dx, ... dxo
:
1
b) si (Xr, ..., Xo) est un p-uple de variables aléatoires discrètes, sa loi est 't définie par la donnée des valeur" P,., . . ,0, P,, . ;o € JO, 1 :
P,,, ...
avec
io
:
P
[Xr
*t,r,
=
:
Xr (O)
J'i
:
*, : ^2i2, Xp :
{^1.
; i. c
2.3
ljl
r
: rl i1€11 io€lo
et:
xlp]
"rP
Moments
a) Espérance On appelle espérance de
X
:
E(x)
(Xt, ..., Xo). le vecteur
:
/
rx.r\
/'\
[ e.
\
où E (X,)
e
I
x'r/
: lO X, dP sous réserve que l'intégrale existe'
b) Covariance Définition 9 soient X et Y deux v.a.r. ; on appelle covariance entre X et Y, notée Cov (X' la quantité : B2
PH. TASSI
Y)
- S, LEGAIT
LES VARIABLES ALEATOIRES
cov(X, y)
: lo tx- E (x)lly- E (y)l dp ={*z tx_ E (x)l tv_ E (y)l 6p(x,y)
ou
Cov(X, Y)
:
E
-
{tX
E (X)1.
ty- E (y)l}
Remarque.' Dans le cas discret
Cov(X,Y)
:
(^-E(X)) (v-E(y))p[N:x ;
\^" yeU !-. xe#
Propriété : On montre aisément que
o Cov (X, Y) o V (X 1Y)
c
:
:
E
(Xy)
-
E
y:y]
:
(X)
E (y)
V (X)+ V (Y)+ 2 Cov (X, y)
a et b étant des réels quelconques Cov (aX,
:
bY): ab Cov (X, y)
Théorème 4 : (Cauchy-schwarz) X et Y étant deux v.a.r. p-intégrables
E'(xy)
<
:
E(x.).E(yr)
Démonstrafi'on : sous réserve d'existence des intégrares, pour a E(X+6Y12 2 L
E(X+6yl2
:
€ rR querconque,
E(X') +2aE(Xy)+a2 g1yz;
ne sera positif que si le discriminant de l'équation du second degré en a est négatif
ou nul
:
e2(xy)
-
E(x').E(yr) <
o
Corollaire et Y
En appliquant I'inégalité de cauchy-schwarz, non pas à X et
-
E (Y), on
trouve
y mais à x
:
cov2 1x.y)
-
E (x)
( v(x).v(y)
Définition 1O
on appelle coefficient de corrélation linéaire entre x et y la quantité
P(x'Y)
Cov (X, Y)
:
Du corollaire du théorème 4, on déduit
:
o(x).o(î :
-1
- S. LEGAIT
B3
LES VARIAB LES ALEATOIRES
c) Matrice de variances-covariances Définition 11 On appelle matrice de variances-covariances du vecteur X la matrice (p, p) de terme général a,, :
o,j I
peut donc s'écrire
[(Xi-
E (Xi)) .
(Xj-
E (Xj))]
:
r:
E
{tx- r (x)lttx-
E (x)1}
Remarque La diagonale de
I
est composée des variances V (X,), ..., V
(Xp).
Propriétés
Soient u et v deux vecteurs quelconques de lRp, X un vecteur aléatoiie'.de
dimension p; on a
:
: E(tXu) : tu.E(X) : telX;.u oV(tuX) :tuIu o I est une matrice définie positive o Cov (tuX, tvXl : tu I v o E(tuX)
Démonstrations Elles sont fort simples. Ainsi V ('iuX)
:
:
'1':,; l::1,, ,,T1îriJ;":',:'lu - e ..xu)r]
Remargue p
V(>
i:1
p
X,)
: :
i:1
v (xi) +Z
ii
I
Cov (X,, X,)
i+j
Corollaire Soit T une application linéaire de lRp dans lRq, représentée par une matrice
A (q, p) ; Y
Alors
:
AX désigne le vecteur de dimension q transformé de X par l'application.
:
E(AX)
V(AX) B4
:
:
AE(X)
AV(X)tA
: R>tn PH, TASSI
- S. LEGAIT
LFS VAFIABLES ATEATOIRES
. En particulier, puisque I est définie-positive. I-1 Jlest aussi, et on sait ou,il existe une matrice symétrique : r-1 lc sera note'f.Èj ;;;"];; Ç^telle que'c2 faisant le choix A:\-t./2, V 12-ttz : lo,et le vectew y fl.e .Il
a toutes ses composantes non
2.4
corrélées.
,"'.rlàj"irli
-
I
Changement de variables
Théorème 5
o
Soit
X:
(Xr, ....Xo) un vecteur aléatoire : (A,.4, # étant un ouvert de lRp; ^ o,
p)-
g o soit(p: g - g c Rq - g ouvertdeRq différentiable ainsi que son inverse. Arors : y : f .1
(tRp, ge.pldedensité
par rapport
aléatoire de dimension q, de densité par rapport à g (y)
:
tocp-.
(yl
lJ (p-t)l l
inversibre.continûment
eox
,Ào
est un vecteur
:
srr (vl
où J (p-1) est le jacobien de rp-t, c'est-à-dire le déterminant de la matrice des dérivées premières. Rappelons que J (rp-1) n'est autre que J-1
(rp).
Exemple Soit (X, Y) un couple de v.a. de densité
f (x,y)
ondéfinit lesv.a.
:
u : X+y et V:X-y.
L'application ç (x,
ù:
l*îxFî
(x,y)
oueileest
ra roi
À2 e-À(x+v)
(x + y, x
_i
- y) est de classe cr, ainsi que son inverse p-,: u+v u_v
e'(u,vl:( z_, 2 J
et: (p
d'où
(lRi
1/2 1/2 1/2 -1/2
(p-') :
x lR|)
:
de(U,v)Z
{(u,v)/v
|
1
2
} - u er v( u} :
D
:
PH. TASSI
g(u,v): - S. LEGAIT
1
2
^2
e-^u io(u,v)
B5
LES VABIABLES ALEATOI FFS
Remargue : Méthode de la fonction muette Soit X un vecteur aléatoire à valeurs dans (lïp, g.pl et p une application de lRp dans lRq. On pose Y : g (X). S'ii existe une application f de Rq dans lR telle que pour toute fonction muette mesurable positive h (sous réserve d'existence des intégrales)
:
Eth(p(X))l
: J_^ h(p(x)) dPx(x) :.1_^ h(y) f (y) diq lRq tRp
alors f est la densité de Y par rapport à
2.5
(y)
io.
Lois n'larginales
Soit X de dimension p. On appelle loi marginaie la loi de tout sous-vecteur (Xr, ..., Xq) (q < p) extrait de X. ll existe donc C1 : o lois marginales d'ordre 1 (correspoîoant à q : il.C: hcis marginates d'orcife z, àrc.; au total, un vecteur de dimension p permet d'eng'endrer 2p - 2lois marginales. Les plus utilisées sont les lois marginales d'ordre 1. Le calcul de la densité marginale de (X.,. ...,Xr) n'est qu'un cas particulier du
2.4, où g est une application de
lRp
dans Rq définie par
ç (Xt, ..., XJ
:
:
(X1, ..., Xq)
Théorème 6
X:
(Xr, ....Xo), alors (X.,. ..., Xo) (q < p) est un vecteur aléatoire admettant par rapport à io la densité Si f est la densité par rappoft à Ào d'un vecteur
:
g
:
(x1,...,r0)
J,*o_o f (*.,,..., xo) dxoo, ... dxo
Démonstration Soit h une fonction muette
:
J h (ç(xt,..., xo)) f (xr....,x0) dx,, ...d"0 : lRp
J,*oh (*,,,....n0)
tJ,*o-o f (xr' "" tof d*o*, "' dxoJ
dx,,
"
dxo
d'où le résultat.
Application : loi d'une somme de v.a" Soit à déterminer la loi de la v.a.
Y:
p
,1,
X,,
où
(X,,, ...,X0) sont p v.a.r.
PH TASSI - S, LEGA1T
LFS VARIAB LES ALEATOIRES
Une méthode usuelle eonsiste à définir l,application
/*'\ l\/\
l*,
\*o/
\',-'/ \v
lJ'-{l \ lAyant calculé la loi de p obtenir la loi marginale de y.
2.6
*
p : Rn
fin
\
I
(Xt,....X^),il suffit alors d,intégrer sur t t)'
lRp
-
1 pour
lndépendance
Définition 12 (),1
..., Xn) n vecteurs lj't P)et à vateurs @,.4,
(X'), 1Y,t
aléatoires où dans (lRPi, fipi).
X est défini sur un espace probabilisé
<,
:
{&p\1.,
D'après la définition 13 du chapitre
r,
res (X,)sont indépendants si
:
vAe &p,,p(xr€A1,...,Xn€A") : rl p(x, €Ai). " i=1 |
Remargue
supposons que les v.a. X1, ..., Xn soient toutes des variabres : {x,}, on obtient sous i,hypothèse d'indépenejance réeiles discrètes;
en prenant A,
:
P(Xt:"t,...,Xn:xn) :.fl
n
t-l
Théorème
.
p(Xi
:xi)
7'
X1, ..., Xn sont n vecteurs aléatoires indépendants
o
p(Xt,...,Xn)
_ ô
i:1
PH. TASSI
- S. LEGAIT
pxi
LES VARIABLES ALEATOIBES
Démonstration : On considère la classe
:
G-I,i,^'nezaef '
I
A 1(i (n
:
D'après lethéorème4du chapitre 2
gBoi
: slGl
De plus, G eststable par intersection finie. Soient X1, ..., indépendants. " Xn) ll suff it de montrer que Pfit' '
p(xr, ',*") t i-i t-
fi
A,)
:
et â
p(Xr €
:
,(x1, Réciproquement, si
nl sur G ' n
A1,..., xn€An)'
i=l
=Ë
pxi t
I
: donc
Pxi coÏncide
i:1
Xn n vecteurs aléatoires
pxi 141
i:f 'Î ...,
X6)
- â pxi
11 i:1
A,)
(théorème 1, chapitre 2)
t
, P(xl'
i:1
...'
xn)
': - Ë i:1
Pxi
ona:
vAi € glip(Xr € A1,...,xn €
An)
:
P(Xt'
: â
i:1
:
n
''xn) p*, r
(,i.,
rl
i=1
P(xi
€
o,,
A,)
:
i-1 'Î
Pxi(A,)
Ai)
'!, Théorème 8
on note par F, la f.r. de X,et est la f.r. (resp. densité)dè
Ral-1, la densité de (X;, ...
X:
Xn)
X,....Xn sontindépendants <+ F(xr,...,^n)
BB
X,lorsqu'elle existe;
F
(resp. f)
n
:1!.,
F'(",)
PH, TASSI
- S, LEGAIT
LES VARiABLES ALEATOI RES
ll est clair que [imprication + est une conséquence de ra " définition en A l'intervaile ou re pavé ouvert étémentaiàJ" rnor"
nant pour
l- -.^,,
[x
...
x] - *,
pre_
*0,[
On admettra la réciproque.
Théorème 9 Si les v a. (X'), i : 1 à n, sont continues par rapport aux mesures de Lebesgue
io,' on a
a)f
désignant la densité de X. par rapport à io
X1, ...,
b)
:
Xn indépendants
o f (x.,, ...,
"n)
:
=à f
(x,, .,., xn)
: ti f,(x,). i:1 r'r'
n
,1.,
s,{^,)
+
X1, ..., Xn sont indépendants et
o g densité de probabilité
pXi
(i :1àn)
:
q..,À P;
Remargues
a) Ceci n'est bien sûr réalisé que si les densités f sont définies sur tout lRpi. Ainsi, pour des v.a.r. X et Y, la densité f (x, y) : (x+y) 2 e-' 1,.. \^r n,est oas séparable, c'est-à-dire ne peut être mise sous ra forme d'un
orotJ;'iii^I ;iri;;
les v.a. X et Y ne sont pas indépendantes.
b) La densité d'un n-upre (x., ..., X-) de v.a.r. indépendantes n'est donc que re produit des densités des v.a.r. x.' Le caÊur de ra roi oe'ta somme de v.a.r. est arors
simplifié.
Exemple Montrons que si X et y sont deux v.a.r. indépendantes suivant res rois gamma y (p,0) eT y @, d)de densités respectives (cf. chapitre 4) :
(x)
:
fy(v)
:
f.,.
^
alors X+ Y suit une loi y PH TASSI
-S
TEGAIT
b
+ q, 0)
p-' op 1 (x) _ -. ,H;''' l-(p) e-d* x 1
+
e-ov
yq-'dq I,n-
(y)
LES VARIABLES ALEATOI RES
Démonstration
f
11'
Y;(x' v)
:
1
e -d(x+y)
r (p) r
(,j
:
d'où
1r,r,
yy(u,
v)
:
(x, y)
:
1
r (r) r
1Ri x Ri
(u: *-r)
On en déduit la loi du couPle (U, V)
f
UO-1 ?P+q
/tt : x \
/x\
Soit T
1n-1
(q)
"-vd
(q)
uP-l
(v
- Ll;o-t eP+q 1{v)u)o}
:
: là t,r,v1 (u, v) du, Vv )
fu(v)
e-ve |p+q
{
r(p).r(q) Posons
I:
uo-t
o
-
(v
u/v'. fu (v)
: :
dp+q vp+q-1
Jl ,o-t (1 - tlc-r 6,
"-v0
rtp).r(q) B (p,
q)
r (p) r
où: B (p,
e-vavp+q-1
(q)
dp+q
: 1[ tn-t (1 - t1o- t6,
q)
Or:
B(p,q) d'où
u)a-1 6u
: I*f#
:
fv (v)
:
1
|-
,,
_
d
"-dv
uP+Q-1 ap+qlR* (v)
Théorème 1O Soient n v.a.r. (Xr, ..., Xn) indéPendantes, définies sur (O,
Alors:
E
90
(Xr,...,Xn)
:
n
,!,,
,
'4,
gl, intégrables'
{*,t
PH. TASSI
- S. LEGAIT
LES VARIABLES ALEATOI BFS
Démonstration
(n:
2)
E(X1 X2)
: JX'Xrdp : -f-i xr x, f ,, (x,,) f, (xr) dx., dx, : J xr f ., (x.,)dx., . I xzf zgr) dx.: E(X1).E(X2)
Corollaire I
r
Soient X et Y deux v.a.r. indépendantes
:
(X, Y1
;
g;.
alors Cov (X, y)
:
O (et donc
Remargue La réciproque est fausse en général. Ainsi, soit X une v.a.. discrète de loi
px{-Z} : px{- 1} : px{1} : Y:
donc:
X2 suit la toi pY{1}
E(X)
:0
E(XY)
E(XY)
-
:
:
px
pY
{4}
:
:
O
E(X3)
E(X) E(Y)
{2}
:
:
1/+
1/Z
:0
Or X et Y ne sont manifestement pas indépendantes.
Corollaire 2
. Soient n v.a.r (Xr, ...,Xn) indépendanres, définies sur (e, .4, p), intégrables; alors: V (X., + ... + Xn)
n
: .I.
V (X,)
Corollaire 3
si X : (Xr, ..., X/ est composé de p v.a.r. indépendantes, ra matrice de variancescovariances de X est diagonale.
2.7 1
Lois conditionnelles
Présentation
Nous allons adopter une présentation simple et intuitive en reprenant la définition d'une probabilité conditionnelle (cf. chapitre 1). Nous considérerons successivement le cas de deux variables discrètes puis de deux variables continues. puis PH. TASSI
- S. LEGAIT
91
LES VARIABLES ALEATOIRES
nous présenterons une formalisation plus théorique d'une loi conditionnelle, qui pourra être omise en première lecture.
soit un couple de v.a.r. (X, Y). Le principe est de connaître. la loi de Y sachant : x' qu'rnl-re"tisation de la v.a. i a fourni ie résuttat x, dite loi conditionnelle YIX
a)
Cas de deux v.a. discrètes
suppose que la loi du couple (X, Y) est connue. D',après la définition du chapitre 1. on a :
on
P[X:x et Y:y]
P[{Y:y}l{X:x}]: ----.-P [X: x] La variable
YIX:
x est donc une v.a. discrète dont la loi est parfaitement connue'
Application aux tableaux statistiques Soient X et Y deux variables statistiques discrètes prenant les valeurs {x.', "', xn} pour X et {Yr. ..., Yo} pour Y. Observant sur une population Q de N individus les valeurs prises par les deux variables, on peut constituer le tableau de contingence suivant, qui donne la Structure de la population selon les deux critères X et Y :
vj
Total
X.
n..
n.
I
U
X
l.
N
n.j
Total
On note : n,, le nombre d'individus tel que X prend la valeur x,, Y la valeur Y, :
*:
nppn
'],
jIr
n'i;ni
:
jIt
n'iini
ilt
n'i
PH TASS1 S, LEGA1T
LES VARIAB LFS ALFATOIRES
quantités
tuOt"jult
{n.,
1
( i( n} er {n , I < j<
La loi du couple (X, Y) est connue puisque
P{X:*i,y:yj} :
pij
:
p} consrituent tes marges du
lon sait carcurer res probabirités
,t < i < n, I ( j < p)
*
Les lois marginales de X et y sont déterminées de la façon suivante
V1 < i( n, p(x:*i) = Fi.:,Ë. 0,, :.9. j:l
''
v1 <
j(
:
p, P(Y:yj)
pj
:,!., P
p(y:y,lX:x,):
P (Y
:yjlX:
x,)
:
Cette expression n'a de sens que si p (X : x,) On trouverait de même
:
0,,
p(X:"i,y:yj)
j:1
:,!., ,(*:^i,y:yj)
(Y: v.. ')' X : P (X: x,)
P'i :
Pi #
:
x.)(
n'j ni.
O.
:
P(X:xlY:y,) : '
P'j :
n'j
P.j
n.j
(p,+O) l
Remargue.' Si les variables X et y sont indépendantes, alors
P[X
:
:x. Y:y] : P[X:x]. P[Y:y]
et;
P[Y:yl X:x]: La probabilité de l'événemenr l'événement {X: x}. PH. TASSI
- S.
LEGAIT
{y
PIY:yl
: y} ne dépend pas de la réalisation
de
93
LES VARIABLES ALEATOI FES
Exemple numérigue (E)
2
3
4
n.
9
21
35
31
96
18
3
8
10
39
22
31
9
3
65
49
55
52
44
I
I
L
X
1
2
3
n
On a, par exemple, la loi marginale de X
N
:200
:
P(X:1) :0,48, P(X:21 : 0,195, P(X:3) :0,32S La loi marginale de
XIY:
1 est
9 P(X:1lY:1) : ;;, On remarque aussi P
18 P(X:2lY:1) : -t-_ ,, (X:3lY:1]l:
22
49
:
(X: 3, Y: 2l :
Les événements
:
31 2OO+
P
(X:
3) . P lY
:2) : 65 -2OO
55 -2OO
{Y: 2} et {X: 3} sont donc dépendants.
Réflexions sur l'indépendance En analyse statistique. au vu d'un tableau répartissant une population Q de taille N selon les variables X et Y, on se pose souvent la question de savoir si ces critères sont indépendants ou non. PH TASS]-S LEGAT
LES VARIABLES ALEATOI RES
A côté du tableau. observé, o, à n rignes et p coronnes, que [on peut assimirer à une matrice (n. p) d'élément courant-n 1o, p,, : n,,./N si on travaille en fré_ quence), on constitue le tableau théoriquàl T qu"''l,on onli"noruit sous lhypothèse d'indépendance, d'élément courant :
nll
:
ou:
Pi.
F.j
n. n. : -fi
pij : pi pj
Si X et Y sont indépendantes, res tabreaux T et o seront identiques. En pratique, les deux tableaux ne seront jamais égaux, et on utilisera un critère d,écart ô (T, o) entre le tableau théorique ét le tableau observé. on peut penser. par
ple, à
exem_
:
ô(T.Q) : ou bien
np j:l
i:l
:
ô(T,Q; :
np : j:1 i :1
n1. U
ce dernier indicateur a en prus ra propriété d'avoir une roi rimite connue fixe lorsque [\ * oo, la loi du khi-deux (cf. chapitre 4).
b)
et
Cas de deux variables continues
Soit (X, Y) un couple de v.a. continues, de densité f (x, y) par rapport à la mesure de Lebesgue ÀreT soir f, ra densité (marginare) oe x.'Là roi J"ïix: admet pour densité ^ :
f (ylx)
lntuitivement, on écrit
:
f (x'
Y)
f* (x)
:
f (ylx)
: |;n'r f (ylx (
X
dx*0
< x+dx)
Or: F(yl
x(X<x+dx) :
P{Y
P{x(X<x+dx} Ft*,
1(^
+ dx, y)
-
F1x,
F" (x + dx) - F" PH TASSI . S. LFGAIT
y1(r. v)
(x)
LES VABIAB LES ALEATOI
a
f
(ylx) :
lim
ôv
Fr*,y(* + dx,
lim
dx-O
y)- #
F* (x + dx)
dx*O
:
RE S
àâ u, l^
-
F(x.ï (x, y)
F* (x)
fx,l
F(x'Y) dxl
F" (x + dx)
-
f*
F" (x)
(", y) (x)
Remarque l'ensemble des valeurs possibles pour le couple lX,Yl, '//xla section par x, valeur fixée de X :
Si on note
de
T
7/
I
x
f" (x) I
:
lr^1
(x, v\ dy et f
(ylx)
:
f (x, v)
lr^t
(x,vl av
I
96
I
L-
PH TASSI - S. LEGAIT
LES VAFIABTES ALEATOIRES
Formule de Bayes: en écrivantf (x,
f(ylx) :--
f
(x
y):f
fu(v) f* (x)
(ylx).
f"(x)
y)
I
--l--:
f
îy
(x
: I
f (xly).f"(y), on a:
y)
fu (v)
f (xly')
f, (v)dv
Remargue
ll est clair que les résultats énoncés pour des v.a.r. (pour faciliter l'écriture) sont généralisables à un vecteur (X, y) de lRpx lRq:dans ie cas continu, on aura
par exemple
2 Définition
:
générale d'une loi conditionnelle
Définition 13 On considère un c_ouple de v.a.r. (X, y) : @,,rd,p) - (lRr, fr.21. Onnels p(x,y) la loi de (X, Y) et px la loi de X; supposons qu,il existe une application :
P];Ox,t(-tO,il telle que
:
o Vr^r € O, Pt (ar, .)est une probabitiré sur (O,,dl . VA € .4,rL (.. A)est une appticarion mesurable définie sur (e,.dy o p(X€A1' y€A2) : p(x,v) 1A1 xA2) : _r^ pLg,A2l dpx(x). Ators on note pl (x, Ar) : pY/x: * tnr) Lt pytv -x esr appetée conditionnelle de y sachant X: x.
loi
Application
I
Lorsque X et Y sont discrètes, en considérant les événements
Ar:
{v}, on retrouve
P{X:x; t:
yJ
Jo.,
"o,f PH TASS] S. LEGAIT
:
{x} et
: 7Y/x:x{Y:y}. P{X:x} : P(Y:yl X:x) P(X:x)
o Lorsque X et Y sont continues, on peut écrire
P[x € A,;Y€A2]:
A,,
;
:
(x.y)dxou:JAr ,tort(x,y)dyl
dx
91
LES VARIAB
Or:
Ptx €A1
;Y
L
:
f(x,y)dyl "|". A1t"i^ A2
et ce quel que soit A1q-
A,
""1"^
f (x,
y) dy -
x:
PYI
t"'x-*
Jo, ,",x
=
*
(Az)
f"
(x) dx
(Ar)f*(x)dx
At
(cf. propriéIé 25.3, chapitre 2)
2' f*^'(x)," À presque partout
" (Az)
YIX:
(Az) oPx(x)
dx:,1^ pYlx:*
,tq on en déduit
par'rapport à .À de la loi de
3 Espérance
ALEATOIRTS
to1
=or,
I d'où
tS
donc
:
if {xtYl f*(x)
:
esr ta densité
x.
conditionnelle
Soit le couple de v.a.r. (X, Y). de loi P ; on notera Px et PY les lois marginales de X et Y, pYlx et PxlY les lois conditionnelles de YIX : x et XIY : y.
Définition 14
Si l'express'on J,* y dPYlx existe, on l'appelle espérance conditionnelle de Y sachant
X:
x. On la note E (YlX: x).
Exemples a) Lorsque X et Y sont discrètes
E(Ylx:"i)
: iË,,
:
,, P(Y:v,lX:"J
:ï
I
u, 0,,
b) Si Yl X : x est une v.a. continue de densité f (ylx)
E(YlX-x) Remarque;
E (YlX
:
:+
]
u,
n,,
:
: Jyf (ylx)dy
x) est une fonction de x.
Théorème 11 Si
g est une application de lR2 dans
grales, on a
98
lR et sous réserve d'existence des inté-
:
PH'
TASSI S'
LEGAIT
LES VARIABLES ALEAIOI RES
: -i I I ç (x, y) opvlx = " (y)l oex 1x; E (p (x, Y)) : (p (x, y)l x : x) dpx (x) "[ Ê
E
(ç (x, y))
On note de façon mnémotechnique E
(p (X,
Y))
:
:
Ex E (p (X, y)lX)
En particulier. E {y) : E* E(yjX), ce qui permet de calculer E (y) en passant par un conditionnement bien choisi, puisque X dépend de rutirisateur.
Application au tableau statistique précédent (E) : Le calcul direct donne
:
1 :rOO E(Y) @9 + Zx 55 + 3- x 52 + 4x 44): Utilisons la formule de décomposition
E(Y)
E(YlX:t; :;t,t -" de même, 1
1
IOO
:
EX E(YIX)
: JP 96
:#.
E(ylx:3)
(96 E(YlX: t)+39 E(yl
: -l:- (2go + gg + 1._-, 231 : 200 1
à
x9+2 x21 +3x3s+4x31y
E(ylx = 2) E(Y)=
:
4g1
:#
X:2)+6s E(ylX:3))
491
200
On retrouve, bien sûr, le même résultat ; notons cependant que nous avons obtenu les moyennes partieiles tà"-u"reurs de X, ce qui peut fournir une information intéressante. Par exempre, "eton si v est te sataiie o ïrn" nomencrature d'activité socio-professionnete, on à ié saraire ,"t;;;;r;roi"rrron, qui permer des analyses et des comparaisons plus approfonOies.
Définition 1S
on appelre courbe de régression de la v.a.r. y en la v.a.r. X ra courbe {(x, PF TASSI-S
LÊcAlI
:
fl: Y: E (YlX: x)l uo
L
4
ES VARIABLFS ALEATOIFES
Formule de la variance
X et Y étant deux v.a.r. définies sur (Q, *41, soit à calculer V (Y) ; P désignant la loi du couPle on a :
v
(Y)
=
:
-
E (Y))2 dP (x. v)
J,u t J,* (v
- E (ï)2 dpYlx (y)l oPx
1x1
y- E (Y): y- E (YlX1+ E (YlX)- E (Y)
Or: ll s'ensuit
I
"1"(v
:
ly- E(ï)2:(y,l-(v
-
E
(YlX))2+(E(Ylx)(y)
E (Y))2 opYlx
E
(Yll2+2(v-
E
:
-i (v - E (YlX))2 oRYlx
+
-[ (E (Y I x)
+
2
!
(y
-
E
-
E
(ï)2
(Ylx))
(YlX) (E(YlX)- E(Y))
1t1
dPY
lx (y)
(Ylx)
(E
-
E (Y)) deYlx 1u;
Comme E (YlX) est une fonction de x, cette dernière intégrale est nulle après E (Y I X) - E {Y) qui est indépendant de y. D'où :
factorisation de
.'-0 'v0
:-f
t-i (v -
v (Y) : soit
-t
E (Y I x))2
v (Ylx)
:
v
(Y)
cpvlx (y)l dPx (x) + .f (E
dPx (x)
:
+
-[ (E
(Ylx)
-
(Y
Ex (E
I
X)
-
E (Y))2 dex 1x;
(Yln))2 dPx 1x1
Extv (Ylx)l + vx tE (Ylx)l
Lorsque X et Y sont discrètes, on dit que I'on décompose la variance de Y selon les strates {X: x,}. Pour chaque strate, on note :
Vi
o'i : On a, de Plus
V
1P
,t., ^ J:l ni.
n'j Y'j
tP i. n,, (V;1* 1)2 (YlX: x,) : j j:1 . n,. ''
:
E(Y)
1oo
: E(YlX: *i) : '
:V:*,r,,1np1!
,:,,
n'i u,, :
,:1n'.v, PH TASSI -
s
LEGAIT
LES VARIABLES ALEATOIRES
La formule de la variance donne
v(Y)
: -=lnln N
(Y) :
V
:
:
I
i:1
N i:t ''
r
"i
variance ointra-strates> + variance moyenne des variances + variance des moyennes
Application au tableau statistique précédent (E)
.
o1
:
V(YIX:
1)
: ;:1 (1 ..^ X9+ 4x21 +9X35+ 16X31)- (:28A2 Yo 96 )
De même
:
o'r: v(ylx : ,l :#, La formule de décomposition donne
\_/lV\
-_
1
o3: V(ylx
- 3) : #
:
1 I. 8 384 ! 2474 r 2746\r 1 rr_ 200 96 39 65 ' 200 ' 7
774 39
l-t
--
^__. 491 "
'
129 65
15 T
zoo '
1
44t
_-
2oo -(
491 200
,
- S. LEGAIT
vtE(Ylx)l \//v\ V (Y)
96
2
491 ' : ql 11g :1'18 zoo ) 4oooo
On appelle rapport de corrélation cje y en X la quantité
'tY x
78400
,
Définition 16
PH. TASSi
8384 9 2i2
:
LES VAÊIABLES ALFATOIFES
Remargues:
a) Ce coefficient n'a pas de liaison avec le coefficient de corrélation linéaire p (x,
Y).
b) Ona:
e<
nï*<
1
c) Si Y et X sont indépendants, la loi conditionnelle de YIX est identique à la loi de Y, et E (YlX) : E (Y), et donc : vtE (YlX)l : VIE (Y)l est la variance d'une
constante;
X
4ï":
102
X
o
PH. TASSI
- S, LEGAIT
EXERCICES 3'1
Soit X une variable aléatoire réelle absolument continue de densité croissante. Ouelle est la loi de F (X)
f
et de f.r. F
strictement
?
lndication P
tF (x)
< yl :
v donc ta densité de F (X) est fr1x1 (v)
3'2 soit X une v.a.r. absolument
continue de densité
:
rlo,
r1
(y) (roi uniforme sur
f* et de f.r. Fr. soit y
Y:X si X)x Y:x-UO siX(x
la v.a. définie par:
0
Donner la loi de Y. Calculer E (y).
lndication
Y: X l{*:'ro} + xo'lfr=xo1;donc Y: 0n dit que Y possède une masse de Dirac au point +oo
E(Y)
3.3
:
x
{(
Soient X, Y, Z trois v.a. réelles,rttrroqu,
o
X suit une loi uniforme surl0,
l[,
sup (X,
xo.
(x) dx
+ xoP{X(xol
de densité
:
:
lto.
r1
(r)
: x fixé admet pour densité fvlx:, (y) : (y-x)e-(v-*) 11x,+_1 (y) o la loi conditionnelle de Z pour (X, y) : (x, y) fixé admet pour densiré : (y - x) e- z (v -') 1,*- {z) Fzlrx, vt= 1r. r1 (z) la loi conditionnelle de y pour
X
:
:
1)
Calculer la densité du tripler
2)
calculer la densité de Z et celle de la loi conditionnelle de (X, y) sachant Z
3)
Calculer
lX,y,Zl.
:
E(VY-XlZ:zl er rlv{-xt PH.
TASSI S. TEGAIT
xo)
,
f (x)
r
f,
[0,
:
z.
r ]).
LE S
0n donne
VARIAB LES ALEATOI RES
:
1+æ : r(7) 4) 0n pose
u:
Y
-
X et
1
Jo
V:
Z (Y
tJ t e- udu : Vn
-
X). Montrer que les trois variables X, U, V
mutuellement indépendantes et exprimer les densités de U et de
sont
V.
lndications
1)
f1y,v1{x,v):(Y-x) s-(v-x)10(x,v) frx,v,z)
2l
(''
Y'zl: (y-x)' s-(v-x)
frQl: ii rl-- (t,-')t f (z)
f(x,vtlz=,
3) E
{1+z)
1ot,r*
g-(v-x)(t*') dt,l d'
:
i..1,^*(z) (v-x) (1*4 1o (x' (x, vI : z)t (t, - xl" ev) f, t'+ 1-
(/t- xlZ:zl: i I I ot/ r^ tt+ i)3 (v - *)' (y-xl {z*lldxdv' {" t- J V7r _-,4 E1 1Æ-T1 : EztE/T-l 7ll : Ez (* u
\/z+
144
(x'y'z)
15 ,[" '' -16 Vz+1
1
PH
TASSI S.
LEGAIT
LES VARIABLES ALFATOIFES
4)
Changement de variables
A $,v,2) :
:
(y
-x, z(y-x),x):{u,v,w) J(p-t) : 1U
La densité de
(y
-
X, Z (y
-
X), X) esr
g(u,v,w)
:
: u2e-'-u I 1^ U.
où:
A:
} 0;v } 0 et 0 <w<1} g(u,v,w) : ue ,llo,*_1 (ule-u llo,**1(v) 110,'|1wy {(u,v,w)/u
d'où l'indépendance de U, V et fu (u)
3'4 Soit X une v.a.
:
u e-'1
W:
X et:
,0, * _1
(u), fv (v)
(x):
1) 0n pose Y
: ,-n t,o, * _1 (v)
réelle continue représentant la mesure d'un phénomène physique dans une unité
donnée. 0n donne sa densité g e- À*, réalité [X], où [.] désigne la parrie enrièrc de X.
2)
(u,v,w)
:
^
x)
0,,À
)
0. 0r ra donnée observée est
en
Donner ra roi de y, son espérance et sa variance.
Ix].
Oue dire lorsque ra donnée observée est, cette fois, r'entier re prus proche ?
lndication 1
)
Y est une v.a. discrète où
Vne
IN
:
P{Y:n} : p{n(X(n+1}: E(Y)
: i nP{Y:n}:Je'' n:0 -
v (Y)
2) Pourtxl observe
g(r)dx:e-na11 -s-a1 d*1 n
:
I
,À
('l _ 1r
<X<[X]+0,b, onobserveZ:[X], er pourtXl+O,S<X<[X]+ t, +
Z:
[X]
t
P(Z:0):1-e 7^ n*0, P(Z: n): P(n-0,5(X
À 2
E(Z):2sh-. -PH.IASS] S
LEGAIT
e-^
(1
-e-
ÀY
u-a
I
on
LES VARIAB LES ALEATOIRES
3.5
f et g et de f.r. respectives
Soient X et Y, deux v.a. indépendantes de densilés respectives lnf (X, Y). Sup (X, Y) et Donner les densités de U
:
V:
F et
G.
0énéralisation Soient X,,,
...,Xn n v.a. indépendantes, de même loi, de densité:
f (x)= t,o.,,
Un:
Ecrire les densités de
(x).
X, et U, :
l:ltn
*,
'='Én
lndication
Fu(u):P(U(u): P(X(u et Y
F(u).G(u)
:
fu(u):f De même
(u) G
(u)
+
F (u) g (u)
:
: I -P(V2ul : 1 -P(XlvetY2ul : I -(1 -F(v)) (l -G(v)) fv(v): f(v)(1-G(v))+s(v) (1-F(v)) d'où: Fv(v)
0n en déduit
:
Fun(u) est la f.r. des X,. Donc
:
Fn(u) où F (u)
:
u
1to,,l(u)* 1lr,*-1(u)
:
Fun
(u)
:
un
I
10. rJ
(u)
+
1
lr, *
-t
et:
flr (u)
:
n
un- 1 1lo,,t
(r)
De même: Fvn
(u)
:
(1
- (l -
uln) I
to, ,1
(u)
+ 1,', * -1
(u)
et: fvn(u)
106
:
n (1
-
uln-1 1,0,,,
{u)
PH. TASSI
- S. LEGAIT
Chapitre 4
Les lois de probabilité usuelles La pratique des probabilités dans la modélisation statistique passe très souvent par une parfaite connaissance des lois usuelles ; le probabiliste-statisticien a en effet besoin :
-
d'identifier la ou les lois de probabilité des variables engendrant les don_
nées observées
* de connaître et interpréter leurs caractéristiques fondamentales (espérance, écart-type , médiane, etc.) en fonction des paramètres qui interviennent dans l,expression des densités ou des fonctions de répartition - de pouvoir approximer ces lois par des comportements asymptotiques limites apparaissant dans un certain nombre de situations. ce chapitre répond à querques-uns de ces objectifs. La partie asymptotique sera vue ultérieurement au chapitre 7, car elle néceisite des outits mathématiques suppiémenta ires.
LES LOIS DISCRETES On rappelle qu'une v.a. est dite discrète si elle prend ses valeurs sur un ensemble fini ou dénombrable de points. par extension, la loi de probabilité d'une v.a. discrète sera dite également discrète.
1.1
La loi de Dirac
Définition
1
soit a e R, un point fixé. on appeile roi de Dirac au point a ra probabirité définie sur lR par
ôa
:
: ôu(x) :0 ôu(x)
1
SI
X:A
si
x*a
La loi de Dirac est la plus simple probabilité existante, associée à un phénomène déterministe X dont le résuitat de toute expérience est a. C'est, par exemple, PH,
TASSI S. LEGAIT
141
LES LOIS DF PROBABIL]TE USUELLES
à la pétanque, la loi de probabilité de la variable X mesurant la distance entre une bouie visée et le point d'impact de la bouie tirée, lorsque le tireur ne fait que des : X suit une loi ô-.
Application Soient n réels distincts fixés (a',. ..., an)et n réels (pr, ..., pn)tels que
:
n
O
1
àn, et.t.
O,:
l:l
t
On sait. d'après le chapitre 2, que la combinaison linéaire
:
n
o' ô', ,f ', est une probabilité P associée à une v.a. discrète prenant ses valeurs sur {ar, an], et telle que
'..,
:
P
Si p, :
1
'n -,
(X:
a,)
:
p;
pour tout i. la loi de X est dite uniforme.
Moments E(X)
1.2
: a,
V(X1
:9
Lci indicatrice (ou loi de Bernoulli)
Définition 2 On appelle variable indicatrice X la variable à valeurs dans {0,
tx1t1:
1
} telle que
:
o
Px{o}: q(q:1-P) (p € t0, 1l) On note :Â 11,p) la loi de la variableX et on I'appelle loi indicatrice ou loi de Bernoulli de paramètre p. Par extension, la loi de Bernoulli est la loi du résultat d'une expérience ne pouvant prendre que deux résultats possibles {a, b} quantita-
tifs ou qualitatifs:une porte est ouverte ou fermée, une lumière allumée ou éteinte, etc.
Moments
E(X):p 108
V(X):pq PH' TASSI - S. LEGA]T
L[S LOIS DE PROBABILITE
1.3
USUELLES
Loi de Foisson
Définition 3 La v.a. X suit une roi de poisson de paramètre À (À
Vx On nore
€ lN px1x1 - s-a
i
o :
o) si
rN
er:
^x
x!
:X -) .4 (^1.
comme nous re verrons dans re chapitre consacré aux processus, ra roi de Poisson apparaît, sous certaines hypothèses, dans les phénoÀènes de comptagà d'événements pouvant survenir Bendant une unité de temps donnée: nombre de voitures passant devant un observateur, nombre d'entrées ou de sorties d'une salle d'attente, etc.
Moments
E(x)
À'.' :À î : i r"-^1:^ î - yi x! x:0 x:1 "-o(x_1)! " yIO "-olr E(X)
:2
Plus généralement, carcurons re moment factorier d'ordre k
/rr.l:
E (X (X
-
1)
:
". (X - k + 1))
: ; x(x-1)...(x-k*1)e-^ i x:0 xl æ :X k ik ; e-À À ' : (x-k) ! x:k /1L1
D'où
:
,1
oo
Àn
U:O
-
yl
k
:
et donc
Ft2t: E(X(X-1)) : E(Xt)-E(X1:22 E(X2l : ^2+À v (X): 2
:
ll convient de remarquer que la loi de Poisson est la seule loi discrète à avoir l'espérance égale à la variance, quelle que soit la valeur de,À. La table 4 donne les valeurs des probabilités d'une loi de poisson. PH,TASS]
-S
LEGAIT
109
LFS LOIS DE PROBABIL]TE USUELLES
1.4 Loi binomiale On considère n tirages équiprobables, indépendants dans une population
composée de deux types d'éléments, le premier (l) en proportion p, le second (ll) en proportion q : 1 - p. Soit X le nombre d'éléments du premier type présents dans l'échantillon de taille n ainsi obtenu ; X est une variable aléatoire à valeurs dans {0, 1, ., n}. La loi de X est appelée loi binomiale de paramètres n et p, et est notée !4 (n, pl. Supposons qu'à l'individu no i de l'échantillon (i : 1 à n) on associe la v.a. Y' qui prend la valeur 1 si le ième individu est du type l. et 0 sinon :
:1) P(Y, :O)
i€(l) i€(ll)
si si
P(Y,
Alors, il est évident que le nombre X d'individus du type (l) dans l'échantillon vérif ie
X_:
:
n
i:1
Yi
Comme Yi -) gJ (1, p), on peut écrire que la loi binomiale somme de n lois de Bernoulli indépendantes. ll s'ensuit
!/J
(n. p) est la
:
E(X) soit
: : i:f
:
E(X)
E(Y')' V(X)
:np,
V(X)
: :
i:1
V(Y')
:np(1 -p)
Une définition explicite de la loi JJ (n,pl est la suivante:
Définition 4 Une v.a. X suit une loi binomiale de paramètres n et p si Px 1x1
:
:
Cx p" (1 - p)n-x pour x e {0, 1, ..., n}'
La table 3 est consacrée aux probabilités élémentaires d'une loi binomiale.
1
.5 Loi multinomiale
ll s'agit d'une généralisation de la loi binomiale. Considérons une population composée d'éléments de m types, chaque type j en proportion :
pi,
110
m
1(j(m, Pi)0, t. o,:1 j:1 l
PH, TASSI
- S. LEGAiT
LES LOIS DE PROBABILITE USUELLES .
On tire, dans cette population, de façon équiprobable et indépendante, un échantitton de taite n, et on définit ra varia'bre arà"ioii"ï, iik-ïi,;;;;;; tr dg,ns {9, 1,...., n }, représentanr re nombre J'étéments oé tvpJ i iigrr"n, dans r,échan_ tillon' on dit que re ve*eur(N,, ,.,,')suir une roi murtinom,rî,É'i" pr, ..., p,n, notée .t/ (n, pr. ..j, :..,^f nn.t. nrr3'"rticitemenr, on a
oiil;!il'Jl,
;
Définition 5 Le vecteur aréatoire
1=
(Nt, .... N.n) suit une roi murtinomiare de paramètres m
n,pr pr;pj >0, V j=1,...,r,,In
pj
:1
J-l
si:
nl
n)=
Px(n.,.... tm,
n.!...n tm
m
ou:
m
:n,
j:1
oft... on'
!
j:1
)
t
n! n' | ... n.! est le nombre de (n.,. nr. ...,
nr)
-
partages d'un ensemble de n éléments, avec: m
iIr
îi :D
Propriété 1 : La loi marginale de N est une loi gB h, p). En effet, un érément tiré est soit du type (avec probabirité ra p,), soit non i pi) ; te nombre totar d'éréments du iype j aans r,échantiron;;l; jdil;;;'i;; !1 binomiale 4 h, p;). Retrouvon. par re carcur. vvr(rsr soit r,événement t A. défini
""ie*rili
paf :
R,
:
[(n,,, .... nj_.,,nj*.,, ..., n.,n), p (N,
:
I
,ij
;r
il*un
J
n.
jr(1
-
n
Pi)
nr
PH, TASSI
- S. LEGAIT
"*t
(n
-n.J>
n,]
-
n,)!
A; nr l...nj-r ln,*.1 !...n,,nl
Pr' ...p (1
: tr: n -
nfr o-."
n,)
A.
nl
Di
n,,"
ill p.'
- pj)n-nj
n
:
LES LOIS DE PROBABILITE USUELLES
ll s'ensuit
:
P
{Nj: n,): cll eli
1t
-
pj)n
-
nj
Conséquence
E(Nj)
: nFj
(Ni)
: npi(l -pi)
lntuitivement, il n'y a aucune raison pour que les v.a. N, et N, (i + U soient non corrélées, a fortiori indépendantes; calculons Cov (Ni, Nl). Comme auparavant,
(N, N1) suit une loi multinomiale de dimension 3 (une l'oi .trinomials") puisqu'un élément tiré est soit de type j (pj), soit de type I (p,,), soit non (1 - pr - pi) :
(N, Nr)
E
(NjNr)
"U,
(n : pl
p/
n!
:
(ni- )!(nr- 1)!(n - n,- nr) :n(n-1)pipr
(nj, nrl
nj+nt(n d'où
->
:
Cov (N,,
N/: -
La loi multinomiale en statistique
!
4, oi, t''
- pi- pr)n-nj-nr
n Fj p,
:
Soit Y une v.a.r. continue, I son espace de valeurs. (f (y) sa densité, (Yr, ...,Yn) un échantillon de n observations de Y. ll est très fréquent (tranches de i"ù"nr, ti"âncnes d'âge)de partitionner U enclasses.C,, i : 1 à K :
g - :K
i:1
C..r' la classe C. déterminée par C, I
:
[e _,,, e,[
r (v)
112
PH. TASSI
.
S. LEGAIT
LES LOIS DE PROBABILITE USUETLFS
on définit les K v.a. dans
Ni.i:
K, où N, dénombre
1à
C,.
Le vecteur (Nr. .... N*) suit une loi multinomiale
o,: Jj,,_., 1
.6
'b
res points de (y.,, ....yn)
1n
) pt, ..., F*) avec
:
f (v)dv
Loi hypergéométrique
on considère un tirage équiprobable sans remise de n éléments dans une population de taille N (n ( N) ;on s'intéresse à un type donné (l)d'éléments de la population, que I'on supposera être en proportion p (Np est donc entier). soit X le nombre d'éléments du type étudié, présents dans l'échantillon de taille n obtenu. La loi de X est appelée loi hypergéométrique de paramètres N, n, p, et est notéeJf,(N, n, pl. Une définition explicite de la loi J(1N, n, p)est la suivante, à partir du dénombrement "cas favorables./cas possibles, :
Définition 6 X suit une loi hypergéométrique de paramètres N, n et p, si
:
tNP /'n-x uNq Px (x)
pour Max(O. n -
Nq)(x(
-
'x
cft Min(n, Np), avecq
: 1-
F.
Moments E
V
(X):
(X):
nP
N-n
N-1
npq
Démonstration Soiteo,
a:1 ( I
t PH TASSI - S. LEGAIT
à N, la v.a. associée à tout individu a de la population telle que
Eo:1 ro:
si a appartient à l'échantillon
O sinon.
:
LES LOIS DE PROBABILITE USUELLES
Comme
il y a Cft-11 échantillons de taille n contenant l'individu a, et
échantillons possibles de taille n P
On peut écrire
Cfi
:
cil-l
(eo:
n
1)
Cfi
:
x-
: Yoro a:1 où Yo prend la valeur 1 si a est de type (l), Y : O sinon. N
E(X)
N
puisque :
Y- :
= I YoE(eo) a:'l Nn : a:1 aN
Np, nombre d'individus de type (l)dans la population.
d:l
De même:
V(X)
:
N
aTp
G:l
EEoe,.\:P (toeO: 1) : P(€a: 1, eO:
-
P
1l
(€o: 1). P(c, : 1,/to:
1l
n(n-1) N(N-1)
Covrc.E-l: V(sa) En outre
n(n-1)
n'
n(n-N)
N(N-1)
N2 -:
N'z(N-1)
:
leol:+ - É
Ele'?al_ Ez
nN tq:r>. YJt: N'P': a:l
"
a*Ê PH. TASSI
.
S. LEGAIT
LES LOIS DE PROBAEILITE USUELLES
D'où
:
V(X):
n
N
En remarquant
V
(1
^ n{n-N} * nN Y'+ -) N a:1 r'r,N - t) N
que :
y?
a
q:1
::
N
a:1
Yo
Pt
N-l
- :
Np, on obtient
pz*Nprffi # (l
(X):
: lll-r*, p,_ Ll,l-.N) N-1 d'où
:
N
(Nt
a:1
Y2,
al
:
n
*)l
p
:
v(x):
N-n N-1
noo
. 9n constate que, en notant Vn (resp. Vr) ra variance de X seron ra roi hypergéométrique (resp. loi binomiale), oria : V, Ç:
N-n <1 dèsque n)l N-1 V n En particulier, si n -- æ, [\ -* *,,N -O;
les
Ë-1;souscesconditions,
tirages avec remise et sans remise sont équivalents en terme de variances de X. 1
.7
Loi binomiale négative
on considère une popuration dont une proportion p est composée d.éréments d"un type I donné. on désire obtenir n érémenis du ifi";n procédant à une suite de tirages équiprobables et indépendants. Soit "; Y la variable aléatoire désignant le nombre de tirages nécessaires pour obtenir les n éléments voulus. La loi de X: Y - n est apperée roi binomiare négative de paramètres n er B, g tÂ,il De manière plus explicite, on a
".tÀi
;
Définition 7 X suit une loi binomiale négative de paramètres n et p si
Px(x;
PH.
IASSI - S. LEGAIT
: CII_. nf x- |
pn q* pourx '
€
;
lN
1t5
LES LOIS DE PROBABILITE USUELLES
La forme de Px (x) est obtenue en remarquant que {X : x} signifie que x tirages ont donné un élément d'un type différent de (l), n tirages (dont le dernier) ont dônné un élément du type l. Sous l'hypothèse d'indépendance, la probabilité d'un tel événement est qx pn, et il faut multiplier par le nombre de tels échantillons de
taile
n+x
soit C[l_,1
.
Remargue L'analogie avec le schéma binomial est intéressante. Dans celui-ci, le nombre esi tlxé, et c'est le nombre d'individus de type I qui est aléatoire. Dans la tirages de loi binàmiale négative. ou, plus exactement pour la loi de Y, c'est le nombre d'éléments de type I qui est fixé et donc la taille de l'échantillon global qui est aléatoire. De telles approches sont parfois utilisées en statistique, notamment en théorie des sondages [6], en biométrie. épidémiologie et essais thérapeutiques.
Moments
: n-; : n oq pp- V(X) : dans le cas n: 1, la loi de la variable Y désignant le nombre E(X)
Cas particuliers de tirages effectués jusqu'à l'obtention du premier élément du type désiré porte le nom dà loi de Pascal, ou loi géométrique de paramètre p. Sa définition explicite
estPY(y):pqY-1 poury Ses moments sont
e
N
2.1
{0}
:
E(Yl
2
:
V (Yl
17,
:
q/p2
LES LOIS CONTINUES CLASSIOUES
Loi uniforme
Définition
I
X suit une loi uniforme sur le segment Ia, b]. a par :
f (x)
On note
116
:.b-a 1
* -, *r",u1i la f.r. est F (x)
1t.,
ul
(
b, si sa densité est donnée
(*)
x-a b-a
pour x
€
[a. b]. PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILIIE USUELLES
Remargue En faisant lechangementdevariables
x-4, x* b-a
uniforme sur le segment [0, 1 ], de densité g (x): l,o,
on est ramené à une loi
,,, (x).
Graphes
Moments
.%rc,tj,
E(x)
: +t
.%r^,ntt E(X)=
v(x)
:+
+,V(x) : \{
Rappelons (cf. chapitre 3, exercice 3.,l)que l'image par sa propre f.r. de toute v.a.r. continue X est une v.a.r. de loi Ql.ro, propriété est très utile pour r1. cette simuler - ou engendrer - des échantillons extraits de la loi de X (cf. 4.4).
2.2
Loi gamma
Définition 9
p)
O,
1n +
(x)
X suit une loi gamma de paramèrres p et 0, densité est : f (x) :
PH, TASSI
- S. LEGAIT
j= "-,,
xp-i
e>
O. notée y (p, d), si sa
LES LOIS DE PROBABILITF USUELLES
ou:
r(p)
:.f
+co
e-x xp-1 dx 0
Remargues
a) Si le paramètre d'échelledest égalà'1, on écriray (p, 1)ou la v.a. Y : dX suit r (p). La densité d'une loi r (p)est
f
(p);si 0+1,
:
f (x)
b)
Si p:1,
paramètre
0;
:
1
=ir (p)
e-^
la loi gamma Y
saI.r. est F (x)
- 1-
"n-1
1,r*
1x)
porte le nom de loi exponentielle de
.1, d)
"-0x.
Forme de la densité de y (p)
o
1
Propriétés de I- (p)
: (p-1) I-(p-1), Vp ) 0 l-(p) : (p* 1) !, Vp € lN - {0}
l-(p)
T (1/21
l-(p+1)
(parintégrationparparties)
: G Do
-(-l't/2rP e
(1
+-
1
tzp
)(P-.+-) PH. TASSI
- S. LEGAIT
LES LOIS DE PROBABILITE USUELTES
Moments
SiX suir une loi y (p, 0), on a: E On en déduit
(X') :
l- (p +
o'f
r")
(pl
:
E
(Xl
: p/0
(Xl: p/Ê
V
Démonstration +cÔ
(Xr)
E
=
J"
0
0P ;;l r(p)
e- ëx xr+p-l dx
-
v^:
^
E(Xr)
1
:
E(X)
o r(p)
1
1
0
du
r(n+r1
ot ffi
Dans le cas de la loi exponentielle, on a
0p u r+p-l 1 e- u (71
.** -[
:
: 1
0Ëet vrXl
:l
Le paramètre d est donc interprétabre comme |inverse de ra vareur
moyenne de X ou l'inverse de son écart-type. ceci donne naissance à une forme différente de ta cjensité, parfois utirisée, où d esr o,r""tÀ*"nii,e1per"n""régèrement ou r,écart_
type
:
I (x,0) ou plus généralement
I
u-.rt
,,0"
(*)
:
I (x, 0, pl
2.3
:
: J= -t t (p) e-x/s 0-p xp I R;_ (x) '"'
Loi de Weibuil
Cette loi est due au mathématicien suédois W. Weibull t211.
Définition 1O X suit une loi de weibuil de paramètresûet 0, donnée par :
f (x)
PH. TASSi
- S. LEGAIT
: a0
a)
xa-1 e-o^o 1,*.
(x)
o, e>0, si sa densité
est
LES LOIS DE PROBABILITE USUELLES
Fonction de réPartition
Fr(x)
.
=
1-e-o^o
La forme de la f.r. donne une idée intuitive de I'origine de la loi de Weibull. En
: 1, on retrouve la loi exponentielle Y (, 0l dont la f.r. est 1 - e-dx, soit de grandeur x) : e-d*. Pour décrire des phénomènes dont l'ordreplus faible que beaucoup x} est ) du type extrêmes d'événements {X d'apparition
effet, si a
p (X )
e-dx, on est conduit assez naturellement à étudier leS exponentielles e-0^q.
Remargue La variable Xa suit la loi y (1, 0l; la loi de weibull se déduit donc de la loi **1 /a. exponentielle par le changement de variable '1
Moments
rt1 +1)
r
1x1
:----- o /a Q1
l-(1
v(x) =
2^1 +-) a.a-
l-'(1
+-)
62/a
Démonstration +oo
E
(X)
: J'
+oo
x a0 xa-1 e-e
oo
^a dx
.r.L-"o :J ^t- e-'^1 (;)
E(X)
Oaqaf/aqag1/ad E (X2y
: l'
+æ
du
= .f
e-d ** dx en intégrant par parties'
1
-*" a0xa-1 e-d"od* : 2 t
1
1
1
+oo
oo 1 ,1',*Zl : 2 rt?ld a g2/a
x
e-d*'
-
1
dx
o g2/a
d'où
:
t-(1
V(X)
:
+-l2^1- r' 1t +-) aa 02/a PH, TASSI
. S, LEGAIT
LES LOIS DE PROBABILITE USUELLES
2.4 f
Loi bêta
Soient X et Y deux variables aléatoires indépendantes suivant respectivement f (q). p ) 0, q ) 0. Nous allons chercher ta loi de ta variabte Z:X/y.
(p)et
La loi du couple (X. Y) a pour densité
:
: ;;+ e*(x+v) xp-1 yq-1 1,^. IR; x il,+ r (p) r (q) ".(x,y) la transformation g : lR* x lR+ * lR+ x .lR;- definie-paï
f,r,", (',y) Considérons
/x\
s
lu:X
\rl-\r:*,r) Le jacobien J (S-t)de la transformation (U, Z), d'après le théorème 5 du chapitre 3 :
frr,r1(u, z)
\
g-t est u/22 ; d'où la densité du couple
: --je-u 1r * |t up-l (l lo-t -yr(p) r(q) z z' f (p) f (q)
zq+l
Pour obtenir la loi de Z, il suffit d'intégrer par rapport à u
ce qui conduit à
On pose
:
:
B (p,
d'où
q)
-
rlP) ' r
(q)
r(p+q)
:
':
f-121 L'
PH TASSI - S. LEGAIT
B (P,
q)
:
(1 +
210*e
rR*
'
'
:
LFS LOIS DE PROBABILITE USUELLES
Délinition
11
Z suit une loi bêta ,sur lR* de paramètres p et q, dite loi bêta de seconde espèce. On la note É (p; q).
Rappels
B(P,q)
+ æ xp-l : J (1 + 11n+o O --dx
B(p,q)
:
1
: J" x.P-
1
(1
0
B(q.p)
;
B
11 (-, 22 -)
-
x)a-1 6*
:7f
Définition 12
f : -!1+Z
La variable aléatoire
suit une loi bêta É (p, q)sur [0. 1] dite loi bêta
de première espèce de paramètres p et
T est une v.a. à valeurs dans t0,
1
I
q,
:
,.hrn-r
11
> 0, q )
O.
En faisant le changement de variable
dans f, (z), on trouve facilement la densité de T
fr(t)
p
:
-t)q
11ro..,r(t)
La loi bêta sur [0, 1 ] est extrêmement utilisée, car pouvant être définie sur tout intervalle Ia, b] par le changement de variables Y: a + bT. Remargue Dans le cas
p: 1 et q :1,f r(t) :
Forme de la densité de T
lto, 1l (t) : P (1,1)
:
%rc, tl.
:
Elle varie selon les valeurs des paramètres p et q (voir les graphes page suivante).
Moments E (Tr)
En effet
q) B]gj::f: E rzr\: B (p, q) B (p, q)
B (P + r'
:
:
E(rl
:
tr+p-1 (1 _ t)q-1 J"1
0 122
tt
B (p, q)
dt:
B(P+r'q; B (p, q) PH. TASSI
- S, LEGAIT
LES LOIS DE PROBABILITE USUELLES
p>1
q)1
De même pour E (Zr), à condition que q
l'intégrale.
On en déduit
:
E(T)
E(zl
) r afin d'assurer |existence de
: --o q-
:
p
V(T)
p+q
(q> t)
v
(z)
pq
:
(p+q)'(p+q-1) p(p+q- 1) :--_____-____;_DOUr(q (q
|
-
1)'(q
La variable Z n'a donc de moments d,ordre 1 et 2 que pour q
Théorème
)
2.
1
Soient X et Y deux v.a. indépendantes suivant respectivement p ) 0, q ) O. Alors ta variabte ï: espèce.
i-X + Y
Le résultat est immédiat; il suffit d'écrire
les définitions qui précèdent.
PH. TASSI
>2)
- 2) '
- S. LÊGAIT
f
(p)
et
f
(q).
suit une toi bêta É (p, q)de première
T
sous la forme
X/Y
1+X/Y
et utiliser
142
LES LOIS DE PBOBABILITE USUFLLES
2.5
Loi de Gumbel
Définition 13 X suit une loi de Gumbel si sa densité est
f" (x)
:
Sa fonction de répartition est Fx
exp (x
-
:
ex), x €
lR
:
(x)
:
1
- exp (- ex)
Moments Tr
E(X) : -0,57722
V(X)
2
6
où O,57722 est la constante d'Euler.
Remargue
La loi de Y - - X porte aussi parfois le nom de loi de Weibull, à ne pas confondre avec la loi étudiée au paragraphe2.3. La densité et la fonction de répartition de Y sont :
fy(y)
: exp(-y-e-Y) Yc lR Fy (y) : exP (- eY)
2.6
Loi normale unidimensionnelle
Définition 14 X suit une loi normale de paramètres m et o par
(o) O) si la densité est donnée
:
(x-m)
t*(xt On note
X -)
:;fr"-T
2
(x
€ rR)
N (m. a).
Les paramètres m et a sont aisément interprétables. En effet, calculons E (X)
1 ^*æ E{X):----J o t/2t -
124
oo
xe
-
(x-m)
:
2
-------r-
2o
dx
PH. TASSI
- S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
En posant
u
: x-m
on obtient
o-
E(x):
:
^ -=-f*-, VZlr - æ
"-u"/2du:m
car la fonction à intégrer est impaire. De même
:
(x-m)
^1^+æ :-
l' o \f27r "-
E (Xz)
:
mt+
2^o
*
zo2
xt e
dx
!** -5- æ :/2r "
^ 2o2 ^+æ : m'+ J ----=-t/r o o20'3 t/n
= m- + ----/_ l- (= 2
Comme:
u'/2 6u
,/Zo -
oc
_2
Uz
"-u
/2
6u
)
:t1 , (t t1
ona:
v(x) Les paramètres m et
J**
v1l2 e-udv
(t) |_3
type de X.
*L
a
:
,,F 2
o.2
représentent respectivement I'espérance et l,écart_
Loi normale centrée réduite
.
La
v'a' u
notée N (0,
1),
-
X-m
suit une roi normare d'espérance nuile et de variance
dite loi normale centrée réduite de densité
-
1,
:
2
1 -u2 fr,(u) :p(u) : ,:e " r/2r PH.
TASSi S. LEGAIT
(ue
lR)
125
LES LOIS DE PROBABILITE USUELLES
La f.r. de U est notée O, et définie par
o(u) Les valeurs de la loi N (0,1).
:
:
^u1 J__ W
"-
t'/2 dt
sont données à la table 1 ; la table 2 fournit les fractiles de
Forme de la densité
Cette forme est celle d'une courbe en oclocheo.
Remarque La loi normale N (m, o) converge vers la loi de Dirac au point m lorsque a tend vers
O.
Approximations De nombreuses approximations de la f.r.
O(x1
:
1
- ç(x) (au + bu2 + cut) 1 + 0,33267 x
a
:
Plus simples sont
- -
o,'t201676
c
:
0,937298O
:
O1x1
126
b
0,4361836
(x)O)
: 1-
0,5 (1 + ax + b x2 + c x3 + d xo)o
(x)O) PH. TASSI
- S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
avec une erreur de l'ordre de
2,5.
lO-a et
:
a:0.196854 b:0.11b194 c:
O,OOO344 d:0,019527
1
Q8l:;+b;-cxndf avec une erreur de l'ordre de 2 . 1O-3 et
a
(x
)
o)
:
: 2,490895 b= 1.466003 c : 0,024393 d :
O.t7gZS7
Théorème 2 La v.a.
1_ ;2 U'suit une loi y (1/2,1).
Démonstration En appliquant, par exemple, la technique de la fonction muette, on a
:
u' -+'2du 1 ^+oo u' -i2du :Jîto ft ^** h(it" e JGI_-h(;)
: ,8.t"*- n (y) e- t # : : On en déduit
1
+æ
,fr lo
{-" + r(t)
:
r+1
E(!u'f/':" --2 (d'après le paragraph e 2.2). PH TASSI S. LFGAIT
h (Y) Y-
''
r(1) ,2
1t2 u-Y (Y
y-1/2 e-y h(y) dy
LES LOIS DE PROBABILITE USUELLES
D'où
:
E
(lul')
-
r( r+1. z
2r/2
r Les moments de U et de X s'en déduisent
o
Vr e
)
(tl 1
:
N, impair:
: E(X-m)':0
E(Ur)
oVr € lN,pair: E(U')
:Trl2r/2
r+1
Z
or 2r/2 r+1 E(X-m)':-G-r( Z
I
I
Polynômes de Hermite Partant de la densité g (x) de la loi N (0,1), on a
:
9'8):-x9(x) e., Vl : (x, _ 1) p (x) g,.,(^) : -(x.-3x) 9(x) Un simple raisonnement par récurrence permet d'établir que la dérivée d'ordre n de p (x)se met sous la forme d'un produit de rp (x) par un polynôme de degré n, noté Pn (x), et que pour n pair (resp. impair), Pn (x) ne comporte que des puissances paires (resp. impaires) de x :
,ln)1x)
:
pn (x)
o
(x)
Définition 15 On appelle polynôme de Hermite d'ordre n le polynôme Hn (x)défini par
,tn)
1x)
:
(_ 1 )n H n (x) rl
c'est-à-dire, avec les notations précédentes Hn
(x)
Par convention, on pose Ho (x) 128
:
:
(x)
:
= (- 1)n Pn (x) 1.
PH,
TASSI S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Exemple
= x, Hr(x) : xt-1,
:x.-3x, Ho(x) :xo-6x2+3 Hu(x) :xu - 10x3+ 1S, H6(x) :xt- 1s xa+45 x.- 1s, etc.
H,(x)
H.(x)
Propriélé 2
Hn (x) est le coefficient
LIX-
Iun
de
dans le développement de
n!
e
u'
-2
Démonstration Soit u un réel quelconque
9(x-u)
: :
:
1 - {.;d 2 : -Jrr" co
,
p(x)
u,.-
e
{
2
irn
n:O n! æun : : n! n:O -Hn(x)
p(x)
|
en faisant un développement de Taylor et en utilisant la définition 15. on en
déduit
:
2 u^^
"'^--,
:
un ; Hn.(x), n:O n! u
ll s'ensuit que Hn (x) est le coefficient
o" 4 n!
dans le développement de
Remargue
""
2
-7
.
u"
ux- -2 par rapport à x; on obtient Dérivons e
,r-i ue 2 PH. TASSI
- S. LÊGAIT
æ un+t n' ' n:O n!
:
æ
rr^
n:O nl 129
LES LOIS DE PROBABILITE USUELLES
En égalant les coefficients de un, on a
:
: n Hn*., (x)
Fl (x)
De même, en dérivant par rapport à u, on a
æ
u
2=
(x-u) e
d'où, en égalant les termes en un-1
:
Un-1
n"
n:1 (n-1)!
:
(x) (n-1)!
Hn-r
Hn (x)
(n-1)! -^
Hn-z(x)
(n-2)
!
Hn(x)-xHn_1 (x)+(n- 1)Hn_Z(x) : 0 En multipliant cette dernière égalité par n et en remarquant que
on a, pour
n22:
Hn(x)
H"(x)
-
: n(n-1; xFl.,(x)
.'
:
Hn_r(x)
nHn(x)
:
O
Propriété 3 Soient Hn et Hn deux polynômes de Hermite, Hn (X) et X par Hn et Hk, X de loi N (0,1); on a
Hn (X) les v.a. images de
:
:0 V(Hn(X)) : n! E(H^(X))
Cov (Hn(X), Hr(X))
:
0
Démonstration
a)
g[{* dxn
e(x)dx]
: o: {*
o(n){") o"
t-l)" {n (-
1)n
E
Hn(x) o(x) dx
(Hn
(X))
PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILITF USUELTFS
l_n._o.n. ^^-.,:) on parttes, a:
uk,
n : (-
uk,
1)n
n
: l*
Hn
(x) p (x) dx avec
k(
n. En intégrant par
"i Hn {x) e(n) {x) dx
: (- 1'" f
Ltn(x)
: o+(-
tn (x)
î1n*t
O
-l +p(n-tl tx!__ * (- 1;n*r j,, tn
l,*
tn_r (x) p(n-r)
(x) 9(n-r)1x;dx
1x; dx
: k ,k-r, n-l ll s'ensuit
Si
Si
k
k:
:
" .uc Hn_r(x) p(x)
n,
: kl uo, n-n
dx: O et uk,n:
Cov (Hn(X), Hk(X))
:
O
uo,o:1 et un,n:V(H.(X)) :n!
2.7 Loi normale multidimensionnelle Soit X un vecteur aléatoire de (lRp, fr.o1, ae coordonnée courante X., i : 1 à p.
Définition 16 Soit
u
: 1 Ït \
un vecteur quetconque de
tRp.
\,0/ X est un vecteur normar (ou gaussien) si,
vu, u'X
est une v.a.r. normare.
Remarques
a) on en déduit que si A est une application linéaire de lRp dans
est normaldans (Rn, 9/l9l, alors AX est normal dans(lRd, fr,d1. PH TAsst - s.
LEGAIT
lRd,
et si
x
131
LES LOIS DE PBOBABILITE USUELLES
:
b) Si u,
1 et
,j :
o,
j+i,
xiest unev'a'r' normale'
La loi normale multidimensionnelle peut être également définie par sa densité
:
Définition 17 Soit m € lRp et I une matrice (p. p) réelle symétrique positive. X est un vecteur normal de dimension p si sa densité est donnée par :
1.
f" (x) :
(2rP/2
\6At
I s-2 '{"-m) r '
(x-m)
Propriété 4 E (X) est le vecteur espérance m et > est la matrice de variance-covariance et on note la loi de X : N (m, I).
Démonstration
I
étant une matrice réelle symétrique et positive, il existe une matrice ortho-
gonale S et une matrice diagonale D telle que
:
ts>s:D Si af, .. , af Oesignent les valeurs propres positives de toutes différentes), D
:
Diag
I
(non nécessairement
1oi, , oil
Effectuons le changement de variables défini pat Q i
": g-1 (y)
(x1,..:,xrl4> y:
(y1,...,y0)
:
tSx
: sy car tS : S-t (S est orthogonale); lJ(p-')l :lDetSl :t
On note
:
g: tsm;t(*-m) >-t (x-m) : t(y - g)ts >-1 S (y - rr) : t(v- ti D-1 (y-p) p1
:,I, 7
132
lv'-u')' PH TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
d'où
:
p 0i-u)2
I
2 ti'' e-
u = (2ùe/276-
g (y1' ..., yn)
: f, --! Vzroi
s (v1, ..., yoi
'
i-1
1
T
,1
Ni- u)2
"1
"-
donc Y.,, ..., Yo sont indépendantes et suivent respectivement N (g,, a;). On note
:
Y:
Ona:
(Y.,, .... yO).
:
1r et V(Y) : D où V (Y) désigne la matrice cJe variance-covariance de y, d'où
E(Y)
= E(SY) = SP: m V(X) : V(SY) : SV(Y) tS:
:
E(X)
SD
tS:
X
Propriété 5
Vu €
lRP,
tu
X
->
N (tum,
tulu)
ce résultat vient directement des propriétés du paragraphe 2.3 du chapitre 3. En particulier V (Z
:
u X,) :
It,l
u, u, E
(Xi- mi)(Xj- mj) : tu
V (X) u
Définition 18
La loi
t\ (O, lD) est appelée loi normale (multidimensionnelle) centrée
réduite, de den'sité
et
:
1
(xr, ..., Xn)
:
1 (2rlPtz --e
(t2l2x1
Théorème 3
Soit
X: (X' Xz) un couple gaussien à valeurs dans lRz. X., et X, sont
indépendantes <+ Xr et X2 sont non corrélées. PH.TASSI
-S LEGAIT
133
LES LOIS DF PROBABILITE USUELLES
Démonstration Si X, et X. sonl indépendantes, alors X., et X. sont non corrélées, quelle que soit la loi de X, et X2 (cf. chapitre 3, théorème 10). La réciproque est fausse en général mais est vérifiée dans le cas gaussien. En effet supposons que
:
[;r ) (r3,)]
X-)N : O.
c'est-à-dire que Cov (X.,. Xr)
La densité de X s'écrit
:
f(xr,xr)
:
1
expl
^ o1 o2 z7r
_I
(*.,-m.,)'
(*.-Ti)'
_1
,o1r"Z
(xr
-t 1
:_ô
1
',/z'
-
mr)
2
-n 1
2
o't
1
(x2
-
m2)
2 C2
1/2t o,
o',
On conclut que X., et X2 sont indépendantes et suivent respectivement les lois N
(m,, af let
N
(mr, o7l.
Remargue Deux variables gaussiennes non corrélées ne sont pas forcément indépendantes : pour cela, elles doivent nécessairement constituer un couple gaussien. Exemple Soit X de loi N (0, 1) et une v.a. c définie par P {c = telle que X et c soient indépendantes. On pose Y: e X. FY(Y)
: P{Y<":
;i;.;", : donc Y 134
->
11 ,*(vl+
i
11 1l:;;Ple:-1]:22
::'1,..i:-:i; ll ,, ,
P{X>-y1:F*(y)
N (0. 1) PH. TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Cov(X,Y):E(XY)-E(X) E(y)
:
E(Xy)
:
E(cX2)
:
E(e)E(X2;:6
donc X et Y sont non corrélées.
supposons que X et y soient indépendantes ; arors re coupre (X, y) serait o gaussien de loi N ((^), lz)er X + y suivrait ators une loi N (0, vâ). o
Or:
P{X+Y:}: P{e:-1}:
1
2
ce qui est absurde puisque la loi N (o, \/r) est continue. Donc X et indépendantes tout en étant pourtant non corrélées.
ll
y
ne sont pas
conviendra par ra suite de ne pas confondre deux variabres gaussiennes
avec un couple gaussien.
2.8 Loi log-normale Définition 19 Soit Y une variable aléatoire suivant une loi normale N (m, o). La v.a. X définie Far X: exp Y suit une loi log-normale. La densité de X esr
fx (x)
:
:
=:-\/27r ox
exp
La densité de X se déduit de celle de
(- (L"gl=ry' I 1 20'
R+
(x) I
y par le changement de variables : y -
ey
Forrne de la densité
PH. TASSI _ S. tFGAlT
135
LES LOIS DE PROBABILITE USUELLES
Moments Ê
V (X) En effet
(X)
:
=
/2
"^*o"
"2^nc2
1so'
-
17
:
Yr )o 1, E (Xr) :
E(Xr)
E (erY)
+oo 1 - latr-rrt : .[ srvs 2o' ' ^!t/2ro
fu rr-(+ ,rto"l' *t+-,P- 2o'
+co 1
: f_*àe
dy
*
o" ," E (Xr) :
"t'*
l-
2.9 La loi du khi-deux On considère n v.a. (Xr, ...,Xn) indénendantes suivant toutes la loi normale N (0,
1).
Définition 2O La variable aléatoire Uliberté, notée X2
(n). "
:
n
i: 1
'
Déterminons sa densité:on sait que
1^1 Xf t
suit une
loi , (1 , 1) (cf
:
paragraphe 2.6). Or la somme de deux v.a.r indépendantes suivant respectivement f h, 0l et f (q, d) suit une loi f b + q, 0) (la démonstration de ce résultat est proposée au chapitre 6, paragraphe 3.1).
1n^n I Xf suit r ( ,,ll 2 i:1
Donc,engénéralisantàunesommedenv.a.r.'On en déduit la densité Ùn
: r.. un trt
:
**-' "-i --f Z"rrf (t
lrR.
(x)
I
136
PH TASS]
-S
LEGA]T
LES LOIS DE PFOBABITITE USUETLES
Théorème 4
soir un vecreur aréatoir.ex dg (rRp, /tÊp), de roi : N (m, r). La v.a. I- t (X - m) suir une toi Ou X, (p).
on peut se limiter au cas m : 0 : ir suffit de centrer
mêmes notations qu'au paragraphe2.T
y: \x -
m)
re vecteur. Avec ies
:
tX:-t X: tXSD-ttSX On note Z - tS X ; Z est un vecteur gaussien d,espérance nulle et de matrice de variances-covariances D : Diag @?, , oft, ot, o? : y (2,1. tx :-' x :
9_ i:l 1oi
"uit
par définirion une toi yz (p).
. La loi du x2 possède une interprétation géométrique : soit X un vecteur normal de dimension p, M le point (aléatoire) danJRp de co'ordonnées (X.,. ...,
llOwll' :
Xoi:
D
t
i:l
X|, carré de ta distance I
à
l'origine du point aléatoire normal M,
suit une loi du y2 à p degrés de liberté. PH TASSI
-S.
LEGAIT
131
tES LOIS DE PROBABILITE USUELLES
Forme de la densité
n:2
n:1
Moments De la relation existant entre les lois;2 (n) et y (n/2l1, on déduit
E(Uj)
:
:r''(t*'l
r (+)
d'où
:
E(Un)
:n
V(Un)
=2n
Les fractiles de la loi du khi-deux sont donnés à la table 5.
2.1O
Loi de Student
Définition 21 Soient X et Y deux variables aléatoires indépendantes suivant respectivement N (0, 1) et x2 (n). On appelle loi de Student à n degrés de liberté la loi suivie par le rapport : ?_
X
/Y V; Cette loi est notée Tn PH TASSI . S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Densité Pour trouver la densité, il suffit de remarquer qus rapport de deux variables
T2
n
Tn est
est aussi
te
YNY et indépendantes et suivant respectivement t
X
1nz r(vlety(rl. n
Ë : {
suit donc une loi bêta
P(t' 1
n
^ 2
) de seconde espèce. La densité de
:
f.'n Forme de la densité
(x)
:
1
"6
e
tl, i;t
(1 +
n+l x2 - -=-z
-)n
La courbe représentative de la fonction frn (x) est symétrique par rapport l'axe des ordonnées, de forme (en croche> eomme pour ra roi normare.
à
Moments E (Tn)
: 0 (symétrie) (n > 1)
v(Tn)
:
n
(n)2)
"_2 Les moments s'obtiennent à partir de ceux de la loi bêta de seconde espèce (cf.2'41' d'où les conditions d'existence sur le degré de liberté n. Les fractiles sont donnés à la table 6. PH. TASSI - S. TEGAIT
1?O
LES LOIS DE PROBABILITE USUELLES
Cas particulier : loi de Cauchy Pour n N (0,
1iàt
= 1, T,
'
x'tr t.
: -+VY
où X et Y suivent indépendamment, respectivement
La loi suivie par T1 porte le nom de loi de Cauchy ; c'est aussi la loi du rapport de deux v.a. normales c'entrées réduites indépendantes (cf. exercice 4.2). Sa densité est
:
fr' (x) :
Tf suit une loi p
(+ , ll
n(1 +xzl
O" deuxième espèce et les conditions d'existence des
moments de la loi bêta de seconde espèce font que T., ne possède aucun moment, donc, a fortiori, ni espérance, ni variance. Sa f.r. F est donnée par :
F(x)
2.11
:t
*;
Arctgx
Loi de Fisher-Snedecor
Définition 22 Soient X et Y deux v.a. indépendantes suivant respectivement les lois x2 (m). La variable
F
X/n
:
de liberté notée Fn,
suit une loi É
La densité de F s'en déduit
:
à
n et m
(n) et
degrés
,.
--nX/2n F-
f, (x)
suit une loi de Fisher-Snedecor
,^
x'
m
(7 -) 2
de seconde espèce.
:
1
m
r(+ 7t
nn/2
*n/2
^m/2
-
1
n+m
1,**
{*)
(m + nx) PH. TASSI
- S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Forme de la densité
Remarque
Tl, carré d'une variable de student à n degrés de liberté. suit une loi
de
Fisher-Snedecor à 1 et n degrés de liberté.
Moments E
: -!(m m-z
(F'n'm'
-)
>
2)
+m-2)
2m2(n -----im>4,
V(F 'n,ml
n(m-4]l (m-212
Propriété 6 On note fo (n, m) le fractile d'ordre a de la loi F (n, m)
Ona:
t"t-a'
(m. n)
:
1
fo (n, m)
Démonstration Nous aurions pu définir, à partir des v.a.r. X et y de roisyr 1n; ety, 1m; 1it n,y a aucune raison de privilégier X comme numérateur) la variablé'V par :
' -
l,
-
Y/m
x/n
Par définition, V suit une loi de Fisher
avec U -)
Fn,* et V-)
F.,n ;
ll est évident que I'on U et 1./Vontdonc même loi. Fn.'',
n.
P(F_ 'n,m_
TASSI S tEGA]T
:
a
a UV :
LES LOIS DE PROBABILITE USUETLES
Ona:
P('F d'où
1
m))
:
a
:
1
P(F 'm,n <_):1_a fo(n,m) ' ft -o(m' n) :
f"(n,
n-')
Les fractiles de la loi de Fisher-Snedecor sont en table 7.
Exemple Soit Fu,, dont on cherche le fractile d'ordre 0,05.
Ona: fo,os
On lit sur la table f.,ss (8,5)
3
:
(5,8)
:
1
fo,e5 (8,5)
4,82 et donc fo,ob (5,8)
:
O,2O7
.
LES PAPIERS FONCTIONNELS
Les deux paragraphes précédents ont présenté diverses lois de probabilités et leurs propriétés. Toutefois. lorsqu'on dispose d'un échantillon (X,,..., Xn) d'une v.a. X, c'est-à-dire d'une suiie d'expériences indépendantes où X, est le résultat de même si farfois le contexte fexpérience no i, t" toi p Oe X n'est, a priori, pa, "onnre, vers tel ou tel type de loi de de l'étude peut guider le statisticien-probabiliste
probabilité.
ll importe donc d'utiliser au mieux un certain nombre de pratiques de la statistique descriptive afin d'orienter le statisticien à spécifier I'hypothèse que P est une loi bien définie ; il s'agit là d'un problème d'adéquation à une loi de probabilité, pour lequel existent des outils relevant de la statistique mathématique (cf. par exemple [ 19] ou [20]). Cependant, en première approche, un diagramme en bâtons, un histogramme, le graphe de la fonction de répartition empirique, et surtout l'usage d'un bon papier fonctionnel peuvent être des auxiliaires précieux. 142
PH. TASSI - S, LEGAIT
LES LOIS DE PROBABILITE USUELLFS
3.1
Principe des papiers fonctionnels
Soient X.,, ..., Xn,
n
v.a.r. indépendantes représentant n réalisations d,une
v.a. X continue de loi p, de fonction de répartition Fn désigne la
F.
fonction de répartition empirique Fn(x)
:
:+ :,, r,*,.*,
proportion observée du nombre de réalisations dans rieures à x, introduite au chapitre 3.
(Xr....,Xj
strictement infé_
ll arrive fréquemment que lespace .w des vareurs de X soit partitionné. par exemple par l'usage d'une nomenclature (tranches d'âge, de revenu, etc.), tel què :
s- j:1j c, '
C,de limites de classe (e,-,', e,). La fonction
Fn est alors évaluée en
e,,l:
1 à k.
L'idée est de faire apparaître une relation détermiste simple entre F (x) et x, caractéristique de la loi p; dans la plupart des cas, on cherche ùne relation de type linéaire entre des fonctions h (F (x)) et g (x), h et g à déterminer :
h (F (x))
:
g (x)
Dans un repère arithmétique usuer, si.ln nole (e,) en abscisses et h (Fn (e,)) s en ordonnées, le nuage de points (c (e,), h (Fn (ej))) aura à peu près ra forme d;une
droite.
si, au lieu d'utiliser un repère arithmétique, on emploie des axes cléjà gradués par g en abscisses et h en ordonnées, re nuage de poinis (e,, F^ (e,)) aurà rà même
forme tinéaire. Le papier ainsi gradué par reè fonciions fonctionnel (h, g) adapré à la loi È.
s'di hi;dilJË r;
;;;i;;
. cetlg propriété permet alors, quand on dispose de n réalisations d.une expérience aléatoire, d'indiquer, selon la forme du nuage si ces réalisations chance de provenir du modèle probabiliste représenté par le papier fonctionnel. ";i;;Cet indicateur d'adéquation à la loi doit être ensuite infirmé ou contirmé par la théorie des tests d'adéquation non paramétriques de la statistique mathématique ([1 1]).
3.2
Exemples de construction de papier fonctionnel
a) La loi normale : droite de Henry ll s'agit de l'exemple le plus célèbre. soit X de loi N lm, o), de densité et de
fonction de répartition PH, TASSI - S. TEGAIT
:
143
LFS LOIS DE PBOBABILITE USUELLES
f (x)
:
(x-m)
- zo ^, e
1 --=:o1Fzn
F (x)
:J
X
f (t)dt
-oô En notant par Ô la fonction de répartition de la loi N (0,1 ) :
F(x) qui conduit à
:
-'
x-m : O(---) o
1F 1x;1
ll existe donc une relation linéaire entre 1 (F (x))et (F (x)) : Ôh
OrF(x)
€
x-m
:
o :
s
(t)
:.I-Jr_ t
tO,1l et
N (0,1).
Le nuage de points (t, ur (r)) sera donc représenté par une droite dans un repère arithmétique usuel ; si, pour simplifier, on gradue I'axe des ordonnées par la fonction O-', le nuage (x, F (x)) aura pour image la même droite. Ce papier à échelle arithmétique en abscisse et gradué par O-' en ordonnée est appelé papier gaussoarithmétique : un échantillon donné aura de fortes chances de provenir d'une loi normale si le graphe du nuage (e,, Fn (e,)) est ajusté sur une droite dans un papier gausso-arithmétique (voir page suivante). Cette droite porte le nom de droite de Henry.
b) Loi exponentielle Xsuit la loi r (1,
01,
dedensitéf (x) : 0 e-tu(x)0, d>o) ; F (x) : 1 - e-tu.
1-F(x) :
"-tu
: -6t ll existe une relation linéaire entre h (F (x)) : Log (1 - F (x))et x; le nuage de points (e,, Log (1 - Fn (e,))) sera représenté par une droite dans un repère arithmétique ; le nuage ("1 1 Fn (e,)) aura pour image la même droite dans un repère Log(1
-F(x))
arithmétique en abscisse et gradué par la fonction Log en ordonnée. Le papier fonctionnel adapté à la loi exponentielle sera donc log-arithmétique, dit papier semi-logarithmique. PH TASSI - S. TEGAIT
1
LES LOIS DE PROBABILITE USUFLLES
o l
.g
.o
s.ÈE L
(o
o
ô
-c uJ
o b
'o a a q
v,
a
ù)
o a. (ù a_
qræ rr)o O)orJ or)O) O o)-o) srq C o'o C oo6.O =O aa O(t'
E E o o
LIJ c')
PH. TASSI
- S. LEGAIT
= o
FFËHE=F d-dSè'co-
=
E S=ËÈ= ----é=-;-
o- -
LËS LOIS DE PROBABILITE USUELLES
Remarque
Le papier serni-log sert également à identifier un modèle multiplicatif m. s. r. dans une décomposition tendance-saisonnalité-aléa d'une série tetmporellè. ôuÀt ,n" telle échelle, on voit apparaître alors un graphe analogue à
X- :
un modèle additif à saisonnalité stable.
c) Application nurnérique Les températures relevées à 1O heures, sous abri, en mars 1953, à la station
météorologique du Parc Montsouris (Paris, 14e arrondissement) sont fournies ciaprès. L'unité est le degré Celsius, avec deux décimales'
0.60 4.OB
o.25 0.68 2.48
9 6.44 O.17 .16 3.43 1.64 2.22 2]7 4.08 1.23
0.1
1
.74 .23 5.32 2.85 0.35 1
1
0'A2 1 '74 3.80 3.67 5.05
2 34 0.55
1'27
0'26 3.22
o.00 Soit X la v.a. i'eprésentant la température précédemment déf inie. Peut-on faire l'hypothèse, grâce aux données fournies. que X suit une loi exponentielle ? On trace, sur papier semi-logarithmique, le nuage de points (";, 1 Fn (e,)) où les e, sont les ertrémités des classes choisies : tO ; 0,5[, [0,5 ; 1t, i1 ; 1 ,51,11,5 ;21' + oo[' 12;2,51,12,5;31, t3 ; 3,5t, t3,5 ; at, ft;4,51, [4.5 ; 5[, [5 ;
Le nuage s'ajuste sur une droite. On peut done penser que le modèle dont sont issues lès données est une loi exponentielle de paramètre égal à la pente de la droite en valeur absolue. 1-F en échelle logai'ithmique 1
0,9 0,8 0,7 0,6 0,5
0,4 0,3
0,2
1,5 2
2,5 3
(Echelle arithmétique)
3,5
4,5 PH. TASSI
5
.
S, LEGAIT
LES LOIS DE PROBABILITE USUETLFS
3.3
Cas de variables discrètes
Lorsque X est une v.a. discrète, on peut rechercher des relations caractéristiques vérifiées pour une loi bien définie, et étudier dans quelle mesure les données observées satisfont à cette relation. Nous allons citer deui exemples.
a) Loi binomiale On sait que siX suit une loi
fi fi, pl:
P(X:x) : CIP" (1 -P;n-* ll s'ensuit
x:0,
1,...,n
:
P(X:x+1) :h(x) P - 1-P -.il-x P(X=x) *;
(o(x(n-1)
si X suit une loi binomiale 9l fi,p), le graphe de h (x) en fonction dex est la restriction à {0, ... n - 1 } de t'hyperbole :
p(n-x) (1 -p)(x+
b) Loi de Poisson Soit X de loi
I e) P
1)
:
:h(x) :
(X: x)
, x€lN ^ x_1
si X est une v.a. suivant une loi g6y, te graphe de h {x) en fonction de x sera la restriction à lN de l'hyperbole
f1 Û
:
x+ 1 En pratique, si (a.,....,u") sont les K valeurs entières prises par X, et si t à K) est la fréquence relative d'apparition de a dans l'échantillon observé
(Xr, ...,Xn), on porte en ordonnées
:
f.'j
t'*''
_
1
h (aj)
et a. en abscisses. Si les données proviennent d'une loi de poisson, le nuage de t1 points (a,, .7) est à peu près linéaire; comme
r
h (a,)
1 - r*1
h (x)
^^
:
À peut être approximé par l'inverse de la pente de la droite. PH, TASSI
- S. LEGAIT
LES LO S DE PF]OBAB]LITE USUFTLES
4 4.1
DIVERS
Création de lois de probabilité
Toutes les lois de probabilité usuelles n'ont pas été présentées dans les paragraphes qui précèdent ou dans les exercices. ll en existe de nombreuses autres, et
ie tbcteui iniéressé pourra se reporter, si besoin est, à l'ouvrage de référence de l'ingénieur statisticien qu'est [8]. Peut-on dégager une préseniation synthétique des lois de probabilité ? En première approximation, trois modes de génération semblent exister :
a) Schéma d'urne ll s'agit de définir des v.a. en faisant référence à un schéma de tirage du type nbouleS danS une Urne>, selon diverseS modalités : tirage avec ou Sans remise, nombre de tirages fixé ou non, nombre de résultats d'un type donné fixé ou non' Les lois binomùle, binomiale négative, multinomiale, hypergéométrique sont des exemples de ce mode de définition.
b)
Variabtes données par une caractéristique (densité, fonction de répartition)
ll s'agit des définitions les plus fréquemment utilisées, en particulier pour les v.a. continues. Ces variables sont souvent en liaison avec un problème physique concret : ainsi, la loi normale relève historiquement de la théorie des erreurs de mesure en astronomie, la loi exponentieile apparaît dans les temps d'attente, la loi de Weibull en fiabilité, la loi log-normale dans les études économiques sur les revenus, etc. Dans cette classe prendront place les lois définies par leur fonction caractéristique (chaPitre 6).
cJ Variabtes définies comme fonction d'autres variables C'est une façon très fréquente d'engendrer des lois de probabilité. Nous I'avons utilisée, par exemple, pour les lois log-normale, du khi-deux, de Student, de FisherSnedecor.
Cette rapide classification mériterait d'être affinée. Par exemple, nous verrons au chapitre 5 que les lois de Student ou de Fisher ont des fondements géométriqr"r. Èn outre, il semble a priori très simple d'engendrer des lois de probabilité; il
suffit de considérer une fonction f positive, suffisamment régulière (chapitre 2) alors
;
:
f
(x)
I"IR f E) d148
PH TASSI - S. LEGA T
LES LOIS DE PROBABITITE USUELLES
est une densité de probabilité d'une v.a. continue. De même, sous réserve d'existence, toute fonction f développable en série entière à termes positifs :
f(?l.:
x
x€lN
peut être utilisée pour donner naissance à une loi discrète
P(X:^1
:
: -u-" r (0)
De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans les modélisations probabilistes des phénomènes physiques, socio-économiques ou autres
?
Exemple Considérons le développement en série des fonctions ch et sh
chu:
oo
oo
,2n+1
n:g
(2n + 1)
U2n
n:g
(2n)
On a donc:
ôo
11-
!
1
n:0
ch
oo1
!
U2n
u
(2n) ,2n+
:
:
!
1
n-O shu (2n+1)!
On peut donc définir deux lois de probabilité discrètes associées aux v.a. X et 9, ensemble des entiers pairs, et J. ensemble des entiers impairs, par :
Y, définies respectivement sur
P(X:y) : P(Y:Y) : En outre
:
E(X)
d'où
Àx
ch
.À
(x€0),.ÀctR*
1
(y
yl sh,À ^v
: :
€
xeA
ch .l
^x x!
z= x€J
^ ch,À
^x x!
:
E(X) PH. TASSi - S. LEGAIT
x!
J). ,l € lRi
: ^rhÀ 149
LES LO]S DE PROBABILITE USUELLES
Une telle construction n'a de sens statistique que si la loi engendrée peut être mise en liaison avec une réalité. lci, X (resp. Y) est la restriction de la loi de Poisson I (l) à l'ensemble des entiers pairs (resp. impairs).
4.2 Les coefficients
de symétrie et d'aplatissement
X étant une v.a.r., nous noterons respectivement par mk et
/k
les moments
non centrés et centrés de X.
a)
Les
coefficients de Pearson u^
nPt-
A-Fq P2
3
u^
2
lJz
Lorsqu'une distribution est symétrique, les moments centrés d'ordre impair sont nuls ; É.' est donc nul. Le coefficient P1. dit coefficient de symétrie (on emploie très fréquemment le terme anglais de oskewness,) est un indicateur de symétrie de la loi de X. Le coeff icient B, représente le degré d'aplatissement ("kurtosis,) de la loi de X en un sens précisé ci-après.
b)
Les
eaefficients de Fisher
Les coefficients de Pearson sont moins utilisés que les coefficients de Fisher, Y1
el Yr: Y,,
:
Yr: Bz-3
JB,
L'interprétation de f1 est identique à celle de É., (skewness). La définition du coefficient de kurtosis fait référence à la loi normale. Calculons F"pour N (0,1). On sait que
:
E
(X2$
:
rt**pl 2n
r lJa :
Âa:
4
_.5. I lZ) _^ _J r
et donc
150
:
Fr:
ttt
ttt 3
PH. TASSI
- S. LEGAIT
LES tOIS DE PROBABILITE USUFL-LES
d'aplatissement de Pearson. pour une loi no?male N (0, 1 )
:
Y1:Y2:O
c)
Valeurs de y., et yzgour quelques lois usuelles
o Loi binomiale
q-P
t't
1-6Pq /2:
\,6pq
La distribution est symétrique
intuitif.
npq
(r., : o) si p -
: q : +, 2'
résurtat d,ailleurs
e Loi de Poisson
Y':,r,D On remarque que, si
,À
-
vers O, c'est-à-dire ceux de N (0,
Y": ^
+ co, les coefficients de Fisher
de g
1).
(,1
)tendent
o Loi log-normale En notant ar
:
exp
or,
on obtient:
\/,r 1 Y, : -r*2-
y": eo + 2u3 + 3u2 -6
o Loi gamma y (p, tl
Yt
26 : -7vP
Yz: - -p
o Loi bêta É (p, q)
\/: I2 Yz: PH TASSI -S LEGAIT
2(q-p)v[;l-J p+q+2
3(p+q +11 t2(p+q)'+ pq(p+q-6)l pq(p+q+2) (p+q+3) 151
LES tOIS DE PROBABILITF USUELLES
Loi uniforme
Yz: -1'2
Y't:O Loi de Fischer F (n, m)
Yt:
8(m-4) n(m+n-2)
2n+ m_"2
Yz:
m-6 121|m
-
2l' (m
(m)6)
- 4l + n (n + m -
2) (5m
-
22ll
n(m-6) (m-8) (n+m-21.
(m>8)
Loi de Student T n
y.,:O o Loi du x2 (n) Y'r
4.3
(n)4)
Yz: n*4
IB
:
12 Yz
n
Une structure générale : la famille exponentielle
De nombreuses lois de probabilité, discrètes ou continues, prennent place dans une vaste famille de lois, dite famille exponentielle (à ne pas confondre avec la loi exponentielle vue en 2.2).
Définition 23 Une loi de probabililé P0,.0 e O ensemble des paramètres de P, est dite appartenir à la famille exponentielle s'il existe une mesure p o-linie, des fonctions réelles c (d), b (x), a, (d), T, (x), b (x) et T, (x) mesurables, telles que la densité f (x, 8) de P, par rapport à g vérifie :
I
a; (d) T,
l(x,01 :c(d) b(x)sj:1 ' Logf(x, 0l
:
y(d)+P(x)
(x)
)
r
+ I a,(d)T,(x) j:1 ) )
PH.
TASSI S
LEGAIT
LES LOIS DE PROBABILITE USUELTES
Exemples
r
Loi binomiale
f (x, p)
CX
p"
{1
-
p;n-x
: cX (1 -p)n( . o )*: cI (1 J; n' -p)n e^t"n " 1-p
f (x, p)
d'où
:
:
: h(x) : c(p) : a(p) : T(x)
x
Cf (1
-p)n
f-og
lLr-p
o Loi de Poisson f (x,'À)
c(,1)
:"-'r
o Loi normale
h(x;
: e-i
:1.
^x x!
a(,À)
x!
:Log,À
T(x)
:x
:
(x-m)
:
f (x, m, a)
1
x/2n
T,(x)
:x2
T2(x)
a., (m,
r
o)
Loi exponentielle
:x
: -
e
-!o-t t/2t
^' o-, e ;7 h(x)
1m 2",
TASSI S LEGAIT
:1
mx
^" ;7. 7
"-
c(m,a) -o-1 ar(m,
"l
:
e-m2/2o2
7
:
rg,0,pl:-fro PH,
2o2
"-dx "P-1
I,**
(x)
] 53
LES LOIS DE PROBABILlIE USUELL ES
Tr(x)
:*
Tz(x)
:Logx
a,(0,o1 e Loi uniforme
h(x)
:1,r.(x)
--0
ar(0,o1
c(d,p)
:
0p
r(r)
:P-1
:
'f
:
(x,ol
1
,
i
to,
rt
(*)
Elle ne se met pas sous la forme exponentielle.
o Loi de Cauchy:
Ladensité:
t(x,01
:- 1
1
T;S_6
ne se met pas sous la forme exponentielle.
4.4 Génération d'échantillons
aléatoires
Nous avons vu que, si X est une v.a.r. continue de f.r. F continue strictement croissante, la v.a.r. Y: F (X) suit une loi uniforme %ro,r,.
Propriété 7 Soit xo (resp.
y/
le fractile d'ordre a de X (resp. Y) ; alors
Yo
:
:
F (xo)
Démonstration
P(Y< Yol d'où
:
: a: Xo
:
P(F(x) < YJ : P(X
vo:
(YJ)
F (xo)
L'une des applications de ces résultats est la génération d'échantillons aléatoires suivant une loi donnée de f.r. F continue Strictement monotone. Supposons que l'on dispose d'un échantillon (y.,. ..., Yn) d'une loi uniforme sur ,l1,
on peut en déduire l'échantillon (xr. ...,xn)Qui est régi par la loi de fonction tO, de répartition F, avec xi : F-' (yi). 'I
h4
PH' TASSI - S' LEGAIT
LES LOIS DE PROBABILITE USUETLES
:
F-r (y,i
L'obtention d'un échantillon extrait d'une roi %ro, ,lest possible par l'utilisation des tables de nombres au hasard (cf. table B). Ces tables, dont un extrait est reproduit ci-après, vérifient la propriété d'uniformité au sens où :
P(x) : P
1
10,x:oàg
(xy) :
p (xyz)
1
100
xy:
I
:-
I
1 000
xyz
OOà99
:
0OO à
999, etc.
49943 30139 07932 559 30728 83499 75500 16143 79028 59894 59543 1 3668 29757 26942 08736 71
29267 01 934 19584 13356 35803 90284 97565 65977 37442 72526 53123 99948 59762 19952 81 790 57747 87972 54981 10079 17490 15215 27197 51979 38403 23989 38549 82968 53300 '15184 73650 51 130 59160 89866 06030 88929 Pour obtenir une réalisation d'une loi uniforme sur [0, 1], on fait le choix
d'une précision et on normalise les chiffres regroupés selon cette précision ; ainsi, si l'on souhaite 4 chiffres après la virgule, on regroupe les éléments de la table par paquets de 4, qui constituent la partie décimale :
0,4994
0,3907 0,9322
0,3301
etc.
ll suffit ensuite de transformer par F-1
Exemple
f
Soit X de loi exponentielle
F(x) PH.TASSI
-S
LEGAIT
:
1
:
-
e-^
F-t 1x;
:
1-nn
1-x r55
LES LOIS DE PROBABlLITE USUELLES
Echantillon uniforme
Echanti llon exponentiel
(x)
o,4994
0,6919 0,4006
0,3301
o,4954 2,6912
0,3907
o,9322 Exemple 2
Si X suit une loi normale N (0.1), de f.r. Q, (y., ..., y^)désignant n réalisations d'une loi uniforme sur [0, 1], (O-t (v.,), ..., O-' (ir")) esi un échantillon de la loi normale centrée réduite. De telles tables ont été calculées ; celles qui suivent sont issues d'une publication de la Rand Corporation [ 1B].
.759- .804 .282 .317- .219- .318- .580.373- .535- .1 9 .775 .254- .598 .200 .543- .421 .311 .493 .574 j45- 2.332.235 1.455 .251 1.024 .062 .O09 .676 .O52- 1j94 .517 .401- 1.292 .280- .540 .175 .401- .665 .479 1.322 .O72 .867.761- .502- 1.559- .249 .1 19 .065- .8121.423- 1.O71- .642 .759- 2.276- .133 .976- 1.506 1.464 .O32 .1076- .327 .378- .055 .521- 1.404.558 .593 .737- .189 1.876- .140- 1.380- .3031.657- .837- 1.417- .548 .423- .398 .167 .147 .113 1.008- 1.080 .772- .368- .290- 2.146 .539.108- .334 .659 .192 .1 9 .861 .856 .O18.228 .1 66 .1 69- 1.099 .914- .462- 1.132 .266.852 .746- .046 .395 .735 1.526- 1.065 1.450 .090 1.130 2.623 .81 1 1.372- .647 .858 .740.043- .463- .985 .395- .386 .465 .372- .2781.092- 1.062 .601 2.509 .557- .814- .220- .0191.287 .446 .O42- .593 .366 .640 .850- .847 1.125 1.241- 2.226 1.063 .085 .016 .786 .7661.7't1 .640 .067- .o88- .031- .1 84 .550 .417 .659- 1.025- .475 o.59 .792- .468 .284 .185.213- 1,847 .223 1.640- .772- .324 .O13- 1.757 .295- .451 1.081 1.073- .073 .477- .397 1.282.665 .306 .790 .851- .935 .502- .650 .254
.661- .654- .379.231 .337- J251.117- .871- .187.551 .335 1.746.743 1.076 .766 .329- .277 1.736 1.264- .970 .639-
1
1
2.092-
1.610
1.447-
.154
.018
.533
1.445-
1.357 1.537
.002 .576 .1 08 .233
1.201.3851.043-
1.239-
.155
.928- .802 .670- .821.643 1.339 2.503 .162.895 2.238.070- 1.367-
.891 1.170 .130 156
.903.340.205
1
1
1
1
1
1
1
1
1
1
PH. TASSI - S. LEGAIT
tES LOIS DE PROBABILITE USUELLES
.591 1.342- 1.194 1.428 1.470_ .487- ' .792- 1.453 1.465- .390 1.048- 2.550- .241- .109_ 1.385_ .984 .357 .563 .371 't.217 .976 1.516-1.177_ .737_ .O18 1.008- .849- 1.272-
.596- .219- .726.315- .999- 1.788 1.441- 1.171 .192.413 .269- .602
.903
.417_ .592 .315_ .O85
1.202- .450- .668- .212 1.161 .796 2.186- .461 .848 .236-
.066- 2.523- 1.270 .914 .157.624- .614- .566 1.292 .776 .768- .712 1.O01- .O12 .4561.192- 2.081- .157 .708 2.132- .297.214- .625 .699- .276 1.505 .672 .640 .677 .965- 1.066 .189- .657 1.714 1.131 .OO1- .342- .039 1.486 .848- .207- .396 2.358- .045- .0871
Si X suit une loi N (m, a), l'échantillon gaussien sera
(m +ao-'
(yr). ..., m + o
o-t
:
(yJ)
De tels échantillons nau hasard non uniforme> sont fréquemment utilisés pour simuler des comportements aréatoires. on pourra se reporter, par exempre, à t9] pour des applications de la simulation et à pour un irès détailié ,rr.'i"J [b] nombres aléatoires. ""poré
PH. TASSI - S. LEGAIT
EXERCICES 4.1
Génération de la loi logistique Soient X et Y deux v.a. indépendantes suivant chacune une loi de Gumbel (cf. 2.5). Donner la loi de Y, dite loilogistique. En déduire E (Z)et V (Z).
Z:X-
lndication.'changement de variables : S (x, ftu,
En posant
t:
ry
(u,
z)
,(zl
eu (1
+
e
z)
:
:
(x, x
exP
e-z
l2u
Jf eu
:
tz?l f,
:
y)
:
-
y)
:
(u, 4.
- z - e' (1 + e-t)l {1 +
e-')1
'u-eu
e_z
du
Vz €lR
(1 + s-212
est la densité d'une loi logistique.
E(Z)
:
er
g
v(Z)
:
7T
2
3
Remarque La loi de la dilférence de deux v.a. indépendantes suivant la loi de Weibull, au sens où elle a été définie dans la remarque du paragraphe 2.5, suit également une loi logistique puisque cette dernière est paire ;
e-z (1 + 9-212
4.2
ez
(1
+ szl2
Lol de Cauchy Soient X et Y deux v.a. indépendantes de loi N (0, 1). 0n définit la u.a.
'l)
Z
:
X
-
.
Exprimer la densité de la loi de Z, dite loi de Cauchy. Comparer les positions respectives de la loi de Cauchy et de la loi N (0, 1 ).
2)
La loi de Z admet-elle des moments ?
3)
Calculerla densité de lav.a. U
:
0+
oZ (d€ IR,a)0)?
lndication
1) 0n
effectue le changement de variables: h (x,
y):
X
(x, z) où v
158
PH.
IASSI - S. LEGAIT
LES LOIS DE PFOBABITITE USUETLES
l.r 1n-r11
- l4
ftr,
et
z
d'où
(*' Yl ,r
I
,-i 2r
: L
[^"
y"l
:
f(*,
z)
_l .1^0 lr(zl: - 2"r, J__ *t
x'
2
1l
'
1-tx 2'
--
I
t) :
(*'
t, (zl
2r
x
+
z
^,
lxl z
I
+
2
,l z"
dx
1+-
+ ---- ^ 2r z'
: --l-n (z'+
2
f
-0
Pour comparer les positions respectives de Ia roi de cauchy et de N {0,
P(z> 1) :
l:*1 -: n 1z'+ ^
dz:
o,2s
11
P
(X>
l) :
0,1587 (cf. table
1).
0n dit que la loi de Cauchy est <à queue plus épaisse> que (0, N l).
1/\En
La loi de Cauchy n'admet aucun moment car les intégrales
J^*æ n(z'+11 -æ -. ,. zk
sont indéfinies. 3)
fr(u)
dz (k211
: "l,-.æ;A
PH TASSI - S. LEGAIT
_1 xe
2
,"1t*11 zdx
1)
etP{X)1}.
2)
+
:
r), on compare p {z
>
l
}
LES LOIS DE PROBABILITE USUELLES
4.3
Montrer que si X et Y sont deux v.a. indépendantes de loi N (m,
a) alorsX+ Y etX- Y sont
indépendantes.
lndication
(;t;):(t;)(i)
donc (X + Y, X
-
Y) est un couple gaussien.
ll suffit de prouver que X + Y et X
-
Y sonl non conélées pour assurer I'indépendance.
E((X+Y) (X-Y))
E(X+Y;
Donc 4.4
:
E(X2)-E(Y21
:
g
et E(X-Y1 :g Cov(X+Y, X-Y): 0
:2t
Loi de laplace
Soit f (x)
:
_ I'l
k
e
0,0êlantunparamètreréel strictementpositif.
1)
Déterminer K de façon que
2)
0n pose
3)
Calculer E (Yr), Vr
, :
f soit la densité
de probabilité d'une v.a.r.
X.
X
7
.Déterminer la loi de Y. appelée loi de Laplace normalisée.
€
lN*. En déduire E (Y) et V (Y).
lndications
1) 2)
^+oo J'_Kr
La densité de Y
-4e dx:l
+
I
K-
n
s'écrit:
:7
1
s (y)
3)
E
(Yr)
e-lvl
: d:+ ,r ,-lvr -æ
6v
L
Si r est impair, la fonction à intégrer sur lR est impaire et donc E (Yr) à intégrer est paire et : oo
E(Y')
d'où: 160
^* : JO E(Y)
yr e-Y
:0
dy:
l-(r+1)
et
V(Y)
:
:
0. Si r est pair, la fonction
r!
:2 PH TASST
_
S
LEGATT
LES LOIS DE PROBABILITE USUETLES
loi de Pareto La v.a. X suit une loi de pareto si sa densité est donnée par
f (x)
==
a0a
114*-1(t)
,r-,
:
(a)o'd)o)
l)
Calculer E (Xk) en précisant les conditions d,existence,
2)
Déterminer le mode et la médiane de X.
lndication
r)
E
n'existe que
Alors
si
a-
k+ I > l,
(Xk;
: l)*
o e,
dx
k
c,est_à_dire si
:
E(Xk)
: a1o[-
1 (a - k)
I
+oo
lg xa_k
o,ok - a-k
d'où:
E(x) 2)
::.
o@)t)
q_l
:
(a-21@-11"
Ê @>zl
Le mode est en d.
Vx)d:F(X)
F(x)
4.6 toi
et v{X)
:
=$
agd 1a+1
I
-(è1: 2
21/a
6
dr
:
I
0a _(_) X
donc la médian e est en 21/a
0
du khi-deux décentrée
soit x
:
(xJ,:,
,n, un vecteur aréatoire
gaussien de dimension n, de roi N (0,
un vecteur de lRn, 0n définit la variable aléatoire
Y: llX+0ll'= PH TASSI S LFGAIT
:
n
i:l
(x. + 0il2
rJ. soit d
:
(d;);:16n
LES LOIS DE PROBABILITE USUELLES
Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou décentrage)
de
:
n
t Ê,:ll0ll'
^0n la note
:
X'
i:l
I
1n, À1.
1)
Montrer que la loi de Y ne dépend que de la norme de d et non de
2)
Calculer son espérance et sa variance.
3) Si (X;);=16n sont n v.a. indépendantes de lois
respectives N (m,,
d
lui-même.
a,). 0n dit que U:
I
X]suir
une loi du khi-deux décentrée généralisée. Calculer E (U) et V (U).
lndication
1) Soient 0:10.1,-'un et
Z:X+0: z' : x + 0' ..
Soit
2 et llZ'll2
Montrons que llZ ll
lld d'où
d' : (dilt:,.n
ll :
ll = f
Z-> N(d,ln) z' -> N(d" ln)
llZll':
llAZll2
Anrn orthogonale telle que
->
N (0,
:
zl
E(Y)
: J.
r1x]f
llAX+AAll'?
l.) ; AX +
Z' et AX + d' ont même loi, donc llZ ll2
V(Y)
:
vt
i-
i:l
lx?I
+ 2ï. 0
I
â',
i:l
:
:
->
E(X,)
I
+27iXill: : I'
V(Y)
I
0'
:
A0
llAX+0'll" N
(4"
ln)
et llZ'll 2 ont même loiX'?
t:l
I
ll0'll
:
AX
t
lldll :
ont môme loi.
lld'
0r:
162
deuxvecteurs de lRntels que
V(IXÎ)
+ 1. s2
:
(n, lle li'?).
n+
À
I
tV(Xlt+ 40?ulxil+4d,Cov(XÎ,Xi)l '
+4À:2n+4À PH.TASSI
.S
LEGAIT
LES LOIS DE PROBABITITE USUELLES
3)
=.{,
E(u)
v (u) Comme
X,-fi,
tt tx]t
- r' txJt
111,
on déduit E
(Xi-
mi)4
-
3 oai
I
: :nnl3oa+6n'.o7 *r1I
@1,+n?y21 I I
'
i:l
4.7
i
i:l .
suit y=
--)
:
V(U)
:
2m2
:
( d'où
+ E21x,}J: zo2 +
tu(X,)
t-l
: t
soient n v.a. indépendantes (x,) de densité f.. 0n définit les probabilités
:
p,
Montrer
que P
: - i i:l
Zo:,@?,*
i:l
2n1J
:
X.
t, {t) dt
{'
2 Log p suir une loiy2 (2n). '
lndication P,
.1,
F (X,)donc
La densité de
-
P,
: -
varraDle:9lx'l
-? Aro.r,
(cf. exercice 3.1, chapitre 3). 0n effectue le changement de
2Logx.'
2 Log P s'écrit
:
:
s (t,)
I
2
donc
-
2 Log P
-)
X"
el;
les
X
,-
"'
1i0, * -J
(v)
sont indépendantes. les
p
aussi, donc:
n
i:1
.
I
PH TASSI S. LEGAIT
163
Chapitre 5
Géométrie des variables aléatoires Ce chapitre aborde deux aspecis différents des variables aléatoires. Le premier est relatif aux propriétés des v.a. admettant espérance et variance ; le second établit les bases de la géométrie des v.a. ayant une variance finie, et les approximations de v.a. qui engendreront la régression statistique.
1
ESPACES DE VARIABLES ALEATOIRES
Dans ce paragraphe, nous ne considérerons que des espaces probabilisés ; la formulation la plus générale fait référence aux espaces mesurés (voir, par exemple, t
16l)
1
.1
Les espa ces
9 t et
L1
Soit un espace probabilisé (O, u4, P) ;on note 9., (A, .nl,Pl- ou 9., si aucune ambiguïté n'existe sur I'espace probabilisé - l'espace des v.a. réelles, intégrables, définies sur (Q, .&1. On sait par ailleurs (chapitre 2)que la relation oégalité P - presque sûrement, est une relation d'équivalence sur 9.,. Définition
1
On appelle L.' (Q, ué, pl l'espace quotient P -ps.
de 9., par la relation d'égalité
L, (Q, ol , e) est donc l'ensemble des classes d'équivalence de 9., par la relation d'égalité P - presque sûrement. On le notera L, par la suite. En assimilant v.a. et classe de v.a., L1 est l'ensemble des (classes dei; v.a. admettant une espérance. Par exemple, la loi de Cauchy (cf. chapitre 4) n'appartient pas à L,. Théorème
1
Ll est un espace vectoriel sur
llxlll PH TASS] -
S
LEGA T
lR normé par
:
Jlxl
dP:
:
E(lxl) 165
GEOMETRIE DES VARIABLES ALEATOIRES
Notons que J XOp a un sens pour X € Ll ; on fait la confusion de symbole entre X et sa classe d'équivalence, car si X et Y sont dans la même classe, on a :
E(X) ll est facile de montrer que
:
vÀ € rR llixll,
L.,
:
E1Y1
est un espace vectoriel. En outre
:
llxll, .llx+Yll,: -ilx*vl op<"flxl dP+Jlvl up:llxlll + llYlll o llXll., : 0 <+ X : O; en effet, on a vu (chapitre 2) qu'une o
négligeabilité
l,1l .
de X est E (lXl) :
CNS de
0.
On peut alors introduire une notion de convergence dans
L.,.
Définition 2 Soit (Xn) une suite de v.a. de L.,. On dit que Xn converge vers X au sens de
(noté Xn
L-
+
X) si
:
llX--Xll, Remargue
: -llX--Xl dP----> 0 (n*-1
f lJ xn on
d'où
L.,
-
J xdPl
:
l-f (Xn
- x) dPl <
"f
lx^
- xl
dP
:
L.
Xn-) x '+ E (Xn)
E (x)
->
Remarque 2
Plus généralement. on peut montrer que l'espace L1 (O, e' p) est un espace de Banach, c'est-à-dire un espace vectoriel normé complet. Ce résultat est connu sous le nom de théorème de Fisher-Riesz.
1
.2
Les espa ces
I
z et L2
Définition 3 On note 9r(Q,.4, n l'espace des v.a. réelles de carré intégrable. L2(A,,t4, Pl est l'espacè quotient de 9, par la relation d'égalité P - presque sûrement. noté Lr. 166
PH TASSI
-S
LEGAIT
GEOMETRIE DES VARIABTES ALEATOI RES
. L" est donc l'ensemble des (classes de) v.a. admettant un moment non centré d'ordre 2 (v.a. de second ordre) :
E(X2;
: Jx2op <
æ
Théorème 2
L, est un espace préhilbertien. c'est-à-dire un espace vectoriel sur lR sur lequel I'application L2 X L2 ----> lR définie par :
(x,
Y)->
<x, Y>
:
E
(XY)
:
J XY dp
est un produit scalaire.
ll est faciie de montrer à partir des propriétés de l'intégrale que forme <x, Y> est bilinéaire symétrique strictement positive, c'est-à---dire eit unlaproduit scalaire.
Conséguence La norme au sens de L, est notée llX
llxllS: JX'?dP
ll, et définie par
:
ou llxlir: Glx't
La notion de convergence dans L, s'en déduit
:
Définition 4
soit (Xn) une suite de v.a.r. de Le ; Xn converge vers (noté
L^ Xn é) X)si
ra v.a.r. X au sens de L,
:
llXn
-
X
ll, ----->
i.e E(Xn-X)2->
O
O
(n*-)
Très utilisé en statistique, ce type de convergence porte aussi re nom de
convergence en moyenne quadratique (m.q.).
Exemple
soit Xn (n ) 1)une suite <Je v.a. de loi binomiale B (n, chaque n, la variable aléatoire ofréquence empirique,
p).on définit,
pour
:
-n
PH TASSI S. LEGAIT
X
167
GEOMÉTRIE DES VAR ABLÊS A,LEATOIRES
x_ ^ 1 t(ï-p)':Ër,*"-np)':
1 ,
.
V(Xn)
:}: p(1 -p)
Fn converge vers p au sens de Lr.
Considérons le cas particulier où la limite est une v.a. constaRte a
:
E(Xn al' : E(Xn-E(Xn)+E(Xn)-a)2
:
+
V (Xn)
(Xn)-
1E
al2
Une C.S. de convergence dans L, de Xn vers a sera
( ri,.n lnl I I lt'.n (n
E(X")
:a
V(Xn)
:o
:
Théorème 3 (Cauchy-Schwartz) Soient X et Y deux v.a.r de L, ; on a
llxY
:
ll, <
llx
ll,
llY lln
Théorème 4 (Minkowski) Soient X et Y deux v.a.r. de L, ; on a
:
llx+Yll, < llxll, + llYll, Les démonstrations des théorèmes 3 et
4 seront abordées dans un
cadre
général en 1.3.
Remarques
a) Dans le théorème 3, si l'on prend
Y
:
1 (ps)' on obtient
:
llxll, < llxll, Donc L, C L, et toute v.a.r. admettant un moment non centré fini E (X2) possècle une espérance finie;L, est l'espace des v.a.r. ayant espérance et variance f
inies.
b) Si, dans le théorème 2, on remplace X et Y par X-E (X) et Y-E (Y), on obtient
:
<X-E(X), Y-E{Y)> :
Cov(X,Y) PH,
TASSI S. LEGA1T
GEOMETRIE DES VAR]AB LES ALEATOIRFS
c) Plus généralement, on peut démontrer que L, est complet, c,est-à-dire
possède une structure d'espace de Hilbert.
1
.3
Les espa ce
g
^ppet L_
Définition 5
ge(A, u(, n désignant t'espace des v.a.r teiles que E (lXpl)< * Lo est l'espace quotient de 9 la relation d'égalité p-ps. rpar La norme sur
Lp est
(1
(
p
< -),
:
llx ll p
:
(-f lxl P dP)t to
Les trois propriétés suivantes sont classiques et généralisent celles qui ont été énoncées ci-dessus.
Théorème 5 (croissance)
X
=à
llxll p < llyllp
Ce résultat est issu de la croissance de l,intégrale.
Théorème 6 {inégaiité de Hotder)
p
)
1, q
)
1/e: 1 :ilXyli,
1, 1/p +
Démonstration
i) Soita
)
0, /3
>
O,
a+p
-
1.
Montrons que pour f et g mesurables
I
fo gÊ
dp
(
I"l"
déf inies
sur (O, ,rl , pl, on a
:
tdttlol! sdpll
Si J fdp : -, l'inégalité est triviale ; de même si I tdp : O, alors f est g-négligeable, donc fa gÉ également, et I'inégalité est vérifiée à l'égalité. Considérons le cas général 0 < J
Ya
) 0, b > 0
our PH TASSI
fdg
( *. On sait que, par ia concavité de la fonction Log Log(aa
+ Bblè a Log 6+pLogb
sa + Êb2 S
LEGAIT
:
a"bB 169
GEOMETRIE DES VARIABLES ALEATOIRES
Posons
:
lrdp fd
-[sds
f
gP
jrdpY ll sdttlq .----\u
I
lrdp
En intégrant par rapport à p, on obtient
ds
1r" sB
(
d'où le résultat annoncé puisque a
ii)
Prenons
p:
t:
P,
(a +
IXIP,
J lxYl dP
<
+
F
s:
*B
g
l
sdp
:
pl I l fdpl" t-l"sdplq
:
1.
lvlq,
o: +, P: +;
onobtient:
t"i lxlp dP11/p t"i lYlq dPltzo
Cas particulier
Soit I'i
p : 2, q : 2: on retrouve llxYllt
négalité de Cauchy-Schwarz.
Théorème 7 : (inégalité de Minkowski)
Yp21
+llYll ilx+Yllp
Démonstration.
i) Pour p ii)
=
retrouve E(lX+Yl)
1, on
+ E(lYl).
Soitl
En prenant I'espérance
: <
lX+YI .lX+YIe (lxl +lYl).lX+vln-1
:
lxl .lx + vlo-1 + lYl .lx + Y;n-t
:
Jlx+vlpdP < Or, d'après le théorème 6
"ilxl lx+Ylp 110
< E(lxl)
"f
lxl lX+Ylp dP + -f IYI lX+Ylp-'oP
:
dP
: llx.(x+Yl)p-'ll, < llxllp. ll(x+Y1o-11;o PH.
TASSI S. TEGAIT
GEOMETRIE DES VAÊIABt ES ALEATOIRES
"l"lYl avec
d'où
:
lX*yle dp< llyllp.tl(X+y)p
11 _+__1,soit q p
p
Q:_p-l
:
Jlx+vlpdP: llx+yllB < |lxllp + llyllp) Or: ll(X+
r.e.
Soit
lltq
Y)P-1
ll! : :
J llx -f
ll(X+y)p- t ll o
il(X+y;o-1110
+ y11 (o-l)a 6p
lX+YlPdP
:
llX+y1;n-i
:
llX+ YitB et donc
< |lxll p+ llyll J. llX +y11 0-t
:
llx+Yllp
2
<
llxllp+ llYlle
UN PEU DE GEOMETRIE
Le fait que L. ait une structure d'espace de Hilbert, c'est-à-dire qu'il existe un produit scalaire. l'orthogonalité, etc., peut nous autoriser à y faire de la géométrie. Avant de travailler sur I'espace des variables aléatoires du second ordre, nôus allons rappeler l'interprétation géométrique de quelques-uns des concepts de la statisti-
que descriptive.
2.1
Statistique descriptive géométrique
soit une variable réelle quantitative X dont on possède n réalisations (x,, .... xn). La statistique descriptive propose un certain nombre d'indicateurs résumant l'information contenue dans l'échantillon, en particulier :
I
la moyenne quadratique
PH.TASSI
-S
LFGAIT
171
GEOMEIRIE DES VARIABLES ALEAIOIRES
o la moyenne arithmétique
:
X:
.
la variance empirique
1n :x. n i:1
|
:
s,r-
1
n
I(x -i)2
o la variance empirique modifiée
st :-i
n^ n-1
n-1. r(x -x)2 |
Si sur le même échantillon, on a les réalisations (y.,,...,yn).d'une seconde variable Y, on peut calculer le coefficient de corrélation linéaire empirique :
r(X,Y)
I (xi i)
:
(yi
-
V)
ll existe de nombreux autres indicateurs de tendance centrale ou de dispersion:lamédiane, lernode, lesfractiles. l'écartabsolumoyenl n
tf*i-il,
l'éten-
due, les intervalles interfractiles, etc. Nous ne présentons ici que ceux qui ont une i nterprétation géométrique.
A noter également que i, S'2 ou r ne sont que l'espérance, la variance ou la corrélation linéaire théoriques de X (ou (X, Y))calculées par rapport à la loi discrète uniforme :
Pn
1n n i:1
xi
nommée loi empirique. X (resp.
ï
...,v])est
représenté par un point ; Ë désigne le vecteur bissecteur, de coordonnées (1 , ..., 11.
Dans lRn, l'échantillon (x', ...,xn)(resp. (yr,
Soit H (resp. O) la projection orthogonale de X (resp. Y) sur le sous-espace de dimension 1 engendré par Ë. Le produit scalaire. Ol,a ) est égal à :
aveccosa:
112
: r*, :
oX..v6 cosa
OH
OX -,d'où:
I*, : OH.\Â; Ott: 16 i PH TASSI . S. TFGAIT
GEOMETRIE DES VARIABLES ALEATOIRES
Dans
pointHadoncpour coordonnées
lRn,
/,\ H-t.l
,i.e. OH:i.Ë
\ "/ La moyen
quadratique q est,
OX'
1
à
: :n
x'.
i:l
I
1
>
OH. on en déduit
près, la longueur OX:
- Vn--
a:.16 Comme OX
:
-
nq'
oX
: q ) i.
La variance (ou l'écart-type) est également facilement interprétable
XH2
ou: PH TASSI S. LEGAIT
: : (xi i)t : ns,t : XH : .16. S,
(n
_
:
1) 52
113
GEOMETBIE DES VARIABLES ALEATOIFES
Calculons maintenant
OY)
:
-
:
(xi- x) (yi- i) .6s; . .v6s; cos a
>
où Si et Sidésisnent les écarts-types empiriques de (xr, .. ,xn)et (y.,, ...,yn)
cosd:
>
(xi i) (vi - v)
ffi
:
:
r(X,Y)
Le coefficient de corrélation linéaire empirique n'est autre que le cosinus de l'angle entre les vecteurs associés aux variables X et Y centrées en leurs moyennes respectives.
2.2
Géométrie dans L,
Plaçons-nous dans l'espace des variables aléatoires réelles de carré intégrable L, (Q, .4, gl, muni du produit scalaire de la covariance :
<x,Y>: JxYdP:
E(XY)
On désigne pare lavariablealéatoiretelleque e(<..r):1 Va.r €A, P1R):1 e engendre le sous-espace de dimension 1 des v.a. constantes, inclus dans Lr. On sait
E(X-E(X))
:
E(X-E(X)) ll en résulte que
E (X)
'
:0
: <X-E(X), e):0 + X-E(X) Ie est la projection orthogonale de X sur
e.
Remargue Soit X telle que E (X) 114
: O;
alors x
I
e.
PH.
TASSI S, LEGAIT
GEOMÊTRIE DES VARIABLES ALEATOI RES
comme dans le paragraphe 2.1 , on peut interpréter géométriquement un certain nombre de concepts probabilistes.
(x)
: E(X-E(X))': llx-E(X)ll;
V(X)
L'écart-type a (X) est donc ra rongueur (dans Lr) du vecteur Si Y est une autre v.a.
x
-
E (x).
;
<X-E(X), Y-E(Y)>:Cov(X.y) : o(Xl .o(Y).cosd où dest I'angle formé par les vecteurs
X-
E
(X) et
y-
E (y).
Ona: cosd
Cov (X. Y)
= o(Xl .o(Yl
o(X.Y)
coefficient de corrélation linéaire entre X et y.
2.3
Approximation dans L,
a) Approximation par une v.a. constante Soit Y une v.a.r. de loi connue ; peut-on I'approcher au mieux (au sens de Lr) par une v.a. constante ? PH TASSI. S,
LEGAIT
115
GEOMETRIE DES VARIABLES ALEATOIRES
Y et
Soit donc à chercher une constante k minimisant le carré de la distance entre llY - k ll; : E (Y - k)t. Le calcul peut être fait directement :
k.
Min E(Y-k)'<+ Min k2-2k E(Y) + E(Y2;+
kk
k:
E(Y)
La constante approchant de façon optimale Y est son espérance E (Y).
Géométriquement, la constante la plus proche de Y est la projection orthogonale de Y sur le sous-espace des v.a. constantes engendré par e ; en utilisaFt I'interprétation géométrique précédente, k : E(Y).
b) Approximation par une v.a. guelcongue Soit (X, Y) un couple de v.a.r. On cherche à approcher Y par une variable X proportionnelle à X, I : kX. On considère le s.e.v. engendré par X.
La variable kX la plus proche de Y est la projection orthogonale de'Y sur X
:
écrivons que Y-iO( est orthogonal à X. E ((Y
d'où
-
kX)X) =
E(xY)-ke(xt)
:
k176
o:
E (XY) E (X')
PH.
TASSI S,
LEGAIT
GEOMFTRIE DES VARIABLES ALEATOI RES
X
: E* (XY) E (X')
. X est la meilleure "explication lin€laire, de Y par une v.a. colinéaire à X.
Nous n'avons fait a priori aucune hypothèse. L'examen du résultat montre qu'il faut connaître au moins E (x2) et E (Xy) pour résoudre le problème.
c) Approximation affine soit (X. Y) un couple de v.a.r. on cherche à expliquer y de façon affine par une v.a. appartenant au sous-espace engendré par e et X, L, (e, X). cela revient à chercher des constantes â et b telles que la distance ent-re y et âe + bX soit minimale.
L, (e, X)
ll est clair que Î : âe + bX, projection orthogonale de y sur L, (e, X), est le point de L. (e, X) le plus proche de Y. Les paramètres â et b sont leJcoordonnées de Y sur e et X (pour que le problème ne se ramène pas au cas précédent, il faut supposer X non colinéaire à e, c'est-à-dire X non constante). Ecrivons que Y
-î
-J-
e, et y
-
1-J_
X
:
E(Y-âe-bX1 :9 E((Y-ae-ôXlX) :0
â+b e(X) : âE (X)
E(Y)
+ br (X')
:
E (XY)
La résolution de ce système en â et b conduit à
a: PH TASSI S LEC:AIT
E(X'?) E(Y)
-E(X)
V (X}
E(XY)
GEOMETRIE DÊS VARIABLES ALEATOI RES
^u: Y:
E (Y)
*
Cov (X,
o (Y)
wR
Cov (X, Y)
(X
(X)
V
Y) :
-
ooa)
P(x'Y)
meilleure approximation affine de
E (X))est la
Y.
Remarque ll faut, ici, supposer connus au moins E (X), V (X), E (Y). E ff'?), E (XY).
Approfondissement : qualité de l'approximation lntuitivement. la qualité de I'approximation de Y par un élément de Lr (e, X) est d'autant meilleure que Y est proche de L, (e, |). Cette proximité est mesurée par le coefficient de gétermination R' égal à cos' 0, 0 étant l'angle formé par les vecteurs Y
-
E (Y) et Y
-
E (Y).
Remarquons que E (Y)
:
E
(1
par application du théorème des trois per-
pendiculaires.
rrÎ- E llrrÎ R2
ilY_E(ïil3 Projetons X sur e en Ë (X) et menons de l'origine le vecteur équipollent à E (X). Alors, par le théorème de Thalès, la parallèle à e menée de Y coupe x-E(x)enb(x-E(x)). et doncl- e 1Ît b (X- E (X))
X
-
:
ll s'ensuit
:
R2: b2
V(X) V
(Y)
Appliquons le théorème de Pythagore au triangle rectangle
llY-E(ïil3:
ff,1,
E
ff))
llÎ -
E
(Î)ll3 est
:
ilÎ-Et?ttt3 + llY-Î11;
Or llY - E (Y)ll! est la variance V (Y), dite variance totale, variance de ?, Oite variance expliquée par l'approximation affine.
ta
Ën remarquant que, avecZ: y - Î, E lzl: o, llY - ?1; ! est la variance de Z, dite variance résiduelle. On obtient alors la célèbre formule de décomposition dite d'analyse de la variance
Variance totale
:
:
variance expliquée
Le coefficient R2 mesure donc variance de l'approximation Y : variance R2
+
variance résiduelle.
la part de variance totale expliquée par
expliquée
variance totale
la
V (V) V (Y) PH. TASSI
. S. LEGA]T
GEOMETBIE DES VARIABTES ALEATOI RES
L'approximation affine sera d'autant meilleure que V (î) est proche de V (y), c'est-à-dire R2 proche de 1, c'est-à-dire d proche de O. Généralisation
on peut chercher à approximer une v.a. y par une v.a. située dans le sousespace de Hilbert L engendré par (e. x1, ..., xe), où X,, ..., Xo sont des v.a. telles que L est de dimension p + 1, c'est-à-dire que, quel que soit i : 1 à p, X. n'est pas une constante et, quels que soient i et j, X. et X, ne sont pas proportionnelles.
9, la meilleure approximation de Y dans L, est telle que
î:âo*,Ë.,
:
,, *,
où les paramètres âo,âr,..., âo sont calculés en écrivant que
v-?re
Vi : 1àp
Y-îrx '
En écrivant Q la matrice (p + 1. p + 1) de terme général
où k, n :
@k,n:E(XkXn) 0 à p, avec la convention Xo : e, et en notant
/:.\
q-['[,1"1,/ â-ltil \ âe// \ PH.
TASSI S. LEGAII
:
lEn\I
o:/elx,v1
\E(xDy) /
\
/
:
;
/"\
*:/{,\
\x_ \"r/
I 119
GEOMETRIE DES VARIABLES ALEATOIRFS
Oâ: â: d'où
Q-l
b
b,
1:t"Q-tb
:
2.4
lnterprétation des lois du khi-deux et de Student
Soient X', ..., Xn,
n
v.a. indépendantes de même loi N (0,1); le point X de
coordonnées "cartésienneso (X.,, ..., X") se déplace dans lRn de façon aléatoire, chaque coordonnée étant au uhasard gaussiënu.
Avec les notations précédentes, la coordonnée de H sur e est X, de loi N
(0,
1
+ vn
);
la longueur OH
: r,6 X suit donc une loi normale
N (0,1).
n
La position de X étant aléatoire, OX2
: ,:. t-
X1 est une v.a. dite, par
définition,
|
suivre une loi du khi-deuxxt (n) (ct. chapitre 4). Le vecteur
voir que
180
X,-
i
Èl
".t
de coordonnée courante X,
suit une loi normale N (0,
/
- *, i :
); en effet
1 à n ; il estfacile de :
PH, TASSI
- S, LEGAIT
GEOMETRIE DES VARIABLES ALEATOIRFS
.
E
(X
-X) :
O car Ë estorthogonal au sous-espacede dimension n
-
l
contenant H1
o
V(X,-X) :
-
V(X;)+V(X)
1+
12 ; - ;
2Cov(X,.X)
(u(Xi) +
Xj))
n
Pour la même raison d'orthogonalité
Cov(i,
f; :
1) Cov(Xi,
1
-1-
a) Loi de
(n-
:
X,-x; : g
Vi : 1àn
nSlSçz
Lemme préliminaire Soient X,, ..., In n variables aléatoires telles que Cov (X,, X,) : O Vi, j, i+ j et v (xi) : o'vi. on effectue un changement de base orthogonar, et on note
(Y,. , Yj
les transformés de (X,, ....
Alors:Cov(Y,,y,)
: O Vi, i i +j.
Xj
ainsi obtenus.
Démonstration
soient fr, ... f^ les vecteurs de la nouvelle base. Dans l'ancienne base,
matrice F du changément de base représente la transformation orthogonale
la
:
rnr\
/n'
t:
:\
F- [ t,,
rr,
.l
\:t.," \
,
I
^^,/
Alors X : FY où F est une matrice orthogonale (rappelons qu'une transformation est orthogonale si le système d'axes orthonormés initial est transformé en un second système également orthonormé), et donc
ft'\ : (l; \'/ PH,
TASSI S. LEGAIT
Y
:
F'X.
l:\ ft'\
\,^, ,.",/
\-^/ 181
I
GEOMETRIE DES VARIABLES ALEAIOIRES
.n Y' k:1
Or
:
:
Cov (Y,,
Y,)
Cov (Xn,
X,) :
Cov O
tn
Vk
!.,
;r
,n
Xn,
,1,,
t,, *,1
1
: >>f.f,, Cov(yyl 'r't'
Cov(Xk,Xt)
k I'n >f f.
:
f
V(Xk)
k'*JK
: o't
:o
k
f..f.. rKlK
d'après les propriétés des matrices orthogonales.
Théorème de Fisher Soient n variables aléatoires (X.,,...,Xn) suivant indépendamment la loi normale N (0,1). n
Les variables
16 Xn et t . l:
(xi
- X)t :
(n
-
1)
Si - nS;'
sont
I
indépendantes et suivent respectivement N (0,1 I et X'(n
-
1)
Démonstration Soient (e.,, ...,en) la base de départ, (f1, ..., fn) la nouvelle base orthonormée. n
Le vecteur unité
Ë peut s'écrire
X représentant le poinr t(x.,,
I i:1
ei. |
....Inl,on sait que
est donc la coo-rdonnée de X sur le vecteu,
+Vn
unitaire.
f^ : Effectuons alors le changement de base tel que 'nVn Nous avons
'.
+
"
X182
é/\6> : 16 Xn. \Æ Xn
n
j:1 I
t
PH,
TASSI S. LEGAIT
GEOMETRIE DES VARIAB LES ALEATOIRES
X-Ynfn D'autre part
:
: X-.6 *"t" : :!] Jn
X-VnX-t:: ' n n
X.e l:l -'-i-
:
'-6
ol
t,t, |
1
n
Vn
i:1
--F-
|
n
-X n'lte i:1 n n-1 _ : (X,*X)e: | n' i:1 ' j:1 I l |
D'où
:
Les variables (Xr, ...,Xn) étant non corrélées, le lemme préliminaire permet d'affirmer que les variables"(y.,,...,y^) sont non corrélées. comme images de (Xr,, ,Xn) par une appricatiori linéaire, y,, ...,yn sont des v.a.r. normales .normales et donc iôdépendantes.
lesX suivantN(O,t),onvoitaisémenrquey ->N(0,1),Vj
s-,^^^,111'", ensutt
:
t
à n.
1
:
.
Yn
: n6 X" suit N (0,1), résultat que nous connaissons
déjà.
o Yn est indépendant de Yr, ...,yn_r et par conséquent, est indépendant de
. r
n-1 j:l
n-1
I . j:l
_ YÎ suit, par déf inirion, une loi du ;2
(n
'
-
1).
L'application orthogonale conservant,les distances
n-l j:l i:1
une loi N (m, a)
;
n
r
n
et donc
l
i:1
|
:
Corollaire Soit (X,, ..., Xn) n v.a. de même loi N (m, a), indépendantes ; alors
t6
(Xn
-
t)
oo,
"t
rn
-rt
5
suivent indépendamment une loi N (0. 1)et une loi X2 (n PH TASSI S LEGAIT
-
1).
:
:
GEOMETRIE DES VARIABLES ALEAIOIRES
Démonstration
ll suffit de se ramener centrées et réduites
au théorème de Fisher en l'appliquant aux variables
:
X.-m
w-l t-
to
b) lnterprétation de la loi de Student
soit X,, ..., Xn, de loi N (m, a). on a
,6
(X 'n -m)
->N(0,1)
o
S2
n-
x2$-1r
-ln-1
o" Donc, la v.a.r.
:
:
- r)
.,6 (x. U
S
:n
t
/-[Vt" -tt . numérateur et dénominaV n-1
suit le rappor:! d'une loi.N (0,1) sur une loi . teur étant indépendants (cf. chapitre D'où
.u6 (x.
:
4).
-
rn)
-)T(n-1)
n
Où la loi de Student intervient-elle géométriquement ? D'après le théorème : (n - 1) Sl suit une loi X' F - 1). On a, en revenant à la figure
de Fisher, HX2 précédente
:
cotg a
d'où
:
:
\Â-lcotga-)
OH
-
HX
suit N (0,1)
: T(n-1)
L'interprétation de y2 etI est simple : si X varie aléatoirement et <normalemento dans I'espa"", s"s coordonnées polaires également : la loi de p2 : OX2 s'appelle la loi du X2, celle de Student. 184
vGJ
cotg d, où a est l'angle (OA,
Ë) suit la loi de
PH. TASSI
- S, LEGAIT
Chapitre 6
Un outil : la fonction caractéristique Le calcul des probabilités repose essentiellement sur l'étude des variables aléatorres. Les chapitres 3 et 4 ont présenté un ensemble..de définitions et de propriétés; d'autres' comme.les convergences, seront vues dans le chapitre suivant. Ce chapitre est consacré à la présentalion d'un outil extrêmement pratique pour étudier le comportement des v.a. (somme, indépendance. limitéi: la fonction caractéristique (f.c.).
1 DÉFINITIoN ET PRoPnIÉrÉs D'UNE FONCTION CARACTÉRISTIOUE 1.1 Définition Définition
1
Soit P une probabilité définie sur (lRo,;fo) ; on appelle transformée de Fourier de P l'application g, : lRn --+ 0 définie par : pp(u)
=J
"it'*
6P
1*1
Remargue Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0.1). Néanmoins, ra confusion avec la fonction caractéristique ne saurait exister. soit P de densité f par rapport à ra mesure de Lebesgue i. p". extension. on appeile transformée de Fourier de f la quantité :
er(u) = -i eiu" t(x) d,i
(x)
ll en est de même si f est une apprication intégrabre à vareurs réeiles. Remarque Sous réserve d'existence, on montre aisément en intégrant par partie er(rl(u) = (-1)k (iu)k
-S
LEGAIT
>
:
1
185
UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE
Définition 2 Soit X un vecteur aléatoire (A,,il , P)'-+ (Ro,,l/? tique de X, la transformée de Fourier de Px: çx(u)
=
=
çpx(u)
Avec des notations évidentes, on a
o) :
on appelle fonction caractéris-
Jsitux 6px (x) = E lsituxl
:
(i Ë ,, x,) j=1 91 (u1, .'.'uo)= E e En particulier, si X est une v.a.r. définie sur
v u elR,
=
(Q.,4,P\,
E 1eiux1
:
J siux dPx
(x)
Remarque.'Y = tu X est une v.a.r. dont la f.c. est: çy(v) La f.c. de X vérifie donc
:
q
(u)
=
=
E (e'uY)
=
E (evtuxl
etul(1).
Exemples a) Soit X une variable aléatoire à valeurs dans (lN,
(lN))
:
= 2siuxP{x="} .u€lR
tpx(u)
x€N
Ainsi. si X est à valeurs sur {1. ..., n} et uniforme n
çx(u)
cl
:
n
x eiux = x=1 n
1 x n x:1
(eiu1x
n-1
:
e'u t
=
eiu n
l'l
(e,u)*
x =O
1-"iun 1-eru
b)Soit X une v.a.r. absolument continue de densité
f
186
(x)
=
À
e-
À' lRi
(x)
PH. TASSI
- S. LEGAIT
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE
On montre, en utilisant l'intégration dans le plan complexe que
:
çx(t)= 1-Àit 1
Un cas particulier : la fonction génératrice Soit X une v.a.r. discrète à valeurs non négatives ; on appelle fonction génératrice de X la fonction :
Gx (u)= E (ux)
définie pour tout u
€
O,
=
p(X
=
x)
"3*u*
lu I < t.
On a I u* PX = x)l < | u l*, et la série de terme général u" p(X = x)est donc absolument et uniformément convergente pour u appartenant au disque unité. La définition de G* revient à remplacer formellement eiu par u dans la fonction caractéristique de X : tpx (u) = Gx (eiu).
-
1
En pratique, néanmoins, les utilisations de G* (u) seront faites avec u réel, 1. On remarque en outre que G* (1)= 1
Exemples
a)Si X suit une loi de Poisson de paramèrre À : p [X = G"(u)
*]:
"-i x! ^i
: i u*e-i Àx-"-iuu,i:s.À(u-1) x=O
x
!
çxft)=ei(eit-1) b)six
est discrète uniforme à valeurs sur [1, .... n]. le calcul du a)montre que
G*(u)=u(1 -un) n(1
1.2 Propriétés Théorème
1
Soit X une v.a.r. de f.c. ç, on a a)
TASS S
LEGAIT
1
:
-u)
:
UN
c)
q(-u)=
OUIIL
LA FONCTION CARACTÉR ST OUE
tpGr)
où la barre horizontale désigne la conjugaison dans
C.
Ces trois résultats sont immédiats, et généralisables sans difficulté au cas de vecteurs aléatoires.
Théorème 2 Soit X une v.a.r. de f.c. g ; g est continue. Eléments de démonstration I
gl. l"ftrx
ç
(u
+h)-q
(u)l =
I r ("i"x 1"ir,x - t1)l
te résultat, généralisable - 1l= 2lsin hXlO'o,i 2
(leinx
- t l)
au cas vectoriel.
Par ailleurs. suriR, il est possible d'établir la continuité uniforme de rp ([16]).
Théorème 3 QaX +
En effet,
b (u)
:
eiun
çx
(au)
gaX+b (u)= E (siu (aX + b\ = siub E (ei(au)x1
Théorème 4 (injectivité) Si P et O sont deux probabilités définies sur
9P= 9O <=> P= Si X et Y sont deux vecteurs aléatoires :
(F.0, ,1lol
:
O
(Q,,r/, P) + ( 13o,7/?v1
9x= Qv <> Px:
PY
Voir la démonstration en [16]. Le théorème 4 établit une liaison biunivoque entre f.c. et lois de probabilité. Néanmoins, si, possédant une loi, on peut déterminer sa f.c., le problème inverse est digne d'intérêt : peut-on trouver une probabilité (par sa densité, ou sa f.r.) lorsque l'on possède une fonction caractéristique ? Le théorème 5 répond en partie à cette
interrogation.
Théorème 5 (inversion) Si X est un vecteur aléatoire à valeurs dans (lRP,,îel, de f.c. ç (u)intégrable par rapport à À o. la loi de X possède une densité continue f (x) définie par
:
f 188
(x)
:
(2
î)-P -ç s-itux ç (u) d
o
(u)
PH TASS -
S
LEGA T
UN OUTIL : LA FONCT]ON CARACTÉF]STIOUE
En particulier, pour une v.a.r.
:
f(x)= 1 I e-i,"p1u;du 2n _* Dernier point que nous aborderons : comment savoir si une fonction complexe d'une variable réelle est ou n'est pas une fonction caractéristique ? plusieurs résultats existent à ce propos.
6
Théorème
(Bochner,1932; t13l)
Une condition nécessaire et suffisante pour qu'une fonction une f.c. est que soient vérifiées
ç;
lR
-+
c soit
:
a)
(u) continue
ç b)Y
N ; V (u,, ..., us)
€ RN, V (21. ..., zx) € CN NN X X p(ui -u.)2,2, i= 1 j=
:
1
est réelle et non négative. c)
ç(0)=
1
Le théorème de Bochner est d'une application peu aisée. préférer une condition suffisante, par exemple
on pourra
lui
:
Théorème Soit
7 I
(Palya, t 93a ; It 3l )
(u) une fonction continue. définie pour
Si q (u) satisfait aux conditions a)
ç(0) =
b)
.p(-u) : ç(u)
c)
-
alors PH.
TASSI
ç (u)= ç est
S. LEGAIT
:
1
g (u) convexe pour u )
d) lim
tout u réel.
O
0
la f.c. d'une v.a.r. X absolument continue. r89
UI\ OUTIL : LA FONCTIOI\ CARACTÉR|SIIOUE
1.3 Un exemple de loi définie par sa f.c. Nous allons utiliser le théorème 5 pour engendrer une famille de lois de probabilité définie par sa fonction caractéristique. En 1925, Paul Lévy [12] définit la loiappelée par la suite loide Paul Lévy par:
-y lulo [1 + i Bù* (u, a)] BG [- 1, 1], y € lR*, ô € iR.
Log s (u) = iôu u
ou:
e
lO,21,
Its+qpourc*1, J'
w (u, a)=
[ +t"nlulpou,o= On remarque que a) pour
:
a= 2,8= o, r = +, ô= o:Log ç(u)=
- {,rfu\=
e-uzrz
La loi de Paul Lévy se ramène alors à la loi N (0. 1). (cf. 2.7).
b)pour
u=
B=
1,
O,
y = 1, ô = O: Log ç (u)=
-
lu
I
On retrouve la loi de Cauchy.
Détermination de la densité Les conditions du théorème 5 étant réunies, en notant densité de la v.a. de f.c. 9
f
y'
(x, e. B,
ô) la
:
f (x, a, B, y, En développant, on a
f (x, c, B,y,
ô)
:
J__ e-i'*
î;
,p (u)du
:
ô)
=
*
çeil(ô-x)u
- 1
+æ --cos
t(ô
Jo
-Bv
-
luloËlwlu'
x) u
-
al
e-rlulao,
By w (u' a)
,'1 s-Yue du
1\
Pour a
=
1, on obtient donc
f (x. c, B.y, ô)
:
I li-cos [(x- 11
ô)u +BY
uotg qn ]e-vuddu . PH TASSI
.
S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE
Particularités de la densité
c
f (x + ô, a. B, y, d'origine.
o f (x. a, B.
ô)
:
f (x, a, B, y, 0) ; on peut prendre ô = 0, par simple changement
y)= f (- x, o,- B.y).
c f (x, a, B, y) =
\-
(-j-, t/o
a, B,
(di,
a, B, y /t3)
1/" f
1)
\
o f (x, a, B, y) = (3- 1/o f
o f (x. a. B. y) = (By)- t/c
f (x/(By)1/u, a, B, 1/{3)
On peut standardiser la loi de Paul Lévy en prenant alors :
f (x, c.
*-"o,
B)= I f 7Io2
ô:
(xu + B uo
0 et y = 1. La densité est
tg -qI)e-uo
du.
2
FONCTIONS CARAETÉRISTIOUES DES LOIS DE PROBABILITÉ USUELLES
2.1 Loi de Dirac On établit immédiatement
:
çd-a (u)
:
eiua
2.2 Loi de Bernoulli Si
x ->y4 (1, p)
:
px (u)= p . eiu + q . 6iuo= p ei' + q
qx(u) = Peiu+q
2.3 Loi binomiale nn
ox(u)= x^ uiuxçxp*(1 -p)n-^ = t C|(peiul*qn-x x=0 x=O ax (u) = (pei' + q)n
2.4 Loi de Poisson si x
-)901: çx(u)
i uiux Àxe-À -eÀr = x=o x! - x {eiu - 1} ç1 (u) = 'l
(Àeiu) *-e-ÀeÀ"i'
x!
"
PH.
TASS] S. LFGAII
191
UN OUTIL : LA FONCTION CAFACTÉFISTIOUE
2.5 Loi uniforme continue si x
-)?/
p,
1:
çx
(u)
g-
=
IU
2.6 Loi gamma y (p, O) çx (u)= (1 - Oiu)-P
2.7 Loi normale : Si X->N(m,cr): Si U
->
qu (u)= e-'2/2
N (0, 1)
X= m+oU:
gx (u) = E (siu
(m
+au)) = sium gu
(uo)= dum u*u2
2/2
2.8 Loi du x 2 (n) six->x2(n)
çr(u)=_4 r^ r'' ftziu)tz
'
2.9 Loi de Cauchy Si X est de derrsité
f (x)=
-l--: n (1 +xz) 9x(u)= s-lul
2.1O Loi de Laplace Soit X de densité f (x) =
.px(u)= '
+
e- l* l, x €
iR
J]-"-x(1 -iu)6* *2 |o-"-(1+iu)dx.{ 20 +@
l*= 1 to [e-"(t+iu) as-x(1 -iu)1 dx= Jo cosux.e-xdx
i
En intégrant par parties
:
çx(u) = [-e-*cos ux]fr-u Ji = 1-u
192
1
L
i I i
t
"f0
sin
uxe-xdx
sinux.e-xdx
PH.
TASSI S. tEGA]T
UN OUTIL : LA FONCTION CAFACTERIST|OUE
=
- u2 {
u [e-x sin ux]f-
1+
cos ux.
e-x
dx
= 1-u2çx(u) d'où
:
=
ex (u)
1
1+u2
2.71 Loi normale multidimensionnetle Soit X à valeurs dans lRp, de loi N (m, X) ; u étant un vecteur de Rp, tuX une v.a.r. de loi N (tum, tu Xu). La f.c. de tu X est :
gtu* (v) =
d'où
.
qx (u)
:
siv fum)
s-(u Eulv2/2
çtux(1)= situm s-ruDu/2
2.',2 Loi multinomiale t6h:
Soit X = t(Nr. ...., Nr) un v.a. de dimension k de loi multinomiale
p1. ...., pp) (chapitre
4); la f.c. de
:
k
tuX: t
uj
Nj
j=1
est: 9t,*
(v)
=
x
---J-]-_ --
pÎ,
plk eiu,=51,,"
où la somme porte sur tous les k-uples (nr, ....,nn)vérifiant
I
n,
:
n.
j=1
Qt,* (v)=
x
(p1
o'fî
eiu'')n'.."
(ppeiu'r'1nt
k
=( t j=1
Env= 1:
pj eivur )n k
9x
(u):( X pi ei'i
;n
t=1 PH.
TASSI S. LEGAIT
1
93
Ù\
3
OIJTIL : LA FONCTION CAFACTÉRISTIOÙE
APPLICATIONS DE LA FONCTION CARACTÉRISTIOUE
Outre son utrlisation dans le cadre de la convergence en loi, qui sera étudiée au chapitre 7, la f .c. aide à établir un certain nombre de résultats parfois laborieux à démontrer par usage direct des définitions. Nous en développerons trois.
3.1 Loi d'une somme de vecteurs Théorème
aléatoires
I
Soient X et Y deux vecteurs aléatoires indépendants à valeurs dans (Rp,;4p), de f.c. respectives ex et gr: Çx n y (u)
= çx
(u)
çv
(u)
Démonstration : gx Par séparaton des
*y
(u)
=
E (situ (x*YD
i"iii:;i:i:il
=
E (eitux situvl
l',1,i,"1
;:iïiiff'
Cette propriété se généralise sans difficulté au cas de n vecteurs aléatoires indépendants. Si (X,), i = 1 à n, sont indépendants. qi étant la f.c. de X', alors :
qlu)
= ftçi (r)
Xxi
i=1
Exemples:
l3F,
a) Les calculs faits en 2.3 et 2.4 montrent qu'une v.a. de loi binomiale ù est la somme de n v.a. indépendantes suivant la loi de Bernoulli.'/(1, p). De
même
:
7Bb, pl + ,/J (, p) = J3 (n + 1, p) b) Si X et Y suivent deux lois de Poisson indépendantes de paramètres respectifs À et p, alors :
Qx * v (u)
:
çx (u) çv (u) =
u( À + u) lsiu -11
qui est la f.c. d'une loi 9(À+p). D'après le théorème d'injectivité, si X et Y el 3(pl, alors X + Y suit la loi suivent indépendan"rment des lois de Poisson g(
,?(À+
^)
p).
c) Soient X et Y deux v.a.r. indépendantes de lois respectives v (p. 0 ) et g (q, y ). La v.a. X +Y suit la loi y (p + q. A ). En
effet:ex*y(u)=
de la f.c. d'une loi
(1
-
Y (P +
I
iu)-p.(1
q, 0
-0iu)-a:
(1
-diu)-n-cqui
est l'expression
l.
PH TASS1
.S
LEGAIT
UN OUTIL : LA FONCTION CARACTÉRIST|OUE
d) Soient X et Y deux v.a.r. suivant indépendamment des lois normales
N
(mr.or)et N (mr,o2). Alors X + Y suit une loi N (mt, mr, -r/"1
En effet
*"|
I.
:
gx
* v (u) -
giuml
en'41'
gium2
grz
o:l' :
giu(m1
+ m2) e42 (t *
4)l'
e) Soient X et Y deux variables aléatoires indépendantes suivant respectivement deux lois du x2ànet m degrés de liberté. Lav.a. X+ysuit une loi 12(n + m).
3.2
Caractérisation de I'indépendance de deux vecteurs aléatoires
Théorème 9 Soient
Xt et X, deux
vecteurs aléatoires à valeurs respectivement dans
(lR?.r'tn\ et (tR9rdq). On note:
x _,x.. ,X, ,
dedimensionp+q. a)V (u.,.
u2)€
lRp
x
lRq,
ex, (u1)= ex
(u1.
0)et O1, (u2)=
b)X' et X, sont indépendants si et seulement = ex, (u1) e1, (u2).
(u.,, u2)
Ox (0, u2).
si V (u1, u2) e lRp x lRq, gx
Démonstration 9x (u1,
a)
çx (ur, et b) Si X1 et
u2)
= E (si(tutxt
0): r (eitutxt;=
+tu2x2))
ex'
(u1)
ex (0. u2) = E (eituzxzl = ex,
(u2)
X, sont indépendants alors
:
gx (u1, u2)= E (situtXt ,itu2x21=
= e1' (ur) e1,
E (eiturxr; E (eituzxz;
(u2)
Réciproquement, on suppose eue gx (u1. PH TASSI - S. LEGAIT
u2):
ex., (ur) ex,
(u2).
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Pour montrer.que X, et X, sont alors indépendants, Px = Pxt @ Pxz fl-héoième dè FuOlnl, chapitre 2). Calculons la transformée de Fourier de P
gp (u1,
ur) =
J
= Px1
il suffit de prouver
que
'
@ Px2
+tu2x2l dP (x1, x2)
"i[tu1x1
= J silturxr
+
tu2x2l
d (px1 @ px2) (x1,
x2)
= J siturxr dpxl k1) J situzxz dpx2 k2)
:9x., (ur) ex,
(u2)
donc ç, = ,po*, ce qui entraîne P = Px d'après la propriété d'injectivité et X1 et X2 sont indépendants.
3.3 Obtention des moments non centrés Théorème
1O
Soit X une v.a.r. appartenant à Ln (Q, ,v/ , Pl, c'est-à dire
:
Vk
k,k=0àn:
,pj[)(o)= ik E Xk)
Démonstration
Pourtoutk,k= 1àn: .pl[) (u)
=#
çx
(u)
:
siux 6pX = o*4 S.
= J ,'i "k siux 6PX En effet, la fonction (u, x) --+ siux ss1 continue d'ordre k:
sur
_9!eiu*
-
lR
x
;k 1k
auk
qui forme une suite de fonctions continues 1
96
sur
lR ;
lR
x
i, #
siux 6pX
elle admet pour dérivée
"iux
lR.
PH.
IASSI
S. LEGA T
UN OUTIL : LA FONCTION CABACTÉRIST]OUE
En outre, ik .l _ xk R
"iux
6pX est uniformément convergente
| .f xk ei,* dPx I <
E
(lxlk)<
sur
lR car
:
-
et on peut donc permuter les opérations d'intégration et de dérivation. ll suffit alors de prendre u = 0 pour obtenir :
.pjf)(o)= ik E fik) Remarque Réciproquement. si ex admet des dérivées en o jusqu'à l'ordre n, alors X admet des rnoments non centrés au moins jusqu'à I'ordre n. Exemple Soit X une v.a.r. suivant une loi normale N (m, a), de densité
f On sait que
(x)
=
1
t
s- $ -ml2/o
/Zi
:
9x (u) = sium -
ç*
ç; D'où
:
(u)
=
(u)
= (im
- 02 sium -
-
ua
21
o2 u212
sium
o2 u2/2 + (im
-
-
(O)
o2 u212
uo212
ç; (o)= im er E x)=
q;
2
sium
-
o2 u2/2
m
: - 02'ri2 *2 = i2 92+ m2)et E X2):
q 2 + m2,soir V Vl= o2.
Remarque I Le théorème 1O peut être étendu aux vecteurs aléatoires X = t(Xr. ..., Xo)de
dimension p
:
(ur,..., uo)\= ," r XT' .xfiot, 1a"ç I aurol .... ,lo /,0, . , o, p
avec X &:: î. l i=1
PH TASS]
.
S. LËGAIT
191
UN OUT
L -A IONCTION
LARACILR S] OUL
Remarque 2 Un résultat analogue existe pour les v.a.r. considérant leur fonction génératrice. En effet
à valeurs entières non négatives en
:
;.(x-1)... (x-k+ 1)ux-kp(X:
6{r<)(u)=
x=
et donc
6(k) 1r)donne le moment factoriel F1r.1
Exemple
x)
k
:
E (X (X
d'ordre
- 1)
(X
k.
k+
-
1))
1
Pour X de loi de Poisson
;"
(
G" (u) :
- 1), et donc
,r(u
" C,[t]1u1:À ke.r(u-1)
:
F1r.1
G[)(1)=
i
k
^),
:
(résultat établi par le calcul direct au chapitre
4).
Exemple 2 k
SiX
-> "//(n; p1, ...., pp)de f.c. çx (u)-(x
pr eiui)n
1=1
en utilisant les propriétés liant les moments aux dérivées de çx en O, on peut retrouver la matrice des variances-covariances de X :
ôpx (u) = n (x pj eiuj)n-l ip, ei,i
à'i
Enu- O.ona'
j
u**(o) = inp, = iE(Nr), ôuj
E (N,) a2ç_x (u)
uzui
:
n (n
:
nR,
_ 1\i2 ple2iui(I p; )
+ n i2 pj
",
?' q* (o)= -
(l
d'où
et 1
98
:
E 621
:
n (n
-
np, (1 + (n
V(X)=nBi
-
t
1) p3
-
p, eiuiln
a2u)
(1
-
"iu;;n
-
2
n p,,
1) pi)
-pi). PH TASSI - S. LEGA]T
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Enfin
;
a3f
n (n
,lyl = Zuratt=
-
/'
1) iz pj
pr ei,j eiur 1I pj eiuj)n j
= i2EXj Xr) d'où
:
E (X;
et
Xr )= n (n - 1)pt p
Cov (X,.
X, )= _ n p; p
Nous conclurons sur un dernier exemple d'aide que peut apporter la f.c.. pourtant non conforme à sa définition. Considérons une ù.a.'X de loi log-normale LN (m, a),.c'est-àdire X = eY, y de loi normale N (m, o), û cherchons â calculer E X) = E (eY). On peut procéder à un calcul direct lifrapitre 4).- Or .
rpy (u)
Pour retrouver E (X). on
E6z;
:
E(ezv1;avecu=
=
E (eiuv1
=
"fait " u =
-2i,E(x2)=
6ium
-
s2m
"-u2t212 i et E (X) = um+o212.De même
e2o2,soitv(x)=
s2m+t2@o2
:
_l).
ll est clair que ceci n'est que mnémotechnique, puisque u est réel, et ne peut être priségal à-iou-2i.
4
SECONDE FONCTION CARACTÉRISTIOUE
4.1 Définition et propriétés Définition 3 On appelle seconde fonction caractéristique du vecteur aléatoire X l'applica-
tion
de
lRp
dans C définie par
:
ue lRp-wx(u):Logçx(u) on considère par la suite u réel. on sait que I'on a, d'après le théorème 1o ex
(u): r .
," "i, *.ï1
oùmn=E(Xn).
Auvoisinagedeu:0, +k(r)
PH. TASSI
.
S, I FGAIT
:
Log (,
*"f,
*la ,"
)esrdéveloppabte,
199
:
UN OUTIL : LA FONCTION CARACTÉR]STIOUE
et on peut écrire
:
x ry wx(u)= k=r k!
ona:
KkK
Ë**=vp(o)
Définition 4 La quantité Kn s'appelle le cumulant d'ordre
k.
On obtient aisément les expressions liant Kp aux moments
vx (u)= =ium1 On en déduit
+
Tlmn -( "?, Hmn)2 "?,,
- 'æ
(mz-mf1
:
+ +f
(
,'?,
H
:
mn )3+ .
.
(ms-3m1 m2+2m!)+...
mr Kz= mz- m? = pz Ks= ps Kc= Vc-gp|
Kr =
Exemple.- pour une v.a. X de loi N (m, o ), on a
v* et donc
(u)
: ium -
u'
:
?' 2
:
Kr=m=E(X)
Kz=02=Vfi) Kr= 0pourk)3
Au même titre que les moments non centrés, les cumulants caractérisent
une
distribution de probabilité. lls seront donc des outils précieux. Propriétés des cumulants Les cumulants possèdent diverses propriétés intéressantes
:
a) Soit a une constante réelle quelconque : on sait Que gx * u (u)
et donc
:
uiuu qx (r)
:
t#y*"(u)= iua+w"(u) PH.
TASSI S
LEGAIT
UN OUTIL : LA FONCTION CARACTÉFISTIOUE
En désignant par Kn
X,ona:
K1
et çy:
fi
+ a) le cumulant d'ordre k de X + a
et Kr fi)celui de
(X+a)= KrX)+a;KpX+a)= Krfi) pourk>2
b) Soient deux v.a.r. indépendantes X et Y, de fonctions caractéristiques g*
V1*y(u)= W*(u)+Wy(u) et, avec des notations claires
:
y) = Kr 1X)+ Kp (y)
Kp (X +
c)soit X une v.a.r. de densité f(x), K* son cumulant d'ordre k; a est un réel ; le symbole d désigne la dèrivation, dk est l'opérateur " dérivée
quelconque k ième ".
On définit la fonction g(x) par
sk)=
[exP(-t)-#] tk) (k€ lN)
L'opérateur g(- 1)kaak/tl représente
:
;
3+
(- t;;n j !(k l)r
j=o On a donc
:
:
f(k)
(x) = f'\"/ (x) sv\"' - ""
(x) * a2
k!
f(2k) (x)
2l
(k!)2
En notant Far gr (resp çs) la fonction caractéristique de
linéarité
on (u) = ç, Or on a vu
(r)
que: rp4ry(u)=
- fr
(-
arrrl (u)
(u) =
wn TASSI
S, LEGA|T
. a*. 2t 1u1z
,p,''*' (u; -....
1lk (iu}k çr (u). et on peut écrire:
ps (u) = er
PH
f (resp. s) on a, par
:
(iu)lt r f ; ---3ii=o j!kl)j '-'
1
Ar (u) ea
(u)= w,
(u) +
(iu)k,/k
_Â
I
(iu)k
UN OUTIL : LA FONCTJON CARACTÉR]STIOUE
O" (! l)n dans le développement k!
ll s'ensuit que le coefficient
de en (u) est
Kk(s)= Kp0+a.
égal à
Kr+a;
k>'1,
d) Plus généralement, soit une densité (x), Kç(f)son cumulant d'ordre k, une suite de réels. On définit g (x)par:
avec des notationsévidentes,
s où h est l'opérateur exp
t ;
ap
8):
(-
(ar.),
h [f (x)]
dklk I l
1)k
k=l æ
g (x)s'écrit sous la forme s (x) =
) 'l r.f(k\x)' avec Ào = 1' k=o
On a, par un calcul analogue au cas (c) Kk (g)
=
:
Kp (f) + aç. Pour
tout k >
1
4.2 Application aux développements d'Edgeworth et de Gram-Charlier
On souhaite approximer une densité g (x), de cumulants connus, à l'aide d'une densité.connue.f (x).et de ses dérivées, c'est-à-dire rechercher un développement de la forme :
g(x):f(x)+
À
1
f'(x)+
À
2f"
(x)+
...
où les coefficients À't, À 2,... sont connus. Supposons qu'une telle expression de g (x) existe. En notant Kp (f) (resO. Kp le cumulant d'ordre k de f (resp. g). âvêc âp = fo (S) - Kk 0' on peut écrire formellement : (g))
s (x)= exp.
soit: s
(x)
=f
I k=i
un
t-
1)k
dklk lF
(x)
l
(x)- a' f' (x) .
a? +a^
# t_"? -_3r, "*_". )
f"
(x)
fl3)(x)
3!
aI + 6a1 ar+ 4a, at+ ao ) _ * (------4
it+l1xy+...
|
242
PH TASSI
-S
LEGAIT
UN OUT|L : LA FONCTION CARACTÉRIST]OUE
Les coefficients a1' 42, ..'
i
,,
^1
:-
r, de l'expression recherchée de g (x) dépendent
À
de
:
at, À
z=
u?
!^u, 2
,
"r".
La correspondance entre les an et lesÀn est biunivoque.
Si on travaille sur des variables centrées et réduites, alors a., obtient un développement simplifié de g (x):
s(x) =rt")
- #J!
: ar:
O, on
fl3)ft)+ hOo,(x)+..
Application au cas gaussien Le cas historiquement le plus étudié correspond au choix f (x) = ç (x), densité de la loi normale centrée réduite. On cherche alors à écrire une densité g(x) de cumulants connus (associée éventuellement à une variable centrée et réduite) en fonction de la densité ç(x) et de ses dérivées.
Théorème
11
soit g (x)une densité sur et ses dérivées
lR supposée
admettre un développement selon ç
(x)
:
g
(x): ;
Às çk)ft)
k =o
Alors
:
,^k:
(- 1)k kl
J
s
(x) Hp (x) dx
Démonstration D'après la définition des polynômes de Hermite,
*tr) (x)=
et g
(x)
s'écrit
:
x (k=0
PH IASSI
-S
IEGA]T
(-
1)t nn {x) e
1)k À
r Hr
(x)
(x) ç(x)
203
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE
Pour un indice j donné, on a
:
sk)Hi 14= ; (-1)kiuH,(x) Hnk) e(x) k =o
et, en intégrant et d'après la propriété 3 du chapitre 4
t__r(x) À
H;
(x)dx=
(-1)
Àj
j!
j= (,1)'l-Lr"r H;k)dx t.
Remarque: Ce théorème permet, au vu des données (xr, ...,xn) d'un échantillon, d'une variable de densité g (x), d'approximer les coefficients i u.
Ainsi, H1 (x)= x et Ài =
;,.,
-
Jx g (x)dx sera estimé par
i"3
demême.
- --1-'
k2* 1)s(x)dxseraestimépar i=-1 - L,f 2n ^z= 2
;
1 ' etc' 2
Revenons à l'expression générale de g (x) selon rp (x) et ses dérivées. Si les données sont centrées et réduites, a1 = az= O,comme en outre t 3, on obtient :
s 8)= q (x)-
*â,f, +(|)- *(s)fi).
e(a)(x)+
...
Or. d'après la définition des polynômes de Hermite, *(n)
(x): (_
1)n Hn (x)
d'où le développement d'Edgeworth de g
s (x): q (x) t''
. oâï)
k2
(x)
e k)
:
oâ'l' (xa - 6x + 3)+..'l - 1).
s(x)=q(x) tt+ lsjg) F2-1) - r^'Z\
ka-ox+3)+...1 PH. TASSI _ S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE
comme pour ra loi g. p1 (s) = o et pz (u) = 1, on a p3 (o)= et p+ (9) /ilb) = 82 (S). B.' et B, étani les coefficients de Pearson d'asymétrie et d'aplatissement de g ; ceia donne (cf. chapitre 4), en utilisant la notation /., et / des coefficients de , Fisher
:
Yt s(x)= ç(x) t1 + -6-
(x3
-
3x)
+
T
(xa
-
6 x2 + 3)+ ... l
Par intégraticn, on obtient une approximation de la fonction de répartition G (x):
G(x)=
o(x)-ç(x) t+1xz-1) +rt'V3 -3x) +- Y? 72
1x5-10x3+ 15x)
*...
l
Avant de conclure, notons qu'il est imBortant de remarquer que si l'on peut éerire une densité g ou une fonction de répartition comme somme infinie cie ô, ç, ou ses dérivées, c'est plutôt le problème de l'approximation par une somme finie de termes qui est utile en pratique. Malheureusement, rien n'assure que l'approximation de g donnée par un nombre fini de termes soit positive en tous points, et que la qualité de l'approximation augmente avec le nombre d'éléments retenus. Pour terminer, nous avons supposé a priori que g (x) admettait un développement en termes de tp (x) et de ses dérivées. H. Cramer a montré, en 1926, que si g (x)est telle que g'(x)et g"(x)existenr, si t'intégrate tS"gll, exz/z dx"onu"rge, I et si lim S k) = lim g (x) = 0. ators g (x) peut êrie développé en :
g(x)= t
ar
k=o k
avec
âr
qk)1x1
!
= Is (x) Hk (x) dx
Cette série est absolument et uniformément convergente pour x
PH
TASSI S
LÊGAIT
€ [--,
*1.
UN OJIIL . LA FONCTION CARACTER|STIOUE
EXERCICES 6.1 : X suit une loi N (0, o). Trouver la f.c. de Y = Log I X I Indication
9v
1
(u)
o
l2n
e-^2no2 dx S lxliu lR
2
otfZn
5x'u lR*
@tEP
1
lzi 6.2:
e-r2/2o2 dx
r tl-tt
(X,, ,.., Xn)sont n v.a.r. indépendantes, telles que Xlsuit N (m;,
1),
j=
1 à n.
n
Déterminer la f.c. de Y
=E
Xi.
j=1
'
lndication iumf
9xz
(u)
= (1
-
2 iu)-
t/z
çv
(u)
= (1
-
ziul-
ntz
,
't
-ziu
,,,
s1
:2iu
n
avec À2
luo
=
F
mf
;on sait
(cf. exercice 4.6, chapitre 4)que Y suit une
loiduX
2 non centrée.
PH.
TASSI
S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
Démonstration
Xn-â:+r(n) r(n, D'après le théorème 17, b)
(n) (Xn
_
(Xn-a).
:
a)l9j X
+
___*0 1
d'où Xn
!
(Xn
-
a)
!91
O,
a, d'après le théorème 16.
5
LES LOIS DES "GRANDS NOMBRES"
Ces lois établissent des propriétés de stabilité des sommes ou des moyennes cumulées de v.a. dans une succession d'expériences, stabilité au sens de lâ limite en convergencg el probabilité (on parle alors de loi faible) ou en convergence presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn)
, n 21,
une suite de v.a.r. indépendantes et de même : E(Xn) , pour tout n
appartenant toutes à L1 ; on note m n
1 :.x,
loi,
:
:xnI m
n l:l En particulier
:
Théorème 20 (D. Bernoulli) Soit (An) , n2 1, une suite d'événements indépendants de même probabilité p ; on considère la v.a. sn comptant le nombre d'événements réalisés parmi (4., , ..., An) :
9ot o n
Remarque Ces deux théorèmes établissent des lois faibles, puisque les limites sont en probabilité. Le théorème 20 justifie l'approche fréquentisie des probabilités, la probabilité d'un événement étant la limite (en probabilité) de la fréquence empirique de son nombre d'observations dans une suite d'expériences inôépendantès. PH.
TASSI S. LEGAIT
ZZJ
LES CONVERGENCES DE VARIABLES ALEATOIRES
Démonstration
puisqueXnl m
o
la f.c. de Xn , pour tout
Xn !9i
*,
rontrons la convergence en loi. Notons par I
n.
9=(u)
:ç>x;
(u)
:c2x,(9) :[.r(9)
]n
xn
Comme les v.a.r. appartiennent à L1 , E(Xn)existe. donc
a'(0) aussi, ç'
(0)
:
im.
Ecrivons
e(t)
:
:1*imt+qt)
:1*im9+o(9) nnn ç_(u) :[1 *im9+O(q) ]n, e(g)
,
wîn
lim9nXn
(u)
:ei tu'
Or on sait gLle ei m u est la f.c. de ôn,. Frobabilité de Dirac en m. D'après le théorème 9, Xn lo! m, d'où le résultat. Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r. (Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont indépendantes et vérifient :
Itt*":1]:p tt{*"-oJ :1-p. Sn
nn-
XXi désigne alors la fréquence empirique, ou probabilité empirique.
Théorème 21 (Loi des grands nombres dans L2)
soit (Xn), n)- 1, une suite de v.a.r. deL2,de même loi et non corrélées. on note m: E(X6) ' 02 -- V(Xn) , pour tout n. Alors: I
Xn?m. 224
PH TASSI - S. LEGAIT
LES CONVFRGFNCES DË VAFIABLES ALEATOIRES
Démonstration ll
X^-mll
2
2:
:e( ,(;r-J, \n / -1n2
-m)
)2
no2
02
n
1>txi n
I
(n-æ1
Théorème 22 lLoi forte des grands nombres) (Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi o si Xn € Lr , m désignant E(Xn), pour tout n :Xn 4s il r si Xn Ç t-, (e I Xn | : + -) :Xn est p.s. non borné.
:
Ces lois des grands nombres justifient, en terme de probabilité, I'utilisation de la moyenne empirique comme indicateur de tendance centrale en statistique descriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenne empirique basée sur le n-échantillon converge vers une constante qui est I'espérance de la loi dont sont issus les n résultats de l'expérience. ll en est de même de la variance empirique. Théorème 23
Soit (Xn) , n )- 1, une suite de v.a.r. de L2, indépendantes et de même loi, avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :
c,2 sn Alors
-
13
n i:1
:
(xi
q.2!
-
xn)2
oz.
Démonstration
sn2:11xi-Xn)? n i:1
Xn
! .
=t X-n)2! m2 (théorème 6)
13 x?I E(xz) -
et
n i:1
(loi faible appliquée
à
la suite (Xl)), Oonc 8,2
PH. TASSI
- S, LEGAIT
!
m2
+
o2
:
"z 225
LES CONVERGENCES DE VARIABLES ALEATOIRES
Se trouve ainsi justifié le choix de la variance empirique comme indicateur classique de dispersion en statistique descriptive.
Remarques Dans la démonstration du théorème 23, nous avons appliqué la loi faible
à
rIl
> X? . En effet, puisque Xn e L2 , E(Xfi)existe, et on est dans les conditions du - i:1 théorème 19 pour la suite de v.a.r. (Yn) , n 2'l , avec Yn : Xn2. Ceci entraîne deux I1
|
remarques importantes
:
a) soit mp le moment non centré d'ordre k d'une v.a.r. X
mr:
:
E(Xk)'
(Xr, ..., Xn,...r)désignant une suite d'observations indépendantes de la v.a. X, le moment emprnque est : m1 (n)
:1i-x1 n l:l
Sous réserve d'existence de E( I X I k ) mk
1n;!
:
m*
b) De même, le moment centré empirique 1rr (n) converge en probabilité vers
/r.:
E(X
-
s'écrit en fonction des rnoments 1 3 fX, " (n): ni:1 -X)k
E(X))k. En effet, 1lr
non centrés m; (n),
j: 1àk 1lr (n)
:
k : >q
r-i (-1)k-j mr '(n) m;
(n)
J:O c) Plus généralement, si h est une fonction réelle telle que E( I h(X)l ) existe
13
n i:1
n1x,1
:
eE(h(x))'
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a' X de loi de Poisson CI ()'l ; 226
PH TASSI - S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
1 pEr 1 r l3 \l n i:11 * X, + X,
1_t: i e/\1+Xt
tr
x:01 *x
6 COMPORTEMENTS
e-ÀÀ"
x!
int : -9-^ À y:1y!
1-e-À À
ASYMPTOTIOUEMENT GAUSSTENS
La no'tation N(0, >)désigne, dans cette partie, autant la loi normale que tout vecteur aléatoire suivant cette loi.
Théorème 24 (théorème central limite multivarié)
soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fipl, indépendants et de même loi, tels que g : E(Zn) et L matrice de variance-covariance de Zn existent. Alors :
'rn En En particulier
-
r/)lg
N(0, >).
:
Théorème 25 (théorème central limite unidimensionnel) (Xn), n
)
1, est une suite de v.a.r. indépendantes, de même loi, et appartenant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
On définit la v.a.r.
:
v^n-- (èIJ__11l æ Alors
:
vn loj
:
/_n_frn__rl
ru 10, r
o
1.
Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème 24.
a) Théorème 25 On peut écrire
:
Yn
PH TASSI - S. LEGAIT
1 i f{,--qf : rÆ I 3 tl---l) : ' ni:1 o JÂi:1' o 227
LES CONVERGENCES DE VARIABLES ALEATOIFES
X:---I
Soit e la f.c. de
, indépendante de i ; la f.c. de Yn s'en déduit
cyn(u) Comme
obtient
E(H-)-
et
O
:[*(Ji)
E(Ii--I)'? -
:
]"
1, en développant
e à I'ordre 2, on
:
: t -r!+ott) i1+o (r=l ]" cyn(u) :[1e(t)
soit: et
:
,'il *"n (ul:
s-u2
/
2.
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9, Yn
!9
rtftO, f
t.
b) Théorème 24 Posons
Xn^: ty ?n pour u €
dantes et de même loi, avec
E(Xn)
:
et d'où
tu
:
lRp
; alors Xn est une suite de v'a.r. indépen-
:
:
:
tu I u, tu u) /,,) l9j ruto, p)19 tu N(0, :) vu €
tu ,u et V(Xn)
I
''/; fr" -'u
/Ï
et, d'après le théorème 10
(Zn
-
IRP
:
JÂ En - /) lg
N(0, >).
Remarque De la même façon que pour le théorème 23, les théorèmes 24 se généraliser à toute moyenne empirique
ln
I
i:1
f"',tX,l. sous réserve
el25 peuvent d'existence de
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergeRce eR loi de la variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la généralité du résultat), 02 = V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations indépendantes de X :
Ç2:li-xrt-x-n)2, n l:l v(x1) 228
:
E(x1)
-
E, (x1)
-
m4
- ^3: mq -
oa
PH, TASSI
, S. LEGAIT
I ES CONVERGENCES DE VAR]ABLES ALEATOIRES
Considérons la quantité
:
q!gj_4 J n.4=;-4
J-n t! '' rn I *, - rrxztt i:1 '
Jn@l
D'après le rhéorème centrat limite, appliqué n
- {_!-6d Jn@l
l,ir*1
,
n
/Â(:ni:1x?-E(x2)) ' _LolrutO,fl. /Tm En outre
:
*
;;r::
ï Ë :i: ï,îï:"ïT:"',
D'où, par le théorème 17
./
n çXnf "E o,
et:
Jl Pour E(X)
*
(q2
- o2)
loj ru(0, t).
J^æ
0, on obtiendra
:
Cls="'?) / p;-
!9,! ru(0, rr.
Théorème 26
Soit r : lN * lR- telle que
lim
r(n)
n )- 1, une suite o" u.".r.n*îitiunt
: *
oo.
a une constante réelle, et
(Xn),
,
r(n) (Xn -
a)
!g
N(0, o).
Soit g:lR *lR, dérivable. Alors
:
PH TASSI - S. LEGA]T
r(n) (g(X.)
-
s(a))
g
*,0, o I g' (a) l). 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES
Démonstration Considérons le développement de g à l'ordre 1 au voisinage de a S(x)
-
g(a)
:
c'est-à-dire
:
Ve)O, 3o)0
{l
Xn
P{l xn -
c'est-à-dire
R(x),
:0'
R(x)
(
(
o}C
{l
R(Xn)l
aI
P(
I R(xn)l
!
(o } : - al
a, et donc
1
+
e },
(
e
).
:
lim P{l R(Xn)l <e1
:
1,
n
R(Xn)!
-
s(a))
:
r(n) (Xn
(n) (Xn D'après le théorème 17, (a)
O.
:
(n) (g(X.)
*,0, I s'
a)
-
:
ll s'ensuit
I
(x
aI
Or, d'après le théorème 18, Xn
lim P{l Xn
*
x_al (o + I R(x)l (e,
:I
:
a) S'(a)
-
lim x-a
où:
d'où
(x
:
| o), d'où le résultat
a)
s'
(a) -F (Xn
-
a)
(n)
a) R(Xn)! O, et r(n) (Xn
R(Xn).
-
a) g'(a)
recherché.
Très utile en statistique mathématique lors de l'étude de comportements asymptotiques, ce théorème est aisément généralisable au cas multidimensionnel :
Théorème 27 Soit
r:lN -lR* telle que,l'g rtnl :
(Xn). n
)
a un vecteur delRp.
1, une suite de vecteurs de lRp tels que r(n) (Xn
Soit g : lRp 230
-Fæ,
-
lRq
-
a)
!g
:
N(0, >).
différentiable, G sa matrice (q, p) des dérivées premières PH.
TASSI S. LEGAIT
:
LES CONVERGENCES DE VARIABLES ALEATOIRES
/ôv
dsr\
| ôÇ tÇ\
:l::l
qg" d3" I \ Uu,' a"p \
Alors
:
(n)
(g(Xn )
-
/
s(a))E *,o, G(a) r
tG(a)).
Exemple
soit X une v.a.r. de loi de Poisson q)i, xnl, n2 1 , une suite d'observations 1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À : P(X
:
0).
On sait que :X-n P À (loi faible des grands nombres). Par le théorème central limite
:
fi-fr-n - À) lg N(o, /r) Soit g : lRl - lR] définie par u * g(u)_: e-u. Par le théorème
6
:
e-Xn p e-À .
En outre
/î (sfr-") - s(À)!g N(0, .^-l - e-À | 6 ("-"- - "-^)lgj nto, e-r ../ r).
:
7 APPLICATION
)
AUX LOIS DE PROBABILITE CTASSIOUES
7.1 Loi de Poisson Théorème 28 Soit X une v.a. suivant une loi de poisson I (xl. Alors la variable y converge en loi vers N(0, 1), lorsque À tend vers l'infini.
- X- À JT
Démonstration Soit la v.a. Y
PH. TASSI
.
S. LEGAIT
-
,(r_ J)\
/x
J
),,
231
LFS CONVERGENCES DE VABIABLES ALEATOIRES
d'où
tr lsitl - t; :"-it'Æu çY(t) it'l/À -t2/z)'l it '/-r eÀ(+ çv (t) "py (t) : u-t2/2
:
1,11_
2/2 est la f.c. de N(0, 1), et donc Or e- t
X-À loi 'H::N(0' Flemarque.' On écrira
I
1x:r
-
:
1).
N(À, ./À).
7.2 Loi binomiale Théorème 29 : loi binomiale et loi de Poisson Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses
.
:
p est fonction de n
olimnP(n) =À(À>0) n
xn9g\,l.
ona: Démonstration a) Calcul direct
: 1 (n p(n)) ;= O. n : P(X: x) CI P'(1 - P)n - x .n(n-1)...(n-x*1) Px (1 -p)n. (1 xI - p)" (nP)te-nP À'e-À, P(X:x)
Sous les hypothèses : p(n)
n*oo Xt
d'où le
232 I I I I I I I I I
!
résultat.
nP*À
n-*co
Xt
nP-À
PH,
TASSI. S' LEGAIT
LES CONVERGENCES DÊ VARIABLES ALEATOIBES
b) Utilisation des f.c. u) :[1-B(1 -ei ]n; -* Log eXn (u) - np(1 - ei ') (p 0),
cyn(u)
et: l"l
lim çx^(u) :e-À(1-eiu). -+oo
np*À On reconnaît la f.c. de
g
()rl.
La loi de Poisson est souvent appelée "loi des événements rares", car loi limite du comptage du nombre de réalisations d'un événement donné, de probabilité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant. Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi limite mais comme loi exacte. Théorème
30 : loi binomiale et loi norrnale
soit Xn une v.a. suivant une loi binomiaie lE (n, p). Pour p fixé,
n-**æ:
I!---!q /
l9j r'rto,
lorsque
rI
nqp
Démonstration On aru (chapitre 4) que la loi binomiale.4(n, p) est la somme de n lois de Bernoulli #{'1, pl indépenciantes. En écrivant
,
n
Xn
: I Yi,Yi->g(1, p) Vi = 1 à n, i:1
on a, d'après le théorème central limite
:
n
! Y;-np
-_h_9ru(o,rr Remarque En pratique. on pourra approximer laloig(n, p) par la loi N(np, bien que cette écriture n'ait pas de sens mathématique. PH, TASSI
- S. LEGAIT
/n
ptt - p[, z-1-)
LES CONVERGENCES DE VARIABLES ALEATOIRES
Exemples a) Soit X de loi
g
(9l.Par lecture de table de la loi de Poisson P(X
Par l'approximation normale P(X
<
b) Soit X de loi
18)
:
<
18)
:
P1P,o, 1)
<
:
:9,9t't,.
,!9,9,
:
o(3)
:
0,9987.
9(5O;0,01). Par lecture directe de la table de la loi binomiale: P(X : O) :0,6O50.
Par l'approximation de Poisson g(O,51et lecture de la table correspondante
P(X:0) :
:
0,6065'
c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale
:
P(X<5) :0'4312' Par l'approximation gaussienne
P(x<5)
:
:0,5.
:P(-!-1-(o)
/50fr.J - oZ
L'approximation gaussienne sera d'autant meilleure que l'on s'écarte des conditions du théorème 29.
7.3 Loi gamma Théorème 31 Soit X une v.a.r. de loi gamma,
ilp,
1). Lorsque p tend vers I'infini, on a
{--p-toj
N(0,
:
1).
"/n Démonstration La v.a. Y
X - /p - /p
admet pour f.c.
çy
(u)
:
:
s- iu /F çx
(l-) PH TASSI . S, LEGAIT
LES CONVERGENCËS DE VARIABLES ALEATOIBES
:s_iu
e- iu /F leiu ,rp - u2lzy
lim
çv
p*èo
7.4 Loi du X
\c/
ah _iU_\-p
(u)
:
2tz f .c. de N(0, e- u ,
1).
(n)
Plusieurs approximations en loi existent lorsque n tend vers l'infini pour la v.a. Un de loi{2 (n).
a) Théorème central limite Par définition,
Un: 3 X], où (Xi), i) i:'l
1, est une suite de
indépendantes et de loi N(0, 1). Alors, par le théorème central limite Un
E(un)
-
:
t]_n_= n
wrù;i
En effet, E(X?)
:1,
et E(Un) V(Un
On a vu au chapitre 4
:
/Â
loi
v.a.r.
:
rrrto, rt.
: n; de même,
n v(X])
:
ntE(X1)
-
11.
:
rrt-L
',lr
2' 1: ' - 24/2' f(b - 4.q. 22
E (X4,)
3,
2
d'où
:
V(Un)
:
2n.
b) Approximations de Fisher La plus utilisée est la suivante
:
JM - lTÂ PH TASSI - S. LEGAIT
lo! ru(0, r). 235
LES CONVFRGENCFS DE VARIABLES ALEATOIRËS
On trouve également la convergence ci-après, que I'on montre moins rapide que la précédente /zu" rq;toi N(0, 1). :
-
c) Approximation de Wilson-Hilferty
fi:L'i^)!g ----E--
ruro, rr
./ gn
On peut établir que la meilleure approximation asymptotique est cette dernière, suivie par la première approximation de Fisher, qui est pourtant celle usuellement employée dans les tables numériques de la loi de X'. Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loi vers la loi N(0, 'l) lorsque n tend vers l'infini. Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.
7.5
Précision de l'approximation gaussienne donnée par
le théorème central limite
Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui ne restreint en rien la généralité de l'étude).
Si ç(u) désigne la f.c. de X. on sait que rt(u)
:
où K, est le cumulant d'ordre Soit
{n Yn: y'nXn:+.:.Xi
j
: l 1 1iu! ç, j:2 jl
de X.
. Si cn désigne la f.c. de Yn, on a:
y'n l:l
ûn(u)
Log e1r1
:
:
Log çn(u)
:nI
oo
:
(iu)J
i:2il
n Log çlu/JÂl Ki
nitz
1(i,)ar+*'.' 1 --\22 + srJ;(iu)3K.+ - 4!n 130
PH.
TASSI S
EGAIT
tES CONVERGENCES DE VARiABLES ALEATOIRES
On constate au passage que le cumulant d'ordre jde yn est K, n1-jl2. Comme qn(u) en(u)
:
:
"-u2t2
eÛn(u).
on a
:
+ ]-(iu)oK! + ... I [' 1 + =!iu)3K. - + ftiu)+ro 4!n 72n 3l/n
En utilisant la formule d'inversion (théorème 1s, chapitre 6) et la remarque suivant la définition 1 du chapitre 6, la densité fn de yn est :
fn (x)
:
ç(x)- t *rr,., 6/n -
: ! f (u) du 2tr u "-,u**n
(*) +
Kaçtat t*) + lKl çlot (x) + J24n 72n'
...
En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), on obtient :
rn(x):ç(x)
[1.Ks*3;3-Wf
ou. fn(x)
r3*o+(gr.
-rs
= ç(")[ 1 *
Ks
({
ovn=gx)
r3)*+ + (+sr3
-
*
rar*)*, + gr.
72n
-
rsr31
Par intégration, on obtient une approximation de la fonction de répartition Fn
. .. deYn:
Fn(x): otx) [&Hz=!r) t
*
o'.Æ-
PH. TASSI
- S. LEGA1T
3If1.
.
f-r t3tlr.l1 72n
231
LES CONVERGENCES DE VARIABLES ALEATOIBES
EXERCIOES
7.1
*
Soustraclion
,
de khi-dsux
:
SoientXetY.deuxv'a.r.suivantrespectivementleslorsxz(p)etX2(q)(p>q)'SoitZ irioopËnoânte de-V' telle qué x q) Montrer que Z suit une loiX2 (P
ffii:d.
Y
+
7'
-
lndication
"'u'bsuw"
çx (t)
:
Y et Z. cy $) cz (t) en raison de l'indépendance entre
çz $)
7.2
:(] = ?'lli'i è zt (1 2it)Prz (1 _ Zitlp-A/2
x2
(p
-
q)
Loi hYpergêomêtrique (ru, n, p), X converge en loi vers la loi Montrer que sr X suit une loi hypergéométrique Je æ, p Ïlxes' n et + p\ quand N tend vers
g(n,
tndication
Cto
px (x)
7.3
Soit (Xn)n
6N.,
:-q-
,fti
.,
N
_ --
n
t
(Np)* (Nq)no
- x. Cl -r px qn N.
xJ(n _ x) I
ufle suite de v.a' indépendantes, de même loi de densité
: s- t'' e\ 1rc,a-
f(x)
1) Donner la loi de
t,
: .,Iiln *'
1
(x), 0 >
:
0'
quadratique (12) vers a' 2) Montrer que Yn converge en probabilité et en moyenne
-
3) Vers quelle loi converge la v'a. n(Yn
0) ?
lndication
1) Fyn
0)
- 1-
(1
-
F(ï)n
oÙ F est la
VY>0,F(Y) d'où
:
rrn (v)
:
(1
-
frn (Y) : n
2)
P{ I Yn
lorsque
23A
-
[-
gI
<.1 :
Fyn
- 1æ, d'où Yn! o
(0+.)
g-
f'r'
de Xn'
:1-e-(Y-e) (v-o)^)116,
e-(Y - o)n
-
Fvn
g-(d+ t-o)n
-
+ -1
1td,1-1
(Y)
(V)
(0-') 1
- 0-'n'
1
.
PH TASSI S LEGAIT
LES CONVEFGENCES DÊ VARIABLES ALEATOIFÊS
Démonstration
Xn-a:+r(n) r(n) D'après le théorème 17, bl r(n) (Xn 1
---:-
d'où Xn
!
-
-
(Xn-a).
:
a) !9j
x
+
(Xn
0
- a)!9
o,
a, d'après le théorème 16.
5
LES LOIS DES "GRANDS NOMBRES''
Ces lois établissent des propriétés de stabilité des sommes ou des moyennes cumulées de v.a. dans une succession d'expériences, stabilité au sens de la limite en convergence el probabilité (on parle alors de loi faible) ou en convergence presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
, i )- 1, une suite de v.a.r. indépendantes et de même loi, appartenant toutes à L1 ; on note m : E(Xn) , pour tout n Soit (Xn)
:
I
n
:-x,
:xn!
m
n l:l En particulier
:
Théorème 20 (D. Bernoulli) Soit (An) , n21. une suite d'événements indépendants de même probabilité p ; on considère la v.a. Sn comptant le nombre d'événements réalisés parmi (4,, , ..., An) :
9ot o n
Remarque Ces deux théorèmes établissent des lois faibles, puisque les limites sont en probabilité. Le théorème 20 justifie l'approche fréquentiste des probabilités, la probabilité d'un événement étant la limite (en probabilité) de la fréquence empirique de son nombre d'observations dans une suite d'expériences indépendantes. PI, TASSI - S. LEGAIT
223
LES CONVERGENCES DE VARIABLES ALEAÏOIRES
Démonstration
puisqueXn! m o Xn lol la f.c. de Xn , pour tout n.
r,
e.(u) :ç>x;
xnn
rontrons la convergence en loi. Notons par I (u)
:v;x,(1) :[9(9)
]n
comme les v.a.r. appartiennent à L1 , E(Xn) existe, donc a'(o) aussi, ç'(0)
:
im.
Ecrivons'.
e(t)
:1*imt*O(t)
:1*im9+o(1) nnn ç_(u) :[1 *im9+O(q) tnnn e(9)
limgnXn
(u)
que ei m u est la f.c. de théorème 9, Xn lo! m, d'où le résultat.
or on sait
,
]n,
:ei tu'
ô.,
probabilité de Dirac en m. D'après le
Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r. (Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont indépendantes et vérifient :
( P{xn: I
1}
:
p
ttt*^-o]:1-p'
IXi désigne alors la fréquence empirique, nn-
Sn
ou probabilité empirique.
Théorème 21 (Loi des grands nombres dans L2) Soit (Xn)
note m :
une suite de v.a.r. de L2, de même loi et non corrélées. On E(Xn) , o2 : V(Xn) , pour tout n' Alors
, n21,
:
x"km. 224
PH, TASSI
- S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
3*, \
Démonstration
llx.
-
+-^)'
2
mll 2:E
:1
= e (lx(Xi n
-
m)
)2
no2
n2
-!2n
(n-oo1
Théorème 22 (Loi forte des grands nombres) (Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi o si Xn € Lr , m désignant E(Xn), pour tout n :X; LS m ; r si Xn S t-, (e I Xn I : + -) :Xn est p.s. non borné.
:
Ces lois des grands nombres justifient, en terme de probabilité, l'utilisation de la moyenne empirique comme indicateur de tendance centrale en statistique descriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenne empirique basée sur le n-échantillon converge vers une constante qui est I'espérance de la loi dont sont issus les n résultats de l'expérience. ll en est de même de la variance empirique.
Théorème 23 Soit (Xn) , n 2 1, une suite de v.a.r. de L2, indépendantes et de même loi, avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :
c'z:13
Tt-4
Alors
n i:1
:
(Xi
p ç,,2 +t-
Démonstration
-Xn)2.
02.
.n
x]-x-")? 9.,2:L: n i:1 Xn
! t -
X-n)2! m2 (théorème
r_3 x?! efiz) n i:1
et
(loi faible appliquée
à
la suite (Xfr)), oonc 9'2
PH.
IASS] . S. LEGAIT
!
-
m2
+
6)
o2
:
"z 1aÈ
LES CONVERGENCES DE VARIABLES ALEATOIFES
Se trouve ainsi justifié le choix de la variance empirique comme indicateur classique de dispersion en statistique descriptive.
Remarques Dans la démonstration du théorème 23, nous avons appliqué la loi faible
à
rIl
:ni:1> X1 . En effet, puisque Xn € L2 , EfiÎ)existe, et on est dans les conditions du théorème 19 pour la suite de v.a.r. (Yn), n 21, avec Yn : Xl.Ceci entraîne deux I
remarques importantes
:
a) soit m1 le moment non centré d'ordre k d'une v.a.r. X
mr
:
:
E(Xk)'
(Xr, ...,Xn, ...)désignant une suite d'observations indépendantes de la v.a. X, le moment empirique est :
m1 (n)
:13.x1 n l:l
Sous réserve d'existence de E( I X I k )
:
mk 1n1! m* b) De même, le moment centré empirique
lrr
:
E(X
-
E(X))k. En effet,
non centrés m; (n),
j:
/r." (n) -
1àk
/.rr (n)
.n I.I
/r
ni:1-(Xt -X)k
(n) converge en probabilité vers
s'écrit en fonction des moments
:
: k! q t-t)t-j m; (n) 'l-j(n) J:O
c) Plus généralement, si h est une fonction réelle telle que E( I
-n I! n i:l
h(x)l ) existe
:
ntx't!E(h(x)).
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a. X de loi de Poisson 226
!4.
Q 6l
:
PH. TASSI
- S, LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
lin i:11 -r1X,pe/\1 1 r + x/
1 \ \1+X,
tr r
Lr_r:Ë_:_:
1 o-ÀÀx e-À i,rt x:01 *x x! À y:1y!
1-e-À
i
6 COMPORTEMENTS
À
ASYMPTOTIOUEMENT GAUSSIENS
La notation N(0, >) désigne, dans cette partie, autant la loi normale que tout vecteur aléatoire suivant cette loi.
Théorème 24 (théorème central limite multivarié) Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fiPl, indépendants et de même loi, tels que pr : E(zn) et E, matrice de variance-covariance de Zn existent. Alors :
,rn En En particulier
-
ll)
lg
N(0,
:).
:
Théorème 25 (théoràme central limite unidimensionnel)
) 1, est une suite de v.a.r. indépendantes, de même loi, et appartenant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
(Xn), n
On définit la v.a.r.
:
(:Xi) .n:__m - nm. : -
yAlors
:
/_n_frn__rl
.
o
Yn lo! ru (0, t )'
Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème 24.
a) Théorème 25 On peut écrire
:
1 31Ir--lly Yn:,/nl3 èl--t) : ' ' o ni:l o fii:1
PH TASSI
S
LEGAT
221
LES CONVERGENCES DE VARIABTES ATEATOIRES
Soit
ç
t
L
la f.c. de
, indépendante de i ; la f.c. de Yn s'en déduit
o
vyn(u) comme E(XL- rl) obtient
-
E(LI)'? -
o et
et
]"
1, en développant
e à l'ordre 2, on
:
ç(t) soit
=[*(r*)
:
cyn(u)
:
:
: t-Ï+o(t) 2
:[1-u'+o(*l trn (ul:
"f
s-uz
]" /
2.
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9. Yn !91 r,rtO, I t.
b) Théorème 24 Posons Xn : tu Zn pour u dantes et de même loi, avec
€
lRp
; alors Xn est une suite de v.a.r. indépen-
:
tu g et V(Xn) : tu E u, tu /r) *,0, tu r u) fr-n (7n p)!9j tu N(0, >) vu €
E(Xn)
et: d'où
tu
:
fi fi
et, d'après le théorème 10
:
I
-
IRP
:
,/Â 1Zn - s)lg
N(0,
:).
Remargue De la même façon que pour le théorème 23, les théorèmes 24 et 25 peuvent se généraliser à toute moyenne empirique
1 3 frX,i,
n
i:l
sous réserve d'existence de
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergence en loi de la variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la généralité du résultat), 02: V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations indépendantes de X :
Ç2:13.x1 n l:l v(x1) 228
:
E(x1)
-
E2
(x2il
-
-fr-n)2,
m4
- ^7:
^o
-
04
PH, TASSI
- S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIFES
Considérons la quantité
:
JÂ t! 3 *, Gl93-41 - -'ni:l ' / n4 o-4 dn$
E(x2)|
'-6-6rE J-v1xzy
-
D'après le théorème central limite, appliqué a
]- 3 xU ni:1
,
|
n
,/i t: : x? - E(x2)) ni:1 ' /Tm -9r.rlo, En outre
lt.
:
*
i;r:: ï Ë :: ï,î:::"ïi:.,
D'où, par le théorème 17
:
,/î1Xnp
!
o,
et:
{T $"2 - o2t !91 rrrfo, r t.
l^;---7
Pour E(X)
*
0, on obtiendra
:
/-_ni$3-g1 !9 r'rto, rr
/ u_ _;n
Théorème 26
Soit r : lN * lR- telle que
lim
r(n)
n 2 1, une suite d" u.u.r.nGïfirnt
(n) Soit g :lR Alors
PH.TASSI
-S
-
: LEGAIT
: * *,
a une constante réelle, et
(Xn),
,
(Xn -
a)lg
N(0, o).
lR, dérivable.
(n) (s(X.)
-
s(a))
g ,,n, o I g' (a) l). 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES
Démonstration Considérons le développement de g à l'ordre 1 au voisinage de a S(x)
où
-
g(a)
:
:
-
lim x-a
c'est-à-dire
d'où
(x
:
ve)0,
3a
{l
Xn
)0
:
P{l xn -
:I
a) g'(a) R(x)
:
*
(x
nn
c'est-à-dire
-
R(x),
x-al (a = I R(x)l (e,
( o } C {l R(Xn)l ( e }, a I
aI
! a, et donc a I ( o } : 1 + lim P{ I R(Xn) I (
:
:
R(Xn)I
ll s'ensuit
a)
g,
Or, d'après le théorème 18, Xn
lim P{ I Xn
-
:
e1
:
1,
O.
:
(n) (g(x")
:
r(n) (Xn
a)
D'après le théorème 17, r(n) (Xn -
s(a))
s'(a)
*
(Xn
-
a)
(n)
a) R(Xn)-B O, et r(n) (Xn
loi ru(0, I s' (a) I o), d'où le résultat recherché.
R(Xn)'
-
a) s'(a)
Très utile en statistique mathématique lors de l'étude de comportements asymptotiques, ce théorème est aisément généralisable au cas multidimensionnel :
Théorème 27
soit r:lN -lR'telle que,l'A tt"l (Xn), n
)
230
*oo, a un vecteur delRp'
1, une suite de vecteurs delRp tels que r(n) (Xn
soit g
:
: lRp
-
a)!g
:
N(0, >).
* lRq différentiable, G sa matrice (q, p) des dérivées premières PH. TASSI
.
:
S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
/ ôst
G-
lôÇ
l::l
dgr
\
4\
\ô-s" ful \ uu' a"p /
Alors
:
(n) (g(X.)
-
s(a))
!9
ruto, G(a)
x
tG(a)).
Exemple Soit X une v.a.r. de loi de Poisson 1ndépendantes de P(X : 0).
qù,
Vn),
n)
1, une suite d'observations : E(X), mais e-À :
X. Le paramètre d'intérêt est non pas À
On sait que : Xn
!
À (loi faible des grands nombres).
Par le théorème central limite
:
vG fr-" À)lgJ N(0, /r) -
Soit g : lRl -* lR] définie par u En outre
t
*
g(u)_= e-u. Par le théorème e-xn ! e-À .
6
:
,/Â (sx-"t - s(À)!g N(0, /À | e-À | ) G (" xn - "-n)!9j ruto, e-r /T).
7 APPLICATION AUX LOIS DE PROBABILITE
CLASSIOUES
7.1 Loi de Poisson Théoràme 28 Soit X une v.a. suivant une loi de Poisson g 15,. Ators la variable converge en loi vers N(0, 1), lorsque À tend vers I'infini.
Démonstration Soit la v.a. Y
PH TASS] S. LEGAIT
-
{-}=I--J), /T
J\
y:
X
- À JT
LES CONVERGENCFS DE VAFIABLES ALEATOIRES
çv (t) d'où
-
(t)
çv
:
:
u- lt '/f, u it
"-
i.I}*
"Â
I lsitl/f -
eÀ(+
itl\^
loi X-À 'Ë5N(0,
I
-tz/zltl
çv (t) : .-t2/2
2/2 est la f.c. de N(0, 1), et donc Or e- t
Remargue.' On écrira
11
:
1).
1x:r: N(À, /À).
7.2 Loi binomiale Théoràme 29 : loi binomiale et loi de Poisson Soit Xn suivant une loi binomiale
.
p est fonction de
9(n, pl.Sous les hypothèses
:
n
rlimnP(n) :À(À>0) n
ona:
xn9g\\|.
Démonstration a) Calcul direct Sous les hypothèses : p(n)
: 1
(n
p(n))n=
O.
n
P(X:x) =CXP'(1 -P)n-":
n(n-1)...(n-x*1) xt P(X:x) d'où re 232
résurtat.
(1
px -P)'
(1
-p)n.
(Ue-nP À'e-À, n-oo x! n*æ Xt nP-À nP-À PH' TASSI
'S
LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
b) Utilisation des f.c.
:[1-B(1 -ei ') ]n; (u) Log eXn - - np(1 - ei ') (p * cxn(u)
0),
lim çx^(u) :e-À(1'eiu).
et:
h*co
np*À On reconnaît la f.c. de
g
()rl.
La loi de Poisson est souvent appelée "loi des événements rares", car loi limite du comptage du nombre de réalisations d'un événement donné, de probabilité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant. Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi limite mais comme loi exacte. Théoràme
30 : loi binomiale et Ioi normale
Soit Xn une v.a. suivant une loi binomiale
n*+æ:
IL-
,g
f,qp
19,!
g
rrrto,
(n, p). Pour p fixé, lorsque
tl
Démonstration On a1'u (chapitre 4) que la loi binomiale %ln, p) est la somme de n lois de Bernoulli vd(1, pl indépenclantes. En écrivant
,
n
Xn
: I Yi,Yi->g(1, p) Vi = 1 à n, i:1
on a, d'après le théorème central lirnite
:
n
L Y,-no I '
i:l
/ ^pq
l'? tttto'
r t'
Remargue En pratique, on pourra approximer laloig(n, p) par la loi N(np, bien que cette écriture n'ait pas de sens mathématique. PH,
TASSI S
LEGAIT
/n
p(1 - p)),
IJJ
LES CONVEBGENCES DE VARIABLES ALEAIOIFES
Exemples a) Soit X de loi g (91 Par lecture de table de la loi de Poisson
P(X<18; Par l'approximation normale P(X
<
b) Soit X de loi
18)
:
:
:g'gnt,.
:
P1P,o, 1)
<
l9,9, :
a(3)
:
o,9e87.
9(5O;0,O1). Par lecture directe de la table de la loi binomiale:
P(X=O) :0'6050' Par l'approximation de Poisson g(O,51et lecture de la table correspondante
:
P(X:O) :0'606S' c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale
< 5l:
P(X
Par l'approximation gaussienne
P(x<5)
:
0,4312'
:
:P(.-!_-1-
(o) =
'/sox0,1 x0,4
s,5.
L'approximation gaussienne sera d'autant meilleure que I'on s'écarte des conditions du théorème 29.
7.3 Loi gamma Théorème 31 Soit X une v.a.r. de loi gamma, y(p, 1). Lorsque p tend vers I'infini, on a
I--tloj /p
N(0,
:
1).
Démonstration La v.a. Y
-
X Jp
-
./p admet pour f.c. çv
(u)
:
= g-iu /0.rx
tf) PH.
TASSI S, LEGAII
LES CONVERGENCES DE VARIABLES ALEATOIRES
,\-P
-e-iuAh-i
\yo/
lim
p*oo
7.4 Loi du X
:
s-
çv
(u)
iu
/F
:
e- u 2tz
leiu
'5
,
- u2tZy
'1.c.
de N(0,
1).
(n)
Plusieurs approximations en loi existent lorsque n tend vers l'infini pour la v.a. Un de loiX2 (n).
a) Théorème central limite Par définition,
Un: i X], où (Xi), i)
1, est une suite de
i:1
indépendantes et de loi N(O, 1). Alors, par le théorème central limite
grlg!.1-:
@J
En effet, E(X?)
:
1, et E(Un) V(Un
On a vu au chapitre 4
:
9n--.lt !9
JT;
:
v.a.r.
:
ruto, rt.
n ; de même,
n v(X])
:
ntE(X1)
-
11.
:
rÉ + '!t'_ 2 E(X4,) -24/2 4.9.1:
'
22
f(b
g,
2
d'où
:
V(Un)
:
2n.
b) Approximations de Fisher La plus utilisée est la suivante
Jzvn PH, TASSI
- S. LEGAIT
-
:
JTti
-Tlol
ru(o,
r ).
attr
LES CONVERGENCES DF VARIABLES ALEATOIFES
On trouve également la convergence ci-après, que I'on montre moins rapide que la précédente J^to! N(0, 1). :
/4 -
c) Approximation de Wilson-Hilferty
tt 9n/ to! ru(0, t). n - \ -2_l
3Æ V
---T-t/ gn
est On peut 'suivieétablir que la meilleure approximation asymptotique par la première approximation de Fisher, qui es! pourtant celle dernière, usuellement employée dans les tables numériques de la loi de X'' cette
Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loi vers la loi N(0, 1) lorsque n tend vers l'infini. Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre. l
, I I I
7.5
Précision de l'approximation gaussienne donnée par le théorème central limite
Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui ne restreint en rien la généralité de l'étude).
Si 9(u) désigne la f.c. de X. on sait que
ii-1 t,
,lt(u)
t',
:
Log ç(u)
:
: .I^ l.
t:,
(iu)t
K1
t,
où K, est le cumulant d'ordre j de X. Soit Yn
{n
= ./n Xn : ' I Xi . Si .rn désigne Jn i:1 ûn(u)
:
Log qn(u) oo
: n I-
:
la f.c' de Yn, on a
:
n Log çfu/Jnl
(iu)r.- Kj
i:21
nltz
1(i')ar4+"' 1 --!22 * St,/i(iu)3K"+ - 4!n 236
PH. TASSI
- S. LFGAIT
LES CONVERGENCES DE VAF|ABLES ALEATOIRES
On constate au passage que le cumulant d'ordre Comme pn(u) en(u)
:
:
"-u2/2
eÛn(u),
on a
j
de Yn est K, n1-ll2.
:
' 1-1-1iu1+ro+J-(iu)6r!+. [1+=!iu)3K. 4ln 72n ' 3l/n
1
En utilisant la formule d'inversion (théorème 15, chapitre 6) et la remarque suivant la définition 1 du chapitre 6, la densité fn de Yn est :
fn (x) :
:
ç(x)--1- rrrtst -
6Ji
(x)
!2tr uf "-,u^*n (u) du
+
K4ç,@t ^l24n t*) +' =!Kl 72n é
e(o) (x)
+
...
En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), on obtient :
rn(x)
-ç(x)
t
[1-[*3.Wt
ou: fn(x)
r3"o+(sr.
-rs
:
ç(*)[ 1 *
Kg
r3)r+ + (+sr3
(t:;g^)
-
*
rar.)r, + gr*
72n
.
-
rsr321
.. Par intégration, on obtient une approximation de la fonction de répartition
deYn:
Fn(x)
PH TASSI - S, LEGAIT
: o{x) [[elf$ . try*fuf
Fn
IES CONVFRGFNCES DE VARIABLES ALEATOIRFS
EXERCICES
7.l
"
Soustraction
'
de khl'deux
(p) et X2 (q) (p > q). Soit Z soient X et Y, deux v.a.r. suivant respectivement les lois x2 ùili.â. irioepènoante de Y. telle què X Y + z'
:
Montrer que Z suit une loiX2 (P lndication
çx (t)
:
q).
çv $) çz(t) en raison de I'indépendance entre Y eTZ'
c7 $l
7.2
-
: (t' (1 -
?'llX',l
:
2i11orz
- x2
=> z
(P
-
q)
(1 _ Zi11p-a/2
Loi hypergéométrique p), X converge en loi vers la loi Montrer que si X suit une loi hypergéométrique J0 1ft, n, p fixés' r et quand + p) vers tend N fi(n,
-,
lndication
qo Cfti
Px (x)
7.3
Soit (Xn)n
6N.,
:-q
n! _ -- rl (n;i
.,
*
(Np)r_(!',lq)n-'
r,lrl -
Cl -l
px qn
ufle suite de v.a. indépendantes' de même loi de densité
:
l(x) 1) Donner la loi de
t. :
s- tt - a) 1te,
.,Plln
-
x.
:
+* i (x), 0 > 0'
t'
2) Montrer que Yn converge en probabilité et en mgyenne quadratique (12) vers 3) Vers quelle loi converge la v.a. n(Yn
-
0)
O.
?
lndication
1) Fyn (Y)
- 1-
(1
-
F(ï)n où F est la f'r. de Xn'
VY>o,F(Y) d'où
:
rrn (v) frn
2)
P{ I Yn
lorsque n
238
-
-
0I
:
(Y)
(1
:
-
:1-e-(Y-o)
s- (v-a) n) 116, + -1 (Y)
n e- (Y - u)n 1l u,1 -1
(V)
(e 1 : Fyn (0+.) - Fyn (0-.) :'l -g-(o+e -o)n:'l -0-'n--1
æ, d'où
YnI o
.
PH'
TASS] S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIRES
E(Yn
-
ul,
: iî
(v
-
o)2 n e- (v - a)n f,y
: !* i;
,, ,-,
O,
:1r(r) :? -o n2 n2
3) Soit Zn : lorsque n
æ, d'où Yn L2 6
.
mq n(Yn
-
o). La densité de Zn est g(z)
La loi de Z est indépendante de
:
:e-t110,+q(z).
n.
\
r
PH.
TASSI S, LEGAIT
t20
Chapitre 8
Compléments et approfondissements sur les lois de probabilité Le chapitre précédent a montré I'importance du concept de convergence appliqué à des variables aléatoires, à leurs fonctions de répartition, à leurs densités, à leurs fonctions caractéristiques, ou à leurs lois de probabilité ; la convergence suppose implicitement la notion de distance entre les divers éléments dont on étudie le comportement asymptotique. Nous nous proposons dans ce chapitre d'étudier plus formellement les distances pouvant exister sur l'espace des v.a. ou de leurs caractéristiques associées ; nous introduirons également un ordre sur les lois de probabilité.
LES DISTANCES Dans tout le paragraphe.'l'espace probabilisable de réféi'ence est (0, .c/l oit 0 est un espace topologique muni d'une distance d, complet, séparable (il contient un sous-ensemble dénombrable dense), :/ est la tribu borélienne de {1. I désigne l'ensemble convexe de toutes les probabilités sur ({-1, dl, I est l'ensemble des fonctions de répartition associées.
1.1
La distance de Paul Lévy
On prend
Définition
0:
lR.
1
La distance de Paul Lévy entre deux fonctions de répartition F et G de définie par
I
est
:
dL (F, G) PH. TASSI
:
- S. LFGAIT
inf{e
>
O
/ Vx F(x -
e)
-
e
(
G(x)
(
F(x
*
e)
*
e}.
241
CON/PLEN4ENTS ÊT APPROFONDISSEMENTS
SUR LES LOIS DE PROBABILITE
F(x)
F(x
-
e)
x-É
x
x*e
dL (F, G) est donc la plus petite valeur de 6 telle que G(x) va, pour tout x, appartenir au "tube" ainsi engendré autour de F.
1.2 Distance en variation Définition 2 Soient P et O deux probabilités de rapport à une mesure p o-finie.
I
de densités respectives
La distance en variation entre P et O est définie par du (P,
o)
:
fdp
lP(A)
-
o(A)
où
dv(P,O) P
-1-(P^O)
et g par
:
I
ll est clair que du prend ses valcurs sur [0, 1]. On établit les relations
a)
f
:
({))
 O : Min (P, O), i.e. est la mesure qui admet Min(f, g) pour densité par
rapport à b)
É{.
2dvP,
O)
:-[ldP-dOl
Exemple On prend. sur lR, pour P la loi exponentielle 7(1, de densité f(x) : et pour O la loi uniforme%ro,,,1sur [0. 1], de densité g(x) : 1,0,,,, 242
s-
x. 1,^ (x), +
(x).
PH TASSI - S. LEGAIT
COMPLEMENIS
ET APPROFONDISSEN/ENTS
SUR LES LOIS DE PROBAB{L|TE
2 du 0(l,oUto, 2 du :
rl:
Ji tt - "-x1 du (z(1)!Ùp,
JR+ I t(*) - s(x)l
dx
f,- e-x dx :
2
dx
+
rl :
t_
e
:
e
0,3679.
1
Remarque Considérons sur lR la restriction de la distance en variation à la elasse'€des intervalles ouverts de la forme ]--" x[. Alors la distance en variation n'est autre que sup I ptt- -, x[) o(]--. xt)l : Sup I r(x) G(x)l , rlresp. G) désignant la
XX fonction de répartition de P(resp. O) ; cette distance porte le nom de distance de Kolmogorov dK (F, G). Sur I'exemple proposé, on a F(x)
:
e-x).
:
1to, rl (r) + ^ qfo, 1t,, * 11 -1(*). 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et est égale à !. (1
-
11p+ (x)
et G(x)
e
1.3
La distance de Hellinger
Définition 3 La distance de Hellinger H(P, O) entre deux probabilités P et O de définie par
I
est
:
:
-i (/æ - faoyz Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel, H2 (p, o)
ona:
H2 (P,
o)
:
-[
(fi
-
dp: 2(1 - I lfr
'u[,12
apl.
Définition 4 On appelle affinité entre P et Q la quantité a(P, O)
ll est immédiat que 0 H2 s'écrit
: tl2|, O) :
et: PH. TASSI
2(1
( -
: I
a(P. O)
<
1tg7t/2 dU 1.
a(P, O)),
o
:
<2 243
COMPLEMENTS
SUR LES LOIS DE PROBABILITE
ET APPROFONDISSEMENTS
Exemple
,l
H2 (z('t ),%to,
: 2(1 _Jô /""-
H(v(1), qro,
dxl
-- 2
tfr-
u
,11: 0,6528'
1.4 Distance de Lipschitz On suppose que la distance d sur () est majorée par 't ; si ce n'est pas le cas,
,.d on munit () de la distance d'
:
1
+d
'
Définition 5 On appelle distance de Lipschitz entre deux éléments P et O de9la quantité dLi (P, O) définie par :
d., (P, O) : ryp-l J ,/dP -f ,/dO -
lrey
où 9: { r/ : 0 - lR / réelles lipsch itziennes.
1.5
I,l
t*l
-
û (V) I <
I
O(*, y) }, ensemble des fonctions
La distance de Prohorov
lntroduite en 1956, elle est définie sur 9. A étant un sous-ensemble non vide de 0, et e un réel strictement positif, on appelle e-voisinage fermé de A le sous-ensemble A€ de 0 tel que inf d(x,y) (e }. A':{x€0l :
v€A
Définition 6 Soient P et O deux éléments de @. La distance de Prohorov entre P et O est
définie par
:
dp (P,O) :inf{e >O/
P(A)
+e,YA€.d\.
Une seconde définition, équivalente à la première mais plus facile à utiliser, peut
être ainsi énoncée
:
Définition 7 Soit A un événement quelconq ue de s{. On définit I'application p : -û par
*
lR+
:
p(A)
Alors
244
:
:inf{e)O:P(A) (O(A') *e}. dp (P, O) : .S_up-p(A). ' A-.-.il PH. TASSI
- S. LEGAIT
COMPLEMENTS ETAPPROFONDISSEMENIS SUR LES LOIS DE PBOBABILITE
ll existe peu de résultats sur le calcul
exact de la distance de Prohorov. ll est néanmoins quelques cas où l'on peut trouver l'événement Ao tel que d, (P. O) = p(Ao). Le calcul de la distance de Prohorov se ramène alors à la recherche de Ao.
Exemple I
Soient
P:ô,,et O:ôr, x(y; il estévidentque
l'on ne peutconsidérer
que des événements A de la forme {u}.
Pouru#x,p(A) Soit Ao
et
:
:0. )< O(,S) * 1<0*e ou e21 dp (ôx, ôr):
{x} ; alors la relation P(Ao
donc
e
s'écrit
:
1
Exemple 2 Nous admettrons le résultat suivant : soient P et O deux probabilités, de densités f et g. On suppose f définie sur [0, a], a ) O, éventuellement + oô, g décroissante sur lRr, et, sur t0, al, f ) g. Alors :
dp(P, O)
Soit par exemple
p([0,
a]).
:
P:,7/p, P et O admettent pour densités f(x)
11
et O
: ill\
:
:1t0, tt (x) ig(x) : e-x dp (P, O)
=inf(e)0:P([0, OrP(tO, 1l)
:
:
1])
p([0,
1'*.
(x)
1])
1*el) +e).
:tetO([0. 1+€]) :-[J*'e-xdx*1-s-(1
Le réel e vérifie donc l'inéquation
1<1-9-(1
te)
.
:
*e)
1.
<+ ,sl
*'t;>-1
Cela permet de déterminer la valeur de € pour laquelle e el p([0, 1l) : d, (P, O) :0,2466.
* e: 1
:
1.6 Comparaison de distances ll est possible d'établir des inégalités portant sur les distances précédemment définies. PH,
TASSI S. LÊGAIT
245
COMPLEMENTS
Pour
0:
SUR LES LOIS DE PROBABILITE
ET APPROFONDISSEIVENTS
lR, on établit
:
dL
:
d3(dr,(2d. H2<2du(H /4-H'z<2H.
1.7 Autres indieateurs d'écart Un grand nombre de méthodes usuelles de la statistique mathématique sont fondées sur des indicateurs d'écart, ou de proximité, entre v.a. ou lois. Ces indicateurs ne sont pas des distances au sens mathématique du terme, dans la mesure où les propriétés de symétrie ô(X, Y) : ô(Y, X) et d'inégalité triangulaire ô(X, Y)< ô(X, Zl + ô(2, Y) ne sont pas systématiquement vérifiées. Cependant, ces indicateurs sont d'utilisation fréquente car possédant une interprétation statistique intuitive, et ils sont souvent appelés n distances o par abus de langage. Par la suite. nous les nommerons proximités. lls vérifient cependant. en général, les conditions de régularité suivantes :
{otx,X) :o i lotx,Y) >o
a) Proximité au sens de
L,
sur
I
ô (F, G)
= J [F(x) -
Dans le cas discret, on aura
ô(F,G)
:
G1x;12 dx
:
ki > i:1j:1 (
'
ll existe une version sur I'espace des densités
ou
ô (f, s) :
J [f(x)
ô(f,g) :
:
k
t-
(pi
|
' :
g(x)]2 dx
-ei
)2
Remarque :
ll
est parfois d'usage de considérer des versions de ces indicateurs w à valeurs dans lR+ ; par exemple
proximité pondérées par une fonction ô(F, G) 246
:
J
tF(x)
de
:
-
G(x)12 w(x) dx
PH TASSI
-S
LEGAIT
COIVPLEMFNIS FTAPPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
b) Proximité de Cramer-Von Mises Elle est définie sur .?; on appelle proximité de Cramer - Von Mises entre deux f.r. F et G, centrée en F la quantité :
ô(F,
c)
:
-i [F(x)
:
G(x)12 dF(x)
-
E,
(F(x)
-
G(x))2
E, (.) reRrésentant l'espérance prise par rapport à la loi de f.r. Remarque .' sur l'espace des densités, on pourra étudier
F.
:
:
ô(f. g)
g(x)12 f(x) dx "l tf(x) Les versions discrètes de ces indieateurs seront :
ô(F,
: ki
c)
j:1
i:l
'
k
ô(f. g)
: 2 i:1
o, (R,
-
r
c,)2
c) Proximité de Karl Pearsen Egalement appelé indicateur du X2, dans sa définition centrée sur f par
il est donné sur l'espace des densités
:
ô(r, s)
: f t{!---91!Ê f(x)
Sa version discrétisée est
dx
-
E. t1
-
s(x\z f(x)
:
ô(f.g)
(pi
: i
i-1
-q,)2 P;
On peut remarquer que la proximité de Pearson n'est qu'un cas particulier de I'indicateur au sens de L, pondéré par w(x) : 1,zf(x) ou 1/S(xl. ll existe un indicateur du y2 dit modifié, qui n'est autre que ô(f, g)centré sur s.
d) Proximité de Wolfowitz Elle est définie sur
t
par
:
ô(F,G)
:JlF(x)
ll s'agit de la norme au sens de L,, de F ô(F,c)
PH. TASSI - S. LEGAIT
-G(x) |
ki : : | : i:1 j:1
dx
G. En discret, elle est donnée par (pi
' -q, '
:
)l 247
COIVPLEMENTS
ET APPROFONDISSEMENTS
SUR LES LOIS DE PROBABILITE
Définie sur les densités, la proximité de Wolfowitz est
ô(f,g)
:
:Jlf-gldx
soit le double de la distance en variation entre les probabilités P et O de densités respectives f et g (cf. 1.2). e) Proximité de Kullback-Leibler
:
ô(F, G)
f(x) ar(x) -l Los s(x)
pour I'indicateur centré sur F. Sa version discrète est
:
ô(F,G)
:
kp, : p, Log'' i:1 Q;
Notons que la proximité de Kullback-Leibler ne vérifie pas ô(F, G)
>
O VF, VG'
Des précautions sont à prendre lors du calcul de ces divers indicateurs, et s'assurer en particulier de leurs conditions d'existence. Exemple
on prend pour F la loi uniforme sur [0, 1] et pour G la loi exponentielle
il1,
1l,.
a) Aucun problème n'existe pour les indicateurs de type
les densités
f et g
ô(F,G)
Lr, sur les f .r. comme sur
:
:Jf t^-1+
e-^12
dx+Jl(1 -1*e-x)2dx
:5:-J2: 6e ô(f, g)
o,oe7
: J[ tr e-')2 dx + J] (O - e- x126* :!-3:0,236. 2e
b) Proximité de Cramer-Von Mises L'indicateur de Cramer-Von Mises calculé sur les f.r. et centré sur'2/ro, tl "st
:Jf tx-1+e-*)2 :q-2-- 1 :o.o3o
ôF(F,c)
,
dx
6e2e2
248
PH TASSI - S. LEGAIT
COMPLEMENTS
ET APPROFONDISSEN/ENTS
SUR LES LOIS DE PROBABILITE
Centré sur 7(1, 1), cet indicateur prend la valeur ôG (F,
G): Jl t"-
1
:
+ e-')2 e-xdx+"iî e
'=:
-'17 -'- 6e2e2
2x
"-x6*
2'o3o'
c) Proximité de Pearson
L'indicateur de Pearson centré sur(2p,11 n'a pas de sens. puisque f(x) ) 1. Sa restriction à [0, 1] est:
:9
pour x
o, (r, s)
:
Jl tl
Centré sur 7(1, 1). il vaut on (f, o)
- e-')2 dx :r-:-
#:
1,e6.
:
: Jl tl e-x)2 ex dx + 4* e-x -
dx
:
e
-
2
:
A,718.
d) Proximité de Wolfowitz
Aucun problème d'existence n'apparaît pour cet indicateur ; en outre, ) G(x), d'où
Vx, F(x)
:
ô(F,
c)
: Jl fx-
1
+
"-x1
dx
+ 1"î
"' d*:
21
e) Proximité de Kullback-Leibler
Aucune version de cet indicateur n'existe puisque f(x) Cependant, sa restriction à [0, 1] peut être calculée
Centrée sur Q/p,
6 pour x )
1.
l: ô(F,
Centrée sur 7(1, 1) ô(F, G)
:
:
c)
:
J[
Log
e'
dx
:
l.
:
: J[ (t-og er) e-x
dx
: -? + 1 :
0,264.
1.8 Retour sur les convergences Ainsi qu'il I'a été fait au chapitre 5, on peut associer une notion
de
convergence à chacune des mesures de distance ou de proximité qui viennent d'être définies. PH. TASSI
- S. LFGAIT
249
COMPLEMENTS
ET APPROFONDISSEIVENTS
SUB LES LOIS DE PROBABILITE
Soit ô un indicateur de proximité, (X"), n21, une suite de v.a.r. et X une n21, et F. Nôus dirons que Xn converge au sens de ô vers X si lim ô(F", F) : 0. v.a.r., de f.r. respectives (Fn),
n-æ
Exemple
^ tùro,
Soit (Xn), n
)
1, une suite de v.a.r. de loi'Z/p,1 +
,r'
11,
et X une v.a.r. de loi
n
Considérons l'indicateur de Wolfowitz sur les densités ô(fn, f)
en notant Far fn et
f
t llr
:.f
I fn
-
f I dÀ
Jl tt
:1t0, rt (x) 1t0.,1 * 5 (x) ;f(x) * ,,
1n ox + J] nn*1 dx--n-l n*1 -
On remarque que lim ô(fn. f)
densités.
-
n
"
:
ll fn
les densités des lois de Xn et X.
fn (x) : ô(fn, f)
:
:
n
:
O, et donc Xn
* X au sens de Wolfo..nritz sur les
De même, un calcul simple montre que l'indicateur de Wolfowitz sur les f.r. vaut 1
2n
Remarque intéressant sur le plan statistique. particulièrement en d'introduire la notion contraire à la convergence qu'est la des tests, théorie séparabilité asymptotique;soient (Fn) et (Gn), n ) 1, deux suites de fonctions de répartition. De façon générale. ayant fait le choix d'une mesure de proximité ô prenant ses valeurs sur [0. M], M éventuellement infini, nous dirons que les suites (Fn) et (Gn) se séparent asymptotiquement au sens de ô si
ll peut être parfois
:
lim ô(Fn. Gn) : M
Ainsi, si ô est la distance de Hellinger, F^ et G- se séparent asymptoti:,/2, ô;r si lim a(Fn, Gn) : O.
quement au sens de Hellinger si lim H(Fn, Gn)
De même, il y aura séparation asymptotique au sens de la distance en variation du si :
tim du (Pn, On) :
1
où Pn et On sont les probabilités auxquelles sont associées les f.r. Fn et Gn. 254
PH.
TASSI S. LEGAiT
COMPLEIVENTS ET APPROFONDISSEMENTS
SUR tES LO]S DE PFOBABILITE
Les inégalités de comparaison des diverses mesures de distance (1.6)
permettent partiellement de classer les convergences ou les séparations asympto_
tiques associées. Exemple
Ona:
o
t42
On sont deux suites de probabitités de f.r. Fn er Gn, on
constate lactlement que ^^^^.?î::^î'^ll--"1
O" (Pn, On)
: O
<+
,',T H(pn, On)
: Æ
+
,'fl De même
'
;
Si lim du(Pn,On)
=
1, alors, en posant
h:
iim H(pn , On)
"fl
du(pn, On)
:
:
O
1.
lim H(pn, On), on doit avoir:
h2<2
t,2(4-
h2) __
:
ce qui n'est réalisé que pour h
4- _ (h2_
2)z>O
,/2.
Les indicateurs do et H sont équivaients pour ra convergence et ra séparation asymptotique.
2
APPLICATION A LA FONETION DE RÉPNRTITION EMPIRIOUE
si x., ...., xn est un échantiilon de n réarisations indépendantes d,une v.a.r. de loi de probabilité P, on définit ta quanriré :
p":1 ! nt:1
ô"xi
où ô. (x) vaut 1 pour ernpirique,
x: a et o aiileurs. pn est apperée loi de probabilité distribution uniforme sur (X,,,...,Xn) puisque pn ({x,}) : L, i:1 à n.
on lui associe la fonction de répartition empirique x
PH.
TASSI S.
€
LEGAIT
lR, Fn (x)
:
pn
{l- -,
x[]
: I i . ni:1
n
Fn définie par
:
11_ _, ,,1 (x,). r '^L
251
SUR LES LOIS DE PROBABILITE
CO[/PLEMENTS ET APPROFONDISSEMENTS
2.1 Propriétés à distance finie Par construction, F^ (x) est égale à la proportion d'observations de l'échantillon strictement inférieu'res à x; Fn est une fonetion toujours discontinue. La v.a. n F^ (x), nombre d'observations avâht x, suit une loi binomiale 0(n,F(xll puisque un 'foint xi est soit avant x, soit après, et par conséquent :
E[Fn (x)]
:
F(x)
:
et vlFn t*)l
I
t1
F(x)
-
F(x)l
Fn (x) converge donc en probabilité vers F(x).
On peut égalenrent calculer la covariance entre Fn (x) et Fn (V) n
n
s
1 Fn(x) Fn(v) :-riit
I
n
l:
nz
+
n
i:1àn:
(x,)
1p -, q (x;) ).
l- e(t nn r- -,
la
v.a. de loi P associée à la
Min(x,
vx
(Xr t)
+
tl
: I r1uin1*, y)) + l--lnn
et:
)
+j I
:
1l- -, 4
i:1 j:1
D'où, en notant par X.
E(Fn (x) Fn (y))
(xi , Min(x, ylt
I
T
i
. r" 1t--,q(x;) ",(x;) l:
1t--
_1 [.I.1r_ n
:
cov(Fn (x), Fn tvtt
:
|
E(l1- -,
1ème 166;156tion x,,
,.1
(X.,)
1t- -,
yt (x2))
F (x) F(v)
[F(Min(x, v))
-
F(x) F(v)].
2.2 Propriétés asymPtotiques Puisque n Fn (x) suitS(n, F(x)). en appliquant la convergence en loi de la loi binomiale lorsqué n tend vers l'infini, on a :
- n F(x) Yn (Fil*): J9 !9! ru to, r GTiili -m /Tixif--Eii
n Fn (x)
_:--
Comme Fn (x)
I
F (x), on a également uzn (Fn (x)
-
/ r.{x) 11 -
I
:
F(x))
N (0,
1)
Fn(x))
PI TASSI
S. LEGAIT
COMPTEMENTS
ET APPROFONDISSEN/ENTS
Exemple : On sait que P(- 1,96 < N(0, 0,95
: P(- 1,96 <
1)<
SUR tES LO]S DE PROBABILITE
1,961
u/n (Fn (x)
:6,9U, soit
-
F(x))
,/F;xiTrm)-
:
<
1,96)
ou encore 0,95 : P(Fn(x)- 1,96V :
n
Si F(x) est inconnue, on a construit un intervalle connu ayant une probabilité donnée 0,95 de contenir la vraie valeur de F au point x. La convergence en loi vers la normalité peut être étendue au cas multieJimensionnel.
Théorème 1 Soit F la f.r. continue d'une v.a.r. X, pour tous réels (u, , ..., u,.1, le vecteur aléatoire {-/n (F^(u,) F(u,)} (i : 1 à k) converge en loi vers unè loi normale N(O, :), où I e'st [a -matrice carrée d'ordre k d'élément courant (i, j), 1 < i,
j(t<:
o,,
:
min (F(u,), F(u,))
-
F(u,) . F(u,)
2"3 Vitesse de convergence : loi du logarithme itéré Dans ce chapitre et ceux qui précèdent, nous avons abordé un cerîain nombre de notions de convergence portant sur des suites de v.a., de probabilités, de f.r., etc. Un élément important pour le praticien est la 'ritesse à laquelle a lieu cette convergence vers la limite. Nous allons donner un résultat général complétant le chapitre 7.
2 : loi du logarithme itéré i > 1, est une suite de v.a.r. indépendantes et identiquement distribuées (i.i.d.), d'espérance m et d'écart-type o. o 1æ, alors
Théorème
Si (Xi),
:
/nfin-rn) lim
p.s
n..-oo
,Æ Log Log n " La loi du logarithme itéré complète le théorème central limite en précisant la vitesse de convergence de :
.,/n (Xn
m)
-
Appliqué à la fonction de répartition empirique, le théorème du logarithme itéré devient
:
/n (Fn(x) - F(x)) -1 n-æ vGFj-il-Hx-D ,Æ Los Los n lim
PH.TASS]
.S
LEGAIT
1
p.s.
253
COMPTEIVENTS ET APPROFOND]SSFMENTS
SUR LES LO S DE PFOBABILITE
2.4 lndicateurs de proximité avec F" L'un des problèmes fondamentaux de la statistique mathématique est la connaissance de la loi P, de f.r. F, d'une v.a.r. X dorrt on possède une suite finie (X., ..., X-) d'observations indépendantes. lntuitivement, ayant fait choix d'un indicateur"de proximité ô, si on postule pour F une loi donnée F., on aura
tendance à accepter ceite hypothèse si l'approxinration de F fournie par Fn est ( proche ,, de Fo, c'est-â-dire si ô(Fn, Fn) est u petit u. Parmi les indicateurs présentés au paragraphe 1, les plus fréquemment utilisés sont ceux de Kolmogorov, Pearson, Cramer-Von Mises. a) Proximité de Kolmogarov
Soit d* (Fn. F) : Sïo I F" (x)
F(xll' pour une
-
f'r.
F définie surlR'
Théorème 3
ll existe une constante C, C ) 0, indépendante de P(dK(Fn,F)
F,
telle que, pour d ) O:
vn)1
>d) ç6"-2nd2
Ce résultat, établi en 1956, est souvent utilisé sous la forme P('/n dK (Fn, F) > d)
<
C
e-
:
2 d2
æ
Soit la
quantité : n:l oo
: n:1
P(dK (Fn, F)
p(dK(Fn,F)
>d)
Du chapitre 7 on déduit
)
d)
:
oo
r ^_2d2 4"o :_(e-2d2ln: ce-'" n:i 2d2 1- e-
:
Théorème 4 dK (Fn, F) : SuP
I
Fn(x)
-
F(x)
| P'co'
O'
Ceci implique ia convergence presque sûre, et en probabilité, de
d*
(Fn,
F)
vers 0.
A.N. Kolmogorov a établi en 1933 [10] la loi asymptotique de do (Fn,
F).
Théorème 5
Si F est la f.r. d'une v.a.r., F étant continue, alors la v.a.
6 d* (Fn, F) ) O par
converge en loi vers la v.a. O, indépendante de F, définie pour y
P(O
:
2 i (-t1r'+r s-2u2t2 k:1 PH.TASSI
-S
LEGAIT
COMPTEMENIS
ET
APPFOFONDISSEMENTS SUR LES LOIS DE PROBABITITE
b) Proximité de pearson Envisageons tout d'abord le contexte statistique. -fl espace des valeurs de la v'a r' continue X dont on possède res réarisations'rnoàfenïantes (X,,, -..,\t;rl partitionné en classes Cj. j : 1 à k :
g'- :k
c
c'est souvent re,cas en pratique, jÀjr,"'"'nsi
de crasses d,âge, de tranches r(Nr, ._,ï_iài, la v.a. N, compte le nombre d'observations parmi (xr, ...,xn) appartenânt à tâ ctà's;;'c;; ;'L-ï ii,: La loi de N, est une loi binomiale g (n, p,) oit
de revenu, etc. Soir alors le vecteur aléatoire
y:
:
pj
:
P(X
€
Cj)
:
J.-
t1x; Ox,
f désignant la densité de
F. plus généralement. y suit une loi murtinomiale,// (n; p1, ..., p1), en référence au schéma exposé au chapitre 4.
Les fréquences
f, : \, j : 1 à k. définissent la loi
observations regroupéeJ 0"r.
que |on notera
"î"r."s, en fournissent ra roi théorique déduite de F
symboliquement par
p.
L'indicateur de pearson entre ô(È.p)
ra roi vraie
-
il et p centré en p sera
: I j:1
empirique des
p; res constantes (0,,,...,
-,
:
$,-p,)2 pj
on utilise fréquemment une forme pondérée de rindicateur de pearson avec w(x)
:
i tl{A-S$3 f(x)
n, qui conduit ici à
oo)
représentée
:
w(x) dx
:
ô*(È, p)
:
k
n
: j:1
Théorème 6 ô*(È, p)
t2Lx, (k
-
1)
(n--)
Démonstration Définissons le vecteur Z de coordonnées
:
N, no. z,- t - 'r,j- 1àk; rnq ' PH. TASSI
. S. LEGAIT
atrÊ
COMPLEMENTS
On
SUR LES LOIS DF PROBABILITE
ET APPROFONDISSEMENTS
E(Zjl:O.V(Zj) - 1-pj
a:
Cov(7r,Z1l:-,m
U+U
On vérifie aisément que le déterminant de la matrice de variances-covariances de Z est nul, puisque celui de Y I'est aussi, on se restreint au plus grand vecteur régulier r(Zt, ...,2n_,1 : Z*. Partant de la f.c. d'une loi multinomiale,
on déduit la f.c. de t(Nr, ..., No-l)
k
:(.
çry(u1,...,ur)
l-
>.
pj eiuj)n |
:
k-1
ç(ut,..., ur.-r): cy(u.,, ...,uk-1,
O)
: t1 + >. pj(eiui J-
Du théorème 3 au chapitre 6. on tire
1)ln
|
:
k-1
> u.t '/d '111 k-1 - i/nj-1 *.r" e7* lu,, ..., uk-1): e .l-
Or:
siuy''/rtpi-
i u.
1-*-r"
k-1
p,(ei'izlnF; .I t j:1
et
:
1)
:
p,(eiu/Jrwi
|
u.2
k-1 iu, >. (+ /q .
j:1 Jn
- 1In'
u,2.
2n '- +
k-1 . k-l k-1 1: i/ô I u, ./Fl i/i- I u, '/o] ' i:r-j ie j:t' 'e - 2i:t a7-tr,,...,un-,):e -
,'2 )
: e-Lort", 2j:t Z* suit donc approximativement une loi normale centrée réduite de dimen1, et ô- (È, p) converge en loi vers une loi X2 (k sion k - 1).
-
256
PH'
TASSI S. LEGAIT
COMPLEMENTS
SUB LES LOIS DE PROBABILITE
ET APPROFONDISSEMENTS
Remarque Ce résultat peut être retrouvé par le calcul direct; notant par P la probabilité élémentaire de Y en (nr, ..., nn), on a :
n!
-
nn
*
rt
,/2Tr "- "
nn
P-
(formule de Stirling)
* rL e- n ,/Ztr
IJ(n,
n.*1 t -n. t,/-Zrl
n1 P1 "'
nk Pp
'e
)
P
no. n, 'j1 | - II1" jni
1
2
à une constante multiplicative
Logp-K* A partir deZ, :
'
k
-no.
'Æq
LogP-K-
(n,* SLognPi nj ' 2
: j:1
N|'t,on
-
a N,
n pl
lZrJ6,ou
LogP-K-
N. I _1
"qk.z j:E.,
,
Z.
-/"q I
(*, *rlLoo(1
+-1) :
zi @i /q -"i2npj
+ 1-l
k.z.z? j:1
'
2 @,
2npj
nzz2. (J +t+2, 2 ' '/nL) J:1 "Æq nr, LogP-K- >. (2,t /nnt + tl
LogP-K-
k
j:1
PH.
TASSI S. LEGAIT
:
'
Faisons un développement limité du deuxième ordre Log (1
près
2
I 2npj
)
COMPLEMENTS
SUR LES LOIS DE PROBABITITE
ET APPROFONDISSEMENTS
I (Ni Or 2 7,/nq: j:1 t ' j:1
nPj)
=n-n:O.
z?
LogP-K->--l
D'où:
2
P;=T;
c'e
1 < z.o
-;1't'
'
La loi limite de la loi multinomiale est une loi normale de dimension k 1 autres), et on en déduit (tout Z, pouvant s'exprimer en fonction des k
-
(Ni
I
i: 1
3
-
:
nPj)2
roi.
yz
11
npj
-
1
1)
-
ORDRES SUR LES VARIABLES ALEATOIRES
L'idée de classer
ou d'ordonner
des v.a. ou leurs lois de probabilité est
- on peut comparer deux v.a. X et Y par I'intermédiaire fort ancienne. Par exemple, (espérance, médiane, milieu de l'étendue), centrale indicateur de tendance d'un ou bien par un indicateur de dispersion (écart-type, étendue, intervalle interquartiles), ou bien encore par les cæfficients de Fisher d'asymétrie ou d'aplatissement (chapitre 4). Nous nous proposons, dans ce paragraphe, de donner quelques éléments les comparaisons possibles de v.a. par I'intermédiaire de relations d'ordre sur partiel ; dans tout ce qui suit, X et Y seront des v.a.r. de lois P* et P". de f.r. respectives
FetG.
Définition
I
X est dite stochastiquement plus petite que Y (noté X Vx
€
lR
F(x)
)
(,
Y)
si
:
G(x)
Cette définition. due à H. Mann et D. WhitneV (947l,, est, historiquement, la première notion d'ordre partiel sur des v.a.r. [14]. Supposons X et Y telles que F et G soient continues et strictement croissan-
tes surlR ;on a:
En
258
F(x)) G(x)
<) O- t 1r1x)) )
x
notantR:G-1 FetÀ- R- l(létant I'application identité), onobtient e À(x) )0 Vx€lR F(x) )G(x) <> R(x) )x PH.
:
TASSI S, LFGAIT
COMPLEMENTS EI APPFOFONDISSEMFNIS SUF LES LOIS DË PROBABII
ITF
Remarque
: R(X). P(Z1z): P(R(X) ("zl: P(X < F- 1 C(t)) = F(F- 1 C(r)) :
Considérons la v.a.r. Z
La loi de R(X) est identique à cetle de
G(z).
Y.
Définition 9 soient a et b deux réels ; X est dite plus concentrée autour de a que y I'est autour de b si :
P(l
x-al(x)
>
p(l
y-blSx)
vx)0.
En pratique, on prendra fréquemment pour a (resp. b) l'espérance ou la médiane de X (resp. Y), ou bien le centre de symétrie s'il y a lieu. Si l'on se restreint au cas de lois symétriques, prenant alors établit les résultats suivants [1]
a: b:
O, on
:
Théorème 7
soient X et Y deux v.a.r. indépendantes absolument continues, de f.r. respectives F et G. de densités f et g, telles que :
(i)
f(x)
: i1- x) ; g(x) : g(- x)
Yx
€
lR,
(ii) f et g sont décroissantes (au sens large) sur lR* (iii) X est plus concentrée autour de 0 que y. Alors, si (X',, ...,Xn) et (Y1, ....Y") sont deux suites finies de v.a.r. indépendantes de même loi que X et Y, on a rlp yi i a) . : . X, est plus concentrée autour de 0 que : :
i:1, b)Xn:
i:l
n
nl:l
On peut établir que la définition 9 est équivalente à la suivante, a priori plus
générale
:
Définition
1O
X est plus concentrée autour de a que Y autour de b si E(h(l Y
pour toute fonction
h non
-
bl ) > E(h( I x -
aI
:
))
décroissante, sous réserve d'existence des
espéra nces considérées.
En particulier, en prenant pour h la fonction identité, on a
:
E(lx-al)<E(lY-bl) PH TASSI - S
LEGA]T
25g
CoMPLEMENTSETAPPFOFoNDISSEMENTSSURLFSLOISDEPRoBABIL|TE
et, pour a
:
E(X). b
:
E(X)
et h(u)
:
u2
i
v(x) < v(Y) ll est enfin possible de définir un ordre fondé sur la différence interquartiles, pour des v.a.r. absolument continues :
Définition 11 Soient a et B, a I B, deux réels appartenant à lO, 1[ ; la loi de X est dite plus étalée autour de a que Y l'est autour de b si :
F-
1
ffi)
1 - F- ("1>c- ffi)-c-
1 (")
1
Exemples a) SoitF(x)
:1-e-À*,G(y) -1-s-9v, À<8. r-1(x) :-lLog(1 -x),G-1(v) :-lLog(1 -v) À0 F-
d.où
1 19)
: - F-1 (o)
1--g
1r-os
1-B
À
- F- (d) :g> c-r (B) _c-1(d) À F-
:
1
1 (B)
I
La loi 7(1. À) est plus étalée que la loi 7(1,0), pour À b) Soit X une v.a.r. absolument continue, de f.r. F, À définit la v.a. Y : ÀX, de f.r. G. G(Y)
:
P(Y
<
Y)
:
P(X
:
<4
)
<
0.
1 un réel quelconque. On r(Y)
ÀÀ G- 1 (y) : {z/G(zl: y}: {z/FÉl: y} : {z/z:
À
F-
1 (y)},
À
d'où: PourO(a(P<1,ona:
G-1:ÀF-1
r-t(B)
-r-t(a):l
260
:
À X est plus étalée que X, pour À
)
1. PH, TASSI
. S. LEGAIT
Chapitre 9 O
bservations ordonnées
ll arrive fréquemment que. possédant une suite finie d'observations indépendantes (Xr, ...,Xn) d'une v.a.r. X, on s'intéresse plutôt au n-uple ordonné en sens croissant ou décroissant. C'est ainsi le cas dans les méthodes statistiques cherchant à détecter des valeurs éventuellement aberrantes; en outre, le phénomène étudié peut parfois être tel que les observations vont naturellement en croissant : part de. marché cumulée conquis semaine après semaine, par exemple. Dans tout le chapitre, X désignera une v.a.r. de loi px, F sa fonction de répartition, f sa densité.
1
LOI DE L'ECHANTILLON ORDONNE
on considère une suite finie (Xr,...,Xn) de n observations indépendantes de X.
1.1 Définition de la statistique Définition
d'ordre
1
on appelle transformation ordonnée ou statistique d'ordre l'application mesurableT : (lR, fr1" - lR,,q.l"classant les(X,), i : 1 à n, dans l,ordre
croissa nt
:
avec:
(Xr, ...Xn) Xt.,t
-
(X(r), ...,
X(n))
( Xrrl (...(X1n)
Remargues
a) En toute rigueur, la notation X1ç, n'a de sens que pour n donné. X(o) "t devrait être écrit X(r;n).cependant, lorsqu'il n'y aura pas de confusion possiblà, nous utiliserons la notation allégée X1p1. b) Si la loi de Ia variable X est absolument continue par rapport à peut se limiter à des inégalités strictes car
i,
on
:
p (Xrr) PH, TASSI
. S LFGAIT
261
OBSE FVATIONS ORDONNE ES
En effet
:
p [{Xrrr
t+l
t+l
Or la loi de X, - X,, pour i # j, est elle aussi absolument continue par rapport à la mesure de Lebesgûe et donc :
.I Pt[Xi-Xi:01):
o
,"r. .onrr", si X est ,"j11r,"0," oir"rete, it peut y avoir des ex aequo, et tes formules deviennent rapidement complexes. Sauf exception, nous supposerons X continue par la suite.
1.2
Loi de la statistique d'ordre
Théorème
1
La loi Pr de la statistique d'ordre est définie par la densité
fr(x.,, ..., xn) où
:
Cn
:
: n' ,i" i:l
[(xr, ..., xn)
€
:
t (x,). Î"n (x,. .... xn)
lRn ./ x.,
< x2<... < *n]
Démonstration En notant 9nl'ensemble de toutes les permutations r de n éléments, et B un événernent quelconque de fr,n,la probabilité pr(g) peut être écrite :
Pr1A1:P1 U E(r)l: : P(E(r)) r€,Vn re9n où
E
(r)désigne l'événement
:
{Xr(1)<....Xr(n} et (Xr(1), ,X'(n)) € P (E
où
pxt (11' ''xr
(r))
(n)
:
JlRn 1"n (*.,, ..., xn)
B}
1, (^r, ...,xn) dPxt(1)' "'xr(n)
symbolise la loi du n-uple (Xr
(1),
. ,X.1ny).
Or, les v.a.r. (X,), i: 1 à n, étant indépendantes, la loijointe de est le produit des lois des Xrliy soit : P (E
zoz
(r))
:
J,*n l cn (*,, ..., xn) 1, (*r, ..., *n)
(XrtrI ...,Xrtnl)
n
,!
.,
f
(x,) dx., ... d*n.
PH. TASSi
. S. LEGAIT
OBSE FVATIONS ORDONNEES
On remarque que P {E (r) ) ne dépend pas de r, donc Pr1B1
:
P
{(Xtr, ... , X1n1)€ B}
lls'ensuit que, sur
lRn,
: nt Ju
:
n
lcn (x,, ..., *"'
,! 1
: T(Xr, ..., Xn)admet
(Xfrl ...,Xtn/
f (^i)dx, ... dxn
la densité;
n
n
'
l cn (xr, ..., xn) .l-l
f
,
(x,)
Théorème 2 La loi marginale de (Xtr), ...,X(k/, k
n! ltn (x'' (n-k),-
(
n, admet la densité
\ ** (,,!,, t''Jr) u"*
.{!
'"n'
:
t(x)dxln-k
La démonstration de ce résultat est tout à fait analogue à celle du théorème 1, à la nuance près que les événements E (r) ne sont pas forcément disjoints. En effet,
lesévénements E (r) et Ë (a) seront identiques si r(i) :ali), i:1 à k;sinon ils scnt disjoints. ll convient alors de définir sur 9n la relation d'équivalence :
o-r<+o(il:r(i)
i:1àk
Alors, en notant A une parTie de,9n contenant un chacune des classes d'équivalence de{?n/-, on a: P {(X11r,
...,xrx/
c B} :
.!o
eî un seul élément de
e {E (r)}
Le nombre d'éléments de A est égal au nombre de permutations divisé par le nombre d'éléments de chaque classe, ce dernier étant égal au nombre de permutations de gntellesque (r(1), ..., r (k)) est fixé, soit :
;{. (n-k)!
2
LOIS PARTIC|.JLIERES DE L'ECHANTILLON ORDONNE
2.1
Loi de
X1p1
La densité marginale fo (x) de la coordonnée X1s1 (k : 1 à n) de l'échantillon ordonné s'obtient aisément en intégrant ia densité de (X11), ...,X(n/:
fk{x):; --aL.t (n-k)l(kPH TASSI -S TEGAIT
1)!
Fk-1 (x)(1
-F(x))n-kf
(x)
263
OBSEFVATIONS ORDONNEES
Le calcul de la fonction de répartition Fn de X1r1 est immédiat. En considérant la v.a.Z comptant le nombre de points X, tels gue X, ( x, on a :
:
Fk(x) Z suivant une loi binomiale
Fk
,/)
(x)
P
1n, F
(X1r1<x)
:
P
(x)), on obtient
(z>kl :
n
:
F'(x) [1 ,Io Ç
F
(x)]n-'
Remarque Cette expression de Fn(x) ne nécessite que la connaissance de la {.r. F de X; elle est vraie quelle que soit la nature de la v.a. X, discrète ou continue. Dans le premier cas, la odensité" de X1r1 sera donnée par f n (x) : Fu (x + 1) - Fn (x). Dans le second, il
suffit de dériver pour retrouver
f
n
(x).
Intégrale bêta incomplète Soit alors b (t, p, q) la densité d'une loi bêta définie sur [0, 1 ], de paramètres p et q (chapitre 4)
:
b(t,p,q) : -: .,n-111 -t)q-1 ts (p, q) où B (p, q) est I'intégrale bêta, constante de normalisation de la densité B (p,
q)
-
1
JO
tn
1
(1
-
:
t1c-1 6,
Définition 2 On appelle intégrale bêta incomplète la quantité
lu(R,c) "
:=;
-il,o-1 B(p,q). -o
(1 -11a r
:
dt,o=
Considérons lr n k + 1}, intégrale bêta incomplète tronquée en F (x). En 1*1{k, intégrant par parties, on établit aisément :
Fn(x)
:1.1*1 {k,n-k+1)
La loi bêta incomplète est tabulée, et cette relation permet de calculer numériquement la fonction de répartition, et donc les f ractiles, d" X(n) (voir nTables of the 264
PH TASSI S. LEGA]T
OB SF RVATIONS O RDONNE ES
incomplete beta-functionu, éditées par Karl pearson, Cambridge University press, 1934).
ru (23.8)
u
.0546 .0679 .0837 .1022 .1237 .1484
337 478 364 621
678 637
.1765128 .2080152 .2429 931 .2813 767 .3229 920 .3675 521 .4146 528 .4637 746 .5142 gOO .5654 792 .6165 525 .6666 799 .7150 262 .7607 906
.71
.72 .73
.74 .75 .76 .77 .78 .79
.80
Exemple Soit X une v.a.r.^de loide Gumbel(chapitre 4)de densité f 1x; : exp (x e"), dont on possède n = 30 réarisations indépendantes. carcurons e ix,rr,
:
F(x)
Comme:
F23 (O)
:
:
1
-e-"";
P (Xtz3)
donc
q 0) :
lF
F(O)- 0,6921. (o)(23. 30
-
23 +
1)
il suffit de lire dans la table ci-dessus la valeur d"lo,osz(23,8), soit, après interpolation P (X12s1< o)- o,og74.
Théorème 3 La variable aléaroire PH TASSI . S.
TEGAIT
Yr:
F (X11/
suit une loi bêta É (k, n - k + 1). 2b5
OBSE RVAIIONS ORDONNETS
Démonstration Notons g la densité de Yo. Par le changement de variables y
s(Y):
n! (n
-
k) | (k
-
1)
|
L
vk-l
(1
ur<-1 \r Y 11
B(k,n-k+1)
-
v)n-k 11s'
:
F (x) dans fn (x)
:
11(v)
tt 1,^,, - y)n-k '[o'1]\](y)
Remarques
a) Rappelons que Fn (X1p/ suit une loi uniforme sur [0, 1 ], comme toute image d'une v.a.r. par sa propre fonction de répartition. b) Le calcul explicite des caractéristiques de X,u, que sont I'espérance, variance, la médiane et le mode dépend de la loi originêlle
la
F.
Exemple Soit X de
loi 'A'ro,r 1. On a
:
fo(x):--+" 11 -x)n-k1ro,r1(*) (n-k)!(k-1)! - ^t-1 X1n, suit donc une loi É (k. n - k + 1), et les résultats du chapitre d'écrire
4
permettent
:
6(X1r1)
:
,i
2.2 Cas particulier des valeurs extrêmes X,n, et Xlnt a) Lois On trouve, à partir des résultats généraux précédents
F,(x)
:.!-
:
a;ri(x) (r-F(x))n-i -1-cl(1
l:l
: 1-(1 -F(x))n f1 (x) :nf(x) (1 -F(x))n
-F(x))n
F1 (x)
De même, pour
X,n1
:
: fn (x) : Fn
266
1
(x)
Fn (x)
n f (x) Fn-1 (x) PH TASSI
.S
IFGAIT
OBS
E
RVATIONS ORDONN EES
De façon évidente, notons que le sup (ou l'lnf) d'un échantillon indépendant extrait d'une loi F ne suit pas cette loi. ceci n'a rien d'intuitif, et mérite d,être noté.
Remargue Supposons que le support de la loi p soit lR, c"est-à-dire
tout x réel. Alors F(Xrnl
O
<
F(x)
( l Pour
:
)
O)
De même:
P(Xtr)
q
: t -Fn(O) : 1-Fn{o) ; trm p(Xfnt ) O)
: t -(t
-F(O))n
;
tim
p(x111
<
:1
o)
O) -1
I
X,n, (resp. X1,,,) est asymptotiquement positif (resp. négatif).
b) Médianes i1
et in désignent respectivement les médianes 6e X1r1"t X(n) ; l'équation de définition de i., est :
-1 Flry(i.,) qui conduit à
:
:1-(1
t
:
Ln2
F(x.,)
: 1-e
De même:
Loi
n:t-F(i.,)
jointe d'un couple (Xtn), Xtrl)
Soit un couple (Xtnf Xtr/ avec 1 k < I =<
Par intégration de la densité 6e (X111, ..,
fr,r(u,v)
n! - S, LEGAIT
(
n
X1n1),
:
on obtient
:
: C(n,i,k) f (u) f (v) rk-r (u) (F(v)-F(uy;i-t-t t1 - F (v)ln-1 11r=u1(u, u).
La constante de normallsation est
PH. TASSI
n
Ln2
F(iJ:e
2.3
-F(;1))n
:
: B(k,r-k).8(l,n-j+t)
OBSE RVATION S ORDONNEES
La loi de (X1r.y X1l1) permet de déterminer la loi de fonctions de en particulier celle des espacements ou mailles de la forme X1t1 - X111.
Pourk: 1 et l: f.,.n (u,v)
n, onobtient la loi
(X11y X11,),
et,
jointede(Xtrt, X(nt)'
: n(n-1) f (u).f (v).tF(v)-F(u)ln-2 ltr=u1(u,v)
2.4 Calcul des moments Le calcul des moments, particulièrement E (X(k)), V (X(k)) et Cov (X1p1, Xtrl), dépend bien évidemment des caractéristiques de la loi de X. c'est-à-dire de la fonction de répartition F et. si elle existe, de la densité f.
a) Résultats généraux Théorème 4 Si
E (X) existe, alors E (X1n,) existe également.
Démonstration On saitquelE(X)l < E (lXl); l'existencede E(X), c'est-à-dire E (X)<+æ, est assurée dès que E (lXl ) est f inie. On a ici :
lE(X(k))l Or: fo(x) pursque
:
fn{x) dx: = J,*lxl
Fk 1(")
" cl-]
(1
E(lx(k}l)
-F(x))n-n t(*)
< n cl ] rt*t
:
Fk-1 (^) (1 - F (x))n-k
ll s'ensuit
<
t
:
lEtx111)l
ç
E(lx(kll)<
Donc si X est intégrable, c'est-à-dire si E
".x-]
E(lxl)
(lXl)existe et est finie.
E (lX,n,i)et
E (X(k)) existent et sont finies.
Remarquons qu'inversement I'existence de E (X111) n'implique pas celle de E(X). Pour la loi de Cauchy, par exemple. E (X1s1) existe pour 2 < k < n - 1, alors que E (X) n'existe pas.
268
PH. TASSI
'
S. LEGAIT
OBSE RVATION S ORDONNEES
Théorème 5 Soit
nfixé;on
note, sous réserved'existence.
m:
E(X)
eta2
:
V(X).
Alors: n
k:1
:
E(X(k))
n
k:1
E(X21*y)
n
:
nE{X2)
n
E(Xrnt Xtrr)
k:1 lll n
nE(X)
:
nE(X') + n(n-1)
n
:
Cov(X*y Xrrr)
T
k:1 f:l"I-
m2
na"
Démonstration De façon évidente, on a
:
xinr nf ., En faisant
j
:
:
oI., 4'
1 et en prenant I'espérance
:
n
r.1,,
oout tout réelj
:
t(X1p1)
nm
Avecj :2,onobtient n
k:1 En élevant au carré l'égalité
E(xÎk))
(xrnr nf ,,
:
nI,'
"o
:
(n E(
\ k:1
PH. TASSI
nE(X2)
:
nn
et en intégrant
:
- S. LEGAIT
*,0) :
(n \t:t
EI
*_) 269
OBSE RVATION S ORDONNE ES
sort
:
nn k:1 i:1
E(x1p1 x1r1)
:
nE(x2)+:+>
E(xk Xr)
: nE(X')+n(n-1)m2 Enfin, en remarquant que
:
n
n:.,
(x,n,
-
E(x(k)))
:
nI.,
(Xu-
m)
on a, en élevant au carré et en prenant l'espérance:
nn k:1 l:1
'
Remargues
a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v.a. X, discrète ou continue.
b)-Soit X de loi N (0, 1) ; on sait que X et X, i, donc X et Xlpy - X le sont aussi. ll s'ensuit
:
E (X x(k))
soit
sont indépendantes pour tout
:
E
d'où
-*
.
E (nX X(k))
(x (x(k)-
x)):
:
:
E
(X')
o
v (X)
:
n ln \ : E(rf x,,,(*),n/:,Il ,,
1
n
E (X1p1 X111)
:
1
Exemple Soit X de loi uniforme précédemment
%p,
r1
:f
E (X(k))
270
(x) : 1, F (x)
:
xsi
O(x(1.Onavu
:
:
n+1 PH. TASSI
,
S. LEGAIT
OBSERVATIONS ORDONNEES
De même:
v(x(k)) et, en remarquant que
çov
b) Calcul approché
fn,
t (u. v)
(X1p1.
:
Xcr)
(v
:
k(n--k+1)
-
(n+1)2(n+2)
_ u)n-2
(u
s<
+#" *
v), on en déduit
,r
:
( k, 1( n
des moments
On sait que Yn
:
F (X1)
suit une loi bêta Ê (k, n_ k +
On déduit des propriétés de la loi bêta
1) (théorème 3).
:
E
(Y[)
: B(k+r, n-k+1)
E
(Y[)
:
B(k,n-k+1)
(k+r-1)lnt (k-1)!(n+r)!
D'où les deux premiers moments de yn: E (Yk)
:
;+1
v (Yk)
:
Remarque
- Si F est l'application identité. c'est-à-dire si la loi originelle de X est la loi uniforme sur [0, t J, E (xtr./ : E (yç). on retrouve bien les iésurtats de l,exempre précédent. cependant, prus générarement, queile que soit ra roi de x, E (F (X,p,))est égal à l'espérance de la v.a. Urot qri serait obtenue en appriquant ra statistique d'ordre à un échantillon (U,,, , Un)extrait d,une loi %ro, rr.
En effet. on peut représenter de la façon suivante les divers modèles intervenant :
Xdeloi P: (xr, ..., xn)
(Xrry...,X,n, Statistique d'ordre
I
I
FI
lr
t
+
F
Ur :
(X)de to, %ro, r, F(Xr), ..., Un
PH TASSI - S. LEGAIT
'aa
:
F (Xn)
F (X,o/ de toi
Yr
: FFk,n-k+1) (Xtrr), ..., Yn : F(X1n/
OBSÊ RVATION S OBDON NE ES
La fonction F étant croissante,
U1Ly
:
F (X1n,)
:
yn.
Le calcul approché des moments de la statistique d'ordre est fait en utilisant un développement de la fonction F-1 1Yn) au voisinage de E (Yn) : 1
r-'
(y(k/: F-' (E (y(k/)+
ffn - E (yk)), t ,j., # Or, F-1 (Yr) : Xlry ; en notant pr: E (Yn), et t : F-t F-
(u)lu:E(yp)
:
X(o)
:
/(no) +
,j,,
ffn-no)i /(i)
{Ru)
Le calcul Oe E (X11/. V (Xtr/, Cov (X1py X11/ déRend de l'ordre auquel on arrête le développement, c'est-à-dire du degré d'approximation. A l'ordre 4, on obtient les formules approchées suivantes (il suffit de remplacer E (Yp par les formules précédemment établies à partir de la loi bêta de Yn) : e
(xrr/
: e bnt - +*#
4t" (ont
.{3), nn(1 -Rn) /'''ton)-l ,ét,...l - on(1 -R1.) [1-Zon /'"'(on) * t ("-2f L . v (xk)) : &5U ttt'' (on) -ffi o avec
:
A:2(1
-2pr.) r/t'(ovl Q"$nl
cov(Xrrr Xrn/ avec
:
"*+
-
pk(1
-pk) ('/'bv) V"(pn)
r/'(on) Q'b,l
+
.
+
ï=fl
4t"(oo)1"
t
;
B
*
:
(1
-2pkl e" bn) Q'b,) + (1 -2pl t" $fi e'bnl
1 ,, on(1 -pr) t'bp) t'"' (pn) *; t
*t
1
on(l
1
pr(1
-n/
/'(nn) t'"'loll
- p/ e" bn) t" $l
Des tables numériques des moments de la statistique d'ordre existent pour certaines lois, en particulier pour la loi normale N (0.1). Ces dernières sont reproduites en tables 10 et 1 1 .
272
PH. TASSI
- S. LEGAIT
OBSE RVATIONS ORDONNF ES
3
COMPORTEMENT ASYMPTOTIOUE
Si les résultats à distance finie rattachés à un échantillon ordonné sont importants, la théorie des valeurs extrêmes a été considérablement utilisée dans des domaines d'application tels que la fiabilité, le contrôle de qualité, etc. ce paragraphe aborde la loi asymptotique d" X(n) et les lois limites des valeurs extrêmes d'un échantillon ordonné. Remarquons tout d'abord qu'un simple changement de variables permet de passer de la loi d" X(n)à celle 6e Xlty; en effet :
Min (X.,, ..., XJ
: -
Max
(-
X1, ...,
-
Xn)
on obtiendra la loi o" *,,1,.0"r le changement y - - y dans la roi de X,n,. plus généralement, cette remarqub'jouera pour étudier les comportements oes U]â. aux rôles symétriques
Xlpy
"t
X(n _
n
* rI
Lorsque n tend vers l'infini, deux possibilités existent pour k : a) soit k est f ixé, et, compte tenu de la liaison entre X1p1 et X1n _
le comportement asymptotique d'un rang donné ; le rapport
! n
k + 1y
t"na alors vers
0 ou 1. Ce cas correspond en particulier aux valeurs extrêmes, k : 1 ou b) soit k tend vers l'infini, alors que le rapport
i n
on étudie
n.
,"nO vers û, O < a
<
1.
Cette situation est celle d'un fractile empirique d'ordre a (chapitre 3).
on peut synthétiser les deux types de comportements
écrivant:
lim
asymptotiques en
0(a(1
n l"l-æ -1&, Si a:0 ou a: 1. on étudie un rang fixé (valeur extrême) ; si O on étudie alors un fractile empirique.
3.1 Convergence
< a < j,
d'un fractile empirique
Théorèrne 6 Si F est continue et strictement croissante, et si
O
I
a 11, alors
:
P
Xr*t
*
xo
où xo est le fractile d'ordre a de X. PH. TASSI - S. LEGA]T
z/J
FVATIONS
OB SE
O
RDONNEES
Démonstration Le rapport
k
-n
convergeant vers d, on ne restreint pas la généralité de
la
démonstration en écrivant k : Ina] + 1. D'après la définition de la fonction de répartition empirique Fn donnée au chapitre 3 :
Fn(X11noJ*r1)
Ina]
:
n
r (xtrt)-
F
(xJ
:
F (X111)- Fn(X111)+ Fn(X111)- F (xa)
:
F (X111)- Fn (X(k))
I
*
na]
d
-On sait (voir chapitre 8)que dk (Fn, F)
:
Sup I F (x)
-
Fn
(x)l
P O
P
d'où: F
:
F(X1py)
-F(x/*
0
étant continue et strictement croissante, on conclut en composant par F-1
:
P
Xtnl
* xolorsquen*co.
Le théorème qui suit. établi par Pearson, Smirnoff et Mosteller, fournit la
convergence en loi de X,u,. ll est énoncé sans démonstration approfondie, celle-ci pouvant être trouvée par ëkemple en [17] ou en [2].
Théorème 7 Soient (X(nr), ...,Xtnr.l) k variables ordonnées (k < n) extraites de la statistique d'ordre (X(1I ..., X(n)). On suppose
:
n.*æ, hi*Le fractile d'ordre
a.
etliml
11;
est noté xo.
: at
O
a o,
(i : 1 à
1. i : 1 à
k.
k).
Si 0 < f (xo.) < co, i : 1àk:
/X,
|"(n1l
- x"al \\
: Vn I X,-,-x^ \\ tnk) ak ./I| 21 4
-
loi
N(0,:)
PH, TASSI
. S. LFGAIT
OBSE FVATIONS O RDONNEES
I
étant d'élément courant
o,,: 't
:
Jl? l(Xo) f
<
(1
(xo)
i< j<
k)
Eléments de démonstration L'idée est de remarquer que I'on peut écrire
:
F- (x_) : *oi - -1ffi*
a,
X(ni)
où
*",
Rn converge en probabilité vers zéro. La loijointe de
(vG (Xtnr)-
(., I r/n
\"
^o), r,6 {X1nn1(a,, - Fn (xo.,) _ (ar -
xoo)) est identique à ceile de
,...,J" f (xo.,)
Or, n Fn (xo ) suit une loi gJ
(xo,)) -::d, al\
g, a), et, pour i ( j
nCov(Fn(xo,). Fn(xo,))
Fn
:
: ai-q,dj:
oi(-qjl.
Le résultat s'en déduit immédiatement.
Remargue Pour une
k coordo nnéeX1py avec lim- : d, on a:
rÂ
{x,0,
- ^; L
^ oâ:
3.2
N (0, ao)
a(l -a) t\^^l
Convergences des valeurs extrêmes
Onseplaceici danslecaskfixé,soita:0 ou Soit
Yr:
:
F(X,n,),
On suppose n -* oo, k restant fixé PH. TASSI
- S. LEGAIT
et
Go:
a:
nYn.
1.
:
OBSÉ RVATION S OFDON NE FS
Théorème 8
ck
y (k, 1)
t;
Ce résultat provient du comportement asymptotique de la loi nÉ (k, n-k+1). qui converge en loi vers une loi gamma y (k, 1). En effet, par définition d'une loi p sur [0, 1]. Gr. peut être mis sous la forme :
uk
nA - A+B
A
A ;*;
B
oùAetBsontdesv.a.r.indépendantes,deloisrespectivesyk,lletf(n-k+1,1). Ona:
/n\ r< /n\ El-l:-etvl-l:, n \n/
A
donc
Ë B
et n
n-k+1 n
:
/ B\ \n/
v [ -l-
n-k+1 n
2
converge en probabilité vers 1. En vertu du théorème 16 du chapitre 7,
Gn converge
3.3
/B\ \n/
n'
\n/
converge en probabilité vers 0. De même
-n
k
en loi vers la loi de A, c'est-à-dire
f
(k,
1).
Les lois des extrêmes
lntéressons-nous plus particulièrement aux (vrais> extrêmes, correspondant à 1 :X11y et X,n,. Compte tenu de la remarque faite en début de paragraphe, on se limitera à l'étude 6e X1n;.
k:
Définition 3 On appelle loi asymptotique des extrêmes, ou plus simplement, loi des exY quand n - æ. trêmes, la loi de la variable Y telle eue X(n)
l;
a)
Les
trois formes asymptotiques
Le comportement asymptotique de la loi de X1n; dépend de la distribution F de X. Fisher et Tippet (1928) ont établi I'existence de trois seules lois limites
initiale
possibles. 276
PH. TASSI
- S. LEGAIT
OBSE RVATIONS ORDONNEES
Loi du type
I
La loi du type I est définie par sa fonction de répartition
:
/
F.,(v,^,r)
on
,l\ | -t u :exp\-e
notera Ft (y) la valeur de F., (v, Y -,À
dardisée
lJ
r
)o€R,1l)O
o, 1)correspondant à la variable
stan-
cette loi est appelée généralement loi de Gumbel ou double-
exponentielle. Loi du type ll Elle est définie par sa fonction de répartition
:
y-^
Fr(y,
e lr I P )-I .ltr,*-1(y)
l,p,Êl:e
.l €
lR,
p >O, p>O
Cette loi est parfois associée aux noms de Fréchet, plus rarement à Fisher et Tippett. On notera Fr(V, Êl la fonction de répartition F, (y, O, 1, F)
de
Y
-
'À
lJ
Loi du type
lll
Elle est définie par sa fonction de répartition
:
i-v\P - /I s ) Fs(y,i,p,Êl:11,r,**1(y)+e (,À
€
lR.
.11--,21(y)
p )O, p>0)
cette troisième forme de comportement asymptotique est du type weibull (on * - y). sur un support borné.
retrouve cette loi en faisant le changement y
On notera F"(V, dardisée
Y-^
h
la fonction de répartition
Fg
(y. O, 1, P) de'la variable stan-
lJ
On remarquera que les lois du type ll et lll sont des lois tronquées ; seule la loi du type I est définie sur lR, de façon non triviale. En outre, les lois du type ll et du type lll peuvent être ramenées à la loi du type I respectivement par les transformations :
Z:Log(Y-À) et T: -Log(À-Y) PH TASSI - S TEGAIT
l/
/
OB SE RVATIONS ORDONNEES
Par exemple
:
P(Z
b) Propriétés Nous ne considérerons par la suite que des variables standardisées
Typel : TYPe ll : Type lll
Propriété
:
:
(y):exp(-"-v1 y€ lR Fr(V, Êl : s-(v)-É y € R*
Fr
F3
(y,
Bl :
(V,
Fl :
(e-t-vÉ { ( 1
y€rR
ye
lR*
1
Soit Y une v.a. de type I ; la v.a. X
:
e-Ysuit une loi exponentielle
f
(1.'l).
Propriété 2
Soient deux v.a. X et Y, indépendantes, suivant une loi de type I. La v.a. U : X - Y suit une loi logistique. Démonstration
(cf .
exercice 4.1, chapitre 4).
c) Calcul des moments Le calcul des moments des lois des extrêmes n'est pas toujours aisé. Cepen-
dant,si Ysuituneloi dutypelstandardisée, X:e-Ylcasstandardisé) suituneloi y (1, 1l,. ll est donc possible de calculer la fonction caractéristique g" de Y :
gY(r) : Or, pour une loi y (1,
E(eitY) :
1l: E(Xr)
pour tout r, d'où
E(X-it)
:
F(r+1)
:
zyftl: r(1 -it) d) Génération de lois des extrêmes Théorème 9 Soit (Yn), n 2 1, une suite de v.a. indépendantes identiquement distribuées, de loi exponentielle, et N une v.a. suivant une loi de Poisson tronquée en {O}. Alors X : Sup (Y,,, ...,Y*)suit une loi du type L 218
PH, TASSI _ S. LEGAIT
OBSE RVATIONS ORDONNFES
Démonstration En décomposant
:
{X:x} : f*(x) :
i
n:1
{X:xn
æ
I- f*(x,/N:
n:l
N
:
n}, ona:
n) p(N:n)
= i ne-x11 -e-")n-1 1si-ry-r ]. n n=1 _ À "-" i [,1 (1 _e-x)]t
I
=
ôtx -
ei-1
kl
k:O
ei-1
".Â(1
Àe^
'e- x\r -
g-x-,Àe-x
e^-1
e) Relations entre les lois asymptotigues de Xfr)"t
X(n)
ll
existe entre les lois asymptotiques d" X(n) et de X111 des relations aisément démontrables par changement de variables. on notera par F] la f.r. de la loi limite de X,.,, (i : 1,2,3). Ainsi, soit Y de type l, et faisons la transformation Z
FzEl
:
P
(Z
1
- -
y.
- F"(-z)
- 1-F,(-2,À,Ul f f x-(-^) ' 'll \\ -1-exP[-exp I
\
\
: Fi(x.-À,pl Nous noterons
:
u ))
_Y
F.,(., À,
pl *
Fi
(.,
- À, pl
On démontre de façon analogue les propriétés suivantes Fz
('' À' u'
Pl :
rË t''
i,
p) :
.Fât.,
Fs (..
PH,
TASSI S
LFGAIT
p,
-
:
À' P' Ê)
- À, p, Ft 279
OB SE RVATIONS ORDONNE ES
Fr(.,
O,
tt,
F. (., O, p, F, (., Fâ
l,
'pl Y-1 Êl
ttl
'-
Y-1
L\Y
o, rt-', Pl
p, Ê-'l
F{ (., Ln
L\Y
Fl (., o, u, Pl
r,
Fâ (.,
e-,À , " o, - FË 1., O, "- t,-')
(. o. r.,, pl
F. (.. o,
Fâ t., O, tt'-' , Bl
F.,
(.' Ln P, B-')
Ll (-J r, -
u, Ê-')
F, (., Ln
De même, les relations inverses entre F et F* existent. par exemple Fâ (.. o,
^,
p, Ê)
- t ,,(., -
r.t,
^,
:
Êl
L'ensemble de ces relations peut être résumé par le diagramme suivant
:
F1
e-Y
LnY
Fi
F2
F3_Fâ
3.4
Y-1
Eléments sur la démonstration des convergences en loi de X1n1
L'idée de base, due à Fréchet (1927iret à Fisher et Tippett (1928), consiste à découper l'échantillon de taille n en k sous-échantillons de taille m, k : nm ; notons (X,), i : 1 à n, l'échantillon initial, et (Xj), j : 1 à k et I : 1 à m, les élémentsde chaque sous-échantillon. ll est évident que : Sqp
t.l
28A
Xi
:
Sqp Sço Xl t
PH, TASSI
- S. LEGAIT
OBSE RVATIONS OBDONNEES
Faisons tendre m vers l'infini pour k fixé ; soit G la fonction de répartition la loi limite d" X(nI n * æ. A une transformation affine de ra variabre près, coefficients dépendant de k, on aura l'identité de Gk et de G Gk1x1
:
de de
:
G(an x + bn; (s)
La relation (s) traduit ce que I'on appelle le principe de stabilité, et est
l'équation fonctionnelle définissant toutes les lois limites possibles pow i,n,. L", constantes an et bn sont des constantes de normalisation, réelles et indépendantes de x.
Définition 4 Une fonction de répartition G est dite stable (sous-entendu.pour un maximum,) s'il existe des suites (an), an ) O, et (bn) telles que :
Gn1xl
: G(anx+bn)
pour tout x réel.
Remarque Plus généralement, si F, et F2 sont deuxfonctions de répartition, F, et dites de même type s'il existe deui constantes a (a ) o) et b telles que
F2
sont
:
F, (x) : F,, (ax + [) I des fonctions de répartition sur lR, la relation O
pour tout x réel. Sur l'ensemble nêtre de même type> est une relation d'équivalence. ôn appelle type une classe 'g/e. d'équivalence, c'est-à-dire un élément de l,espace quotient
La résolution de l'équation (s), que nous n'aborderons pas, conduit au théo-
rème suivant, dû à Gnedenko
:
Théorème 1O Soit G une fonction de répartition stable. Alors G appartient nécessairement l'un des types suivants
à
:
| Type ll
:
(- e- Y) : F (V, Êl: exp (- U- É1 t ,r* (V) " Type lll : F. (y, É) : 1 (y) + exp (- (- v)Éy t,*_ ,** TYPe
: F, (y)
exp
(V)
(B paramètre strictement positif.)
Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêt propre, il est important d'essayer d'identifier. si possible, vers quel type de loi va
converger PH TASSI
X1n,
-S
selon sa loi initiale
LEGA]T
F.
?Ê
1
OBSE BVATIONS ORDONNEFS
Définition 5 l'ensemble g ffil des lois de probabilité F pour lesquelles (X',, ..,,Xn) étant un échantillon extrait de la loi F, Xrn) : sup X, va converger en loi vers la loi des extrêmes de type F,. On appelle domaine d'attraction de F,(i
i:1
: 1,2,3)
àn
Nous allons donner maintenant des conditions suffisantes de stabilité permettant de préciser le domaine d'attraction de chacun de ces types.
Définition 6 Soit G une fonction de répartition sur lR; une fonclion de répartition F sera dite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an), an ) 0. et (bn) telles que :
lim Fn(anx+bn):G(x) n*oo pour tout x point de continuité de G.
Remarque Si G est stable, alors G e g G) eT 9t (Gl est non vide. En outre, on peut montrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attraction d'une et une seule fonction G, représentant d'un type" Les caractéristiques des domaines d'attraction sont établies dans les théorèmes suivants
:
Théorème 11 Soit F une f.r. de densité f positive admettant une dérivée f'négative sur (u, f étant nulle sur [v, + -1 (v fini ou non) ; si
tim x Îv
f'(x)
-F(x)) f' (x) (1
v),
__1
alorsFeQç.,t. Théorème 12 Soit F une f.r. de densité positive f sur Iu, + æ[; si
rim
:
xf(x) :É>o
x-+oo 1-F(x) alors F 282
€ 9l ffzl, Pl). PH,
TASS . S. IEGAIT
OBSE RVATIONS ORDONN EES
Théorème 13
soit F une f.r. de densité f positive sur un intervalle (u, v). et nulle sur lv,
si
+
-1
:
(x) _,
- x)f ,., xlv 1-F(x) (v
alorsF€gFs(.,p1). L'ensemble des démonstrations peut être trouvé en IS], [7] ou
t
1
Sl.
Exemples
a) SoitX
-) y (1),toiexponenrieltededensité
La fonction de répartition Fn de Xlny Fn
Soit
(x)
:
(1
u.t
f (x)
:
e-xi,^*(x).
,
- e- x;n 1,0* (x)
:
Zn:X(n)
F,(z): quand
n*æ.
'n
L'appartenance de
Fn(z+Lnn)
-Lnn
:(1 -n 1
e-z)n*exp(-e-z)
la loi r (1, 1) au domaine d'attraction de F., peut être
retrouvée à I'aide de la condition du théorème I 1 ; en effet, pour
f'(x)
(1
- F (x))
e-" e-"
f1^)-:b) Soit X de loi togistique, de f.r.
1"-"Y F
F(x)
teile que
quand n
-
(x)
:
(1 +
:-i
:
: 1+
La f.r. de Xlny est Fn
x)O :'
e-x
e-")- n. Soit Zn:
X(n) - Ln n ; 1 Fr_(x) : Il +e:(r*tnn) ]-n : (1 * 'nn "-r)-n-exp(-e-.) æ.
De même que pour l'exemple a) :
f'(x)
quandx-+æ. PH TA,SSI - S.
LEGAIT
-F(x)) :e_*_1__1 (^) ft'\"/ (1
283
.
OBSERVATION S ORDONNEES
c) Soit X suivant une loi de Cauchy de densité
:
1
f (x) =
*
7r (1
"t)
xf(x)
X
1-F(x)
-=
x2)Ar"tg a
pourx)
0
+ -Arctgx) x xi(x) rim 1-F(x) - rim 1+x'= :1 x*+oo x-+co (1 +
(1 + x2)
La loide Cauchy appartient
àg
F2(.,1)1.
d) On établit que la loi y (p, 1) et la loi N (0, 1) appartiennent %ro,r)à g Fs(.,1]l1.
àQ
ç.,7, et la
loi uniforme
Remarque On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction. Ainsi, pour F' (y):
f'(v)
(1
-
L t" (vl
F, (y))
ey+e-Y
: Or: e"-Y -
1
- e-Y
gY 19* e-Y
quand y -* + -, et donc
f'(y)
(1
(1
-
F' (y))
_ ev_ "-Y) (e-
-
1)
1) {e-v - l1
:
*-1
r'(y) quand Y*+oo
4
LA LOI DE L'ETENDUE
4.1 Résultat général Un cas particulier de fonction des extrêmes très utilisé en statistique descriptive est l'étendue W I Xtnt - Xt'f ou plus généralement les quasi-étendues de la forme X11y- X(k) (t
284
>
k).
PH. TASSI
- S. LEGAIT
OBSERVATIONS ORDONNEES
Soit la v.a. Zn, r : X(l) - Xrul. A partir de la loi du couple (Xtrrr Xril établie au paragraphe 2, on cherche la loi marginale d"zt,t après avoirfait le changement de
variables
:
(u)
(*,-, ) \*,,, /
\.,,n/
-(*,u, \ \x(rt-x$t)
La loi jointe du coupre (rJ,zt,k) s'obtient simprement, en remarguant que valeur absolue du jacobien du chaËfement de variabres est 1 :
Qfu,z):
B(k,i-k) B(r,n-l*1) [1
-
F 1u + z11n-1 [F (u +
f (u) f
z)- f
(u+z)
ra
Fk-1 (u)
1u;11-k-t
En intégrant par rapport à u, on obtient la densité e1,pe) deZr,n:
Q1,pQ):
J,r rn-t(u) t1-F(u+z)ln-l lF(u+z)-r1uy1l-k-t t(r) f (u+z)du
A titre de cas particulier, considérons la longueur des mailles, c,est-à-dire l'écart entre deux coordonnées successive. Zk*1,k 1[: 1 à n _ 1) :
ekri,uLzr
:
J,* rn-t
ffi
[1-F(z+u;]n-k-t.f
(u)
(u) f (u+z)du
En calculant E (Zx*t,u),on obtient après changement de variables
E(zx*r,r,.):
cl Jn t1-F(v)ln k
;
rk1v1 ov
Exemple: Soit X de loi exponentielle ), (1).
eu*t,ut.t
:6
*îil+,
"-(n-k-1)(z+u) "-u "-(z+u) PH. TASSI
- S, LEGAIT
(1
-g-u;k-t
6u 285
OBSE RVATI ONS O RDONNE ES
(n-k)z ' "(k-1)l(n-k-1)! n
en posant donc
t: e-u;
,1 (1 _ t)k 1
cette dernière intégrale n'est autre
,n_k 6,
que
B (n
-
k + 1, k), et
:
Q*+1,k(z)
:
n-k z - k) s-
(n
Zk*1,u-y(1,n-k) E(Zn*1,1)
:
V (Zk.1,k)
:
1
n_k 1
(" _ kf
4.2 L'étendue W a) Loi de W Pour obtenir la loi de l'étendue W dans gr,o (z). La densité en,
pn,1(w)
:X(n)-
t de W est donnée par
1
: (w).^w
: n et k :
1
:
: n(n-t) Jn [F(w+u)-F(u)]n-2 t(r) f (w+u)du.
Sa fonction de répartition Fn,,, (w) est Fn,
Xf,,f il suffit de faire I
:
J'o e n,1Ql dz
: d:
n(n-lf fJ[ fr(z+u)-F(u)]n-2
: d: n(n-1) f (u) du (JT**
f (u) f (z+u)dz) du
tF(v)-F(u)ln-2
f (v)dv)
: d: nlF(u1w)-F(u)ln 1 orluy b) Espérance
de l'étendue
E(W) :E(X1n1) -E(X(1)) 286
PH IASSI - S. LEGA]T
OBSERVATIONS ORDONNEES
Avec les notations précédentes
E(W)
: n-1 E(zr,*t,n) : n-1 Jn cl (1 - F(v))n-k Fk(v) dv k:1 ol r t E (w) : t^ c5 tr - F (v))n-k rklv; dv ;:
que l'on peut écrire
:
E(W) en utilisant
:
: J,* tt -tl-F(v)ln - Fn(v)l ov
:
!
m:o
cT
(1
-
F)n-m pm
-
',
Exemple Soit X de loi uniforme sur tO. 1 I. La densité de W pn,,, (w)
E(W)
= :
: ll
n (n
* - t) "f; -
n (n
-
f
:
[(u + w)-
X(n)
- X111 est
u]n-2
:
du
1) (1 - w) y7n-2 tto,r1 (*)
r -(1 -w)n-wnl
dw:++
Remarque Soit X suivant une loi d'écart-type
a;
considérons la v.a.r. R cléfinie par:
1W(Xtn)_Xt,t) : il dn est. par définitionl égale à , R:
où la constante
/x,. x.. \ E( ,n, _ rrr
\o Par construction, on a E (R) :
o /
O
-n
!
o. Cette propriété est fort utile en statistique, et les constantes dn ont été calculées pour la loi normale.
c) Contenance
de l'étendue
Partons de la densité de la loi de (X,,,,. X,n/
fn,r (u,v) PH. TASSI
- S. LEGAIT
: n(n-
:
1) tF(v)-F(u)ln-2f (u) f (v) 11,.u1 287
OBSERVATIONS ORDONNEES
Procédons au changement de variables
(",,,\ \*,",/ Son jacobien est
/'\ \"/
:
(*u,
:
\
\rrx,",r -F(x(1//
:
1
0
_ i (xrr/
f (x(n/
d'où la densiré de (2, nl
:
f
(X1n/
:
fr,o(.,Trl: n(n-1) rn-2 l(.1 La loi marginale de rr est
1r_,p_111 _.oy1el
:
fr(nl : îL-" n(n- 1l rn-z da avec a : f
ll s'ensuit
7r0r)
:
n (n
-
1) (1 -
r) rn'2
Flz)
1to,r1 (n)
que n, qui représente la probabilité que X soit dans l'étendue 6 - 1 ,2).
observée, suit une loi bêta F
Soit alors pour que 1oo y
P {r } y} : P (f) est ta probabilité au moins de la population soit dans l'étendue observée (Xtrr Xtn/.
€ [0, 1]. ta probabilité ), o/o
P(trln:
fy ,(tr) dr - 1 - n yn-1 + (n- 1) rn P(yl:1-nyn-1 +(n-1Jy" f
On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de la population soit dans l'étendue d'un échantillon observé.
28B
PH,
TASSI
S. LEGAIT
Chapitre 10
Notions élémentaires sur les processus _ Ce chapitre se propose de montrer comment le temps est introduit dans les éléments classiques du calcul er de la théorie des probabiliiés.
1
DEFINITION D'UN PROCESSUS ALEATOIRE
Soit (Q, ,4, P1 un espace probabilisé. On rappelle (cf. chapitre 3) qu.une varia_ ble aléatoire X est une application définie sur (e, ,41, à valeurs dans un espace quelconque (o', -r/') oit ,,4'est la tribu des événements de e", X possédant la propriété de mesurabilité ;
V A'
e .4'
x-1
1p-'l
e ,sl
La loi de probabirité de X est [image de p par X, notée px, définie par
V
1.1
A'€_
,t4'
px(A')
:
:
p(X-1 (A'))
Définition d'un processus
Soit (T, G7 un espace quelconque,
Définition
G étant la tribu des événements
de T.
1
On appelle processus aléatoire l'application X
@,
:
.vll x $, Gl - (a',,&,1
qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t fixé, X, est une v.a. sur (Q, ,,4,p).
er
Par extension, on écrira un processus sous la forme d'une suite de v.a.
indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant une grandeur aléatoire varia'nt dans le temps.
Remarques
,o',
,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou U -Si - g,nl, (lRn, le processusx est réel ou multidimensionnel dira plutôt
multivarié de dimension n ; si PH. TASSI
. S, LEGAIT
A' C Z
;on
univarié ou
le processus est à espace d,états discret.
289
NOTIONS ELEMENTAIRES SUF LES PROCESSUS
2) Pour c.r € 3) Si T :
4)
T
Si
:
Q fixé, X, (ar) est la
trajectoire de X pour l'individu
ar,
lR. on parle de processus continu.
Z, on parle de processus discret, noté (Xt,
leZ).
5) L'espace des indices T est fréquemment assimilé au temps, t étant I'instant v.a. X sur I'individu a.r. Mais T n'a pas forcément une valeur temporelle ; ainsi X (r,r, t) peut être, par exemple, la concentration en uranium d'observation de la
d'une carotte rocheuse dans une exploitation en un point
a-r
et à la profondeur t.
Définition 2 On appelle loi du processus PX. loi image de P par X ; on en déduit que, Vt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre gue la loi marginale correspondante extraite de P^.
1.2
Processus équivalent
Définition 3 Soient deux processus X et X* admettant le même ensemble des temps T et même espace d'états (A', .4'), définis respectivement sur @, .4, P) et (Q*,
,.il*, p*|.
Ces deux processus seront dits équivalents si la relation R suivante
:
P(Xtl € Br,...,X,n € BJ - p"(Xir e 8.,,...,Xin € Bn) (R) est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et de parties Br. ..., Bn extraites de ..n('. Remarque Un processus stochastique est une représentation mathématique d'un "système, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le "hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un très grand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuel lement avec n grand, pour être dans les conditions d'application des lois des grands nombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'au phénomène étudié est associé une classe d'équivalence de processus plutôt qu'un proeessus. Le probabiliste aura donc la liberté de choisir dans une classe de processus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarche est analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur des classes de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. chapitre 3). PH,
TASSI S. LEGAIT
NOTIONS ELTMENTAIRES SUR LES PROCESSUS
2
PROCESSUS STATIONNAIRES
Dans l'étude des processus stochastiques, une place particulièrement importante est tenue par les processus dont les lois de probabiiité présentent une invariance pour toute translation dans le temps (on considère ici que l,ensemble des indices qui caractérisent le processus est l'ensemble des temps). Cette propriété d'invariance temporelle est couramment utilisée en économétrie, en théorie des filtres, en analyse statistique des séries temporelles à I'aide de processus autorégressifs- moyennes mobiles (ARMA).
2.1 Stationnarité
stricte
Définition 4
t e r) < tz
Le processus réel (X,, tout n-uple de temps tt
est dit strictement stationnaire si, pour
T, et pour tout temps h appartenant à T avec ti + h C T,
Vi :
1, ..., n,la suite
(X,,, * n, ..., Xtn * 5) a la même loi de probabilité que la suite (Xrt, ..., Xin)
px,t'
*,n
'
-
p*r,
+
h'
,Xtn + h
Remarque Puisqu'une distribution de probabilité est déterminée par sa fonction de répar-
tition, la définition précédente est équivalente à : pour tous x1, x2, ..., xn, tous tl,tz, ...,tn et tout h :
P
<
(Xtr
"1,
(
...,X,n
En particulier pour n
:
1
xn)
:
p (X,,, *h
(
x1, ..., Xtn* r,
(
xn)
:
P(Xt<x)
:
P(Xtnr.
( x),Vh€T
En effet, d'après la définition 4,pour toutchoixd'événementsA,,..., An, on P(Xr1
€A1,...,X,ne An)
ll suffit de prendre A, PH. TASSI
- S. LEGAIT
: J- *,
: p(*,1 *n € A,'...,Xtn*5 e x,[.
An)
a:
NOTIONS ELEMENTAIRES SUR LES PI]OCESSUS
Théorème
1
Si{Xfl
(i) (ii) (iii)
t€
T) (avec
T:
lR, lN
ou Z) est stationnaire, alors on a en particulier:
:m Yt€T Var {X,) : o2 Vt € T Cov (X,, Xr) : r (lt - sl) V (t, s) € E(X,)
T'?.
Démonstration (i) et (ii) sont évidents ; (iii) Ccv (X,. Xr) existe si e l'inégalité de Schwarz
(X'?,)
et E tx'?.)
{ -
d'après
:
lE (xrxs)l
<
1e
1x]))"'
1e
1x!))"'
D'après la définition, il est clair qu'en prenant deux temps temBs quelconque de T
Cov(Xrnh,Xr*6) : Cov(Xt, Xs) Vh € Notons
/
(t, s) cette covariance
f
(t.
t et s, et h un
:
s) : :
T
:
Cov (Xr _ s, Xd
en posant
Cov (Xo, Xs_t)
en posant
h : -s h: -t
Donc la covariance ne dépend que de la valeur absolue de la différence des temps et de la loi de Xo ; dans ce cas, on notera cette covariance f (lt - sl ). Ces propriétés conduisent à une définition plus faible du concept de stationnarité.
2.2 Stationnarité
faible
Définition 5 Le processus (X,, t € T) est dit faiblement stationnaire ou stationnaire au deuxième ordre s'il satisfait aux propriétés suivantes :
: m Var (Xr) : o2
Yt € Vt €
E(X,)
Cov (X,, X,
u
6)
: r (h)
T T
V (t. h)
€
T'z
Définition 6 ;r {hr} porte ie norn de 292
fonction d'autocovariance eiu processus. PH
TASSI S. LFGA]T
NOTIONS ELEMENTAIÊES SUR tES PROCESSUS
La condition de stationnarité au deuxième ordre est plus faible que la condition de stationnarité (stricte). Cette stationnarité faible est très souvent utilisée en économie. Par abus de langage. nous appellerons par la suite série stationnaire une série temporelle stationnaire au sens faible; il convient de remarquer qu,imposer l'espérance et la fonction d'autocovariance indépendantes de t est une condition très difficile à remplir dans la réalité des séries économiques. Néanmoins, ainsi que nous le verrons par la suite, les processus stationnaires présentent un grand nombre d'avantages. L'une des préoccupations du statisticien sera donc de ustationnariser, les séries dont il dispose.
Propriété
1
f (h) est une fonction paire. Soitt* : t+h r (h) : Cov (Xr Xt * : 1.,)
:
Cov (Xt_, Xr* _ n)
Cov (Xt* _ h, Xt*)
:
y
(-
h)
2.3 Remarques diverses sur la stationnarité a) Exemple de processus non stationnaire considérons le processus X, : at + b + r- où la suite des e. est indéoendante et identiquement distribuée (i.i.d.)'d'espérance riulle et de varianc'e ar. Le processus X, n'est pas faiblement stationnaire car :
E(X,)
: at+b
Pour le "stationnarisero, considérons maintenant le processus *différence
premièreo Y,
:
Yr: Xr-X,_, : a*tr-€t_l E (Yr) : a pour tout t : Var(Y,) var(er-st_1) : var(c,) +var(st _1) = 2o2 d'après les hypothèses sur rt.
cov(Y'' Y'*n)
:
Il,:;;;1.;:*:-::]l
- *E(rr r,_1+fl d'après les hypothèses sur rr. PH TASSI . S. LEGAIT
,,*h *,,_, 6,_,*6)
E(er_,, er*n)
NOTIONS ELEMENTAIRES SUR LES PROCESSUS
Cov (Y,, Y, * n)
( -o"^si h: -1 | -o'si h : { o si h€ z-(-1,0,
:
1
1)
Le processus (Y,) est donc faiblement stationnaire.
b)
Processus stationnaire
ll est fréquent d'assimiler la notion de processus stationnaire à celle de processus maîtrisable. régulier, "sympathiquen. ll n'en est rien, et les trois exemples suivants sont à retenir :
Exemple
I
Soit le processus X, à valeurs sur
P(Xt:
1)
Ona: E(X*)
:
:
P(Xt
{-
--
1, + 1}, tel que
1)
:;,
1
:
pourtoutt.
o
:(-1f. 1^1 . -1 z*lf t et pour h*O: y(h) : E(Xr Xt*6) : 1 -2î11 -11+1. - -o + 44 V(Xt)
Le graphe du processus est, par exemple
,t
lr rl r1
:
?-+-1
i\
294
PH. TASSI
.
S. LEGAIT
NOTIONS ELEMENTAIRES SUR LES PROCESSUS
La meilleure prévision de X, par une constante est E (X,) : o (cf. chapitre 5), qui n'appartient pas à l'espace des valeurs de X,; le processus X, est bien stationnaire, mais oimprévisible> au sens propre du ternie.
Exemple 2
on corrsidère le processus X, eui, à la date t (T €
O
I
*,t :
avec la
lN
-
{o}), prend les valeurs
:
probabilité 1 - 1/t
I tï avec la Probabilité + I - .,Æ avec ta probabitité + : - t/l + tft -0 '2t21
E(X.)
+ j. : ;t: 2t 2t
:
E(X? : Cov (X,, X,) :
V(Xt)
E
(Xr
t
Xr,)
o
X, X,,
d'où
E
(X, X,.)
:
:
- y\ Jl'
avec la probabilité
-]-2tt'
v\ v\'
avec la probabilité
-:-2tt'
O.
X, est donc stationnaire au sens faible.
PH.
TASSI S.
LEGAIT
295
NOTIONS ELEl\IENTAIBES SUR LES PROCESSUS
t augmente. plus X, prend
des valeurs nulies sauf, avec une probabilité de plus en plus faible, des valeurs t Vt qui tendent vers I'infini. Le processus X, est stationnaire, et pourtant est susceptible d'engendrer des points oaberrants,. Plus
Exemple 3
Soient les processus X, : €t et Yr : stationnaire, E (€t) : O, V ltr) : o", E (e, e,.)
S,
: X, + Y, est tel que I
^ a5.:( t o E(S,)
:
(- 1)t er où e, est un processus :
0.
:
|2r,
sitestpair
i\ o
sinon
O
I
I r V(S,) : { (
q
o'
si r est pair
O
si t est impair
S, est non stationnaire
; la somme de deux séries stationnaires n'a donc
aucune raison d'être stationnaire.
3 3.1
Le
CORRELATION ET CORRELOGRAMME
coefficient d'autoccrrélation
Définition 7 Soit le processus (Xt, t temps t et s, la valeur
C
T) ; on appelle coefficient d'autocorrélation pour les
:
Cov
' ' I s' ut\..Al
-
(X'
X")
lv (xr)lt" lv (xr)1"'
Si le processus est faiblement stationnaire, p lXt, X, o r,) est défini pour les
tempstett+hpar:
p(h)
:p(XrXt-n)
:+ I
296
V (Xt)1"' 1V
(X1
* 6)1"' PH, TASS]
- S. LFGAIT
NOTIONS ELEMENTAIFES SUR LES PROCESSUS
et, puisque V (Xr)
:
V (X, * 6)
: r(0): r r
p{h) :
(h)
b ez)
(0)
Propriété du coefficient d'autocorrélation
Si le processus est faiblement stationnaire, alors. puisque y (h) est une fonction paire :
p(h)
: p(-h)
Définition 8 On appelle fonction d'autocorrélation d'un processus () (xt, t € Z) l'application * * + Z l- 1, 1l définie par h p (h). Le graphe de ccette fo nction s'appelle l'a utocorrélogra m me (ou corrélogramme). Compte ten( tu de la propriété précédente, le corrélogramme est en général tracé pour h e tN.
=
Soient alors (k + 1) valeurs successives du processus, notées X" "', X, * on t' appelle matrice de Toeplitz la matrice des autocorrélations; de (X. ..., X, * p) (donc symétrique): r
a 1. t'... |
I P(t)
p(1t. '...
l:t: t:
i:\.-
'
P (t't
"""'
I
i i
.... p
p
ik)
.. .. p (1i"""'...
1
il
I
)
I
)
Pour les calculs effectifs, p (h) est estimé de la façon suivante ; si l'on dispose des observations (xr, ..., xr) du processus, on estime p (h) par :
T-h
Z- (xt-xr)
p(n)
:
(x,*h-xT)
ï:l T
t +i-
4t
PI-1,
TASSI - S. TEGAIT
(x, 1 I
-
-"2
Xr)
T
297
NOTIONS ETEMENTAIFES SUR LES PROCESSUS
3.2
Exemples de corrélogramrnes
L'examen purement descriptif du corrélogramme fournit souvent d'intéressants renseignements quant au processus étudié. Examinons quelques cas, la pratique montrant qu'existent des formes relativement standard.
Exemple
1
O)
æ
F
(o tf)
+ cY)
N
o.
a a. aa taaa
4a... a aaaa.... aaaaaaaaa. a.a.a
N cr)
+
r.c)
(o
fæ O) I
L'autocorrélation devient rapidement "statistiquement> nulle, puisque seuls p (1) et p (2) sont différents de zéro. (Les droites horizontales représentent les limites de la région d'acceptation de I'hypothèse (Hj p (h) : 0 : si â(rr) est entre ces deux limites, on accepte Ho.) lci seuls p (1) et p (2) sont significativement différents de zéro, p (1].- O,lZ et p 12):0,38 ; bien sûr p (O) : 1, ce qui n'apporte aucune information. X, est donc corrélé linéairement avec X, _ ,l et avec X, _ ; aucune 2 autre observation du passé du processus n'est liée de façon linéaire à X,. Exernple 2
Dans cet exemple. p (h) décroît lenternent vers zéro. On verra plus loin que c'est une caractéristique des séries non stationnaires. ll s'agit ici du corrélogramme
de:
Xr: at+b+st où eo 298
-)
N (0,1). PI_i.TASSI
S
LEGAIT
NOTIONS ELEMENTAIFES SUR LES PROCESSUS
Exemple 3
NOIIONS ELEMENTAIRES SUR LES PROCESSUS
Le processus représenté est
X,
:
: 0,51+5+4 (3sin 7TT -cos 6 s,
-)
7TT
-)+e,
N (O,2)
Exemple 4
o) æ
F
(o |r)
st cf)
(\
o C\,1
cf)
(o
F co
o) I
Les corrélations p (h) sont toutes nulles, sauf p (12) et p (241; X, est donc corrélé avec Xr_ 12 et Xt ,o. Ceci laisse présager une saisonnalité de période 12 (saisonnalité annuelle si X, est une observation mensuelle). Pour une série trimestrielle, on aurait p (4) - O.
ll semblerait donc suffisant d'extraire la saisonnalité pour obtenir une série stationnaire, en étudiant la série X, - X, _ , r. Exemple 5
La série analysée présente là encore un phénomène saisonnier de période 12, mais également un grand nombre de corrélations non nulles hors des pics saisonniers. Le processus est a priori non stationnaire et saisonnier. Le corrélogramme est celui de la série représentée ci-après. qui est le trafic aérien des lignes extérieures. graphe dont le simple examen révèle la non-stationnarisation (tendance de
type exponentiel) et la saisonnalité (pics et creux réguliers) ; remarquons que cette saisonnalité se déforme. PH.
TASSI S. LEGAII
NOI]ONS ELEMENTAIRES SUR LES PROCESSUS
ar a a a a
"
a. aa aaa a.a
a
n a l I
|{
r{, A A A
,[,
/\
/\
1963 1964 1965 't966 1967 1968 1969
PH TASSI- S. LFGAIT
1970
301
NOTIONS ELEMENTAIFES SUF LES PFOCESSUS
4
FONCTION D'AUTOCORRELATION PARTIELLE
4.1 Définition générale Donnons tout d'abord une définition générale. Soient deux v.a.r. Y., et Yr, et n
v.a.r. Zr, ...,2n admettant toutes des variances finies. On note Y] (i : 1,21 la régression de Y, sur les variables 2.,, ...,Zn, 1 (régression affine, avec terme consta nt).
On appelle corrélation partielle de Y, et Yrpar rapport à2r, ..., Zn le coefficient de corrélation linéaire entre les parties de Y, et Y, non "expliquéesn par Y{ et Y), soit :
m
Cov (Y.,
PY.,Yr/2.,,...,2n:
- Yi. Y, -
Yà)
Par exemple. pour trois v.a. Y,, Y, et Y.. on trouve le classique coefficient de corrélation partielle de la statistique descriptive :
P'rzts
4.2
:
Ptz- Pts Pzz r.--..-.-2: r:--_2_
Vl-Prs
\/t-Qzs
Le théorème de Frisch et Waugh
Nous énonçons maintenant sans démonstration un théorème fort utilisé en économétrie.
Théorème 2 Le coefficient de corrélation partielle de Y, et Y, par rapport à2.,, ..., Zn n'est autre que le coefficient de Y. dans la régression affine de Y., sur 21, ...,2n,Y2. Plaçons-nous alors dans le cadre d'un processus (Xt, t du second ordre.
e
Z) réel, stationnaire,
Définition 9 Soit la séquence X,, n, X, h + 1. ...,X, extraite du processus (X,, t e 7Z).On notera, comme précédemment, Xi et Xi _ n les régressions affines de X, et Xr nsurXr_h+ 1, ..., Xt-t. 302
PH.
TASSI S. LEGAIT
NOTIONS ELEMENTAIRES SUR LFS PROCESSUS
On appelle coefficient d'autocorrélation partielle d'ordre h du processus
corrélation partielle de X, et X,_n par rapport à X,_,, ..., X,_n*,, soit
r(h) : P*,, x,
la
:
-h/xt-1 ....,Xt-h+1
Cov(X,-Xi, X,_n-Xi_n)
_
Le processus étant stationnaire, on a
r(h)
:
:
Cov (X,
- Xi, X, _ r, - X*t _ r,) v (xt - xi)
En vertu du théorème 2 de Frisch et waugh, r (h) est donc le coefficient de Xr_n dans la régression affine de X, sur X, _ .,, ..., X, _ : ,.,
Ona:an: r(h).
4.3
Système de détermination de r (h)
Soit le processus X, et sa régression (l )
Xr: âo
Vj :1àh:
h
:
a, Xr_, +
r:r
h
E(xr.xr_j) : a0 E(Xt_,) *,I1 h
E(Xt).E(Xt_i) : [ao *,],,
e,
u, E(xt_i.xt_j)
a, E(X,_i)l E(Xr_j)
On en déduit:
yU): cov(X,,X,_j) : PH TASSI - S. LEGAIT
h
i]t ",
y(_l
NOTIONS ELEMENTAIFES SUR LES PFOCESSUS
D'où. en divisant par y (Ol, on obtienr les équations (2)
(21
P{j)
:
: ! a,e(i_j)
(.i
i:1
Les équations (2) peuvent s'écrire matriciellement
:
f rrrr \ ( 1 p(t tlllll itttt I I p(1t I (3)
p(h-
1ù G,\ II
Illlll:l. i:li :
| tlt \rir't 7 \ot'-tt
:1àh)
: ll-l p(1)
|
II
I
i
ptlt 1 ) tt
an s'obtient dorrc. une fois calculé le corrélogramme, à partir d'un système linéaire
de h équations à h inconnues.
4.4 Un exemple Soit ie processLts déflni par l'équation de régression avec par exemple, gressif d'ordre 2.) h
:
"l
r, -)
:
Xr: 0,5 X, _ r - 0.25 Xr _ 2+ €t N (0,1). (C'est ce qu'on appellera un processus autoré-
D'après l'équation, r (21 : -A,25; en outre, en écrivant le système(3) pour . on obtient le résultat général :
p(1):(1).r(1) p(1) : r(1) ll ne reste donc plus qu'à calculer I'estimation de p (1 ) pour connaître r qui peut être fait sans difficulté à partir des observations du processus"
5
(1
), ce
LES OPERATEURS B ET F
Ce paragraphe a pour objet de définir des êtres mathérnatiques dont nous ferons un usage fréquent dans le chapitre 1 1 304
PH TASSI - S, TEGAIT
NOTIONS ETEMENTA]RES SUR LES PROCFSSUS
t € Zl un processus.
Soit (X,,
On appelle opérateur oretard, (ou nbackwardn) l'opérateur B qui, à X. associe Ir,l. On appelle opérateur (avance> (ou oforwardo) I'opérateur F qui, à X' associe FX. : X,*,.
BX,
:
ces opérateurs B et F peuvent opérer sur autre chose que des séries temporelles: ainsi, si Pn (x) est un polynôme de degré n en la variable réelle x: BPn(x)
on peut définir
: Pn(x- 1) et Fpn(x) : pn(x+ 1)
également, à partir des opérateurs de décalage B et F, les
opérateurs "différence premièreo
:
V: l-B A: F-l
(nnabla,) ("delta")
: Xr). VX, : Xt-Xt_t
(l représentant l'opérateur neutre : lX,
AX,
: Xt*t -Xt
Ces opérateurs permettent de générer tous les opérateurs Vd, Ad ( d dont l'expression s'obtient par la formule du binôme
e
lN),
:
Vd: t-clB+...+ {-1)d ad La puissance d'ordre k de B ou de F n'est autre que l'opérateur de décalage opérant k fois :
BkX, Fk
ll est évident que
: X,
X, :
n
Xr-P
:
BF:FB:I n*1 o -F F-1:B On peut remarquer que les opérateurs V et A opérant sur un polynôme p^ (x) de la variable x de degré n réduisent le degré du polynôme : Vp^ (x)et Ap_ (xlsbnt des polynômes en x de degré n - 1 ; Vk et ak transforment un [orynôme'Èn {*) en un polynôme de degré n - k si n ) k, en 0 si n < k. PH TASSI S. LEGAIT
305
NOTIONS ELEMFNTAIRES SUR LES PROCESSUS
Enfin, il est possible de donner un sens au développement en série de quantité: 1
1
1-iB ou-silÀl 1-ÀF 1
1-.ÀB
:1+
^B+^,
la
<1 B"+...
1
1-ÀF =1+^F+^'F"+...
PH. TASSI
- S. LEGAIT
Chapitre
1
1
Exemples de processus ll existe dans la littérature probabiliste un grand nombre de processus, certains d'entre eux étant adaptés à une situation bien définie. comme les processus étudiant l'évolution d'une population. Sans prétendre à l'exhaustivité. ce chapitre a pour principal objectif la présentation de quelques processus probabilistes importants dans l'analyse statistique des séries temporelles. Pour mémoire, le processus le plus simple consiste en la donnée d'une suite dev,.a,!X,, \e Zltelteque E{Xt) : OgtV_(X.l : o",Cov (X,. X1*6) = Opourrout t et h. Un tel processus porte le hom de bruit 6lanc.
1 1.1
LE PROCESSUS DE POISSON
Les processus à accroissements indépendants
Définition
1
Le processus (X,,
t € T) est dit à accroissements indépendants si pour tout n-uple de temps t., { t, ... a tn les v.a.r. Xr,, Xr, - Xtl X,n - X,n_' sont indépendantes.
Définition 2 Le processus (X,, t € T) est dit à accroissements indépendants stationnaires si, de plus, la loi-de Xt*h - Xt, h € T, ne dépend pas de t.
Remargue
Qx\
Pour de tels processus, on peut montrer à partir de la fonction caractéristique (u,, ..., un) de (X,,, .... Xrn) que la loi du n-uple de v.a.r. est parfaitement *,n
déterminée si I'on connaît les lois de X, et X,
-
X..
Un bruit blanc est, de façon évidente, un processus stationnaire à accroissements indépendants stationnaires. PH. TASSI
.
S. LEGAIT
307
EXËMPLES DE PÊOCESSUS
1.2
Le processus de Poisson
a) Définition et hypothèses Soit un processus (X-, t € lR) à temps continu et espace d'états discrets (par lN), que l'oh supposera être un processus de dénombrement ou de comptage car, un événement étant choisi. il comptabilise le nombre (aléatoire) de réalisations de cet événement dans l'intervalle de temps [0, t[. Ainsi X, Fourra compter le nombre de voitures passant devant un observateur durant un intervalle [0, t[, ou bien le nombre de clients entrant dans un magasin, etc.
exemple,()'C
On fait les hypothèses suivantes
r
:
H1 : Le processus (X,) est à accroissements indépendants: Vto, .... tn
€
lR,
to(t1 v.a. indépendantes.
o
H2 : Le processus (X,) est homogène : Vt,
det-t'etnondetett'. o
t' (t > t'), X, - X, ne dépend que
H3 : La probabilité P (dt) pour qu'un événement se réalise entre est
t et t + dt
:
P
(dt)
:
ndr +
o
(dt)
(À
>
o; tim j9 dt dr -o
:
ol
o H4
La probabilité pour que 2 événements ou plus se produisent entre t et t + dt est négligeable à l'ordre 1 en dt.
b) Loi du processus Soit pn (t)
:
P
(Xt
:
pn (t +
n) ; à l'ordre 1, on peut écrire
dt)
:
pn (r) (1
pn(t+dt)
dr
En
faisant dt *
(1)
O
pn(t)
-
dt) + pn_r
:
(r) . .Àdt
^
_ _ ipn(t) + ÀPn-1 (t)
:
P',n
(r)
: -i
Pn (r) +
,1pn*,
(t)
D'autre part, on a à I'origine
: po (t) (1 p;(t):-ipo(t) po(t) : e-i' car. pn(O) : o po (t +
308
dt)
,À
dt)
Vn €
lN.
PH. TASSI
- S. LEGAIT
EXEMPLES DE PROCESSUS
Posons Qn (t)
=
"it
(2| ll s'ensuit
Q'n(t)
différentielle (1) devient
Àqn_,
(t)
Yn à
:
1
;
: i
qr
(t)
: iqn-, (t)
et donc
:
q'n(r)
qi(t) : À q, (t)
Fn (t). L'équation
+
qr(t) :it
+
Qe
e
('1t)'
(t) :
2
qn(r) :-_]41)n
nl
:
(3)
P
(Xt
:
n)
:
s-it
!+
n!
X, suit une loi de Poisson de paramètre .Àt.
c) Lien avec le temps d'attente soit T la v.a. représentant le temps d'attente du prochain événement, lorsqu'on est à la date t.
d'où: T est donc
P(T>s) : P(X": O) : s-'1s (s>O) P(T<s) : 1-e-it. une v.a. de densité e-isl (s), soit T -) f ,1, À). r^
Soit alors (Tn), n )- 1 , la suite de variables aléatoires telle que Tn est le temps s'écoulant entre la réalisation des événements n et n + 1. une origine o étant choisie. notant ti la date de l'événement i. on â Tn : t6a1 - tn.
on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépendantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1. Remargue Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:
Sk
: To*...
+Tk-r
La loi de Sn est donc une loi gamma y (k, ^1. PH. TASSI
- S. LEGAIT
309
EXEMPLÊS DE PROCESSUS
2
LES PROCESSUS DE VIE ET DE MORT
lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvant subir des événements de type "naissance". entrée dans le système, ou "mort,. sortie du système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre de ojobs, en attente dans un système informatique, l'évolution démographique d'une zone géographique peuvent être de bons exemples d'une telle modélisation.
Soit donc un processus (Xfl t On fait les hypothèses suivantes:
o c o
€
lR) à temps continu et espace d'états discret.
H1 : (Xr) est à accroissements indépendants.
H2 : On appelle "événementu soit une naissance. soit une mort. Le système étant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort) survienne entre t et t + dt est i n dt (resp. pn dt). H3 : La probabilité pour que surviennent deux événements ou plus entre t et t + dt est un o (dt).
Modélisation Posons pn(t)
: P(Xt:
;pourn21,ona: pn(t+dt) : pn(t) (1 -,^ndt) n)
*
Pn-, (t)
*
Pn+r
(1
-gndt)
in-, dt (1 -gn-1
dt)
(t) /n+1 dt (1 - in*1 dt)
En supprimant les termes d'ordre 2 et plus en dt, et en procédant comme pour l'équation fondamentale du processus de Poisson, on trouve :
p'(t) : -(in+gn)pn(t)+Àn_l A l'origine d'où
:
po(t+dt) : po(t)
:
Enfin
p; (t) :
on (O)
En résumé
:
(1
pn_1
(t) * !n+.r on*,(t) (n
)
-iodt)(1 -Podt) + pl (t) g1 dt
: - io po (t) + p, p, (t)
1 si Xo
-
n, Pn (O)
:
0 sinon.
:
p;(t) : -(in*//J pn(t) + in_, pn_1 (t) * /n+r pnr (t) (n ) p; (t) : - io Fo (t) + p, p, (r) on (0) : î[xo: n] 310
1)
1)
PH. TASSI
- S. LEGAIT
EXEIVPLES DE PROCESSUS
Remarque Les cas les plus fréquents sont les suivants
'
:
: " in ,À : naissance au taux i (souvent Ào : 0) r in : ni : naissance au taux i par individu présent . Fn g : mort au taux U Uto : O) . Un : n/_/ : mort au tauxg par individu présent.
3
dans re système
LE MOUVEMENT BROWNIEN
Le processus (X,,
(i)
' t)
t€
lR+)
est dit brownien ou de Wiener_Lévy si
le processus est initialisé en
t: p(Xo:
:
O
O)
: l
(ii) le processus est à accroissements indépendants stationnaires (iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une roi normale d'espérance nulle et de variànce br _ s1 lt X, - X. -> N (0, a r,4:S :
- X, €
P (Xt
4
A)
:
;#6-J
*'t2o'(t -,)dx Oe-
LES PROCESSUS AUTOREGRESSIFS
Dans cette partie, on ne considérera que des processus réers discrets du
.
deuxième ordre.
4.1 X,
Définition
soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p, noté
-)
AR (p), si
:
X,- : PH, TASSI
- S, LEGAIT
p
gi Xt-i+ tr .ri:1
EXEMPLES DE PROCESSUS
cr est un bruit blanc
:
:O,V(e,) :02,
E(st)
E(e,e,.)
:O
(T+t'l
Remarques
a)
En faisant intervenir l'opérateur B, on peut écrire
(-Qt B-...-9oBo) X,:
avec le polynôme de degré p.
:
t,.soit
Xr: tt
:
QrB'
b) Sous sa forme la plus générale, un processus AR (p) peut contenir un terme constant
do:
:
X. c) Supposons
E
(X,)
:
do
*
p
,Z-, 'tXt-i+
m, constante Vt. Alors, m vérifie p
m(1
- I l:l
si 1+
:
e,l:A
p
i:1
ô {z) (ce que nous supposerons par
4"2
Et
la suite), m
:
O.
Etude du modèle AR (p)
a) Inversibilité du processus AR (p) Soit AR (p)
(71
ô (B)X,:
: I-
e,,7....
-
çpZp le polynôme caractéristique du processus
e,.
Soient 2.,,"..,7p1es racines de
...2,
On peut écrire
:
1.1
:
elzy: 312
fi ti rr-4i Li j:r+1 r-4t
i:1
Lj
PH.
TASSI S, TEGAIT
EXEMPLES DE PROCESSUS
Par analogie, on a
:
: ti
(1
i:1
t', fi lr--1r Zi j:r+1 Zj'
-
où 1 représente ici l'opérateur identité. Soit
:
o,qey @, (B) peut se
:5f (t- 3, : fi li ",ô,(B) j:r+1 rr-3t i:l Zj'
transformer, en factorisant B, en
Qr(B) et
:
:
3n-r fi
(- 1;P-r
j:r+1
donc:
vP : x, [(- 1)0-r fl . - z, Fp-' o,t j:r+1 ' avec
)g lj -r,rl '
(B)
o;t (F)] €t
:
Oo(F)
p
:
n
j:r+1 f-Z;FI
X, est donc une combinaison linéaire d'ordre infini des c,
:
+oô
Xr:
:
Qi r,*i
l:-oo
On retrouve
:
E(X,)
: O
Vt
Remarque importante
supposons,l: p, c'êst-à-dire que toutes les racines sont de module supérieur : .Di' (S) e,. Alors, en décomposant en éléments simples, puis en
à 1, Xt
développant en série
:
pb,
'
^^-L
=t
i:l
.
B
I
zi
pæBk X,: : ' i:1 b,(: 'k:O PH. TASSI
- S. LEGA|T
. )e. Z*, t
EXEMPLES DE PROCFSSUS
oc
(>F : X.' k: O i:l
b'
. )B*s,
Z\,
l- P x., k:O i:1
b; t-K
Z\
X,: i ^tiEr-i t:(J
Soit:
X, n'est donc fonction, dans ce cas, que des (e,) du passé ; on dit alors que processus X, est inversible. En outre, on a E (e,
:
: O
X,_n)
le
(k
>
1)
Le bruit stest orthogonal au passé Xr_.,, Xt_2, ...du processus. Dans l'équation de définition de I'AR (p), e, est donc orthogonal au sous-espace de Hilbert
engendré par (X,_.,, ...,
X,,J;
la relation
X, :
p
iIf
l'équation de la régression de X, sur Xt_r, ...,X,_o (chapitre Exemple
qi Xr_, + 5).
î
Soit X, le processus de Markov AR (1) défini par
Xr:
O,4 X,_1
Ô121 Le polynôme a pour racine 2.,
On peut écrire
:
:
* t,
:1-O,42 2,5 supérieur à
1.
:
x, '
-
X, :
1-r1-0,48 (1 + 0,4
t
B+
(0,412 82 + ...) st
X, : €, + O,4 et- 1 + ... + (0,4)k tr-k * (k
>
314
st est alors
...
On a inversé le processus AR (1). On remarque par ailleurs que E (e, Xr-o) : O, 1), et que le bruit est non corrélé avec les observations passées du processus. PH. TASSI
- S, LEGAIT
EXEN/PLES DE PFOCESSUS
Exemple 2
Soit:
X,: 2Xt_t + €t (1 -28) X, : €, v1
^t Or, le développement On peut écrire
de
t
' -1 1-,ÀB 1ou 1-,îF)n'adesensquesil',al <
1.
:
1 1-28 et donc
rt
l--lt
r F-2
_F 2(1 _O,sFt
:
: -0.5F (1 + O,S F + (O,S)2 F2 +...) e, X, : -0,5 e,*r -(O,S). €t+2-... €t*k_,.. X,
-(O,S)k X, s'exprime en fonction des vareurs à venir du bruit e, ; re processus n.est pas inversible. Contrairement à I'exemple précédent. E
(e, X,_u)
E (c, Xr_p) n,est pas
nul
:
: - 1O,S)k o2
et rr est corrélé avec le passé du processus.
Exemple 3 Soit le processus de yule AR (2) défini par
;
Xr: -1,5 Xr_1 + Xt_2 + rt O1a; : l+1,5 B-82 e1z1 = t + 1.5 z_22: (1 _ O,sz) (1 +22) Ona: (1
-0.58)
2B(1 -O,Uqt
(1
+28) X,:
(1
+0,5F)
e,
X,:e,
PH. TASSI - S, LEGAIT
315
EXEMPLES DE PROCESSUS
(1
-
0,5 B) Xr
0,5
0,5F 0,5 F (1 - 0,5 F +...+ (- l)k (0,5)k Fk + ...) €t -Ë^ +oo ',
K
Kavec
F
1+
LÎK
|
:
(- t)k-1
ûk: D'où
(o,slk
:
,l
X,: :
1-0,58 r.I
r
Gk 6t*k
æ
:
(o.s/ BI :
j:o
k:1
co
d.t, K r+K
+ôo
K' .:^ (0,5)j €t*r_i) I:U
k:l b) Stationnarité
Compte tenu de ce que nous venons de voir quant à la valeur la stationnarité d'un AR (p) n'est pas toujours établie.
de
E (e, Xr_o).
Ona: V(Xt)
:
E(X'?r)
p
E(Xt.( Z- 9, Xr_, + er)) l:l
p
.2- ç, E(Xt Xt_i) + E(e,X1
l:l
p
i:1 Or:
E
(e.L X.) I
:
p
i:l
e, E(e, Xr-J
+ E (s1)
Premier cas : Le processus est inversible, c'est-à-dire toutes les racines de sontsupérieuresà 1 en module; alors E(e,Xr-) : O et E(erXr) : o2. 316
PH. TASSI
tD (Z)
. S. LEGAIT
FXEÀ.,1PLFS DE PROCESSUS
D'où
:
:
r(o) r(O)
:
p
Y$!+s2
i:"1 p
r(o) r
Qi Pfiil +
l:l
r(0)
:
V(Xr)
ê
:
p
1- > tV (X,) est indépendante de
q2
(p,p(il
I
t : le processus est faiblement stationnaire.
Deuxième cas ; Les racines de
{Z) ne sont pas toutes supérieures à 1 en module.
Nous nous contenterons d'énoncer le résultat : on peut toujours supposer que les racines du polynôme
e) Fonction d'autocarrélation partielle Vh > p, on peut écrire:
X_ I
avecE(er)
:0,
p
T
._4
gi Xr_i * 0.Xt_p_1 +..+0.X,_h + €r
V{rr) : sn, E{er.X,_p} : Opourk:,! àh.C,estdonc
l'équation de la régression de X, sur
nul.
X,-r, ....X,*n et r (h), coefficient
Ceci est une caractéristique des AR (p)
Vh > p
d)
:
r(h)
:
0
Fonction d'autocorrélation
Vh > O:Xr. Xt-h
r(h) (4)
PH TASSI , S. LEGAIT
:
i:'l
Pi
xr i X, r, * et Xt-l-,
p
:
=' p(h)
g
z
i:'l p
I
,_I,
aiyh-ù ei ph-ù
de X,_n, est
EXEMPLES DE PROCESSUS
On peut écrire les équations (4) sous forme matricielle pour h
1
p
1"
p
(1)
........
p (p
:
1àp
:
- 1)
p(11 .
(5) .
p(1t
: p(p-1)
p ipr
......... plll
1
La relation matricielle (5) s'appelle système de Yule-Walker.
Exemple Soit le processus
:
xr
:
0,5 X,_,
- O,25 Xr_, + e,
Ona:
(;r) :
[],, '.'1) (::,)
: p (21 :
P (11
D'où
o,5
-
o,5 p
o,25 P (1)
(1)-
0,25
:
p (11
:
0,4 et p (2)
: - 0,05.
Pour avoir p (3ll, p (4) etc.. on utilise les relations (4)
p(3)
= p(41 :
:
pQl * e"p (1) : - 0,125 A1 ppl + ezp (2) : -O,OS
A1
etc.
3'1 B
PH. TASSI
. S. LEGAIT
EXEMPLES DE PFOCESSUS
c) Fonction d'autocovariance Soit à calculer E (X, . X,_r,) E
(Xt. Xt_h)
:
E
[(rt
-
0., €t-.,
-
...
-
9o e,_o)
da t,-q-6)J - dr tt-h-., e Si h ) q : E(X,.X,_') : 0 c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo' (€t-6
Le processus est donc stationnaire (au sens faible) et on en déduit la fonction
d'autocorrélation
:
P(h) : O Vh )
+...+0
-0,+0.0, p(h) :#si 1+01+ .*eZ
q e
h(q.
Le calcul de r (h) ne présente pas de particularité, et est exécuté selon le système décrit au chapitre 10.
ll résulte des calculs précédents qu'un processus moyenne mobile est toujours stationnaire (au sens faible), ce qui n'était pas le cas pour un processus autorégressif quelconque.
Conclusion Le problème de l'identification d'un processus MA (q), c'est-à-dire la détermination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).
5.3
Remarque sur le lien entre AR et MA
La démonstration de l'inversibilité d'un AR et les exemples 1,2 et 3 du para4 laissent apparaître une équivalence entre AR (p) et MA (oo). En pratique. on peut approximer au sens de la moyenne quadratique (donc dans Lr) un processusAR (p) par un MA d'ordre fini. Considérons, par exemple, un processusAR (1)
graphe
défini par
:
Xr:p X, ., * r, E(€r) 324
:
O, V(e,)
: o',
Cov(e., er*n)
:0
(h +
O)
PH TASS1 S. LEGAIT
EXEMPLFS DE PROCESSUS
Par substitutions successives, il est clair que
:
X, : €, + p €t_t +...+ pq tr_o * pe*t X,_.q*,
E,*,
-
,!o
pi
,, jl, :
p"e*"
E (x1_q_1)
supposons que (X1 est faiblement stationnaire, centré, de variance v: E (X'zr) pour tout t (nous ne démontrerons pas la stationnarité d'un tel processus). L
Alors
:
e (Xt
et
9 r,-j)" : p'q*' v - j:o ^ ri
E(X,-Y,,')t -_ O quandq ---->
+ôo, en notanty,,,
: 9 ,t cr-,. La suite '[r j:0
de v.a. (Yr,o) converge donc en moyenne quadratique vers la v.a. Xr.
DH I i
T^qst S
IFCAIT
321
BIBLIOGRAPHIE
I
REFERENCES CITEES DANS LE TEXTE
I 11
Z. BIRNBAUM (1948) : On random variables with comparable peakedness, Ann. Math. Statisr., 19, pp. 76-81.
I 2l t 3l
H. DAVID (1981): Order staristics, Witey.
t 4l
B. GAREL (1982) : La distance de Prokhorov, rapport de recherche no 288, Université de Savoie et Laboratoire IMAG, Grenoble.
t 51
B. GNEDENKO (1943) : Sur la distribution limite du terme'maximum d'une série aléatoire, Ann. Marh,44, pp.423-453.
t 6l
J.M. GROSBRAS (1987) : Méthodes statistiques des sondages, Economica.
L. DEVROYE (1986): Non-uniform random variate generation, Springer-Verlag,
New York.
Paris.
I 7)
L. de HAAN (1976) :Sample extremes: an elementary introduction, Statistica Neerlandica, 30, pp.161-172.
t 8l
N. JOHNSON et S. KOTZ (1969, 1970) : Distriburions in statistics, Houghton-
t 91
A. KAUFMANN (1968) :Méthodes et modèles de la recherche opération-
t10l
A. KOLMOGOROV (1933) : Sulla determinazione empirica di una tegge di distribuzione. Giorn. lnst. ltal. Attuari, 4, pp. 83-91.
t11
I
112l t1 3l [14]
Miffin et Wiley.
nelle, Dunod, Paris.
J.P, LECOUTRE et P. TASSI (1987) : Statistique non paramétrique et robustesse, Economica, Paris. P. LEVY (1925) : Calcul des probabilités, Gauthier-Villars, Paris. E. LUKACS (1960) : Characteristic functions, Griffin, Londres.
H. MANN et D. WHITNEY (1967) : On a rest of whether one of two random variables is stochastically larger than the other, Ann. Math. Statist., 18, pp. 50-60.
PH, TASSI
- S. LFGAIT
,) 2.1
BIB LIOG RAPH IE
t15l
R. von MISES (1935) : La disrribution de la ptus grande de n vateurs, in Selected Papers ll (Ann. Math. Soc.), pp.271-2g4.
t16l l17l
A. MONFORT (1980) : Cours de probabitités, Economica, paris.
tlBl
RAND coRPoRAT|oN (1955) :A miilion random digits mal deviates. The Free Press. Glencoe, lllinois.
191 t20l l21l
G. SAPORTA (1978) : Théorie er méthodes de ta statistique, Technip, paris.
t
F' MOSTELLER (1946) :On some useful inefficient statistics, Ann. Math. Statist., 17, pp. 377 -4O8.
P. TASSI (1985) : Méthodes
statistiques, Economica. paris.
W. WEIBULL (1951) : A statistical distribution function of wide appticabiliry, Journalof Applied Mechanics, 18.
II J.
with tooooo nor-
AUTRES REFERENCES GENERALES
BASS (1967) :Elémenrs de catcut des probabitités théorique et appliquée,
Masson, Paris.
P. BILLINGSLEY (1968) : Convergence of probability measures, Wiley. N. BOULEAU (1986): Probabilités de l'ingénieur, Hermann, paris. P. BREMAUD (1984) : lntroduction aux probabitités, Springer-Vertag.
G. CALOT (1967) : Cours de catcut des probabitités, Dunod, paris. G. CALOT (1971) : Exercices de cale ul des probabilités, Dunod, paris.
D' CARTON (1975) : Processus aléatoires utilisés en recherche opérationnelle, [Vlasson, Paris.
D. CORNUEL et P. DERREUMAUX (1976) :Calcul des probabilités. exercices corrigés et rappels de cours, Sirey, paris. J.L. DOOB (1953) : Stochastic Processes, Witey.
M. corrRELL, c. DUHAMEL, v. GENoN-cATALor (1980) : Exercices de probabilités avec rappels de cours, Dia, Belin, paris.
W. FELLER (1966) : An introduction to probability theory and its applications, Wiley, New York. T. FINE (1973) : Theories of probability. Academic press, New york. P. HALMOS (1950) : Measure theory, Van Nostrand. 324
PH. TASSI
. S.
LEGAIT
BIB LIOG RAPH IE
P.L. HENNEOUIN et A. TORTRAT (196b) :Théorie des probabitirés er quetques applications, Masson, Paris.
A. JACOUARD (1974) : Les probabitités, pUF, Coil. Oue sais-je ?, paris.
B, de JEKHOWSKY (1977) : Eléments de statistique à t'usage des géologues, Technip, Paris.
A. KRIEF et s. LEVY (19721: calcul des probabilités, exercices, Hermann, paris. M. LOEVE (1960) : Probability rheory, Van Nostrand. M. METIVIER (1968) : Notions fondamentales de la théorie des probabilités, Dunod, Paris.
J. NEVEU (1964) : Bases mathématiques du calcul des probabilités, Masson, Paris. PARTHASARATHY (1967) : Probabitity on metric spaces, Academic press.
J. PELLAUMAIL (1986) : Probabilirés, statistiques, f ites d'artente. Dunod, paris. A. RENYI(1966) : Calculdes probabitités, Dunod, paris.
s. Ross (1987) : lnitiation aux Lausanne.
probabilités, presses polytechniques romandes,
Y. ROZANOV (1975) : Processus aléatoires, Editions de Moscou.
A. TORTRAT (1971) :Calcul des probabilités et introduction aux processus aléatoires, Masson, Paris. K. VO KHAC (1984) :Théorie des probabitités, Eilipses, paris.
PH. TASSI
- S, LEGAIT
325
TABLES NUMERIOUES
Les tables I à I sont reproduites avec I'aimable autorisation du CERESTA: lo, rue Bertin Poirée - 75001 Paris. Elles sont extraites de I'Aide-mémoire pratique des techniques statistiques, qui constitue un numéro spécial du volume XXXIV de la Revue de statistigue appliquée, 1986. Les tables I à I I sont extraites du livre Statistique non paramétrique et robustesse, de Jean-Pierre l-ecoutre et Philippe Tassi, Economica, Paris, 1987.
PH.
TASSI S. LEGAIT
TABLES NTJMEFIOTJES
Table no
1
FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE cette table donne, pour u >- 0, la valeur p normale réduite telle que P
Pourr <
:
Fttt)
: F(u)
de la fonction de répartition de la loi
: f' L "-5 a, J--/2n
0: P: F(u) - I - F(-r).
u
0,00
0,01
0.02
0,03
0,04
0.05
0.06
0,07
0,0
0,5000 0,5398 0,5793
0,5040 0,5438 0,5832 0,6217 0,6591
0,5080
0,5 l 20
0,5 I 99
0,5239
0,5279
0,54'78 0,5871
0,5596
0,5636
0,5948 0,633 I
0,5987 0,6368
0,6026
0,6628
0,55 r7 0,5910 0,6293 0,6664
0,5 I 60 0,5 5 57
0,1
n) 0,3 0,4
0,6 t 79
0,5 0,6 0,7 0,8 0,9
0,6915 0,725'7
0,6950
0,6985
0,70
0,7291
0,7324
0,7357
0,7580
0,7642
0,788 I 0,8 l 59
0,76 I I 0,79 I 0 0,8 186
0,82t2
0,'7673 0,7967 0,8238
1,0
.q,-q4!]
0,8461
0,6554
0,6255
0,7939
t,2
0,8849
0,8438 0,8665 0,8869
1,3
0,9032
0,9049
0,9066
t,4
0,9192
0,9207
0,9222
1,5 1,6
0,9345 0,9463
0,9357 0,94'74 ô s571
I,l
0,8643
0,8686 0,8888
0,6844
4,7 t5'7 0,7 486
0,'7 5
0,7734
0,7'764 0,805 l 0,8315
0,7794 0.8078
0,8 106
0,8340
0,8365
0 8554
0,85 77
0,87 70
0,8790
0,8830
0,8962
0,8980
0,8599 0,88 l0 0,8997
0,9r3l
0,9t47
0,9t62
0,9t77
0,9279
4,9292
0,9306
0,93 r9
0 s4)s 0 s51s
0,9441
0,9599
0,9406 0.95 l5 0,9608
0,9099 0,925 l
0,9370 0,9484 0,9582 0,9664
0,9382
0,9394
0,9495 0,9591 0,967 l
0,9505 0,9678
0,9686
0,9418 0,9525 0,9616 0,9693
0,9'732
0,9744
0,9750
0.97 56
0,9699 0,976 I
0,9706
0,9738
0,9788 0,9834
0,9793
0,9798
0,9808
0,9812
0,9817
0,9838 0,9875
0,9842
0,9850 0,9884
0,9854
0,985 7
0,9904 0,9927
0,9906 0,9929
0,9803 0,9846 0,9881 0,9909
0,9887 0,99 r3
0,9890 0,99 I6
0,9.93
0,9945 0 qssq
0,9946 0,9960 0,9970
0,9918
0,9920
0,9898 0,9922
t<
0,9938
0,994 I
0,9943
2,6 2,7 2,8
0,9953 0,9965
0,9940 0,9955
0,9956
0,9966
0,9967
0,9957 0,9968
0,9974
0,997 5
0,997 6
0997'7
0,9981
0,9982
0,9982
0,9983
I
0,9934
0,9936
0,9952 0,9964
0,9989
0,9'24 0,9r46
0,91'r'2
0,gr7g 0,9r85
0,9r79
0,9r90 0,9r86
0,grg
0,g3g
0,9397
0,9400
0,9'04 0,9'36 0,9'59
0.9008 0,9039
0,9t59
0,9334
0,9'53
3,4
0,9'52 0.9r66
0,9r68
0,9336 0,9r55 0,9r6g
1S
0,9^77
0,9r78
3,6 3,7 3,8 3,9
0,9'94 l
0,9r95 0,93g0
i
0,9'3
|
0,9454
0,9"33 0,9056
0,9r40 0,9r59 0,9r71
0,9r86
0,9767
0,995 I 0,9963 0.9973 0,9980 0,9986
0,gr2l 0.9r44
0,gr3l
0,9545 0,9633
0,9949 0,9962 0.9972 0,9979
0,9989
J.t
l0
0,901 5
0,9932
I
0,9989 0,gr lg a,9142 0,9r60
0,9r
0,9984
0,9625
0,862 l
0,9948 0,996 I 0,9971 0,99'19 0,9985
0,9988 0,gr l6
0,9987
0,9r06
l.
0,991
0,9988 0,9r l3 0,9r39 0,9r57 0,9170
0,9987
N.B.
0,9969
0,9878
0,9978
0,9r03
|
0,8925
0,997'7 0,9984
0,9987
0,7 852 0,8 l 33 0,83 89
0,9082 0,9236
0,98e6
3,0
0,7224 0,7549
0,853 I 0,87 49 0,8944 0,91 l 5 0,9265
Z,J 2,4
0.9'89 0,9'2g 0,9"52
0,8023 0,8289
0,7190
t7 0,7823
0,8508 0,8729
0,9871 0,9901 0,9925
11
0,7389 0,7704 0,7995 0,8264
0,6517 0,6879
0,8485 0,8708 0,8907
0,9783
3,1
l4l
0,6808
0,9778 0,9826 0,9864
)o
0,6
0,7123 0,'t454
0,9772 0,9821 0,9861 0,9893
0,9868
0,5753
0,6736
2,0
0,9830
0,6103 0,6480
0,7088 0,7422
0,964 I 0,97 l3
'\1
0,5675
0,6064 0,6443
l9 0,7054
I,'l
2,1
0 5'l5a
0,6406 0,6772
1,8 1,9
0,9656 0,9726
0,09
l9 0,51t4
0,6700
0,9332 0,9452 0,9554
0,9564 0,9649 0,97 r9
0.08 0,53
0,9985
0.997 4
0,998
0,9161
0
q'6)
0,9990 0,9r26 0,9r49 0,9r64
0,9r73
0,9\7 4
0.9r7 5
l
0,9r92 0,9rgg
0,9'12
0,90l5
0.9'l
0,grg3 0,9rgg 0,9022
0,9383
0,9r97
0,914l
0,9443
0.9146
0.9161
0.9'63
0,9'64
0,9'49 0,9'66
0,9150 0.9067
I
g
I
0,9986 0,9990 0,gr2g
0,9r50 0,9r65 0,9r76
0,9'99 0,9425
La notation 0,9J03, par exemple, équivaut à 0,99903 valeurs de r > 3,99, on pourra utiliser I'approximation suivante (à l0-r près)
2. Pour les
u)
F(u):t-e'
PH IASSI S. LEGAIT
2 (t--t
urt7-x\' ;*,i-
3
15 los\
n* ,i)
2to
TABLES NUMERIOUES
Table no 2 FRACTILES DE LA LOI NORMALE REDUITE Cette table donne les valeurs absolues des fractiles, nr de la î,P
loi normale réduite tels
que
,
-!' F1u,l: I +e--ldu:P
J__lztt
Pour P < 0,5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs. Pour P > 0,5 (colonne de droite et ligne inférieure) les fractiles up sont positifs. P
0.000
0.001
0.002
3,0902 2,8782 2,3263 2,2904 2,257 | 0,02 2,053'7 2,0335 2,0141 0,03 1,8808 I,8663 1,8522 0,04 I,7 507 t,'t392 |,72'79 0,00
0,0 r
0,05
0,06 0,07 0,08
0,09 0, l0 0,1 I 0, 0,
0,15
0,005
2,74'18 2,6521 2,57 58 2,2262 2,1973 2,t701 I,9954 1,977 4 1,9600 I,8384 1,8250 l,8ll9
0,006
0,007
0,008
0,009
0,010
z,5t2l 2,4573 2,4089 2,3656 2,3263 0,99 2,1u4 2,1201 2,0969 2,0749 2,0537 0,98 t,943t 1,9268 I ,91 l0 I,8957 l,8808 0,97 I,7991 l,7866 |,'77 44 t,1624 1,7 507 0,96 I,6849 I,67 47 |,6646 t,6546 |,6449 0,95
t,7 t69 l,7060 |,6954 t,6M9 I,6352 r,6258 |,6164 I,6012 l,5982 I,5893 l,5805 l,5718 I,5632 I,5548 0,94 I,5548 1,5464 l,5382 l,530 r t5220 l,5141 I,4758 I,4684 I ,461 I I,4538 t,4466 I,4395 I,405 I I,3984 I,39t7 l,3852 t,3787 |,3722 l,3408 |,3346 l,3285 1,3225 I ,3165 1,3 106
I,5063
l,4985
I,4909
1,4325
1,4255
I ,41 87
I,3658 |,3047
l,3595 I,2988
l,4833
l,4758 0,93
l,4l l8
r,4051 0,92 r,3532 1,3469 l,3408 0,9 r t,2930 1,2873 I ,28 l6 0,90
l6 I,27 59 t,2702 1,2646 I,259t t,2536 I ,248 r |,2426 t,2372 I,2319 I,2265 0,89 |,2265 t,2zlz I,2r60 |,2t07 I,2055 1,2004 I,1952 I,l90l l, I 850 I,1 800 I,1 750 0,88 I ,28
l6
I,0803
I,0758
l,0714 l,0669 I,0625 I,0581 I,0537 I,0494 I,0450 I,0407 r,0364 0,85
t,0364 |,4322 |,0279 1,0237
0,9904 0,1 7 0,9542 0,9502 0,r8 0,91 54 0,9116 0, l9 0,8179 0,8742 0,9945
0,20 0,8416 0,21 0,8064 0,22 0,7722 0,23 0,7388 0,24 0,7063
l,0152 I ,01 l0 l,0069 I,0027 0,9986 0,9945 0,84 0,9141 0,970 I 0,9661 0,962t 0,9581 0,9542 0,83 0,9346 0,9307 0,9269 09na 0,9192 0,91 54 0,82 0,8965 0,8927 0,8890 0,8853 0,88 l6 4,8779 0,81 0,8596 0,8560 0,8524 0,8488 0,8452 0,84 I 6 0,80
0,83 10 0,8274 0,8239 0,8204 0,8 169 0,796 l 0,7926 0,7892 0,7858 0,7824 0,7655 0,762t 0,7588 0,7 554 0,7 521 0,7488 0,7356 0,7323 0,7290 0,7257 0,7225 0,7 t92 0,7 I 60 0,7031 0,6999 0,6967 0,6935 0,6903 0,6871 0,6840 0,8381 0,8030 0,7688
0,8345 0,7995
0,6745 0,6713 0,6682 0,26 0,6433 0,6403 0,6372 0,27 0,61 28 0,6098 0,6068 0,28 0,s828 0,5799 0,57 69 0,29 0,5534 0,5505 0,5476 0,010
I ,0 194
0,9863 4,9822 0,9782 0,9463 0,9424 0,9385 0,9078 0,9040 0,9002 0,8705 0,8669 0,8633
0,2s
JJU
0.004
l2 1,1750 I,t700 I,1650 I , l60l 1,1 552 I,1 503 1,1 455 t,t407 1,1 359 l,l3 I I t,t264 0,87 l3 |,1264 I,t2t7 I ,l 170 I,l 123 |,1077 I,l03 l l,0985 l,0939 r,0893 l,0848 1,0803 0,86
0,14 0,
0.003
0,009
0.008
0,8 l 34 0,8099 0,8064 0,79
0,7790 0,1'756 0,'7722 0,78 0,7 454 0,7421 0,7388 0,7'7 0,7 t28 0,7095 0,7063 0,76
0,6808 0,6176 0,67 45 0,75
0,6620 0,6588 0,6557 0,6526 0,6495 0,6464 0,6433 0,7 4 0,631l 0,6280 0,6250 0,62t9 0,61 89 0,61 58 0,6128 0,'t3 0,6008 0,5978 0,5948 0.59 l 8 0,5888 0,5858 0,5 828 0,72 0,5740 0,5710 0,568 I 0,565 l 0,5622 0,5592 0,5563 0 st14 0,71 0,5446 0,5417 0,5388 0.5359 0.5330 0.5302 0.5273 0.5244 0,70 0,6651 0,6341 0,6038
0,007
0,006
0,005
0,004
0,003
0.002
0,001
0,000
P
PH TASSI S, LEGAIT
TABLES NUMERIOUES
Table no 2 (suite) FRACTILES DE LA LOI NORMALE REDUITE 0,000
P
0,001
0.002
0,30 0,5244 0,52 I 5 0,31 0,4959 0,4930 0,32 0,467',l 0,4649 0,33 0,4399 0,4372 0,34 0,4125 0,409'7 0,35
0.003
0,004
0,005
0,3799 0,3772 0,3'745 0,3531 0,3505 0,3478 0,3266 0,3239 0,32 l3 0,3002 0,2976 0,2950 0,2741 0,2715 0,2689
0,40 0,2533 0,2508 0,41 0,2275 0,22s0 0,42 0,2019 0, l 993 0,43 0, I 764 0, I 738 0,44 0,1510 0,1484
0,2482 0,2456 0,2430 0,2404 0,2224 0,2 198 0,21'73 0,2147 0,1968 0,t942 0,t917 0,1891 0,1713 0, I 687 0,1662 0, l 637 0,1459 0,t434 0, I 408 0, l 383
0,3826
0,45 0,46 0,47 0,48
0,125'1 0,1231 0, l 206 0, I 004 0,0979 0,0954 0,0753 0,0728 0,0702 0,0502 0,0476 0,0451 0,49 0.0251 0,0226 0,020 l
0.010
0.007
0.008
0,009
0.010
0,4621 0,4593 0,4565 0,4538 0,45 l0 0,4482 0,4454 4,442'7 0,4399 0,67 0,4344 0,43 l6 0,4289 0,4261 a,4234 0,4207 0,4t79 0,4t52 0,4125 0,66 0,4070 0,4043 0,40 l6 0,3989 0,396 l 0,3934 0,3907 0,3880 0,3853 0,65
0,36 0,3585 0,3s58 0,37 0,33 t 9 0,3292 0,38 0,3055 0,3029 0,39 0,2793 0,2767
0,3853
0.006
l 0,5072 0,5044 0,50 I 5 0,4987 0,4959 0,69 0,4902 0,48'14 0,4845 0,4817 0,4'789 0,476t 0,4733 0,4705 0,4677 0,68 0,5 187 0,5 I 58 0,5129 0,5 l0
0,009
0,008
0,37 t9 0,3692 0,3665 0,3451 0,3425 0,3398
0,3638 0,361l 0,3585 0,64 0,3372
0,3345
0,3 186 0,3 160 0,3 134 0,3 107 0,308 I 0,2924 0,2898 0,287 | 0;?845 0,2819
0,33 l9 0,63 0,3055 0,62
{2793
0,6 r
0,2663 0,263't 0,261I 0,2585 0,25s9 0,2533 0,60 0,2378 0,2353 0,2327 0,230
l
0,2275 0,59
0,2t21 0,2096 0,20'10 0,2045
0,20 l 9 0,58 0, l 866 0, l 840 0,l8l5 0, r 789 0,1764 0,57 0, l6l I 0, l 586 0, l 560 0, I 535 0,1 5 10 0,56 0, I 358 0,t332 0, I 307 0,1282 0,1257 0,55
0,1 l8 l 0,1 156 0,1 r30 0,1 105 0, I 080 0,1055 0, I 030 0,1004 0,54 0,0929 0,0904 0,0878 0,0853 0,0828 0,0803 0,0778 0,0753 0,53 0,0677 0,0652 0,0627 0,0602 0,0517 0,0552 0,0527 0,0502 0,52 0,0426 0,040 l 0,0376 0,0351 0,0326 0,030 I 0,02'16 0,025 l 0,51 0,0175 0,01 50 0.0125 0.01 00 0,0075 0,0050 0,0025 0,0000 0.50
0,007
0,006
0.005
0.004
0,003
0,002
0,00 r
0.000
P
Grandes valeurs de u
PH, TASSI
P
l0-"
l0-5
l0 -o
uP
3.7 190
4,2649
4,1534
- S, LEGAIT
l0
-'
5. l 993
l0
-E
5,6 120
t
0-'q
5,9978
331
TABLFS NUMEBIOUES
Table no 3 LOI BINOMIALE
-
PROBABILITES CUMULEES
Probabilités cumulées Pr (& n
c
p:
5
l% P:2ol l0
I
0,9990
0,9039 0,9962
2
I
I
0,95
3 4
0,9044
0,8171
0,9957
2
0,9999
J 4
I
0,983 8 0,999 I I
:
p:3%
p:4%
0,8 5 87
0,8153 0,9852
0,7738 0,97'7 4
0,9681
0,9994
0,9988
0,9980
I
I
I
0,9915 0,9997 I
0 I
t-.
< c) : I t_0
0,73'74 0,9655
P:
5ok
P 0
60l
Tttq
(l -
Cl po
p)
p:'7% P:8% p :9% p : 0,6951 0 q575
0,659 I
0,9969 0,9999
0,9456
0,5905 0,9185
0,9955 0,9998
0,9937 0,999'7
0,99t4
I
I
I
I
0,4344
0,3894
0,8l2l
0,77 46
0,3486 0,7361
0,5987
0,5386
0,9 r 39
0,8824
0,9972 0,9999
0,9885 0,9990
0,98 12
0,4840 0,8483 0,911
0,9599
0,9460
0,9980
0,9964
o os4,
0,9912
I
I
0,9999
0,9998
0,9997
0,9994
0,9990
0,9984
I
I
I
0,9999
0,9999 I
0,3953 0,'7738
0,3367
,1
1
6
l5
I
0,860 l
I 2 J
0,9904 0,9996 I
4
0,7386 0,9647
0,63 33
0,542t
0,4633
4,9270
0,8809
0,9970
0,9906
0,9797
0,9998 I
0,9992 0,9999
0,997 6
0,8290 0,9638 0,9945
0,9998
0,9984
0,9429 0,9896 0,9986
I
l'
I
0,9999
0,9997
l
I
5
6
0,8179
0,6676
0,2430
0,9993 0,9999
0,9987
0,9978
0,9999
0,9997
I
I
I
0, I 887 0,5 169
0,1516 0,45 l6
I
0,983 I
0,940
2 3
0,9990
0,1216 0,3917
20
1
0,7879 0,9294
0,1334
0,6769
0,9529 0,9893
0,981 7
0,9007 0,97 l0
4
0,8670 0,9568
0,9981 0,9997
0,9887
I
0,9987 0,9998
0,9976
I
0,9962 0,9994 0,9999
0.9932
0,9999
I
I
0,9999
0,0591
0,0424
0,2343
0, l 837
0,485 5 0,717 5
0,41t4
0,35 85 0,735 8
0,290 l 0,6605
0,9561
0,924s 0,9841
0,9997
0,9926 0,9990
0,8850 0,9710 0,9944
I
0,9999
0,9997 I
0,4120
l
0,5438 0,8802
0,9929 4,9994
0,9790 0,9973
I
5
6 7 8 9
0,7 l 68 0,91 7 l
0 sR2t
0,9972
3
0,9783 0,9971
4
0,9999
0,9996
5
I
I
0,9997
I
6 7
8 9
l0
n
332
0,997 4
0,9991
0,2342 0,5869 0,8390
0,6035 0,853 I 0,960 I 0,9918
0,2059 0,5490 0,8 r 59
4,94r'.5 o sÂ71
0,9996 I
0,40 l0 0,7'731 0,9399 0,9881 0,9982
)
30
I
0,7397 0,9639 0,9967 0,9998
0
0,8 103
0,9298 0,9872
0,2863 0,6597 0,8870 0,9727 0,9950
'1
0
0,9995
0,6648 0,9418 0,9938 0,9996
5
0
t09
0,6240 4,9326
0,5455
0,8794
I
0,2939
0,2r46
0, I 563
0,1 1 34
0,66t2
0 5s1s 0,8122 0,9392 0,9844
0,4555
0,3694
0,0820 0,2958
0.7324 0,8974 0,9685
0,6488 0,8450 0,9447
0,5654 0,7842 0,9126
0,9989 0,9999
0,9967
0,9921
0,983 8
0,9994
I
0,9999
0,9983 0,9997
I
0,9999
0,9960 0,9992. 0,9999
0,9707 0,9918
0,9980 0,9996
I
I
0,9999 I
0,883 I
0,9694 0 qs17
0,647 4
0,8723
0,8245
0,95 r 9 0,9848 n ooss
0,9268 0,9142
0,991 0
0,9998
0,9980 0,9995
I
0,9999
0 ss?)
I
PH.
TASS S
LEGA]'I
TABLES NUMERIOUES
Table no 3 (suite) LOI BINOMIALE
-
PROBABILITES CUMULEES
Probabilirés cumulées Pr n
40
p:
l% P:20Â P:30/o P :
0
0,6690
I
0,9393
2 3
4
40Â
P:
(k < c) : 5o/o
0,4457 0,8095
0,2957
0. l 954
0, I 285
0,661 5
0,992s 0,9993
0,9543
0,399 I 0,67 67
0,99 r 8
0,8822 0,9686
0,52 l 0 0,7855
I
0,9252 0,9790
0,8619 0,9520
0,9951
0,986 I 0,9966 0,9993
0,9988
0,9933
5
0,9999
6
I
0,9988 0,9998
7
I
8 9
0,9990 0,9998 I
0,9999 I
l0
ll
P:
P:70/o
P:80/o
P:9%
l0
0,0842
0,0549
0,0356
0,0230
0,2990
0,2201 0,4625
0, I 594
0,1 140
0,0148 0,0805
0,3694
0,2894
0,6007 0,7868
0,5092
0,9104
0,6937 0,8546
0,969 I
0,94t9
0,9033
0,9909
0,980
l
0,9624
0,9977 0,9995 0,9999
0,9942
0,9873 0,9963
0,8535 0,936 l 0,9758
I
0,9999 I
60/o
0,5665 0,7827
0,9985 0,9997
0,9990 0,9998 I
t2
4 5
I
3
50
6 7
0,3642
0,2 I 8l
0,1299
0,0'769
0,735 8
o 5ss'l
0,2794
0,9216 0,9822 0,9968
0,8 l 06
0,4005 0,6767
0,9372
0,8609
0,9832
0,95
0,9995
0,9963
0,9999
0,9993 0,9999
0,9856 0,9964 0,9992 0,9999 I
I
I
8
9
l0
ll
t2
l3
l0
0,0453 0, r 900
4,0266
0,4162 0,6473 0,8206
0,3 108
0,7604 0,8964 0,9622 0,9882 0,9968
0,971
0,5405
0,t265
0,0155 0,0827
0,9949 0,9985
0,9996 0,9999
t4
0,0090 0,0532 0, r 605 0,3303 0,527',|
0,0052 0,0338 0,1 I l7 0,2503
0,6161 0,7702
0,7290
0,2260 0,4253 0,6290
0,9224
0,8650
0,7919
0,7072
l
0,94t7
0,898 I
0,9992
0,9906 0,9973
0,9998
0,9993
0,9780 0,9927 0,9978
0,9562 0,9834 0,9944
0,8404 0,9232
I
0,9998
0,9994
I
0,9999
0,9983 0,9995
0,9957 0,9987
I
0,9999
0,9996 0,9999
0,9968 0,9990 0,999'7
I
0,9999
0,5327
I
l5
PH.
0,9994 0,9999
0,7937 0,9005 0,958 l 0.9845
1
0,6050 0,9106 0,9862 0,9984 0,9999
2
0,9920 0,9976
I
l3 0 I
0,7 103
0,2228 0,4231 0,6290
0,43t2
t,96't2
0,8779 0,9421
0,9875
0,9755
0,9906
I
TASSI S.
LEGAIT
??2
0t
TABLES NUMERIOUES
Table LOI DE
POISSON
no
4
PROBABILITES CUMULEES
Probabilités cumulées Pr (/< (
< c) - 'i' "-^ ^r kt. Ï^
m-0,1 m-0.2 n-0,1 m-0,4 m-0,5 m-0,6 m_0,7 m-0,8 m-0,9
0
0,9048
I
0,9953
t
3
0,9998 I
4
0,8187 0,9825 0,9988 0,9999 I
0,7408
0,6703
0,9631
0,9384 0,9920 o,9992 0,9999
0,9964 0,9997
I
I
5
0,9769 0,9966 0,9996
0,4966 0,8442 0,9659 0,9942 0,9992
0,4493 0,8088 0,9526 0;9e0e
0,4066 0,7725 0,9372 0,9866
0,9986
0,9977
1
0,9999
0,9998
0,9997
I
I
0,6065 0,9098
0,5488 0,8781
0,9856 0,9982 0,9998 I
6
Probabilités cumulées Pr c
< c) - 'i' "-^ ^* Ê" ft!
m-1,0 m-1,5 m-2,0 m-2,5 m-3,0 m-3,5 m-4,0 m-4,5 m-5,0 0,0302 0, l 359
0,0183
0,01l I
0,0067
0,0916
O,MM
0,3208 0,5366 0,7254
0,2381 0,4335
0,0611 0,1 736
0,6288
0,532
0,9161 0,9665 0,988 1
0,8576
0,7851 0,8893
0,9997
0,9962 0,9989
0,9901 0,9967
0,9489 0,9786 0,9919
0,9134 0,9s97 0,9829
l0
0,9999
0,9997
0,9933
I
0,9999
0,9990 0,9997 0,9999
0,9972
l1
0,9991
09997
0,99't6 0,9992
I
0,9999
0,9997
I
0,9999
0,9993 0,9998
I
0,9999
0 I
0,3679 0,7358
0,2231
0, I 353
0,0821
0,0498
0,5578
0,4060
0,28'tt
0,199i
7
0,9197
0,9810
a,6767 0,8571
4
0,9963
0,9473
0,5438 0,75't6 0,8912
0,4232
3
0,8088 0,9344 0,9814 0,9955 0,9991 0,9998 I
0,9834
0,9579
0,9955
0,9858
0,9989 0,9998
0,9958 0,9989
I
5 6 7 8
9
t2 l3
l4 l5
l6
334
(k
,l
0,9994 0,9999
I
0,6472 0,8 r 53
I
0,9347
4,9733
0,1423
0,1247 0,2650
l
0,4405
0,7029
0,6160 0,7622 0,8666 0,9319 0,9682
0,831
1
0,9863 0,9945
0,9980
I
PH. TASSl
- S. LEGAIT
TABLES NUMERIOUES
Table no 4 (suite) LOI DE POISSON
-
PROBABILITES CUMULEES
Probabilités cumulées Pr
0,0041 I
'l 3
4
0,0025
(k
< ,, :
0,0015 0,0113
0,0009
0,0006
0,0003
0,0073
0,0030
0,0430
0,0296 0,0818 0, r730
0,0047 0,0203 0,0591
0,0266 0,0884
0,0174 0,0620
0,201'7 0,3575
0,15 I 2
0,1 I
0,2851
0,22!7
l8
0,1 32
1
ti"u^
0,0138
0,0424 0,0996
0,l9l2
#
0,0012 0,0062 0,0212 0,0550
0,0001 0,0008 0,0042 0,0149 0,0403
0,1496 0,2562 0,3856
0,1 1 57
0,0885
0,2068
0,1649
a3219
0,5231
0,4557
0,2687 0,3918
0,6530
0,5874
0,521 8
0,'1614 0,8487 0,9091 0,9486
0,7060 0,8030 0,8758 0,9261
0,6453 0,'1520
0,9726
0,9585
0,898 I 0,9400
0,0002 0,0019 0,0093 0,0301
0,0746
0,0001
0,9161
0,3690 0,5265 0,6728 0,7916 0,8774
0,3007 0,4497 0,5987 0,'1291 0,8305
0,2414 0,3782 0,5246 0,6620 0,7764
0,97 47
0,95'74
0,9332
0,9015
0,8622
0,8159
0,966 I
0,9466 0,9730 0,9872
0,9208 0,9573
0,888 I
13
0,9890 0,9955 0,9983
0,9799 0,9912 0,9964
0,9784
l4
o,9994
0,9986
0,9943
0,9897
0,9658 0,9827
l5
0,9998
0,9988
0,99t4
0,9780 0,9889
0,9665 0,9823
I
0,9998 I
0,9954 0,9980 0,9992
0,9918 0,9963
I
0,9976 0,9990 0,9996 0,9999
0,9862
0,9999
0,9995 0,9998
0,9984
0,9970
0,9947
0,991I
0,9997 0,9999
0,9993 0,9997
0,9987 0,9995
0,9976 0,9989
0,9957
I
0,9999
0,9998 0,9999
0,9996
0,9991
0,9998
0,9996 0,9998 0,9999
5
0,5289
6
0,6860
7
0,8095
8
0,9044 0,9462
9
ll t2
t7
0,4457 0,6063
0,7440 0,8472
l8 l9
0,9840 0,9929 0,9970 0,9996
I
0,3134 0,4530 0,5925 0,7166
0,9162
I
1
23
0,9999
I
0,8364
0,9980
1
24
22Â PH. TASSI - S. LEGAIT
TABTES NUMERIOUES
Table LOI DE POISSON
-
no
4 (suite)
PROBABILITES CUMULEES
Probabilités cumulées Pr c
m:10
m:ll
(k
< ,) :'t
io
u-^
4kt m:17
m:18
0,0004
0,0002
0,000 I
0,0014 0,0040
0,0007 0,0021
0,0003
0,0076 0,0 r 80
0,0 100
0,0054
0,0620 0, l 093
0,0374
0,0220 0,0433
0,0126 0,026 l
0,0071
0,0698
l7
0, l 756
0,077 4
0,3s32
0,2600 0,3584 4,4644 0,5704
0,1 1 84 0, I 847
0,0304 0,0549
0,26'76
0,1931
0,3622
0,2745
0,4656
0,3675
0,0491 0,0847 0, l 350 0,2009 0,2808
0,5680 0,6640
0,4667
0,2867
0,5659
0,37 t4 0,4677
0,7 487
0,6593
0,5440
0,8826 0,9235
0,8193 0,875 l
0,7423
0,6550 0,7363
0,3750 0,4686 0,5622 0,6509
0,9169 0,9468
0,868 I 0,9107
0,8055
0,7307
0,861 5
0,7991
0,9048 0,9367 0,9593
0,855 I
0,9554
m:!4
m:15 m:16
m:12
m:13
0,0001 0,0005 0,0023
0,0002
0,0010
0,0001 0,0005
0,0002
0,0001
0,0076
0,0037
0,001 8
0,0009
0,0107 0,0259 0,0540 0,0997 0, I 658
0,0055
0,0028
0,0142 0,0316
0 2
I
0,0005 0,0028
3
0,0104
4
0,0293
0,0002 0,0012 0,0049 0,0151
5
0,0671 0, l 302
0,0375 0,0786
0,0203 0,0458
0,2243 0,3329 0,4580
0,1432 0,2320
0,0895 0, I 550
0,3405
0,2424
0,4599 0 57S1
0,3472 0,4616 0,5760
0,25
0,68 l6 0,7721
0,5730
t4
0,583 l 0,6968 0,79 I 6 0,8645 0,9 r 66
l5
0,95
l3
0,9075
0,8445
16
0,9730 0,9857 0,9928
0,9442 0,9679 0,9824
0,8988 0,9371 0,9626
0,7636 0,8355 0,8905 0,9302
0,9965
0,9908
0,9787
c,9514
20
0,9984
0,9954
0,9751 0,9860
22
I
0,9805 0,9888
0,9633
24
0,9985 0,9993
0,9833 0,9907 0,9950
0,96t7
û,9999
0,9925 0,9962 0,9982
0,9672
23
0,9978 0,9990 0,9996 0,9999
0,9884 0,9939 0,9969
0,952t
0,9993 0,999'7
Q,9997
0,9992
0,9974
26
0,9999
0,9997
0,9987
I
0,9999
0,9994
I
0,9997 0,9999
0,9992 0,9996
0,9869 0,9926 0,9960 0,9979 0,9989
0,9748 0,9848
27
0,9938 0,9967 0,9983
I
0,9998
6 7
I
9
l0
ll tl
13
l7 l8 l9
25
28 29
0,78 I 3
0,8541
I
0,463 t 0,6751
0,6693
0,7559 0,8272
0,9712
a,8tzz
0,917'7
0,99t2 0,9950 0,9973
0,0154
0,09 r 7
0,t426 0,2081
0,8989 0,93
l3
0,97 l8 0,9E27 0,9897 0,9941
0,9999
0,9995 0,9998
0,9986
3l
0,9993
0,9967 0,9982
32
I
0,9999
0,9996
0,9990
I
0,9998
0,9999
0,9995 0,9998
I
0,9999
30
33 34 35 36
336
0,6887
0,t270
0,0010 0,0029
I
PH. TASSI
. S. LEGAIT
TABLES NUMEFIOUES
Table no 5 FRACTILES DE LA LOI DE x'z(u)
I
oto
2
0,012
3
0,024 0,072 0,115
4
0,091 0,201 0,291 0,2 l0 0,412 0,554 0,831
5
0,676 0.8'72 1,24 0,598 0,989 I,65 1,34 0,857
0,381
6 1
8 9
I,l5
l .73
I,48
t0
ll
l,83
t2
2,21
l3 t4 l5
l'l l8 l9
22 23 25
29 30 32
34 36 38
40
2,13 1'11
2,10 3,25
1S4
7,81
s
I,l
I
2,8
I 5,1
2,20 2.83 3,49
t2,6
t4,4
6.35
10,6 r 2,0
14, I
16,0
7,14
13,4
rs
t4,7
16,9
4,8'7
8,34 9,34
17,5 19,0
16,8 18,5 20, I
8,3
20,5
t9,1
zl,9 26,2 27,7 29,
4,t1
I
I
5
2l
2,62
5,01
5Rg
4,66
6,57
3,48
5,23
5,63 6,26
7,04 7,79 8,55
t2,3
3,04
26,3
8,67
9,31 10,I
9,39
10,9
8,91
10, I
ll,7
15,3 16.3 17,3 18,3
30, I
ass
r
0,9
t2,4
19,3
7,63 8,26
6,45 6,98
8,90 9,54
? {1
10,2 10.9
10,4 I 1,0 I 1,6 12,8 14,I
|,2
6,91 7,56 8,23
10,3
l1,5 rl t
22,4
13,3
)2,1
26,1
14,3
)5
34,2
3"1
28,9
1q1 40,8 42,3
43,8
,6
45,3
38, I
4l
,6
49,'7
43,0
16,5
39,4 40,6
44,3
51,2 52,6
15,4
t?
)5
54, I
18, I 18,9
13.8
t5,1
4,6
1
20.3
'l{ )
S
1
35,6
38,9
4l ,9
45,6
26,3
36,'7
40, I
4',1
21 ,3
31 ,9
4l
28,3 29,3
39, I
42,6 43,8
1J,L 44,5 45,7
40,3 42,6 44,9
18,3 19,8
20,l 2t,-l
3 1.3
t'7,9
2t,3
15
1
4'7,2
19,3
22,9 24,4
23,3 24,9 26,5
17
1
49.5
r00
31,4
2'7,6
16,5
t
1?q
32,0 33,4 34,8 36,2
36.4 37,1
14,0 14,8
18,5
{1
37,'7
28.8 30,2 3 r,5
23,3 24,3
12,3 13, I
t'7,'7
65,6
36, I
30,6
)?
46,8 48,3
14,3
60 70 80 90
l
<
0
38,9 40,3
13,6
32,4 40,5 48,8
31,3 32,9 34,5
36,8
3,l
50
29,6
26,8 28.3
11S
16,2 16,9
)î'1
)( t
7)'l
t3,2
t2,9
15,I
1L t
)l 1 ))7
I 1,6
r
13,8
21,'7
23,3 24,1
,0
I 8,5
20,3 22,0 23,6
1(
il,8 r) 5 r
t6,7
9,24
I 1,3
5,81 6,41 7,01
12,8 14,9
s 1s
6,30
't,96
13,3
4,35
5,58
'7,26
15
,61
I
11
{
7,88 10,6
6,61 9,21 l r,3
ll,l
9,49
4.51
9,22 9,80
26 27 28
2,r8
6,25 7,78
4,40
8,08 8,65
24
1,69
?1R
3,82
5,92
2l
|,64 2,t1
|,24
5,02
105 157 4,l l
5,41
20
2,09 2,56
I,r5
1R4 5,99
10,3
3,94 4,42 4,90
t6
2,11 4,61
0,004 0,016 0,455 r,39 0,1 03 0,21 I 0,2r6 0,352 0,584 2,37 3,36 1,06 0,484 0,71 I
0,001
0,020 0,051
5l,8 63,2
56,9
1
sR1
56, l
56,3 59,0
58,6
6l
6t,2
64,2 66,8
62,5 65,2 68,0 70,7 13.4
5
4'7,O
46,2
49.5
51
48,6
52,0 54,4 56,9 59,3
t,4
'76,2
88,4 100,4
79,5 92,0 t 04,2
112,3
116,3
l8,l
t24,1
128,3
124,8 t3'7,2
35.8
140,2
t49.4
51,0 53,4 55,8
'7
61 ,5
85,5 96,6 107,6
90,5 101,9
ll3.l
I
I18.5
124.3
t29,6
4,4
5
r,0
48,3 49,6 50,9
,3
83,3 95,0 106,6
7
s5
,0
'7
9,1
5
63,7
r
s) t1
l
,6
59.'l
86,7
99,6 I 12,3
sulvante N.8. Pour v > 30, on pourra utiliser I'approximation
xirvt:"(r-z*,,,f!*)' où t" est le fractile d'ordre
P
de la loi normale réduite'
aal
PH.
TASSi S. LEGAIT
TABLES NUMERIOUES
Table no 6 FRACTILES DE LA LOI DE STUDENT Cette table donne les valeurs des fractiles 1r(v) de la loi de Student pour Pour fes valeurs P( 0,40, on a tp(v) : - t,, e(v).
1P v\
0,60
0,70
0,80
0,90
0,95
0,975
I 2 3
0,325 0,289 0,277
0,727 0,617
I,3'16
5,3t4 2,920
t2,71 4,303
53
0,27 t
0,584 0,569 0,559
0,978
4
0,941
,078 ,886 ,638 ,533
2,t32
0,920
,416
2,015
0,553
,440
0,549 0,546
0,906 0,896 0,889
,39'l
1.943 1,895 1,860
,383
I,833
5
0,267
6 7 8
0,265 0,263 0,262
I
,061
2,3
0,990
3r8,3
636,6
22,33
31,60
3,1 82
t0,22
t2,94
2,776 2,571
3,747 3,365
4,604
7,t73
8,61 0
4,032
5,893
6,859
2,447
3,143
5,208
5,959
2,998 2,896 2,821 2,764
3,707 3,499 1 15S 3,250
4,'t85
0,543
0,883
0,260
0,542
0,879
-3tt
1,812
ll
0,260 0,259 0,259 0,258 0,258
0,540 0,539 0,538
0,876 0,873 0,870 0,868 0,866
,363
t,796
2,20t
2,7
,356
2,t79
2,681
,350
1,782 t,77 t
2,160
,J45
I,761
2,t45
.341
I,753
2,131
11?
|,746 I,740
2,t20 2,1 l0
t,7 34
2,r01
,328 ,325
t,729
2,093
I,725
2,086 2,080 2,074 2,069 2,064 2,060
2,4'19 2,473 2,46'7
l'7
l8
l9
0,258 0,2s7 0,257 0,257 0,257
0,53 7
0,536 n 51t 0,534 0,534
0,865 0,863
0,862
,333 ,330
0,533 0,533
0,861
0,s32
0,859 0,858 0,858 0,857 0,856
,323
I,72t
,32t
t,7 t7 t,7 14
25
0,257 0,256 0,256 0,256 0,256
26
0,256
0,856
0,2s6
,315
2'7
0,531 0,531
28
0,256 0,256 0,256
0,530 0,530 0,530
0,855 0,854 0,854
0,256 0,255 0,255 0,255 0,255
0,530 0,529 0,529 0,529 0,s29
0,853 0,852 0,852
50 60 70 80 90
0,255 0,254 0,254
0,528
r00
0,254 0,254 0,253
0,526
0,253
0.524
20
2t 22 23
24
29 30 32 34 36 38
40
200 500
y'V.8.
0,2s4 0,254
0,532
0,532 0,53 I 0,53 l
0,527 0,527 0,s27 a.526 0,525 0,525
0,860
,3 r9 ,3 l8 ,3 l6
t,7l
I
t,708
I,706
4,297
4,t44
4,587
4,025 3,930
4,43't
2,650 2,624 2,602
3,0t2
3,852 3,787 1 711
4,221 4,140 4,073
2,5 83
2,921 2,898
3,686 3,646
4,0r5
2,56't 2,552 2,539 2,s28
2,878
3,61 l
3,922
2,86
I
3,579
3,883
2,845
3,55 2
3,850
2,5 r8
2,831
3,s27
3,8
2,508
2,8 l9 2,80'7
3,505 3,485
2,797 2,787
3,46'7
3,'t92 3,767 3,745 3.725
t8
2,500 2,492 2,485
I,703 t,699 t,697
,309
I,694
2,03'1
,307 ,306
r,691 r,688
0,851 0,851
,304
t,686
2,032 2,028 2,024
,303
1,684
2,02t
2.449 2,441 2,434 2,429 2,423
0,849 0,848 0,847 0,846 0.846
,298
t,676
,296 ,294
t,67
2,009 2,000
2,403 2,390 2,381
,292
t,664 t,662
I,994 i,990 I,987
2368
I,984
2,365 2,345 2,334 2.126
0,845 0,843 0,842 0.842
,29t ,290 ,286 ,283 .282
I
t,667
t,660 t,653 t,648
I,972
r.645
1.960
I,965
r
3,t69 3,r06 10s5
,3 l4 ,3 l3 ,31 I .3 l0
t,701
5,84
5,405 5,041 4,781
2,056 2,052 2,048 2,045 2.042
0,855
0,9995
63,66
0,26t
t4 l5 l6
0,999
9,925
9
I3
0,995
1,82
3
l0 t2
0,60.
6,965 4,541
2,365 2,306 2,262 2,228
,4t5
P>
2,462 2,457
2,374
2,977 2,947
4,501
3,450
dl{
2,779
1
2,7't
3,421 3,408 3,396
t
2,763 2,756 2;750
4,3
l8
3,965
l9
3,707 3,690 3,67 4
3,385
3,659 3,646
3,365
3,622
2,7 t9 2,7 t2
3,348 3,333 3,319
3,601 3,582
2,704
1 1n7
3,551
2,6'78
3,26r
2,660 2,648 2,639 2,632
3,232
3,496 3,460
3,2n
3,435
3,195
3,4r5
3,1 83
3,402
2,626
3,174
2,601
3,13 1 3,1 06
3,389 3,339
2,738 2,728
2,586 2,576
3,090
3,566
3,3
l0
3,29t
Pour v > 40, on pourra utiliser I'approximarion suivante
tp(v)-ue*(u)r+u"\/4v où ur est le fractile d'ordre Pde Ia loi normale réduite.
338
PH, TASSI
. S. LEGAIT
TABLES NUMERIOUES
Table no 7 FRACTILES DE LA LOI F (uI, DEGRÉS DE LIBERTÉ
N I
l6l
z
r
3
10, r
4
7,71 6,61
5
4
5
6
7
8
9
l0
t2
t4
200 19,0
2t6
225
230
214
237
239
241
242
244
245
t9,2
19,2
19,3
19,3
t9,4
19,4
t9,4
19,4
s
t9,4
t9,4
55
9,28
9,t2
9,01
8,94
8,89
8,85
8,81
8,74
8,71
6,94
6,59
6,39
6,26
6,
t6
5,l9
5,05
4,95
6,00 4,77
5,87
5,41
6,04 4,82
5,91
5?0
6,09 4,88
8,79 5,96 4,7 4
4,68
4,64
5,t 4
4,7 6
4,53
4,39
4,28
4,21
4,l5
4,
J,96
4,35 4,0'l
4,12 3,84
147
3,87
171
3,68
3,57
3,53
3,69
3,5 8
3,79 3,50
4,06 3,64
4,00
4,7 4
3,M
3,39
3,3 5
3,28
3,24
3,86
161
3,48
117
3,29
3,23 3,07
3,l8
3,
l4
3,07
3,03
3,02
2,98
2,9t
2,86
2,95
2,90
2,85
2,8 5 ) 11
2,80
) 7(
2,79 2,69
2,74 2,64
2,65 2,59
2,67 2,60
2,60 2,s3
2,54
2,48
2,55 2,48 2,42
2,54 2,49
2,49
2,42
2,45
2,3 8
2,46 2,42
2,4t
2,34 2,3t
9
5,t2
4,46 4,26
l0
4,96
4,
ll
4,84
3,98
t2
4,7 5
3,71
3.48
111
3,22
3,
3,36 3,26
3,20
3,09
3,89
3,59 3,49
3,il
3,01 2,91
l0
l4
4,67
3,81
3,41
3,14
3,34
3,l8 3,l l
3,03 2,96
l5
4,60 4,54
3,68
3,29
3,06
2,90
3,00 2,92 2,85 2.79
2,7 t
2,70 2,64
l6
4,49
2,85
2,7 4
2,66
2,59
t7
4,45
3,24 3,20
3,01
=
3,63 3,59
2,96
2,8 I
2,61
2,55
z
l8 l9
4,4t
155
2,90
2,7 4
20
3,s2 3,49
l6 l3
2,77
4,38 4,35
3, 3,
2,93
.(Jl
2,70 2,66 2,63
3,
l0
2,87
2,7 t
2,60
f,
2t
4,32
141
3,0'l
2,84
t
22
4,30 4,28 4,26 4,24
3,44 3,42 3,40 3.39
3,05 3,03 3,0 r
2,82
2,68 2,66
2,80
2,64
2,53
2,78 2,76
2,62
2,60
2,98 2,96 2,95 2,93 2,92
2,14 2,7 t
f, (r] F
.IJ.]
F
l3 l4
23
24
{!
25
:
26 27
4,23
4,2t
117 11s
28
4,20
3,34
29 30
4,
3,33 3,32
34 36 38
l8 4,t7 4,l5 4,t3 4,l l
4,l0
3,24
40
4,08
3,23
2,88 2,87 2,85 2,84
50 60 70 80 90
4,03
3,l8
2,79
4,00
3, t5
2,76
3,98
3,
l3
2,74
3.95
3,l l 3, l0
1 11 11t
3,94
3,09
3.84
3.00
2,70 2.60
q.)
th
.[] d,
() g !
5Z
100
'l s6
3,29 3,28 3,26
2,99
2,90
)11
2,70 2,69 2,67 2,65 2,63 2,62
2,83 2,76
l0
1?r
2,37 2,33 2,29 2,26
2,5 8
2,5t
2,54 2,51
2,48 2,45
2,39
2,38 2,3s
2,28
) )',
2,49
2,42
237
)1)
I l<
2,20
2,46 2,44
2,40
2,34
2,30
2,37
2,32
2,t7 2,t5
2,5t
2,42
2,30
2,40
2,28
2,59
2,4'7
2,39
232
))1
2,24 1 11
2,l8 2,t6
z,t3
2,49
2,36 2,34
)')<
2,23 2,20
2,15
2,57 2,56
2,46
2,i7
2,3t
2,t3
2,45 2,43 2,42
2,36
))o
2,20
2,24
2,t9
2,12
2,35
2,28
f f t
2,r8
))1
2,
l0
2,09 2,08 2,06 2,0s
2,2t
2,09
2,04
2,40 2,38 2,36 2,35
2,31
2,24
2,19
))1 2,2t
2,t6 2,t4
2,01
2,1"t
2,t2
2,t5
2,1
2,t9
1<
2, r8
2,t4 2,t2
2,09
2,34
t
2,07 2,05 2,03 2,02
2,08
2,00
I,95
2,29
2,20
2,t3
2,0'l
2,03
l0
2,04 2,02
r,99 I,91
t,95 t,92
1,89 1,86
, {(
) {<
2,53
2,5t 2,49
2,6t
2,48 2,46 2,45
2,56 2,53
2,40 2,37
2,50 2,49
z,3s
))o
2,28 2,26
', l1
2,25 2,23
') t!
2,47
2,33 2,32
2,20
2,46 2,37
2,3t ) )t
2,t9 2, l0
Pour les valeurs de Fcomprises entre 0 et
l,
F,-r(v,, vz):
PH TASSI - S. LFGAIT
Vr
3
8
7
DU NUMÉRATEUR
2
5,99 5,59 5 1t
6
d,
8,5
uz\ P:0,95
2,
))\
))1
2,14
2,07
2,t3
2,06 2.04
2,00
1,95
1,99
t,94
2,03
I,97
1.94
r
1,93 1.83
2,n 2, l0 2,01
.88
2,n
I,99
l,98 I,96
1,89
1,84
l,88. r,86
1.80
,85
t,79
t,7 5
1.69
I
r,82
on a: I
F,
(vr' v'\
339
TABLES NUI\IEBIOUES
Table no 7 (suite) FRACTILES DE LA LOI F (ut,
uz) P:0.95
DEGRÉS DE LIBERTÉ DU NUMÉRATEUR: y. l6
l8
20
22
24
249
249
19,5
19,5
8,63 5,76
"'/
30
40
60
250
250
251
252
253
,.s4
19,5
19,5
t9,5
19,5
9,5
8,62 5 ?S
8,62
1,59
r9,5 157
i ?,
3,5 5
5,7 5
28
100
246
247
248
t9,4
t9,4
t9,4
249 t9,5
8,69 5,84
8,67 5,82
8,66 5,80
i,65 t,79
8,64
4,60
4,58
4,56
J,54
4,51
A\)
4,50
4,50
t,46
',69 1,43
+,41
,53 ,63 ,37
3,92 3,49
3,90
3,87
],86
3,84
3,82
3,8
t,43
3,41
110
t10
3,t7
i,l3
3, r0
3,09
1,04
|,0
2,94 1 a1
1,92
2,89
2,87
)R1
t,79
,93
2,96 2,80
3,12 2,90 2,7 4
)q7
,67 ,21
3,20 2,99
', 1)
3,38 3,08 2,86
,,7 t t,27
6
3,44 3, r5
\'1'7 I lr'.
t,'74
3,47
3,83 3,40
8 9
2,7 t
2,70
1,66
t,62
){o
,7t ,54
l0
2,70 2,60
2,6"1
2,65
t,63
2,61 2,51
2,5 8
)<1
) s1
t,49
2.,46
ll
,-,43
1,3
8
)'t5
,40 1n
t2
2,48
2,3 8
t,34
1,30
2,26
t')<
z,
l9
t,2a
l,l9
't,t2
,13
2,35
,
2,3t
t))
l3
2.4t
,
,2t
2,44 2,38
2,48 2,39 2,32 2,26
2,47
2,5t
2,59 2,49 2,4t
2,33 2,29 2.25 2,21
2,30
2,2t
2,19
I,
l,ll
2,07
t4 l5 l6
2,26 2,
2,l8 2,t6
l rt
2,83
)\1
2,54
)))
l8 2,t5
|
6
t,3 l
,to
) r<
2,24
)))
z,z) 2,t9 2,t6 2,t2 2,t0
t,2l
2,t9
2,t7
2,16
2,t5
l5 I, l0
t,06
) (\)
l,t7
2,15
2,t3
2,t2
2,lt
1,06
1,02
1,98
I,l3
2,1I
2,07 2,04
,98
1,94
2,08
2,08 2,05
)n1
I,l0
2,10 2,07
1,99
,95
,.,07
2.04
2,02 2,00
2,01
I,98
,96 ,94
,92
t,05 t,02 r,00
2,05 2,03 2,00
I
,91
1,97
1,94
,98 q7
1,96
1,95
|,97 I,95 I,93
1,96
l,98
,89 ,87
,89 ,86 ,84 ,82
I,95
I,93
I
1,90
,80
l,93
I
,91 1,90
RS
st
l ,88
,'79
I
,87
1,88 1,87 1,85
1,87 1,85 1,84
,84 ,82
2,0'l
2,09 2,07
2,05
2,04
2,01
2,0s
2,02 2,00
t,99 |,97 1,96
l,99
I,99 |,97 I,96
t,97 I,95
t,37
t,94
,93 ,92
I,93
,91
t,94 |,92
I
l,93
1,90
I
1,92
1,88
I ,85
,88 ,86 ,85 ,83
I,90
I,87
1,84
l ,85
l,81 I,78
1,78 t,7 5
,91 1,89
,87
t,7 5
I,72
t,73
I,72
l,70 t,69
1,7 5
I
,71
1,68
I,64
I,60
t,57
I,'7'l t,76
2,7
11
2,n
l,82 |,79
r
2,28
2,07 2,05 2,03
2,01
r
i,66
1,44
2,t0
2,02
)7{
571
2,46 2,39
2,t3
2,04
Pour vr et vz
)
2,42 2,35
I,91 1,90 1,89
2,33 2,21
2,01
l,99
,91 1,90 1,88
I,92
11
-J lr)'
,85 I ,82 r,80
,78 ,76
22 23
?1
24
,78
,'7 I
25
I,76 t,74
,69 ,67
26
,65
,59 ,57
I
,85
l,83
1,82
,1',l
,'7 I
t,67
1,82
1,80
l,80
,69
t,65
I,82 I,81
I
,81
I,79
t,77
I,79 I,77 t,76
,76 ,72 ,70 ,68 ,66
I,74
I,72
l,70
1,70
1,66
1,65
1,68 1,65 1,63
t,64
t,62
,65 .54
I,63
I
|,52
1.50
t,67
,61
,69
1,69 1,65
t,64 t,62 I,60 I,59 I,48
,64 ,62
z
e
)2
:
34 36 J6 40
1,62
r,6l 5q
,5 I
,63 ,59
,58
t,52
,44
50
51
10
I,62
,5'7
1,60
,54
I,59
51
,50 ,48 ,46
r,48 t,45 r,43
t,4l
,30
60 70 80 90
|,57 t,46
.39
t,39 I,24
,28 ,00
,45 .32
tr.
30
,65 ,64
1',)
Ë
c
z=
,6'7
15
t!
27 28 29
55 51
5)
-
2t
.'74
t,7 4
arJ
20
19
,7t
v arJ. (,
,81
,81
1,78
t7
rn
1,88
l,'71 t,71. r,70
I,76
'1
l,9l
I
,81
5
fa
1,86
t,'19
,0i
3
4
l8 l9
,'77 ,'7 5
,75 ,73
,07
I 2
,96 ,92 ,88 ,84
l,84
-l
rn
100
30, une bonne approximation est donnée par la formule:
f'. (v,, v:) : 340
26
exP
lÆ Ly'(vr '+ v;'\- -0,475
l'5681
tu-' - ,t ll I PH TASSI - S. TEGAIT
TABLES NUMEFIOUES
Table no 7 (suite)
uzl
FRACTILES DE LA LOI F (ut,
3
4
;f
gl
F
z
I
2
0,975
648 8,5
800
3
39,0
t7,4 t2,2
16,0 10,6 8,43
5
10,0 8,8 t
7
8,07
8 9
't \1
7,26 6,54 6,06
7,2t
5,7 |
l0
6,94
5,46 5,26
t2
6,72 6,55
l3
6,4t
t4
6,30
l5 l6
6,20
4,97 4,86 4,76
t'l
6,04
l8
5,98
4,69 4,62 4,56
6,t2
4
5
6
7
8
9
864
9C0
937 39,3
39,4
957 39.4
963
39,2
39,4
9,60
922 1S1 t4,9 9,36
948
39,2 15,4 9,98
7,76
7,39
7,1 5
6,60
6,23 5 5'
5,99 5,29 4,82 4,48 4,24
3
6
ll
:
opcnÉs oe lrnenrÉ ou NuvÉnettuR
N I 2
P
5,t0
5,89 5,42 5,08 4,83
t5,r
5,05
4,12 4,47
r4,5
14,4
14,3
14,3
6,7 6
8,75 6,52
8,69
6,98
8,84 6,62
5,82
5,70
5,60
5 5)
5,37
5,10
5,t2
4,99
4,90
4,60
4,65
4,53
4,43
4,82 4,36
5,46 4"16
4,32 4,07
4,20
4,
3,95
3,85
l0
4,30
4,03 3,78
3,96 ?.1')
3,87 3,62
3,80
3,59 3,44
1s1
3,43 3,28
3,36
3,1 5
3,05 2,96
3,08 2,98 2,89
?Rq
2,82
4,04 1,89
3,88
3.76
3,66
1 71
3,61
3,51
4,35
4,28 4,12 4,00
),77
3,48
1
3,89
3,66
3,Zl
3,r5
4,15
3,80
3,5 8
3,41
3,29
3,39 3,29 J,20
3,31
4,24
3,60 3,50
3,12
3,06
4,08 4,01
17'l
3,50
1,
))
3,l2
3,66
3,M
3,34 3,28
3,06
105
3,6
3,l6 3, l0
3,05 2,98 2,93 2,88
2,99 2,92 2,87 2,82 1 11
4,61 4,47
7))
3,3 8
4,5
3,17
105
4,46
3,90 3,86
3,56
5,87
l
1?q
3,r3
3,01
2,9t
2,84
f,
2t
4,42 4,38
3,82 3,78
3,48
1ts
3,09
2,80
3,44
3,22
)
2,76
F
23
575
4,35
3,7 5
3,41
2,90
2,81
24
<1)
432
25
5,69
4,29
3,38 1 1s
3,
ll
2,9'7
2,87 2,8s
2,78
trl
3,72 3,69
3,l8 3,l5
3,05 3,02 2,99
2,97 2,93
2,8'l
22
5,83 5,',l9
26
l0
2.94
3,08
2,92
)9n
29 30
s5s
1)1
3,06 3,04
2,82 2,80 2,78
2,73
5,61
3,67 3,65 3,63 3,61
3,33 3,3 l
28
4,27 4,24 4,22 4,20 4,18
3,
2'7
5,66 5,61
15S
3,25
3,03
2,88 2,87
32 34 36 J6
5
4,l5 4,t2
3,56
3,22
3,00
3,53
3,
l9
4,09
3,5 I
3,t1
4,07 4,05
3,48
3, 15
3.46
3,98
1
1S1 3,89 3,86 3,84
3,3 I
3,5
r
co
!
U
ql
a
4A
PH. TASSI
557 S',l
5,50 5,47 5,45 5,42
) l5
1 11
2,70 2,65
2,68
2,60
2,73 2,'10 2,67 2,64
2,64
?.56
2,60 2,54
2,s3 2,50 2,47
2,61
2,51
2,44
2,49 2,47 2,45 2,43
2,42 2,37 2,36
2,',77
)<1
2,76
?(
2,65
f
<1
2,5t
2,41
2.34
2,84
) 1)
2,62
2,54
2,81
2,59
2,19 2,'16
){7
2.49
2,64
7 55
t tt
2,62
) {1
2,3t
2,7 4
2,47 2,45
2,4t
3, 13
2,94 2,92 2,90
2,69 2,66
2,38 2,35 2,33
2,3t
2,97
2,48 2,45 2,43 2,39
2,29
2,2t
'1S
3,06
2,83
2,46
2,3 8
3,01
2,79
2,61 2,63
2,55
114
2,51
2,4t
)
)11
)
1'1
2,09
2,98 2,95 2,93
) ?< ,'71
2,60
2,38 2,36
2,30
2,t4 '2,n
2,06
2,88
2,24 2,2t
2.7 t
7 5t
2,48 2,45 2,43
2,34
2,26
2.t9
2,09
2,10
2,54
2,42
) lt
2,24 2.r I
2,
l8
2,08 1.94
5,l8
1 R1
3,75
5.02
3.69
3,t2
- S. LEGAIT
2,82
3,21
2,6t
100
5,20
2,65 2,61
){
3,55
2,69 2,6'l
5,34 5,29
<))
t ?(
2.73 2,70 2,68
117
4,l3
2,59 2,57 2,55
50 60 70 80 90
{ ts
F,4
6,46
4,67 4,20
t9
.ql d,
983 39,4
8,90 6,68
20
rrl
977
1S4
14,5
U
I
969
)9,4
8,98
.t!
.t!
l4
14,6
3,01 2,96
I
t2
9,07 6,85
t4,7 9,20
3,38 3,33
z
Vt
l0
3,28 J,27
t?s
2,92 2.79
)\1
)<1
2.4t
-)
))a
2,7 |
2.19
){o ) {t
11
, (1
2.05
)))
?10
2,28
) ){
2,14
2,03 2,02
2,00 l .87
TABLES NUMERIOUES
Table no 7 (suite) FRACTILES DE LA LOI F (ut,
uz) P:0,975
DECRÉS DE LIBERTÉ DU NUMÉRATEUR:
,,,/
V
l6
l8
20
22
24
26
l6
30
40
60
100
98'l
990 39,4
993 39,4
995 39,5
997 39,5
999
1000
100 I
1006
l0l0
l0l3
l0l8
39,5
39,5
39,5
39,s
39,5
39,5
t4,2
t4,2 8,60 6,37
t4,2 8,56
14,I
8,64
8,53
14, I 8,51
39,5 14,I 8,48
6,33
6,30
5,t7
5,
l4
4,47 4,00
39,4
6,4t 5,25
4,54 4,08 3,74
5,2t 4,50 4,03 3,70
t4,t
14,l
14,0
14,0
t4,0
13,9
3
8,41
8,36
6,18
6,t2
8,26 6,02
4
6,24
8,32 6,08
5,08
5,07
5,01
4,96
4,85
4,39
4,38 3,81
3,84
4,25 3,78
3,58
3,5 I
1r'S
117
3,59 3,34
4,36 3,89 3,56
4,3r
3,93
6 7 8 9
l
3,26
3,20
4,92 4,21 1,7 4 3,40 3,15
3,t7
3,l5
3, 13
3,t2
3,00
3,02
3,00
2,96
2,8t
2,89 2,79
2,98 2,85
3,06 2,9t
2,66
6,28 5,12
5,
l0
4,44 3,97 3,64 3,39
4,42 3,9s 3,61
3,23 3,07 2,95 2,84
3,20 3,04 2,92
3,50
145
3,30
3,26
3,l5
3,1 I
3,03 2,92
2,98 2,88 2,79
2,76
2,73
2,70
2,87 2,77 2,68
2,72 2,65
2,68 2,62
2,65
2,63
2,60
2,58
2,59
2,54
2,60
2,56
2,56 2,50
2,84 2,76 2,70 2,64 2,59
2,55
2,5t
2,55
2,50
2,46
2,51
2,46
2,42
2,47
2,43
2,4
2,39 2,36 2,34
2,39 2,36
2,4t 2,38
2,33
2,30
2,36 2,34
2,3t
2,28
2,29
2,32
aa1
iJ< t t2
2,30
2,25
2,21
', )<
2,3 8
2,32
2,2'l
2,13
l9
2,37
2,33 2,29
111
l8
2,39 2,35
111 '1 )')
2,t9
Ic!
2,t7
2,09
20
F -t
2,34
2,33
2,3t
2,25
2,t8
2,t3
2,04
)l
l-
2,3t
2,29
2,27
22
e
2,24 2,2t
F
24
11.
2,20
2,08 2,0s
|,97 I,94
t1
2,t5
2,09 2,06 2,02 2,00
2,00
2,26 2,23
2,21 2, l8
2,14
2,28
l,9l
25
o
2,09 2,07 2,05 2,03
2,03 2,00
1,97 1,94
l,88
E
r,98 I,96
I,92
1,83
2,0t
I,94
I,90 l,88
l,81 I,79
26 27 28 29 30
I,98
I
I
,85
t,7 5
1,95
I,88
I,72
))<
2,4t
141
2,24
J1)
2,t7 2,15
2,t3
2,20
2,t9 2,t7
2,t9 2,t7
2,t8 2,t6
r<
2,t3
2,tl 2,09 2,07
2,n
2,t5
2,tt
2.07
2,08 2,05 2,03
2,08 2,03
2,03
l,98
t,99 t,94
2,00 t,97
1,95
I
l,93
l,88
l,80
?11
2,73 2,64
2,24
2,09
I,86
2,J8
'r 7<
2,30 2,27
2,t5 2,t3
I,85 I,71
2,44
2,30
2,t7
l,9l
U
l6
2,33
2,20
I,89 |,75
I5
2,37 2,33
2,
l0
F
2,32
2,39 2,36
2,t3
rî,
t2
2,40
2,39
2,t'l
2,6'7
U
ô
2,40
2,41
)J)
ll
1 11
2,45
2,45
î
2,t5
2,t3
2,n
2,14
2,tl
2,09
l0
2,08 2,05 2,03
2,06 2,03
2,
2,88
2,52
2,44
2,t6
l0
2,96 2,80
fll.
2,46
2,20
3,67 3,33 3,08
l3 t4
2,48 2,43
,1a
4,t4
2,60 2,49
2,s2
2,53 2,48 2,43
5
2,56 2,47
2,5t
))<
1,94
71)
2,57 2,50
2,l8 2,t6 2,t3
1,95
2,84
2,85
2,6t
114
,91
3,3
2,78 2,67 2,58
2,28
2,20
I 2
8,46 6,23
8,49 6,26
3,67 3,42
/vt
2,07 2,05 2,03
2,00
2,00 I,98
2,01
l,98
1,96
t,96
I,93
I,91
I,91 r,88
I,86
l,85 I,83
l,88 l,85 l,82 l,80
l,88 l,83
I,79 I,77
t,7 5
I,81
l,78
t,76
t,74
t,6'7
I,U
I,61
1.59
1,82
r,80 I,77
2,04 2,0t I,99
2,t2
2,lt
,91
I,92
l,85
l,82 I,79
l,96 t,94
l,90
I,82
t,76
r,88
l,80
1,74
I,87 t,82 I,78
I,80 I,74
t,72 t,67 l,63
t,66 I,60 I,56
1,7 5
I,60
I,73
1,68 1,66
1,58
l,53 I,50
t,7l
t,64
1.57
t.48
I,56 I,39
I,48 I.30
I,7 t
l ,85
I,69 t,66 t,64
t7
32 34 36 38 50
l,48 t,44 I,40
60
I,37
70 80 90
,35
100
r
ln
rrl
ln.
z
z -l
rn
C
v
40
,55
r
(t
l,00
Pour yr ct yr > 30, une bonne approximation est donnée par la formule: 4o,s
342
(v,, y:)
-
l:-2lll!' [r|(t;r+
exp
û1-1
-î37 -
1.948
(";, - ur,)l ' 'J PH, TASSI
. S, LEGAIT
TABLES NUMERIOUES
Table no I NOMBRES AU HASARD
t3407
50230 84980
62899 63237
62458
22lL6 33646 68645 15068
26518 39t22 36493 41666 77402 12994 83679 971s4 71802 39356 57494 72484 '73364 38416
tu99
40747
83965
03084
42237 59t22 32934 60227 05764 t4284 32706 94879 22190 2'7559 81616 t5641 26099 65801 71874 61692 087'74 29689 37294 92028 33912 37996 63610 61475 01570 4t702
24t59
92834 16178 81808 28628 62249
8454t
77787 52941 60063
32980 82072 65757 99891 39061
89052 43645 89232 61618 1927s 68136 06546 74005 34558 54437 88825
0r990
94762 42408
02404 59253 7t535 20471 t3914 65946 60766 00939 47818 499s2 29t23 17328 70732 19420 702t5
t9l2l
4l t90
PH, TASSI - S. LEGAIT
't8937 94083 09703 17545 56898 96561
2787t
59892
4034t
90525 93634 78397
31321 87A2t
401
56004
50260
7t329 85581 84741 89107
02981 22676 443t1 93128 t0297 75403 18002 0'1734 88940 92855 62097 58707 44858 73069 80830 93188 66049 95668 53261
9492t
69870
8000t
959',70
84446 21430
42245 51903 56850 83380 78967 5720t 26980 23804 30282 54647 38973 82178 88301 22t27 59284 t62'79 80660 98391 04854 52809 122'73
01585 9981
I
9t261 96711 69831
00384 10858 40744 22482 04029 4'1946 93779 96t20 0'7943 81795 89926 84764
6798t
26149 99330 74084 75949 45950 46319 90476
49t45
25033
7t652 66t79
43684 35629 37938
22484 44707
67578 269sO
76400 05373
657'72
15
692t2
56358
02656 46982 86s06 27524 68648
57932
70823 53338 08967 73287 79788 51330 15356 05348 I
l4l9
45068 88722 81276 36081
t723t 25988 2t676
82937 s4257
857t7 06318
7998t 42936 46656 98943
63506 22007 58248 21282 02305 59741 69179 96682
0s9t2
29830
297t2
0287'7
3t709 t9159
95355
66916 73998 54972 72068 06077 29354 46802 90245 23459 40229 48003 44634 62243 t9678 86608 68017 96983 15082 47234 93263 21789 14093 12424 98601 t9526 2'1t22 01695 47720 55467
87t2^7
13358
47030 45581
69649 57964 495t4 89820 49105 06777 13524 03023 t9037 02831 51553 12158 00755 t78t7
78902 47008 72488 57949 57532 60307 91619 48916 676t9 39254 90763 74056 0981 l 82848 922n 5t 178 42221 88293 67592 06430 85596 83979 09041 62350 65281 57233 07732 58439 34405 67080 16568 00854 94952 59008 95774 44927 37129 31898 3401 I 43304 03582 66183 68392 86844 84389 88273 96010 09843 18085 92626 6091 I 39137 73810 79866 84853 68647 81607 00565 56626 77422 01291 68707 45427 82t45 484'.12
t8782 st646
37564
35365 13800 83745 40141 43618 42n0 93402 93997 29966 38tM 62556 07864 56938 54729 6775'7 684t2 34262 15157 27545 14522 91819 60812 4763t 50609 37612 15593 73198 99287 54289 07t47 84313 51939 19403 53756 0428t 98022 95704 75928 2l8l I 88274 01805 23906 96559 06785 74678 2t859 98645 72388 08623 32752 40472 05470 39551 18398 36918 43543 l l 120 28638 72850 03650 83851 77682 81728 52t47 70955 59693 26838 9601 I 47386 17462 18874 742t0 06268 46460 97660 23490 19089 53166 41836 28205 425t5 55048 239t2 81 105 88&6 73520 40050 90553 04626 64838 92133 44221 982t3 t7704 47400 30837 42545 43920 I I 199 36521 00185 0104t 46662 98897 97149 4t628 78664 80727 41310 19722 07045 28808 31998 79942 98351 t0265 18046 '15287 74989 58152 36558 82712 05590 64941 14668 15656 37895 94559 22757 76116 76977 945't0 343
TABTES NUMER]OUES
Table no 9 NOMBRES AU I-IASARD GAUSSIEN N (0,1)
l.slg- .00{- t.3?r2.033- "620 .256 .866- .a23- I.878 .683 .392 .o53.24t 1.650 .?o3
.82t- 1.169 L.162 .063_ _.986- -.a36 r.335 r.rsz .50a .elo- 1.22. i-iià rlàÀir.!19- _.?9? t.os3 .3rt r.sslr.aoi- -.iôô_ .!?l- t..oq- .640- .s63_ .rrg .s21. .zrr- :ié, .226 .1zs- ..86- t.rgs l.oss .ase 1:ôàè
.7L6 .997 .a2o r.!19- l.g?l t.5?1. .s8e- 2.0?6 .o28- .65{ l. 136- .169 "t06 .223 1.E65 .060- .112 l.069 r.tee t-rii-
.{61- .390 .63? 1.166- .O42- 1..192- .,1,t3 .31O -ZSZ- t-zrt.986- .305- t.02{ l.??\- .5ol l.3ll l.tts- l...l.r- .eos :it5.686 1.036- .980 r.6sr .6s5- 1.126 .680- .o2z_ .zse :aaô
.393- 1.190- 1.sto
2.155- .2A7- .216 .?65- 1.135 1.102 2.161- 1.84? .s2a 1.302- 1.?81 .{58-
.q91 .gl? t"t75- .086 .?e2- .oe3 l.t:.E .llq- .e3?- l.o3e .r2s- .zzg- r.i6s_.199r.ll! -.?19 .522 .e68- .o{t .zsz- r.srt .?-4?- r.g?5- .o3r- .71L t.tzz- z.qea r:?46 .589 .t71 1.4?8- .225- .606_ 2.619- .zsn-
r.qq! l.qlg- .7L!- .lqq- .89?- .66e_ .38? .16? 1.6?3 -:tià_ 1.1ôo-:âôô .999- .t?9- .?s! .7o-2- .7e7 r.rss- .sss.Z16-- .9i9 .03?- .l9g r.zos- z.ore- g.rzo- :ti1 .eas.zos:i6a,!?6-- .??7 2.222 r.el! r.!l? r.o12- .orr .ose r.oii :iat .rs2- .{86 l.o3?- 1.320 .968- .ssr .aaz_ z.ezs i-.oéi- :iû_ .374- L.279 .17O-
.531- .112- 2.257 .025 t.711- .a8a 1.89? .936- .O2t.710 1.203-.lal . l6a 1.8,t3 l. 862.347- .2L6 1.172 .908 .25O 1.075- .681- .o31- .{59- .251 .302- .762.29L 1.489 t..05t
.2tq- .53?- 1.235- .326- .449 l.l?o- 1.172 .011- .37O .441- 2.680- l.6,trl- 1.916- .Alg.?qc- ..9I- .56t- .99s- .,r15- 1.585 .5?8_ .85{- 2.102 .s9l _.276- 1.19? 1.603- .9O7- .8,13- Jeg- z.gel .80?- .a3l 2.078 1.251 .35?- .387 .922- .6,19- .958- .ZSS.7!1. .!06- .2o8- .231- t.l8o L.127- .oo.- .2rO- l.6rto- .Brl.628- 1.5?o r.zsg- r.glr .zas :iaô-.91! 2.991 -.199l.!lq- 2.!?i .?9q- -.?99 .?8?- 2.003- t:?o?- .oer .oos- :é{i.?3_? .qqg .r53- l.6E!.075- .ers- .srs .5?O- 1.682- .zet_ .3Tt .6rl .o{9-1.219.Bs8- .ls? .985- .eze .osr- .zto_ :æé.a56 .569- .t77 1.Ol,t- 1.088- .853
.961
l.?aa
-
1.826-
.7lo.t57-
.291 1.o03- .o{9 1.610 ,227- .17A t.O2g .67? .060- .709 .88?- -A23 1.t63- .6?0- .100- .327 .228- 1.012- 1.a50 t.22L-
1.830 .776
t.821
l.0l 9l. 73a
344
PH TASSI , S. LEGAIT
TABLLS NUIVERIOUES
Table no 1O ESPERANCE DE LA STATISTIOUE D'ORDRE table fournit E (X,,,), où X,,, est I'observation de rang i lorsque léchantillon est classé pu, o.J.. décroissant: X,u ),X,r, )- ...2 X,,t ) ...) X,", ; n varie de 2 à 50. par symétrie, E (Xrrr :
_.Cette (X,, .. xn) extrait d'une loi normale N (0, l) '
-E(X," -',) 2
I ?
3
0.5642
0.E463
-0.5642
0.oooo
-0.846t
3
4
I 2 3 4 5
6 t
9l0ltt2u t4 15 t.4850 1.5388 t.5864 t.6292 r.66S0 1.70t4 t.7t59 0.9323 l.ool4 l.06 l, t. lr57 r. r64t 1.20t9 1,2419 0.5720 o.6t6r 0.7286 0"7928 0.8498 o,9477 0.2145 0.J756 0.4620 0.5]68 0.6028 0.901r 0.66IE 0.tr49 0.0000 0.t227 0.22{9 0.3t22 o.3ss3 0.4556 0.5157 -0.2''45 -O.t22t o.ooq) 0.1026 o.t9o5 0,26:/3 0.3351 -0.5720 -0.3758 -O,2249 -o.1026 o.oooo o.os82 0.1653
16 I 2 3 4 5 6 7
t
t.7660
r.284t 0.990! 0.7532 0.5700 0.3962 0.233E
0.07t3
l0
-0.07tt -0.z3tt
ll
-0.3t62
9
23 I 2
3
4 5 6
I t I
t0
tl l2
lf
l4
4s6 7E 1.0296 r.1630 t.2672 r.!522 1.4236 0.2970 0.4950 0.6418 0.1574 0.e522 -o.29t0 0.0000 0.2015 0.3527 0,4728 -1.o29ô -0.4950 -0.2015 _0"0000 0. L525
t7 lE r.7939 1.82@ l.3rE8 r.3to[
1.0295 l.o65t 0.E074 0.t481
0.6r95 0.664t o.ôJu 0.tot6
0.2952 0.350s 0.1460 0.207t 0.æ00 0.6S!
-0.1460 -0.06s! -0.2952 -o.20r,
24
1.9292 r,%7t 1.4€14 r.5034 t"2144 1.2392 1.0u6 t.o409 0.8470 0.!t68 0.t012 0.733t 0.t690 0.6@ 0.4461 0.6839 0.329t 0.3705 0.21t5 0.2616 0.108 r 0.1558 o.(xn, 0.0518 -0. l08l -0.0t!t
.0.2rtt
-0. r35C
2'
r9
20
21
22
1.841.5 1.8675 r.E892 1.9097 t.3799 r.@76 r.4336 1.45S2 1.0995 l. u09 l. r60t t. rE82 0.E85t 0.92t0 0.9538 0.9846 0.7066 0.74'É 0.7E15 0.E153 0.y77 0.5903 0.629E O.6667 0.4016 0.4433 0.4915 0.5316 0.2537 0.3r49 0.3620 0.ré56 0. uot 0. 1870 0.2384 0.2r58 0.0000 0.0620 0.1184 0.rt00 -0.Llot -0.0620 0.0000 0.0564
26
1.9653 1.9E22 l.t2(! t.*2 1.2626 t.2t5l I .0'66t I .091ô 0.9050 0.9tr7 0.t64t 0.t929 0.6369 0.6679 0.519t 0.5t2t 0.4096 o.t t l.4 0.t0lt 0.34t0 0.2001 0.2(13 0.0995 0.r4!9 0.0000 0.0478 -0.0995 -0.0{t8
2t
2E
Le
1.99E3 2.0U7 2.0285 r.5633 t"5815 l.r9E9 r.3064 1.326t r.3462 l. rl47 l. t3t0 1.15E: 0.9570 0.9812 1.00ôl 0.8202 0.8461 0.8708 0.6973 0,7251 0.75t5 0.t84t 0.6138 0.6420
0.4780 0.5098 0.5t98
r 0.4u0 0.(430 0.2798 0.3160 0.3t01 0. r852 0.2239 0.2602 0.0922 0.tit36 0.t724 0.37t
0.0000 0.0444
0.0859
TABLES NUMERIOUES
Table no 1O (suite) ESPERANCE DE LA STATISTIOUE D'ORDRE
t0 I 2 3 4 5 6
I
I
9
l0
n t2 13
l4
l5 r6
l? t8
r 2 3 4 5 6 t 8 9 r0 ll t2 13 14 t5 16 l7 l8 19 20 2l
346
2.0428
31
32
33
2,0697 2,0824 r.6156 r.6317 1.64.7 r 1.6620 r.3648 t.3827 t.3999 1.4164 l. 1786 1.1980 1.2167 r.234'' 1.026t l.o47t 1.0672 1.0865 0.89t4 0.9169 0.9384 0.9590 0.7767 0.E007 0.8236 0.8455 0.6688 0.6944 0.rt8t o"7420 0.5683 0.5955 0.6213 0.6460 0.a733 0.5021 0.5294 0.5555 0"3824 0.4129 0.4418 0,t694 0.2915 0.3269 0.3575 0.386t 0.2088 0.2432 o.2751 0.!065 0. l24r 0.16u 0.1957 0.2283 0.0415 0.0804 0. t169 0. 1515 -0.04r5 0.0000 0.0389 0.0755 -o.L241 -0.0804 -0.0389 0.0000 -0.20EE -0. t6 ul -0"1169 -0.0755 tâ 37 38 39 2.u93 2.lrol 2.1506 2.t60E 1.7166 r.7291 1.74L1 1.7531 l.{768 1.4906 r.5040 r,5r70 r.3002 r.3r5t r.3296 r.3437 1.1568 r.1728 l.tEEt 1.2033 1.0339 1.0509 r.0674 r.0833 0.9250 0.9&30 0.9604 0.9772 0.8260 0.8451 0.8634 0.6Ell 0.7316 0,754'' O.71tû 0.7926 0.6490 0.6701 0.6904 0.7099 0.5679 0.5900 0.6113 0.6318 0.4904 0. t 136 0.5359 0.3574 0.4158 0.rlol 0./635 0.4859 0.3434 0.3669 0.3934 0.4 169 0.2'127 0.2995 0.3252 0.3198 0.2014 0.2316 0.2585 0.2A42 0. 135 r 0. 1647 0 . l 929 0 .2 199 0.0674 0.0985 0.1282 0.1564 0.0000 0.0328 0.0610 0.0916 -0.067ô -0.0328 0.0000 0.03u -0.1351 -0.0985 -0.06ro -0.0312 2.0565
34
35
36
2.0947 2. 1066 2 . r r8 t 1.6764 1.6902 1.7036 1.432t t.tA75 t.tÂ24 1.2520 r.2666 t.2847 1.1051 l.1229 t.1402 0.9789 0.9979 1.0162 0.â666 0.8E68 0.9062 0.t643 0.7857 0.8063 0.6695 0.592r 0.7r38 0.5804 0.6043 0.6271 0.4957 0.5208 O.W9 0.4144 0.4409 0.tû62 0.3358 0.3637 0.3903 0.2592 0.2886 0.3 166 0.1842 0.2152 0.2tA6 0.1101 0. 1426 0.1739 0.0366 0.0712 0.1040 -0.0366 0.0000 0.0346 43 41 42 2.L707 2.r80! 2.1897 1.76/+6 1.7757 1.7865 r.5296 r.5419 1.5s38 t.3573 1.3705 1.3833 1.2178 r.Èr9 r.2456 r.0967 1.t136 l.t28t 0.9935 1.0092 1.0245 0.E983 0.9r48 0.9308 0.8106 0.8279 0.W7 0.7287 0.7tÉ9 0.7645 0.6515 0.6705 0.6EE9 0.5780 0.59t9 0.6 r7 l 0.5075 0.5283 0.5483 0.4394 0.46 lt 0.ô820 0.3734 0.3%0 0.4176 0.3089 0.3326 0.3553 0.2457 O,2704 O.29t 2 0.1835 0.2093 0.2341 0. t2r9 0.1490 0.1749 0.0608 0.0e92 0. l16l 0.0000 0.029? 0.0580
PH TASSI . S. LEGAIT
TABLES NUMEBIOUES
Table no 10 (suite) ESPERAI\CE DE I-A STATISTIOUE D'ORDRE
I 2
3
4
t
6 1
€
I
t0
il
t2 r3 t4
l5 l6
lt It
l9
20
2t 22
2l 24
2t
PH. TASSI
l98t 2.207t 1.797t 1.8013 1.5653 t.5766 1.395t 1.407E 1.2588 t.27rt l.t42t l"t55E 1.0392 t.0536 0.9I'63 0. 96 14 0.86 t0 0.876t 0.7E15 0.t979 0.7067 0.t238 0.6356 0.6535 0.5616 0.5863 0.5022 0.5217 0.4t89 0.4591 0.37t, 0.!9S! 0.!rto 0,3!90 0.257' 0.2808 2.
0.r9rt
0.2236
0.02tt .0.02tt
0.0155 0.0000
0.1422 0. t67l 0.0851 0.tllt
-0.0851 -0.1422
. S, LEGAIT
-0.05t5 -0.
lllr
2.2164 2,2249 2.2331 2.24t2 2.249r r.8u3 l.E27l 1.8366 1.8458 r.8549 1.5875 1.5982 t.6oE6 l.6rE7 t.62E5 1.4196 l.(3u l.tA22 t.453t 1.463? r.2842 1.2964 1.3083 l.3r9E r.3lu l.1690 l. lsl, t.1944 !.2066 r.2r85 l.067t t.0810 1"0942 !..1070 r. ll95 0.9760 0.9902 l.0o4o _ r.0174 l.g3o4 0.8920 0.9068 0.9212 0.93s3 0.94s9 0.8139 0.t294 0.c,uA 0.8590 0.E732 0.7405 0.tt66 0.172t 0,7875 0.ao22 0.6t09 0.68?t 0.7040 0.7198 0.735 t 0.60rÉ 0.6219 0.6368 0.6552 0.67 rt 0.5405 0.5586 0.5763 0.5933 0.6099 0.478t 0.4975 0.5159 0.53t6 0.5t08 0.418t 0.4363 0.45tt o.4't5, 0.4935 0.t602 0.t806 0.4{x)t 0.4191 0.4379 0.10t9 0.324t 0.3t'46 o.tê,tA 0.!tt6 0.2455 0.2636 0.2899 0.trot 0.!!oa 0.1910 0.et40 0.2361 0.25t5 0.2761 0.u60 0.1t99 0.t830 0.2051 0.2265 0.081ô 0.1064 0. u03 0.1534 0.1756 0.0271 0.053r 0.0781 0. t020 0. u5r -0.0271 0.00@ 0.0260 0.0509 0.0749 -0.08r4 -0.05t1 -0,0260 0.00co 0.0250
347
TABLES NUMERIOUES
Table no 11 VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE X,
,
N (0,
représente l'observation de rang i dans un échantillon (X,, .. X") extrait d'une loi classé par ordre décroissant : X,,, > ...2 X,",. Cette table iournit, par n allant cie 2 à
l)
20.iesvaleursdeV(X,,,)etCov(X(i),X,;,).OnaCov(X,,,,X,;,)
L z
ll 4t
6l
!
I
2
2
3
L
I 2 2 I 2 3 , I 2 3 4 2 3 I 2 3 4 5 2 , 4 ! I 2 I 4 5 6 2
3 4 5 3 I I 2 3 4 t 6 7 2 3 4 5 5
348
0.53 1' 0.3 U3
!-
Â
7
3
0.6t17 0.5595
0.275t 0.1649
g.tÆ1
0.ô917
0.2455
o.ljto
0.10ô7 1r.3605
0.2359
O.t{?5 0.22ô!
g.lt{ I 0. t05r
0.07{2 0.3115 0.2084 0.1499 0.2868
0..u9 0.1085 0.1194 0.1024 0.0714 0.0561 0.2796
o.uto 0.1397 0.1059 0.2662 0.
lrtt
0.!919 0.1962
0.t!2I 0.09E5
0.0766 0.0599 0.O4/.E
0.2567 0. lt49 0. Ll07 0.1020 0.0Ê30
tt
a
L
! 0.2197 { 0.1656 5 0. t:lt6 4 0.2104 i 0.J729 2 o.1863 3 0.1260 a 0.094? 5 0.07lrt 6 0.0602 t 0.0451 t 0.036E 2 0.239t t 0.1632 a 0. t233 5 0.0976 6 0.0787 t 0.0632 3 0.2008 4 0. u2ô 5 0.ut0 6 0.0978 4 0.1672 5 0.1492 I 0.3574 2 0. lTEl I 0. uot a 0.09L1 t 0.0727 6 0.0595 ? 0.q91 t 0.0401 , 0"0311 2 0.225' t 0. l54l 4 0.ltt0 t 0.09t4 6 0.076t t 0.0632 E 0.051, ! 0.1E6{ 4 0.t421 5 0.1!!E 6 0.09t{ r 0.0?72 4 0,1706
= Cov(X,",*,r,X1" g-
Â
9
{
t0
5
I
l.
5 6 t I 2 3 t 5 6 t e I l0 2 !
a 5
5
ll
I
1*,r).
0. ul70
0.lt2t
0.1661 0.3443
0.ltlt
0. l16l 0.0882
0.070t 0.0584 0.04ê9
0.04It 0.03ré 0.0267 0.2145 0.1466 0. ut?
0.089t
ô 0.0742 7 0.0é22 ! 0.0523 9 0.0434 t 0. l7r0 ô 0. l3t8 5 0.l0rt 6 0.0ô92 t 0.0?ô9 I 0.0630 a 0.ur9 5 0. u7t 6 0.105t t 0.0869 5 0.1511 6 0. u56 I 0.3!32 2 0.1654 t 0.1u4 a 0.065t t 0.068E 6 0.0572 t 0.o4t4 t 0.04 u 9 0.03t1 l0 0.0294 ll 0.023t I 0.2052 ! 0. raoS
PH TASSI - S. LEGAIT
TABLES NUMERIOUES
Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
L ll
12
PH TASSI
t 2
5
I
J
4 0.t071 5 0.0864 6 0.c719 t 0.0509 8 0.0520 9 0.0443 l0 0.0371 I 0.1657 4 0.1:lr0 t 0.1026 6 0.0E59 t 0.0725 E 0.0519 9 0.052e 4 0.1$0 J 0. lr99 6 0.loæ 7 0.oE{9 t 0.0725 t 0. u96 6 0. 1167 ? 0.0992 6 0. ljtr2 I 0.3236 2 0. t602 3 0. t0c9 ô 0.0tll 5 0.0671 6 0.05ro 7 0.0477 t 0.0ct0 t 0.0354 l0 0.0305 ll 0.025t ll 0.0206 2 0. tr?3 ! 0. lJ{9 ( 0.1032 t 0.or3t 6 0.0696 7 0.05 9r t 0.0512 I 0.O.i3 l0 0.0361 ll 0.03Ë t 0. u60
. S. LEGAIT
o 12
! 3
6
tit
I
J
a 0.12t2 5 0.09E3 6 0.0822 7 0.0701 6 0.0604 9 0.052! l0 0.0450 4 0.u9r 5 o. tt36 6 0.0952 t 0.0612 ô 0.0701 9 0.0607 t 0. tito6 6 0.1096 7 0.0937 8 0.0809 6 0.1266 7 0.10E4 I 0.3152 2 0.155t 3 0.1059 4 0.0609 5 0.065t 6 0.0548 ? 0.0459 t 0.066 I 0.0354 l0 0.0t09 II 0.0269 t2 0.0229 Li 0.0184 2 C.1904 J 0. L'02 4 0.0997 5 0.0809 6 0.0ô74 7 0.0tr0 t 0.0503 9 0.0439 l0 0.ct84 ll 0.0!tt 12 0.02tô 3 0. l5l4 ô 0. u6! 5 0.094t
L !t
! 3
7
14 I
J
6 7 t 9 l0 u 4 t ô ? t 9 t0 5 6 7 E 9 6 7 t ? I
2 3
0.0793 0.0679 0.0589 0.0514
0.0{50 0.0J91 0. Lt30 0.108J 0.0910 0.0780 0.0677 0.0592 0.0517 0.1233 0.1037 0.0890
0.07i4 0.0ô76 0.1183 0. 1017 0.0886 0. u6E
0.307t
o.ut? 0.1032
4 0.0789 5 0.06(0 6 0.0537 7 0.0461 t 0.0rot 9 0.0352 l0 0.0310 n 0.0273 u 0.0219 c.0205 u 14 0.0t66 2 0.tt44 I 0.I26t a 0.0967 t 0.0785 6 0.0660 t 0.056t t 0.049{ 9 0.043ô lo 0.0382 ll 0.0337
349
TABLES NUMERIOUFS
Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
L1 142 3
.,
!.t
350
I
L
r-Â
u 0.0295 lJ 0.0253 3 0.t45t 4 0.1u0 t 0.0il1 t 0.0t6t ? 0.065, I o.otra I 0.050t lo 0.0445 ll 0.0392 tl 0.0r4t a 0. utt t o. tott 6 0.0tta t 0.0t5t t 0.06tt 9 0.05t6 lo 0.0t0t l! 0.0{4t 5 0. u7t 6 0.096E t 0.0t51 I 0.07ô2 t 0.o65t lo 0.0516 ô o.uu t 0.0t61 t 0.0t40 t o.0tl9 t 0. to90 t 0.095t I O.tOUt 2 o.t.tl I 0.100t 4 0.0t7t I 0.0626 6 0.052t t 0.o4tt t 0.0t96 9 0.0t4t t0 0.0110 tt 0.0275 U 0.014/a lJ 0.02u t{ 0.01t5
ut
L 2
lt 2 t { 5 6 7 t , lo tl u u t4 t a 5 ô t t 9 l0 ll u u a t 3 t t t l0 u u t é t I I l! ll 6 r t I lo
0.0ut 0.lt9r 0. u2ô
0.09tt 0.0764
0.o64t
0.0t5{ 0.0414
0.042t
0.03tt 0.03tt 0.0299 0.0263
0.022t
o.laot
o.rort 0.0æ2 0.074t 0.0641 0.0560
0.or94 0.o6t9 0.0!90
0.0]at 0.0æ5 0.1.it12
0.09t7 0.oE42
0.0716
0.061t 0.0561 0.o49E
0.o{4t o.0t9a 0.1119 0.0945
0.ocr6 0.071( 0.06t1 0.0561
0.0{99 0. 1059
0.0tu
0.0æl 0.0t09 0.0630
a
I
l5
7
t 16 I
L t o. t02t ! 0.0900 9 0.0t97 t 0. t0t7 I 0.2950 2 0. 1449 I 0.09E5 ô 0.0tta I 0.0613 6 0.0517 t 0.0446 t 0.0t90 I 0.014t lo 0.030t 11 0.02?t u 0.02t6 u 0.0220 la 0.0195 u 0.016t tô 0.0Lrt 2 0.174{ t 0. t19l a 0.0il{ t 0.074, 6 0.06æ t 0.0542 t 0.0475 I 0.0421 l0 0.0tr5 ll 0.03t6 u o.0to0 u 0.0t6t l4 0.023t u 0.0206 t 0. Ll6l a 0.104t 5 0.0ttt 6 0.0722 , o,o6u t 0.054t 9 0.011ô4 l0 0.0{t2 ll o.o3ô, 12 0.0146 Lt 0.0309 tô 0.02t4
PH, TASSI
. S. LEGAIT
TABLES NUMERIOUES
Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
!
D
l6
4
3
rt
PH TASSI
I
-S
L s 0.1179 5 0.0963 6 o.08Lt 7 0.0703 t 0.0617 I 0.05at t0 0.oaga ll 0.0437 rt 0.0t9t ll 0.0!49 5 0. to74 6 0.0roa t 0.0tEt I 0.06t9 9 0.0611 l0 0.05a6 lt 0.ûtr9 u o.o(tr 6 0. !0r0 t 0.0875 E 0.076t 9 0.0682 lo 0.0609 ll 0.0145 ? o,o974 ! 0.0656 9 0.07æ l0 0.0679 t 0.0t5t 9 0.0850 I 0.2195 2 0. tatt ! 0,0965 a 0.0t39 5 0.0601 6 0.050t t 0.043t t 0.03E5 9 0.0tôt l0 0.0æt ll 0.027a t2 0.0247 tt 0.022t l{ 0.02m rt 0.017t 16 0.0155
LFGAIT
B
a
l7
I
2
L
L
!
l7 0.0127 2 0.170t 3 0. lt62 ô 0.or92 5 0.072t 6 0.0614 t 0.0531 t 0.0466 I 0.o4la lo 0"0170 ll 0.0t3! u 0.0too u 0.02?0 rÔ 0.02{2 u 0.021t 16 0.0ut I 0. u2{ a 0. trl9 5 0.ot3l 6 0.070t 7 0.o60t t 0.05t4 9 0.0475 10 0.042t ll 0.0382 u 0.034a u 0.0110 14 0.02tt u 0.02ôt a o.ltao 5 0.0932 6 0.078t 7 0.0562 t 0.0ôoo t 0.053! lo 0.o4tt ll 0.0429 u 0.036t u 0.0t49 la 0.031;, 5 0. t0'4 6 0.0616 7 0.07J9 t 0.066t 9 0.0r9t lo 0.0531
l7
5
Itl
9
lll o.utE L2 0.0{31 lJ 0.03Eâ 6 0.0969 7 0.oô{ô 5 0.073' 9 0.o65t l0 0.05E9 tl 0.05!{, 12 0.047t t 0.0929 E o.oEu t 0.072t 10 0.o65t lt 0.05E! 6 0.0st 9 0.oa0E l0 0.0725 9 0.0900 1 0.?84t 2 0. u93 t 0.09a5 4 0.072t 5 0.0590 6 0.0499 t 0.&31 t 0.0t79 t 0.033t l0 0.030! ll 0.0273 u 0.0247 Ll o,at24 16 0.020t 15 0.01E2 t6 0.0t6t r7 0.0r€ lt 0.0rD 2 0. r66t I 0. 1135 ô 0.o€t2 5 0.0?u 6 0.0601 t 0.0520 r 0.045t 9 0.o40t l0 0.036t
351
TABLES NUMERIOUES
Table no 11 (sufte) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
L
!
l8
2
J
s-
!
ll 0.0330 12 0.0298 13 0.0270 14 0.0245 t5 0.0221 16 0.0197 l7 0.0172 3 0. l2t9 a 0.0992 5 0.0t10 6 0.0615 7 0,059{ I 0.0522 9 0.0a6J lo 0.o4tt lt 0.0377 12 0.0341 lJ 0.0309 l{ 0.02t0 15 0.0252 16 0.0225 4 0. l106 5 0.0904 6 0.0766 t 0.0664 t 0.05ô4 I 0.0520 lg 0.0rri6? tt 0.(xt2 u 0.0112 lJ 0.0346 l( 0.03Lt
l8
6
u
5 6 ? t 9 t0 lt u ll l4 6 7 I
352
0.02E3
0.0999 0.0847 0.0734 0.06ô7 0.0577
0.051t 0.o46t
0.(x2l
0.038{
0.0tl! 0.0932 0.0609
0-07Lt
t9
J
9 l0 t1 u Lt 7 t 9 !0 ll
u t 9 l0 tl 9 l0 I 2 3 a 5 6 7 t I lo 11 l2 lj! l{ u 16 l7 u lt 2 t a 5 6 t t r l0 ll
0.0636 0.0571
0.05t6 0.0467 0.O42t .0.08 90
0.07E5
0.0700
0.062t 0.0569
0.05u 0.oEô5
0.0172 0.069ô 0.0627 0.0653
0.076t 0.2799
0.Lt6t 0.0929 0.07
u
0.0580 0"0490 0.0425 0.0314 0.0333 0.0300
0.02tt 0.026 0.0124
0.020{
0.0u5 0.016t 0.0150 0.0132
0.0t09 0.161ô 0. 0.0853 0.0696 0.0569 0.0510
nll
0.0(50 9-9401
0.0360 0.0326
t-
1
t9
2
J
t2 0.0296 13 0.02t0 14 0.0246 u 0.02È 16 0.0202 t? 0.0181 lE 0.0u9 3 0.1257 4 0.0967 5 0.0790 6 0.0669 7 0.0580 0.05u t 0.0456 t l0 0.0410 tl 0.0371 0.033t u u 0.0307 ll 0.02t0 0,0254 u 15 0.0230 l, 0.0206 a 0. t075 t 0.0679 6 0.0741 1 0.o64t6 t 0.0570 t 0.0509 l0 0.o{5E 0.o4tô ll !:l 0.0376 lJ 0.0343 14 0.031t
5
16 5 6 7 t 9 l0 ll 12 13 la u
o.o2E4
0.025t 0.096t 0.0t21 0.071t 0.0629 0.0561 0.0505
0.95t
0.0416 0.037 9
0.0345 0.0314
PH. TASSI - S, LEGAIT
TABLES NUMER1OUES
Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE n
!
l9
6
20
l0
PH TASSI
I
J
6 0.0900 , 0.0782 E 0.0690 9 0.0616 t0 0.0555 ll 0.0502 12 0.0457 tjt 0.0416 14 0.0379 7 0.0E56 E 0.0756 9 0.067t t0 0.0608 ll 0.0551 12 0.0501 l3 0.o45t t 0.062t 9 0.07/€ l0 0.0667 tl 0.0604 12 0.0550 9 0.06u t0 0.07tt ll 0.066t l0 0.080t t 0.2t5? 2 0. ui45 ! 0.0911 a 0.0700 5 0.05t1 6 0.04Et ? 0.0418 t 0.0369 9 0.0329 l0 0.0297 u 0.0269 t2 0.0245 l! 0.0224 l4 0.0205 15 0.01E7 16 0.0ltl 17 0.0155 It 0.01J I 19 0.0t21 20 0.0102 2 0.1J96
. S, LEGAIT
L
E
20
2
J. 3 0. l08t 4 0.083ô 5 0.06t2 6 0.057E 7 0.0501 t 0.0442 I 0.0395 l0 0.0396 lr o.0t22 L2 0.0294 13 0.0268 t{ 0.02{5 15 0.0225 16 0.0205 t7 0.0u6 It 0.0167 t9 0.0147 3 0. u2t a 0.094t 5 0.0172 6 0.0655 7 0.056t 6 0.0501 I 0.044t t0 0.o{ol tt 0.0366 12 0.0ltt tt 0.0305 l4 0.0279 t5 0.0255 t6 0.0233 17 0.0211 u 0.0190 4 0.1047 5 0.0856 6 0.0726 t 0.0631 5 0.0557 9 0.049E l0
ll 12 lJ l4 u t6
0.0]148
0.0ro7 0.0171 0 .0319 0.0310 0.0284 0.0259
L!
t
204 5
lt 5 6 ? t 9 lo ll t2 Ll l4
0.0235
t6 6 7 t 9 t0 lt 12 u la 15 ? E 9 I0 tl 12 u la 8 9 l0 tl l2 lJ 9 l0 ll 12 l0 ll
0.02E5
rJ
0.o9lo 0.0794
0.069! 0.0611
0.054t 0.0491
0.o44t
0.olo8 0.0373 0.0341
0.03u 0.0872 0.075E
0.0670 0.0599
0.05{0 0.04æ 0.04{7 0.olÉ8 0.0374 0.0342 0.0E26
0.0730
0.065! 0.0589 0.0535 0.046E
0.0446
0.0tot 0.0796 0.07 13
0.0641 0.0564
0.0533 0.O4o, 0.0778 0.0703 0.063E 0.05E2
0.0?69 0.0699
I
INDEX
A Absolue coniinuité, bg, 7,l. Accroissements indépendants, 307. Affinité, 243. Algèhre, 13. Approximation, 115, 214, 236. Attraction, 282. Autocorrélation, 2g6. Autccorrélation partielle, 3 02. Autocovarianc e, 292.
Autorégressif. 31
l.
D
Décile, 78. Densité, 59, 73, 80. Dirac (mesure), 37. Distance de lipschitz, 244. 0istance d'Hellinger, 243. Distance de Paul Léuy,241. Distance de Frohorov, 244. Distance en uaùation, 242. Domaine d'attraction, 282.
E
B
Banach. I 66. Bayes (théorènel, 27.
Beppo-l-evi, 49. Bienaymé-Tchebichev, EZ, 76. Bochner. I 89. Borélien" 18. Brownien, 31 1 .
c Cauchy-Schwarz. Sl,83, I 69. Centile, 78. Gentral limite (théorènel, 227. Goefficient de corrélation, gJ, 1iZ. Coefficient de détermination, I 7g. Gomptage (mesure), 40. Convergence dans [r, 166. ,|67. Convergence dans l-a, Convergence dominée (théorème), bg. Convergence en loi, 2.l3. Convergence en probabilité, 20g. Gonvergence presque sûre, 207. Corrélogramm e, 297 .
eovariance, S2. Cramer-von Mises, 247. Cramer-Wold, 217. PH TASSI - S. LEGAIT
Ecart-type, 76. Echantillon, 154. .l3, Espace mesurable. 3b. Espace mesuré, 3b. Espace probabilisable, I 3. Espace probabiiisé, 22. Espérance, 51, 53, 7b. Espérance conditionnelle, g8. Etagée (fonct!on),46. Etendue, 284.
Evénement, 12. Expérience, I 2. Extrême, 266.
F
Famille exponentielle, 1 b2. Fisher (coefficienrs), 1 50. Fisher (théorème), I 82. Fonction caraetéristique, I 86. Fonction de répartition, 22, 72, 80. Fonetion de répartition empirique, 2S1. Fonction génératrice, 187. Fonetion intégrahle, 50. Fonction mesurable, 40. Fonction muette, 56.
INDEX
Fractile,77. Fractile empirique, 273. Frisch-Waugh, 302. Fubini (théorènne), 65. G
Gnedenko, 281. Grands nombres (loil, 223.
Logarithme itété,253. loi conditionnelle, I1. Loi d'une u.a., 44, 71. loi des extrêmes, 276. loi du type l, 277. Loi du gpe ,4, 277. Loi du type all, 277. Loi marginale, 86. lois usuelles : Bernoulli, 108.
Bêta,121.
H
llellinger (distance), 243. Hermite, 128. Henry (droite), 143. Hilbeit (espace), 169. Holder (inégalité), 1 69.
Binomiale, 1 :10. Binomiale négative, Cauchy, 140.
1
15.
Dirac, 107.
I
lndépendance, 24, 87, 195.
lnjectivité, 188. lntégrale bêta incomplète, 264. lntégration, 46, 6 1 . lnversion, I 88.
Exponentielle, 1 1 8. Fisher-Snedecor, 140. Gamma, 1 17. Géométrique, 1 16. Gumbel, 124. Hypergéométrique, I 13.
lndicatrice, 1 08.
Khi-deur 136, 255. laplace, I 92. log-normale, 135.
Khintchine,223.
Multinomiale, 1 10. Itlormale unidimensionn elle, 1 24. ltlormale multidimensionnelle, 1 31. Pascal, 1 16. Poisson, 1 09. Student, I 38. Uniforme, 1 16.
Kofmogorov, 18,243.
Weibull, 1 19.
Jensen,52. K
Kuf
lback-Leiblet, 248. M
t
Markov,
lebesgue (mesure), 39. lebesgue-Nikodym, 6 1 Lebesgue (théorème), 59 lévy Paul (distance), 241. lévy Paul (lois), 190. lévy Paul (théorème), 217 .
356
31 4.
Masse, 35. Médiane, 78. Mesurable (application), 40. Mesure, 35. Mesure discrète, 37. Mesure étrangère, 61.
PH, TASSI - S. LEGAIT
INDEX
Mesure image, 43. Mesure produit 64.
R
Mesure o-linie, 37. Minkowski, 168, 1 70.
Moment 75,82,271, Mouvement brownien, 3l I Moyenne arithmétique, I 72. Moyenne quadratique, I 71. .
ilégligeabilité, 54. 0 0pérateur, 304. 0rdre, 258. 26
s Slutsky (théorème), 21 1, 21 4. Somme (de v.a.), 194. srabiliré, 281. Stationnarité, 2 9 1 . Stationnarité laible, 2gZ. Stationnarité stricte, 2gl. Statistique descriptive, 1 71. Statistique d'ordre, 261.
N
0rdre (statistique),
Radon-Nikodym, 6 1. Happort de corrélation, 1 01. Référentiel, 12. Bésulrar, 12.
1.
T P
Papier fonctionnel, 1 42. Pearson (coefficients), 1 50. Pearson (distance), 247. Poincaré (formule), 21. Polya (théorème), 189. Presque partout, 54. Presque sûrement 54.
Probabilité, 18. Probabilité conditionnelle, 23. Processus, 289. Processus autorégressif, 31 1. Processus de Poisson, 307. Processus de vie et de mort, 310. Processus équivalent, 2 g0. Processus moyenne mobile, 3l g. Processus stationnaire, 291. Prohorov, 244. Proximiré, 246,253.
Tableau statistique, 92. Trajectoire, 290. Translert (théorème), 62.
Tribu, I3. Tribu borélienne, 1 7. Tribu engendrée, 1 6, 40. Tribu produit, 44. Type,281. V Valeur extrêm e, 266, 278. Variable aléatoire, 43, 71. Variance, 75. Variances-Covariances (matrice), 84. Vitesse de convergence, 2b3.
W
Woltowitz,247.
0uartile, 78. Ouasi-étendue, 2 84.
PH TASSI - S. LEGAIT
Yu|e,315,318.
lmprimé à I'INSTITUT FRANCAIS DU PETROLE B.P. 311 92506 RUEIL-MALMAISON CEDEX FRANCE
Dépôt légal 1"'trimestre 1990 :
Achevé d'imprimer en janvier 199O No
d'ordre éditeur : 8O5
r
/
lsBN 2.7 108-0582-0