You are on page 1of 363

Ftç

a:

---'

_

--

t-r,r.r,]l

1l

école notionole supérieure du pétrole et des moteurs

Ph. TASSI et S. LEGAIT

théorie des probabilités
en vue des applications

statistiques

,dffifl
,:*,, i

,tri'[e;Ë

t"

-l

.',:

6 {) o = o L o
o
f

o)

ffi?
.$ffiffi
/ .. tj.i.'
rll:-9.:l:11

o. c

.c

o
(D

.\

E

,#fr.&TfrIr .ri'*1H1i*'r
*;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*

o
o a
o-

.o

a f

TUTIONS TECHNIP

-l
, ll'i:

I

':, :'r- Q''|r a u

,t**jt-"\{

i
3

I I

I I I I
I I

I

I

I

i- 5l-9.21-:3il
I
l I

1l
TAS

il it

fi

352

il

{,1'

ù '') '-' i

,

.r - I r' .- "l f

't

519.
AR?

?1-:3il

TAS

INSTITUT FRANÇAIS DU PETROLE

École Nationale Supérieure du Pétrole et des Moteurs
Centre d'études supérieures d'économie et gestion

Théorie des probabilités
en vue des applications statistiques
Philippe Tassi
Directeur scientifique de Médiamétrie Professeur à I'ENSPM et à I'ENSAE

Sylvia Legait
Attaché de t'INSEE

Éotnorus rEcHNtp
27, rue Giroux 75737 Paris Cedex 15

lgg0. Editions Technip, Paris et Institut Frmtçais du Pétrole, Rueil-Malmaison

@

tsBN 2-7108-0582-O rssN 0758-147X
Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soil est rigouretnement interdite par les lois en vigueur

AVANT-PROPOS

déjà longue histoire des méthodes scientifiques montre que principale victoire du chercheur, du praticien, de |ingénieur, esi t;upprànt,.s"ge la du doute. Le scientifique éclairé remprace de prus en prùs fréquemmenio"" uttirrations comme "le résultat est ...> par des interrogations : *queile est ra probabirité pour que re résultat soit ..". Le calcul et la théàrie des probabilités jouent, joueront et un rôle fondamental dans ra démarche scientifique, d'une part en raison de ra nature aréa_ toire de la plupart des problèmes réels, d""utr" part grâce à la nécessité de recourir aux méthodes statistiques de traitement de donnée-s sans cesse plus nombreuses
et complexes à analyser.
Le déterminisme étant souvent une réduction hâtive de la réalité, il n'est plus, maintenant, d'ingénieur chimiste. physicien, fiabiriste, astronome, sans parrer bien sûr des spéeialistes de ra gestion, d" i'é"onornie et prus généràtement des sciences sociales et humaines, qui n'aient à manipurer res ài r"" modères de ra probabilité et de la statistique. Mentionnons, "onË"pt, à titre 0,""".pie, ra physique des particules : les électrons ne décrivent pas des trajectoires autour du noyau comme le font les planètes autour du soleil. Les particules obéissent en effet aux lois de la mécanique quantique, et la notion de trajectoire doit être abandonnée. De manière générale, la seure chose qu'ir est possiÉre de connaître est la probabilité de pré_ sence d'une particule en un point donné et à un instant donné.

, .L',ouvrage propose une introduction aux principales notions des probabilités dont le praticien sera amené à se servir. ll est rédigé pour des lecteurs déjà familiarisés avec un certain bagage mathématique en anaryse et en l'usage de plus en plus repându des méthodes proba'bilirt""-I argèbre. En effet, qui ira encore en grandissant de par re déveroppement de rogiciers adaptés - montre qu'une mauvaise connaissance des propriétés fondamentares des techniques est à r,origine d'interprétations parfois aberrantes des résultats. ll nous apparaît donc important d'insister sur les bases, afin de faciliter la compréhension des méthodes. La rédaction fait en outre appel à de nombreux exemples d'applications et exercices résolus
ou à résoudre.

de nprobabilité des causes>

. Le chapitre 1 présente les concepts probabilistes usuels selon I'axiomatique. maintenant classique, de Kormogorov. il'contient égarement res résurtats sur re conditionnement er [indépendanCe. et le célèbre théJrème dû à Thomas
Bayes, dit

chapitre 2 pronge re carcur des probabirités dans ra théorie. prus générare, de la mesure et présenre res principaux étéments de rintàgr"tion générarisée au sens de Lebesgue, dont ra pubrication, au début du 2o'"siècre, a permis
PH. TASSi - S. LEGAIT

une

AVANT PROPOS

approche unifiée des probabilités. Nous avons adopté cette démarche car elle apparaît pédagogiquement intéressante, de par l'unification du langage qu'elle permet et la portée des propriétés qu'elle engendre.
Dans le troisième chapitre sont regroupés les principaux résultats sur les variables aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des cas particuliers de ceux obtenus au chapitre 2. Le chapitre 4 est important pour le praticien: il fournit les définitions et propriétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applications. ll donne également les principes des papiersfonctionnels adaptés à la détermination d'une loi de probabilité au vu des données, ainsi que des éléments sur la génération d'échantillons aléatoires souvent utilisés en simulation.
Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoir donné une représentation géométrique de certains des outils de la statistique descriptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et la

régression.

Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsque l'on veut connaître la loi d'une somme de variables ou étudier les comportements asymptotiques : il s'agit de la fonction caractéristique.
Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreuses applications statistiques sont fondées sur des propriétés (aux limites,, autorisant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'un des indices les plus utilisés en statistique est le nornbre des observations: lorsqu'il est impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorise

l'usage de résultats approximés.

Un certain nombre de compléments et d"approfondissements font l'objet du chapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance, existant entre deux lois de probabilités. ou entre des observations et un modèle
théorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.

L'observation de données aléatoires fait parfois apparaître un ordre naturel ainsi un phénomène qui va en s'amplifiant donnera naissance à des données rangées en ordre croissant. En outre, depuis quelques années, on voit se développer' des méthodes statistiques utilisant des observations ordonnées, méthôdes dont les propriétés de stabilité sont du plus haut intérêt. Le clrapitre 9 est donc consacré aux résultats probabilistes particuliers à ce type de modèle ordonné.
:

Enfin, les chapitres 10 et 11 portent sur les processus, c'est-à-ciire une généralisation des variables aléatoires. Leur domaine d'utilisation le plus fréquent est celui des séries temporelles, dont l'observation varie non seulement en fonction de l'individu observé mais aussi selon l'instant d'observation. Le chapitre 1O fournit des résultats probabilistes sur les proeessus, et le chapitre 1 1 présente des exemples de processus, en particulier les processus autorégressifs et moyenne mobile très répandus en automatique et en prévision.
Les auteurs
PH.

TASSI S. LEGAIT

2 lndépendance .' 37 39 3.1 Exemples ".iriin.3 Théorème de Bayes .2 lntégration PH TASSI .1 Définirion d'une probabiliré 4.2 Evénement 2 Propriétés des tribus 3 Ouelques tribus particulières 3 5 11 12 12 12 13 3. MESURE.:.2 Mesure-image 3. 6.1 Ëxpérience aléatoire 1. TEGAIT des fonctions mesurables étagées positives des fonctions mesurablei positives 44 46 46 48 . 4. ::::' ' ".3 Tribu borélienne Probabilité sur un espace probabilisable 4.1 Application mesurable 3.1 Déf initions 2.2 Propriétér . 3. indépendance d.1 Probabilité conditionnelle 6. Exercices Chapitre 2 : PROBAB|L|TE..événernents 4 16 16 16 17 18 18 21 22 23 23 24 27 29 33 33 35 35 6. sii :. :::::::.3 Meiure.2 Tribu engendrée 3. tNTEGRAT|ON 1 La théorie de la mesure : histoire et apport aux probabilités 2 Notion de mesure 3 Mesurabilité 2. 1 lntégration 4.. S.:: 2. 40 4A 43 4lntégration .3 Tribu-produit ..2 Propriétés d'une probabilité 5 Fonction de répartition 6 Probabilité conditionnelle.. .TABLE EES MATIERES AVANT PROPOS TABLE DES MATIERES Chapitre 1 : LES eONCEPTS pROBAB|L|STES 1 Espace probabitisable 1 .

.7 Lois conditionnelles 80 82 85 86 87 91 Exercices Chapitre 4 : LES LOIS DE PROBABILITE USUELLES 103 107 107 107 1 Les lois discrètes .4 Changement de variables 2. 2.5 Lois marginales 2.'l Définitions 5.6 lndépendance 2. 1.4 Propriétés de l'intégrale 4. . 1.5 Changement de variables 72 72 73 75 77 78 2 Vecteurs aléatoires 2.2 lntégration Exercices Chapitre 3 : LES VARIABLES ALEATOIRES 1 Caractéristiques des variables aléatoires réelles (unidimensionnelles) 1.". ' ..5 Généralisation 4.7 Loi binomiale négative elassiques 108 109 110 110 113 115 2 Les lois continues 2. .' . 64 64 65 67 71 1.6 Exemples .. ' . 5. .1 La loi de Dirac 1.3 Fonctions intégrables 4. 1. . ' .1 Fonction de répartition .2 Loi indicatrice (ou loi de Bernoulli) .6 Loi hypergéométrique 1..1 Fonction de répartition 80 80 2.3 Loi de Poisson 1 .5 Loi multinomiale . 1.2 Loi gamma 2.. 5 Négligeabilité .4 Fractiles 1. 1.1 Loi uniforme 2.2 Densité de probabilité .1 Mesure-produit 8.3 Moments . LEGAII ... .2 Densité de probabilité .3 Moments ..TABLE DFS MATIERES 4. 2.3 Loi de Weibull PH 116 116 117 119 TASSI S.4 Loi binomiale 1.2 Propriétés 50 51 52 53 54 54 55 59 61 6 Mesure définie Par une densité 7 lntégration par rapport à une mesure-image 8 lntégration par rapport à une mesure-produit 8.

1 Définition ._..TABLE D.L. .q..2 Propriétés .4 Génération d'éôhantillons aléatoires Exercices Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES 1 Espaces de variables aléatoires 148 148 150 152 154 158 .2 Loi de Bernoulli 2..7 Loi normale 2...3 Cas de variables discrètes 2.1 Loi de Dirac .2 Géométrie dans.6 Loi normale unidimensionnelle 2.ES MATIERES 3 Loi bêta Loi de Gumbel 2.1 Création de lois de probabilité 4.v.une fonction caractéristique j" 1 3 Un "^".4 121 124 124 131 135 136 138 140 142 143 143 147 4 Divers 4. S.2 Les coefficients de symétrie et d.5 Loi uniforme continue 2. _.7 Loi normale multidimensionnelle 2. 1 d.. : : : : 2..3 Loi binomiale 2..5 2.1 Les espaces 9.ft" i"i'jËii"i..: 1 Principe des papiers fonctionnels 3.' 185 187 190 191 191 des lois de probabilité usuelles 191 191 191 192 192 192 192 192 1 ... 3 lnterprétation 2. 1. 165 165 165 1.' : : : : :..8 Loi log-normale 2.. 2..i.. ra tamiirËïfànentierre 4.2 txemples de construction de papier fonctionnel 3. elL.4 Loi de Poisson 2.11 Loi de Fisher-Snedecor Les papiers fonctionnels 3 _...r/ç uçù pcrpters toncltonnels :.l.10 Loi de Student 2...9 Loi de Cauchy PH TASSI .6 Loi gamma 2. . z -'' 1 .9 Loi du khi-deux 2.ailaiissement 11 Y:" srrucrure générâre . ..daÀ's des tois?u tni_oeux Liïe Stuoent I 174 175 180 185 185 Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE 1 Définition et propriétés 1. L. -.2 Lesespaces7jett'.3 Les espaces 9É et I ' ' " rob 169 171 171 Un peu de géométrie 2 1 Statistiqu" J"""riptlu"'d".. 2 Fonctions caractéristiques 2.8 Loi du khi-deux 2.4 ltry"'jmarion.. LFGAIT . : : :.. : : : : : : : : :. :. : :...

3. ' . 3 Applications de la fonction caractéristique 4 3. 4. . S.3 Obtention des moments non centrés .2 Caractérisation de l'indépendance de deux vecteurs aléatoires 3.1 Définitionsetpropriétés '. . .2 Applications aux développements d'Edgeworth et de Gram-Charlier .2 Caractérisation de la convergence en 'roi".' 5 Les lois des grands nombres 6 Comportements asymptotiquement gausslens 7 Application aux lois de probabilité classiques 7.5 Précision de l'approximation gaussienne donnée par le théorème 223 227 231 231 232 234 235 236 238 241 241 central limite Exercices chapitre 8 : COMPLEMENTS ET APPROFONDISSEMENITS SUR LES LOIS DE PROBABILITE de Paul LévY en variation de Hellinger de LiPschitz tr Les distances .3 La distance .2 Cas des vecteurs aléatoires .::::::: î12 218 Relations entre les diverses formes de convergence 4.4 Loi du khi-deux 7. .2 Théorèmes de combinaison 218 221 . 194 194 195 196 199 199 Exercices Chapitre 7 : I-ES GoNVERGENcES DE VARIABLES ALEAToIRES 202 206 207 247 209 209 '! Convergence Presque sûre 2 Gonvergeneeenprobabilité ..'. LEGA]T .3 Loi gamma 7. 212 213 3 Convergence 4 en loi . .1 La distance 2 La distance .:::::. """": 4. .1 Cas des variables aléatoires réelles 2.11 Loinormale multidimensionnelle 192 193 193 2.1 Loi de Poisson 7.TABLE DFS MATIERES 2.4 La distance 241 242 243 244 PH TASSI .2 Loi binomiale 7.1 lmplicationsdiverses ..::::::.. . 4. Seconde fonction caractéristique .""! 2.l2Loimultinomiale. .1 Définition de la convergence en loi 3.'. .1 Loi d'une somme de vecteurs aléatoires 3.10 Loi de Laplace 2.

Lois particulières de l'échantillon ?1L"' 2.2 Processus équivalent Processus stationnaires .:::. 263 263 266 267 3 Comportement asyrnptotique 3..5 La distance de prohorov 1.':..4 lndicateurs de proiimité avec Fn .1 Stationnarité stricte 2. 2 1. Chapitre 9 : OBSERVATTONS OFDONNEES 1 Loi de l'échantillon ordonné 1.3 Loijointe d..-.4 Catcutdesmomenrs des valeurs (X1py extrêmes X1l/ .TABLE DES MATIFBFS 1. ..1 Le coeff icient d'autocorrélation 3.ordre 1.ordre 261 2 262 . 2.2 eas partiiulier de X1r1 srdonné .3 Remarques diverses sur la stationnarité 292 3 293 296 296 Corrélation et corrélogramme 3.:... ..2 Propriétés asymptotiques 2. ..2 Exemples de corrélogrammes .2 Loi de la statistique d.7 Autres indicateu rs ci'écart 1.':'.un couple 2.2 Stationnarité faible 2.:::.4 Eléments sur la démonstration des convergences en loi 6e Xlny La loi de l'étendue 4.:::.1 Définition d'un processus . 2.TASSI .2 général L'étendue W 284 284 286 289 289 289 290 291 291 Chapitre't 0 : NOTTONS ELEMENTATRES SUR LES PROCESSUS 1 Définition d'un processus aléatoire 1.1 Propriétés à distance finie 244 245 246 249 251 2.1 Convergence d'un fractile empirique 3.S LEGAIT 298 PH.'.3 Les lois des extrêmes 3....1 Définition de la staristique d.2 Convergences des valeurs exirêmes 3.8 Retour sur les convergences Application à la fonction de répartition empirique 2.:..:.3 Vitesse de convérgence : loi du logarithme itéré 2.6 Comparaison de distances 1.1 'Résultar 268 273 273 275 4 276 280 4. ... " 252 252 3 Ordres sur les variables aléatolres 253 254 258 261 26a.

. . LEGAIT . ..3 Système de dé termination de (h) 4.4 Un exemple 5 Les opérateurs 1 B et F Chapitre 11 : EXEMPLES DE PROCESSUS ' ' Le processus de 1. ' 4.1 Définition .2 Etude du modèle AR(P) .2 Le processus de Poisson ' Poisson indépendants 2 Les processus de vie et de mort 3 Le mouvement brownien 4 Les processus autorégressifs 308 310 311 311 311 4.2 ProPriétés d'un MA(q) 5.1 Définition ..S.. 5. .1 Définition générale 4. .3 Remarque sur le lien'entre AR et MA mobile ':''' ' 319 320 323 327 355 BIBLIOGRAPHIE . 312 319 319 5 Les processus moyenne 5.1 Les processus à accroissements 1. 302 302 302 303 304 304 3O7 3O7 3O7 4. 4. TABLES NUMERIOUES INDEX 1C PI'J.TABLE DES MATIEBES 4 Fonction d'autocorrélation partielle . .2 Le théorème de Frisch et Waugh ' .. TASSI .

imputsion de "i. von Mises) fondée sur la norion d'expériences répétées. ité en tant que nombre compris entre o et r #Àuià et aux Grecs. montrent que rincertain. la formule de Bayes. ra probabiFermat et Pascal connaissent implicitement l'axiome "pp"Ëitr" au 17. ce^s applications aux science. pour la facilité de compréhension. comme nous re verrons au chapitre 2... Laplace. sinon probable.usàge. une situation à venir sera décrite comme <pos_ sible.. PH TASSI .nogolJu.e probabiliste.int"rprétation fréquentiste.uivent que et en astronomie. t.Chapitre 1 Les concepts probabilistes Dans de nombreux domaines relevant ou non de I'expérimentation scientifique' le langage courant fait de plus en plus appel au vocabulàir. "ouu"nt cette approche définit une structure purement mathématique.et |usage des probabirités en physi_ f si le concept des probabirités remonte aux Egyptiens Ouétef"t. mQme impropres. LEGAIT 1 1 . ra théorie asymptotique."t".en i.(Keynes. voit se développài'le conoitionnement. De nombreuses approches du concept de probabirité ont été proposées : on peut citer. Elle n'est cependant pas sans liaison .'Raison supplémeniaire pour fonder sur des bases solides la théorie et le calcul des probabilités. Dès ta iin oe ce siècre tes tois des grands nombres de Bernoulli. Koopman). siècre. avons choisi la présentation abstraite deé axiomes oe ror. on parlera ainsi d'événement (plus que probabreu . r'interprétation fréqueniiste tIàprace. savage).. développer son enseignement et vulgariser ses résultats [:f.p* il. A"fàrann. la'formaiisaiion suolective ioe rinetïi. De telles expressions. sous t..aréatoire. engenrant d'ailleurs de nombreux barbarismes ou'impropriétés o. prennent le pas sur le déterminisme. ta pronaoitite.ri. Le lecteur intéressé par l'étude comparative de ces diverses fondations des probabilités pourra se reporter à r'ouvrage de T. peu interprétable a priori pratique. Le 18" siècle ""irt"niià"pLrance.":"rr. un match de sérection en rugoy opposera res upossiblesn contre les uprobabres) ... apperée (point de vue de ra théorie de ra mesure>. mais ne la requiert point.S.t.Ëï. la théorie logique (carnap). o'aâ'oitivite et la notion de probabilité conditionnelle. par exempre. On gardera "u"" néanmoins en mémoire cette dernière.approche purement mathématique (Kolmogorov).iË#. r. ôt àrr sciences sociaau 19" siècte. Fine. I etc.

Q esi le référentiel.LES CONC EPTS PFOBABILISTES 1 1. peuvent donc être associés tous les événequi le définissent'.4. une fois l'expérience effectuée. dont on peut dire. 5' 6 }' b) Soit l'expérience consistant à tirer au hasard un individu dans une population de taille N. représentée par un identifiant s. si un individu d'identifiant I lf < t ( N) est donné. on peut considérer l'événement complexe E défini comme tous les échantillons de taille n contenant l'individu L Cet événement E est donc la réunion O"s Ci-] échantillons vérifiant cette propriété. De même.2. par opposition. le voltmètre indiquera une d. "' N} S! l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé Cff échanti llons potentiels. les mêmes conditions d'eipérience conduiront toujours au même résultat de 2O volts. d : 1 à N .6}. s'il a été réalisé ou non. si l'un d'entre eux est réalisé iors de l'expéments élémentaires rience. U : Rl : 20 volts. comjosé des résultats élémentaires {2.esuret la différence de potentiel U s'exerçant entre les bornes d'un circuit de résistance R: 1O ohms et dans lequel circule un courant d'intensité 2 ampères. Ce type d'expérience : sera qualifiée de déterministe. E (complexe). Si le montage de l'expérience est parfait. Un élément a. l'événement E le sera également.1 | ESPACE PROBABILISABLE Expérience aléatoire En guise d'introduction. d'individus tous différents. dans l'épreuve du lancer d'un dé' si O est l. LEGAIT . 6] des résultats numériques possibles.p. Exemples a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé régulier .ensemble t1. 4. On note par Q I'ensemble de tous les résultats possibles pour une expérience donnée . 2. Ainsi. est un événement aléatoire complexe. 5.3. l'ensemble des résultats possibles Q est l'ensemble des 1.3. 4. ll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements) A un événement 12 PH. une expérience sera dite aléatoire si son résultat ne peut être prévu a priori.l de O est dit résultat élémentaire. le résultat étant parfaitement déterminé par la connaissance des paramètres qui la régissent (résistance.d. ou l'espace fondamental de l'expérience. un événement tel que *le résultat d'un lancer est pair. TASSI S. nous allons considérer I'expérience physique qui consiste à . intensité). le résultat du lancer prend ses valeurs dans Q : {1 . Tôutes choses égales par ailleurs.2 Evénement élémentaires : on peut concevoir sanS difficulté un oévénement complexe> comprenant plusieurs résultats élémentaires. O : {1.

il n'y a aucune raison pour que A soit un An*r.riu". contenant Q. évé_ 2 PROPRIETES DES TRIBUS cette partie est composée de rappers mathématiques sur res tribus. Cependant' dans une structure d'algèbre..yn€ lN + n !. c'est-à-dire que .-4 est stable par complémentation.. c'est-à-dire une suite te'ile que "st An cA A€ ."r/ . a de mêmenatureilemenr d'une suite décroissante.& : g (A). la stabilité par réunion ou intersection dénombrabtes n'est pas assurée . intersection et comprémentation (et donc par réu_ nion) .. e ou a-argèbre.de rimite événement.4 a'""e sii"cilàê. de Q.r4 o C o: Y An: lim / An.absence de toute idée a priori sur res événements susceptibres d'intéresser .tC./7 est apperé espace probabirisabre (on dit aussr espace mesurable) . Définition 1 parties de Une tribu (ou o-argèbre) sur |espace fondamentar e vérifiant .. i.LES C ONC EPTS PROBABITISTES Notons . ensemble des parties Oe O. Le couple &.4 + Ae u4 Â désigne le complémentaire . B€. à rfi. .(/ o. est une crasse . et Certaines démonstrations font l'objet d'exercices simples.4+ A)B€. peut être omise par le lecteur bien au fait des propriétés de ces structures.4. LEGAIT .* Ona. et stabre pa'..dl de o Q€.4+Ae .& eststable par réunion dénombrable : Ane .4"rt-un" crasse de parties. . un élément de -4 est un événement. des conditions de manipulation des événements ont conduit à doter -4 d'une structure d'algèbre.il. Propriété I Une tribu est stable par intersection dénombrable.. ainsi deux nements A et B sont dits incompatibles si A O B: e.S. une suite crois_ sante d'événements de . sont vérifiées les conditions suivantes : oQtr-'.""perir*nt. PH. Historiquement. ou n pour la limite I e e. àinsi. pourra prendre .'..e. :A Ç .& € . si (A"t . Remarque : la théorie des probabirités a son vocabulaire propre .i.41'ensemble de tous les événements aléatoires en |. TASSI . cette non-stabilité <aux limites" conduir à munir de A dans e).Ë.

-4 est une tribu sur O si et seulement (croissante ou décroissante' au si. (An)ne ru étant une suite d'éléments de ''&' on a: ô An= (uA"). LEGAIT . on sait que O € ''4'et que '4' On e '4 ? mentation. Démonstration o CN:.&.L& est rn" . et (U4) €.4.-& une algèbre de parties de Q . est donc stable par limite croissante' o CS : . par A la Soit (An)n une suite croissante d'événements de ''&' et notons On.& est une algèbre stable par limite croissante' est stable par complé . lim/An.&.LES CONCEPTS PROBABILISTES En effet. é"iiâoti'Àn) une suite d'événements .B€ . a-t-on nE.& d'après b .&estunetribu.événement lim inf An est réalisé si tous les événements An sont d'événements sauf un nombre fini. n.n Propriété 2 Q€.4estunetribu.A : B Ct Â. une suite d'événements de '4: on définit AnetlimsupAn:1n9* An. le résultat est établi. lim sup An est réalisé si une infinité An est réalisée.onsaitqueA : Y . De même. avecACB: B-AÇ"'(' Cela découle de B . Théorème 1 soit . Propriété 4 Soit (An)n61*.'4.& d'après b et c.& étant une algèbîe.. nn Or UÂ e." stable par limite monotone choix).i"r. Propriété 3 A. S.An € .Vn € lN. or U An e "{puisque .* PH TASSI .alorsliminf Anet timinf À"-: I "!* lim sup An sont des événem ents de "4' réalisés L.

4. puisque est stable. rapport à O' et par - par * ra comprémentation par la complémentation par rapport à O._& est une algèbre donc stable par '' Y : lim '/ Bn .4. o soit c e Gn. I C lN. en notant. * est une tribu sur e. pour distinguer. e.comme Ae.. pour tout i €'. o ViC l..4 puisque on .. &i ce qui implique que. .S. O € &i o A€ .. Ae. (Anl €. . trace de .lC : : A o o' Soit (Cjn61.4 e Vi€1.doncYa"a G Ga. on a A appartena ntà .-&i <+Vi. une famille de tribus sur e.& une tribu sur e. ll en résulte que la classe PH TASSI .&."nI-A!O' de .4}est unetribu surO. par passage à la limite croissante. Par construction.* ..n i€l .. une suite d. et donc U Ane . . o Ae -4 o Soit (AJne une suite d'événements ae k: h{ vi e t.. u An e . € Théorème 3 Soit . _ 9^ m(n A.e Démonstration r.. {ClC : Ann.Y o". . 1 LEGATT b ..esl ' une tribu &.4. Bn : . to::l. on peut écrire: et : Y cn: An o Q' Pour tout n€ lN t" : .ÔQ' . appelée Démonstration o O' : OnO'.'4.LES CONC EPTS PROBABILISTES réunion finie : . y O" e &..& ..& Théorème 2 :::A.éléments 6n..c* est. O. (B j est une suite croissante d'éréments de .&.e Ga.C O. : La classe 9n. Oe .Oest une tribu.4 sur e.. i Bn € . uAnc .&.-& l l i I I I A4_.-4.

4. plutôt que de munir v' dïe g{Ol. i : 1 à n... n }' U(: A') : : Aie". . est également une tribu. c'e:l-È nements. O } est une tribu sur Q. n])] est une tribu sur O' Dérnonstration oO:. e c o'].9p.Aieil l: I R c(I i€! A. i€u lk k i€lk dsnc .& est une tribu sur O' 3 3. LEGAIT . de f). .A. Considérons une partition finie (A'). soient intéressantes en tant qu'évépartiei d" n.4: {I i€l At te g (11.e. appelée tribu grossière' I la tribu la plus fruste sur O. dite tribu 3.2..>. on prè{ér"ra définir -4 comme étant la plus petite tribu contenant est admissible' Montrons qu'une telle définition 16 PH TASSl S. ensemble des parties de o. si f)' Théorème 4 € &.I OUELOUES TRIBUS PARTICULIERES ExemPles est o I : \ A.LES CONC EPTS PBOBABILISTES Corollaire. la classe . A. 9= oengendréen {Q.2 Tribu engendrée Supposonsmaintenantque. appelée tribu discrète. la plus fine existant sur Q. Alest de façon évidente une tribu. G n.i O de la tribu a'événements la plus gross. torrunt rn" "'G "iu.t/ i€l c Soit (l*) une suite cje parties de { 1.. e g@l. telle que : : i:f n A..-pouruneexpérience-donnée'seulesquelques a" g @'). = O. o soit A par A.) : >-4e. .. = { C/C e .

... I Ç g{i1.rÇ g({1...&i.An) : {. : er iAr.4. it-t Ai. n})} En effet. et est e l. ll est 17 PH.". t€g({1...n})} éraitunetribu.An] où I A. i g "n @) ..An) c I I... I e gU1.n})} ie vte g({1. re résurtat est démontré. n}). ...us" de parries de O.à présent sur des esBaces f.....). . c. fl est iR.. dans les situations usuelles elassiqures.... contient G..3 TrËbu borcéEiemme [-es notions d"aigèbre ou de tribu oni été définies jusqu.est d'après re théorème . . - il existe au moins une tribu contenant G.A1 o G : {A} avec A + e et A * e : o(Gl :{@.... ou lRp. n}}} L'inclusion étant étahrie erans les deux sens. donc I * e àuii"..An) étant une tribu contenant chacun des événe_ o donc: I {.."nt la prus petite des tribus contenant les A.. au z. elle contient chacun des A.è. LEGAIT . Définition 2 on appelle tribu engendrée par une crasse G rJe parries de prus petite tribu contenant G-. A' e o (Ar' "'' An) Ca(A1.. i\éen_ rnoins. . . o. On ta note o (Gl... :e: i:1 o(4t..est une tribu qui. c'est-à-dire sans aucune référence à i'eirr toporogie..A.A} oG:[Ar."l"ffnrrU.) amorBhes..? o. : i€t (At. oonc eltJFJn. ments A.An) ona monrré(théorème4)que{ r Ai. c'est-à-dire I'intersection de toutes les e ra tribus contenant G.À. A. 3. contenue dans chaque tribu . Exemples o G: [Q]:a(G):tA. et considérons toutes tes tribus (... au lf{.I. :. TASSI S.LES CONC EPTS PROBABILISTES i € t.

telle que a) P{O) : 1 : 1B PH TASSI . La classe des 1x. Eans le cas particulier usuel où O est lR. chapitre 2) et la théorie des ensembles. xl. 4.-. [x. . la tribu borélienne. y[. .41. On appelle probabilité sur (O. Kolmogorov (1933). par la xp[.S.' on notera .tO. Celui-ci propose une axiomatique cohérente au niveau du langage mathématique. mais dans laquelle l'interprétation concrète des concepts n'apparaît pas. fondée sur la notion de omesur" norrnaliséeo (cf. on appelle boréliens les éléments de la tribu engendrée par la famille O des ouverts de Q : I : o(Ol A. l. Les hypothèses portant sur les événements ont été énoncées dans les paragraphes précédents. Plus précisément.-4' . sur lRp..LES CONC EPTS PROBABILISTES donc fréquent de supposer qLle Q est un espace topologique.41 l'application P : . x1. LEGAIT .4 l" t ibu borélienne de 4 PROBABILITE SUR UN ESPACE PROBABILISABLE Comme nous I'avons annoncé dans l'introduction. yt. Remargue. notée 9l est engendrée par les diverses classes des intervalles :l* co.-. 1 l. lx. x[ ] iouera par la suite un rôle De même. x et y étant deux réels tels privilégié. + -1. et même métrique . Suivent les axiomes portant sur la probabilité elle-même.9 des fermés de I s'appelle la tribu borélienne. entre autres. Définition 3 soit Q un espace topologique . lR. la présentation de la probabilité adoptée est celle de A. que x < y. + -[. la tribu borélienne classe des pavés ouverts ]. frP est engendrée. y].1 Définition d'unc Probabilité Définition 4 Soit un espace probabilisable (O.-. il est alors cohérent de souhaiter disposer d'une tribu d'événements compatible avec la topologie de Q." x ]- -. ]x. on imposera que les ouverts et les fermés pour la topologie de O soient des événements. ll est évident que fi est également engendrée par la classe . ouverts { l. [x. xt I x .

:i" 'u condition (b) soit vérifiée' Alors. 1l telle que a) P(Q) = 1 c) Ae . (An) est alors le reste d'ordre n de ra série : une série convergente car u. : Les conditions c et d portent respectivement les noms d'axiomes d'additivité. ll est aisé de montrer que res définitions 4 et 5 sont équivarentes : oor|. P(Ar-Ar*1): P(A') . A.ii. O.n-Ar*1). \ p (An) : o. de continuité monotone. LEGAIT 19 . m: I ll s'ensuit que lim \ p (An) : PH. Au plan des notations. soit une suite (An) décroissant vers æ ce qui implique An: _r.: m:1 -:. m=n : P(An) P : _Im:n p(An.*r).-A'. Be e.1"l:o9ï::. I'intersection A O B de deux événements sera aussi notée AB. -Ar*1) eui est I. n:1 " r"i:l et de a-additivité. &).. p(A-) n' Les conditions a et b portent respectivement les noms d'axiomes de normalisation Définition 5 Soit un espace probabirisabre (o.llB: e: p(A+B) : p(A)+p(B) d) soit une suite d'événements (Anldécroissant uér" @'.tES CONC EPTS PROBABILISTES b) Si (An)est une suite d.r/ .41 l'application p : .. .S. TASSI u.&.(A.IO. en prenant An : a P(A.) : . - p (A. on appeile probabirité sur (e.événements disjoints : p( .. + Arl : P(A1)+ p(Az) @ : D'autre part.

e: I (A+B) : f (A)+f (B).r }. .. An. L'axiome(e) implique que : P (J ll s'ensuit . ASoit Bn n:1 . telle une population de personnes physiques identifiées par leur numéro nSécurité Socialeu ou une population d'entreprises identifiées par leur numéro SIRENE. la suite Bn converge en croissant vers A) converge donc en décroissant vers @ . on peut l). A toute partie A de O. P (Bn-A) - P(A) : En outre. avec I et J - I disjoints. de Q sont a : 1à N. I'axiome A) converge vers O quand r * oo. {cdr.ll est évident que l'on a : (al.P (l) : P (Bn) : Vn. à valeurs dans t0. AnB 1 .. où tous les "individus. on associe la fonction f définie par discernables par un indice identifiant s.l): P (J). : A * f 1R1 : cardinal de A N Montrons que f est une probabilité sur o f (Q) : o A€ g P. 91A1 elant fini. Be g(al. lim Bn.. LEGAIT . est bien une probabilité. si écrire J I + (J - let J sont deux événements de .r. par construction. . La suite {Bn - (d) implique que P (Bn D'autre part. TASSI S. 20 PH. A : : a m<n A. en étendant l'axiome (c) à un nombre fini d'événements P (Bn) : '| m:l et par conséquent : >. P (Am) limP(Bn) n : æoo m:1 ç: >_ p(Am) :p(A) :p( m=1 Exemple: Supposons Q fini.LES C ONC EPTS PROBABILISTES b) Supposons vraies (c) et (d). et soit on note : (Aj une suite d'événements disjoints . 1 l. g@l)..Ae-o : / A.& tels que lC J. ces deux conditions suffisent à montrer que f.

TASSI : .Ii .alors p(B-A) : p(B)-p(A) > Propriété 7 (probabilités totales) O. Propriété 5 P(@) Propriété 6 : 0 A. immédiates.S...)+.2 Propriétés d'une probabilité Les démonstrations sont. LEGAIT ..(A..'uA") : r.nAn) Propriété 8 (sous a-additivité) t'?o"' =.4: ACB. Généralisation : formule de poincaré P(A1 uAzU.. AB On peut écrire : AUB:A+(BoÂ)....+ (-1)n+1 p(Arn.ôA.'soit (Bn) la suite d'événements définie de la façon suivante Br : A' Bz : AzO Â.. D'après l'axiome (c) : P(AUB):P(A)+p(BnÂ) P(B):P(AnB)+p(BnÀ). on obtient le résultar.LES CONCEPTS PROBABILISTES 4. P(AUB) + P(AnB) Démonstration = p(A)+p(B).Be . Bn: An O An_t a . n Â1 PH. en général. . B:(BoA)+(BnÂ)....!r P(Ak)-. P(An) Démonstrafron.. En éliminanr p (B n Â.

-' x[) Remargue On trouve fréquemment. alors P \ P (An)' 2) Si (An) est une suite croissante d'événements de limite A. 5 fr. contienl en particulier tous les intervalles de type l. Bn C An. La différence entre les deux définitions dépend de P ({x}). en particulier dans les ouvrages anglo-saxons. F (x) : P (l. Définition 7 FONEflON DE REPARTITION fr'l. on écrit Bn = A .-. . LEGAIT . probabilité de l'événement élémentaire {x}. la définition F (x) : P (l. il suffit de se ramener à la condition (d) en écrivant An . alors P(A) Bn : lim/P(An)' Pour démontrer 1). P) porte le nom d'espace probabilisé.-4.A. Bn \ @ donc P (Bn) \ 0 et par conséquent P (An) \ P (A). De la mêrne façon. On appelle fonction de répartition de P l'application F : lR Par : - tO. TASSI . Y On Comme. on a P (Bn) < ll s'ensuit : P(U An) : P(UB. : Définition 6 Le triplet (A. pour tout n.-' x[. xl). on sait que Soit P une probabilité définie sur l'espace probabilisable (lR.) : n"'nà1 (A)= lim _>" P(Bn) ( > P(An) n Remarques 1) Si (An) est une suite décroissante d'événements de limite A. PH.S.LES CONC EPTS PFOBABILISTES Les événements(Bn) sont 2 à 2 disjoints et U Bn : P (An). Propriété 9 La fonction F est croissante. Les propriétés de F résultent pour la plupart des propriétés 5 à 8. 1l définie vx € lR.An.

S LEGAII . xn[) = F (xn) converg" àn vers P(l.l_æ. .. Soit (xn) une suite de points de lR telle que lirn converge en croissant croissant ^n:x. On appelte probabilité de A conditionneilemeni a a. xlcl_ *. 6 IN DEPE N DANCE D'EVENT rVr ÈrVrS PROBABILITE CONDITIONNELLE. x[): F (x). x1-- .'. 6.. L'axiomatique de Kolmogorov contient une spécification de la probabilité d'un événement conditionnellemeni a . y[. x]--. xl [x . .. . muni de sa tribu d. xo) : P (l-oo. o. x[) et donc p(]_. x. Remargue De façon analogue on définirait la fonction_de répartition d'une probabilité définie sur lRp.ooutiùté tonortionnele de A sachant que B va être réalisé (ou est réalisé) le'nombre : P (AiB) : P(AnB) P (B) PH TASSI .n uutià.. ' ^oti x.j7''Pconlenantlespavés(J--.r/tetque p(B) ) O. xn[) vers'.oo. soirx( y.|[ f (xr. o lim F (x)= O x--oo.. """. Propriété 11 lim F (x)= X*+oo. .-. alors la suite (J__.4. Propriété 1O La fonction F est continue à gauche. Ces résultats proviennent de p (lR) 1 e = 1 et p (el : O. p) et_B e..o 1. ta propriété 6 étabtir te résutrat. . p.1 Probabilité conditionnelle Définition 8 Soit un espace probabilisé p.LES C ONC EPTS PROBABILiSTES En effer.événements æ n trrwuuEverrerlrenrs .

& car AaBCB P(OîJL : P(B) :1 P(Q'B) : P (B) P (B) P(A/B) Soit (An) une suite d'événements disjoints.P(B) 24 PH. Remargue En écrivant P (B/A)..P(A) La définition de la probabilité conditionnelle peut être généralisée à un nom- P(An B n C) :P lA/Bn C) . P(B a C) = P (A/Ba c) . on a : n B) P P ((U An)a (U An.. Soit (A./Bl est bien une probabilité sur (A.n.P(B) bre fini d'événements : : P(B/A) .). TASS1 ' S' LEGAIT .). VA e .. une famille finie d'événements. *41: < < 1.. P (C).. et en tenant compte du fait que commutativité./B) n : : nnn P (B) B) P (U (An P n B)) : P (Ann P (B) B) (B) P(AnaB) n P(B) . on établit : P (A Ô B) = P (B n A) par P(A/Bl. nnn An) : PlA.P(An) 6..el n P l\.P(A"/ n 'i:3 r:r i:2 ' A'). on établit aisément : P(. P (B/C) . Comme les événements (An sont aussi disjoints. i : 1 à n.2 lndépendance Définition 9 Deux événements A et B sont dits indépendants si : P(AnB):P(A) .ES CONC EPTS PBOBABILISTES Vérifions que la fonction ainsi définie est bien une probabilité sur O Q.L./ et A.

. Q:{(i.. * cl : 2".gest indépendante.. PH TASSI - c sont indépendants 2 à 2...événement ucondi- Définition 1O i"i[J:":ii!".. ir ci* Exemple . : B:(jest impair). S LFGATT 25 . . .Ji"'" e rarmée des n événemenrs A...1 retations. <L'information> apportée sur l'événement conditionné par l.cl : 2n . o.1 dit parfois que tes événemenrs A1.!. An sont uindépendants dans teur ra b) Pour savoir si famiile .zB) : p (A) tionnant" est nulle.. . j)... .c3.. Les événements A. i:1à6.n.it. porturer que probabirité. ik) de (1... j:1à6} On considère les événements : A:(iest impair). p (Aii) Remarques _""". c) n.. e:(i+ jest impair).Air rl (Aik) : k pour tout k. On vérifie facilement P(A) : P(B) : P(AB) = P(AC) P (ABC) : P(C): 172 : P(BC) :1/4 mais ra famiile (A. . faut donc vérifier : Soit l'expérience consistant au lancer de deux dés. B et pas indépendante. n).tES CONC EPTS PROBABILISTES Remargues o L'indépend3lq" esr une propriété des événements er de ra o si P (A) et p (B) sont tous d'eux strictemeni poriiil.. Ao . pour toute suite (i1.e est dite ..est 9.3. B. indépendants revient à imposer P : A er B sont (B/A): P (B) ou P (A.

Propriétés 12 (Ai1 n ./ 1)Si A et B sont deux événements indépendants alorsA et B le sont aussi.. t(o.lim n. P : vk € tN* v (ir. n o...S. ik). on a : P( n Démonstration n€lN* An) : n P(A") neN* rr P( n Comme kk : n_P(An) An) n:1 " n:l décroissant kn An est une suite d'événements n=1 " koo vers n=1" Ô An' on a : P( a A^)\P( n " n:1 n:1 An) " d'oùt : P( n A. ainsi que A et B..1-P(A)-P(B)--P(A)P(B) = (1 -P(A))(1 -P(B)) : P (Â)P (B) Propriété 13 Soit (An)neru* une suite d'événements indépendants. n= 1 P(An) PH.J k i!. k-cê n:1 " k-æ n:1 1 P(An) = n... TASSI .LES CONC EPTS PROBABILISTES Dé{inition 11 (An)ne N* est une suite d'événements indépendants si . on obtient encore une ' suiiet'éuénurn"nts indépendants en remplaçant un nombre quelconque de A' Par leurs comPlémentaires. 2) Si (A^) est une suite d'événements indépendants. LEGAIT .) : n' 'n= zo æt<kæ lim P( n An) =. Démonstration P(AnB) : PtA-AnBl: P(A)-P(AnB) = P(A)-P(A)P(B) : P(A)(1 -P(B)) : P(A)P(B) P(ÂnB) = t -P(AUB) = 1-P(A)-P(B)+P(AÔB) .

1< i < n. P(A pour tout Ai appartena nt i=1 G. indépendantes. S. .. P(À) ll suffit d'écrire l'événement B sous la forme d'où : B: : (BaA) U (BnA) P(B/A]P(A) PB/AIP(A) + P(B/Â)P(A) p(A/Bt.. . : par 6. 1{ i s< n.soitsrabre tntersection finie.1. LEGAIT .de Définition 13 sont indépendantes si Dans le cas particurier où res G. pourtout 1 ( o ( 9...Air . ik) de (1.g.. a Aik) : k e tR.i s n} une famiilei ( nparties de . el un espace probabitisé et soit {G.) ' à Le théorème .sontdes sous-tribus de : . engendrées..) . indépendantes <ê g. on a : P(A/B) Démonstration - P(B/A) P P(A) (B/AI. .*/. sont indépendantes si : ..4. o . res G.3 Théorème de Bayes Théorème 6 soient A et B deux événements de probabirité strictement positive . pour toute suile (i1.4.... Les parties ? 14 i ( n.. l <i<n..dreile que .) : ti i-l p(A.! .. n) et pour tout événement A. A..LES CONC EPTS PROBABILISTÊS Définition 12 : Généralisation Soit (Q. wur -ijJ Lou| k. P(A) + P(B/À). qui suit propose une condition suffisante d'indépendance bus de tri- Théorème 5 de Pjl'_!{t 1=.P(AnB) : P(B) PH TASSI . 1 ( i (n} une famiile de parties de .

ll existera done des rnéthodes statistiques bayésiennes liées aux probabilités bayésiennes. P et lancer la ième (Ar/Bl : P P (B/A2l P (A2l (B/A2l P (B/A1) P (A1) + P (42) + P (B/A3) P (43) 1x1/3 1/2x1/3+ 1 x1/3+ 1/4x1/3 4 7 L'importance du théorème de Bayes dépasse très largement le simple énoncé du théorème 6. V1 n événements formant une partition de Q. tels que P <i(n. Soit B l'événement (obtenir pile". Ar.TASSI -S LEGAIT . d'où son interprétation cornme nthéorème sur la probabilité des causes> très importante pour l'étude de l'environnement causal B d'un phénomène observé A. i = 1. 3... 2B PH..pileo soit de 1/4... une <cause> de A. . On tire une pièce au hasard. En effet./B) = : j:1 Exemple n (B/Ai) P (Ai) la seconde a 2 côtés npilen. l'événement <tirer pièce. et A. et porte sur les concepts. F(A.))O: (B/Ai) P P (Ai) P (4.2. Ouelle ? On dispose de 3 pièces de monnaie : la première est parfaitement équilibrée. le principe bayésien revient à calculer P (A/B) à partir de probabilités portant sur B. An.. sur la cause. la troisième est truquée de façon que la probabilité d'obtenir.LES CONC EPTS PBOBABILISTES Généralisation Soit A. en un certain senS. s'il existe un lien de type causal entre A et B. c'est-à-dire si B est. on la lance et elle donne est la probabilité d'avoir lancé la deuxième pièce "pilen.

p (A.).Û. llr e1..n. à calculer la probabilité qu'une lettre au moins soir distribuée à son destinataire réel.....fiA. ------> k:l ' ' k! n-oo t-e-r IASSI S.. n A. n}.. .l)n*iR 1R.... p(A) : ln-k) ! ## (n 'l a.o A. lndication 1l.UAn).t.. 0n te munir des résultats possibles de l'expérience est l'ensemble des permutations de ia piobabitiré : de VA€ P(A d'où : 3 (ni. les rendant indiscernables. calculer sa limite quand n croît... LEGAIT . t....tr p (A.t:t: -A l'événemenl .. 1ème leftre est distribuée à son desrinataire P(ArUAzU... > .+ (.k' t I ' Vk€ {1'2' '.l)k+l çk n nl k) ! +. ..1 i:l ' :n ' n -r:n (n-2) nl + (. n...t'*t (i1'.= nl PH.0na: P réei>. Comme les n lettres portent n noms différents. a ik) '1 An) Ce résultat est connu sous le nom de formule de poincaré..): ..)+ . i (-l)k*. 0n cherche ( U A.+.+ (-l)n'l -1..EXEREICES 1'1 un facteur doit distribuer n letlres dans n boîtes aux leftres dont on a retiré les plaques.) :2 p (A.nl + . le facteur suppose qu'il y a une lettre et une seule distribuer dans chaque boîte et il dispose donc les lettres au hasard. + i:1 ' '' i<j 'r I rk' n (- l. L'ensemble o {1.

2 soir Q : { 1. a].. n Card A f-l Card Adivise B: Card A x Card B. '.. : P(A) P(B) lk€O. 1 n (CardAn B< Card A) doncn estnonpremier. .. K: {q {p. n Apk} : P oJ car les p.. n:kp et Ao: {p. ...2p. 2.k} et B : {k.. P:' I PH TASSI .S... Soit A : {1. premier. onabienP(AnB) 3)a) Sipdivisen. k + p . p diviseurpremier de n} n I (n) = Card e Q/q est premier avec }' K alors Oo'.kp} d'où.. 2. A et B indépendants. pk sont élérnents de b) MontrerquerP(n) lndications : n l'l (l--)' I p€K P llLafonctionV:91A1-t0. k + 1... B) e g (al - t@. P ({i}) :.4. LEGAIT . : I Trouver une condition nécessaire et suffisante sur n pour que : (A. . a) Montrer que si p. Oo* sont indépendants.LES CONCEPTS PROBABILISTES 1. sont premiers : k _ " Pr Pr lI car Pt '. Réciproquementsi n estnon k> 2 et p2 2.. PiAi: 'p' p {Ao' kkl -:-= kp n (Ao' 1 -p n .1)et vérifie:Vi€O P({i}): 2) S'il Card A n I ' n existe A et B indépendants (A et B non égaux à @ ou O) alors on a . . n : kp...11. Pn divise n : n 30 PlAl .... 1) Délinir une 2) probabilité P sur O telle que:Vi€ Q... 3) 0n note : Vp € Q A'p : {i€Q/pdivise i}.1 } .. nl (n } 1).P(A):estuneprobabilitésurO(cf..

LEGAIT .LES CONCEPTS PROBABILISTES b) Soit B : [q € Q/q est premier avec n]. IASSI S. PH. $: d'où: P(B) n P€K À p =?(n) = n n p€K PtÀI p' :n p€K (1--) 1 p puisque les Ào sont indépendants.

.

au concept de mesure. Daniel .in_ tégrale par rapport à une mesure. Kolmogorov (1933). ses travàux servent de référence jusqu'à ra fin du 19" siècle et au début du 20' siècle. Huyghens. Autre personnalité importaîte pierre : Simon de Laplace. ce chapitre. Jean. les principaux résultats rattachés "u". Huyghens définit. En 1733. ne marquent. présente un ensembre cohérent de concepts probabilistes.J. Nicolas. publié en 1718 énonce la loi des grands nombres. qui peut être omis en première lecture.tation mathématique abstraite. Citons Jean Dieudonné : n. commencés en 1778. Jacques Bernoulli. dus à. bien sûr. de Moivre"oni""tandi. it Éùntie egaiement ra première forme du théorème central limite. Le 18" siècle est marqué par la contribution de la famille Bernoulli -Jacques.. en 16s7. obiient la loi normale (ainsi qu'elle sera dénommée bien plus tard par poincaré) en approfondissant les calculs de la loi des grands nombres et en utirisant |approximation asympotique de n ! trouvée auparavant par rui-même et stirling .rri"r. Le déveroppement de ra notion de fin du 19" siècle et du début du 20' siècle donne naissance à une mesure de ra théorie dont la probabilité ne peut que profiter. PH TASSI S LEGA]T aa ter à 1525 (cardano) . r'espéranc" j. ni I'achlvement ni les débuts de cette science.Chapitre 2 Probabilité. dans son -Àr. mesure.. et qui seront repris et utilisés dans la suite de l'ouvrage pour les probabilités. en particurier. le cercle vicieux de la définitionfd'une probabititél en termes de cas équipossibtes. telles que celles de Poisson. fournit aux lecteurs familiarisés unu . Les premiers écrits sur le calcul des probabilités semblent remon- 1 reprenant nombre de résultats obtenus par Blaise pascal et Pierre de Fermat.r. LA THEORIE DE LA MESURE : HISTOIRE ET APPORT AUX PROBABILITES Les fondements de ra probabirité mathématique présentés au chapitre précé_ dent.rn" variabre aréa_ toire prenant ses valeurs sur un nombre fini de points. et des variables aléatoires à loi absolument continue telles que des variables aléatoires nor-atii. . intégration L'axiomatique de Kormogorov (1933) qui a servi de base pour re chapitre précédent repose sur des concepts mathématiqués générau^ qr" uJni les mesures et l.. celle-ci en étant un cas purti. I'apparition de variables aléatoires discrètes mais à nombre infini de valeurs possibles..

les concepts de mesure et d'intégration applications. comme les cas où f.converge simplement vers f. puis. il montre que l'on peut définir sur cette classe {qui portera plus tard le nom de classe nboréliennen) une <mesure> p vérifiant les propriéiés. rappelons en effet que Keynes. Peano. qui anticipe le concept d'égalité presque sûre du paragraphe 5. pour définir dans tous les cas I'espérance E (X) d'une variable aléatoire X. la seule façon de déf inir l'intégraie partir de Ia.. En 1881. IR et lRn. Ainsi. f norlnleman-n-intégrable. ainsi apparaîtra la théorie de la mesure abstraite définie qlitt"tont vite . il fallait l'intégrale de Lebesgue et ses extensions. 1887. avec les théorèmes de décomposition de Lebesgue-Nikodym et l'existence des densités. des probabilités que . 1884. ainsi que ses -Sous l'impulsion de J. b]consistait à utiliser les sommes de Riemann-Darboux. plus précisément sur [0. à tgZO.. Mais c'est Emile Borel qui va introduire la notion d'ensemble de mesure nulle (1894). En effet.PROBABILITE MESUFF. d'un ensemble apparaît ensuite dans de nombreux travaux . Néanmoins. TASSI .additivité et de différence: (ACB:s(B-A) : s(B) - s(A)) La théorie de la mesure de Borel va alors ouvrir la voie à l'intégrale de Lebesgue. En 1901. qui va permettre à I'intégrale de Riemann et aux jusqu'à la fin [robabilités Oe Oépasser certaiRs contre-exemples gênants. Le développement de la théorie de la mesure va y contribuer fortement./es savants y décèlent un relent d'astrologie que von Mises est encore plus direct en affirmant (1919) que n/e calcul chimie. 1892). à partir ciu concept de mesure introduit par Borel. d'une fonction f sur un segment du 19" siècle. Jordan. Par exemple. ies définitions sont différentes selon les auteurs (Cantor. et. à partir des années trente. vues au premier chapitre. celle *d'égalité en général. la théorie de la mesure et de l'intégration ont jeté les bases d'une formalisation homogène et cohérente des probabilités. f n intégrable au sens de Riemann pour tout n. et des probabilités n'est pas une discipline mathématique"' La probabilité étant un cas particulier de mesure se voit donc. La nmesure. en 1921. L'achèvement de la construction des théories de la mesure et de l'intégration peut être daté de 1g30. 1 ]. Radon. de s . t'integrale de Riemann s'était vu opposer des particularités où elle était inemployable. H. qu'il . C'est cette construction de l'intégrale de Lebesgue qui est présentée dans ce chapitre. à partir de la longueur des intervalles. en 1882. Lebesgue donne une théorie de l'intégration plus générale que Riemann. Harnack introduit la notion d'ensemble discret. et la théorie des ensembles mesurables (1897). en y introduisant la rigueur du raisonnement mathématique . ou intégrale généralisée. LEGAIT .S. appliquer une grande partie des résultats de mesure et d'intégration' PH. Travaillant sur lR. lNTEGRATION ont amené graduellement à une idéatisation mathématique qui engloberait toutes ces possibilités.mesure. écrivait ou d'alÀ propo. A. il privilégie la classe des ensembles ouverts.ur un ensemble Q quelconque muni d'une tribu (1913)' C'est cette notion de mesure absiraite qui a permis le développement de la théorie mathématique des probabilités..

MESURE. AJ : . n € lN*. (ouvA. lim i g(A^) n"n : g (tim 1 A ) PH._A^)n' :. LEGAIT 35 . 1) g est addirive . une apprication lr défini e sur dans lR*. d'une mesu re p te nombre (positif) p (a). deux à deux disjoints : tr(.."iRî-: [0.... non identiqu"r"nreô"i"'à-+ *.æ.on appere mesure positive sur (Q..'. Définition 2 Le triplet (o.. on dira mesure pour mesure positive. TASSI - S.éléme nts de .. 'i/.. est une mesure si .PROBABILIIE. !r) est appelé espace mesuré (ou probabilisé si g est une Une autre définition de la mesure peut être donnée Définition 3 soit (Q' '''/y un espace mesurabre. Définitions Définition 1 NOTION DE MESURE soit (Q' 4 un espace mesurabre..4) toute appticarion 1u définie sur "4 a u"ràlis Oa.tt t:l i_1 . B) e .! gfn.:)"u?"?.l:l?il..1""* c) Une probabilité est une mesure de masse 1. AnB :e. p(A-) n=1 n=1 ' '"n' Remargues a) Par la suite.Andeuxàdeuxdisjoints 2) V (An) suite croissante d.p (Q) peut être u*".r/. probabitité). + oo] vérifianr l'axiome de a_additivité : Pour toute suite (An) d'éléments de .4à vareurs V(A. . tt(AUB):1l(A)+s{B) u \Q.. INTEGRATION 2 2.4.

irn r s r*1.I PROBABILITE. alors. en passant à la limite n!' 36 : '(Ar.. + (An-An-r) +'. deux à deux disjoints .4 dont la limite est U AL' tr k= 1 Ona: lim 1p(Bn) : g(lim l Bn) : ll(U Ak) c'est-à-dire' Or .. v.. : - An-. si An 1 A. LEGAIT .r) + l(Al) /(An-Anet donc : p(An-r) car An-r C An An-1 +(An-An_r) g (A) :An d'où : = lim k*oo Ét (Ar) b) Réciproque : Soit (An) une suite d'éléments de . ont : /(uAk) / est additive donc : nn 1l(U Au) : k:1 ^ : k=1 I_P(An) et.. ll(An-An-. TASSI . d'où s(A) or: : s(A. INTEGFATION Montrons que les définitions 1 et 3 sont équivalentes : a) La a-additivité entraîne I'additivité de façon triviale' De plus. est une suite croissante d'éléments en ^k vvt v.S.) + nlru(An-An-') tl : u(An) : - n'A nl. + (Az-A.e v.ooq tI t de ..r éléments de .) p (u Ak) PH..) avec Vn. MESURE... An +. A : A.B = U A.'4.'4..s Ju. deux à deux disjoints' n.

existe VA p({ull r : { 1..(A)=1siar€A ô. On définit l... ta mesure si Q est réunion g(cD Pestuneprobabilité. p En effet :s (A U e) : (e) = (A) < O. tetsquepÀJ 1 sera dite a-finie It e P: dénombrabre <** v n.'l = : al€Aôl sur r.*/7 to_ute mesure o on dit que 1. (c'est-à-dire si p (A) + p @1.2 Propriétés 1 Propriété Tl s'il existe au moins un événement A ter que / est non dégénérée).ur (1: s(A) :Ér(AOl) dénombrabte appartenant à _dvéiitiant p @ . e &. est une mesure (c'est même une probabilité). qu. 4 € tN. (A)-f si u É A ar. est concentrée Exempte. S. 2.ir / _ti : ô-et tete e.. n 1r Une mesure g sur est dite finie.r € e. (o. Exemple Soit a.4. . g est appelée probabilité tt(l):1 uniforme sur { 1. n} V1 <i(n pUit) =].PFUUAUTLl' L \ltSuRL TNTFGFAIIO\ Définition 4 d'événements(An). dite mesure de Dhac au point S Définition o on appete mesure discrète s. Propriété 2 V(A.2.4..upar: V A€. n}. 2. ô. TASSI.p(AUB) :p(Al+u a) _s(AnB) 37 LEGAIT .application 6. ..B) PH. ô. ïi ulôr (+oo... + oc.

IASSI .-41 et : LÀ^ P^ est une probabilité sur @.. si2 n:. la ôondition 3 k : g (An) est f inie.tir"ti* o"''tnisuiàs ou oË pronabilités. . INTFGFATION Propriété 3 ACB + ll(A)( s Propriété 4 (B). + -..PROBABILITE.Alors lim\g(An) : l(A)' En effet.') mn : I p (A. ll s'ensuit : - An) / p (An - Al + s(A*) La condit'ion g (Ak) p(An) / 1t(Anl - lt(A) oo fait que l'on peut simplifier.t : Ànln (An. S. ^n^ :. alors P : > .1n /n est une mesure sur 1A' '41' . soit à établir la o-additivité de g æ : : ):I 'u('n.. n < + Démonstration ' . n e lN. alors p PF]. une suite de mesures sur (O. Propriété 6 : Composition de mesures Soit (gn). si (Pn) est une suite de probabilités sur (o.4\ Cette propriété permettra Iàî.'':1Am' n Ànqn (IAr) " " m nm . '*/7 et (in). (Ar - An)/ (Ak rr (Ak - A). Remarquons que pour une probabilité.' la .1. m En particulier. MESURE. est toujours vérifiée. n C lN' une suite de réeià positifs. s(UAn) (Ig(An). nn Propriété 5 soit (An) suite décroissante d'éléments de .il existek'telque p(An) . Vn ) 1.4 de limite A .). LEIGAIT . on suppose qu'.

(ta..À est une mesurecontinue.bl) .S.!kp la..3 Mesures sur (lR.n+11et.4.ç( . Egalité de deux mesures .À ({aJ) Remarque De la même façon. frly: in(.t-t. fr. intàrrËiion tini".b-a. }.J) :. b[) : i (ta. TASSI À JaLb.À prolonge la notion de longueur..b. bl) : 2) Y aC lR. b]y. fr') toute mesure p vérifiant O : Vx€ a) Mesure de Lebesgue lR. gî/l Définition 6 on appelle mesure continue sur (rR..n+tl) : n€Z : 3) Va. on définit Àu. .4) co:incidant sur G.a i O donc.t: A. par une famiile sur (e. et est continué. Propriétés 1) .. b. estengendrée 17 de parries . .-ai) 'l 39 . o si g et v sont deux mesures a-finies elles coincident su( . mesure de Lebesguq sur . alors elles sont égales.!. INTEGRATION Théorème 1 . 2. arors En particulier. La mesure. &) co'incident sur les intervalles. LEGAIT .à (la.y la mesure i définie par : i(la.47 un espace mesurabre ter que -4. bl) = .a < b on admettra I'existence et l'unicité d'une telle mesure. (lïk.b. MESURE. stàote pur. si deux mesures finies sur (lR. t=l i:l PH.l) r r : n i:l (b. Va.à est a-finie : tR: 9_ln.tr'n.i fla.mesurabtes de e. p({x}) : On appelle mesure de Lebesgue sur (lR.PROBABITITE.

&. Une application O' est dite mesurable si : f :Q - v A' e -4'.1. lNTEGRATION b) Mesure de comptag" On définit sur (lN.. La mesure une mesure discrète sur (lR.Réciproquement:si loest mesurable.. Propnélé 7 Soit A C O : A e . C'est au nombre d'éléments de A. frl puisque boncentrée sur lN.4 l. .4 1.Montronsque loestmesurable. MFSUBE.& l.' } est une tribu .. est mesurable de lA. A' € . .&'y c. lN .4. . TASSI .1 (B) . Si A * : x:o * ôx'6 masse de Dirac en x.1 (B) e . dite tribu engendrée par f. LEGAIT :Qe .4'e 1o g.4 et 1o estmesurable.1 Application mesurable Soient (O.4. gc (A) est égal p^ s'appelle la mèsure de comptage.&l et (O'. SoftBe &: oSi BcontientOetl O 1 r Si B contient O er pas 1 o Si B contient 1 et pas 0 DoncVB e &.4i rendant : {f-1 (A').4 1.S.'lrdeux espaces mesurables.t (B) : Q e . alors 111 ({1}} : A e -4. c'est la plus petite tribu f mesurable.1 {B) : A € .L Démonstration Soit A e . notée a (f).t te) : A e .4 f-1 1. r' 1. gc est une mesure d'après la propriété 6. g lNll l'ètre p" : xC (N ). ou: Définition 8 f' iA'l e .4. x €g 3 Définition 7 MESURABILITE 3.PROBABILITE. . o Si B ne contient ni ni 40 PH.'&) dans (lR..

4.2<espaces mesurables oit .4 Démonstration : o(6. C A.r/)et (O'.. ..) puisque f' (.. Si A Propriété 8 Soient @.. 8.r/7 all est .1 C . o g-i ( ç6. etf :e * A..&.O'contiÀue est mesurable.1.) € o(t-1 (çqTt on montre facirement gue fi rest une tribu.a1.y par f.4.&') + o(f-. (G. LEGAIT . - 1n..) C propriété B)d'où t1 1G.4. -- o (l-' (G')l : f' (. INTFGRATION Vocabulaire.S. e . (.y1 : I-.4 v a € tR. . est engendrée par uneclasse G'departiesde e'.PFOBABILITE. f mesurable <+ f-' ( G. f-'(o( G'D C tn ( g) C o(f-1 1G./-mesurabre. on dit que A esl -ol-mesurable.4. MESURE.y1 pardéfinition de fir.4. PH. -4 et o (t-1 ( G)l C .y C . . (A. .4'l où.*... En outre. leurs tribus boréliennes.. @.l) c o1t1 1. (propriéré 8). VA.d.) € r.y la o Réciproquemenr : si f-' ( G. o Si f esr mesurable.4. est engendrée par ra crasse des Soit Q et Q' deux es^paces topologiques.d.&.4) -. Propriété 9 : Critère de mesurabilité Soitf : (O.4'l : t-. ..-4. (G) C o6-1 1G..^.&. donc f1 c. contient G./f A.&'y Ae. TASSI .4 Exemple !1e 1 (J ..) C. intervalles Théorème 2 aoolication f : (o.4.après 1.ators. En effet est mesurable si et seutement si . dite tribu induite de o 1f-1 1G..€ G't-. Touteapplicationf :O . @ (G)l Démonstration .-4 et . G.y d'où: o(G')C8. o Soit 8r: {A' C e. G' C. â) l--.)l C.4+ 1-' (G'l C t' (. f est mesurable.1 est une tribu.@'. f-1_-1 .

.9.&' et ï1 G4'l C . of)-1 ç4 il C . i € l. i € l.4:'l et deux applications t-' Démonstration (a (g)) : a (gof) et si f et g sont mesurables alors gof est mesurable. On munit Q'de la tribu engendrée par les (fi).:l:l. 42 PH. . . P". ]VESURE.(S)) donc (sofl-1 G. f of est mesurable. [' ç4 ill c -4 i€t € I (f of)-x (fi il C . (f .S.PROBABILITE.ul. a(gof) - (gof)-' G&"1 : f-l [g-t (4"11: f-l (e. (A'.t{ iel o 11 ç&'7 c '4' <+ f est mesurable. Propriété 1O : Critère de mesurabilité Soit (Ei.:":.1.4.!. [' <+ Ftgil]l c '4 l f-' [a( !. . q' çni)l] c.04 Théorème 3 Soient trois espaces mesurables (O. f :O-Q'et g:Q'-O": . c f1 G'{') C . LFGA]T . f of est mesurabte <+ Vi o . "4'l est mesurable <+ Vi€ l.4' et gof est mesurable. On note / l'ensemble des ouverts de O et O' l'ensemble des ouverts de O' : 9).4"1 Si f et g sont mesurables s" k&"1 C .il./).r4.rl). une famille d'espaces mesurables et (f i)i€. i€l I I f : (A. TASSI .47 Démonstration Vi e l. - @'.d tel <+ f-' [ !. =à f mesurable (d'après la propriété .lËï. c'est-à-dire de a p us o"n"I?":ïH.& e ol'f-''. des fonctions de Q'dans E. INTEGRAT1ON Démonstration : o(O) et "4' : o(O'l f est continue de Q dans O' <+ f-l @'l C O =+ f-' @') c o @l : -4.

.4 sr (:A'J : : :zp{f_1 .d.r. MESURE. En particulier. à condition qu. 9. ta. gf est une ""àï""ii"" (A.\--' . ou univariée (v. f une apprication mesurabre de (o.4) * lR. fr) O) - (rR.) e .d. ou un vecteur aléatoire de dimension n o si(Q'. k. p) un espace probabirisé. er (a'. g1zy.4r " 'vi (o" ."1'l : (R".) .rl') esttout ou partie de (2. ou n-variée. &7./'t. . . -{') un espace probabirisabre.. ou unidimensionneile. rN Si (fn)ne Définition 9 : Variable aléatoire soit (o. '4' ') un espace mesuré."--''-" V A' € . En effet: a un sens puisque t-1 (A. iNTEGRATION Théorème 4 a) si f et g sont deux apprications me_surabres de (e.rt fg sont mesurabtes de e.dite mesure-image depparf.)} est à valeurs dans IR* par construction o Soit (A'n) une suite disjointe d. p{f-1 (:A. g. 4 _ (tR.S LFGA|T 43 . fr. si lim fn : f existe. pf (A') : p{f-.2 Mesure-image dans soient @. on appelle variable aléatoire une application mesurabte i oetinie s".&. X est une variable aléatoire n_dimensionnelle.r. alors f est mesurable.événem ents de pl . 3. pf c mesure sur .X est une v.&'. i"{.PROBABII ITE.4' Notations x-1 A') Ç -4 o si (o" .) alors supf inf fn.r arors f + g."1. ne prennent pas des valeurs infinies.) o Si (O'.a.eiles n. v? ". v A' e . est une suite d. oo oerinit J l'".n)} tt{> f-1 (A.r/r : (rR. discrète. kl'i valeurs sur (e' .n)} PH TASST . . . _{.4.a.X est une variabre aréatoire réeile. rim sup f rim inf fn sont mesurabres n...applications mesurables de (O.n)} (A.

3 o Tribu-Produit 11 Définition Soient (O.).. (l quelconque inclus dans lN).let oonnote' . X une v.!..: _ @i o La tribu-produit des . ''4'l o on par X appelle loi de probabilité de la v.PROBABILITE.4. des espaces mesurables. i € l. nespacesmesurablestelsque &r: o1 G.4' o Soient @. P) un espace probabilisé . est la tribu engendrée par les (pn ). e .=T=" A'AeG i PH.4 iel. o n: . n.' LQr&rl..a.. Par abus de langage. INTEGRATION Application : Loi d'une variable aléatoire Définition 1O . : o ( l) . On note . icl ' @ il.4. 3. MESURE. LEGAIT .r. @'. i:1àn. (O'.-' 1.0(. . px (A') : p (X-1 (A')) Notations X-t (R') : {u € A / : x(ar) € A'} : {X € € A') A'} o On écrira souvent px (A. i€l .."t Pn. X la probabilité image de P V A.a.. TASSI S.&i). notée @ &.=knE: 1.) : p(X o On donnera fréquemment à une variable aléatoire le nom de sa loi de probabilité.l ' i€l Théorème 5 : Cas d'un produit fini de tribus o Soient a € G..ll ..4'1à valeurs dans notée Px.l" projection (r. ) un espace probabilisable.. définie sur (Q' .e r de O sur Q.

PROBABILITE.!.l n .oâ.. o-l t-d.8. INTEGRATION Alors : l(i(n ' En particulier : A . TASSI &i: o (. G{t) C o ( n 61 t' "i ' i:1 Vi:1àn..S. )rt i:1 donc: G. " . 1 n 'etn p-. MESURE. e o( n n I r .*T*n -.. @(G)t .-{. G. Démonstration Soit : A e Gi.*2n p.4 I Vi : 1àn n p-.. n oou: i:1 n n G. ç4à) .1 t' tribu-produit est engendrée par res pavés mesurabres..4.€G.) C o ( n c1 .: o ( n 1(i(n ' l(i(n on dit que ra . I o( n G) C a i:l Réciproquement. .I..s(nrli rc1 c r t.ll .) | o-l lG.l @ . donc: 8 PH.O.!. t| c. donc : n A.-4..VA.4.i . (Ai) .l.oi.C a " 1=<i(n . LEGAIT . montrons que 1(i(n .te1 :Ai X.i: ..=o ( n 'l(i(n ' e. : .

1 Intégration positives Définition 12 INTEGRATION On se place. l: I *. f :. (x. ) o) 46 PH.&) * (fl si et seulement si V i € I f. à valeurs dans un espace produit f : (O.PROBABILITF. ne prenant qu'un nombre fini de valeurs x. &. i 1 à n. est mesurable.fi:1 - n.: fr'z el A Théorème 6 : Mesurabilité des applications Une application 1<i<d Qi. iet (fi (ar))ie r est mesurable ll suff it d'appliquer la propriété 10 aux fonctions pn.e g. fr. pl' des fonctions mesurables étagées On appelle fonctiotr étagée une fonction mesurable f définie sur :(O.4 valeurs dans (lR. dans tout le paragraphe. Notations Soit a : Ai : f-l ({x.})' A' e -4 ' f : . 4 4. 1o. TASSI . .1.S. to. INTEGRATION corallaire g. dans un espace mesuré @.il).._t.. g fi'ni. MESURE.9. ^' I| n 6* est I'ensemble des fonctions étagées positives' Théorème 7 (sans démonstration) Toute fonction numérique positive est mesurable si et seulement si elle est limite croissante d'une suite de fonctions étagées positives' Définition 13 Soit : r e é*. LEGAIT .-r. ..

.) . INTEGRATION On définit : I Remargues ldp : I i:1 x. t| : On suppose.À€lR. La quantité J f Op est appelée intégrale de f par rapport à p. ' PH.ators e 8* et J(. ). "' to' :.:yj l(B. O A) 11 e 8*. 1)Si A €.4. p(A) : ! 1a dp 2) On fait la convention 0 X (+ -) 3) O si f =.. TASSI : i:1 J-r J :-r t-t I I .:r. que . ge 8*. l(A.dont ta définition est intrinsèque au s'ens où elle ne dépend pas de la spécification choisie 1t-1rs : pour f.sif (g ators !f dp (. n x.1. n:.f fldp: À jlaU ^f 2) f € 8*. ge 6*. LEGAIT .PROBABILITE. fl ryl uj lri x.r.1'. MESURE... to.]. 1) Soit f Démonstration 1) f :.) | r. y.S. ll(A. l:l On peut alors écrire que : A. 4) Onnote Propriété J fdp: ! 1ofd1t:. *. sans perte de généralité. cequi donne un sens à ta notation I I a a. atorsf +ge g* etJ(f +g) dp : !tap + lsdtt Si . l(A. 1r.).l"Sdp. = Q: j:1 I A.

I gdtt : I ldtt + -i (g -fl dP "i(s-ïdtt2O J sdtl21ldp i' '..ril' t € 1. lR*' t'- <t alors : J fdÀ:.) f (f + g)d/ Iij 4*. Exempte: On munit (lR. f (ti) i(lti-r..j1 t(ti) (ti-ti-1) ce qui revient à calculer une intégrale de Riemann' 4. MESURE.l) :.rt(Ai nBj) +> lrtuln 'rt t tap + "[ sdll s 2l g: or: d'où f +g-f -f € 6.tt* l'ensemble des fonctions mesurables positives' PH.PROBABILITE.. n t. LEGAIT .I.I. INTEGRATION d'où : f +g: nm i:1 j:1 (x. TASSI _ S. nB.t. Soit : g'l n de la mesure de Lebesgue t: .+Y. f (ti) I rti.) oo.2 4B lntégration des fonctions mesurables positives On note .

une suite croissante de fonctions alorsJlim lfndg de = lim I! fnd1t. n : lr-art 'n -r n=O " ra cette propriété est une apprication directe du théorème g de Beppo-Levi à suite de fonctions croissantes 9n: Lemme de Fatou Si (fn)ne rru : p:o n fp est une suite de fonctions mesurables positives alors : et: i liminf fn:tim I inf f_€.4L* o_æ p>n p J (tim inf fn) dp ( tim inf (. n € IN. J (nll dp: À I tdp 2)îe "4L*... I (fn)ne ru e g*. On définit t tdp : sup g€8* s<f _f gdrr Théorème 8 (Beppo-Levi) soit (fn).1" sd1.. "lt teile que rim l tne . l(f+g) dp:ltdp+lgfp V.. INIEGRAT|ON Définition 14 Soit f une fonction mesurable positive. ge.croissante. d'après le théorème 7..tr.ifn ds) PH TASSI - S LEGAIT 49 .. I lap : Propriétés 12 lim 1 Jfn dp 1)Vf e .r est une suite de fonctions de .PROBABILITF. MESURF.*.À e R./(.1(. f ( g + [ fdp( Propriété 13 Si (fn)ne rrv .n:O r^ dtt: . si f lim 1 fn alors : e . g€ "(/.* f: En particulier./(*./L* r.

PROBABILITE.l{r*o} - sont mesurables puisque les ensembles {f f : f* .S. fr. . .'4. @. | (tim t inf f^) dl/ : lim 1 "i ( 'If fo) dl n pln ' Pàn vp 2 n "i ( ilf fo) dr ç Jfo dtt.i{rro} f_ _ _f . . pàn d'où +J(inf f^) dp( inf lr^dp p>n ' P2n ' : J (lim inf f^) d/ ( lim 1 n'np>nPn inf I 1^ dp: lim inf J fn dg 4. p) dans lR' est une fonction linéaire' PH TASSI .Jr att Définition 16 f mesurableestintégrablesi J En remarquant que équivalentes.g) l'ensemble des fonctions intégrables définies sur lQ. MESURF.f-.. : } 0} et {f < 0} sont f est dite intégrable (ou g-intégrable) si 11*dg<+oôetJf-dp1+æ onPosealors: Itatt: îr* dp. lfl : f* + ltl dg < + æ' f-.11) est un espace vectoriel sur lR et la fonction de 'C (O. on r.|.1on[. f* I 1.41à valeurs dans définit les fonctions : et: f* . Idp "4. .&." que les deux définitions sont Propriété 14 On note î (O.'41.. INTEGFATION Démonstration Par application du théorème 8 (Beppo-Levi)./-mesurableset et f f* = f . LEGAIT . on Définition 15 soit f une fonction mesurable définie sur (o.3 Fonctionsintégrables B.

MESURE. INTEGRATION Cas des variables aléatoires réelles Définition 17 SoitX:(A.PROBABITITE.intégrale Propriété 15 Soient f et g deux fonctions mesurables telles alors f est intégrable. p) .I f-dpl < .4.8. TASSI . E(X) : -lXoP 4. Sif est intégrabte. ll quelil < S .f ftdp + ! r-dp : I ltl Propriété 17 : Inégalité de Cauchy_Schwarz Soient f. -i lXl dp < +*) . pour tout réel !(t+lg)'dtt>o Propriété 18 Soit f une fonction mesurable intégrable .. t" aû (1 s" ap) ll suffit d'écrire que.a.( S donc: I f* dp ( -f sd1r ( +oo J {. si g est intégrable. on appelle espérance de X la quantité : p_intégrabte(i. alors : dp ("i f sds)' < (1 ..!n.e. LEGAIT 51 .ll +apl En effet : II tapl : l"f f*dp .dp ( "i gdrr ( +æ < "i ltl ap.S.À.4 Propriétés de l.y unev. g mesurables. st{lfl )a}t< 1rildp a PH. de carré intégrable. suffitderemarquerquef* et: Propriété 16 ( g et f.

il. LEGAIT . Soit une v.PROBABII ITF.n1 sera dite intégrable si : \ llfll ds ( +oo : (f.t t) .&.a l1{l. lRn .onécrit f I f dtt: (J fidp) (i : 1 à n) o X: (Q.a.). o Une fonction f mesurable @.E(X-Eg))2 P(lx-E(x)l > + E2 Démonstration llsuffitd'utiliserlapropriétél8avecf Propriété 2O : lnégalité de Jensen : (X-E(X))'. telle que X et alors : intégrables. rappelons-le.a. X telle que (X E {X))'soit intégrable' À. a: €2 et g: P' soit p : (p (x) soienl lR une fonction convexe.r. fr)1 étant un vecteur aléatoire de coordonnées i:1 àn: /*'\ "l (X')' X:l 52 l\ \ \1 I \x n. . lR É * {P(x))> P (E(x)) 4"5 ll Généralisation Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn.r. INTEGRATION Démonstration J lrl os d'où : : . . r/v\l \.l/)-* fr.l Jrl.lrur lfl ds + J1lrl<ar lfl ds >'l dtt rlrl>ut lfl ltl os >. équivalentes)' (1R"./ I PH- TASSI S. i: 1 à n. p\ * (1R".ll désigne une norme sur (toutes les normes sont. MESUBE.l=u} dp: ap({lfl > a}) Propriété 19 : lnégalité de Bienayrné-Tchebychev sa première démonstration est due à Tchebychev et date de 1863.. X une v.alors: o UnebasedelRnayantétéchoisie.

.PROBABILITF. .est_à_dire f I dénom_ s(A) Alors : : ar€Atll : p({a}) et toute fonction absolument f convergente ar€l mesurabre est intégrabre si ra vf e "u.. gt1 F": : n:O ôn : Une fonction mesurable réelle f est /c_intégrable si J lrl cs.. fr) on peut montrer que si une fonction f est intégrabre au sens de Riemann sur un intervalle b].n..l Oe < + oo.n:o b) lntégration pat rapport à ta mesure de Lebesgue sur (lR.é LO. c. J x.nesure de Lebesgue et : PH TASSI . on\ \ I I x"ae I 1 4. Ia.S. Le vecteur-esBéranee est E(X) : ('" \. arors f est intégrabre par rapport à ra .6 Exemples a) lntégration par rapport à une mesure discrète Soit un espace T":yr. On a alors I rdp": i. lNTEGRATION X est intégrabte donc : si J I X.* lfap: : f(u)p({wll série r r (4 p (uil u€l : est Application à la mesure de comptage sur ( IR.. : : i^ tr(n)l < +n:0 \ c'est-à-dire si la série de terme générar f (n) est absorument convergente.. Bour tout l= 1 à n.". /) ret que g est discrète. ]\IESURF. élément de ay'. { brable. . LEGAIT 53 . VAe -d.

oo absolument convergente .S' LEGA1T . o* 5 NEGLIGEABILITE C'est une notion cousine de "l'égalité en généralo citée au paragraphe 1 ..). pl un espace mesuré. pour tout € > O. i. Définition 18 Un ensembleAest ditg-négligeablesi f Be .S (x)l > e} esl un ensemble discret. lNTEGRATION J1a. Définition 2O Une fonction mesurable réelle estp-négligeable si est g-négligeable. bl f d : -i3 tl*t o" De même sur la. Définition 19 une propriété n définie sur o sera dite vérifiée /-presque-partout (/-p. IdÀ: lir. P. Harnack définit l'égalité en général de deux fonctions f et g si..i3tl^t :r|.&. b[ {..) si I'ensemble des ar € Q pour lesquels elle est fausse est pr-négligeable.4. .r(B) : 0. 5. on emploie le qualificatif npres- 54 PH' TASSI .'l- J!t1^1 or: lim . AC B et. P). Soit (Q.p. en 1882. L'apparition quelques années après de la mesure conduit assez naturellement à la négligeabilité.t.t4.PROBABILITF. : {ol Î(ul + o} 0 tt{ul Î(al * 0} : Remargue Dans le cadre d'un espace probabilisé que sûrement" (p. MESUFE.1 Définitions . {x/lf (x).s. on montre que f est intégrable par rapport à la mesure de Lebesgue et : J.e.

p. (à condition queVc.p. I : f* . MESURF.p.)existe).PROBABILITE. deux suites de fonctions réeiles mesurabres . o lim sup fn : lim sup gn /_p. TASSI S. o lim inf fn = lim inf gn p_p.*..p.p.p.{arl fM* 1) : (ar) : (c.p.p. pr./(. Démonstration On suppose que (o.ensemble des fonctions mesurables. Propriété 22 soient (fn)ne ru et (gn)n€N.2 Propriétés Propriété 23 soit f une fonction mesurabre réeile intégrabre définie sur est finie g-p.r) + -1 + oo1 Sif €.r.f-. J. n 5. LEGAIT 55 ..Vn.rlf (ar) : : et Propriélé 24 : trl f' M. &. o lim gn : lim fng-p. on définit la reration * par * f g si g /r-p. c'est une relation d'équivaience sur l. }NTEGRATION Propriété 21 f: soient f et g deux fonctions mesurabres. Vn ) 1 ng(M) : . alors fn : o Sup f n : srjp gn /-p.Arors f f) O. :1*1. ir suffit de considérer les deux ensembles Soit:M: {c.tdp : O e> f: O g-p. si : 9n g-p.[n1* dp < lldp( +oo car nlt ( f d'où: p(M) : o Pour une fonction intégrabrequerconque. PH. lim fn (r.p. o inf fn = inf gn g_p.

. dlt(nJfdP rt n donc: Vn ) 1 p lI )-l: o rtlt+ol: d'où: 2) lmmédiatcar 3) Si en effet É. PH TASSI S.t4 g(A) : I + Jofds: 4) Si f est une fonction mesurable O f : O Ë_p. .p.I n h: Op-p. f : O g-p.1^+ 0l:0 etf .) si| e .p. O < h < /-p.alors: x.: (ul+O} CA O/-t-p. >!1 n I'l f :O P-P. si n r 1 tr< .p. o ( h ( f: . <â lfl : O /-p.p.p. 1^l@l+O\:{coeA/I donc: ltlu/f .U* orsi 0 d'où : -lno/:: i:1 . . tn: 1 tt >1tt < n:1 tt 1.ln : O . + JfOg : I Démonstration 1) si Si h€éi*: h. 1^ i:1 | Ai x.u-p.p.P. I\ ILCFATION 't 2) Si f est une fonction réelle mesurable f :O /_p. f e "4f f : O g-p. :O f} lfdtt : sup{-fhdpr. ML SURF. {co/ (f . LEGA]T .<+Jlfl ds:O 3) Si f est une fonction réelle mesurable et Ae . h e 6*.PROBABII IIF.p.p. rr(A.p. + h : Jfdp: O: Vn)1o<ttLf>tI:-f O + Jhdp : Q Jfdg : Réciproquement..1A: . et 1r(A) : O alors f .

g p-p. N/ESURE. . Arors g est intégrâbre.p.g /. INTEGRAIION D'après 1) eela entraîne alors que : Pourf : fo * f-.p.d/r-âf-dp:q JU : {f + o}.p. g mesurabre. sal A: {f + s}..f.appliquerl).PROBABILITF.et g: g* _ g erd. on montre simplement que t PH TASSI S.p. f: g Démonstration s_p. = 3) Sip est o-f inie. ilsuffit f et g jouant un rôle symétrique.B. " d'avoir.. pour montrer 't urn. u(A) : O. teiles que f : g Ér_p. teiles gue f : etJgds jfdi.=nt =91{.t( lo.f.7a dÉr : O : IOtau lotaa=Lt. 4) SoirA î1.* la tdp : f.! sdr:. 3) f : gp-p.oser p-p. p (A) : O I tap: lotau + IUtau: lUtau:. Îldp: lOtau: lUtau: fdg:9 (f : O surÀy Propriétés 2S t. Jtap: jsdp 2) Soit f intégrabre.p. :. lO ldp : 1O OdU.""'rïl f et g deux apptications mesurabtes positirres.lotau: . è VA e . LEGAIT f à g sans perte de généralité. f: g Notons que l'on peut supp. f 1{rtn} : I 1{r"n} lr-P'P' f f tt.f : 1A./_p.<n} lt-P'P' . odl d'après2) 1) Soit Réciproquemenr : VA = . odr + sdr : gdrt J fi 2) llsuffitdeposer f = fn f. : 9l ti>nJ P-P'P' 57 . <+ VA € .

: g 1. INTEGRATION onnote: (F>G I ro ror F:f.ilen tt'n glBn) *nlsn gÎ'n ) g lBn) o trn tou : -i(f trn - dg * Jrn gdl Jrn odl = Jrn ndg : ng(Bn) < + oo On simplifie et : -i(f len .. /(An) < +: : On pose Bn: An n {s(n}:Bn C Bn+l.P.1).p- f 2 S : g étanta-finie f An € &. LEGAIT .rn p-p.r.An C An*r et o : limlAn. TASSI S.rn /-P.p. l/-P'F' d'où: f :g PH. ttrn où: . f I Bn : I l Bn g-p.l{r"n} etG:9. MESURE.et limlBn:liml {g(n}: Yu / lim 1 [g<+-] g Bn.p.glBn) dlt: o = 1len = 9lrn limlf lBn = liml glrn f 1.PROBABILITE.g(ar) : +oo : f(t^r) puisque f2 ll faut montrer que Vn. A-P'P' d'après la proPriété 24.1{t"n} i : Lnlr>n] rdP : lon{r=n} sds : L oou et il s'agit de montrer que F Supposonsdoncque : G lJ-p.'r.

v définit bien une mesure J l:nn tdlt sur (e..É/). y(A) : lOtau v est une mesure dite absorument continue au sens fort par rapport à g.r/ *"{tp lR'par: "r(. MESURE DEFINIE PAR UNE DENSITE unespace mesuré etf € v:.lOfdp = lOfaU doncyestdéfinieparune classe d'équivalence de densités. 1gO3) soit fn une suite de fonctions mesurabres et g une fonction intégrabre. 1Ër . nlo Jl^ fdp:rv(A)n' n:o ^n n : J (lon f) drr 1) Sif : I' p-p. TASSI . et de densité f par rapport à p. 6 Définition 21 soit (ô.fl du * p_p.4.r/l en écrivant: vA e PH.p.S. égales g_p. LEGAIT . VA C .p. MESURE.* @. INTEGRATION Théorèrne g (dit de Lebesgue ou de la convergence dominée .et fn Alorsfn etf sontintégrablesetJlf. onsupposequeVn. on peut de cette façon engendrer une probabirité sur @.PROBABILITE.41 : ' (nio An) : : . O (n_oo. Notation fe dv dp 2l si f est intégrabre.lf"l < g p_p..4 p(A) = +# 59 ..p.p. d'après la propriété Remarques 13.-{.p. On note : v : f ..on définit |apprication VA e .

s(A) :0 + Y(A) D'après la proPriété 24. to. ov ( + oo {ln..4l J 1o dv : v (A) : JO fOl : . gf estg-intégrable + + oc oo Théorème 11 Soit v une mesure de densité f par rapport à trr' : O . fr'1ae densité f (x) : 0e-0* 1. fdg lgldlt o Si g e"ht) g : liml gn. INTEGRATION ExemPle v:oe-exl. gn € d* .l'1 : af dp ! gldU oSig € 8* g: I x 1^i Aie '& : : -isdv : I ^i v(A. fdg ( o <*_ lrn. LEGAIT .rou < irn_ o. MESURF.igdv : lim 1-igndv : lim 1 Jgnfdg : ! gfd! : Jlim 1 gnfdl(Beppo-Levi) o Sig : g* - g- sestv-intésrable e <+ (-in.i : est une probabilité sur (lR.Ae.) : I x. tou J> x 1o.PROBABILITE. "f g esiv-intégrable <+ gf est g-intégrable .S.p-(x) .(x) Théorème 1O Soit g une fonction mesurable..31: g(A) 60 :O-lOldg:v(A) :O PH' TASSI . on a alors : Sdv: Jgfd/ Démonstratian cSi g:1A.

g.')..' g. Arors ir existe une ctasse un..p v si v est o-finie.p.!+v' 7 INTEGRATION PAR RAPPORT A UNE MESURE-IMAGE Soit un espace mesuré @. munis de lois de probabirité qui seront dominés par.7(N)).i. Théorème 1 u(N) : O et v(N. iinies rr-p.-eô'"1. Théorème 12 (Radon-Nikodym ._41 I ffil.Ol VA € On notera v < p Ur &. fl.ta) . u). Les mesures g et y sont donc presque partout à supports disjoints. en outre.n1ou(N.àpport à À.p.. Les théorèmes suivants énoncent des conditions générales d'existence de densités. .ces lois admettront donc des densité" p".p. En pratique. eg"r""r_p. . os rtc.. 'Àn. f€ @.. il existe une unique crasse de foncrions mesurabtes positives f :iO. p(A) : O =+ v(A) "i: : O domine on voit donc d'après ra définition 21 et re théorème 11 que toute mesure absolument continue au sens fort I'est au sens faible..4'y et v une mesure sur @.y.i. et eiles sont intégrabres si et seurement si v est finie. mesure de Lebesgue sur rRn.{ sur (A.. r.tll PH TASSI ..S 1c:.r4) est dite absolument continue au sens faible par rapport à une mesure l. p).. fr.PFOBABILITF. -tJl. (n".il.. étrangère à p.e) 61 LEGAIT .teiles si et seurement Définition 23 v est dite étrangère à p si : lN €. il est fréquent de travailler sur (lR.qi"-G de foncrions mesrrabres positives v : r. = 6 3 (Lebesgue-Nikodym .Li une unique mesure v. mesure discrète de comptage sur rN. p o-Iinie. . MÊSURE. telles que : v:f. 1930) soit g une mesure a-finie sur (e.. INTEGRATION Définition 22 Une mesure v quelconque sur (O.q absorument continue au sens faibre par rapport à g. môsurÉ." que G.d. ces fonctions f sonr g-p. etlt une application mesurable : e.(rR*. l93O) soient deux mesures g et v sur (e. .0" L"b""gue sur rR. Ànou lt"..

de(Q.)} d/ = r *. Érlr-t (Ai)l l'- Sif € Jf.est intégrable par Soit f une application mesurable '.) .' n) Px-intégrable. o .(lR' mesurable foT rapport a t" r"suie i.a.'&'l . INTEGRATION Théorème 14 (Théorème de transfert) fr'\'f. (O'.4.8'l. f = limlfn où fn € é* foT: limlfnoT : On utilise le théorème 8 de Beppo-Levi In tor dP : lim ' ln tn oT dg : lim t ln.PROBABILITE.".) : -lI o' fdgr : .z/' ..e. on pose Application f : f* - f-' SoitXunev.1. ln t1r-'{n. fr'1 est intégrable par rapport à lr .^ I dPx PH' TASSI S' LEGAIT ôl .l foTOg : J : X' 1o. gi si et Leulement si I'application en outre @.^.A.It n *.(lR.-'&.:.Pldans(1R.i gT(A. Ani" goX est p-intégrable si et seulement si g est i. : : I Démonstration tapt:3 o'o n foTdg oSi f e 6* n f:. l:l 1o. tn dltr : Jn' togr o Pour f quelconque. oT dg -O O i:1 "'l :.=t x.'4. IVESURE. on a alors E : (goX) : Jç goX dP : J.etguneapplicationmesurable: j ffn.. xl 1^oTdP i:1 r-o Ai n : .Ir*.

r X est dite suivre une loi de poisson si : px- *æ : e-. on a ô.r mesure de Lebesgue rapportàÀet: E(x) o Si Px sur rR). il existe une densité f telle que pX : : f .9. g g": l'observation x").À ^x x! x:0 ô x E(X) :-itop*: (x) .lL{t-rll . : . J.a.. r oex où I est I'application identité de lR dans o si Px < À (.S LEGAIT 63 . différentiable ainsi que son inverse) de * :.Ànlt = 1s.t. g'éorun continûment ouvert de lRn : ?j^U T (#) un ouvert de tRn. +æ x ^lo : f (x) (*probabilité de E(X) Exemples 1) Une : ltfdp": ' x:O v. pX admet une densité f par = IttdÀ: J]: xf (x) dx W)l +oo 4 F" (tt"mesure de comptage sur (lN.. e-. en posant p.1 : 2) Si px E(X2) : ni xe-i x:O . alors.pc. dx : l-(3.In PH TASSI . MESURE.r_ = |nX.PROBABILITF.n etant'taï"rr"rL o" Lebesgue sur lRn: 11t..JJ À':À x! e-" l. Théorème 15 (Changement de variable) soit T un difféomorphisme (c'est-à-dire ung application inversible. INTEGRATION En particulier : E (X) : lR. Ot : Jn x" dpX x.

.lJ(T-'\l foT-'' Àn Soit : INTEGRATION PAR RAPPORT A UNE MESURE. sous les conditions usuelles de régularité' on J (T-') Corollaire 1 J {T) r^gPport g une mesure admettant une densité I pt' U : F à^1 g" ^ n 19(l .p 'i-1 A.) -''i '' i:1 ' que : Notation lJ: 1(i(n A Fi Théorème 17 : 2.. aloré (gl ouvert de lRn). "' a-finies' : * ll existe une unique mesure / appelée mesure-produit sur @.!.! (A) :Joz tt1(Ar2l dltr(url ..'' . LEGAIT .4.1 Mesure-Produit Théorème 16 Soient l}r &i.. et soir T un difféomorphirt" de fr sur par par rapport à i n donnée trrT admet une densité Pr : 1 s/.PROBABILITE. INTEGRATION où J dérivées Premières de T-'..' '. n = .) : n lr(A.) n esPaces mesurés (i : 1 à n) tels gue li n n On note' o.9.Jnr tt2l{rll dpr(utl Si n : 64 PH' TASSI . c'est-à-dire le déterminant de la matriee des : a Rappelons que.-o\telle nn : . .PRODUIT 8 8. 11-1) est le jacobien-de T-1. lr.S. MESURF.11 VA €.8 &r. la mesure-produit g est définie par VA € &.

. . e f &r.rr) e e A} A} en ur) et est . sur (er x er. t' on no. € d'où lO"':@si . po. et tt2 a-finies.. 9. : {^z € Qr/ (c't' o." F./ (t't' . -mesurable). Soient (Qt.2 lntégration Théorème 18 (Fubini) ttr) et (Qz.1 (resp.& r-mesu- orr: {rt e Q.{r_mesurable : larr(l"or): .A2e . Arr) est appelée section de A en a. . &2.{ . (A. /r.PROBABILITE.r= &r. donc r): de O. &. " tor. lt2) deuxespaces mesurés. PH... TASSI -S LEGAIT 65 . k' Llk. 2) SiA: At X Az A. INTEGRATION où: or. uut . À/ESURF. .' : : A.d r-mesurable On 1 <+ (a. : s(A) : ..421. &1 a . raDle (resp. . 1". si a'r. : ik*k..Àk p2 (A2l dttl p2 (A2l p1 (A1) Exemple : Mesure de Lebesgue Vk.rlr-mesurable et par là-même o... On note ! : F1 E /r. dans ()1 X f)2 : u2 * @.il2 A'. Soit X une fonction mesurable positive ou intégrable définie sur (o. L.. 8. torl (resp.t x er.421.ilt..n.. u.r/e. Remarques 1) On vérifie aisément Ou" Aarl est .t est cl 1 olrl e A <+ 1o(u' puisque ses 2 composantes le sont (théorème 6).) dt. ur). o.1 I'application lAot : 1A o Fr. .

S. * @..41 Lt42 lt (A) : tn' t\ Exemple 'n. * nr to dlt : : Jn. ttn.. Y) dx] dY 66 PH... : Jn xvoe : J J. drzJ dP.. v) dx dv : J.*. de densité f par rapport à E (XY) i. ttn1 * 1u| url dtt. url dttrl 61tt : tn. : p(x' Y) : f i. MESURE. ln Soit (X.r. LEGAIT . tt' (A'rl dtt' dPz] dttt 1a. [J. : fo' [Jn.a..*.tl dP2 Remargue LorsqueX : 1o avec A e . xv f (x. INTEGRATION Ona: tn' * nr*ou : tn.. TASSI .PROBABILITF.^ xY f (x. xydp(x' Y): J J. Y) un couple de v.

Montrer que fg est g_négligeable. Fb (x) : + constanre D'autre part.A partir d'une mesure p on définit Fu par : Vx ) a Vx ( a Fa {x) Fa (x) : tt (Ia. est bien une fonction de répartition et: Vx € lR. LEGAIT 6l .-r1x1 donc une mesure est continue si et seulement si sa fonction de répartition est continue.x])-([a. xîl ([x. on construit à partir d'une fonction de répartition F la mesure définie par : tt (la.une mesure soit continue sur lR. x[l : F (x) - F (a). 2'3 En se servant des résultats du 2. f une fonction réelle définie sur fonction réelle quelconque. Vx ) a A la mesure de Lebesgue correspond la fonction de répartition : F(x) : x (+ constante). PH. s({x}) : p([a.. lndication Une mesure est continue si 0r: = 0 Vx e H. TASSI S.2. 0} 0n appelle fonction de répartition sur lR.x[): g ([x]] F1x*.. 0uelle est la fonction de répartition conespondant à la mesure de Lebesgue. lA' e' O 1u-négligeable et g une lndication {u/f (u) s(al + 0} C {u/r@l + 2'2 continue à gauche.EXERCICES 2'l Soit g) un espace mesuré. on cherchera une condition nécessaire et suffisante pour qu.À ? lndication. a[] : -p Fu (x) 0n vérifie que F. toute fonction de lR dans lR croissante au sens large et Montrer qu'il existe une biiection entre l'ensemble des mesures g finies sur lB et l'ensemble des fonctions de répartition définies à une c0nstante additive près.

Jg 1.'ll suffit d'écrire + "ilf-fnl dl = -i(r-rn)* ds "f(f-fn).---------na du l+ u g-u' uz n- f+ . {u} -----2 lna'+æ1 " 1+ + n du 6B PH. (fn)n>t f- une suile de fonctions réelles positives intégrables Ir n-co ---> f p-p.p.apn*a : 0 par hypothèse il reste à prouver que .) dp: I {f.e-u' l*. x' "-n2 dx (a>o) f+ Ja oo n2 * r-n'xz .+ æ n2 .dl Comme : -f (f -f..4 Soit @.'_l . lndication.t (f -fn). MESURE. -f(f-f-)'dg-.PROBABILITE. TASSI .p. Montrerque Jlfn-fl dg * 0 : quandn*oo. INTEGBATION 2.5 Calculer en utilisant le théorème de Lebesgue n*oôJa lndication lim . . - f intégrable et: -fn)* o g-p.S. o donc : d'après le théorème L -l(r-rJ* : dp * 2.-4.-fn)* dp . r' n** (f o -fn)* (f (f. dx: ---- 1+x2 æ ^ J [. vérifiant : glun espace mesuré. !lndtt' lrdp où f est positive et intégrable. LEGAIT .

INTEGRATION Soit : 2 fn (u) : 0. o :* ( +oo rim Jf.S. TASSI .z lorsque n donc : * -. : PH. u' (u) du o.PROBABITITE. N/ËSURE. : JËdonc: n-æ f. * *1(r) 1+ --^ nz .. et: (u)l k ue-" Jfr. *_J (u) - fn(u)-0 0r: lf. LEGAIT . u e-u ltnr. 1[nr.r-'" u.

.

a. conditionnement.. le chapitre présentera res variables multidimensionnelles et traitera des liens entie variables : indépendance. on appelle variabte atéatoire mesurable X: (Q. . etc. densité. de ra mesure de Lebesgue i. définie sur (O'. vecteur aléatoire de dimension p).À io) .d1 .4. g.a...1.. '10)...) (resp.ixiout" "ppti""tiàn on appelle loi de probabirité de la v. .. Outre les principales caractéristiques des variables aléatoires réelles (fonction de répartition. réeile. lr fera référence.â. TASSI .&'l est (tR. Ce chapitre est consacré à l'étude des variables aléatoires définies RAPPEL DES DEFINITIONS Nous regroupons ici res isurtats vus dans res chapitres précédents : Définition 1 @.r.S.a.r/. (resp..ir sera possible de le faïre. P) et . notée VA. &) (resp. on dira. ( rïp. notée v. (resp.} Langage et notations Si (O'. &pD.v. vecteur aréatoire) sera dite absorument continue si px<<. de façon usueile er par abus de rangage que x est " PH. a rup_ plication statistique de la théorie des probabilités. fffi"jj o Ayant muni (rR. g.Chapitre 3 Les variables aléatoires sur un espace probabilisé. (resp. X est une v.p}). ra probabirité image de p par X.a.-4...) : p(X_l (A.1 espace probabilisable. px(A.)) : p{X€A.&. ( tïp.(A'...r.1. etc. une. € . LEGAIT . Définition 2 étant respectivement un espace probabilisé et un tv.@. X Px. autant qu. moments.). &.

discrète et PX << gc quand @. o Les lettres rondes désigneront I'espace des valeurs prises par la variable ainsi .r. on peut àétinir une v. démographes utilisent des classes d'âge.a. 9(Z)l. fr) rce qui inclut les variables odiscrètes.expérience consistant à lancer un dé parfaitement par le dé équilinré.).1 Fonction de réPartition partant de la définition./X(. à valeurs dans tout ou partie de (lR.P\.LES VARIAB tFS ALEATOIRES De même. X.a.a. si X prend ses valeurs dans tout ou partie de(2. continue.. on utilisera 12 PH. il est parfois difficile d'avoir des obserodiscrétiSer' AinSi les vationS d'une v. . 6]). les v. x[) F(x) :P{t'.a continue : la distance entre le centre de gravité : lR1)' du dé pàr rapport à unâ origine liée à un repère 'fixé (fi Remargue: Dans la pratique statistique. les économistes etc.a.a. et sauf mentioh expresse.% est X (O). cl'une v. lJ c.r. notéefréquemment Notation : Px (l--. z.4. Exemple '' A partir de l. lorsqu'on aura besoin d'identifier la f. 5. et on Sera Souvent amené à la des tranches de revenus. discrète : la valeur du point amené (t : ti.a.4. IASS] -S LEGAIT .l<xl\ F(x) : P(X < x)' F(x) F*' Par la suite..Xest g (ZDest muni de la mesure de comptage une v. de la fonction de répartition d'une probabilité (cha- pitre 1) : Définition 3 soit X une v. un Dans la Suite. . seront toutes définies sur même espace Q. ou une v. CARACTERISTIOUES DES VARIABLES ALEATOIRES REELLES (u NIDIM ENSION N ELLES) 1 1 .) de X la fonction de répartition de : probabilité P^ Vx € lR. on la appelle fonction de répartition (f. s.

f (x) : tto. Fc où yx Ç gl:.LES VAR]AB LFS ALEATOI RES Propriétés : Elles sont identiques à celles vues au chapitre 1 : o F est continue à gauche e F est une application croissante e lim F(x) : 1 x*+oo o lirrr F (x) : I X--oo Remarque : Si X est une v. F est en plus eontinue à droite et dérivable. teile que : Px: f étant la densité de probabilité de X. LEGAIT l3 . continue.a. discrète:PX <<É/" où dénombrabl" u' !": Z ô". 1.2 Densité de probabilité Définition 4 fonction mesurable f soit X une v.tr".. on sait qu.^ t (x) pour f (x) mais celui de probabilité élémentaire.parexemple. PH.1.sera écrite : rR+. absorument continue par rapport à.^.1. &. xdécrivant l.r*11*1y : > xeI pxu. px ({*}).. En calcul del probabilités. A€ 4.r neserapasécrite: 1 {r1^1 : 6 f mais : t.rl .a.r1(^) 2) Soit unev. TASSI on retrouve donc I'anarogie avec re cas continu : ici pX ..S. to(x) Ainsi.1 . Toute densité f.. Remarques égale à h pourx f . on n'emploie pas le terme de densité .radensitéf (x) d'uneroi uniforme %ro. posi.À 1) Par définition. f (x) : h (x).ensemble ^'oo* e g.ir existe une déf inie sur (lR. : si o ( x -< 1 sinon.a. une densité sera donc à valeurs sur CA er nullesurÀ.

et : soit (lR. f n'a donc (t)dx: Cela correspond à la propriété P(O) : 1 : F(+oo) . ou une intégrale généralisée comme vu au chapitre 2. F : alors F est dérivable À-presque partout. on a : x€9[ Z f (x) : 1 sf Jf t (t) dt : F (b)- F (a) PH. comme on l'a vu au chapitre 1. de densité f i-presque partout continue. Remargues 1) Retrouver la densité f par dérivation de F ou F par intégration de de sens que pour les v. continues.a. discrète. TASSI S. dx F(x) : d d. les cas discret et continu se traitent de la même façon : par exemple.f (t)dt' ].dp* : JR 1 x{f (t) d. dx-O Démonstration lim F(x+6.r. pour le premier. de f. ointégrer. pour le second à calculer une intégrale de Riemann (dans les cas usuels). absolument continue.__. LEGAIT . consistera. on a F : (x): {n 1.À (t) : Jr. F(x) : f (x) Sous les hypothèses du théorème.a.LES VARIABLES ALEATOIRES Ainsi. en effet : {n f (^tdx: PX(IR) P(Q) : Jrn f 1 1 2) Ona: : Pour une v. de probabilité élémentaire f. ". Liaison entre densité et fonction de répartition Théorème I fr. à sommer une série. X une v.a./ muni de la mesure de Lebesgue i.-.

X ra quantité : rr. ttr. D"n: tout ce qui suit.. Définition 6 On appelle moment centré d. : 1e tX - E (X)lk dp lrr : JtR (x Pour k m. rr. le moment p2porte lenomdevariancedeX. . -n: Pour k Px (lxl) : 1.3 Moments crète ou continue.ordre k de la v.)k opx (x) : :2.r.a.r. on a : rr : Si X est absolument continue : JtR xk i 1x. Si X est discrète . .a. :fI ^k t1". En passant dans l'espace-image : : Jo xk op r* : Si PX admet une densité JIR xk dpx 1x1 f par rapport à une mesure p sur lR. dis_ Définition 5 on appelle moment non centré d'ordre k de ra v. cp 1x..LES VARIAB LES ALEATOIRES 1 . res diverses intégrares et sommes sont écrites sous réserve d'existence.a. en utirisant re symbore d. X la quantité .espérance E (X).notéeV(X) V(X) :E(X-E(X))2 PH TASSI S LEGATT t5 .intégration sans orstinguer v.t ^èuxk n'est autre que l. 0.

Preuve v€ > o.3 t' PH TASSI . Elle est mesurée avec Définition 7 Onappellemomentfactorield'ordrekdelav'a'Xlaquantité: /[r]: Etx(x-1) Propriété Soit 1 '.a.m| La quantité a (X) la même unité que X. on établit le résultat suivant.al>El corollaires. . LEGAIT . considérée..E2(X) : mz. a) Pour a :0. lls varient selon le choix de a et de la v. I ona: r E(X+Y) : E(X) + E(Y) o Va € IR E(aX) : aE(X) et V(aX) : a2 v(x)' Ces résultats découlent directement de la linéarité de l'intégrale.al> eldP > ! t' ltlx-al)e1 E(x: d'où: a\2 > e2 P{lx. Propriété 2 : Inégalité de Bienaymé-Tchebichev' Pllx-al > si < **.. : firc s'appelle écart-type de X. conRu sous le nom de théorème de KOENIG : V(X) : E(X2) . (X-k + 1)l I'ensemble des fonctions mesurables déf inies sur (Q.4 ' Pl à valeurs pour (X' Yl € 92' dans (lR. on obtient P(lxl 16 >rr . intégrables.1.LES VARIABLES ALEATOI RES Par simple développement. fr. I est un espace vectoriel sur lR . Va € rR E(X- a\2: lA (X-a)2 dP < €) dP + -l(X-a)2 : E(x- al2 : I (X-a)21t1*-al ltl*-ul>eldP dP En minorant la première intégrale par 0. S. on a E(x- alz 2 Î(X-a)21t1*.

Le principe ÀCrn" de ta démons_ tration donne une idée de la qualité de cette majoration. "1. loi binomiale g fiOOO.zF" (x) < a} : < 1) le nombre réel xo tel PH.+). on montre (chapitre 4) que : r1 cette formule donne une majoration de ra probabirité pour que X prenne des valeurs hors de t'inrervaile lE (X) .LES VARIABLES ALEATOIFES b) Pour a E (X). puisqu'une probabilité est à valeurs sur [0. TASSI . chapirre 4) que E (X) : bOO et 2 V(X):250. r1. S . on obtient ra formure *crassique.: b: p(lX-bOOl > 5) << tO. 1 ].€. 2 : o 1. I ].4 Fractiles Définition 8 On appelle fractile d'ordre a de la loi de X {O < a que xd : sup {x. Par exemple. . %rc.. on montre (cf. -11 >T) <E alors qu'il est trivial que : P(lx-]t 2'.1_111 p(lx E(x) :] v(X) 1 12 . (*) . Supposons que X suive une loi uniforme à valeurs sur densité f (x) : 1to. de Bienaymé-Tchebichev : : P(lx-E(x)l > 6) < v(x) E.cedontonsedoureapriori. si X suit une [0. E (X) + e[. d" : "t L'inégalité de Bienaymé-Tchebicheu f?urnit. pou. déjà vue au chapitre 2. :t.pourr.

0.75).LES VARIABLES ALEATOIRES Dans le cas d'une v.g (g étant un autreouvertde lR).1992 0. étant un ouvert de lR" Soit g. X continue.r.25 (resp.a.l(e-')' 1v)1 .poura: O. 1 F*(x) 0. et donc xo est l'unique nombre tel que : F*(x/:a Exemple d'une v.0498 X a: Ainsi pourO < x ( O. continÛment différentiable ainsi que son inverse (9 est un i : : focp-' (y).0498. poura: 0. troisième) quartile Pour a : k/10 (k entier de 1 à 9). Pour Notations : o o o Pour a:0. lefractilevautl. ta lecture de la table 4 nous f ournit les valeurs de F". de densité g par rapport à g (y) ble.5. et donc son graphe: _ 0. de densité f . discrète Soit X à valeurs dans (lN. ontrouveXo.a.5 o o o Changement de variables Théorème 2 g Soit X une v. xoest le premier (resp. 1.> I (Sl.1992.a. x^ est un décile Pour s : k/lOO (k entier de 1 à gg). 18 TASSI S LEGA]T . F* est strictement croissante et continue.5. chapitre 4) : X . absolument continue.s: : P(X<1) : P(X:O) = 3 . inversidifféomorphisme). absolument continue.a."xo est un centile. . xa estappelémédiane. 9l(lN))de loi de Poisson de paramètre 3 (cf. Y: po X est une v.r.r.une application g. 1 g par rapport à À. 1 7(y) PH.

tI g(y) dans ]0. l rn. suivant une roi uniforme sur lo. 1 de densité [ f (x) = IIo./2y < x < \/2y) : Par dérivation. par l..n1 "-Y lR.' : 1 Z6- 1ro.. 1) (cf. e-.*_ (x) On considère la v.n.Æ -I Vil 6 f. y : r. (v) . Soit X de loi normate N (0. soit différentiable.. on obtient la densité Fx tt/Wl _ Fxî\6) f. TASSI .a..&. rIoans tô.application g de lRi . S. (Y) : + Y-1/2 e- ' 1.6. :x * 1[ uneapprication inversibre.. (V) : b) soit X une v.Y(y) : " .LES VARIABLES ALEATOI RES Exemples a) X suit une loi exponentielle de densité f (x) : : e-x 1 .& de lO.a. (v) PH.t(*). ainsi que son inverse a pour densité : p:x--xtdel0.r1(v) c) ll est parfois possibre de déterminer ra roi de de la fonction de répartit'on de y.continûment . y: 9 (X) par re carcur direct et y = g(X) = { 2 si y si < Y) = O Fy(y) :P(Y<y) :P(X'<ZVl Fy(Y) : P(Y ( O y)O : p(-.lRi définie par e fu) = r. d'où: u:lRi' g (y) (ç-'|(v):2v = 2y e-v.^. tr est évident que g vérifie les hypothèses du théorème 2. ii . de y : ry (y) : J' t* 6/2y y t. y: i. LEGAIT 79 . chapirre 4).

. S.. de X est une application de lRp dans F [0. I X : 2.f est la densité de probabilité de X." |ème coordonnée du On munit lRo..4. .. *o} 2. dans le cas n le Pavé ôP F (x'. g.. ôx.p) : 1àp).. xp (". v) du dv BO PH TASSI .::_.. de la mesure de comptage-produit. ôx. 1 ] définie par : (x'' ' xo) : :'. P ".ï'.-. x2) est l'intégrale de la densité ].2 Densité Si de probabilité à À0... la f. l-. .o7 de la mesure de Lebesgue iD ou éventuellement. fr'*l telle que PX : f . < x." . :':. LEGAIT . 8. sur D : l.. x..r... .X0) est un vecteur aléatoire absolument continu par rapport Théorème 3 : Lien entre densité et fonction de répartition f (xr. on notera par X... il existe une fonction mesurable positive f :(lRp.. Àr... xz[ soit : F {x. au point (xl. Xp . . X: (Xr.r. P) * (lïp. : (A. P Ainsi.. n'pl'1lR*.1 Fonction de répartition La f. . ôx. 2. dans le cas discret. "o] {X. xr) : Jlo f (u. xo) :----:..^o) : .) . .LES VARIAB LES ALEAIOI RES 2 Soit X VECTEURS ALEATOIRES .-. vecteurX(i .

y) ov+{'{#dur F(x.0 < y ( 1}.-.I . y) où: : + x"A to (x. IASSI . x ( 1 ou y < O} c: {(x.y) PH.t 2v e ir-I.y) o Soit (x. y) : 4 # r{ out o.yl x21.2x' .y ( x} On définit les domaines suivants : : {(x. E: A-D B F est définie par : F (x' Y) : "lâ i r- -.y 2 O.1 du dv o V(x.y ) x} D: {(x.y) € B F(x. yl -.Yl. LEGAIT .y) : g o Soit (x. x} l.Vl.x 2 l. dv B1 E F(x. v) A : {(x. y)de densité f (x. : :d'jï#our t.LES VARIABLES ALEATOIRES Exemple Soit (X. y) € D F(x.S.y) . xlxr .

. 1 : P. . .r. P.. Soit (x.... LEGAIT .. . notée Cov (X' la quantité : B2 PH.. TASSI Y) . i.y) :4 -1 'Jï#duldv.. ljl et: : rl i1€11 io€lo Moments X "rP 2.) : lO X..r\ [ e. dxo b) si (Xr.a. .. : 1 Remargues a) Jpn f (xr.. . dP sous réserve que l'intégrale existe' \ x'r/ I b) Covariance Définition 9 soient X et Y deux v. où E (X.LES VAFIAB LES ALEATOIFES . *.. .. : ^2i2.o € JO. le vecteur E(x) : / /'\ e rx. io : P [Xr = *t. .. . .. on appelle covariance entre X et Y. sa loi est 't définie par la donnée des valeur" P. c r xlp] avec : Xr (O) J'i : {^1. Xp : . Xo) est un p-uple de variables aléatoires discrètes. Xo). Y) € C F(x. . xo) dx.3 a) Espérance On appelle espérance de : (Xt.0...r. .{l{#duldv 1 .S..

E (x)lly. : Propriété : On montre aisément que o Cov (X. y) : c a et b étant des réels quelconques Cov (aX.E (y)l dp ={*z tx_ E (x)l tv_ E (y)l 6p(x. TASSI .Y) : \^" !-.LES VARIABLES ALEATOIRES cov(X.y) Définition 1O ( v(x).S.).y) Cov(X.E(yr) < o - En appliquant I'inégalité de cauchy-schwarz. y) ou : lo tx. Y) o V (X 1Y) : (Xy) : - E (X) E (y) V (X)+ V (Y)+ 2 Cov (X.E(yr) Démonstrafi'on : sous réserve d'existence des intégrares.' Dans le cas discret Cov(X.o(î Du corollaire du théorème 4.r.Y) (1 PH. Y) o(x). p-intégrables : E'(xy) < E(x.a. on trouve y mais à x : - E (x) cov2 1x. on déduit -1<p(X. E(X+6yl2 ou nul : : E(X') +2aE(Xy)+a2 g1yz. xe# yeU E (^-E(X)) (v-E(y))p[N:x . non pas à X et E (Y). LEGAIT B3 . ne sera positif que si le discriminant de l'équation du second degré en a est négatif e2(xy) Corollaire et Y - E(x'). bY): ab Cov (X.E (y)l} y:y] Remarque. Y) : E {tX - E (X)1. y) Théorème 4 : (Cauchy-schwarz) X et Y étant deux v.v(y) : on appelle coefficient de corrélation linéaire entre x et y la quantité P(x'Y) : : Cov (X. pour a E(X+6Y12 2 L € rR querconque. ty.

tvXl : tu I v o E(tuX) Démonstrations Elles sont fort simples.xu)r] V(> p Remargue i:1 X..T1îriJ.) : : p i:1 v (xi) +Z i+j ii I Cov (X. Propriétés dimension p. . V (Xp)..e ...:'lu .de : : E(tXu) : tu. Ainsi V ('iuX) : : '1':.E(X) : telX. TASSI . p) . X.) Corollaire A (q..S...r (x)lttx- E (x)1} Remarque La diagonale de I est composée des variances V (X.. Alors : E(AX) : AE(X) V(AX) B4 : AV(X)tA : R>tn PH.). X un vecteur aléatoiie'. l::1.LES VARIAB LES ALEATOIRES c) Matrice de variances-covariances Définition 11 On appelle matrice de variances-covariances du vecteur X la matrice (p.u oV(tuX) :tuIu o I est une matrice définie positive o Cov (tuX. (Xj- E (Xj))] r: {tx. Y Soit T une application linéaire de lRp dans lRq. . : o. représentée par une matrice : AX désigne le vecteur de dimension q transformé de X par l'application. p) de terme général a.. LEGAIT . on a Soient u et v deux vecteurs quelconques de lRp.":'..j I peut donc s'écrire : [(XiE E (Xi)) .

^ o. .. Ç^telle que'c2 faisant le choix A:\-t.v): ."'.. oueileest de(U. TASSI B5 . ge./2. u : X+y et V:X-y. ainsi que son inverse p-..y) est de classe cr.v)/v 1 1 2 et: (p (lRi x lR|) : } . puisque I est définie-positive.. LEGAIT 2 ^2 PH..a.4 o Changement de variables Théorème 5 Soit X: g o soit(p: g .continûment eox : est un vecteur .g ouvertdeRq différentiable ainsi que son inverse.a. En particulier.e a toutes ses composantes non corrélées."].vl:( z_. Arors : y : f .: u+v u_v | (p-') : 1/2 1/2 1/2 -1/2 {(u.Xo) un vecteur aléatoire : (A.Ào : tocp-. p)- (tRp. # étant un ouvert de lRp. (yl lJ (p-t)l l srr (vl où J (p-1) est le jacobien de rp-t.rlàj"irli 2.pldedensité inversibre. V 12-ttz : lo.g c Rq . Rappelons que J (rp-1) n'est autre que J-1 (rp).et le vectew y fl.Il I - . de densité par rapport à g (y) (Xr. Y) un couple de v. ù: (x + y.y) ra roi ondéfinit lesv.S.y) : À2 e-À(x+v) l*îxFî (x. 2 J _i . c'est-à-dire le déterminant de la matrice des dérivées premières.1 par rapport aléatoire de dimension q. x e'(u.v)Z L'application ç (x.4. Exemple Soit (X..LFS VAFIABLES ATEATOIRES . I-1 Jlest aussi.v) D d'où : g(u. . de densité f (x.Èj ..il existe une matrice symétrique : r-1 lc sera note'f.u er v( u} : e-^u io(u. et on sait ou.

....d"0 : lRp d'où le résultat. . xo)) f (xr. "' dxoJ " dxo Application : loi d'une somme de v.. Xo) (q < p) est un vecteur aléatoire admettant par rapport à io la densité Si f est la densité par rappoft à Ào d'un vecteur : X: g (x1. PH TASSI .. XJ Théorème 6 : (X1... g. où (X...Xr) n'est qu'un cas particulier du 2.. ....LES VABIABLES ALEATOI FFS Remargue : Méthode de la fonction muette Soit X un vecteur aléatoire à valeurs dans (lïp.*o_o f (*. On pose Y : g (X).*oh (*. ... àrc... J. ..5 Lois n'larginales Soit X de dimension p.a. Xq) (Xr.S. tJ.pl et p une application de lRp dans lRq.. On appelle loi marginaie la loi de tout sous-vecteur (Xr...C: hcis marginates d'orcife z... xo) dxoo.x0) dx.... S'ii existe une application f de Rq dans lR telle que pour toute fonction muette mesurable positive h (sous réserve d'existence des intégrales) : Eth(p(X))l : J_^ h(p(x)) dPx(x) :..4.. Les plus utilisées sont les lois marginales d'ordre 1.. ...a... LEGA1T .Xo).. alors (X... un vecteur de dimension p permet d'eng'endrer 2p . au total.. (y) alors f est la densité de Y par rapport à 2.2lois marginales.....r.....a" Soit à déterminer la loi de la v.. Y: p ... ....r0) : : J.. ..... où g est une application de lRp dans Rq définie par : ç (Xt.1_^ h(y) f (y) diq lRq tRp io.1. ...*o-o f (xr' "" tof d*o*. dxo Démonstration Soit h une fonction muette J h (ç(xt. Xq) (q < p) extrait de X. X.X0) sont p v. . ll existe donc C1 : o lois marginales d'ordre 1 (correspoîoant à q : il. Le calcul de la densité marginale de (X.n0) dx.

lj't P)et Xn) n vecteurs à vateurs @.. D'après la définition 13 du chapitre r.)sont indépendants si : Remargue vAe &p..<n est une famiile de vecteurs aréatoires indépendants si : {&p\1...S...hypothèse d'indépenejance réeiles discrètes...... .t <. LEGAIT ..il suffit alors d.<i<n est une famille de tribus indépendantes.4.. X1.. /*'\ l\/\ l*. : P(Xt:"t. supposons que les v. p(Xi :xi) 7' X1.intégrer sur t t)' - 1 pour 2.a. fipi). X est défini sur un espace probabilisé (X').application p : Rn * fin lJ'-{l \ l\*o/ Ayant calculé la loi de p obtenir la loi marginale de y. \ \'...fl Théorème n t-l .. Xn soient toutes des variabres : {x..}. ().X^). Xn sont n vecteurs aléatoires indépendants o p(Xt... 1Y. " i=1 | en prenant A.Xn€A") : rl p(x. ...1 aléatoires où dans (lRPi.. TASSI .Xn:xn) :..... res (X. on obtient sous i.p(xr€A1. €Ai).6 lndépendance Définition 12 .Xn) _ ô pxi i:1 PH.LFS VARIAB LES ALEATOIRES Une méthode usuelle eonsiste à définir l.-'/ \v I lRp (Xt..

. P(xl' . la densité de (X.â pxi (théorème 1.) P(xi Ai) on note par F.r.. : â : Théorème 8 n i:1 '!... la f.(x1. chapitre 2) . f) X. Xn) X.. xn€An)' i=l : donc : i:f 'Î .. . ....^'nezaef D'après lethéorème4du chapitre 2 ' : A 1(i (n gBoi : slGl Xn n vecteurs aléatoires I De plus.i.S.) BB PH.. G eststable par intersection finie. Réciproquement. de X.xn € An) P(Xt' ''xn) p*..) : p(Xr € A1...) . LEGAIT .... " Xn) ll suff it de montrer que Pfit' ' et â i:1 Pxi coÏncide nl sur G ' n p(xr. n F (resp. densité)dè X: Ral-1.*") t i-i t- fi I A. F'("..r.) : i-1 'Î Pxi(A..lorsqu'elle existe...et est la f.Xn sontindépendants <+ F(xr. si X6) . i=1 € o. indépendants.Ë i:1 : t Pxi ona: vAi € glip(Xr € A1. TASSI . pxi 141 =Ë i:1 pxi t 11 i:1 A. Soient X1...^n) :1!... r (.... '..' xn) ': . rl A..i..LES VARIABLES ALEATOIBES Démonstration : On considère la classe : G-I. (resp.

indépendantes suivant res rois gamma y (p.a...r..r...-. 0) -S TEGAIT .a. chapitre 4) : f.. sont continues par rapport aux mesures de Lebesgue : a)f désignant la densité de X.' Le caÊur de ra roi oe'ta somme de v. Xn indépendants =à f (x. 2 e-' \^r n.. .À P. Xn sont indépendants et pXi b) o f (x. s.H. b) La densité d'un n-upre (x.. X et Y.iri.. xn) : ti f. la densité f (x. y) : (x+y) 1..{^... i:1 r'r' + X1. indépendantes n'est donc que re produit des densités des v.r. .0) eT y @. *0. On admettra la réciproque... Ainsi.''' l-(p) e-d* x 1 fy(v) alors X+ Y suit une loi y PH TASSI : + e-ov yq-'dq I.LES VARiABLES ALEATOI RES nant pour ll est clair que [imprication + est une conséquence de " A l'intervaile ou re pavé ouvert étémentaiàJ" rnor" ra définition en pre_ l. [x . c'est-à-dire ne peut être mise sous ra forme d'un les v....est oas séparable..r. simplifié.n- (y) b + q..a.. .'iii^I .a. Remargues a) Ceci n'est bien sûr réalisé que si les densités f sont définies sur tout lRpi.. d)de densités respectives (cf. ^ (x) : p-' op 1 (x) _ -.).^.r. .a. (X'). "n) : n .. pour des v...(x. x] .[ Théorème 9 io.) o g densité de probabilité (i :1àn) : q... .' on a Si les v a. par rapport à io X1. X-) de v.. x.. i : 1 à n. est arors Exemple Montrons que si X et y sont deux v.1. orotJ.. . X et Y ne sont pas indépendantes.a..*.

!.r(q) Posons { uo-t (v - u)a-1 6u I: u/v'. Vv ) e-ve |p+q o r(p). (Xr.t 90 PH. LEGAIT ...r.q) d'où : : I*f# "-dv uP+Q-1 ap+qlR* (v) fv (v) Théorème 1O : |- 1 .. TASSI .S.. définies sur (O.. _ d Alors: Soient n v. e-vavp+q-1 où: Or: q) : 1[ tn-t (1 . E '4. B(p. rtp). .. v) : 1 r (r) r (q) . gl.r(q) q) (q) "-v0 Jl .o-t (1 . y) Soit T : (.a. intégrables' (Xr. V) f d'où : 1r.Ll.t6.t1o.j : /x\ /tt : x \ (u: *-r) "-vd uP-l (v On en déduit la loi du couPle (U.v1 (u. dp+q r (p) r B (p.o-t eP+q 1{v)u)o} fu(v) : là t.r... yy(u.tlc-r 6.LES VARIABLES ALEATOI RES Démonstration f 11' Y..(x' v) : 1 r (p) r e -d(x+y) (q) 1n-1 UO-1 ?P+q 1Ri x Ri (x. .Xn) : n . v) du. Xn) indéPendantes. {*. fu (v) : : dp+q vp+q-1 B (p.r.

.: E(X1). discrète de loi : px{-Z} : px{.. + .a.a.) Corollaire 3 si X : (Xr. f . puis PH.. .. (x. : J xr f .r.)dx.. TASSI . X/ est composé de p v...r. Ainsi.. Y1 Soient X et Y deux v.a. dx.. . indépendantes.. indépendantes : g.. chapitre 1).r (Xr. Nous considérerons successivement le cas de deux variables discrètes puis de deux variables continues. soit X une v. p). : O (et donc Remargue La réciproque est fausse en général.4. ra matrice de variancescovariances de X est diagonale.LES VARIABLES ALEATOI BFS Démonstration (n: 2) E(X1 X2) : JX'Xrdp : -f-i xr x.a..E(X2) . Corollaire 2 .7 1 Lois conditionnelles Présentation Nous allons adopter une présentation simple et intuitive en reprenant la définition d'une probabilité conditionnelle (cf.. alors: V (X. n V (X. Soient n v. LEGAIT 91 . alors Cov (X.) f.S.Xn) indépendanres.. 2.. définies sur (e. intégrables. (x. y) Corollaire I r (X..I.1} : px{1} : Y: X2 suit la toi pY{1} px {2} : 1/+ : pY donc: E(X) :0 {4} : O 1/Z E(XY) : E(X3) : E(XY) - E(X) E(Y) :0 Or X et Y ne sont manifestement pas indépendantes.. . + Xn) : . I xzf zgr) dx. (xr) dx. .

a. qui pourra être omise en première lecture. l.[X: x] P La variable P[X:x et Y:y] YIX: x est donc une v. Yo} pour Y.après la définition du chapitre 1. "'.ni : jIt n'iini ilt n'i PH TASS1 S... i a fourni ie résuttat x. la loi de Y sachant : x' qu'rnl-re"tisation de la v.LES VARIABLES ALEATOIRES nous présenterons une formalisation plus théorique d'une loi conditionnelle.a. discrète dont la loi est parfaitement connue' Application aux tableaux statistiques Soient X et Y deux variables statistiques discrètes prenant les valeurs {x. discrètes suppose que la loi du couple (X. . D'. dite loi conditionnelle YIX a) Cas de deux v. qui donne la Structure de la population selon les deux critères X et Y : vj X Total X. Total n.'. : *: nppn ']. Y)... jIr n'i. Le principe est de connaître..j N On note : n. on a : on P[{Y:y}l{X:x}]: ----. LEGA1T ..a. Y) est connue. I n.. U n. le nombre d'individus tel que X prend la valeur x.r. xn} pour X et {Yr. Observant sur une population Q de N individus les valeurs prises par les deux variables. Y la valeur Y. soit un couple de v.a. on peut constituer le tableau de contingence suivant. (X.

!. 1 ( i( n} er {n .) P (Y x..+O) l : Remargue. :x. j:l '' j:1 p(X:"i. Y:y] : P[X:x]. I ( j < p) : Les lois marginales de X et y sont déterminées de la façon suivante V1 < i( n. PH.' Si les variables X et y sont indépendantes.!.. P 0.LES VARIAB LFS ALFATOIRES quantités tuOt"jult {n.. P(Y:yj) : pj :.) ( p(y:y.y:yj} : pij : * .S. 0. :.j n'j n.t < i < n.) Pi # P'i : O. Y) est connue puisque lon sait carcurer res probabirités : P{X:*i. alors P[X et. p(x:*i) = Fi.lX:x. n'j ni. TASSI {y : y} ne dépend pas de la réalisation .. P[Y:y] P[Y:yl X:x]: PIY:yl de La probabilité de l'événemenr l'événement {X: x}..): :yjlX: : (Y: v.. LEGAIT 93 .9. Cette expression n'a de sens que si p (X : x.Ë. I < j< p} consrituent tes marges du La loi du couple (X. X : ')' P (X: x. .) On trouverait de même : P(X:xlY:y. :.) : ' P'j : P.y:yj) v1 < j( p.j (p.(*:^i.y:yj) x.:.

. P(X:21 : 0..LES VARIABLES ALEATOI FES Exemple numérigue (E) I I 2 3 4 n. X L 1 9 21 35 31 96 2 18 3 8 10 39 3 22 31 9 3 65 n 49 55 52 44 N :200 On a.. Réflexions sur l'indépendance En analyse statistique.195. par exemple. (X:3lY:1]l: 22 49 (X: 3. PH TASS]-S LEGAT . Y: 2l : 31 2OO+ P (X: 3) . On remarque aussi P : 18 P(X:2lY:1) : -t-_ . P(X:3) :0. P lY :2) : 65 -2OO 55 -2OO Les événements {Y: 2} et {X: 3} sont donc dépendants.48. au vu d'un tableau répartissant une population Q de taille N selon les variables X et Y. on se pose souvent la question de savoir si ces critères sont indépendants ou non. la loi marginale de X : P(X:1) :0.32S La loi marginale de XIY: 1 est : 9 P(X:1lY:1) : .

les deux tableaux ne seront jamais égaux./N si on travaille en fré_ quence). 1(^ + dx. on écrit : f (ylx) : |..Q. y) - F1x. et b) Cas de deux variables continues Soit (X. : -fi n. de densité f (x.a. la loi du khi-deux (cf. U ce dernier indicateur a en prus ra propriété d'avoir une roi rimite connue fixe lorsque [\ * oo. chapitre 4). res tabreaux T et o seront identiques. En pratique. o) entre le tableau théorique ét le tableau observé. on constitue le tableau théoriquàl T qu"''l.on onli"noruit sous lhypothèse d'indépendance. continues.j n. o. p) d'élément courant-n 1o. que [on peut assimirer à une matrice (n. Y) un couple de v.. p. on peut penser. S.. par exem_ : ô(T. d'élément courant : nll ou: : Pi. ra densité (marginare) oe x. y) par rapport à la mesure de Lebesgue ÀreT soir f.n'r f (ylx ( dx*0 X < x+dx) Or: F(yl x(X<x+dx) : P{Y<y. F.Q) : ou bien : np i:l j:l np : j:1 i :1 ô(T.LES VARIABLES ALEATOI RES A côté du tableau. x<X<x+d1} P{x(X<x+dx} Ft*. observé. pij : pi pj ple. : n. : n1.écart ô (T. v) F" (x + dx) .'Là roi J"ïix: admet pour densité ^ : f (ylx) : f (x' Y) f* (x) lntuitivement. à n rignes et p coronnes. et on utilisera un critère d. LFGAIT (x) .F" PH TASSI . à Si X et Y sont indépendantes. y1(r.

v) lr^t (x.Yl.l f* (". '//xla section par x.LES VABIAB LES ALEATOI RE S a f (ylx) : lim ôv Fr*. valeur fixée de X : 7/ I x f" (x) I : lr^1 (x.y(* + dx.ï (x. y) (x) F" (x + dx) - F" (x) de T l'ensemble des valeurs possibles pour le couple lX. y) dx*O F* (x + dx) : Remarque Si on note dx-O lim àâ u. LEGAIT I L- .S.# F* (x) F(x. l^ F(x'Y) dxl fx. v\ dy et f (ylx) : f (x.vl av I 96 PH TASSI . y).

4.A2l dpx(x).. LEGAIT Jo.t(-tO. f"(x) f (x : I f (xly). on peut écrire P[x € A..rd.dy o p(X€A1' y€A2) : p(x..LES VAFIABTES ALEATOIRES Formule de Bayes: en écrivantf (x. . P{X:x. Y) et px la loi de X.tort(x.f (x.y)dxou:JAr .v) 1A1 xA2) : _r^ pLg.r. Ators on note pl (x. t: yJ : 7Y/x:x{Y:y}. y) : @. supposons qu..rL (.y) la loi de (X.Ox.)est une probabitiré sur (O. y) de lRpx lRq:dans ie cas continu.a. : {x} et .(lRr. Pt (ar.a.il existe une application : P].. en considérant les événements Ar: {v}. (v)dv Remargue par exemple ll est clair que les résultats énoncés pour des v. "o. Ar) : pY/x: * tnr) Lt pytv -x esr appetée conditionnelle de y sachant X: x.f"(y).. P{X:x} : P(Y:yl X:x) P(X:x) : o Lorsque X et Y sont continues. A)est une appticarion mesurable définie sur (e.21.Y€A2]: PH TASS] S. (pour faciliter l'écriture) sont généralisables à un vecteur (X.r.dl . y):f (ylx). on a: fu (v) f(ylx) :-- f (x fu(v) f* (x) I y) --l--: y) îy f (xly') f.y)dyl dx 91 . on aura : 2 Définition générale d'une loi conditionnelle Définition 13 On considère un c_ouple de v. on retrouve A.. (X. VA € . loi Application I Lorsque X et Y sont discrètes. fr. Onnels p(x.p) .il telle que : o Vr^r € O.

".tq on en déduit " (Az) (cf. t"i^ f(x. (X.. chapitre 2) : par'rapport à .. Définition 14 Si l'express'on J. Théorème 11 Si g est une application de lR2 dans : lR et sous réserve d'existence des inté- grales. : :+ ] u. pYlx et PxlY les lois conditionnelles de YIX : x et XIY : y.1^ pYlx:* At (Ar)f*(x)dx et ce quel que soit A1q" "1"^ .À de la loi de A. on a 98 PH' TASSI S' LEGAIT . E(Ylx:"i) : iË.. E (YlX : Jyf (ylx)dy : x) est une fonction de x. b) Si Yl X : x est une v. 0. donc : if {xtYl f*(x) esr ta densité 3 Espérance conditionnelle Soit le couple de v.* y dPYlx existe.Y =or.y)dyl A1 A2 dx:..LES VARIAB L tS ALEATOIRTS Or: Ptx €A1 . on l'appelle espérance conditionnelle de Y sachant Exemples a) Lorsque X et Y sont discrètes : X: x. P(Y:v. Y). .a. on notera Px et PY les lois marginales de X et Y.a. continue de densité f (ylx) E(YlX-x) Remarque. . n.r.x * (Az) f" (x) dx "|". propriéIé 25. de loi P . À presque partout ^' " x.3.lX:"J :ï I u. to1 t"'x-* = (Az) oPx(x) I d'où : Jo. On la note E (YlX: x). y) dy - PYI x: YIX: 2' f* (x). f (x.

qui permer des analyses et des comparaisons plus approfonOies. PF TASSI-S : fl: Y: E (YlX: x)l uo LÊcAlI .r. puisque X dépend de rutirisateur.t..(2go + gg + 1 231 : . y)) : On note de façon mnémotechnique E (p (X.t -" de même. :. y) opvlx = " (y)l oex 1x.a. Définition 1S on appelre courbe de régression de la v. notons cependant que nous avons obtenu les moyennes partieiles tà"-u"reurs de X. le même résultat .roi"rrron. 1 x9+2 x21 +3x3s+4x31y : JP 96 E(ylx = 2) E(Y)= 1 :#. Y)) : Ex E (p (X. ce qui peut fournir une information intéressante."t. Par exempre. E {y) : E* E(yjX). y)lX) En particulier. on à ié saraire . X ra courbe {(x. Y)) : (p (x. E (p (x. bien sûr. y)l x : x) dpx (x) "[ Ê (ç (x. 200 200 On retrouve.LES VARIABLES ALEAIOI RES E : -i I I ç (x.r. y en la v. "eton si v est te sataiie o ïrn" nomencrature d'activité socio-professionnete. ce qui permet de calculer E (y) en passant par un conditionnement bien choisi. Application au tableau statistique précédent (E) : Le calcul direct donne : :rOO E(Y) 1 @9 + Zx 55 + 3 x 52 + 4x 44): Utilisons la formule de décomposition : 4g1 à E(Y) : EX E(YIX) E(YlX:t._-..r. E(ylx:3) :# IOO 1 (96 E(YlX: t)+39 E(yl 491 X:2)+6s E(ylX:3)) : -l:..a.

*41. D'où : ..r. n'i u.* (v .E(ï)2:(y.l-(v (YlX))2+(E(Ylx)(y) E (Yll2+2(v- E (YlX) (E(YlX). n..E(Y)) - E (Y))2 opYlx : + -i (v . factorisation de Comme E (YlX) est une fonction de x.t.E (Y) E I ly.. soit à calculer V (Y) . Pour chaque strate. : . cette dernière intégrale est nulle après E (Y I X) .E {Y) qui est indépendant de y.'-0 'v0 :-f t-i (v -t E (Y I x))2 cpvlx (y)l dPx (x) + ..L ES VARIABLFS ALEATOIFES 4 Formule de la variance X et Y étant deux v.E (YlX1+ E (YlX). PH TASSI - 1oo s LEGAIT .1* 1)2 ..r.) : j j:1 n.. on note : Vi : E(YlX: *i) : ' V 1P ^ J:l ni.u t J. . P désignant la loi du couPle on a : v (Y) = : Or: ll s'ensuit : "1"(v - E (Y))2 dP (x.f (E (Y I X) - E (Y))2 dex 1x. (YlX: x.:1n'. '' E(Y) 1np1! :V:*. v) J. de Plus : tP i. on dit que I'on décompose la variance de Y selon les strates {X: x.a.v. v (Y) : soit : v (Ylx) v (Y) dPx (x) + -[ (E (Ylx) - Ex (E (Yln))2 dPx 1x1 : Extv (Ylx)l + vx tE (Ylx)l Lorsque X et Y sont discrètes.E (YlX))2 oRYlx -[ (E (Y I x) 1t1 - E (ï)2 (E dPY lx (y) + 2 ! (y - E (Ylx)) (Ylx) - E (Y)) deYlx 1u.E (ï)2 dpYlx (y)l oPx 1x1 y.:. (V. définies sur (Q.E (Y): y. n'j Y'j o'i : On a. .}.

8 384 ! 2474 r 2746\r 1 rr_ 200 96 39 65 ' 200 ' 7 774 39 15 T -- 129 65 1 l-t _- 491 200 . vtE(Ylx)l \//v\ V (Y) PH. La formule de décomposition donne : o3: V(ylx . o1 : V(YIX: 1) : .LES VARIABLES ALEATOIRES La formule de la variance donne : v(Y) V lnln : -= N : i:1 I r N i:t '' "i (Y) : variance ointra-strates> + variance <inter-strates> moyenne des variances + variance des moyennes Application au tableau statistique précédent (E) .3) : # 78400 96 \_/lV\ -_ 1 I.l :#.S.. 491 " ' zoo ' 2oo -( 44t 491 ' : ql 11g :1'18 zoo ) 4oooo Définition 16 On appelle rapport de corrélation cje y en X la quantité : 'tY x . TASSi .(:28A2 X9+ Yo 96 ) 8384 9 2i2 De même : o'r: v(ylx : .^ 4x21 +9X35+ 16X31). 2 1 ^__.:1 (1 . LEGAIT .

et donc : vtE (YlX)l : VIE (Y)l est la variance d'une X X 4ï": o 102 PH.S. et E (YlX) : E (Y). la loi conditionnelle de YIX est identique à la loi de Y.LES VAÊIABLES ALFATOIFES Remargues: a) Ce coefficient n'a pas de liaison avec le coefficient de corrélation linéaire p (x. c) Si Y et X sont indépendants. LEGAIT . Y). b) Ona: e< nï*< 1 constante. TASSI .

définie par: Y:X si X)x Y:x-UO siX(x Donner la loi de Y.r. o X suit une loi uniforme surl0. Z trois v. réelles.3 Soient X. absolument f* et de f. y) sachant Z Calculer : : z.r.*.+_1 (y) o la loi conditionnelle de Z pour (X. r1 (y) (roi uniforme sur [0. Fr. . Y. lndication Y: X l{*:'ro} + xo'lfr=xo1. TEGAIT .donc Y: 0n dit que Y possède une masse de Dirac au point +oo xo.EXERCICES 3'1 Soit X une variable aléatoire réelle absolument continue de densité croissante. (y) : (y-x)e-(v-*) 11x. E(VY-XlZ:zl er rlv{-xt PH.a. r1 (r) : : x fixé admet pour densité fvlx:. (x) dx + xoP{X(xol 3. r ]).{z) Fzlrx.a. r1 (z) la loi conditionnelle de y pour r X : 1) Calculer la densité du tripler lX. soit y 0 la v. de densité : f (x) : lto. sup (X.z (v -') 1.Zl.rttrroqu. y) fixé admet pour densiré : (y . y) : (x.r. Ouelle est la loi de F (X) ? f et de f. F strictement lndication P tF (x) < yl : v donc ta densité de F (X) est fr1x1 (v) continue de densité : rlo. 2) 3) calculer la densité de Z et celle de la loi conditionnelle de (X.a. xo) E(Y) : {( l[. 3'2 soit X une v. vt= 1r. TASSI S.y.x) e. x f. Calculer E (y).

Montrer que les trois variables X.vtlz=.xlZ:zl: i I I ot/ r^ tt+ i)3 (v ..[" '' -16 Vz+1 : 3) E (/t. t'+ 115 .1.v.(t.l d' f(x..xl" ev) f.-')t f (z) g-(v-x)(t*') dt. LEGAIT . V V. i.LE S VARIAB LES ALEATOI RES 0n donne : 1+æ r(7) : 4) 0n pose lndications 1 Jo tJ t e. vI : z)t (t.v1{x.4 J V7r E1 1Æ-T1 : EztE/T-l 7ll : Ez (* u \/z+ 1 144 PH TASSI S. U.^*(z) (v-x) (1*4 1o (x' (x.v):(Y-x) s-(v-x)10(x. .v) ('' Y'zl: (y-x)' s-(v-x) {1+z) 1ot.udu : Vn u: Y mutuellement indépendantes et exprimer les densités de U et de - X et V: Z (Y - X).*)' (y-xl {z*lldxdv ' {" t_-.r* (x'y'z) 2l frQl: ii rl-.z) f1y. sont 1) frx.

w) : u2e-'-u I 1^ U. er pourtXl+O.a. réalité [X].S<X<[X]+ t. onobserveZ:[X]. (u.w) : ue . 0n donne sa densité g e. son espérance et sa variance. (x): ^ x) 0.a. z(y-x). + [X] t ^ P(Z:0):1-e 7 ^^ n*0. où [. discrète où : Vne IN P{Y:n} : p{n(X(n+1}: E(Y) d*1 g(r)dx:e-na11 -s-a1 n : i nP{Y:n}:Je'' n:0 I v (Y) : .b):r-rn1r7 E(Z):2sh-.v.*_1 (ule-u llo.**1(v) 110.À 0.w) où: } 0. fv (v) : .llo. Z (y - X)..o.w)/u A: d'où l'indépendance de U. 0r ra donnée observée est en 1) 0n pose Y : Ix].v.v.x):{u.LES VARIABLES ALFATOIFES 4) Changement de variables : A $. cette fois.À*.À ('l _ 1r on 2) Pourtxl observe Z: <X<[X]+0.IASS] S LEGAIT u-a I À 2 e-^ (1 -e- ÀY .0. réelle continue représentant la mesure d'un phénomène physique dans une unité donnée.5(X<n+ 0.2) : La densité de (y -x. * _1 (u).] désigne la parrie enrièrc de X.v.'|1wy {(u. -PH. 2) Oue dire lorsque ra donnée observée est. P(Z: n): P(n-0.v.v. r'entier re prus proche ? lndication 1 ) Y est une v.b. V et fu (u) W: X et: : u e-'1 . * _1 (v) ) 3'4 Soit X une v.v } 0 et 0 <w<1} g(u. X) esr : g(u.w) J(p-t) : 1U (y - X. Donner ra roi de y.-n t.

de densité: f (x)= t.1 (u) + 1.S. Y) et Donner les densités de U : V: f et g et de f. Y)..l(u)* 1lr.1 1lo..o. des X. de même loi.. * -1 (u) et: fvn(u) n (1 - uln-1 1. indépendantes de densilés respectives lnf (X..Xn n v.0.'. * -t et: flr (u) De même: Fvn n un..*-1(u) Fun (u) : : un I 10. .r. indépendantes. TASSI .. Donc : : Fn(u) où F (u) : u 1to.LES VARIAB LES ALEATOIRES 3.a. : *..t (r) (u) : (1 ..(l : uln) I to.. rJ (u) + 1 lr. {u) 106 PH.G(u) lndication Fu(u):P(U(u): P(X(u et Y<u): d'où : fu(u):f De même : (u) G (u) + F (u) g (u) : I -P(V2ul : 1 -P(XlvetY2ul : I -(1 -F(v)) (l -G(v)) fv(v): f(v)(1-G(v))+s(v) (1-F(v)) d'où: Fv(v) 0n en déduit : Fun(u) est la f. Ecrire les densités de (x). ... LEGAIT .r. Un: l:ltn X. '='Én F(u). respectives F et G.a. Sup (X.. et U.5 Soient X et Y. deux v. 0énéralisation Soient X.

expression des densités ou des fonctions de répartition .a. le probabiliste-statisticien a en effet besoin : * de connaître et interpréter leurs caractéristiques fondamentales (espérance. associée à un phénomène déterministe X dont le résuitat de toute expérience est a. La partie asymptotique sera vue ultérieurement au chapitre 7. TASSI S.1 La loi de Dirac 1 Définition soit a e R. un point fixé. etc. par extension. discrète sera dite également discrète. médiane. car elle néceisite des outits mathématiques suppiémenta ires. on appeile roi de Dirac au point a ra probabirité définie sur lR par : ôa : ôu(x) :0 ôu(x) 1 SI X:A si x*a La loi de Dirac est la plus simple probabilité existante. nées observées - d'identifier la ou les lois de probabilité des variables engendrant les don_ LES LOIS DISCRETES On rappelle qu'une v.de pouvoir approximer ces lois par des comportements asymptotiques limites apparaissant dans un certain nombre de situations.Chapitre 4 Les lois de probabilité usuelles La pratique des probabilités dans la modélisation statistique passe très souvent par une parfaite connaissance des lois usuelles .) en fonction des paramètres qui interviennent dans l.a. la loi de probabilité d'une v. 1. LEGAIT 141 . est dite discrète si elle prend ses valeurs sur un ensemble fini ou dénombrable de points. ce chapitre répond à querques-uns de ces objectifs. PH. par exemple. C'est. écart-type .

. la loi de probabilité de la variable X mesurant la distance entre une bouie visée et le point d'impact de la bouie tirée. b} quantitaéteinte.. et.. tifs ou qualitatifs:une porte est ouverte ou fermée. Application Soient n réels distincts fixés (a'..a. V(X1 :9 1. l:l n O.. .S. et telle que : '. Moments E(X) : a. pn)tels que : O<pi<1..) : p..: t : On sait. 1l) On note :Â 11. Si p. Par extension.. an)et n réels (pr. P (X: a.p) la loi de la variableX et on I'appelle loi indicatrice ou loi de Bernoulli de paramètre p. une lumière allumée ou Moments E(X):p 108 V(X):pq PH' TASSI . d'après le chapitre 2.2 Lci indicatrice (ou loi de Bernoulli) } telle que Définition 2 On appelle variable indicatrice X la variable à valeurs dans {0. pour tout i. lorsque le tireur ne fait que des <carreaux> : X suit une loi ô-..LES LOIS DF PROBABIL]TE USUELLES à la pétanque. la loi de Bernoulli est la loi du résultat d'une expérience ne pouvant prendre que deux résultats possibles {a. etc. discrète prenant ses valeurs sur {ar. an]. i: 1 àn.. que la combinaison linéaire n o' ô'. est une probabilité P associée à une v.f '. LEGA]T . . la loi de X est dite uniforme.t. : 1 'n -. 1 : tx1t1: o Px{o}: q(q:1-P) (p € t0.

yi x! x:0 x:1 "-o(x_1)! " yIO "-olr E(X) :2 : Plus généralement.' :À î : i r"-^1:^ î . La table 4 donne les valeurs des probabilités d'une loi de poisson. quelle que soit la valeur de.(x-k*1)e-^ i x:0 xl æ :X k ik .l: E (X (X - 1) ".s-a ^x x! :X -) .3 Loi de Foisson Définition 3 La v. etc. dans les phénoÀènes de comptagà d'événements pouvant survenir Bendant une unité de temps donnée: nombre de voitures passant devant un observateur.À.. sous certaines hypothèses.k + 1)) : .TASS] -S LEGAIT 109 . carcurons re moment factorier d'ordre k /rr.L[S LOIS DE PROBABILITE USUELLES 1.1 k D'où : et donc Ft2t: E(X(X-1)) : E(Xt)-E(X1:22 E(X2l : : ^2+À v (X): 2 ll convient de remarquer que la loi de Poisson est la seule loi discrète à avoir l'espérance égale à la variance. X suit une roi de poisson de paramètre À (À i o) si o : rN er: Vx On nore € lN px1x1 .4 (^1. comme nous re verrons dans re chapitre consacré aux processus. Moments E(x) À'. ra roi de Poisson apparaît. nombre d'entrées ou de sorties d'une salle d'attente.. PH. (X . x(x-1).a. e-À À ' : (x-k) ! x:k /1L1 oo Àn U:O - yl : .

1. X suit une loi binomiale de paramètres n et p si Px 1x1 : : Cx p" (1 .LFS LOIS DE PROBABIL]TE USUELLES 1. n}. LEGAiT . Y' qui prend la valeur 1 si le ième individu est du type l.. ll s'ensuit : !/J (n. on peut écrire que la loi binomiale somme de n lois de Bernoulli indépendantes. Considérons une population composée d'éléments de m types. Soit X le nombre d'éléments du premier type présents dans l'échantillon de taille n ainsi obtenu . p).pl est la suivante: Définition 4 Une v. et est notée !4 (n. Supposons qu'à l'individu no i de l'échantillon (i : 1 à n) on associe la v. . X est une variable aléatoire à valeurs dans {0. :O) si si n i€(l) i€(ll) : Alors. 1 .p)n-x pour x e {0. . il est évident que le nombre X d'individus du type (l) dans l'échantillon vérif ie X_: i:1 Yi Comme Yi -) gJ (1. TASSI . o.a. :1) P(Y. :np(1 -p) Une définition explicite de la loi JJ (n. t...5 Loi multinomiale pi. Pi)0..p. ll s'agit d'une généralisation de la loi binomiale.a. indépendants dans une population P(Y.4 Loi binomiale composée de deux types d'éléments. chaque type j en proportion : 1(j(m. La loi de X est appelée loi binomiale de paramètres n et p. le premier (l) en proportion p.:1 j:1 l m 110 PH. n}' La table 3 est consacrée aux probabilités élémentaires d'une loi binomiale. et 0 sinon : On considère n tirages équiprobables. pl. le second (ll) en proportion q : 1 .S. p) est la E(X) soit : : : i:f E(Y')' V(X) V(X) : : i:1 V(Y') E(X) :np. 1.

r il*un nl J n.. . dans r. !1 binomiale 4 h... nj_..rî.. ) ! oft. Définition 5 Le vecteur aréatoire 1= (Nt. nr..*..pj)n-nj PH.. n. V j=1...! est le nombre de (n. Retrouvon.... jdil.. et on définit ra varia'bre arà"ioii"ï.p (1 ..). p.t/ (n.É'i" pr. . . jr(1 nr Pi) -n...n tm :n.r. :. ... nfr o-. pj :1 J-l n)= m nl n. de façon équiprobable et indépendante. En effet... n. nr l.. un érément tiré est soit du type (avec probabirité ra p... : [(n..n) suit une roi murtinomiare de paramètres m n. p). te nombre totar d'éréments du iype j aans r.. dg.n)..!.'i..' .... soit r... . TASSI ...In si: Px(n.nj-r ln.!il'Jl.n.] : n.ns {9. n }.)! A.nj*..... tr iik-ïi.l..LES LOIS DE PROBABILITE USUELLES .n. 1... nrr3'"rticitemenr." ill p.ij Di : tr: n - n. On tire.. LEGAIT n.... p (N. avec: m iIr îi :D paf : Propriété 1 : La loi marginale de N est une loi gB h... : . dans cette population. . nr) - partages d'un ensemble de n éléments.t. . N. pr..). on' t ou: m j:1 j:1 n! n' | ..... défini I R.) A.j.J> "*t (n - n. on a oiil. par re carcur....')suir une roi murtinom.événement vvr(rsr t ""ie*rili A.S.." n . soit non i pi) ... représentanr re nombre J'étéments oé tvpJ i iigrr"n.. notée .échantiron....nl n Pr' . .. un échantitton de taite n..pj >0.^f nn.échan_ tillon' on dit que re ve*eur(N.pr pr.. p.... tm.1 !..

pr .pi.pi) : (N.LES LOIS DE PROBABILITE USUELLES ll s'ensuit Conséquence : P {Nj: n.: i:1 r (v) C. déterminée par C. e.a. Nl).r.): cll eli 1t - pj)n - nj E(Nj) : nFj (Ni) : npi(l -pi) lntuitivement.)!(nr. t'' E : (nj.. (f (y) sa densité. calculons Cov (Ni. ! . N1) suit une loi multinomiale de dimension 3 (une l'oi . i : 1 à K : K g. . Nr) (NjNr) -> n! "U.1)!(n ..pr)n-nj-nr N/: : n Fj p. I son espace de valeurs..nr) :n(n-1)pipr Cov (N.). Comme auparavant.trinomials") puisqu'un élément tiré est soit de type j (pj). continue.. (n : pl p/ 4. La loi multinomiale en statistique Soit Y une v..[ 112 PH. r' I : [e _. LEGAIT .Yn) un échantillon de n observations de Y.. S. (N. TASSI . ll est très fréquent (tranches de i"ù"nr. ti"âncnes d'âge)de partitionner U enclasses.. soit de type I (p. oi. (i + U soient non corrélées.n. et N. soit non (1 . N.C. a fortiori indépendantes. (Yr. nrl nj+nt(n d'où : (ni.a. il n'y a aucune raison pour que les v... la classe C..

6 Loi hypergéométrique on considère un tirage équiprobable sans remise de n éléments dans une population de taille N (n ( N) . . à partir du dénombrement "cas favorables.yn) Le vecteur (Nr.a. N*) suit une loi multinomiale 'b 1n ) pt. F*) avec : o./cas possibles...a.(N. LEGAIT O sinon. associée à tout individu a de la population telle que : Eo:1 ro: si a appartient à l'échantillon t PH TASSI .LES LOIS DE PROBABILITE USUETLFS on définit les K v. 1 f (v)dv . p)est la suivante.. dans C... Ni.. avecq - 'x : 1- F. et est notéeJf. pl. la v. : Définition 6 X suit une loi hypergéométrique de paramètres N. p. Une définition explicite de la loi J(1N. . dénombre res points de (y... où N.. n. présents dans l'échantillon de taille n obtenu. a:1 ( I à N. . . La loi de X est appelée loi hypergéométrique de paramètres N. n. que I'on supposera être en proportion p (Np est donc entier).on s'intéresse à un type donné (l)d'éléments de la population..S.. n et p. n. si tNP /'n-x uNq Px (x) : pour Max(O.: Jj. soit X le nombre d'éléments du type étudié. n - Nq)(x( cft Min(n. Np)._.i: 1à K. Moments E (X): nP V (X): N-n N-1 npq Démonstration Soiteo....

nombre d'individus de type (l)dans la population.: Np. E(X) x- = I YoE(eo) a:'l Nn : a:1 aN N puisque : d:l N Y. tq:r YJt: N'P': a:l . eO: - P (€o: 1). : 1. S. LEGAIT .. P(c. Y : O sinon. De même: V(X) : N G:l aTp 1l 1l EEoe.E-l: V(sa) En outre n(n-1) N(N-1) n' N2 -: n(n-N) N'z(N-1) : Ele'?al_ Ez leol:+ .É " a*Ê PH. TASSI nN >.LES LOIS DE PROBABILITE USUELLES Comme il y a Cft-11 échantillons de taille n contenant l'individu a.\:P (toeO: 1) : P(€a: 1. et : Cfi échantillons possibles de taille n P (eo: cil-l 1) n Cfi On peut écrire : : Yoro a:1 où Yo prend la valeur 1 si a est de type (l)./to: n(n-1) N(N-1) Covrc.

n procédant à une suite de tirages équiprobables et indépendants. loi binomiale)._ Ll.il De manière plus explicite. oria : N-n <1 dèsque n)l N-1 V n En particulier. on désire obtenir n érémenis du ifi". V..souscesconditions. Soit ".S.l-. on obtient V (X): pz*Nprffi # (l N-l p n *)l : lll-r*.t) N N (Nt Pt .7 Loi binomiale négative on considère une popuration dont une proportion p est composée d. 1 . on a . si n -. Ç: Ë-1.tÀi Définition 7 X suit une loi binomiale négative de paramètres n et p si . en notant Vn (resp. ".N) N-1 d'où : v(x): N-n N-1 noo . La loi de X: Y . Px(x.| nf x- pn q* pourx ' € lN PH. la variable Y aléatoire désignant le nombre de tirages nécessaires pour obtenir les n éléments voulus. [\ -* *. g tÂ. 9n constate que.éréments d"un type I donné.N -O. p.LES LOIS DE PROBAEILITE USUELLES D'où : V(X): n N (1 ^ n{n-N} * nN -) a:1 Y'+ r'r. : CII_.æ. IASSI .: : N Y2. Vr) ra variance de X seron ra roi hypergéométrique (resp. LEGAIT 1t5 .N . a:1 al En remarquant que : y? q:1 a :: N a:1 Yo : Np.n est apperée roi binomiare négative de paramètres n er B. les tirages avec remise et sans remise sont équivalents en terme de variances de X.

r. le nombre tirages esi tlxé. c'est le nombre d'éléments de type I qui est fixé et donc la taille de l'échantillon global qui est aléatoire.1 Définition LES LOIS CONTINUES CLASSIOUES Loi uniforme I ( b. LEGAIT 116 . ou. la probabilité d'un tel événement est qx pn. et c'est le nombre d'individus de type I qui est aléatoire. De telles approches sont parfois utilisées en statistique.LES LOIS DE PROBABILITE USUELLES La forme de Px (x) est obtenue en remarquant que {X : x} signifie que x tirages ont donné un élément d'un type différent de (l). b].S. ou loi géométrique de paramètre p. V (Yl E(Yl : q/p2 2 2. *r". Sa définition explicite : n oq V(X) : n-. Dans celui-ci.1 . Dans la de loi binàmiale négative. notamment en théorie des sondages [6]. TASSI . pp: dans le cas n: 1. b]. et il faut multiplier par le nombre de tels échantillons de taile n+x soit C[l_. Moments Cas particuliers de tirages effectués jusqu'à l'obtention du premier élément du type désiré porte le nom dà loi de Pascal. la loi de la variable Y désignant le nombre E(X) estPY(y):pqY-1 poury Ses moments sont : e N : {0} 17. est F (x) x-a b-a pour x € [a. si sa densité est donnée X suit une loi uniforme sur le segment Ia. PH.. n tirages (dont le dernier) ont dônné un élément du type l.b-a 1 1t. a par : f (x) :. ul (*) On note * -. épidémiologie et essais thérapeutiques. Remargue L'analogie avec le schéma binomial est intéressante. en biométrie. Sous l'hypothèse d'indépendance.u1i la f. plus exactement pour la loi de Y.

notée y (p. exercice 3.ntt E(X)= +..%rc.ro. de loi Ql..S.des échantillons extraits de la loi de X (cf.r.a.l)que l'image par sa propre f. (x). Graphes .. continue X est une v. x* b-a on est ramené à une loi uniforme sur le segment [0.LES LOIS DE PROBABILIIE USUELLES Remargue En faisant lechangementdevariables x-4. TASSI . E(x) : +t v(x) :+ . 1 ].o..r. 4.r. si sa j= "-. xp-i 1n + (x) PH.a. cette simuler . de densité g (x): l. d).4). LEGAIT .%r^. de toute v. Moments . 2. propriété est très utile pour r1.V(x) : \{ Rappelons (cf. e> O. densité est : f (x) : p) O.ou engendrer .tj. chapitre 3.2 Loi gamma Définition 9 X suit une loi gamma de paramèrres p et 0.

Vp € lN .f +co e-x xp-1 dx 0 a) Si le paramètre d'échelledest égalà'1.1.r* 1x) b) Si p:1. Vp ) 0 l-(p) : (p* 1) !.a.1- "-0x.{0} T (1/21 (parintégrationparparties) : G -(-l't/2rP e Do (1 l-(p+1) +- 1 tzp )(P-. Forme de la densité de y (p) o<p<1 1<p<2 Propriétés de I.(p) l-(p) : (p-1) I-(p-1). 0.S. la loi gamma Y . Y : dX suit r (p). on écriray (p. La densité d'une loi r (p)est : f (p). TASSI . f (x) : 1 =ir (p) e-^ "n-1 1.si 0+1. d) porte le nom de loi exponentielle de paramètre saI. LEGAIT . est F (x) .r.LES LOIS DE PROBABILITF USUELLES ou: r(p) Remargues :. 1)ou la v.+-) PH.

S.r""tÀ*"nii.0) ou plus généralement : : I u-.*.LES LOIS DE PROBABILITE USUELTES Moments SiX suir une loi y (p.e1per"n""régèrement ou r.. où d esr o. on a E(X) : 1 0Ëet vrXl :l type moyenne de X ou l'inverse de son écart-type.u (71 r+p-l Démonstration +cÔ E (Xr) = J" 0 0P . e>0.3 Loi de Weibuil Cette loi est due au mathématicien suédois W. on a: E On en déduit : (X') : l.(p + r") o'f V (pl E (Xl : p/0 (Xl: p/Ê 0p u 1 e. PH. LEGAIT . si sa densité est f (x) : a0 xa-1 e-o^o 1. pl : J= -t _ t (p) e-x/s 0-p xp I R.0" (*) I (x.** -[ 1 o r(p) r(n+r1 1 0 du E(Xr) : ot ffi : 1 Dans le cas de la loi exponentielle. ceci donne naissance à une forme différente de ta cjensité. TASSi . donnée par : a) (x) o. (x) '"' 2. Weibull t211. 0. 0).écart_ : Le paramètre d est donc interprétabre comme |inverse de ra vareur I (x.ëx xr+p-l dx - ^ v^: .rt . parfois utirisée. Définition 1O X suit une loi de weibuil de paramètresûet 0..l r(p) e.

soit x) : e-d*. est 1 . LEGAIT . 0l. on est conduit assez naturellement à étudier leS exponentielles e-0^q.*Zl d a g2/a o g2/a t-(1 : l' +æ -*" a0xa-1 e-d"od* : 2 t x dx d'où : V(X) : 2^1 +-l .e-dx.LES LOIS DE PROBABILITE USUELLES Fonction de réPartition .e-'^1 (.o /a Q1 rt1 +1) l-(1 v(x) = Démonstration E 2^1 +-) a.f +oo e-d ** dx en intégrant par parties' E(X) . Pour décrire des phénomènes dont l'ordre de grandeur d'apparition d'événements extrêmes du type {X ) x} est beaucoup plus faible que p (X ) e-dx.r' 1t +-) aa 02/a PH.a l-'(1 +-) 62/a (X) : J' +oo x a0 xa-1 e-e ^a dx oo = . exponentielle par le changement de variable '1 Moments r 1x1 :----. 0l dont la f.) o Oaqaf/aqag1/ad E (X2y du 1 1 1 +oo 1 e-d*' - 1 oo : 2 rt?l. la loi de weibull se déduit donc de la loi **1 /a. La forme de la f.1'. si a Fr(x) = 1-e-o^o : 1.1 .r. En Remargue La variable Xa suit la loi y (1.r. donne une idée intuitive de I'origine de la loi de Weibull. on retrouve la loi exponentielle Y (. TASSI . effet. S.L-" :J ^t.r.

q ) 0. Z).r) Le jacobien J (S-t)de la transformation (U.4 f (p)et Loi bêta Soient X et Y deux variables aléatoires indépendantes suivant respectivement f (q).S. LEGAIT . q) (1 + 210*e rR* ' ' PH TASSI .y) Considérons : .". q) - rlP) ' r (q) r(p+q) d'où : f-121 L' ': B (P. il suffit d'intégrer par rapport à u : ce qui conduit à : On pose : B (p. d'après le théorème 5 du chapitre 3 : s lu:X \ g-t est u/22 . x il.. IR. La loi du couple (X.LES LOIS DE PROBABILITE USUELLES 2.definie-paï : /x\ \rl-\r:*. ('.+ r (p) r (q) ". p ) 0.lR.r.(x..r1(u. z) : --je-u 1r * |t up-l (l lo-t -yr(p) r(q) z z' f (p) f (q) zq+l Pour obtenir la loi de Z. Nous allons chercher ta loi de ta variabte Z:X/y. d'où la densité du couple frr.y) la transformation g : lR* x lR+ * lR+ x . Y) a pour densité : f.^.+ e*(x+v) xp-1 yq-1 1.

1 I En faisant le changement de variable fr(t) : . dans f.hrn-r 11 -t)q 11ro.r(t) La loi bêta sur [0. 1] dite loi bêta de première espèce de paramètres p et q. q) PH. q) tr+p-1 (1 _ t)q-1 tt En effet : E(rl 122 : J"1 0 B (p.a. q) dt: B(P+r'q.. on trouve facilement la densité de T T est une v. q)sur [0.f r(t) : : lto. -) 22 :7f f : -!1+Z suit une loi bêta É (p. 1 1 (1 - x)a-1 6* B(p.LFS LOIS DE PROBABILITE USUELLES Délinition 11 Z suit une loi bêta .S. On la note É (p. TASSI . Rappels B(P.sur lR* de paramètres p et q. 1l (t) : P (1.q) Définition 12 La variable aléatoire : B(q. q ) O. Elle varie selon les valeurs des paramètres p et q (voir les graphes page Moments E (Tr) : B (P + r' q) B]gj::f: E rzr\: B (p. tl.P0 . q). q) B (p. car pouvant être définie sur tout intervalle Ia. b] par le changement de variables Y: a + bT. 1 ] est extrêmement utilisée. Forme de la densité de T suivante).1) : %rc.p) B 11 (-. (z). LEGAIT .. dite loi bêta de seconde espèce.q) + æ xp-l : J (1 + 11n+o O --dx : J" x. à valeurs dans t0. : p > 0. B (p. Remargue Dans le cas p: 1 et q :1..

1) :--_____-____.2) ' >2) La variable Z n'a donc de moments d._DOUr(q (q : - 1)'(q . i. Le résultat est immédiat. f (p) et f (q).S. LÊGAIT 142 . Alors ta variabte ï: espèce. De même pour E (Zr).LES LOIS DE PROBABILITE USUELLES q)1 p>1 l'intégrale. à condition que q : ) r afin d'assurer |existence de pq On en déduit E(T) : p p+q V(T) v (z) E(zl : --o q- (q> t) | (p+q)'(p+q-1) p(p+q.+ Y X T suit une toi bêta É (p. indépendantes suivant respectivement p ) 0. q ) O.ordre 1 et 2 que pour q ) 2.a. q)de première sous la forme les définitions qui précèdent. TASSI . Théorème 1 Soient X et Y deux v. il suffit d'écrire X/Y 1+X/Y et utiliser PH.

La densité et la fonction de répartition de Y sont : fy(y) : exp(-y-e-Y) Yc lR Fy (y) : exP (. Les paramètres m et a sont aisément interprétables.3.57722 où O.fr"-T (x-m) 2 € rR) : X -) N (m.6 Loi normale unidimensionnelle Définition 14 X suit une loi normale de paramètres m et o par : (o) O) si la densité est donnée (x t*(xt On note :.X porte aussi parfois le nom de loi de Weibull. a).57722 est la constante d'Euler.eY) 2. LEGAIT .5 Loi de Gumbel Définition 13 X suit une loi de Gumbel si sa densité est : f" (x) : : exp (x - ex).exp (.S. TASSI . x € lR Sa fonction de répartition est Fx (x) : 1 .ex) Tr 2 Moments E(X) : -0. à ne pas confondre avec la loi étudiée au paragraphe2. V(X) 6 Remargue La loi de Y . calculons E (X) 1 ^*æ E{X):----. En effet.J o t/2t oo xe - -------r- (x-m) 2 2o dx 124 PH..LES LOIS DE PBOBABILITE USUFLLES 2.

Loi normale centrée réduite La : o.écart_ .(= 2 o20'3 t/n ) Comme: _3 | (t) :t1 . De même : E (Xz) ^1^+æ :- (x-m) l' o \f27r "mt+ * xt e zo2 dx : 2^o !** -5.. 2 (ue lR) TASSi S.(u) :p(u) : . LEGAIT 125 ." .LES LOIS DE PROBABILITE USUELLES En posant u : x-m o- on obtient : E(x): ^ -=-f*-.æ :/2r u'/2 6u *L . v'a' u 1)./Zo - J** oc Uz _2 /2 "-u 6u ^+æ ^ : m'+ 2o2 J ----=-. dite loi normale centrée réduite de densité - 1 -u2 fr.F 2 ona: v(x) Les paramètres m et type de X. æ VZlr - "-u"/2du:m car la fonction à intégrer est impaire. notée N (0.:e " r/2r PH.+ ----/_ l.o t/r v1l2 e-udv = m. - X-m suit une roi normare d'espérance nuile et de variance : 1. (t t1 .2 a représentent respectivement I'espérance et l.

<D (x) ont été données dans la lit. TASSI 126 .LES LOIS DE PROBABILITE USUELLES La f.r.937298O Plus simples sont O1x1 : 1- 0.- o. <D : ^u1 J__ W "- t'/2 dt sont données à la table 1 .1).33267 x (x)O) c a : 0. et définie par : o(u) Les valeurs de la loi N (0.terature. la table 2 fournit les fractiles de Forme de la densité Cette forme est celle d'une courbe en oclocheo.5 (1 + ax + b x2 + c x3 + d xo)o (x)O) PH. L'une des plus précises (erreur de I'ordre de 1O-5) est : O(x1 : 1 . o) converge vers la loi de Dirac au point m lorsque a tend vers O. LEGAIT .ç(x) (au + bu2 + cut) 1 + 0. de U est notée O. Remarque La loi normale N (m.S.r.4361836 : b .'t201676 : 0. Approximations De nombreuses approximations de la f.

2).-cxndf avec une erreur de l'ordre de 2 .t7gZS7 Théorème 2 La v. LFGAIT r(1) .11b194 c: 1 O.024393 d : 1_ . par exemple.196854 b:0. O.019527 (x Q8l:. on a : u' 1 ^+oo u' -i2du :Jîto ^** h(it" -+' ft 2du e JGI_-h(.2 U'suit une loi y (1/2.a.5.n (y) e.490895 b= 1. lO-a et : a:0.+b.t # : : On en déduit : .LES LOIS DE PROBABILITE USUELLES avec une erreur de l'ordre de 2. PH TASSI S.) : . 1O-3 et : ) o) a : 2.1).fr lo 1 +æ h (Y) Y- 1t2 u-Y (Y {.t"*.OOO344 d:0.466003 c : 0. Démonstration En appliquant.2 '' . la technique de la fonction muette.+ " r(t) r+1 y-1/2 e-y h(y) dy E(!u'f/':" --2 (d'après le paragraph e 2.8.

1)n Pn (x) 1.. LEGAIT . Par convention. Vl : (x.1). _ 1) p (x) g. z r ) (tl 1 Les moments de U et de X s'en déduisent : o Vr e N.tn) 1x) : (_ 1 )n H n (x) rl : (x) c'est-à-dire.pair: E(U') 2r/2 :Trl Z I or 2r/2 E(X-m)':-G-r( r+1 Z Polynômes de Hermite Partant de la densité g (x) de la loi N (0. on pose Ho (x) 128 : PH.LES LOIS DE PROBABILITE USUELLES D'où : E (lul') - 2r/2 r( r+1. noté Pn (x)..(^) : -(x. impair: E(Ur) : E(X-m)':0 r+1 oVr € lN.-3x) 9(x) Un simple raisonnement par récurrence permet d'établir que la dérivée d'ordre n de p (x)se met sous la forme d'un produit de rp (x) par un polynôme de degré n. avec les notations précédentes Hn (x) = (. impaires) de x : . impair). on a : I 9'8):-x9(x) e. TASSI S. Pn (x) ne comporte que des puissances paires (resp.ln)1x) : pn (x) o (x) Définition 15 On appelle polynôme de Hermite d'ordre n le polynôme Hn (x)défini par : .. et que pour n pair (resp.

(x) Hn. on en : 2 u^^ "'^--.. H. LÊGAIT .r-i ue 2 PH.-3x.(x) :x.1s xa+45 x. Propriélé 2 Hn (x) est le coefficient de Iun n! dans le développement de e LIX- -2 Démonstration Soit u un réel quelconque : 9(x-u) : : 1 . irn p(x) e u.- { 2 n:O n! æun : : n! n:O -Hn(x) | p(x) déduit en faisant un développement de Taylor et en utilisant la définition 15. ux.. Ho(x) :xo-6x2+3 Hu(x) :xu .1s. TASSI æ un+t n' ' n:O n! æ rr^ n:O nl 129 .{. H6(x) :xt.. on obtient Dérivons e u" : .-2 par rapport à x. . Hr(x) : xt-1. : un .(x) u' = x.10x3+ 1S.LES LOIS DE PROBABILITE USUELLES Exemple H.d : 2 -Jrr" co . etc.S. n:O n! ll s'ensuit que Hn (x) est le coefficient o" 4 n! dans le développement de Remargue "" -7 u 2 .

' nHn(x) : O Soient Hn et Hn deux polynômes de Hermite. en dérivant par rapport à u. images de :0 V(Hn(X)) : n! E(H^(X)) Cov (Hn(X).a. Hr(X)) Démonstration : 0 a) g[{* dxn e(x)dx] : o: {* (- o(n){") o" Hn(x) o(x) dx (X)) t-l)" {n 1)n E (Hn PH. TASSI ..S.1).(x) Hn_r(x) H"(x) Propriété 3 - . pour n22: Hn(x) : n(n-1. xFl. Hn (X) et X par Hn et Hk. on a u (x-u) e 2= : æ Un-1 n:1 (n-1)! n" d'où.1)Hn_Z(x) : 0 En multipliant cette dernière égalité par n et en remarquant que : on a. en égalant les termes en un-1 Hn (x) (n-1)! -^ Hn-r (x) (n-1)! Hn-z(x) (n-2) ! Hn(x)-xHn_1 (x)+(n.. (x) : De même. LEGAIT . on a : Hn (X) les v.LES LOIS DE PROBABILITE USUELLES En égalant les coefficients de un. on a : Fl (x) : n Hn*. X de loi N (0.

.0/ un vecteur quetconque de tRp. normare. n-n Cov (Hn(X). tn (x) 9(n-r)1x.uc Hn_r(x) p(x) : kl uo. n-l ll s'ensuit : Si k <n: uo. u'X est une v.n*r j. l_n..k-r. PH TAsst . Remarques est normaldans (Rn. 9/l9l. Définition 16 Soit u : 1 Ït \ \.(X)) :n! 2.s. X est un vecteur normar (ou gaussien) si. Hk(X)) dx: O et uk.n:V(H.* tn_r (x) p(n-r) 1x. uk.1'" f : o+(- Ltn(x) O -l +p(n-tl tx!__ * (. En intégrant par n : (- 1)n "i Hn {x) e(n) {x) dx : (.dx î1n*t l. a) on en déduit que si A est une application linéaire de lRp dans lRd.n. fr._o. ae coordonnée courante X. alors AX est normal dans(lRd.7 Loi normale multidimensionnelle Soit X un vecteur aléatoire de (lRp. et si x LEGAIT 131 .a.1.LES LOIS DE PROBABILITF USUELTFS ^^-. dx : k .. uk.d1.o1. i : 1 à p. n : l* tn (x) Hn (x) p (x) dx avec k( n.f n.o:1 et un.n: : O Si k: uo. vu.:) on a : parttes.r. " . fr.n-k:.

p) réelle symétrique positive. j+i.rr) : t(v. LEGAIT 132 ... . : 1 et .I.y0) Effectuons le changement de variables défini pat Q i ": g-1 (y) (x1.t(*-m) >-t (x-m) : t(y . .S. X est un vecteur normal de dimension p si sa densité est donnée par : f" (x) : (2rP/2 Propriété 4 \6At I s-2 '{"-m) r ' 1. .g)ts >-1 S (y .. D I (non nécessairement : Diag 1oi. af Oesignent les valeurs propres positives de toutes différentes).:.ti D-1 (y-p) p1 :. I).LES LOIS DE PBOBABILITE USUELLES b) Si u. il existe une matrice ortho: ts>s:D Si af. Démonstration gonale S et une matrice diagonale D telle que I étant une matrice réelle symétrique et positive. oil (y1.... 7 lv'-u')' PH TASSI .j : o. (x-m) E (X) est le vecteur espérance m et > est la matrice de variance-covariance et on note la loi de X : N (m.xrl4> y: : tSx : sy car tS : S-t (S est orthogonale). lJ(p-')l :lDetSl :t : On note g: tsm.. xiest unev'a'r' normale' : La loi normale multidimensionnelle peut être également définie par sa densité Définition 17 Soit m € lRp et I une matrice (p.

.. tu X -> N (tum.. 1r et V(Y) : D où V (Y) désigne la matrice cJe variance-covariance de y. a.. yO). ... Xn) : 1 (2rlPtz --e (t2l2x1 Théorème 3 Soit X: (X' Xz) un couple gaussien à valeurs dans lRz.TASSI -S LEGAIT .) : I t...l u... de den'sité t\ (O. u. tulu) ce résultat vient directement des propriétés du paragraphe 2. ... sont 133 indépendantes <+ Xr et X2 sont non corrélées. On note : (Y. --! Vzroi i-1 Y: E(Y) T "- 1 Ni.... X.mj) : tu V (X) u Définition 18 La loi réduite. d'où Ona: : : = E(SY) = SP: m V(X) : V(SY) : SV(Y) tS: E(X) Propriété 5 SD tS: X Vu € En particulier V (Z lRP... . yn) u = (2ùe/276' 2 ti'' e- I p 0i-u)2 . E (Xi. : u X.1 s (v1... yoi : f. lD) est appelée loi normale (multidimensionnelle) centrée : et 1 (xr. PH.mi)(Xj.).3 du chapitre 3. Yo sont indépendantes et suivent respectivement N (g..u)2 "1 donc Y.LES LOIS DE PROBABILITE USUELLES d'où : g (y1' . et X.. .

c définie par P {c = telle que X et c soient indépendantes.". LEGAIT -> i 11 . elles doivent nécessairement constituer un couple gaussien...)] _I - La densité de X s'écrit f(xr. Remargue Deux variables gaussiennes non corrélées ne sont pas forcément indépendantes : pour cela./z' N N o'. et X2 sont indépendantes et suivent respectivement les lois (mr. sont non corrélées. et X.. En effet supposons que : c'est-à-dire que Cov (X.o1r"Z 2 1 (*. : donc Y 134 ::'1... FY(Y) 11 1l:... chapitre 3. 1/2t o. ll . On conclut que X.S. .. P{X>-y1:F*(y) PH. quelle que soit la loi de X. et X. 1) . af let 1 -t 1 (xr mr) 2 (x2 - m2) o't 2 C2 '.-Ti)' :_ô (m.Ple:-1]:22 : P{Y<": .*(vl+ N (0. sonl indépendantes. Xr) X-)N : O.. et X2 (cf.)' _1 -n 1 (*. 1) et une v.LES LOIS DF PROBABILITE USUELLES Démonstration Si X.i.. La réciproque est fausse en général mais est vérifiée dans le cas gaussien. TASSI .-m.i:-:i.xr) : 1 ^ z7r o1 o2 - expl . Exemple Soit X de loi N (0. o7l. alors X. théorème 10).. On pose Y: e X. : [...a.r ) (r3.

a. lz)er X + y suivrait ators une loi N (0.Y):E(XY)-E(X) E(y) donc X et Y sont non corrélées.LES LOIS DE PROBABILITE USUELLES Cov(X. X définie Far X: exp Y suit une loi log-normale. 2 y ne sont pas conviendra par ra suite de ne pas confondre deux variabres gaussiennes 2. vâ).:6 supposons que X et y soient indépendantes .(L"gl=ry' I 1 20' R+ (x) I La densité de X se déduit de celle de y par le changement de variables : y - ey Forrne de la densité PH. avec un couple gaussien. La v. o).8 Loi log-normale Définition 19 Soit Y une variable aléatoire suivant une loi normale N (m. tFGAlT 135 . Donc X et indépendantes tout en étant pourtant non corrélées. arors re coupre (X. La densité de X esr : fx (x) : =:-\/27r ox exp (. : E(Xy) : E(cX2) : E(e)E(X2. \/r) est continue. o Or: P{X+Y:}: P{e:-1}: ll 1 ce qui est absurde puisque la loi N (o. TASSI _ S. y) serait o gaussien de loi N ((^).

E (Xr) : E (erY) +oo 1 .r.latr-rrt : .Po" .'On en déduit la densité Ùn : 1n^n Xf suit ( I r . notée X2 (n). .a. Définition 2O La variable aléatoire Uliberté.6).2o' rr-(+ . 1). (1 . 1) (cf : paragraphe 2..r indépendantes suivant respectivement f h.Xn) indénendantes suivant toutes la loi normale N (0.. trt : un 136 --f (t "-i **-' Z"rrf I PH TASS] -S LEGA]T .a.9 La loi du khi-deux On considère n v. (x) r.1).a.engénéralisantàunesommedenv. paragraphe 3.. " : n i: 1 ' Déterminons sa densité:on sait que 1^1 Xf t suit une loi .LES LOIS DE PROBABILITE USUELLES Moments Ê (X) = /2 "^*o" 1so' V (X) En effet : : "2^nc2 - 17 Yr )o 1." E (Xr) : * "t'* l- 2. Or la somme de deux v.[ srvs 2o' ' ^!t/2ro dy E(Xr) : f_*àe +co 1 fu . 0l et f (q.ll 2 i:1 lrR.. (Xr. d) suit une loi f b + q. Donc. 0) (la démonstration de ce résultat est proposée au chapitre 6..rto"l' *t+-.

oft. carré de ta distance I à l'origine du point aléatoire normal M.m) suir une toi Ou X. Z est un vecteur gaussien d. Xoi: llOwll' : i:l t D X|. . o? : y (2.1. La loi du x2 possède une interprétation géométrique : soit X un vecteur normal de dimension p. .. tx :-' x : 9_ i:l 1 oi "uit par définirion une toi yz (p).. mêmes notations qu'au paragraphe2.espérance nulle et de matrice de variances-covariances D : Diag @?.tS X . (p). PH TASSI -S. ot. M le point (aléatoire) danJRp de co'ordonnées (X. LEGAIT 131 . de roi : N (m. .a.. Avec ies tX:-t X: tXSD-ttSX On note Z ..LES LOIS DE PFOBABITITE USUETLES Théorème 4 soir un vecreur aréatoir.ex dg (rRp.t (X . r). I. /tÊp). La v. suit une loi du y2 à p degrés de liberté.T y: \x - m) on peut se limiter au cas m : 0 : ir suffit de centrer : re vecteur..

2.1O Loi de Student Définition 21 Soient X et Y deux variables aléatoires indépendantes suivant respectivement N (0. S. On appelle loi de Student à n degrés de liberté la loi suivie par le rapport : ?_ X /Y V.2 (n) et y (n/2l1. on déduit : E(Uj) :r''(t*'l r (+) d'où : E(Un) :n V(Un) =2n Les fractiles de la loi du khi-deux sont donnés à la table 5. 1) et x2 (n). LEGAIT . Cette loi est notée Tn PH TASSI .tES LOIS DE PROBABILITE USUELLES Forme de la densité n:2 n:1 Moments De la relation existant entre les lois.

T2 rapport de deux variables X YNY et indépendantes et suivant respectivement t Ë : { est aussi te n : n suit donc une loi bêta P(t' 1 1 n Tn est ^ 2 ) de seconde espèce. TASSI . 'n Forme de la densité (x) : "6 e tl. PH.t (1 + n+l x2 .S. Les fractiles sont donnés à la table 6. La densité de f. à Moments E (Tn) : 0 (symétrie) (n > 1) : n v(Tn) (n)2) "_2 Les moments s'obtiennent à partir de ceux de la loi bêta de seconde espèce (cf.LES LOIS DE PROBABILITE USUELLES Densité Pour trouver la densité.2'41' d'où les conditions d'existence sur le degré de liberté n. de forme (en croche> eomme pour ra roi normare.-=-z n -) La courbe représentative de la fonction frn (x) est symétrique par rapport l'axe des ordonnées. i. TEGAIT 1?O . il suffit de remarquer qus 1nz r(vlety(rl.

exercice 4.11 Loi de Fisher-Snedecor Définition 22 Soient X et Y deux v. normales c'entrées réduites indépendantes (cf. suit une loi de Fisher-Snedecor à n et m degrés de liberté notée Fn.r. LEGAIT . ni espérance.^ . 1iàt x'tr t.. Sa densité est : fr' (x) : n(1 +xzl Tf suit une loi p moments de la loi bêta de seconde espèce font que T.. TASSI .LES LOIS DE PROBABILITE USUELLES Cas particulier : loi de Cauchy Pour n N (0.** {*) PH. T.2).a. respectivement La loi suivie par T1 porte le nom de loi de Cauchy . F est donnée par : (+ . indépendantes suivant respectivement les lois x2 (m). Arctgx 2. ll O" deuxième espèce et les conditions d'existence des F(x) :t *. Sa f. ne possède aucun moment. donc. f.S.a. a fortiori. (x) : 1 r(+ 7t m nn/2 *n/2 - 1 ^m/2 (m + nx) n+m 1. c'est aussi la loi du rapport de deux v.F La densité de F s'en déduit : suit une loi É (7 -) 2 m de seconde espèce. = 1. ' : -+VY où X et Y suivent indépendamment. nX/2n -. La variable x' (n) et F : X/n . ni variance.

V suit une loi de Fisher avec U -) Fn.* et V-) F..y a aucune raison de privilégier X comme numérateur) la variablé'V par : l.LES LOIS DE PROBABILITE USUELLES Forme de la densité Remarque Tl. m) Ona: t" t-a' (m.n .ml Propriété 6 n(m-4]l (m-212 2m2(n -----im>4. Par définition. carré d'une variable de student à n degrés de liberté./Vontdonc même loi. m) Démonstration Nous aurions pu définir. : a TASSI S tEGA]T .''. +m-2) On note fo (n.m q' PH. à partir des v. suit une loi Fisher-Snedecor à 1 et n degrés de liberté. ' - Y/m x/n Fn. X et y de roisyr 1n.a. a UV : P(F_ _<f-(n. ety.r.m)) 'n. 1m. de Moments E (F'n'm' -) : -!(m m-z > 2) V(F 'n. 1it n. n. m) le fractile d'ordre a de la loi F (n. n) : 1 fo (n. ll est évident que I'on U et 1.

LES LOIS DE PROBABILITE USUETLES Ona: P('F d'où : 1 <f-(n.. ll importe donc d'utiliser au mieux un certain nombre de pratiques de la statistique descriptive afin d'orienter le statisticien à spécifier I'hypothèse que P est une loi bien définie . a priori.ss (8.. t" toi p Oe X n'est. pour lequel existent des outils relevant de la statistique mathématique (cf. X.S.. Ona: fo.. un histogramme.5) : 4. Xn) d'une v. "onnre.a..8) : 1 fo. 142 PH. TASSI . n-') 1 Les fractiles de la loi de Fisher-Snedecor sont en table 7.ob (5. Exemple Soit Fu. 3 LES PAPIERS FONCTIONNELS Les deux paragraphes précédents ont présenté diverses lois de probabilités et leurs propriétés. de l'étude peut guider le statisticien-probabiliste vers tel ou tel type de loi de probabilité. le graphe de la fonction de répartition empirique.2O7 .e5 (8. est le résultat de même si farfois le contexte fexpérience no i. Cependant. Toutefois. a m)) : a P(F <_):1_a ' 'm.n fo(n. pa. par exemple [ 19] ou [20]). il s'agit là d'un problème d'adéquation à une loi de probabilité. lorsqu'on dispose d'un échantillon (X.os (5.8) : O.. et surtout l'usage d'un bon papier fonctionnel peuvent être des auxiliaires précieux. en première approche.5) On lit sur la table f.m) ft -o(m' n) : f"(n. LEGAIT . dont on cherche le fractile d'ordre 0. un diagramme en bâtons.. c'est-à-dire d'une suiie d'expériences indépendantes où X.82 et donc fo.05.

1 Principe des papiers fonctionnels n v. h (Fn (ej))) aura à peu près ra forme d. .une F. . d'indiquer.. e. cetlg propriété permet alors. o).'. TASSI .r. ".) en abscisses et h (Fn (e.Xj strictement infé_ proportion observée du nombre de réalisations dans rieures à x. F^ (e.2 Exemples de construction de papier fonctionnel fonction de répartition PH.-.*.)) aurà rà même s'di hi.de limites de classe (e.une forme tinéaire. Xn. La fonction Fn est alors évaluée en e. 3. r. dans la plupart des cas. indépendantes représentant n réalisations d.S. quand on dispose de n réalisations d.une expérience aléatoire. ' C.).LES LOIS DE PROBABILITE USUELLFS 3.. au lieu d'utiliser un repère arithmétique.. Le papier ainsi gradué par reè fonciions fonctionnel (h. introduite au chapitre 3.i. ll arrive fréquemment que lespace . caractéristique de la loi p. on cherche ùne relation de type linéaire entre des fonctions h (F (x)) et g (x). : Soient X. de densité et de : 143 . (Xr. Fn désigne la v.a. si.. soit X de loi N lm..w des vareurs de X soit partitionné.. X continue de loi p.ln nole (e..Cet indicateur d'adéquation à la loi doit être ensuite infirmé ou contirmé par la théorie des tests d'adéquation non paramétriques de la statistique mathématique ([1 1])...)) s en ordonnées.. le nuage de points (c (e.*.i. de fonction de répartition fonction de répartition empirique Fn(x) :+ :.. h et g à déterminer : h (F (x)) : g (x) droite. etc.). par exemple par l'usage d'une nomenclature (tranches d'âge.j:1 c. L'idée est de faire apparaître une relation détermiste simple entre F (x) et x.. tel què : j s.dilJË r. Dans un repère arithmétique usuer. de revenu.).l: 1 à k.. re nuage de poinis (e. selon la forme du nuage si ces réalisations chance de provenir du modèle probabiliste représenté par le papier fonctionnel. TEGAIT a) La loi normale : droite de Henry ll s'agit de l'exemple le plus célèbre. on emploie des axes cléjà gradués par g en abscisses et h en ordonnées...a. si.. . g) adapré à la loi È..

e f (t)dt (x-m) F (x) :J X -oô En notant par Ô la fonction de répartition de la loi N (0. F (x) : 1 .1 ) : F(x) qui conduit à : x-m : O(---) o <D- ' 1F 1x.F (x))et x. le nuage ("1 1 Fn (e. F (x)) aura pour image la même droite. dit papier semi-logarithmique. € tO..1). TEGAIT "-tu 1 . le nuage de points (e. le nuage (x.".1l et <D-'(f (*))n'estautrequelefractileur.1 : : x-m o ll existe donc une relation linéaire entre 1 (F (x))et (F (x)) : Ôh s (t) :. Cette droite porte le nom de droite de Henry. on gradue I'axe des ordonnées par la fonction O-'. Le papier fonctionnel adapté à la loi exponentielle sera donc log-arithmétique.LFS LOIS DE PBOBABILITE USUELLES f (x) : 1 --=:o1Fzn . 1-F(x) : Log(1 : -6t ll existe une relation linéaire entre h (F (x)) : Log (1 .Fn (e. Ce papier à échelle arithmétique en abscisse et gradué par O-' en ordonnée est appelé papier gaussoarithmétique : un échantillon donné aura de fortes chances de provenir d'une loi normale si le graphe du nuage (e. si.d'ordreF(x)delaloi Le nuage de points (t.)) est ajusté sur une droite dans un papier gausso-arithmétique (voir page suivante). dedensitéf (x) : 0 e-tu(x)0. pour simplifier. ur (r)) sera donc représenté par une droite dans un repère arithmétique usuel . Fn (e.))) sera représenté par une droite dans un repère arithmétique . 01. d>o) ..)) aura pour image la même droite dans un repère -F(x)) arithmétique en abscisse et gradué par la fonction Log en ordonnée.S.e-tu. b) Loi exponentielle Xsuit la loi r (1.zo ^. Log (1 . PH TASSI .I-Jr_ t OrF(x) N (0.

(ù a_ v.S.LES LOIS DE PROBABILITE USUFLLES o . TASSI .- E S=ËÈ= ----é=-.- PH. ù) LIJ c') qræ rr)o O)orJ O o)-o) or)O) srq C o'o C oo6. LEGAIT .È L .g l (o -c uJ ô o b o 'o a a q a o a.O =O aa O(t' EE o o = o FFËHE=F d-dSè'co- = o.o E s .

2 1. dans une décomposition tendance-saisonnalité-aléa d'une série tetmporellè. à la station 0.4 0. ôuÀt .51. S.55 1'27 0'26 3.5 2 2.4.68 2. TASSI 5 (Echelle arithmétique) .. 3.5 3 3.5[. r.67 5.44 O. 1 Fn (e. c) Application nurnérique météorologique du Parc Montsouris (Paris.LËS LOIS DE PROBABILITE USUELLES Remarque Le papier serni-log sert également à identifier un modèle multiplicatif m.25 0.08 1. grâce aux données fournies. [4.60 4.00 9 6.5 . Le nuage s'ajuste sur une droite.05 2 34 0. avec deux décimales' Les températures relevées à 1O heures.5 PH. [5 . i1 . t3 . 0. on voit apparaître alors un graphe analogue à X. t3. en mars 1953. le nuage de points (". s. LEGAIT .35 1 1 0'A2 1 '74 3.2. On peut done penser que le modèle dont sont issues lès données est une loi exponentielle de paramètre égal à la pente de la droite en valeur absolue. Peut-on faire l'hypothèse.48 o. [0.7 0.23 1 .9 0. sur papier semi-logarithmique.31.5.3 0. 1-F en échelle logai'ithmique 1 0.21' + oo[' 12.22 2]7 4. at.17 . que X suit une loi exponentielle ? On trace. 1t.OB 0.8 0.12.85 0.1 o.6 0. sont les ertrémités des classes choisies : tO . L'unité est le degré Celsius.16 3.5 .)) où les e.5 . sous abri.80 3.11.5 .5 0. 1 .5 4.51.5t.43 1.64 2. 14e arrondissement) sont fournies ciaprès.32 2. i'eprésentant la température précédemment déf inie.74 .a.n" telle échelle.: un modèle additif à saisonnalité stable.22 Soit X la v. 5[.51.23 5. ft.

'j t'*'' r _ 1 h (aj) et a. on porte en ordonnées f.. te graphe de h {x) en fonction de x sera la restriction à lN de l'hyperbole f1 Û : x+ 1 En pratique.. 1.3 Cas de variables discrètes Lorsque X est une v. comme h (a.. . pl: x:0.. le nuage de t1 points (a..r*1 ^^ : À peut être approximé par l'inverse de la pente de la droite.a. PH. x€lN si X est une v..S. en abscisses. ..a. .1-P -. le graphe de h (x) en fonction dex est la restriction à {0. on peut rechercher des relations caractéristiques vérifiées pour une loi bien définie.1 } de t'hyperbole b) Loi de Poisson Soit X de loi p(n-x) (1 -p)(x+ 1) I e) P : (X: x) :h(x) : ^ x_1 . si (a. Si les données proviennent d'une loi de poisson. Nous allons citer deui exemples. TASSI . et si t à K) est la fréquence relative d'apparition de a dans l'échantillon observé : (Xr..LES LOIS DE PROBABILITE USUETLFS 3.Xn). et étudier dans quelle mesure les données observées satisfont à cette relation.7) est à peu près linéaire..u") sont les K valeurs entières prises par X. LEGAIT .. a) Loi binomiale On sait que siX suit une loi fi fi. n .il-x P(X=x) *.) h (x) 1 ..n P(X:x) : CIP" (1 -P... suivant une loi g6y..p)... : (o(x(n-1) si X suit une loi binomiale 9l fi. discrète.n-* ll s'ensuit : P(X:x+1) :h(x) P .

LEGA T . du khi-deux. il semble a priori très simple d'engendrer des lois de probabilité. suffisamment régulière (chapitre 2) alors : . de FisherSnedecor. Par exemple. fonction de répartition) ll s'agit des définitions les plus fréquemment utilisées.a. à l'ouvrage de référence de l'ingénieur statisticien qu'est [8]. Peut-on dégager une préseniation synthétique des lois de probabilité ? En première approximation. continues. Cette rapide classification mériterait d'être affinée. multinomiale. hypergéométrique sont des exemples de ce mode de définition. binomiale négative. si besoin est. nous verrons au chapitre 5 que les lois de Student ou de Fisher ont des fondements géométriqr"r. ll en existe de nombreuses autres. f (x) I"IR f E) d148 PH TASSI .1 DIVERS Création de lois de probabilité Toutes les lois de probabilité usuelles n'ont pas été présentées dans les paragraphes qui précèdent ou dans les exercices.S. la loi exponentieile apparaît dans les temps d'attente. etc. Ces variables sont souvent en liaison avec un problème physique concret : ainsi. de Student. en faisant référence à un schéma de tirage du type nbouleS danS une Urne>. et ie tbcteui iniéressé pourra se reporter. la loi de Weibull en fiabilité. Nous I'avons utilisée. cJ Variabtes définies comme fonction d'autres variables C'est une façon très fréquente d'engendrer des lois de probabilité. la loi normale relève historiquement de la théorie des erreurs de mesure en astronomie. b) Variabtes données par une caractéristique (densité. selon diverseS modalités : tirage avec ou Sans remise. pour les lois log-normale. trois modes de génération semblent exister : a) Schéma d'urne ll s'agit de définir des v. la loi log-normale dans les études économiques sur les revenus. nombre de tirages fixé ou non. Èn outre. nombre de résultats d'un type donné fixé ou non' Les lois binomùle. par exemple.LES LO S DE PF]OBAB]LITE USUFTLES 4 4.a. il suffit de considérer une fonction f positive. Dans cette classe prendront place les lois définies par leur fonction caractéristique (chaPitre 6). en particulier pour les v.

a. définies respectivement sur ôo n:0 oo1 u (2n) .a. .2n+1 n:g (2n) n:g 1 ch U2n (2n + 1) ! 11Y.À ^v € J).LES LOIS DE PROBABITITE USUELLES est une densité de probabilité d'une v. De même. et J. ensemble des entiers impairs..S. sous réserve d'existence.À d'où : E(X) PH.: x€lN x : peut être utilisée pour donner naissance à une loi discrète P(X:^1 : -u-" r (0) De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans les modélisations probabilistes des phénomènes physiques. socio-économiques ou autres ? Exemple Considérons le développement en série des fonctions ch et sh : chu: On a donc: oo U2n oo ! . toute fonction f développable en série entière à termes positifs : f(?l.À x! (x€0).l € lRi E(X) : : xeA = z x€J ch .l ^x x! ^x x! ^ ch. continue. par : P(X:y) : P(Y:Y) : En outre : Àx ch 1 . LEGAIT : ^rhÀ 149 .ÀctR* (y yl sh. TASSi .2n+ 1 ! n-O shu (2n+1)! : On peut donc définir deux lois de probabilité discrètes associées aux v. ensemble des entiers pairs. X et 9.

(skewness)..LES LO]S DE PROBABILITE USUELLES Une telle construction n'a de sens statistique que si la loi engendrée peut être mise en liaison avec une réalité. el Yr: Y.a. TASSI . lci. : JB. X (resp. I lZ) _^ _J r ttt 3 .. On sait que : E (X2$ : rt**pl 2n r lJa : ttt Âa: 4 _. Yr: Bz-3 L'interprétation de f1 est identique à celle de É.r.) est un indicateur de symétrie de la loi de X. dit coefficient de symétrie (on emploie très fréquemment le terme anglais de oskewness.) de la loi de X en un sens précisé ci-après.' est donc nul. b) Y1 Les eaefficients de Fisher Les coefficients de Pearson sont moins utilisés que les coefficients de Fisher.1). Le coeff icient B. La définition du coefficient de kurtosis fait référence à la loi normale. les moments centrés d'ordre impair sont nuls . nous noterons respectivement par mk et a) Les coefficients de Pearson nPtu^ 3 u^ A-Fq P2 2 lJz Lorsqu'une distribution est symétrique. É. impairs). Y) est la restriction de la loi de Poisson I (l) à l'ensemble des entiers pairs (resp. Le coefficient P1. représente le degré d'aplatissement ("kurtosis..S. LEGAIT et donc : Fr: 150 PH.5. Calculons F"pour N (0. de symétrie et d'aplatissement /k les moments X étant une v. 4.2 Les coefficients non centrés et centrés de X.

de g (.1 )tendent : exp or. c'est-à-dire ceux de N (0. tl y": eo + 2u3 + 3u2 -6 Yt o Loi bêta É (p. - + co.l-J p+q+2 3(p+q +11 t2(p+q)'+ pq(p+q-6)l pq(p+q+2) (p+q+3) 151 .À Y": ^ vers O. : -r*2o Loi gamma y (p. q) 26 : -7vP Yz: p . 1 ) : Y1:Y2:O c) Valeurs de y.ailleurs e Loi de Poisson Y':..D On remarque que. si o Loi log-normale En notant ar . pour une loi no?male N (0.6pq /2: 1-6Pq npq intuitif.. les coefficients de Fisher 1).r 1 Y. et yzgour quelques lois usuelles o Loi binomiale t't q-P \. 2' résurtat d. on obtient: \/. : o) si p - : q : +.- \/: I2 Yz: PH TASSI -S LEGAIT 2(q-p)v[. La distribution est symétrique (r.r.LES tOIS DE PROBABILITE USUFL-LES d'aplatissement de Pearson.

a.2)..01 :c(d) b(x)sj:1 ' Logf(x. Définition 23 Une loi de probabililé P0.4l + n (n + m - - 22ll n(m-6) (m-8) (n+m-21. telles que la densité f (x. 0l I a.0 e O ensemble des paramètres de P. prennent place dans une vaste famille de lois. dite famille exponentielle (à ne pas confondre avec la loi exponentielle vue en 2.:O o Loi du x2 (n) Y'r Yz: n*4 (n)4) : IB n 12 Yz 4. T.LES tOIS DE PROBABILITF USUELLES Loi uniforme Y't:O Loi de Fischer F (n. des fonctions réelles c (d). (x) mesurables.. par rapport à g vérifie : l(x. m) Yz: -1'2 Yt: Yz: 2n+ m_"2 m-6 121|m 8(m-4) n(m+n-2) (m)6) 2) (5m - 2l' (m . (m>8) Loi de Student T n y. (d) T. (d). b (x) et T. (x). ) (x) : y(d)+P(x) + I a. est dite appartenir à la famille exponentielle s'il existe une mesure p o-linie. 8) de P. TASSI S LEGAIT .(d)T. discrètes ou continues.(x) j:1 ) ) r PH.3 Une structure générale : la famille exponentielle De nombreuses lois de probabilité. b (x).

7 h(x) "ar(m.LES LOIS DE PROBABILITE USUELTES Exemples r Loi binomiale f (x.** (x) TASSI S LEGAIT ] 53 . a) : -!o-t t/2t 1 e 2o2 x/2n ^' o-.À) :Log. "-dx "P-1 I.À T(x) :x o Loi normale (x-m) f (x. x! a(. m. n' -p)n e^t"n " 1-p : h(x) : c(p) : a(p) : T(x) x d'où : Cf (1 -p)n f-og lL r-p ^x x! o Loi de Poisson f (x.7. 7 mx T.'À) : e-i c(. :1. p) : CX p" {1 - p. o) : : - 1m 2".a) -o-1 e-m2/2o2 a.pl:-fro PH.(x) :x2 T2(x) :x :1 c(m. o )*: cI (1 J. ^" .1) :"-'r : h(x.. p) f (x.0. (m. "l : 7 r Loi exponentielle rg. e .n-x : cX (1 -p)n( .

.4 Génération d'échantillons Nous avons vu que.p) : 0p r(r) a.r.a.o1 c(d.l1.r.r.a. Y) . F continue Strictement monotone.LES LOIS DE PROBABILlIE USUELL ES Tr(x) :* Tz(x) :Logx --0 h(x) :1..r.S' LEGAIT . Yn) d'une loi uniforme sur on peut en déduire l'échantillon (xr.. o Loi de Cauchy: Ladensité: t(x..(0.o1 e Loi uniforme : :P-1 'f (x..r. Y: F (X) suit une loi uniforme %ro.r. 4. (YJ) : : vo: F (xo) L'une des applications de ces résultats est la génération d'échantillons aléatoires suivant une loi donnée de f.1 1 T.xn)Qui est régi par la loi de fonction tO. alors : Yo : F (xo) Démonstration P(Y< Yol d'où : a: Xo P(F(x) < YJ : P(X<F-t F-1 (vol.. Supposons que l'on dispose d'un échantillon (y.. 'I . . h4 PH' TASSI . y/ le fractile d'ordre a de X (resp.. to.. . de répartition F. rt (*) Elle ne se met pas sous la forme exponentielle. Propriété 7 Soit xo (resp.01 :. avec xi : F-' (yi). si X est une v.(x) ar(0. la v. continue de f.ol : 1 i .S_6 aléatoires ne se met pas sous la forme exponentielle. F continue strictement croissante.

vérifient la propriété d'uniformité au sens où : P(x) : P 1 10.3301 0. dont un extrait est reproduit ci-après. ll suffit ensuite de transformer par F-1 f : Soit X de loi exponentielle F(x) PH.x:oàg 1 (xy) : :- 100 I I xy: xyz OOà99 p (xyz) 1 000 : 0OO à 999. Ces tables. si l'on souhaite 4 chiffres après la virgule.3907 0. etc. ainsi. : 1-nn 1-x r55 -S LEGAIT .i L'obtention d'un échantillon extrait d'une roi %ro.4994 Exemple 0. table B).lest possible par l'utilisation des tables de nombres au hasard (cf.TASSI : 1 - e-^ F-t 1x. 1]. on regroupe les éléments de la table par paquets de 4. qui constituent la partie décimale : 29267 01 934 19584 13356 35803 90284 97565 65977 37442 72526 53123 99948 59762 19952 81 790 57747 87972 54981 10079 17490 15215 27197 51979 38403 23989 38549 82968 53300 '15184 73650 51 130 59160 89866 06030 88929 Pour obtenir une réalisation d'une loi uniforme sur [0. 49943 30139 07932 559 30728 83499 75500 16143 79028 59894 59543 1 3668 29757 26942 08736 71 d'une précision et on normalise les chiffres regroupés selon cette précision . .LES LOIS DE PROBABILITE USUETLES : F-r (y.9322 etc. on fait le choix 0.

318.743 1..397 1.133 .277 1.287 .761.192 .155 .851.254..132 .4994 0.130 156 1.3031.1. LEGAIT ..1.401.043..421 .537 ...463.046 ..334 ...465 .6391...024 .LES LOIS DE PROBABlLITE USUELLES Echantillon uniforme (x) Echanti llon exponentiel o.740.002 .856 .610 2.063 .861 .306 .643 1..016 .847 .r.623 .366 ..640.1.81 1 1..357 1.543.055 .130 2.1 69. de f.985 .404..1.1.455 .395.593 .7661.154 .099 .228 ..292 .J251.6919 0.062 .223 1.1..661.3907 o.8121.548 .970 .2.550 .847 1.067.201..327 ..493 .821.676 .654.295.1. celles qui suivent sont issues d'une publication de la Rand Corporation [ 1B]..759.814.280.372..108.598 .640 .59 .551 ...479 1.1 66 .503 .081 1.746.311 ...065 1.249 .113 1.090 1.772.468 .601 2.200 . 1].339 2.1.871.2781.367.266..147 .4006 0. .876.251 1.850. y^)désignant n réalisations d'une loi uniforme sur [0.. 1 .O42.737.852 .417 ..O32 ..085 ..070.1j94 .2.665 .914...1 9 .517 .092- 1.220..332.447- .659 .1 08 ..1..475 o.092.790 .509 .1...373.539.. Q.533 1.187..558 .276.337...S.025.736 1..018 1.380.786 .1.117.647 .401.162.3851.559..746..928.0191.170 .317.372.O71.535.1 9 .7't1 .o88..073.1.233 1.2.6912 Si X suit une loi normale N (0..).O13..521.241..759.O52..526.189 1.329.858 .1 19 .073 .062 .445- .146 .4954 2.008..502.076 .976.322 .650 .462.423...670.031.1.450 .O72 .3301 0.1)...065.895 2.446 . De telles tables ont été calculées .766 .395 . (O-t (v.665 .324 .423.935 .226 1.757 . .2.576 ..417.891 1.O18.282.506 1.792.1.167 .185.772.477.580.837.175 .657.867.903.659...235 1.386 .640 .205 ...231 .290..802 .451 1.1.282 ..1.335 1.238.775 .574 j45.464 .557..340.140..368.9322 Exemple 2 o.213.1 84 .254 1 1 1 1 1 1 1 1 1 1 1 PH. O-' (ir")) esi un échantillon de la loi normale centrée réduite...540 ..043.264.378.125 1.219.735 1.239- . (y.804 .642 .O09 . TASSI .284 .398 .593 .080 .379.1076.502.

048.848 .066 ..039 1.486 ..516-1.505 .207.192.O85 .726.342.O01.776 .1.737_ ..1.212 1.045.768.385_ ..rr.186.849.903 .2.965. par exempre.202....171 .657 1. .976 1.157 . ""poré PH.081..792.714 1.796 2.668.132.276 1..192.315_ ..624.131 .461 .1..157.214.1..441..396 2.699.428 1.269..614.194 1.2.'i"J [b] pour un nombres aléatoires.270 .550.596. l'échantillon gaussien sera (m +ao-' (yr).602 1..640 .984 .219.672 .161 . à t9] pour des applications de la simulation et à irès détailié .' .450.592 .523.272.177_ .708 2.292 ...1.999.OO1.914 ...2.453 1..217 ..S.109_ 1.712 1. LEGAIT .591 1...470_ .357 ..297.371 't. TASSI .342..465.390 1.625 .236- Si X suit une loi N (m.4561.1.848. on pourra se reporter.566 1..189.O12 .413 .677 ....487.. a).066.417_ .008.O18 .1.358.0871 : 1.563 .788 1.tES LOIS DE PROBABILITE USUELLES . m + o o-t (yJ) De tels échantillons nau hasard non uniforme> sont fréquemment utilisés pour simuler des comportements aréatoires.241.315.

(zl : e-z Jf eu e-')1 'u-eu du tz?l f. au sens où elle a été définie dans la remarque du paragraphe 2. dite loi de Cauchy.5).a. lndication. : g e_z (1 + s-212 Vz €lR E(Z) Remarque : er v(Z) : 7T 2 3 La loi de la dilférence de deux v. LEGAIT .z . ry y) : (x.'changement de variables : S (x. z) : exP l2u . 1 ). e-z (1 + 9-212 ez (1 + szl2 4. Z : X - . IASSI . En déduire E (Z)et V (Z). 'l) 2) 3) Exprimer la densité de la loi de Z. La loi de Z admet-elle des moments ? Calculerla densité de lav. 2. indépendantes suivant la loi de Weibull.a.5. 0n définit la u.2 Lol de Cauchy Soient X et Y deux v. U : 0+ oZ (d€ IR. indépendantes suivant chacune une loi de Gumbel (cf. Donner la loi de Y. suit également une loi logistique puisque cette dernière est paire . dite loilogistique. x - y) : (u. (x.S.a.a. ftu.EXERCICES 4. est la densité d'une loi logistique. 1). z) où v 158 PH.a)0)? y): X lndication 1) 0n effectue le changement de variables: h (x. 4. indépendantes de loi N (0.1 Génération de la loi logistique Z:X- Soient X et Y deux v.e' (1 + e-t)l {1 + En posant t: eu (1 + e z) : . Comparer les positions respectives de la loi de Cauchy et de la loi N (0. (u.a.

r 1n-r11 d'où : .1^0 lr(zl: J__ *t 2"r.LES LOIS DE PFOBABITITE USUETLES l. dx + ---.æ. (*' Yl .A PH TASSI . I z 2 1l ^.r : L x ."1t*11 zdx t. Pour comparer les positions respectives de Ia roi de cauchy et de N {0. 0n dit que la loi de Cauchy est <à queue plus épaisse> que (0.l z" 2 I [^" + y"l f(*.^ 2r z' 1) 1+- -0 f _1 xe 2 . N l).1587 (cf.l4 z et ftr. 3) ^*æ -.-. 1/\En 2) La loi de Cauchy n'admet aucun moment car les intégrales : sont indéfinies. LEGAIT . table 1).2s (X> l) : 0. (zl ' : --l-n (z'+ etP{X)1}. J -æ n(z'+11 zk dz (k211 fr(u) : "l. .S.-i 2r . z) (*' t) : x' I -- 2r + 1tx 2' + lxl z 2 _l .. on compare p {z > l } P(z> 1) : P l:* -: ^ 1 n 1z'+ 11 dz: o. r).

donc (X + Y. a) alorsX+ Y etX. 1) 2) 3) Déterminer K de façon que 0n pose . En déduire E (Y) et V (Y).):(t.Déterminer la loi de Y. la fonction E(Y') ^* : JO E(Y) oo yr e-Y dy: et l-(r+1) V(Y) : d'où: 160 :0 :2 PH TASST _ S LEGATT .LES LOIS DE PROBABILITE USUELLES 4.0êlantunparamètreréel strictementpositif. : X 7 . E((X+Y) (X-Y)) : E(X2)-E(Y21 : g E(X+Y. la fonction à intégrer sur lR est impaire et donc E (Yr) à intégrer est paire et : : r! 0. X ll suffit de prouver que X + Y et X - Y sonl non conélées pour assurer I'indépendance.r .a. X. indépendantes. appelée loi de Laplace normalisée. Calculer E (Yr).Y sont lndication (. lndications 1) 2) ^+oo J'_Kr s'écrit: -4e dx:l s (y) + K- I n La densité de Y :7 1 e-lvl 3) E (Yr) : d:+ .a. indépendantes de loi N (m. Vr € lN*. f soit la densité de probabilité d'une v.4 Loi de laplace et E(X-Y1 :g Cov(X+Y. :2t Donc 4.r. Si r est pair.3 Montrer que si X et Y sont deux v.-lvr -æ L 6v Si r est impair. X-Y): 0 Soit f (x) : k e _ I'l 0.)(i) Y) est un couple gaussien.t.

0n définit la variable aléatoire Y: llX+0ll'= PH TASSI S LFGAIT n i:l (x. Vx)d:F(X) =$ 21/a agd 1a+1 dr : I 0 _(_) a X F(x) : I -(è1: 2 6 donc la médian e est en 21/a 0 4.6 toi du khi-deux décentrée soit x : (xJ.a-k Ê @>zl E(x) 2) ::. X suit une loi de pareto si sa densité est donnée par : f (x) = = a0a .k) I lg xa_k +oo o. . : rJ.r-. un vecteur aréatoire gaussien de dimension n. : l)* o e.est_à_dire si k<a.LES LOIS DE PROBABILITE USUETLES loi de Pareto La v. c. Déterminer le mode et la médiane de X.n. lndication r) n'existe que E (Xk.:16n un vecteur de lRn. dx si a- k+ I > l. q_l o@)t) et v{X) : (a-21@-11" Le mode est en d. + 0il2 . de roi N (0.a.ok .). Alors : E(Xk) d'où: : a1o[- 1 (a .:. soit d : (d. 114*-1(t) (a)o'd)o) l) 2) Calculer E (Xk) en précisant les conditions d.existence.

Cov(XÎ. 1) Montrer que la loi de Y ne dépend que de la norme de d et non de Calculer son espérance et sa variance. donc llZ ll2 et llZ'll 2 ont même loiX'? E(X. s2 I : n+ À : vt i:l i- +27iXill: : I' i:l tV(Xlt+ 40?ulxil+4d.) . Anrn orthogonale telle que 0' : A0 llZll': 0r: : llAX+AAll'? â'..LES LOIS DE PROBABILITE USUELLES Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou décentrage) : de ^0n la note : i:l t Ê.n deuxvecteurs de lRntels que lldll : ll0'll Soit Z:X+0: z' : x + 0' .) (n. AX + -> (4" ln) Z' et AX + d' ont même loi. 0 I + 1.S LEGAIT t I I I . lndication 1) Soient 0:10. zl V(Y) E(Y) : J. : llAX+0'll" N AX -> l. 2) 3) Si (X. À1. 2 et llZ'll2 lld' ont môme loi. indépendantes de lois a.-'un et d' : (dilt:. respectives N (m. Z-> N(d.a.. t:l lx?I r1x]f + 2ï. lle li'?).)..:ll0ll' I n X' 1n. Calculer E (U) et V (U). d lui-même.).ln) z' -> N(d" ln) Montrons que llZ ll lld d'où : ll : ll = f llAZll2 N (0.1. 0n dit que U: I X]suir une loi du khi-deux décentrée généralisée.Xi)l ' V(Y) 162 : V(IXÎ) +4À:2n+4À PH.=16n sont n v.TASSI .

{' t. donc: i:1 I . : X. 2 Log p suir une loiy2 (2n). 0n définit les probabilités p. indépendantes (x.- 2 "' 1i0. ' lndication P. * -J (v) - 2 Log P -) X" el.1.a.}J: zo2 + 2m2 v (u) Comme : : i:l . I suit y= on déduit E - 3 oai : i:l V(U) : :nnl3oa+6n'.1.)donc : - -? Aro. exercice 3. F (X.* 2n1J 4.+n?y21 I I : t i:l : Zo:. PH TASSI S.) + E21x. 2Logx. les X sont indépendantes. {t) dt Montrer que P : . varraDle:9lx'l La densité de .' : (cf.i i:l P.) de densité f.r' txJt (Ximi)4 ( d'où --) X. t-l tu(X. 0n effectue le changement de - 2 Log P s'écrit s (t.{.o7 *r1I ' @1. les p aussi. LEGAIT 163 .) donc : I n .7 soient n v.@?..LES LOIS DE PROBABITITE USUELLES 3) E(u) =.r. i tt tx]t .-fi. chapitre 3). 111.

.

v. (Q. Définition 1 On appelle L. On sait par ailleurs (chapitre 2)que la relation oégalité P . par la relation d'égalité L. 1 t ESPACES DE VARIABLES ALEATOIRES Dans ce paragraphe.presque sûrement.a. Par exemple. admettant une espérance.. réelles. le second établit les bases de la géométrie des v. de 9.a.. qui engendreront la régression statistique. L1 est l'ensemble des (classes dei.a. 16l) 1 . chapitre 4) n'appartient pas à L. nous ne considérerons que des espaces probabilisés . si aucune ambiguïté n'existe sur I'espace probabilisé . Théorème 1 Ll est un espace vectoriel sur lR normé par : llxlll PH TASS] - : Jlxl dP: E(lxl) 165 S LEGA T .. la formulation la plus générale fait référence aux espaces mesurés (voir.a.l'espace des v.. ué.&1.on note 9. e) est donc l'ensemble des classes d'équivalence de 9. ayant une variance finie. . (A.1 Les espa ces 9 t et L1 Soit un espace probabilisé (O. et classe de v.a. On le notera L. u4.. la loi de Cauchy (cf. par la relation d'égalité P . pl l'espace quotient P -ps.' (Q. par exemple.. ..Chapitre 5 Géométrie des variables aléatoires Ce chapitre aborde deux aspecis différents des variables aléatoires..ou 9. P) . et les approximations de v.presque sûrement. admettant espérance et variance .a. intégrables. ol . En assimilant v.nl. définies sur (Q.a. par la suite. est une relation d'équivalence sur 9. Le premier est relatif aux propriétés des v.Pl.

c'est-à-dire un espace vectoriel normé complet. : CNS de On peut alors introduire une notion de convergence dans Définition 2 Soit (Xn) une suite de v.xl dP d'où : Xn-) x '+ E (Xn) Remarque 2 E (x) -> Plus généralement..GEOMETRIE DES VARIABLES ALEATOIRES Notons que J XOp a un sens pour X € Ll .a.llx+Yll.. L.. Remargue : -llX--Xl dP----> 0 (n*-1 f lJ xn on - J xdPl L. de L.4. on a : E(X) ll est facile de montrer que L. : 0 <+ X : O. Pl est l'espacè quotient de 9. vÀ € rR llixll.1l . en effet. négligeabilité de X est E (lXl) : 0.presque sûrement.. on peut montrer que l'espace L1 (O... . On dit que Xn converge vers X au sens de L.a. on a vu (chapitre 2) qu'une o l. réelles de carré intégrable. Ce résultat est connu sous le nom de théorème de Fisher-Riesz. on fait la confusion de symbole entre X et sa classe d'équivalence.. En outre llxll.2 Les espa ces I z et L2 Définition 3 On note 9r(Q. e' p) est un espace de Banach.t4. car si X et Y sont dans la même classe. par la relation d'égalité P . n l'espace des v.x) dPl < "f lx^ . 1 .. : E1Y1 : est un espace vectoriel. L2(A. (noté Xn + L- X) si : llX--Xll. noté Lr.: -ilx*vl op<"flxl dP+Jlvl up:llxlll + llYlll o llXll.. : l-f (Xn . 166 PH TASSI -S LEGAIT .

pour -n X PH TASSI S. ll est faciie de montrer à partir des propriétés de l'intégrale que la forme <x.a.GEOMETRIE DES VARIABTES ALEATOI RES .r. la variable aléatoire ofréquence empirique. s'en déduit Définition 4 soit (Xn) une suite de v. c'est-à---dire eit un produit scalaire. : p). Y> : E (XY) : J XY dp est un produit scalaire. O (n*-) Très utilisé en statistique.on définit. Y)-> <x. est notée llX ll. chaque n.a. de second ordre) : E(X2.a.a. -----> O i. llXn - X ll. Xn converge vers (noté L^ Xn é) X)si : ra v. et définie par : llxllS: JX'?dP ou llxlir: Glx't : La notion de convergence dans L. admettant un moment non centré d'ordre 2 (v. est un espace préhilbertien.r.e E(Xn-X)2-> convergence en moyenne quadratique (m. X au sens de L.q. c'est-à-dire un espace vectoriel sur lR sur lequel I'application L2 X L2 ----> lR définie par : (x. L" est donc l'ensemble des (classes de) v.a. de Le . ce type de convergence porte aussi re nom de Exemple soit Xn (n ) 1)une suite <Je v. Y> est bilinéaire symétrique strictement positive. LEGAIT 167 . de loi binomiale B (n.). Théorème 2 : Jx2op < æ L. Conséguence La norme au sens de L.

a. + llYll.Y) PH. < llxll. on a : llxY Théorème 4 (Minkowski) ll. . Y-E{Y)> : Cov(X. 4 seront abordées dans un cadre Remarques a) Dans le théorème 3. et toute v. b) Si.r. ayant espérance et variance f inies. .L. de L. < llx ll.GEOMÉTRIE DES VAR ABLÊS A..a. . Donc L.a. on obtient : <X-E(X). admettant un moment non centré fini E (X2) possècle une espérance finie.n (n Théorème 3 (Cauchy-Schwartz) E(X") V(Xn) :a :o Soient X et Y deux v.*"-np)': Fn converge vers p au sens de Lr.S. LEGA1T . < llxll. dans le théorème 2.LEATOIRES x_ ^ 1 t(ï-p)':Ër. on remplace X et Y par X-E (X) et Y-E (Y). si l'on prend Y : 1 (ps)' on obtient : llxll. TASSI S.3. constaRte a : E(Xn al' : E(Xn-E(Xn)+E(Xn)-a)2 : V (Xn) + 1E (Xn)- al2 Une C. on a : llx+Yll. de convergence dans L. C L.a.n lnl I I lt'.r. llY lln Soient X et Y deux v. de Xn vers a sera : ( ri. est l'espace des v. V(Xn) :}: p(1 -p) Considérons le cas particulier où la limite est une v.a. Les démonstrations des théorèmes 3 et général en 1.r de L.r. 1 .

. Démonstration i) Soita 0.r teiles que E (lXpl)< * Lo est l'espace quotient de 9 la relation d'égalité p-ps. u(. donc fa gÉ également.a. /3 > O.<llxllp llyllq 1. pl. n désignant t'espace des v.3 Les espa ce g pp ^ et L_ ( Définition 5 ge(A. c. et I'inégalité est vérifiée à l'égalité. rpar La norme sur (1 p < -).est-à-dire 1 . Lp est : llx ll p : (-f lxl P dP)t to Les trois propriétés suivantes sont classiques et généralisent celles qui ont été énoncées ci-dessus. c) Plus généralement. q ) 1. Théorème 6 {inégaiité de Hotder) p ) ) 1. on a : I fo gÊ I"l" tdttlol! sdpll Si J fdp : -.intégrale. l'inégalité est triviale . 1/p + 1/e: 1 :ilXyli. Considérons le cas général 0 < J fdg ( *. On sait que.GEOMETRIE DES VAR]AB LES ALEATOIRFS possède une structure d'espace de Hilbert.rl . par ia concavité de la fonction Log Log(aa : Ya ) 0. Théorème 5 (croissance) X <Y =à llxll p < llyllp Ce résultat est issu de la croissance de l. est complet. de même si I tdp : O. a+p dp ( Montrons que pour f et g mesurables déf inies sur (O. alors f est g-négligeable. on peut démontrer que L. b > 0 + Bblè a Log 6+pLogb a"bB 169 our PH TASSI sa + Êb2 S LEGAIT .

TASSI S. q : 2: on retrouve llxYllt négalité de Cauchy-Schwarz. ii) Prenons p: P. P: +. d'après le théorème 6 : lxl lX+Ylp dP + -f IYI lX+Ylp-'oP "ilxl lx+Ylp 110 dP : llx. < llxllp.(x+Yl)p-'ll.lX+vln-1 : En prenant I'espérance : lxl . ll(x+Y1o-11. on retrouve E(lX+Yl) < E(lxl) + E(lYl). ilx+Yll <llxll"p +llYll"p p " " i) Pour p ii) = 1.lx + Y. o: +. s: lvlq. Soitl<P(oo: lX+ylo : < lX+YI .o PH.----\u : fd gP f lrdp + *B g l sdp En intégrant par rapport à p.GEOMETRIE DES VARIABLES ALEATOIRES Posons : lrdp -[sds I jrdpY ll sdttlq . onobtient: J lxYl dP Cas particulier < t"i lxlp dP11/p t"i lYlq dPltzo Soit I'i p : 2.lx + vlo-1 + lYl .n-t "f Jlx+vlpdP < Or. TEGAIT . t: IXIP. Théorème 7 : (inégalité de Minkowski) Yp21 Démonstration. on obtient 1r" sB ds ( (a + pl I l fdpl" t-l"sdplq d'où le résultat annoncé puisque a F : 1.lX+YIe (lxl +lYl).

. ll(X+y)p.TASSI -S LFGAIT 171 . 2.n-i Soit llX+ YitB et donc : < |lxll p+ llyll J. c'est-à-dire qu'il existe un produit scalaire..o-1110 J llx -f + y11 (o-l)a 6p lX+YlPdP r.1 Statistique descriptive géométrique soit une variable réelle quantitative X dont on possède n réalisations (x. en particulier : I la moyenne quadratique PH. xn).soit q p ll! : : d'où : Jlx+vlpdP: llx+yllB < |lxllp + llyllp) Or: ll(X+ Y)P-1 il(X+y. l'orthogonalité. etc..e.GEOMETRIE DES VAÊIABt ES ALEATOIRES "l"lYl avec : lX*yle dp< llyllp. peut nous autoriser à y faire de la géométrie.t ll o : : llX+y1.tl(X+y)p Q:_p-l p lltq 11 _+__1.. ait une structure d'espace de Hilbert.. nôus allons rappeler l'interprétation géométrique de quelques-uns des concepts de la statisti- que descriptive. La statistique descriptive propose un certain nombre d'indicateurs résumant l'information contenue dans l'échantillon. Avant de travailler sur I'espace des variables aléatoires du second ordre. llX +y11 0-t llx+Yllp < llxllp+ llYlle 2 UN PEU DE GEOMETRIE Le fait que L. .

O) la projection orthogonale de X (resp.\Â.v6 cosa OX -. X (resp. 1n n i:1 xi Dans lRn. n i:1 1 | . : OH.. 11.yn). Nous ne présentons ici que ceux qui ont une i nterprétation géométrique.d'une seconde variable Y. on peut calculer le coefficient de corrélation linéaire empirique r(X.Y) : I (xi i) (yi - V) ll existe de nombreux autres indicateurs de tendance centrale ou de dispersion:lamédiane. n-1 r(x -x)2 | Si sur le même échantillon.xn)(resp..a ) est égal à : <o1" Ë> aveccosa: OH : r*. la variance empirique : s. l'écartabsolumoyenl n tf*i-il.d'où: I*. S'2 ou r ne sont que l'espérance..GEOMEIRIE DES VARIABLES ALEAIOIRES o la moyenne arithmétique : X: 1n :x... l'éten- due.. .. les intervalles interfractiles.. on a les réalisations (y. etc. Ol. l'échantillon (x'. Ë désigne le vecteur bissecteur. Le produit scalaire. S... .. TFGAIT 112 . de coordonnées (1 .. A noter également que i. lesfractiles.ro la variance empirique modifiée n I(x -i)2 n^ n-1 : st :-i . la variance ou la corrélation linéaire théoriques de X (ou (X.v])est Soit H (resp. ... Ott: 16 i PH TASSI . lernode.. Y))calculées par rapport à la loi discrète uniforme : Pn nommée loi empirique. Y) sur le sous-espace de dimension 1 engendré par Ë. : oX.. ï représenté par un point . (yr.

la longueur OX: OX' n : : - nq' a:.Ë .Vn -i:l x'.e. S. LEGAIT : : (xi i)t : ns. on en déduit : q ) i.GEOMETRIE DES VARIABLES ALEATOIRES Dans lRn. OH:i.i. (n _ 1) 52 113 .l \ "/ La moyen quadratique q est.16 1 oX Comme OX > OH. : La variance (ou l'écart-type) est également facilement interprétable XH2 ou: PH TASSI S. I près.\ H-t.t : XH : .16. à 1 . pointHadoncpour coordonnées : /.

x) (yi. OY> - > : cosd: > (xi. 2. Plaçons-nous dans l'espace des variables aléatoires réelles de carré intégrable L.yn) ffi (xi i) (vi . LEGAIT . .. On sait : E(X-E(X)) E(X-E(X)) : <X-E(X). . . muni du produit scalaire de la covariance : <x.GEOMETBIE DES VARIABLES ALEATOIFES Calculons maintenant <HX.a. alors x I e. constantes. TASSI S. cos a : où Si et Sidésisnent les écarts-types empiriques de (xr... ll en résulte que E (X) Remargue Soit X telle que E (X) 114 : O.v) : r(X.. P1R):1 e engendre le sous-espace de dimension 1 des v. inclus dans Lr.i) . e):0 + X-E(X) Ie est la projection orthogonale de X sur e. . OY) : <HX.. PH.Y) Le coefficient de corrélation linéaire empirique n'est autre que le cosinus de l'angle entre les vecteurs associés aux variables X et Y centrées en leurs moyennes respectives.xn)et (y.r):1 Va.v6s.4.Y>: JxYdP: :0 E(XY) ' On désigne pare lavariablealéatoiretelleque e(<.r €A. (Q. gl.2 Géométrie dans L..6s. . ..

a. (x) V(X) Si Y est une autre v. 2.r.1 . S. constante Soit Y une v. de loi connue . - E (x). constante ? PH TASSI. : E(X-E(X))': llx-E(X)ll. a) Approximation par une v. LEGAIT 115 . <X-E(X). Y) o(X. Y-E(Y)>:Cov(X.a.cosd où dest I'angle formé par les vecteurs X- E (X) et y- E (y).o(Y).Y) coefficient de corrélation linéaire entre X et y. Ona: cosd = o(Xl .o(Yl Cov (X. peut-on I'approcher au mieux (au sens de Lr) par une v.y) : o(Xl .GEOMÊTRIE DES VARIABLES ALEATOI RES comme dans le paragraphe 2.a. x L'écart-type a (X) est donc ra rongueur (dans Lr) du vecteur .a.3 Approximation dans L. on peut interpréter géométriquement un certain nombre de concepts probabilistes.

constantes engendré par e . en utilisaFt I'interprétation géométrique précédente. Soit donc à chercher une constante k minimisant le carré de la distance entre llY .r.e.GEOMETRIE DES VARIABLES ALEATOIRES Y et k. E ((Y - kX)X) = o: E(xY)-ke(xt) d'où : k176 E (XY) E (X') PH. Y) un couple de v. LEGAIT . k : E(Y). On cherche à approcher Y par une variable X proportionnelle à X. Géométriquement. La variable kX la plus proche de Y est la projection orthogonale de'Y sur X : écrivons que Y-iO( est orthogonal à X. On considère le s.k)t.a. TASSI S.+ kk k: E(Y) La constante approchant de façon optimale Y est son espérance E (Y). I : kX. engendré par X.a.k ll. Le calcul peut être fait directement : Min E(Y-k)'<+ Min k2-2k E(Y) + E(Y2.v. la constante la plus proche de Y est la projection orthogonale de Y sur le sous-espace des v.a. : E (Y . b) Approximation par une v. guelcongue Soit (X.

X). Y) un couple de v. Les paramètres â et b sont leJcoordonnées de Y sur e et X (pour que le problème ne se ramène pas au cas précédent. de Y par une v.a. colinéaire à X.a. Ecrivons que Y -î -J- e. est le point de L. (e. on cherche à expliquer y de façon affine par une v. c) Approximation affine soit (X. appartenant au sous-espace engendré par e et X.a. (e. X est la meilleure "explication lin€laire. Nous n'avons fait a priori aucune hypothèse. L'examen du résultat montre qu'il faut connaître au moins E (x2) et E (Xy) pour résoudre le problème. L. (e. projection orthogonale de y sur L.GEOMFTRIE DES VARIABLES ALEATOI RES X : E (XY) * (X') E . X) le plus proche de Y. (e. et y - 1-J_ X : E(Y-âe-bX1 :9 E((Y-ae-ôXlX) :0 â+b e(X) : âE (X) E(Y) + br (X') : E (XY) La résolution de ce système en â et b conduit à a: PH TASSI S LEC:AIT E(X'?) E(Y) V (X} -E(X) E(XY) . c'est-à-dire X non constante). il faut supposer X non colinéaire à e. X) ll est clair que Î : âe + bX. L. cela revient à chercher des constantes â et b telles que la distance ent-re y et âe + bX soit minimale.r. X).

E lzl: o.E (Y)ll! est la variance V (Y). la qualité de I'approximation de Y par un élément de Lr (e.Î. Alors. 0 étant l'angle formé par les vecteurs Y - E (Y) et Y - E (Y).?1. variance de ?. On obtient alors la célèbre formule de décomposition dite d'analyse de la variance : Variance totale : variance expliquée + variance résiduelle. S. ici. E ff)) : llY-E(ïil3: ilÎ-Et?ttt3 + llY-Î11. et doncl. llY . Oite variance expliquée par l'approximation affine. V (X). : R2 E (1 par application du théorème des trois per- rrÎ. * Cov (X. (Î)ll3 est ta Ën remarquant que. E (Y). avecZ: y . llÎ E Or llY . E (XY). Cette proximité est mesurée par le coefficient de gétermination R' égal à cos' 0.E llrrÎ ilY_E(ïil3 X Projetons X sur e en Ë (X) et menons de l'origine le vecteur équipollent à E (X). supposer connus au moins E (X). wR (X Y) : o (Y) ooa) P(x'Y) Y. TASSI variance totale . Remarquons que E (Y) pendiculaires. X) est d'autant meilleure que Y est proche de L. (e.e 1Ît b (X.1. Y) V (X) - E (X))est la meilleure approximation affine de ll faut.GEOMETRIE DÊS VARIABLES ALEATOI RES ^ u: Y: Remarque E (Y) Cov (X. par le théorème de Thalès. la Le coefficient R2 mesure donc variance de l'approximation Y : variance R2 la part de variance totale expliquée par expliquée V (V) V (Y) PH. |). la parallèle à e menée de Y coupe x-E(x)enb(x-E(x)). E ff'?).E (X)) - : ll s'ensuit : R2: b2 V(X) V (Y) Appliquons le théorème de Pythagore au triangle rectangle ff. LEGA]T . Approfondissement : qualité de l'approximation lntuitivement. dite variance résiduelle. dite variance totale. ! est la variance de Z.

. la meilleure approximation de Y dans L. n'est pas une constante et.v1 \ lEn\I / *:/{. . .... X.a. située dans le sousespace de Hilbert L engendré par (e. y par une v.a. q-['[. avec la convention Xo : e. c'est-à-dire R2 proche de 1. Généralisation on peut chercher à approximer une v. . telles que L est de dimension p + 1. x1.\ o:/elx. c'est-à-dire que. p + 1) de terme général @k. *. et en notant .. quels que soient i et j.1"1. Xo sont des v. âo sont calculés en écrivant que Y-îrx ' où k..a. quel que soit i : 1 à p.\ /"\ I 119 \E(xDy) / \x_ \"r/ TASSI S. et X.Ë. ne sont pas proportionnelles... /:. LEGAII . où X... c'est-à-dire d proche de O. X.GEOMETBIE DES VARIABTES ALEATOI RES L'approximation affine sera d'autant meilleure que V (î) est proche de V (y).âr./ â-ltil \ â / \ e/ PH. n : v-?re Vi : 1àp : En écrivant Q la matrice (p + 1. 9...n:E(XkXn) 0 à p. est telle que : î:âo*. : où les paramètres âo. xe)..

.6 X suit donc une loi normale : .1).S... Xn.a. la coordonnée de H sur e est X. indépendantes de même loi N (0. . Avec les notations précédentes. n v. i : 1 à n .GEOMETRIE DES VARIABLES ALEATOIRFS Oâ: â: d'où : b Q-l b. La position de X étant aléatoire. .. en effet 180 PH.t de coordonnée courante X. par définition. de loi N (0. 1:t"Q-tb 2. suivre une loi du khi-deuxxt (n) (ct.. X") se déplace dans lRn de façon aléatoire. dite.. LEGAIT .- i ". la longueur OH : r. chaque coordonnée étant au uhasard gaussiënu. le point X de coordonnées "cartésienneso (X.1). chapitre 4). tn | N (0..4 lnterprétation des lois du khi-deux et de Student Soient X'.. + vn 1 ). TASSI .:. . OX2 X1 est une v. Le vecteur Èl voir que X. / ).a.*. il estfacile de : suit une loi normale N (0.

.[ t.y. . In n variables aléatoires telles que Cov (X. on effectue un changement de base orthogonar.. et donc ^^. j. ... \'/ PH.l I . X....-X) : V(X./ : F'X. i i +j.. 1 (u(Xi) + (n- 1) Cov(Xi. : nSlSçz Lemme préliminaire Soient X. t: \ /n' rnr\ \:t. ft'\ : (l.. et on note les transformés de (X. Xj ainsi obtenus... Alors X : FY où F est une matrice orthogonale (rappelons qu'une transformation est orthogonale si le système d'axes orthonormés initial est transformé en un second système également orthonormé). a) Loi de X./ TASSI S. (Y.^..-x. f^ les vecteurs de la nouvelle base. . .)+V(X) - 2Cov(X. matrice F du changément de base représente la transformation orthogonale soient fr.. Xj)) -1- n : Pour la même raison d'orthogonalité Cov(i. o E (X -X) : O car Ë estorthogonal au sous-espacede dimension n - l contenant H1 V(X. :\ Y ..) Démonstration : O Vi.". . .. l:\ ft'\ \-^/ 181 \... i+ j et v (xi) : o'vi.X) 1+ 12 .GEOMETRIE DES VARIABLES ALEATOIRFS . Dans l'ancienne base." rr.) : O Vi. : la I F. : g Vi : 1àn f.. LEGAIT . Yj Alors:Cov(Y.

.. 'r't' k I'n >f f....on sait que <On..n Y' k:1 Cov (Y... X- " n j:1 I t 182 PH. . + Vn unitaire.Xn) suivant indépendamment la loi normale N (0.1 I et X'(n - Démonstration Soient (e. Théorème de Fisher Soient n variables aléatoires (X. l: I (xi . k'*JK k Cov(Xk... . fn) la nouvelle base orthonormée.f.... n Les variables 16 Xn et t . Effectuons alors le changement de base tel que f^ : 'nVn Nous avons + '.. 1 f ... Y. \Æ Xn est donc la coo-rdonnée de X sur le vecteu.nS.1).f. TASSI S.) : : Vk ......) : Cov O tn !.. LEGAIT .Inl...n Xn. | é/\6> : 16 Xn. X.en) la base de départ. (f1. ..Xt) V(Xk) : o't :o f. t. rKlK d'après les propriétés des matrices orthogonales.1.X)t : (n - 1) Si . *.GEOMETRIE DES VARIABLES ALEAIOIRES .1 Or : Cov (Xn..' 1) sont indépendantes et suivent respectivement N (0.. Le vecteur unité n Ë peut s'écrire X représentant le poinr t(x.r Cov(yyl : >>f. I i:1 ei.

Xn) étant non corrélées. indépendantes . 1)et une loi X2 (n ... . j:l _ YÎ suit. une loi du ... -rt 5 1).GEOMETRIE DES VARIAB LES ALEATOIRES X-Ynfn D'autre part : : X-. 1 .. -. Yn : n6 X" suit N (0.y^) sont non corrélées.normales et donc iôdépendantes. de même loi N (m.a.. . .yn_r et par conséquent. comme images de (Xr.t. normales .^^^.yn sont des v.111'".Vj : t à n. .r.*X)e: | n' ' j:1 I l i:1 | Les variables (Xr. L'application orthogonale conservant.1).Xn) par une appricatiori linéaire.. n-l j:l n n r i:1 et donc i:1 : | une loi N (m. le lemme préliminaire permet d'affirmer que les variables"(y.onvoitaisémenrquey ->N(0. est indépendant de l .... suivent indépendamment une loi N (0.2 (n - 1)..1). : o Yn est indépendant de Yr.. a). s ensutt : lesX suivantN(O..t)... résultat que nous connaissons n-1 j:l ' déjà. y...les distances .a. alors : t6 PH TASSI S LEGAIT (Xn - t) "t rn oo.6 *"t" : :!] Jn t.. Xn) n v.... par déf inirion. a) Corollaire Soit (X.e l:l -'-in '-6 ol --FVn 1 n i:1 | D'où : te -X n'l i:1 n n-1 _ : (X. . | X-VnX-t:: ' n n : X. r n-1 I .

numérateur et dénomina/V n-1 -)T(n-1) 4).6 S2 (X -m) 'n o ->N(0. On a. où a est l'angle (OA. :n t suit le rappor:! d'une loi. .1) d'où : \Â-lcotga-) : T(n-1) L'interprétation de y2 etI est simple : si X varie aléatoirement et <normalemento dans I'espa"".r.1) Sl suit une loi X' F ..-m to b) lnterprétation de la loi de Student soit X. Ë) suit la loi de PH. 184 vGJ cotg d..GEOMETRIE DES VARIABLES ALEAIOIRES Démonstration ll suffit de se ramener centrées et réduites : au théorème de Fisher en l'appliquant aux variables w-l t- X. s"s coordonnées polaires également : la loi de p2 : OX2 s'appelle la loi du X2. a).r) U x2$-1r S .u6 (x. de loi N (m.1). en revenant à la figure cotg a : OH - HX suit N (0. HX2 précédente : Où la loi de Student intervient-elle géométriquement ? D'après le théorème : (n . la v.6 (x. on a : .a. n - rn) de Fisher. .. TASSI .1) n- o" Donc. : -l n-1 . teur étant indépendants (cf. Xn..1) sur une loi . celle de Student.S. LEGAIT ..N (0. chapitre D'où : [Vt" -tt .

limitéi: la fonction caractéristique (f.de définitions et de propriétés. soit P de densité f par rapport à ra mesure de Lebesgue i. Remarque Sous réserve d'existence. : lRn --+ 0 définie par : pp(u) =J "it'* 6P 1*1 Remargue Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0. on appelle transformée de Fourier de P l'application g. Les chapitres 3 et 4 ont présenté un ensemble.c. extension.).i (x) ll en est de même si f est une apprication intégrabre à vareurs réeiles..TASSI : > 1 -S LEGAIT 185 .a.1 Définition Définition 1 Soit P une probabilité définie sur (lRo. ra confusion avec la fonction caractéristique ne saurait exister. d'autres' comme.1). indépendance.Chapitre 6 Un outil : la fonction caractéristique Le calcul des probabilités repose essentiellement sur l'étude des variables aléatorres.les convergences. Néanmoins. on montre aisément en intégrant par partie er(rl(u) = (-1)k (iu)k <pt(u) pour k PH. 1 DÉFINITIoN ET PRoPnIÉrÉs D'UNE FONCTION CARACTÉRISTIOUE 1. Ce chapitre est consacré à la présentalion d'un outil extrêmement pratique pour étudier le comportement des v. (somme. on appeile transformée de Fourier de f la quantité : er(u) = -i eiu" t(x) d. seront vues dans le chapitre suivant.. p".fo) .

r. dont la f.S..c. n} et uniforme çx(u) x = x=1 eiux n : = n 1 x n x:1 e'u t l'l eiu n n-1 x =O n (eiu1x (e. Exemples a) Soit X une variable aléatoire à valeurs dans (lN. on a (i Ë .'. tpx(u) cl (lN)) : = 2siuxP{x="} . définie sur (Q. LEGAIT . . P)'-+ (Ro. v u elR.u)* 1-"iun 1-eru b)Soit X une v. est: çy(v) La f.c.u€lR x€N : Ainsi.) j=1 91 (u1. x. si X est à valeurs sur {1.P\. absolument continue de densité f (x) = À e- À' lRi (x) 186 PH. .. si X est une v.l/? tique de X.4..a.a.UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE Définition 2 Soit X un vecteur aléatoire (A.'Y = tu X est une v.r. <px(u) = E 1eiux1 : J siux dPx (x) Remarque... TASSI .'uo)= E e En particulier.r.. la transformée de Fourier de Px: çx(u) o) : on appelle fonction caractéris- = çpx(u) : = Jsitux 6px (x) = E lsituxl Avec des notations évidentes.il .a.. de X vérifie donc = E (e'uY) = E (evtuxl : q (u) = etul(1).

On remarque en outre que G* (1)= 1 Exemples a)Si X suit une loi de Poisson de paramèrre À : p [X = G"(u) *]: "-i x! ^i : i u*e-i Àx-"-iuu.i:s.a..À(u-1) x=O x ! çxft)=ei(eit-1) b)six est discrète uniforme à valeurs sur [1. on a a) <p(o):1 b) lç (u)l < PH : 1 TASS S LEGAIT . n]. et la série de terme général u" p(X = x)est donc absolument et uniformément convergente pour u appartenant au disque unité. de f. on appelle fonction génératrice de X la fonction : Gx (u)= E (ux) = p(X = x) définie pour tout u € O. ç. le calcul du a)montre que : G*(u)=u(1 -un) n(1 -u) 1.. néanmoins. . 1.a. les utilisations de G* (u) seront faites avec u réel. en utilisant l'intégration dans le plan complexe que : çx(t)= 1-Àit 1 Un cas particulier : la fonction génératrice Soit X une v. discrète à valeurs non négatives ..UN OL'IIL : LA FONCTION CARACTÉRISTIOUE On montre. La définition de G* revient à remplacer formellement eiu par u dans la fonction caractéristique de X : tpx (u) = Gx (eiu).r. - 1 <u< En pratique.c. "3*u* On a I u* PX = x)l < | u l*.r. lu I < t.2 Propriétés Théorème 1 Soit X une v.

7/?v1 PY 9x= Qv <> Px: Voir la démonstration en [16].. il est possible d'établir la continuité uniforme de rp ([16]). g .t1)l <r (leinx . si.1lol : 9P= 9O <=> P= Si X et Y sont deux vecteurs aléatoires : O (Q. g est continue. Théorème 3 QaX + : eiun çx (au) En effet. ou sa f.. l"ftrx .1l= 2lsin hXlO'o.r. généralisable 2 b (u) au cas vectoriel. où la barre horizontale désigne la conjugaison dans Ces trois résultats sont immédiats. Le théorème 4 établit une liaison biunivoque entre f. Par ailleurs.a. Théorème 2 Soit X une v. et lois de probabilité. P) + ( 13o.r.îel.UN OUIIL LA FONCTION CARACTÉR ST OUE c) q(-u)= tpGr) C. de f.r/. on peut déterminer sa f.x . suriR.. Théorème 5 (inversion) Si X est un vecteur aléatoire à valeurs dans (lRP.) lorsque l'on possède une fonction caractéristique ? Le théorème 5 répond en partie à cette interrogation. possédant une loi.i te résultat. et généralisables sans difficulté au cas de vecteurs aléatoires. Eléments de démonstration I ç (u +h)-q (u)l = I r ("i"x 1"ir.0. gaX+b (u)= E (siu (aX + b\ = siub E (ei(au)x1 Théorème 4 (injectivité) Si P et O sont deux probabilités définies sur (F.c. le problème inverse est digne d'intérêt : peut-on trouver une probabilité (par sa densité.c. ç (u)intégrable par rapport à À o.c.c. . Néanmoins. la loi de X possède une densité continue f (x) définie par : f 188 (x) : (2 î)-P -ç s-itux ç (u) d o (u) PH TASS - S LEGA T .t l) gl. de f.

a. It 3l ) tout u réel.c. t13l) Une condition nécessaire et suffisante pour qu'une fonction une f.c..du 2n _* Dernier point que nous aborderons : comment savoir si une fonction complexe d'une variable réelle est ou n'est pas une fonction caractéristique ? plusieurs résultats existent à ce propos.2. V (21. X absolument continue. . est que soient vérifiées : ç.. LEGAIT . d'une v. préférer une condition suffisante..p(-u) : ç(u) - g (u) convexe pour u ) O d) lim alors PH. Théorème 6 (Bochner.UN OUTIL : LA FONCT]ON CARACTÉF]STIOUE En particulier.. c) ç(0)= 1 Le théorème de Bochner est d'une application peu aisée..1932.a. t 93a . : f(x)= 1 I e-i. V (u. ç (u)= ç est 0 la f.. lR -+ c soit ç b)Y a) (u) continue N . i= 1 j= 1 : est réelle et non négative. pour une v. zx) € CN NN X X p(ui -u. définie pour : Si q (u) satisfait aux conditions a) ç(0) = 1 b) c) . par exemple : on pourra lui Théorème Soit 7 I (Palya..r. (u) une fonction continue.)2."p1u. . us) € RN. r89 TASSI S.r.

a.21. B. ô) I . ô= o:Log ç(u)= . c. a)] BG [.7). y = 1. Détermination de la densité Les conditions du théorème 5 étant réunies. w (u. a. ô) = * 1\ çeil(ô-x)u +æ --cos luloËlwlu' al e-rlulao. 9 : f (x. B. 1]. y' ô) la f (x. (cf. B= O. -Bv J__ e-i'* . En développant. y € lR*. on obtient donc : f (x. En 1925. B.1 Pour a Jo t(ô - x) u - By w (u' a) . a)= Its+qpourc*1. -y lulo [1 + i Bù* (u. ô = O: Log ç (u)= - On retrouve la loi de Cauchy.c. J' [ +t"nlulpou. Paul Lévy [12] définit la loiappelée par la suite loide Paul Lévy par: Log s (u) = iôu ou: u e lO. de f. b)pour u= 1.UI\ OUTIL : LA FONCTIOI\ CARACTÉR|SIIOUE 1. 2. LEGAIT .{.y. 1). S.c. e.8= o. Nous allons utiliser le théorème 5 pour engendrer une famille de lois de probabilité définie par sa fonction caractéristique. .11 li-cos [(x- ô)u +BY uotg qn ]e-vuddu .rfu\= lu I e-uzrz La loi de Paul Lévy se ramène alors à la loi N (0.1. r = +. B. PH TASSI .'1 s-Yue du = 1.o= On remarque que a) pour : a= 2.3 Un exemple de loi définie par sa f. c. en notant densité de la v. on a : ô) : î. y. ô € iR.y.p (u)du f (x.

c f (x. B.1/o f a. y) = \- 1/" f (-j-.B. FONCTIONS CARAETÉRISTIOUES DES LOIS DE PROBABILITÉ USUELLES 2 2. o. \ a. B. on peut prendre ô = 0.4 Loi de Poisson si x -)901: çx(u) i = x=ouiux Àxe-À . y. a.1 Loi de Dirac On établit immédiatement : çd-a (u) : eiua 2. B. t/o (di.UN OUT]L : LA FONCTION CARACTÉRISTIOUE Particularités de la densité c f (x + ô. d'origine. a. y /t3) o f (x. y)= f (.3 Loi binomiale ox(u)= x^ uiuxçxp*(1 -p)n-^ = t C|(peiul*qn-x x=0 x=O ax (u) = (pei' + q)n nn 2. LFGAII 191 . par simple changement o f (x. y) = (3. a. B)= I f 7Io2 *-"o.y). eiu + q . 1) o f (x.x. a. B. a.. 6iuo= p ei' + q qx(u) = Peiu+q 2. B. 0) . y) = (By). La densité est f (x.2 Loi de Bernoulli Si x ->y4 (1. (xu + B uo tg -qI)e-uo du. p) : px (u)= p . B. a.t/c f (x/(By)1/u. a.1} ç1 (u) = 'l " (Àeiu) *-e-ÀeÀ"i' x! PH. B. ô) : f (x. TASS] S. 1/{3) On peut standardiser la loi de Paul Lévy en prenant alors : ô: 0 et y = 1. B.x -eÀr x! {eiu . c. B. y.

7 Loi normale : Si X->N(m. 1) qu (u)= e-'2/2 X= m+oU: (m gx (u) = E (siu +au)) = sium gu (uo)= dum u*u2 2/2 2.cr): Si U -> N (0.Oiu)-P 2. tEGA]T 1 L i I i t .1O Loi de Laplace Soit X de densité f (x) = + e. x € iR .l* l.e-xdx 192 PH.e-xdx i En intégrant par parties : çx(u) = [-e-*cos ux]fr-u Ji = 1-u sin uxe-xdx "f 0 sinux. 1: çx (u) = gIU 2.8 Loi du x 2 (n) six->x2(n) ' f (x)= çr(u)=_4 r^ r'' ftziu)tz -l--:+xz) n (1 9x(u)= s-lul 2.9 Loi de Cauchy Si X est de derrsité 2.5 Loi uniforme continue si x -)?/ p.UN OUTIL : LA FONCTION CAFACTÉFISTIOUE 2.{ J]-"-x(1 -iu)6* 20 +@ l*= 1 to [e-"(t+iu) as-x(1 -iu)1 dx= Jo cosux.px(u)= ' *2 |o-"-(1+iu)dx. TASSI S.6 Loi gamma y (p. O) çx (u)= (1 .

2 Loi multinomiale t6h: est: 9t. x o'fî k (p1 eiu'')n'.. Nr) un v.. .a.UN OUTIL : LA FONCTION CAFACTERIST|OUE = 1+ u [e-x sin ux]f- . e-x dx = 1-u2çx(u) d'où : ex (u) 1+u2 2.." (ppeiu'r'1nt =( t j=1 pj eivur )n k Env= 1: 9x (u):( X pi ei'i t=1 ..a. de dimension k de loi multinomiale 4).71 Loi normale multidimensionnetle Soit X à valeurs dans lRp. de loi N (m. LEGAIT 1 93 .* (v)= j=1 I n.c. plk eiu.. . de tu X est : gtu* (v) = siv fum) s-(u Eulv2/2 d'où .=51.c.. u étant un vecteur de Rp..* (v) p1... La f.nn)vérifiant Qt. : n.r.. la f.n PH.u2 { = 1 cos ux.'. tuX une v. tu Xu). TASSI S. qx (u) : çtux(1)= situm s-ruDu/2 2.... de : tuX: t k uj Nj j=1 = x ---J-]-_ -- pÎ. de loi N (tum. . pp) (chapitre Soit X = t(Nr. X) ." où la somme porte sur tous les k-uples (nr..

4 montrent qu'une v. 0 ) et (q.4p). D'après le théorème d'injectivité.). ^) c) Soient X et Y deux v. de X'. Nous en développerons trois. 0 -0iu)-a: (1 -diu)-n-cqui est l'expression PH TASS1 . y En effet:ex*y(u)= (1 - de la f.1. alors X + Y suit la loi suivent indépendan"rment des lois de Poisson g( .:iïiiff' : Cette propriété se généralise sans difficulté au cas de n vecteurs aléatoires indépendants. De : 7Bb. alors : Qx * v (u) : çx (u) çv (u) = u( À + u) lsiu -11 qui est la f. si X et Y el 3(pl. de f.a. d'une loi I iu)-p. i = 1 à n. p) = J3 (n + 1.3 et 2.a.r. pl + . aide à établir un certain nombre de résultats parfois laborieux à démontrer par usage direct des définitions.c.'/(1. qui sera étudiée au chapitre 7. sont indépendants.c."1 . la f .Ù\ OIJTIL : LA FONCTION CAFACTÉRISTIOÙE 3 APPLICATIONS DE LA FONCTION CARACTÉRISTIOUE Outre son utrlisation dans le cadre de la convergence en loi. a) Les calculs faits en 2.(1 l. qi étant la f. p). alors Xxi = ftçi (r) i=1 Exemples: même l3F.a. La v.c. d'une loi 9(À+p). indépendantes de lois respectives v (p.?(À+ p). Si (X. p) b) Si X et Y suivent deux lois de Poisson indépendantes de paramètres respectifs À et p./J (.c. g ). 3. X +Y suit la loi y (p + q.1 Loi d'une somme de vecteurs Théorème aléatoires I Çx n y (u) Soient X et Y deux vecteurs aléatoires indépendants à valeurs dans (Rp. de loi binomiale ù est la somme de n v. respectives ex et gr: = çx (u) çv (u) Démonstration : gx Par séparaton des *y (u) = E (situ (x*YD = E (eitux situvl i"iii:.. Y (P + q.a.c.i.S LEGAIT .i:i:il qlu) l'. A ). indépendantes suivant la loi de Bernoulli.

deux Théorème 9 Soient (lR?. sont indépendants alors : gx (u1.X.= ex' (u1) (u2) ex (0. 3.a. u2)= E (situtXt . (u2). X. (u1)= ex 0)et O1. -r/"1 : *"| 4)l' I. E (eituzxz. (u. ex. et b) Si X1 et 0): r (eitutxt. u2). (u1) e1. si V (u1. u2) u2)€ lRp x lRq. En effet gx * v (u) - giuml en'41' gium2 grz o:l' : giu(m1 + m2) e42 (t * e) Soient X et Y deux variables aléatoires indépendantes suivant respectivement deux lois du x2ànet m degrés de liberté.r.. mr.a. Lav.or)et N (mr. Alors X + Y suit une loi N (mt. . on suppose eue gx (u1.. u2) = E (eituzxzl = ex. (u2)= Ox (0. (u2).. (u1. = e1' (ur) e1.itu2x21= E (eiturxr. (u2) Réciproquement. X+ysuit une loi 12(n + m). LEGAIT u2): ex.UN OUTIL : LA FONCTION CARACTÉRIST|OUE d) Soient X et Y deux v. PH TASSI .S. a)V (u.. On note: vecteurs aléatoires à valeurs respectivement dans x _..o2). dedimensionp+q. sont indépendants si et seulement = ex. gx Démonstration a) 9x (u1. suivant indépendamment des lois normales N (mr.x. (ur) ex. ..r'tn\ et (tR9rdq).2 Caractérisation de I'indépendance de deux vecteurs aléatoires Xt et X.. u2) = E (si(tutxt +tu2x2)) çx (ur. b)X' et X. u2) e lRp x lRq.

f.v/ .pj[)(o)= ik E Xk) Démonstration Pourtoutk.3 Obtention des moments non centrés Théorème 1O : Soit X une v.que X. sont alors indépendants. i. Calculons la transformée de Fourier de P il suffit de prouver que = Px1 @ Px2 ' gp (u1. est dérivable au moins jusqu'à l'ordre n et. # siux 6pX = J .UN OUTIL : LA FONCTION CARACTÉRISTIOUE Pour montrer.k 1k "iux qui forme une suite de fonctions continues 1 sur lR x lR. x2) = J siturxr dpxl k1) J situzxz dpx2 k2) :9x.po*. et X.k= 1àn: . elle admet pour dérivée _9!eiu* auk - .E(lXlr)<Alors rpx.. appartenant à Ln (Q. = . Px = Pxt @ Pxz fl-héoième dè FuOlnl. ce qui entraîne P = Px d'après la propriété d'injectivité et X1 et X2 sont indépendants. (u2) donc ç.'i "k siux 6PX En effet.k=0àn: . IASSI S. de X. ur) = J "i[tu1x1 +tu2x2l dP (x1. chapitre 2). 96 PH. LEGA T . x2) + = J silturxr tu2x2l d (px1 @ px2) (x1. .c.pl[) (u) =# çx (u) : siux 6pX = o*4 S. (ur) ex. 3. Pl. pour tout k. la fonction (u.a. c'est-à dire Vk<n. x) --+ siux ss1 continue d'ordre k: sur lR x lR .r.

Remarque I dimension p Le théorème 1O peut être étendu aux vecteurs aléatoires X = t(Xr. . .pjf)(o)= ik E fik) Remarque Réciproquement.0. l i=1 PH TASS] . . alors X admet des rnoments non centrés au moins jusqu'à I'ordre n..r.UN OUTIL : LA FONCTION CABACTÉRIST]OUE En outre.* dPx I < E (lxlk)< - et on peut donc permuter les opérations d'intégration et de dérivation.02'ri2 *2 = i2 92+ m2)et E X2): q 2 + m2. 1a"ç I aurol .. Exemple Soit X une v. o. LËGAIT 191 .. S..lo /. Xo)de : (ur. a). (o)= im er E x)= q.f xk ei.02 sium - o2 u2/2 + (im - uo212 m - o2 u2/2 : (O) ç.." r XT' . ll suffit alors de prendre u = 0 pour obtenir : . suivant une loi normale N (m.. D'où (u) = . .. si ex admet des dérivées en o jusqu'à l'ordre n.xfiot.l _ xk R "iux 6pX est uniformément convergente sur lR car : | ... p avec X &:: î.a. ik . de densité f On sait que : (x) = 1 s.soir V Vl= o2.. : . uo)\= .$ -ml2/o 2 t /Zi o2 u212 9x (u) = sium - ç* (u) = (im - ua 21 sium - o2 u212 sium ç.

(x-k+ 1)ux-kp(X: k x) 6(k) 1r)donne le moment factoriel F1r..S.n t - 2 + n i2 pj ".1 : G[)(1)= i k (résultat établi par le calcul direct au chapitre k 4).i à'i j Enu.r(u . (l p. Exemple 2 SiX -> "//(n. eiuiln - ?' q* (o)= a2u) d'où n (n - 1) p3 - n p.. En effet : à valeurs entières non négatives en 6{r<)(u)= et donc x= . . : E (X (X . : E 621 : np..) a2ç_x (u) : nR.. p1. on peut retrouver la matrice des variances-covariances de X : ôpx (u) = n (x pj eiuj)n-l ip. ei. et donc : F1r. considérant leur fonction génératrice.[t]1u1:À ke. LEGA]T 98 .(x-1).. = iE(Nr). .ona' u**(o) = inp...r..a." ( G" (u) : .1 d'ordre (X k. (1 + (n (1 1) pi) et 1 V(X)=nBi -pi). : uzui n (n _ 1\i2 ple2iui(I p.UN OUT L -A IONCTION LARACILR S] OUL Remarque 2 Un résultat analogue existe pour les v.1).. PH TASSI . çx (u)-(x 1=1 pr eiui)n en utilisant les propriétés liant les moments aux dérivées de çx en O.O. pp)de f. ôuj E (N.1) - k+ 1)) Exemple 1 Pour X de loi de Poisson " C.r(u-1) ^).c. ) "iu.

E(x2)= s2m e2o2.soitv(x)= s2m+t2@o2 _l).j eiur 1I pj eiuj)n j = i2EXj Xr) d'où : E (X. on sait que I'on a. ll est clair que ceci n'est que mnémotechnique.'X de loi log-normale LN (m.avecu= -2i. : Log (.ï1 *"f. . rpy (u) = E (eiuv1 = 6ium Pour retrouver E (X). on "fait " u = E6z. puisque u est réel. X.UN OUTIL : LA FONCTION CARACTÉRISTIOUE Enfin . Xr )= n (n . *la . . û cherchons â calculer E X) = E (eY).1 Définition et propriétés On appelle seconde fonction caractéristique du vecteur aléatoire X l'applica- de lRp dans C définie par : ue lRp-wx(u):Logçx(u) on considère par la suite u réel. TASSI S.Or ." )esrdéveloppabte.De même : E(ezv1. et ne peut être priségal à-iou-2i. d'après le théorème 1o ex : (u): r .lyl = Zuratt= a3f n (n - 1) iz pj /' pr ei. a). Considérons une ù. y de loi normale N (m. oùmn=E(Xn). PH. Auvoisinagedeu:0. On peut procéder à un calcul direct lifrapitre 4).. )= _ n p. : - "-u2t212 i et E (X) = um+o212. pourtant non conforme à sa définition.." "i.1)pt p et Cov (X..c. p Nous conclurons sur un dernier exemple d'aide que peut apporter la f. I FGAIT 199 ..c'est-àdire X = eY. 4 Définition 3 tion SECONDE FONCTION CARACTÉRISTIOUE 4. *.a. +k(r) . o).

les cumulants caractérisent distribution de probabilité. on a v* et donc : (u) : ium - u' ?' 2 Kr=m=E(X) Kz=02=Vfi) Kr= 0pourk)3 une Au même titre que les moments non centrés.. (mz-mf1 Kr = + ( .. mr Kz= mz.pour une v. : Définition 4 La quantité Kn s'appelle le cumulant d'ordre On obtient aisément les expressions liant Kp aux moments vx (u)= =ium1 On en déduit : Tlmn -( "?. Hmn)2 "?..a. . H mn )3+ .m? = pz Ks= ps Kc= Vc-gp| : Exemple. . Propriétés des cumulants Les cumulants possèdent diverses propriétés intéressantes : a) Soit a une constante réelle quelconque : on sait Que gx * u (u) : uiuu qx (r) et donc : t#y*"(u)= iua+w"(u) PH. lls seront donc des outils précieux.UN OUTIL : LA FONCTION CARACTÉR]STIOUE et on peut écrire : x k! wx(u)= k=r ry Kk K ona: Ë**=vp(o) k. TASSI S LEGAIT ..'æ + +f (ms-3m1 m2+2m!)+. X de loi N (m.'?. o ).

1)kaak/tl représente j=o On a donc : ./k I 1 Ar (u) ea (u) + wn PH (u)= w.ona: En désignant par Kn K1 fi + a) le cumulant d'ordre k de X + a et Kr fi)celui de (X+a)= KrX)+a..UN OUTIL : LA FONCTION CARACTÉFISTIOUE X.fr arrrl (u) . de densité f(x). ---3i. 2t 1u1z .r. a*. c)soit X une v.a. dk est l'opérateur " dérivée On définit la fonction g(x) par : sk)= [exP(-t)-#] tk) (k€ lN) : L'opérateur g(. indépendantes X et Y. de fonctions caractéristiques g* V1*y(u)= W*(u)+Wy(u) et. -.p.''*' (u.(iu)lt r i=o j!kl)j '-' (iu)k. le symbole d désigne la dèrivation. a est un réel . (.KpX+a)= Krfi) pourk>2 et çy: b) Soient deux v. LEGA|T .t.r. K* son cumulant d'ordre k. par on (u) = ç. avec des notations claires : Kp (X + y) = Kr 1X)+ Kp (y) quelconque k ième ".. que: rp4ry(u)= (- 1lk (iu}k çr (u)..a. Or on a vu (r) .n j !(k l)r (x) * a2 3+ 2l s (x) = f (x) . _Â (iu)k TASSI S." v\"' '\"/ " linéarité : f(k) f(2k) (x) k! (k!)2 En notant Far gr (resp çs) la fonction caractéristique de f (resp. et on peut écrire: ps (u) = er (u) = f .. s) on a.

Supposons qu'une telle expression de g (x) existe. c'est-à-dire rechercher un développement de la forme : g(x):f(x)+ À 1 f'(x)+ À 2f" (x)+ . at+ ao ) * ------4 242 it+l1xy+.f (x).a' f' (x) .Kk 0' on peut écrire formellement : (g)) s (x)= exp. En notant Kp (f) (resO. de en (u) est Kr+a.. sont connus. k>'1. On définit g (x)par: (ar. âvêc âp = fo (S) . i I k= un l t- 1)k dklk lF (x) soit: s (x) =f # t_"? -_3r. s où h est l'opérateur exp 8): 1)k h [f (x)] t . où les coefficients À't. g).UN OUTIL : LA FONCTJON CARACTÉR]STIOUE ll s'ensuit que le coefficient égal à O" (! l)n dans le développement k! Kk(s)= Kp0+a. Kp le cumulant d'ordre k de f (resp. a? +a^ f" (x) fl3)(x) _ ( aI + 6a1 ar+ 4a.). ) 3! | (x). soit une densité (x)...et de ses dérivées..connue. par un calcul analogue au cas (c) Kk (g) = Kp (f) + aç. une suite de réels. de cumulants connus. PH TASSI -S LEGAIT ... Kç(f)son cumulant d'ordre k. avec des notationsévidentes. "*_". À 2. d) Plus généralement. ap (- k=l æ dklk I l g (x)s'écrit sous la forme s (x) = ) 'l r.2 Application aux développements d'Edgeworth et de Gram-Charlier On souhaite approximer une densité g (x).. Pour tout k > 1 4.f(k\x)' avec Ào = 1' k=o : On a. à l'aide d'une densité.

Si on travaille sur des variables centrées et réduites.. À de ^1 :- z= u? !^u. La correspondance entre les an et lesÀn est biunivoque.^k: Démonstration (..1)k kl J s (x) Hp (x) dx D'après la définition des polynômes de Hermite. Application au cas gaussien Le cas historiquement le plus étudié correspond au choix f (x) = ç (x). À r. on s(x) =rt") . On cherche alors à écrire une densité g(x) de cumulants connus (associée éventuellement à une variable centrée et réduite) en fonction de la densité ç(x) et de ses dérivées.# J! fl3)ft)+ hOo.UN OUT|L : LA FONCTION CARACTÉRIST]OUE Les coefficients a1' 42.' : i ..(x)+. *tr) (x)= (- 1)t nn {x) e (x) et g (x) s'écrit : x (k=0 1)k À r Hr (x) ç(x) PH IASSI -S IEGA]T 203 . obtient un développement simplifié de g (x): : ar: O. Théorème 11 soit g (x)une densité sur et ses dérivées : lR supposée admettre un développement selon ç (x) g Alors (x): . alors a. de l'expression recherchée de g (x) dépendent at. 2 .. densité de la loi normale centrée réduite. k =o Às çk)ft) : . . "r".

a1 = az= O..comme en outre t<n (O) = 0 pour k > 3.1). demême. .... (-1)kiuH. Si les données sont centrées et réduites.*(s)fi). au vu des données (xr.1 PH. d'approximer les coefficients i u.. TASSI _ S.k)dx t.--1-' . oâï) k2 oâ'l' (xa . ka-ox+3)+... LEGAIT s(x)=q(x) tt+ lsjg) F2-1) . . +(|). en intégrant et d'après la propriété 3 du chapitre 4 t__r(x) À H.f k2* 1)s(x)dxseraestimépar i=-1 2n ^z= 2 : i"3 1 ' etc' 2 Revenons à l'expression générale de g (x) selon rp (x) et ses dérivées.'l .L.6x + 3)+. *(n) e k) d'où le développement d'Edgeworth de g (x) : s (x): q (x) t'' .. H1 (x)= x et Ài = - Jx g (x)dx sera estimé par . (x)dx= (-1) Àj j! j= (.f.(x) Hnk) e(x) k =o et. d'après la définition des polynômes de Hermite.1)'l-Lr"r H. Or..xn) d'un échantillon.. (x): (_ 1)n Hn (x) e(a)(x)+ . on obtient s 8)= q (x)- *â..r^'Z\ . Ainsi. on a : sk)Hi 14= . Remarque: Ce théorème permet.UN OL'IIL : LA FONCTION CARACTÉRISTIOUE Pour un indice j donné. d'une variable de densité g (x). .

nous avons supposé a priori que g (x) admettait un développement en termes de tp (x) et de ses dérivées.. si t'intégrate tS"gll.. p1 (s) = o et pz (u) = 1.. B.' et B.Y? 72 1x5-10x3+ 15x) *.. Fisher : Yt s(x)= ç(x) t1 + -6- (x3 - 3x) + T (xa - 6 x2 + 3)+ . exz/z dx"onu"rge. en 1926. étani les coefficients de Pearson d'asymétrie et d'aplatissement de g . on a p3 (o)= /ilb) et p+ (9) = 82 (S). l Par intégraticn. ou ses dérivées. Cette série est absolument et uniformément convergente pour x PH TASSI S LÊGAIT . en utilisant la notation /. ators g (x) peut êrie développé en : g(x)= t avec ar ! k=o k qk)1x1 âr = Is (x) Hk (x) dx € [--. et que la qualité de l'approximation augmente avec le nombre d'éléments retenus. ç. que si g (x)est telle que g'(x)et g"(x)existenr. H. rien n'assure que l'approximation de g donnée par un nombre fini de termes soit positive en tous points. I et si lim S k) = lim g (x) = 0.. notons qu'il est imBortant de remarquer que si l'on peut éerire une densité g ou une fonction de répartition comme somme infinie cie ô. Cramer a montré. l Avant de conclure. on obtient une approximation de la fonction de répartition G (x): G(x)= o(x)-ç(x) t+1xz-1) +rt'V3 -3x) +. c'est plutôt le problème de l'approximation par une somme finie de termes qui est utile en pratique. et / des coefficients de . *1. Pour terminer. Malheureusement.UN OUT]L : LA FONCTION CARACTÉRISTIOUE comme pour ra loi g. chapitre 4). ceia donne (cf.

6..c. exercice 4.on sait (cf. Xn)sont n v.2: n @tEP r tl-tt 1). luo PH. Déterminer la f.. o).UN OJIIL . (X. telles que Xlsuit N (m. de Y = Log I X I Indication 9v (u) 1 o l2n 2 e-^2no2 dx S lxliu lR otfZn 1 5x'u lR* e-r2/2o2 dx lzi 6. de Y =E j=1 Xi. . chapitre 4)que Y suit une loiduX 2 non centrée.. (u) = (1 - 2 iu)- t/z ntz 't -ziu .a. TASSI S.. LA FONCTION CARACTER|STIOUE EXERCICES 6..r. Trouver la f. çv n (u) = (1 - ziul- s1 :2iu avec À2 = F mf .. j= 1 à n. ' lndication iumf 9xz .1 : X suit une loi N (0. indépendantes. LEGAIT .c..

D'après le théorème 17. d'après le théorème 16.. on note m une suite de v. .. se distinguant par les hypothèses faites sur les variables. TASSI S. PH. une suite d'événements indépendants de même probabilité p . n2 1. on considère la v. 5 LES LOIS DES "GRANDS NOMBRES" Ces lois établissent des propriétés de stabilité des sommes ou des moyennes cumulées de v. la probabilité d'un événement étant la limite (en probabilité) de la fréquence empirique de son nombre d'observations dans une suite d'expériences inôépendantès. Bernoulli) Soit (An) . (n) (Xn 1 _ a)l9j X + (Xn ___*0 d'où Xn - a) !91 O. An) : 9ot o n Remarque Ces deux théorèmes établissent des lois faibles. indépendantes et de même : E(Xn) .LES CONVERGENCES DE VARIABLES ALEATOIRES Démonstration Xn-â:+r(n) r(n. sn comptant le nombre d'événements réalisés parmi (4. n l:l En particulier : 1 :. stabilité au sens de lâ limite en convergencg el probabilité (on parle alors de loi faible) ou en convergence presque sûre (loi forte).a. puisque les limites sont en probabilité. pour tout n : loi. Théorème 19 (Khintchine) Soit (Xn) . . Le théorème 20 justifie l'approche fréquentisie des probabilités.a. dans une succession d'expériences. ll existe beaucoup d'énoncés de théorèmes des giands nombres. b) : (Xn-a).. ! a.r. appartenant toutes à L1 .x. LEGAIT ZZJ .. n :xnI m Théorème 20 (D.a. n 21.

a..S.r(9) ]n Comme les v.LES CONVERGENCES DE VARIABLES ALEATOIRES Démonstration la f. *. :1*im9+o(9) nnn ç_(u) :[1 *im9+O(q) ]n. E(Xn)existe. deL2. e(g) wîn lim9nXn (u) :ei tu' Or on sait gLle ei m u est la f. pour tout xn puisqueXnl m o Xn !9i n. Notons par I (u) 9=(u) :ç>x. ou probabilité empirique.c.(9) :[. on note m: E(X6) ' 02 -. Théorème 21 (Loi des grands nombres dans L2) soit (Xn). et 0 sinon.c. appartiennent à L1 . a'(0) aussi. D'après le théorème 9. n). Les v. rontrons la convergence en loi.V(Xn) .1.r. une suite de v. pour tout n. Sn nn XXi désigne alors la fréquence empirique. où Xn vaut 1 si l'événement An est réalisé.de même loi et non corrélées.a. :c2x. LEGAIT I . Frobabilité de Dirac en m.r. sont indépendantes et vérifient : Itt*":1]:p tt{*"-oJ :1-p. ç' (0) : Ecrivons : e(t) :1*imt+qt) . 224 PH TASSI . de Xn . donc im.a.a. Xn lo! m. de ôn. on définit la suite de v. d'où le résultat.r. Alors: Xn?m. Dans le cas particulier de la loi faible de Bernoulli. (Xn).

m désignant E(Xn). Démonstration sn2:11xi-Xn)? n i:1 Xn ! . I'utilisation de la moyenne empirique comme indicateur de tendance centrale en statistique descriptive.(. :e( \n / -1n2 no2 I 1>txi n -m) )2 n 02 (n-æ1 Théorème 22 lLoi forte des grands nombres) (Xn) . n ) 1. Théorème 23 Soit (Xn) .2 ! "z 225 PH. (e I Xn | : + -) :Xn est p.r-J. indépendantes.2! oz.s. =t X-n)2! m2 (théorème 6) m2 et n i:1 à 13 x?I E(xz) : + o2 (loi faible appliquée la suite (Xl)). ll en est de même de la variance empirique. de L2. de même loi o si Xn € Lr . pour tout n :Xn 4s il r si Xn Ç t-. est une suite de v.2 sn Alors : - n i:1 13 (xi - xn)2 q. Oonc 8.a.r. on définit la variance empirique par : c.a.r. non borné. indépendantes et de même loi. Ouand le nombre d'expériences n augmente indéfiniment. avec : E(Xn) : m et V(Xn) : o2 . : Ces lois des grands nombres justifient. la moyenne empirique basée sur le n-échantillon converge vers une constante qui est I'espérance de la loi dont sont issus les n résultats de l'expérience. n ).1.LES CONVFRGFNCES DË VAFIABLES ALEATOIRES Démonstration ll X^-mll 2 2: . en terme de probabilité. LEGAIT . TASSI . une suite de v.S.

a... X : mr: E(Xk)' (Xr..r.i:1 X? . j: 1àk 1lr (n) 13 " (n): ni:1 fX. Xn.! m* b) De même. X.. (n) c) Plus généralement. le moment centré empirique 1rr (n) converge en probabilité vers /r.1 eE(h(x))' (Xr. le moment emprnque est : m1 (n) :1i-x1 n l:l : Sous réserve d'existence de E( I X I k ) mk 1n. . E(Xfi)existe. 1lr non centrés m. (Yn) . Ceci entraîne deux remarques importantes : a) soit mp le moment non centré d'ordre k d'une v. Remarques Dans la démonstration du théorème 23. et on est dans les conditions du théorème 19 pour la suite de v.a. n 2'l ...: E(X - E(X))k.a' X de loi de Poisson CI ()'l .) est une suite d'observations indépendantes d'une v.r)désignant une suite d'observations indépendantes de la v.. nous avons appliqué la loi faible rIl I1 | à > .S..r. . avec Yn : Xn2.. 226 PH TASSI .LES CONVERGENCES DE VARIABLES ALEATOIRES Se trouve ainsi justifié le choix de la variance empirique comme indicateur classique de dispersion en statistique descriptive.a. (n). puisque Xn e L2 . . Xn. En effet. LEGAIT . -X)k s'écrit en fonction des rnoments : k : >q J:O r-i (-1)k-j mr '(n) m... si h est une fonction réelle telle que E( I h(X)l ) existe : n i:1 Exemple 13 n1x. En effet.

pour tout n. Démonstrafion . on note m : E(Xn) et o2 : V(Xn). est une suite de v. + X.a.r. de même loi. LEGAIT . indépendants et de même loi. a) Théorème 25 On peut écrire : Yn : rÆ I 3 tl---l) : 1 i f{. v^ . Théorème 24 (théorème central limite multivarié) soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF. >).a.r. r 1.(èIJ__11l næ Alors : : /_n_frn__rl o vn loj ru 10. : ) On définit la v.LES CONVERGENCES DE VARIABLES ALEATOIRES l3 *1 pEr 1 r \l n i:11 X. autant la loi normale que tout vecteur aléatoire suivant cette loi. >)désigne.S. 1_t: i e/\1+Xt x:01 *x tr e-ÀÀ" x! int -9-^ y:1y! : À 1-e-À À 6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSTENS La no'tation N(0.' Nous démontrerons d'abord le théorème 25. Alors : 'rn En En particulier : - r/)lg N(0. et appartenant à L2 .--qf ni:1 ' o JÂi:1' o 227 PH TASSI . puis le théorème 24. fipl. dans cette partie. Théorème 25 (théorème central limite unidimensionnel) (Xn). indépendantes. tels que g : E(Zn) et L matrice de variance-covariance de Zn existent. n 1.

) une suite d'observations indépendantes de X : i:1 I f"'. et. f t. la convergeRce eR loi de la variance empirique .. tu u) /.. . indépendante de i .c.tX. sous réserve Ç2:li-xrt-x-n)2. la f. n l:l v(x1) 228 : E(x1) - E.LES CONVERGENCES DE VARIABLES ALEATOIFES Soit e la f. d'après le théorème 10 JÂ En . 02 = V(X) : E(X2)..r.r.'il *"n (ul: s-u2 / 2. de X:---I .c..c. les théorèmes 24 se généraliser à toute moyenne empirique el25 peuvent d'existence de ln E(h(X)) et V(h(X)). Xn. LEGAIT PH. TASSI . De la même façon que pour le théorème 23. . On reconnaît la f. S. d'espérance nulle (ce qui ne réduit en rien la généralité du résultat). b) Théorème 24 Posons dantes et de même loi. (X1. :) vu € : I IRP et. indépen- E(Xn) : - et d'où : tu . avec Xn^: ty ?n pour u € : lRp .a..) l9j ruto. alors Xn est une suite de v'a. à titre d'exemple. Yn !9 rtftO. (x1) - m4 . fr" -'u (Zn : tu I u. d'après le théorème 9. Etablissons.^3: mq - oa . de N(0.. de Yn s'en déduit : cyn(u) Comme :[*(Ji) ]" e à I'ordre 2. >). soit X une v. 1)./) lg Remarque N(0. en développant obtient : soit: et : t -r!+ott) i1+o (r=l ]" cyn(u) :[1e(t) : .u et V(Xn) : tu /Ï ''/. p)19 tu N(0. on E(H-)- O et E(Ii--I)'? - 1.l.

: r(n) (g(X. oo.S. rr.rrxztt '' rn i:1 ' Jn@l . D'où.. appliqué n n l.r:: Jl ï Ë :i: ï. n ).I ES CONVERGENCES DE VAR]ABLES ALEATOIRES Considérons la quantité : q!gj_4 J n. D'après le rhéorème centrat limite. ./ (q2 n çXnf "E o.n*îitiunt Soit g:lR *lR.-4 J-n t! I *.lim Théorème 26 !9.ir*1 /Â(: x?-E(x2)) ni:1 ' _LolrutO.0.telle que r(n) : * . Pour E(X) * 0. Alors r(n) (Xn - a) !g N(0. /Tm En outre : * . . Soit r : lN * lR. par le théorème 17 et: J^æ : .1. t).fl.4=.! ru(0. o I g' (a) l).r.".o2) loj ru(0.) - s(a)) g *. o). a une constante réelle.îï:"ïT:"'.{_!-6d Jn@l . dérivable. on obtiendra Cls="'?) / p. une suite o" u. 229 PH TASSI . LEGA]T . et (Xn).

Xn ! a. : (Xn). c'est-à-dire : R(Xn)! : O. >). ll s'ensuit I *. G sa matrice (q. : Soit g : lRp 230 - lRq différentiable.) - s(a)) : r(n) (Xn a) s' (a) -F (Xn - a) (n) R(Xn).0. LEGAIT . a un vecteur delRp. où: c'est-à-dire d'où : lim x-a :0' Ve)O. aI <a}( I R(xn)l : e ). p) des dérivées premières PH.LES CONVERGENCES DE VAFIABLES ALEATOIRES Démonstration Considérons le développement de g à l'ordre 1 au voisinage de a S(x) : - g(a) : (x - a) S'(a) R(x) * (x - a) R(x). (a) (n) (g(X. Très utile en statistique mathématique lors de l'étude de comportements asymptotiques. d'après le théorème 18. I s' (n) (Xn D'après le théorème 17.al 1 + lim P{l R(Xn)l <e1 n : 1. n ) 1. Or. TASSI S. d'où le résultat - a) g'(a) recherché. et donc (o } : . une suite de vecteurs de lRp tels que r(n) (Xn - a) !g N(0. o}C : P{l xn lim P{l Xn {l Xn aI ( {l P( R(Xn)l ( ( e }. et r(n) (Xn | o). 3o)0 :I x_al (o + I R(x)l (e.l'g rtnl : -Fæ. ce théorème est aisément généralisable au cas multidimensionnel : Théorème 27 Soit r:lN -lR* telle que. a) R(Xn)! O.

(r_ J)\ /x J ).lR] définie par u * g(u)_: e-u. lorsque À tend vers l'infini.. Par le théorème e-Xn p e-À .a.1 Loi de Poisson Théorème 28 Soit X une v.À JT Démonstration Soit la v. de loi de Poisson q)i. PH. G(a) r tG(a)). (n) (g(Xn ) - soit X une v. Y - . .. ) 7 APPLICATION AUX LOIS DE PROBABILITE CTASSIOUES 7.s(À)!g N(0.X./ r). une suite d'observations 1ndépendantes de X. suivant une loi de poisson I (xl.a. S. n2 1 . mais e-À : P(X : 0). En outre : Par le théorème central limite : 6 : /î (sfr-") . fi-fr-n . 1). . xnl."-^)lgj nto. e-r .LES CONVERGENCES DE VARIABLES ALEATOIRES :l::l \ Alors Exemple : | ôÇ tÇ\ / /ôv dsr\ qg" d3" \ Uu.' a"p I s(a))E *.o. LEGAIT 231 .À) lg N(o..a. Alors la variable y converge en loi vers N(0. On sait que :X-n P À (loi faible des grands nombres).^-l . /r) Soit g : lRl .r. TASSI . Le paramètre d'intérêt est non pas À : E(X).e-À | 6 ("-".

LFS CONVERGENCES DE VABIABLES ALEATOIRES

d'où

:

tr lsitl - t; :"-it'Æu çY(t) it'l/À -t2/z)'l it '/-r eÀ(+ çv (t) "py (t) : u-t2/2

1,11_

2/2 est la f.c. de N(0, 1), et donc Or e- t

:

X-À loi 'H::N(0'
Flemarque.' On écrira

1).

I

1x:r

-

N(À, ./À).

7.2 Loi binomiale
Théorème 29 : loi binomiale et loi de Poisson Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses
:

.

p est fonction de n
n

olimnP(n) =À(À>0)

ona:
Démonstration
a) Calcul direct Sous les hypothèses : p(n)

xn9g\,l.

: 1 (n p(n)) ;= O. n : CI P'(1 P)n - x P(X: x) .n(n-1)...(n-x*1) Px (1 -p)n. (1 xI - p)" (nP)te-nP À'e-À, P(X:x)
n*oo Xt

d'où le

résultat.

nP*À

n-*co
nP-À

Xt

232
I I I I I I I I I

PH,

TASSI. S' LEGAIT

!

LES CONVERGENCES DÊ VARIABLES ALEATOIBES

b) Utilisation des f.c.
u) :[1-B(1 -ei ]n; -* Log eXn (u) - np(1 - ei ') (p 0),

cyn(u)

et:
l"l

lim çx^(u) :e-À(1-eiu). -+oo

np*À
On reconnaît la f.c. de

g

()rl.

La loi de Poisson est souvent appelée "loi des événements rares", car loi limite du comptage du nombre de réalisations d'un événement donné, de probabilité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi limite mais comme loi exacte. Théorème

30 : loi binomiale et loi norrnale
lorsque

soit Xn une v.a. suivant une loi binomiaie lE (n, p). Pour p fixé,

n-**æ:

I!---!q
/
nqp

l9j r'rto,

rI

Démonstration On aru (chapitre 4) que la loi binomiale.4(n, p) est la somme de n lois de Bernoulli #{'1, pl indépenciantes.
En écrivant

,
Xn

: I Yi,Yi->g(1, p) Vi = 1 à n,
i:1
:

n

on a, d'après le théorème central limite
n

-_h_9ru(o,rr
Remarque En pratique. on pourra approximer laloig(n, p) par la loi N(np, bien que cette écriture n'ait pas de sens mathématique.
PH, TASSI

! Y;-np

/n

ptt - p[,
z-1-)

- S. LEGAIT

LES CONVERGENCES DE VARIABLES ALEATOIRES

Exemples
a) Soit X de loi

g

(9l.Par lecture de table de la loi de Poisson
P(X

:

<
:

18)

:9,9t't,.

Par l'approximation normale
P(X

<

18)

:

P1P,o, 1)

<

,!9,9,

:

o(3)

:

0,9987.

b) Soit X de loi

9(5O;0,01). Par lecture directe de la table de la loi binomiale: P(X : O) :0,6O50.
:

Par l'approximation de Poisson g(O,51et lecture de la table correspondante

P(X:0) :

0,6065'
:

c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale

P(X<5) :0'4312'
Par l'approximation gaussienne
:

P(x<5)

:P(-!-1-(o)

/50fr.J - oZ

:0,5.

L'approximation gaussienne sera d'autant meilleure que l'on s'écarte des conditions du théorème 29.

7.3 Loi gamma
Théorème 31
Soit X une v.a.r. de loi gamma,

ilp,

1). Lorsque p tend vers I'infini, on a

:

{--p-toj
"/n
Démonstration
La v.a. Y

N(0,

1).

X - /p - /p

admet pour f.c.

:

çy

(u)

:

s- iu /F çx

(l-)
PH TASSI . S, LEGAIT

LES CONVERGENCËS DE VARIABLES ALEATOIBES

:s_iu

ah _iU_\-p

\c/

p*èo

e- iu /F leiu ,rp - u2lzy
(u)

lim
(n)

çv

:

2tz f .c. de N(0, e- u ,

1).

7.4 Loi du X

Plusieurs approximations en loi existent lorsque n tend vers l'infini pour la v.a. Un de loi{2 (n).

a) Théorème central limite Par définition,

indépendantes et de loi N(0, 1). Alors, par le théorème central limite Un

Un: 3 X], où (Xi), i) i:'l

1, est une suite de
:

v.a.r.

wrù;i
:
:

-

E(un)

:

t]_n_= n


:
',lr

loi

rrrto, rt.

En effet, E(X?)

:1,

et E(Un)
V(Un

: n; de même,
ntE(X1)

n v(X])

-

11.

On a vu au chapitre 4

E (X4,)

2' ' - 24/2' f(b - 4.q. 1: 22
2

rrt-L

3,

d'où

:

V(Un)

:

2n.

b) Approximations de Fisher La plus utilisée est la suivante
:

JM - lTÂ
PH TASSI - S. LEGAIT

lo! ru(0, r).
235

LES CONVFRGENCFS DE VARIABLES ALEATOIRËS

On trouve également la convergence ci-après, que I'on montre moins rapide que la précédente /zu" rq;toi N(0, 1).
:

-

c) Approximation de Wilson-Hilferty

fi:L'i^)!g ----E-./ gn

ruro, rr

On peut établir que la meilleure approximation asymptotique est cette dernière, suivie par la première approximation de Fisher, qui est pourtant celle usuellement employée dans les tables numériques de la loi de X'. Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loi vers la loi N(0, 'l) lorsque n tend vers l'infini.
Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.

7.5

le théorème central limite

Précision de l'approximation gaussienne donnée par

Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui ne restreint en rien la généralité de l'étude).

Si ç(u) désigne la f.c. de X. on sait que
rt(u)

:

:
j

Log e1r1

: l 1 1iu! ç, j:2 jl

où K, est le cumulant d'ordre
Soit

de X.

{n Yn: y'nXn:+.:.Xi
y'n l:l
ûn(u)

. Si cn désigne la f.c. de Yn, on a:

:

Log çn(u)
oo

:

n Log çlu/JÂl
Ki

:nI

(iu)J
nitz

i:2il

1(i,)ar+*'.' 1 --\2 + srJ;(iu)3K.+4!n 2
130
PH.

TASSI S

EGAIT

tES CONVERGENCES DE VARiABLES ALEATOIRES

On constate au passage que le cumulant d'ordre jde yn est K, n1-jl2.
Comme qn(u) en(u)

:

eÛn(u).

on a

:

:

"-u2t2

[ 1 + =!iu)3K.- + ftiu)+ro + ]-(iu)oK! + ... I 4!n 72n ' 3l/n
:

En utilisant la formule d'inversion (théorème 1s, chapitre 6) et la remarque suivant la définition 1 du chapitre 6, la densité fn de yn est

fn (x)

: ! f (u) du 2tr u "-,u**n

:
:

ç(x)- t *rr,., 6/n -

(*) +

J- Kaçtat t*) + lKl çlot (x) + 24n 72n'

...

En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), on obtient

rn(x):ç(x)
ou.

[1.Ks*3;3-Wf
= ç(")[ 1 *
Ks

fn(x)

({

=gx) ovn

*

r3*o+(gr.

-rs

r3)*+ + (+sr3

72n

-

rar*)*, + gr.

-

rsr31

. .. deYn:

Par intégration, on obtient une approximation de la fonction de répartition Fn

Fn(x): otx) [&Hz=!r) t

o'.Æ-

*

3If1.

f-r t3tlr.l1 72n

.

PH. TASSI

- S. LEGA1T

231

LES CONVERGENCES DE VARIABLES ALEATOIBES

EXERCIOES

7.1

*

Soustraclion

,

de khi-dsux

SoientXetY.deuxv'a.r.suivantrespectivementleslorsxz(p)etX2(q)(p>q)'SoitZ

ffii:d.
lndication

irioopËnoânte de-V' telle qué x q) Montrer que Z suit une loiX2 (P

:

Y

+

7'

-

"'u'bsuw"

çx (t)

:

Y et Z. cy $) cz (t) en raison de l'indépendance entre

çz $)

:(] = ?'lli'i è zt (1 2it)Prz _ (1 Zitlp-A/2

x2

(p

-

q)

7.2

Loi hYpergêomêtrique

g(n,

(ru, n, p), X converge en loi vers la loi Montrer que sr X suit une loi hypergéométrique Je + æ, n et p Ïlxes' p\ quand N tend vers

tndication
7.3
Soit (Xn)n

px (x)

:-q-

Cto

,fti

.,

N

_ --

n

t

(Np)* (Nq)no

xJ(n _ x) I

-r - Cl px qn - x. N.
:

6N.,

ufle suite de v.a' indépendantes, de même loi de densité

1) Donner la loi de

t,

: .,Iiln *'

f(x)

: s- t'' e\ 1rc,a-

1

(x), 0 >

0'

quadratique (12) vers a' 2) Montrer que Yn converge en probabilité et en moyenne 3) Vers quelle loi converge la v'a. n(Yn
lndication

-

0) ?

1) Fyn

0)

- 1-

(1

-

F(ï)n

oÙ F est la

f'r'

de Xn'

VY>0,F(Y)
d'où
:

:1-e-(Y-e)
(v-o)^)116,
+ -1
(V) (Y)

rrn (v)

:

(1

frn (Y) : n

-

g-

e-(Y - o)n Fvn

1td,1-1

2)

P{ I Yn

-

gI

<.1 :

Fyn

(0+.)

-

(0-')
1

lorsque

[-

- 1æ, d'où Yn! o
.

g-(d+ t-o)n

-

- 0-'n'

1

23A

PH TASSI S LEGAIT

d'où Xn ! a.a.. la probabilité d'un événement étant la limite (en probabilité) de la fréquence empirique de son nombre d'observations dans une suite d'expériences indépendantes. Théorème 19 (Khintchine) . stabilité au sens de la limite en convergence el probabilité (on parle alors de loi faible) ou en convergence presque sûre (loi forte).S. 5 LES LOIS DES "GRANDS NOMBRES'' Ces lois établissent des propriétés de stabilité des sommes ou des moyennes cumulées de v. on note m : E(Xn) . 0 a) !9j x + (Xn ---:- 1 - . . d'après le théorème 16. PI. dans une succession d'expériences. indépendantes et de même loi... puisque les limites sont en probabilité. une suite d'événements indépendants de même probabilité p .a)!9 o. pour tout n Soit (Xn) : n l:l En particulier : I n :-x. une suite de v. se distinguant par les hypothèses faites sur les variables. An) : 9ot o n Remarque Ces deux théorèmes établissent des lois faibles. n21. :xn! m Théorème 20 (D. i ).1. . ll existe beaucoup d'énoncés de théorèmes des giands nombres. appartenant toutes à L1 . on considère la v. LEGAIT 223 .LES CONVEFGENCES DÊ VARIABLES ALEATOIFÊS Démonstration Xn-a:+r(n) r(n) D'après le théorème 17. Sn comptant le nombre d'événements réalisés parmi (4.r.a. Le théorème 20 justifie l'approche fréquentiste des probabilités.a. Bernoulli) Soit (An) . TASSI .. bl r(n) (Xn : (Xn-a).

donc a'(o) aussi. D'après le que ei m u est la f. Les v. pour tout n' Alors : x"km.(1) :[9(9) xnn ]n comme les v. une suite de v. nn Théorème 21 (Loi des grands nombres dans L2) Soit (Xn) note m : .(u) :ç>x. :v. E(Xn) existe. Xn lo! m. TASSI . limgnXn or on sait (u) :ei tu' probabilité de Dirac en m. n21. d'où le résultat.c.LES CONVERGENCES DE VARIABLES ALEAÏOIRES Démonstration puisqueXn! m o Xn lol la f.a. Dans le cas particulier de la loi faible de Bernoulli. . sont indépendantes et vérifient : ( P{xn: I Sn 1} : p ttt*^-o]:1-p' ou probabilité empirique.a.. de théorème 9. (Xn). e(t) :1*imt*O(t) . r.r. de L2. pour tout n. o2 : V(Xn) . ç'(0) im.a. ô. :1*im9+o(1) nnn ç_(u) :[1 *im9+O(q) tnnn e(9) ]n.S. 224 PH. : Ecrivons'. LEGAIT . rontrons la convergence en loi.IXi désigne alors la fréquence empirique. on définit la suite de v. et 0 sinon. On E(Xn) . de même loi et non corrélées. Notons par I (u) e.r.r.a. de Xn . appartiennent à L1 .c.x. où Xn vaut 1 si l'événement An est réalisé.

Démonstration 9. de même loi o si Xn € Lr . m désignant E(Xn). la moyenne empirique basée sur le n-échantillon converge vers une constante qui est I'espérance de la loi dont sont issus les n résultats de l'expérience.n ! t - X-n)2! m2 (théorème 6) et r_3 x?! efiz) n i:1 à - m2 + o2 (loi faible appliquée la suite (Xfr)). LS m . l'utilisation de la moyenne empirique comme indicateur de tendance centrale en statistique descriptive. Ouand le nombre d'expériences n augmente indéfiniment. n ) 1. \ (n-oo1 = e (lx(Xi n - m) )2 no2 -!2 n Théorème 22 (Loi forte des grands nombres) (Xn) .2 p +t- 02. indépendantes et de même loi. de L2. - mll 2:E 2 +-^)' :1 n2 3*. oonc 9'2 : ! "z 1aÈ PH.2:L: x]-x-")? n i:1 Xn . avec : E(Xn) : m et V(Xn) : o2 . S.a. on définit la variance empirique par : Tt-4 c'z:13 n i:1 (Xi -Xn)2. (e I Xn I : + -) :Xn est p. non borné. une suite de v.. indépendantes. : Ces lois des grands nombres justifient.a. LEGAIT . ll en est de même de la variance empirique. en terme de probabilité. n 2 1. pour tout n :X. Théorème 23 Soit (Xn) . Alors : ç. est une suite de v. r si Xn S t-.r..LES CONVERGENCES DE VARIABLES ALEATOIRES Démonstration llx. IASS] .s.r.

.I /r (n) converge en probabilité vers s'écrit en fonction des moments 1àk /. Xn.. non centrés m. le moment centré empirique lrr : E(X - E(X))k.)désignant une suite d'observations indépendantes de la v. le moment empirique est m1 (n) :13. .Ceci entraîne deux I rIl remarques importantes : a) soit m1 le moment non centré d'ordre k d'une v.r. En effet..) est une suite d'observations indépendantes d'une v. puisque Xn € L2 . j: /r. En effet. X de loi de Poisson 226 Q 6l : PH. (n) ! 'l-j(n) J:O c) Plus généralement.a.a... EfiÎ)existe..LES CONVERGENCES DE VARIABLES ALEATOIFES Se trouve ainsi justifié le choix de la variance empirique comme indicateur classique de dispersion en statistique descriptive.rr (n) : k q t-t)t-j m.Xn. LEGAIT !4. X : mr : : E(Xk)' (Xr. Remarques Dans la démonstration du théorème 23.n I. (n).. nous avons appliqué la loi faible à : > X1 .a. (n) " : ni:1-(Xt -X)k . et on est dans les conditions du ni:1 théorème 19 pour la suite de v.r.S. . (Yn). si h est une fonction réelle telle que E( I h(x)l ) existe : -n I! n i:l Exemple ntx't!E(h(x)).. X.. avec Yn : Xl..a.x1 n l:l : Sous réserve d'existence de E( I X I k ) mk 1n1! m* b) De même.. TASSI . (Xr. n 21. . .

fiPl. autant la loi normale que tout vecteur aléatoire suivant cette loi. a) Théorème 25 On peut écrire : Yn:.LES CONVERGENCES DE VARIABLES ALEATOIRES lii:11 -r1 pe/ 1 r n X. indépendantes. yAlors : (:Xi) .n:__mnm. de même loi. matrice de variance-covariance de Zn existent. Alors : .rn En En particulier : - ll) lg N(0. indépendants et de même loi. n ) 1. Yn lo! ru (0./nl3 èl--t) : 1 31Ir--lly ' o ni:l ' o fii:1 PH TASSI S LEGAT 221 . : - /_n_frn__rl o . est une suite de v. et appartenant à L2 . >) désigne.rt x:01 *x x! À y:1y! i 1-e-À À 6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSIENS La notation N(0. 1 o-ÀÀx e-À i. tels que pr : E(zn) et E. puis le théorème 24. dans cette partie.a.' Nous démontrerons d'abord le théorème 25. Théorème 25 (théoràme central limite unidimensionnel) (Xn).r. \1 + x/ tr r Lr_r:Ë_:_: 1 \ \1+X. on note m : E(Xn) et o2 : V(Xn). pour tout n. Théorème 24 (théorème central limite multivarié) Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF. t )' Démonstrafion .r. :). : On définit la v.a.

r.s)lg Remargue N(0. à titre d'exemple..^7: ^o - 04 PH. cyn(u) :[1-u'+o(*l trn (ul: s-uz et : On reconnaît la f. d'espérance nulle (ce qui ne réduit en rien la généralité du résultat).LES CONVERGENCES DE VARIABTES ATEATOIRES Soit ç la f.a. tu r u) fr-n (7n p)!9j tu N(0.rl) obtient : =[*(r*) ]" e à l'ordre 2. avec : € lRp . Yn !91 r. "f b) Théorème 24 Posons Xn : tu Zn pour u dantes et de même loi. >) vu € : - I IRP et. TASSI . :).i. alors Xn est une suite de v. LEGAIT ..c. indépen- E(Xn) et: d'où : tu fi fi : tu g et V(Xn) : tu E u.0. tu /r) *.) une suite d'observations indépendantes de X : n 1 3 frX. d'après le théorème 10 .c.S. Etablissons. et. : E(x1) - E2 (x2il - m4 ./Â 1Zn . De la même façon que pour le théorème 23. . I t. 02: V(X) : E(X2). la f. soit X une v. de Yn s'en déduit : vyn(u) comme E(XL. les théorèmes 24 et 25 peuvent se généraliser à toute moyenne empirique E(h(X)) et V(h(X)). en développant ç(t) soit : : t-Ï+o(t) 2 ]" / 2.r.. la convergence en loi de la variance empirique .. i:l sous réserve d'existence de Ç2:13.x1 n l:l v(x1) 228 -fr-n)2. (X1. indépendante de i . Xn. de L o t .c. .rtO.a. on - o et E(LI)'? - 1. 1).. d'après le théorème 9. de N(0.

r t. par le théorème 17 . o I g' (a) l). - lR./î1Xnp ! o. a une constante réelle. En outre : lt..LES CONVERGENCFS DE VARIABLES ALEATOIFES Considérons la quantité : JÂ t! 3 *./i t: : x? .î:::"ïi:. o). 229 PH. rr / u_ _.3 xU ni:1 | . dérivable.u.rlo. - D'après le théorème central limite.o2t !91 rrrfo.---7 : Pour E(X) * 0.) - s(a)) g .telle que : * *.TASSI -S .r:: ï Ë :: ï. .n. : LEGAIT (n) (s(X. Gl93-41 . : D'où. l^.nGïfirnt Soit g :lR Alors (Xn - a)lg N(0. et (Xn).-'ni:l ' / n4 o-4 dn$ E(x2)| '-6-6rE J-v1xzy . appliqué a n ].r.. n 2 1. et: {T $"2 . une suite d" u.n lim (n) r(n) Théorème 26 Soit r : lN * lR.E(x2)) ni:1 ' /Tm -9r. on obtiendra /-_ni$3-g1 !9 r'rto. * i.

: . r(n) (Xn s(a)) (n) (g(x") : r(n) (Xn a) s'(a) * (Xn - a) (n) R(Xn)' a) R(Xn)-B O. TASSI - a)!g N(0. ll s'ensuit : loi ru(0. p) des dérivées premières PH. : Or. une suite de vecteurs delRp tels que r(n) (Xn soit g 230 : lRp * lRq différentiable. a un vecteur delRp' : ) 1.l'A tt"l (Xn). G sa matrice (q. Xn nn - ! a. ce théorème est aisément généralisable au cas multidimensionnel : Théorème 27 soit r:lN -lR'telle que. c'est-à-dire ve)0. S. c'est-à-dire : O. et donc a I ( o } : 1 + lim P{ I R(Xn) I ( R(Xn)I e1 : 1. a I <a } ( P(l R(xn)l ( e ). et r(n) (Xn - a) s'(a) Très utile en statistique mathématique lors de l'étude de comportements asymptotiques. d'après le théorème 18. d'où : P{l xn lim P{ I Xn aI ( o } C {l R(Xn)l ( e }. I s' (a) I o). LEGAIT . n : *oo. d'où le résultat recherché. D'après le théorème 17. {l 3a Xn )0 :I x-al (a = I R(x)l (e.LES CONVERGENCES DE VAFIABLES ALEATOIRES Démonstration Considérons le développement de g à l'ordre 1 au voisinage de a S(x) : - g(a) : (x - a) g'(a) R(x) * (x - a) R(x). où : : lim x-a : g. >).

a.r.. qù. /r) - * t g(u)_= e-u. Y - {-}=I--J).a. 7 APPLICATION AUX LOIS DE PROBABILITE 7. 1).s(À)!g N(0.LES CONVERGENCES DE VARIABLES ALEATOIRES / ôst G- l::l - lôÇ s(a)) 4\ ruto. X.a. 6 : .) Soit X une v. Alors Exemple : (n) (g(X. G(a) dgr \ \ô-s" ful \ uu' a"p / !9 x tG(a)).À JT Démonstration Soit la v. de loi de Poisson 1ndépendantes de P(X : 0). Par le théorème e-xn ! e-À . suivant une loi de Poisson g 15. lorsque À tend vers I'infini. y: X . Le paramètre d'intérêt est non pas À Vn). /À | e-À | ) G (" xn ./Â (sx-"t .1 Loi de Poisson Théoràme 28 CLASSIOUES Soit X une v. LEGAIT . : Par le théorème central limite Soit g : lRl -* lR] définie par u En outre vG fr-" À)lgJ N(0. e-r /T)."-n)!9j ruto. Ators la variable converge en loi vers N(0. n) 1. /T J\ PH TASS] S. mais e-À : On sait que : Xn ! À (loi faible des grands nombres). une suite d'observations : E(X).

t X-À loi 'Ë5N(0. n-oo x! n*æ Xt nP-À nP-À PH' TASSI 'S LEGAIT .2 Loi binomiale Théoràme 29 : loi binomiale et loi de Poisson Soit Xn suivant une loi binomiale 9(n. résurtat. Remargue.LES CONVERGENCFS DE VAFIABLES ALEATOIRES çv (t) çv d'où (t) : u.. p est fonction de n n rlimnP(n) :À(À>0) ona: Démonstration a) Calcul direct Sous les hypothèses : p(n) xn9g\\|. 1). pl. 7. et donc Or e..-t2/2 : 2/2 est la f. de N(0. u it I lsitl/f itl\^ 11 - : "- "Â eÀ(+ -tz/zltl i. : 1 n (n p(n))n= O. P(X:x) =CXP'(1 -P)n-": n(n-1).(n-x*1) xt P(X:x) d'où re 232 (1 px -P)' (1 -p)n.I}* çv (t) : . (Ue-nP À'e-À. I 1x:r: N(À. /À).' On écrira 1).lt '/f.c.Sous les hypothèses : .

p) est la somme de n lois de Bernoulli vd(1. TASSI S LEGAIT IJJ . :[1-B(1 -ei ') ]n. p) par la loi N(np. /n p(1 . * (u) Log eXn .p)). Xn : I Yi.qp 19. p) Vi = 1 à n.c. de probabilité p. et: h*co lim çx^(u) :e-À(1'eiu). lorsque ILDémonstration .ei ') (p cxn(u) 0).LES CONVERGENCES DE VARIABLES ALEATOIRES b) Utilisation des f. np*À On reconnaît la f.Yi->g(1. PH.np(1 . on pourra approximer laloig(n. d'après le théorème central lirnite n i:l Remargue L Y. pl indépenclantes. i:1 : n on a.-no I ' / ^pq l'? tttto' r t' En pratique. de g ()rl. On a1'u (chapitre 4) que la loi binomiale %ln. En écrivant . La loi de Poisson est souvent appelée "loi des événements rares".c. car loi limite du comptage du nombre de réalisations d'un événement donné. Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi limite mais comme loi exacte. suivant une loi binomiale n*+æ: g tl (n. Pour p fixé.a. lorsque le nombre d'expériences grandit. p). bien que cette écriture n'ait pas de sens mathématique.! rrrto.g f. Théoràme 30 : loi binomiale et Ioi normale Soit Xn une v. avec p * 0 et n p restant constant.

LES CONVEBGENCES DE VARIABLES ALEAIOIFES Exemples a) Soit X de loi g (91 Par lecture de table de la loi de Poisson : P(X<18.r.a. L'approximation gaussienne sera d'autant meilleure que I'on s'écarte des conditions du théorème 29.3 Loi gamma Théorème 31 Soit X une v.51et lecture de la table correspondante : P(X:O) :0'606S' c)soit X de loi B(50. b) Soit X de loi 9(5O.9. - X Jp - . Y N(0.O1).9e87.c. 7. 1) < l9./p admet pour f. Par l'approximation normale P(X : :g'gnt.-!_-1- '/sox0.o.1). on a : I--tloj /p Démonstration La v. LEGAII . 0.4 (o) = s. Par lecture directe de la table de la loi binomiale: P(X=O) :0'6050' Par l'approximation de Poisson g(O. Par lecture directe de la table de la loi binomiale P(X : < 5l: : 0.1 x0. TASSI S. 1).0. : : o.a. y(p.4312' Par l'approximation gaussienne P(x<5) :P(. a(3) < 18) : P1P.rx tf) PH. Lorsque p tend vers I'infini. çv (u) : = g-iu /0.5.. 1). de loi gamma.

et E(Un) V(Un : n .\-P s(u) iu /F leiu .S. est une suite de : v.9. 7. 1).lt !9 JT. b) Approximations de Fisher La plus utilisée est la suivante : Jzvn PH.1-: @J : : 9n--.) -24/2 4. de même. . i) i:1 1. ruto. E(X?) : 1. En effet. de N(0. '1.a.c.4 Loi du X Plusieurs approximations en loi existent lorsque n tend vers l'infini pour la v. Alors.LES CONVERGENCES DE VARIABLES ALEATOIRES -e-iuAh-i : p*oo \yo/ '5 . indépendantes et de loi N(O. par le théorème central limite grlg!.u2tZy lim (n) çv : e. 1). r ). Un: i X]. TASSI - JTti -Tlol ru(o.r. On a vu au chapitre 4 rÉ + '!t'_ 2 E(X4. n v(X]) : ntE(X1) - 11.1: ' f(b 2 22 g. Un de loiX2 (n).a. a) Théorème central limite Par définition. d'où : V(Un) : 2n. LEGAIT attr .u 2tz . rt. où (Xi).

on sait que . Soit Yn : Log ç(u) : .\ -2_l to! ru(0. . une suite (X1. où K.. Xn. Si ./n Xn : ' I Xi . comme au théorème 25.) d'observations indépendantes d'une v. 1) lorsque n tend vers l'infini.S.rn désigne Jn i:1 ûn(u) {n la f.. (iu)t K1 t..r. que I'on montre moins rapide que la précédente J^to! N(0. : /4 - c) Approximation de Wilson-Hilferty 3Æ V tt 9n/ n .. t'.a. rappelons que la loi de Student T(n) converge en loi vers la loi N(0. on a : : Log qn(u) oo : n Log çfu/Jnl : n I- (iu)r./i(iu)3K"+4!n 2 236 PH. .c' de Yn. ---T-t/ gn On peut établir que la meilleure approximation asymptotique est 'suivie par la première approximation de Fisher.Kj i:21 nltz 1(i')ar4+"' 1 --!2 * St.. Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre. I I I 7.5 Précision de l'approximation gaussienne donnée par le théorème central limite Considérons.LES CONVERGENCES DF VARIABLES ALEATOIFES On trouve également la convergence ci-après. qui es! pourtant celle dernière. est le cumulant d'ordre j de X.c. TASSI . l . usuellement employée dans les tables numériques de la loi de X'' cette Enfin. X d'espérance nulle et de variance unité (ce qui ne restreint en rien la généralité de l'étude). t).lt(u) : ii-1 t. = . 1). de X.. Si 9(u) désigne la f. LFGAIT .I^ l. t:. pour mémoire.

K4ç.S.@t t*) + =!Kl ' 72n é 24n e(o) (x) + .rrrtst - 6Ji (x) + ^l.. on obtient une approximation de la fonction de répartition Fn(x) Fn : o{x) [[elf$ . la densité fn de Yn est fn (x) : !2tr uf "-. LEGAIT ..)r. chapitre 4.. -rs r3)r+ + (+sr3 72n - rar. n1-ll2.LES CONVERGENCES DE VAF|ABLES ALEATOIRES On constate au passage que le cumulant d'ordre Comme pn(u) en(u) j de Yn est K. 4ln 72n ' 3l/n : 1 En utilisant la formule d'inversion (théorème 15. . try*fuf PH TASSI .' 1-1-1iu1+ro+J-(iu)6r!+.g^) * r3"o+(sr. on obtient : rn(x) -ç(x) [1-[*3.Wt : ç(*)[ 1 * Kg t ou: fn(x) (t:. chapitre 6) et la remarque suivant la définition 1 du chapitre 6. définition 15).u^*n (u) du : ç(x)--1. Par intégration. + gr* - rsr321 deYn: . : eÛn(u). En introduisant les polynômes de Hermite (cf. on a : : "-u2/2 [1+=!iu)3K.

a. Soit Z soient X et Y.. çx (t) : çv $) çz(t) en raison de I'indépendance entre Y eTZ' c7 $l : (t' (1 - ?'llX'.r. . r et p fixés' p) quand N tend vers + fi(n. + -1 (Y) 2) P{ I Yn - 0I (e 1 : Fyn (0+... 0 > 0' O.tt . -.a) 1te. telle què X Y + z' ' de khl'deux : Montrer que Z suit une loiX2 (P lndication - q).i s. d'où 238 PH' TASS] S. : +* i (x). n.) :'l -g-(o+e -o)n:'l -0-'n--1 YnI o . * n! _ -.1- (1 - F(ï)n où F est la f'r. (Np)r_(!'.Fyn (0-.lrl - Cl -l px qn - x.(v-a) n) 116. deux v.a. 7. irioepènoante de Y. n(Yn lndication - 0) ? 1) Fyn (Y) .IES CONVFRGFNCES DE VARIABLES ALEATOIRFS EXERCICES 7. X converge en loi vers la loi Montrer que si X suit une loi hypergéométrique J0 1ft.l 2i11orz : => z (1 _ Zi11p-a/2 . suivant respectivement les lois x2 ùili.x2 (P - q) 7. lorsque n - æ.l " Soustraction (p) et X2 (q) (p > q).3 Soit (Xn)n 6N.rl (n.â. lndication Px (x) :-q qo Cfti . de Xn' VY>o.lq)n-' r.Plln t' 2) Montrer que Yn converge en probabilité et en mgyenne quadratique (12) vers 3) Vers quelle loi converge la v.F(Y) d'où : :1-e-(Y-o) (V) rrn (v) frn : (1 (Y) : n e. indépendantes' de même loi de densité : l(x) 1) Donner la loi de : t.a.(Y .1 -1 - s.) .2 Loi hypergéométrique p). ufle suite de v. LEGAIT .u)n 1l u.

\ r PH. d'où Yn L2 6 mq n(Yn - o).y : !* i. O. La loi de Z est indépendante de n. TASSI S.LES CONVERGENCFS DE VARIABLES ALEATOIRES E(Yn - ul.-. (v - o)2 n e. .(v . .+q(z). LEGAIT t20 . :1r(r) :? -o n2 n2 3) Soit Zn : lorsque n æ. : iî . La densité de Zn est g(z) : :e-t110..a)n f.

.

c/l oit 0 est un espace topologique muni d'une distance d. 1. nous introduirons également un ordre sur les lois de probabilité. à leurs fonctions caractéristiques.a. ou de leurs caractéristiques associées .S. dl. à leurs densités. LES DISTANCES Dans tout le paragraphe. séparable (il contient un sous-ensemble dénombrable dense). I désigne l'ensemble convexe de toutes les probabilités sur ({-1. LFGAIT 241 . à leurs fonctions de répartition. complet. Nous nous proposons dans ce chapitre d'étudier plus formellement les distances pouvant exister sur l'espace des v. TASSI : inf{e > O / Vx F(x - e) - e ( G(x) ( F(x * e) * . .1 La distance de Paul Lévy On prend 0: lR. la convergence suppose implicitement la notion de distance entre les divers éléments dont on étudie le comportement asymptotique. est dL (F. :/ est la tribu borélienne de {1.Chapitre 8 Compléments et approfondissements sur les lois de probabilité Le chapitre précédent a montré I'importance du concept de convergence appliqué à des variables aléatoires. G) PH. Définition 1 La distance de Paul Lévy entre deux fonctions de répartition F et G de définie par : I e}.'l'espace probabilisable de réféi'ence est (0. I est l'ensemble des fonctions de répartition associées. ou à leurs lois de probabilité .

: o) : fdp lP(A) - o(A) I ll est clair que du prend ses valcurs sur [0. 242 s(x). I de densités respectives f et g par La distance en variation entre P et O est définie par du (P..1sur [0.O) -1-(P^O) ({)) Â O : Min (P. est la mesure qui admet Min(f.. O) :-[ldP-dOl Exemple On prend... pour P la loi exponentielle 7(1. x. i. 1. LEGAIT .0. 1]. de densité f(x) : et pour O la loi uniforme%ro. sur lR. de densité g(x) : 1. rapport à 2dvP. + PH TASSI . O). On établit les relations : a) où b) P dv(P.. appartenir au "tube" ainsi engendré autour de F. 1.e.S. G) est donc la plus petite valeur de 6 telle que G(x) va. 1].CON/PLEN4ENTS ÊT APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE F(x) F(x - e) x-É x x*e dL (F.^ (x).2 Distance en variation Définition 2 Soient P et O deux probabilités de rapport à une mesure p o-finie. pour tout x. g) pour densité par É{.

12 dp: 2(1 . 11p+ (x) et G(x) : e 1..I lfr : apl. ll est immédiat que 0 H2 s'écrit ( - a(P. xt)l : Sup I r(x) G(x)l .3 La distance de Hellinger Définition 3 La distance de Hellinger H(P. rl (r) + ^ qfo. on a F(x) 1to. rlresp."-x1 du (z(1)!Ùp. O) : tl2|. O) : I < 1tg7t/2 dU 1. O) .-. LEGAIT <2 243 . S.COMPLEMENIS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBAB{L|TE 2 du 0(l.e-x dx : : 0. + f. H2 (p. 2 e rl : t_ e 1 Remarque Considérons sur lR la restriction de la distance en variation à la elasse'€des intervalles ouverts de la forme ]--" x[. (1 : - e-x). et: PH. TASSI o<H2(P.3679.. Sur I'exemple proposé. : o) : -[ (fi - 'u[.s(x)l dx dx Ji tt . G). O) entre deux probabilités P et O de définie par : I est ona: -i (/æ .oUto. x[) o(]--.O) . Alors la distance en variation n'est autre que sup I ptt. 1t. 2 du : rl: JR+ I t(*) . Définition 4 On appelle affinité entre P et Q la quantité a(P. O) : 2(1 a(P. * 11 -1(*). O)). G) désignant la XX fonction de répartition de P(resp. 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et est égale à !. cette distance porte le nom de distance de Kolmogorov dK (F. o) H2 (P.faoyz Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel.

d on munit () de la distance d' Définition 5 : 1 +d ' On appelle distance de Lipschitz entre deux éléments P et O de9la quantité dLi (P. qro.S. O) définie par d.l t*l - û (V) I < O(*.11: 0. A':{x€0l : v€A Définition 6 Soient P et O deux éléments de @. LEGAIT .5 La distance de Prohorov lntroduite en 1956. peut Définition 7 Soit A un événement quelconq ue de s{. .-. O) : ./dP -f . équivalente à la première mais plus facile à utiliser. ensemble des fonctions 1. A étant un sous-ensemble non vide de 0. I. si ce n'est pas le cas. On définit I'application p : -û par : * lR+ p(A) Alors : :inf{e)O:P(A) (O(A') *e}. La distance de Prohorov entre P et O est définie par : dp (P..2 tfr- u H(v(1).YA€. TASSI 244 .l : 2(1 _Jô /""- dxl -.COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE Exemple H2 (z('t ).4 Distance de Lipschitz On suppose que la distance d sur () est majorée par 't .S_up-p(A).6528' 1. et e un réel strictement positif. Une seconde définition. dp (P. elle est définie sur 9. y) }. O) : ryp-l J . (P.%to. on appelle e-voisinage fermé de A le sous-ensemble A€ de 0 tel que inf d(x.lR / réelles lipsch itziennes. .y) (e }.il PH.O) :inf{e >O/ être ainsi énoncée : P(A) <O(A€) +e.d\.. . ' A-./dO - : lrey I où 9: { r/ : 0 .

al. 1l) Le réel e vérifie donc l'inéquation 1]) <O(tO.et O:ôr. O) :0. 1*el) +e). 1+€]) :-[J*'e-xdx*1-s-(1 : 1<1-9-(1 *e) 1. PH.sl *'t. a].7/p. 1l) : d.>-1 Cela permet de déterminer la valeur de € pour laquelle e el p([0..2466. P et O admettent pour densités f(x) : 11 et O : ill\ 1'*. (P. O) : p([0. (x) :1t0. Alors : dp(P. il estévidentque l'on ne peutconsidérer que des événements A de la forme {u}. ôr): 1 : {x} . * e: 1 : 1.S) * 1<0*e ou e21 dp (ôx. sur t0. f ) g. et.6 Comparaison de distances ll est possible d'établir des inégalités portant sur les distances précédemment définies. 1]) =inf(e)0:P([0. O) = p(Ao). de densités f et g. OrP(tO. Pouru#x. On suppose f définie sur [0. O) : p([0.p(A) Soit Ao :0. x(y. <+ . Le calcul de la distance de Prohorov se ramène alors à la recherche de Ao. g décroissante sur lRr. te) . LÊGAIT 245 . ll existe peu de résultats sur le calcul Exemple I Soient P:ô. (P. Soit par exemple : P:.COMPLEMENTS ETAPPROFONDISSEMENIS SUR LES LOIS DE PBOBABILITE exact de la distance de Prohorov. éventuellement + oô. alors la relation P(Ao e s'écrit : et donc Exemple 2 Nous admettrons le résultat suivant : soient P et O deux probabilités. )< O(. ll est néanmoins quelques cas où l'on peut trouver l'événement Ao tel que d. tt (x) ig(x) : e-x dp (P. a ) O. :tetO([0. TASSI S. a]).

Zl + ô(2. Ces indicateurs ne sont pas des distances au sens mathématique du terme.COMPLEMENTS ET APPROFONDISSEIVENTS SUR LES LOIS DE PROBABILITE Pour 0: lR. par exemple : de : J tF(x) - G(x)12 w(x) dx PH TASSI -S LEGAIT . X) et d'inégalité triangulaire ô(X. ces indicateurs sont d'utilisation fréquente car possédant une interprétation statistique intuitive.a. Y) : ô(Y. Cependant. Par la suite. ou lois.12 dx Dans le cas discret.G) : ki > i:1j:1 ( ' : ' ll existe une version sur I'espace des densités ô (f.X) :o i lotx. sur I = J [F(x) : ô (F.Y) >o : a) Proximité au sens de L. les conditions de régularité suivantes {otx. G) 246 ll est parfois d'usage de considérer des versions de ces indicateurs w à valeurs dans lR+ . s) : ou J [f(x) t- (pi g(x)]2 dx ô(f.g) : : k | -ei )2 Remarque : proximité pondérées par une fonction ô(F. Y)< ô(X. nous les nommerons proximités. H2<2du(H /4-H'z<2H. on établit : dL<dP<dv dL<dK<dv Pour O quelconque. on a : d3(dr. en général. dans la mesure où les propriétés de symétrie ô(X. et ils sont souvent appelés n distances o par abus de langage. G) G1x. lls vérifient cependant. Y) ne sont pas systématiquement vérifiées.7 Autres indieateurs d'écart Un grand nombre de méthodes usuelles de la statistique mathématique sont fondées sur des indicateurs d'écart. on aura ô(F. entre v.(2d. 1. ou de proximité.

(R. E.?. s) : f t{!---91!Ê f(x) : - E. elle est donnée par ' -q.r.g) : i (pi i-1 -q.r. F et G. ' )l 247 PH. (F(x) : G(x))2 F.) reRrésentant l'espérance prise par rapport à la loi de f. (.)2 P. En discret. pondéré par w(x) : 1. c.S.G) :JlF(x) ll s'agit de la norme au sens de L.c) -G(x) | (pi dx : ki : : | : i:1 j:1 G. LEGAIT . Remarque . TASSI . g) ô(F. on appelle proximité de Cramer .. t1 - s(x\z f(x) Sa version discrétisée est ô(f. c) : ki i:l ô(f.)2 c) Proximité de Karl Pearsen Egalement appelé indicateur du X2. dans sa définition centrée sur f par : il est donné sur l'espace des densités dx ô(r. de F ô(F. On peut remarquer que la proximité de Pearson n'est qu'un cas particulier de I'indicateur au sens de L. d) Proximité de Wolfowitz Elle est définie sur t par : ô(F. ll existe un indicateur du y2 dit modifié. centrée en F la quantité : ô(F.zf(x) ou 1/S(xl.COIVPLEMFNIS FTAPPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE b) Proximité de Cramer-Von Mises Elle est définie sur . qui n'est autre que ô(f. g) j:1 k ' - r : 2 i:1 o.Von Mises entre deux f. on pourra étudier g(x)12 f(x) dx "l tf(x) Les versions discrètes de ces indieateurs seront : ô(f.' sur l'espace des densités. g)centré sur s. c) : -i [F(x) : G(x)12 dF(x) : E.

1l. ôF(F. Log'' i:1 Q.x126* :!-3:0. g) : J[ tr e-')2 dx + J] (O .236. 2e b) Proximité de Cramer-Von Mises L'indicateur de Cramer-Von Mises calculé sur les f. 1] et pour G la loi exponentielle il1. Exemple on prend pour F la loi uniforme sur [0. : p. et centré sur'2/ro. LEGAIT .oe7 :5:-J2: 6e ô(f. comme sur les densités f et g : ô(F.2).G) :Jf t^-1+ e-^12 dx+Jl(1 -1*e-x)2dx o. Sa version discrète est ô(F..r. VG' Des précautions sont à prendre lors du calcul de ces divers indicateurs. Notons que la proximité de Kullback-Leibler ne vérifie pas ô(F.o3o 6e2e2 dx 248 PH TASSI .G) : kp. G) > O VF.g) :Jlf-gldx soit le double de la distance en variation entre les probabilités P et O de densités respectives f et g (cf. tl "st .COIVPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE Définie sur les densités. la proximité de Wolfowitz est : ô(f.e.1 :o.r. sur les f . a) Aucun problème n'existe pour les indicateurs de type Lr. G) : f(x) ar(x) -l Los s(x) : pour I'indicateur centré sur F.c) :Jf tx-1+e-*)2 :q-2-. e) Proximité de Kullback-Leibler ô(F. 1.S. et s'assurer en particulier de leurs conditions d'existence.

l: ô(F. 1) ô(F. d'où : ô(F. Sa restriction à [0. Centré sur 7(1.264. 1). (r. on peut associer une notion de . Centrée sur Q/p. c) : J[ Log e' dx : l.11 n'a pas de sens. Centrée sur 7(1.6e2e2 c) Proximité de Pearson pour x '=: 2'o3o' L'indicateur de Pearson centré sur(2p. il vaut on (f. LFGAIT 249 . puisque f(x) ) 1. : G): Jl t"- 1 + e-')2 e-xdx+"iî e 2x "-x6* -'17 -'. o) : Jl tl e-x)2 ex dx + 4* e-x - - 2 : A. 0. cet indicateur prend la valeur ôG (F.S. PH. 1] peut être calculée 6 pour x ) 1.e6. en outre. G) : : J[ (t-og er) e-x dx : -? + 1 : 1.718. s) :9 : Jl tl : . sa restriction à [0. c) : Jl fx- 1 + "-x1 dx + 1"î "' d*: : : 21 e) Proximité de Kullback-Leibler Aucune version de cet indicateur n'existe puisque f(x) Cependant.8 Retour sur les convergences convergence à chacune des mesures de distance ou de proximité qui viennent d'être définies.COMPLEMENTS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBABILITE Centré sur 7(1.e-')2 dx :r-:dx #: : e 1. TASSI Ainsi qu'il I'a été fait au chapitre 5. 1] est: o. d) Proximité de Wolfowitz Vx. ) G(x). 1). F(x) Aucun problème d'existence n'apparaît pour cet indicateur .

. n ) . particulièrement en des tests.a. M]. d'introduire la notion contraire à la convergence qu'est la théorie séparabilité asymptotique. M éventuellement infini. v. f) densités.r. une suite de v. de loi Considérons l'indicateur de Wolfowitz sur les densités ô(fn. n et X une v. si ô est la distance de Hellinger. (X").r.r. F) : 0. n-æ Exemple ^ tùro.. et donc Xn * X au sens de Wolfo.soient (Fn) et (Gn). De façon générale. respectives (Fn). de f. Nôus dirons que Xn converge au sens de ô vers X si lim ô(F". f) :1t0.r.r si lim a(Fn. : De même.r. il y aura séparation asymptotique au sens de la distance en variation du si tim du (Pn.a. vaut 2n Remarque intéressant sur le plan statistique. 254 PH. deux suites de fonctions de répartition. Soit (Xn)./2.1 + 11.se séparent asymptoti:. LEGAiT . Gn) Ainsi. : n Jl tt 1n dx--n-l ox + J] nn*1 n*1 - On remarque que lim ô(fn.r.a. f) : : n ll fn - t llr :.a. n ) 1. TASSI S. fn (x) : " ô(fn.. Gn) : M quement au sens de Hellinger si lim H(Fn. ayant fait le choix d'une mesure de proximité ô prenant ses valeurs sur [0. et X une n21.r' 1. et F. un calcul simple montre que l'indicateur de Wolfowitz sur les f. On) : 1 où Pn et On sont les probabilités auxquelles sont associées les f.r. de loi'Z/p. F^ et G. n21. Fn et Gn. ô. Gn) : O. 1 : O.nritz sur les De même.f(x) * .COMPLEMENTS ET APPROFONDISSEIVENTS SUB LES LOIS DE PROBABILITE Soit ô un indicateur de proximité. rt (x) 1t0.1 * 5 (x) .. une suite de v.f I fn - f I dÀ en notant Far fn et f les densités des lois de Xn et X. nous dirons que les suites (Fn) et (Gn) se séparent asymptotiquement au sens de ô si ll peut être parfois : lim ô(Fn.

. de loi de probabilité P. . ô" xi x: a et o aiileurs.). On) : O : Æ <+ + h: iim H(pn .1 (x. 2 APPLICATION A LA FONETION DE RÉPNRTITION EMPIRIOUE : si x. Exemple permettent partiellement de classer les convergences ou les séparations asympto_ Les inégalités de comparaison des diverses mesures de distance (1. on doit avoir: h2<2<n/+-R soit: t. on . r '^L PH. x[] : I i . t42 On sont deux suites de probabitités de f. .r. On) "fl du(pn.r. LEGAIT 251 .T H(pn./2. On) : Si lim du(Pn.. on définit ta quanriré p":1 ! nt:1 où ô. ni:1 11_ _.'. i:1 à n.}) : L....On) = 1.. On).6) Ona: o<H2(2du <H/4constate lactlement que ^^^^. alors._ (h2_ 2)z>O ce qui n'est réalisé que pour h : .'fl De même O" (Pn..a.. O ' .Xn) puisque pn ({x...COMPLEIVENTS ET APPROFONDISSEMENTS SUR tES LO]S DE PFOBABILITE tiques associées. Les indicateurs do et H sont équivaients pour ra convergence et ra séparation asymptotique.une v. Fn er Gn. pn est apperée loi de probabilité distribution uniforme sur (X. TASSI S. xn est un échantiilon de n réarisations indépendantes d.. (x) vaut 1 pour ernpirique. en posant lim H(pn. n on lui associe la fonction de répartition empirique x Fn définie par : € lR.2(4h2) __ 4. Fn (x) : pn {l.?î::^î'^ll--"1 .-.. On) : 1.

Min(x.q(x. v)) - F(x) F(v)].) 1t. La v. F(x)). vx (Xr t) + tl E(l1.) ) I + i:1 j:1 i T 1l. nombre d'observations avâht x.-.1 Propriétés à distance finie Par construction.-. +j I i:1àn: D'où..e(t nn r. on a également uzn (Fn (x) : I - F(x)) Fn(x)) N (0. 1ème 166. r GTiili -m /Tixif--Eii _:-F (x). r" 1t--.156tion x.1 (X. LEGAIT .) l: I _1 [. en appliquant la convergence en loi de la loi binomiale lorsqué n tend vers l'infini. yt (x2)) : I r1uin1*.I.a.) ".) ).a. 4 1p -. Fn est une fonetion toujours discontinue. F^ (x) est égale à la proportion d'observations de l'échantillon strictement inférieu'res à x. en notant par X.. ylt (x. 1) / r.{x) 11 - PI TASSI S. 2. Fn tvtt : | [F(Min(x. F (x) F(v) . q (x. y)) + l--lnn et: cov(Fn (x). et par conséquent : E[Fn (x)] : F(x) et vlFn t*)l : I F(x) t1 - F(x)l Fn (x) converge donc en probabilité vers F(x). la v.F(xll puisque un 'foint xi est soit avant x..n F(x) Yn (Fil*): J9 !9! ru to. Min(x. soit après. on a : n Fn (x) Comme Fn (x) I .(x.2 Propriétés asymPtotiques Puisque n Fn (x) suitS(n.-. suit une loi binomiale 0(n. de loi P associée à la E(Fn (x) Fn (y)) : l.1r_ nz n n n l: (xi .CO[/PLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE 2.-. n F^ (x). On peut égalenrent calculer la covariance entre Fn (x) et Fn (V) 1 Fn(x) Fn(v) :-riit s n n : 1t-- .

PH.a.96 < N(0.d./F. on a construit un intervalle connu ayant une probabilité donnée 0. alors Si (Xi). continue d'une v. .s - Appliqué à la fonction de répartition empirique. u.. indépendantes et identiquement distribuées (i. nous avons abordé un cerîain nombre de notions de convergence portant sur des suites de v.i.-oo /nfin-rn) lim .95 : 1)< 1. : . Nous allons donner un résultat général complétant le chapitre 7. Théorème 1 Soit F la f.r.TASS] . 1 < i..1.COMPTEMENTS ET APPROFONDISSEN/ENTS SUR tES LO]S DE PROBABILITE Exemple : On sait que P(. : min (F(u.). de f..Æ Log Log n " La loi du logarithme itéré complète le théorème central limite en précisant la vitesse de convergence de : n.)} (i : 1 à k) converge en loi vers unè loi normale N(O. le théorème du logarithme itéré devient : /n (Fn(x) .95 : P(Fn(x).961 :6. Théorème 2 : loi du logarithme itéré i > 1. pour tous réels (u.. La convergence en loi vers la normalité peut être étendue au cas multieJimensionnel. .. est une suite de v.) F(u. où I e'st [a matrice carrée d'ordre k d'élément courant (i.S LEGAIT 253 ./n (Xn m) p.) . j).a. j(t<: o.r. d'espérance m et d'écart-type o.) 2"3 Vitesse de convergence : loi du logarithme itéré Dans ce chapitre et ceux qui précèdent.96 < u/n (Fn (x) . de probabilités. soit : : P(. etc.xiTrm)- - F(x)) < 1. :). le vecteur aléatoire {-/n (F^(u.)) - F(u..Æ Los Los n lim 1 p. 0.s.1.95 de contenir la vraie valeur de F au point x.9U. F(u.a.). Un élément important pour le praticien est la 'ritesse à laquelle a lieu cette convergence vers la limite. X.. o 1æ.r...1.1.F(x)) -1 n-æ vGFj-il-Hx-D .96V n Si F(x) est inconnue.96) ou encore 0. F(u.r.

indépendante de F. . ayant fait choix d'un tendance à accepter ceite hypothèse si l'approxinration de F fournie par Fn est ( proche . O. pour d ) O: >d) ç6"-2nd2 vn)1 : Ce résultat.TASSI -S LEGAIT . est souvent utilisé sous la forme P('/n dK (Fn.a. F). Cramer-Von Mises. F) ) O par : P(O<yl:1?54 2 i (-t1r'+r s-2u2t2 k:1 PH. F. a) Proximité de Kolmogarov indicateur"de proximité ô.a. C ) 0. Fn) est u petit u.r.r. F) : SuP I Fn(x) - F(x) | P'co' O' Ceci implique ia convergence presque sûre. Parmi les indicateurs présentés au paragraphe 1.. les plus fréquemment utilisés sont ceux de Kolmogorov. alors la v. F étant continue.N. d* (Fn.. F) ) d) : : n:1 oo p(dK(Fn. F) A. si on postule pour F une loi donnée F. de vers 0.. on aura Soit d* (Fn. c'est-â-dire si ô(Fn.4 lndicateurs de proximité avec F" L'un des problèmes fondamentaux de la statistique mathématique est la connaissance de la loi P. de Fo. Kolmogorov a établi en 1933 [10] la loi asymptotique de do (Fn. F) : Sïo I F" (x) Théorème 3 - F(xll' pour une f'r.r.r. lntuitivement.F) F. Théorème 5 converge en loi vers la v. F) > d) < C e- 2 d2 Soit la quantité : n:l æ P(dK (Fn.e- oo Du chapitre 7 on déduit Théorème 4 dK (Fn. F définie surlR' ll existe une constante C.. Pearson.. X-) d'observations indépendantes. et en probabilité. d'une v. d'une v..a.F) >d) <c : r ^_2d2 4"o :_(e-2d2ln: ce-'" n:i 2d2 1. indépendante de P(dK(Fn. établi en 1956. définie pour y Si F est la f. 6 d* (Fn. telle que. de f.COMPTEIVENTS ET APPROFOND]SSFMENTS SUR LES LO S DE PFOBABILITE 2..a. X dorrt on possède une suite finie (X.

etc.'r."'"'nsi y: : pj : P(X € Cj) : J. observations regroupéeJ 0"r.. en fournissent ra roi théorique déduite de F p. : \. définissent la loi que |on notera empirique des oo) symboliquement par "î"r. f désignant la densité de Les fréquences F.âge.COMPTEMENIS ET APPFOFONDISSEMENTS SUR LES LOIS DE PROBABITITE b) Proximité de pearson Envisageons tout d'abord le contexte statistique. jÀjr. . p1... S. . p) t2Lx.. de tranches r(Nr. p._.) oit c'est souvent re... j : 1 à k : g'. z. no. LEGAIT atrÊ .. Ox.- t1x. .:k c de revenu.. p) : j:1 1) k Théorème 6 ô*(È.\t. rnq ' PH.)2 pj : on utilise fréquemment une forme pondérée de rindicateur de pearson avec w(x) : n..t .1àk.j. p. - ra roi vraie : -.-p. y suit une loi murtinomiale. TASSI .xn) appartenânt à tâ ctà's.// (n. -fl espace des valeurs de la v'a r' continue X dont on possède res réarisations'rnoàfenïantes (X... p1).a. est une loi binomiale g (n... représentée L'indicateur de pearson entre ô(È. plus généralement. Soir alors le vecteur aléatoire de crasses d. compte le nombre d'observations parmi (xr. j : 1 à k. -. qui conduit ici à i tl{A-S$3 f(x) : : n w(x) dx ô*(È.p) il et p centré en p sera : I j:1 $.rl partitionné en classes Cj..: La loi de N... (k - (n--) Démonstration Définissons le vecteur Z de coordonnées : N."s.. la v. N.'c.cas en pratique.'L-ï ii. .ï_iài. f... res constantes (0. en référence au schéma exposé au chapitre 4.

./Fl i/i. p) converge en loi vers une loi X2 (k sion k . uk-1): e .1In' Or: k-1 siuy''/rtpi- 1-*-r" i u. .):e - ..2 p.(eiu/Jrwi . et : k-1 ..-r): cy(u...2n_.(ei'izlnF.. çry(u1..c.+ u... l- >. . d'une loi multinomiale..m U+U On vérifie aisément que le déterminant de la matrice de variances-covariances de Z est nul. u. No-l) : :(.. >. on se restreint au plus grand vecteur régulier r(Zt.(È... k-l k-1 1: i/ô I u.... Partant de la f. | k pj eiuj)n ç(ut.. de t(Nr. 2j:t Z* suit donc approximativement une loi normale centrée réduite de dimen1.1 : Z*. LEGAIT . '/o] ' i:r-j ie j:t' 'e ... on tire k-1 : > t '111 k-1 . pj(eiui J| k-1 1)ln Du théorème 3 au chapitre 6. . .I j:1 t 1) : j:1 Jn k-1 iu. O) : t1 + >.c. ur.2..2i:t a7-tr. .I u..1).V(Zj) .r" e7* lu.i/nj-1 u. - 256 PH' TASSI S.Z1l:-.un-.'2 ) : e-Lort"...ur) on déduit la f. 2n '.. (+ /q .l| p. et ô. .uk-1.1-pj Cov(7r.. '/d *...COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DF PROBABILITE On a: E(Zjl:O.. puisque celui de Y I'est aussi.

.. *rlLoo(1 +-1) : Faisons un développement limité du deuxième ordre Log (1 + 1-l zi . LEGAIT .II1" 'j1 | jni 2 1 à une constante multiplicative près Logp-K* A partir deZ. ' lZrJ6.z. -/"q I (*./q -"i2npj @i LogP-Kk k.on 'Æq -no. (2. P 'e no.*1 -n. notant par P la probabilité élémentaire de Y en (nr.COMPLEMENTS ET APPROFONDISSEMENTS SUB LES LOIS DE PROBABILITE Remarque Ce résultat peut être retrouvé par le calcul direct./-Zrl t n1 P1 "' nk Pp IJ(n.n . TASSI S.t t j:1 2 I 2npj ) PH._1 I LogP-K- "qk. ./Ztr n. ' N |'t.. t. /nn + tl LogP-K. 2npj LogP-K- nzz2. '/nL) (J 2 ' J:1 "Æq nr. . nn).z j:E.* SLognPi nj ' 2 . on a : n! - nn * rt .z? j:1 ' 2 @. n. +t+2. : : j:1 k (n.>." (formule de Stirling) P) nn * rL e./2Tr ". n pl Z. a N..ou : N.

par I'intermédiaire de relations d'ordre sur partiel . étendue. Mann et D. Par exemple. yz 11 - 1) 3 ORDRES SUR LES VARIABLES ALEATOIRES ou d'ordonner des v.r. dans tout ce qui suit.on a: Supposons X et Y telles que F et G soient continues et strictement croissan- F(x)) G(x) <) O.a. et on en déduit (tout Z. ou bien par un indicateur de dispersion (écart-type.a. milieu de l'étendue).a. D'où: LogP-K->--l P. on peut comparer deux v. onobtient e À(x) )0 Vx€lR F(x) )G(x) <> R(x) )x PH./nq: I (Ni j:1 t ' j:1 nPj) z? 2 =n-n:O.1't' - 1 < z. : 258 TASSI S. de lois P* et P". c'e -.R.o ' La loi limite de la loi multinomiale est une loi normale de dimension k 1 autres). historiquement. respectives L'idée de classer FetG. Y) X est dite stochastiquement plus petite que Y (noté X Vx si : € lR F(x) ) G(x) Cette définition. LFGAIT .a. tes surlR .a.=T. Nous nous proposons.COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABITITE Or 2 7.l(létant I'application identité). dans ce paragraphe.. de f.r. la première notion d'ordre partiel sur des v.t 1r1x)) ) x En notantR:G-1 FetÀ. X et Y seront des v. WhitneV (947l. [14]. ou leurs lois de probabilité est fort ancienne. Définition I (. due à H. X et Y par I'intermédiaire d'un indicateur de tendance centrale (espérance. de donner quelques éléments les comparaisons possibles de v. médiane. pouvant s'exprimer en fonction des k : - 1 i: 1 I (Ni - nPj)2 npj roi.r. ou bien encore par les cæfficients de Fisher d'asymétrie ou d'aplatissement (chapitre 4). intervalle interquartiles). est.

r. . on En pratique.1 C(r)) : Y.r. G(z). b) l'espérance ou la médiane de X (resp. La loi de R(X) est identique à cetle de Définition 9 soient a et b deux réels .Xn) et (Y1. b)Xn: : n i:l générale On peut établir que la définition 9 est équivalente à la suivante. de densités f et g.a.x) Yx € lR.r.. Si l'on se restreint au cas de lois symétriques. En particulier.a. on a E(lx-al)<E(lY-bl) PH TASSI . Z : R(X). g(x) : g(. (ii) f et g sont décroissantes (au sens large) sur lR* (iii) X est plus concentrée autour de 0 que y... respectives F et G.x) . prenant alors établit les résultats suivants [1] : Théorème 7 soient X et Y deux v. on prendra fréquemment pour a (resp.a. on a rlp yi i a) .1 C(t)) = F(F. Alors. si (X'. a: b: O. en prenant pour h la fonction identité...Y") sont deux suites finies de v. X est dite plus concentrée autour de a que y I'est autour de b si : P(l x-al(x) > p(l y-blSx) vx)0.r. a priori plus 1O : nl:l Définition X est plus concentrée autour de a que Y autour de b si E(h(l Y pour toute fonction h non - décroissante. : . sous réserve d'existence des : bl ) > E(h( I x - aI )) espéra nces considérées. X. de f.S LEGA]T 25g .COMPLEMENTS EI APPFOFONDISSEMFNIS SUF LES LOIS DË PROBABII ITF Remarque Considérons la v. P(Z1z): P(R(X) ("zl: P(X < F. est plus concentrée autour de 0 que : : i:1.. . indépendantes absolument continues.. indépendantes de même loi que X et Y. telles que : (i) f(x) : i1. Y). ou bien le centre de symétrie s'il y a lieu.

b : E(X) et h(u) : u2 i v(x) < v(Y) ll est enfin possible de définir un ordre fondé sur la différence interquartiles.F. Y : ÀX. F.ffi)-c1 1 (") :1-e-À*. LEGAIT . d'où: PourO(a(P<1.("1>c.CoMPLEMENTSETAPPFOFoNDISSEMENTSSURLFSLOISDEPRoBABIL|TE et. pour a : E(X).r. S. ) 1 un réel quelconque. On r(Y) ÀÀ G.où : .a.r.r.F-1 (o) 1 À 1r-os 1--g I 1-B d. À définit la v. TASSI 260 .(d) :g> c-r (B) _c-1(d) À F1 (B) La loi 7(1.1 (y) : {z/G(zl: y}: {z/FÉl: y} : {z/z: À : P(Y < Y) : P(X <4 : À F- 1 (y)}. absolument continues : Définition 11 Soient a et B. À<8. G. de f. pour des v. a I B. À) est plus étalée que la loi 7(1. de f. la loi de X est dite plus étalée autour de a que Y l'est autour de b si : FExemples a) SoitF(x) 1 ffi) 1 . 1[ .a.a.F. r-1(x) :-lLog(1 -x).r. pour À ) 1. absolument continue.G-1(v) :-lLog(1 -v) À0 F1 19) : . pour À b) Soit X une v.G(y) -1-s-9v.ona: G-1:ÀF-1 -r-t(a):l<r c_r ffi) _c-1(d) À et donc Y r-t(B) : À X est plus étalée que X.0). PH. deux réels appartenant à lO. G(Y) < 0.

Xn) d'une v.t - (X(r).(X1n) a) En toute rigueur...r.. la notation X1ç. C'est ainsi le cas dans les méthodes statistiques cherchant à détecter des valeurs éventuellement aberrantes...a. possédant une suite finie d'observations indépendantes (Xr. LOI DE L'ECHANTILLON ORDONNE on considère une suite finie (Xr. dans l.a. on p (Xrr) PH.. f sa densité. 1 de X. X(o) "t devrait être écrit X(r..q.l"classant les(X.Xn) de n observations indépendantes 1. X..lR. le phénomène étudié peut parfois être tel que les observations vont naturellement en croissant : part de..n).. lorsqu'il n'y aura pas de confusion possiblà. Dans tout le chapitre.. F sa fonction de répartition.. S LFGAIT 261 . nous utiliserons la notation allégée X1p1. .r. de loi px. en outre. fr1" .. i : 1 à n. n'a de sens que pour n donné. X désignera une v.. . X(n)) ( Xrrl (. on s'intéresse plutôt au n-uple ordonné en sens croissant ou décroissant.1 Définition de la statistique Définition 1 d'ordre croissa nt on appelle transformation ordonnée ou statistique d'ordre l'application mesurableT : (lR.Chapitre 9 O bservations ordonnées ll arrive fréquemment que. marché cumulée conquis semaine après semaine. b) Si la loi de Ia variable X est absolument continue par rapport à peut se limiter à des inégalités strictes car : i. par exemple.. .Xn) Xt. TASSI .ordre : avec: Remargues (Xr..cependant.).

I Pt[Xi-Xi:01): o .....*n l cn (*. si X est . étant indépendantes..... it peut y avoir des ex aequo... .." oir"rete. .. où pxt (11' ''xr (n) symbolise la loi du n-uple (Xr .. 1.. *n) n ...)."r.! ..a.X... LEGAIT ... .X.r.. f (x. Or.i" i:l € t (x. (*r. . (^r. pour i # j.Xrtnl) (r)) : J. xn) 1.) dx. TASSi ..."0.la probabilité pr(g) peut être écrite : Pr1A1:P1 U E(r)l: : P(E(r)) r€.. . xn) où : n' .. Î"n (x.X'(n)) € P (E B} (r)) : JlRn 1"n (*... xn) : Cn : [(xr..Vn re9n où E (r)désigne l'événement : {Xr(1)<.)..Xr(n} et (Xr(1).. < *n] Démonstration En notant 9nl'ensemble de toutes les permutations r de n éléments. xn) lRn . . (X. et tes formules deviennent rapidement complexes.OBSE FVATIONS ORDONNE ES En effet : p [{Xrrr t+l : t+l Or la loi de X... d*n. ..onrr". . la loijointe de est le produit des lois des Xrliy soit : P (E (XrtrI . nous supposerons X continue par la suite. les v. est elle aussi absolument continue par rapport à la mesure de Lebesgûe et donc . . et B un événernent quelconque de fr./ x. xn) 1. zoz PH..xn) dPxt(1)' "'xr(n) (1). i: 1 à n."j11r..n. S.... Sauf exception.2 Loi de la statistique d'ordre 1 : Théorème La loi Pr de la statistique d'ordre est définie par la densité fr(x. .. < x2<..1ny). . .

..Xtn/ n : T(Xr.!..JLIERES DE L'ECHANTILLON ORDONNE 2 2..) Théorème 2 La loi marginale de (Xtr).. donc Pr1B1 : : P {(Xtr. admet la densité : n! ltn (x'' (n-k). dxn lls'ensuit que.... xn) .{! \ ** (... .. ... *"' n . f (x. t''Jr) u"* t(x)dxln-k lesévénements E (r) et Ë (a) seront identiques si r(i) :ali). soit : . : nt Ju lcn (x.X(n/: fk{x):.t (n-k)l(kPH TASSI -S TEGAIT 1)! Fk-1 (x)(1 -F(x))n-kf (x) 263 .. r (k)) est fixé.{.. ce dernier étant égal au nombre de permutations de gntellesque (r(1). --aL.9n contenant un chacune des classes d'équivalence de{?n/-... X1n1)€ B} lRn. .1 Loi de X1p1 La densité marginale fo (x) de la coordonnée X1s1 (k : 1 à n) de l'échantillon ordonné s'obtient aisément en intégrant ia densité de (X11).. .. . on a: P {(X11r. ...xrx/ ...! 1 f (^i)dx. ll convient alors de définir sur 9n la relation d'équivalence : La démonstration de ce résultat est tout à fait analogue à celle du théorème 1. o-r<+o(il:r(i) c B} : i:1àk eî un seul élément de Alors.. . i:1 à k.. Xn)admet n la densité. sur (Xfrl ...X(k/. .sinon ils scnt disjoints. en notant A une parTie de..OBSE FVATIONS ORDONNEES On remarque que P {E (r) ) ne dépend pas de r. . k ( n. à la nuance près que les événements E (r) ne sont pas forcément disjoints. .. ' l cn (xr.. En effet.!o e {E (r)} Le nombre d'éléments de A est égal au nombre de permutations divisé par le nombre d'éléments de chaque classe..l-l .- '"n' . (n-k)! LOIS PARTIC|.

( x.a. Définition 2 On appelle intégrale bêta incomplète la quantité : lu(R. on a : Fk(x) Z suivant une loi binomiale : P (X1r1<x) : P (z>kl : . tels gue X. 1 ].c) " :=. q) est I'intégrale bêta. : q) - 1 JO tn 1 (1 - t1c-1 6.n-111 -t)q-1 ts (p.r. et donc les f ractiles./) : 1n. la odensité" de X1r1 sera donnée par f n (x) : Fu (x + 1) . il suffit de dériver pour retrouver Intégrale bêta incomplète f n (x). F (x)).n-k+1) La loi bêta incomplète est tabulée.a. Dans le premier cas. Soit alors b (t.o-1 : (1 -11a r dt. q) la densité d'une loi bêta définie sur [0.OBSEFVATIONS ORDONNEES Le calcul de la fonction de répartition Fn de X1r1 est immédiat. constante de normalisation de la densité B (p. de paramètres p et q (chapitre 4) : b(t. discrète ou continue.o=<u(1 Considérons lr n k + 1}. intégrale bêta incomplète tronquée en F (x). F de X. q) où B (p.1*1 {k. -o B(p.Io Ç F (x)]n-' Remarque Cette expression de Fn(x) ne nécessite que la connaissance de la {. et cette relation permet de calculer numériquement la fonction de répartition. intégrant par parties.Z comptant le nombre de points X. on établit aisément Fn(x) :1. En 1*1{k. on obtient n Fk (x) F'(x) [1 . elle est vraie quelle que soit la nature de la v.Fn (x). En considérant la v. d" X(n) (voir nTables of the 264 PH TASSI S. X. Dans le second.p. p.q) : -: ..q) -il. LEGA]T . .

7150 262 .1022 .1237 . <oi' La f. éditées par Karl pearson. : exp (x e").0679 .79 .80 . (o)(23.r. 30 : P (Xtz3) q 0) : - 23 + 1) il suffit de lire dans la table ci-dessus la valeur d"lo.OB SF RVATIONS O RDONNE ES incomplete beta-functionu.74 . Cambridge University press.rr.3675 521 . après interpolation P (X12s1< o). donc lF F(O).0.6666 799 .72 .2813 767 . carcurons e ix.77 .6921.osz(23.6165 525 .5142 gOO . u ru (23. cie X est : Comme: F(x) F23 (O) : 1 -e-"".1484 337 478 364 621 678 637 .^de loide Gumbel(chapitre 4)de densité f 1x.0837 .r. soit.o.4637 746 .7607 906 Exemple Soit X une v.78 .2080152 .og74. 1934).1765128 . Théorème 3 La variable aléaroire PH TASSI . dont on possède n = 30 réarisations indépendantes.a.2429 931 . 2b5 TEGAIT . Yr: F (X11/ suit une loi bêta É (k.3229 920 .73 .8) .0546 .k + 1).5654 792 .4146 528 .8). n .76 . S.75 .71 .

u. la Exemple Soit X de loi 'A'ro.n.^. variance. à partir des résultats généraux précédents : F.i 2.r 1. et Xlnt a) Lois On trouve. 1 ]. Par le changement de variables y : F (x) dans fn (x) : s(Y): n! (n - k) | (k - 1) | vk-l (1 - v)n-k 11s' 11(v) B(k. que sont I'espérance.ri(x) (r-F(x))n-i -1-cl(1 : 1-(1 -F(x))n f1 (x) :nf(x) (1 -F(x))n F1 (x) 1 -F(x))n De même. par sa propre fonction de répartition.k + 1). et les résultats du chapitre d'écrire : 4 permettent 6(X1r1) : . (y) '[o'1]\] a) Rappelons que Fn (X1p/ suit une loi uniforme sur [0. la médiane et le mode dépend de la loi originêlle F.S IFGAIT .a. b) Le calcul explicite des caractéristiques de X. suit donc une loi É (k.n-k+1) Remarques L ur<-1 \r Y 11 tt .(x) :.OBSE RVAIIONS ORDONNETS Démonstration Notons g la densité de Yo.. On a : fo(x):--+" (n-k)!(k-1)! ^t-1 11 -x)n-k1ro. n . pour X.r1(*) X1n.2 Cas particulier des valeurs extrêmes X.r.y)n-k 1.n1 : : fn (x) : Fn (x) Fn (x) n f (x) Fn-1 (x) PH TASSI 266 .!l:l a. comme toute image d'une v.

(resp. X1.r(u.. : La constante de normallsation est n! PH. Xtrl) ( n : Soit un couple (Xtnf Xtr/ avec 1 k < I =< Par intégration de la densité 6e (X111.v) : C(n..S.i-t-t t1 .être noté. u).F (v)ln-1 11r=u1(u.) De même: F(iJ:e n:t-F(i.k) f (u) f (v) rk-r (u) (F(v)-F(uy. b) Médianes i1 et in désignent respectivement les médianes 6e X1r1"t X(n) . notons que le sup (ou l'lnf) d'un échantillon indépendant extrait d'une loi F ne suit pas cette loi.i..n-j+t) .OBS E RVATIONS ORDONN EES De façon évidente. Alors F(Xrnl De même: Supposons que le support de la loi p soit lR. et mérite d.. trm p(Xfnt ) O) :1 I P(Xtr) q : t -(t -F(O))n .8(l.3 Loi jointe d'un couple (Xtn). X1n1). ceci n'a rien d'intuitif.) 2... c"est-à-dire : O < o) F(x) ( l Pour ) O) : t -Fn(O) : 1-Fn{o) . négatif). l'équation de définition de i. Remargue tout x réel.) qui conduit à : : t :1-(1 : 1-e Ln2 -F(. est : -1 Flry(i.r-k).. tim p(x111 < O) -1 X. on obtient : fr.. .1))n Ln2 n F(x. LEGAIT .) est asymptotiquement positif (resp.n. TASSI : B(k.

TASSI ' S. alors E (X1n.X111.1. alors que E (X) n'existe pas.4 Calcul des moments Le calcul des moments.f (v). l'existencede E(X). LEGAIT .x-] E(lxl) E (lX.OBSE RVATION S ORDONNEES La loi de (X1r. 268 PH. Pourk: 1 et l: f.n (u.. c'est-à-dire si E E (X(k)) existent et sont finies. Xtrl). c'est-à-dire de la fonction de répartition F et.v) 2.tF(v)-F(u)ln-2 ltr=u1(u. (lXl)existe et est finie. c'est-à-dire E (X)<+æ. onobtient la loi jointede(Xtrt. Remarquons qu'inversement I'existence de E (X111) n'implique pas celle de E(X). si elle existe. X(nt)' : n(n-1) f (u).F (x))n-k < t ll s'ensuit : lEtx111)l ç E(lx(kll)< ".v) n.i)et Donc si X est intégrable. de la densité f. Démonstration On saitquelE(X)l < E (lXl). V (X(k)) et Cov (X1p1. E (X1s1) existe pour 2 < k < n .. dépend bien évidemment des caractéristiques de la loi de X.y X1l1) permet de déterminer la loi de fonctions de en particulier celle des espacements ou mailles de la forme X1t1 . particulièrement E (X(k)). est assurée dès que E (lXl ) est f inie. et.*lxl (1 E(lx(k}l) : " cl-] Fk 1(") -F(x))n-n t(*) < n cl ] rt*t Fk-1 (^) (1 . a) Résultats généraux Théorème 4 Si E (X) existe.). On a ici : lE(X(k))l Or: fo(x) pursque : fn{x) dx: = J.) existe également. Pour la loi de Cauchy.n. (X11y X11. par exemple.

m: E(X) eta2 : V(X).. sous réserved'existence. En faisant : n oI.onobtient n t(X1p1) : nm k:1 En élevant au carré l'égalité : E(xÎk)) : nE(X2) (xrnr nf . TASSI .S.. Avecj :2.on n note.OBSE RVATION S ORDONNEES Théorème 5 Soit nfixé.. on a : xinr nf . 4' : oout tout réelj j : 1 et en prenant I'espérance r. et en intégrant : nn : nI. Alors: k:1 n E(X(k)) : : nE(X) k:1 n E(X21*y) nE{X2) n k:1 lll n n E(Xrnt Xtrr) : nE(X') + n(n-1) m2 "Ik:1 f:l Démonstration T Cov(X*y Xrrr) : na" De façon évidente. LEGAIT ..' EI "o (n E( \ k:1 *.0) : (n \t:t *_) 269 PH.1.

x.X le sont aussi. ll s'ensuit : -* sont indépendantes pour tout E (x (x(k)- x)): o d'où : E (X x(k)) : E (X') : v (X) : 1 n soit . X.n.n/:. S... TASSI 270 . en remarquant que n : E(x1p1 x1r1) : nE(x2)+:+> E(xk Xr) : nE(X')+n(n-1)m2 n:. (x. donc X et Xlpy . on sait que X et X. - E(x(k))) : nI.Onavu E (X(k)) : n+1 PH. r1 :f (x) : 1.(*). (Xu- m) on a.. i.a..OBSE RVATION S ORDONNE ES sort : nn k:1 i:1 Enfin. LEGAIT . 1) .. E (nX X(k)) n ln \ : E(rf .Il E (X1p1 X111) : 1 Exemple Soit X de loi uniforme précédemment : %p. F (x) : xsi O(x(1. en élevant au carré et en prenant l'espérance: nn k:1 l:1 Remargues ' a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v. b)-Soit X de loi N (0. discrète ou continue.

t J. F(Xr).n-k+1) F(X1n/ (Xtrr). 1( n 1) (théorème 3).une loi %ro. n_ k + On déduit des propriétés de la loi bêta E (Y[) : B(k+r. Yn : PH TASSI . prus générarement.Si F est l'application identité... on en déduit : çov (X1p1.. cependant. Statistique d'ordre FI F I Ur : (X)de to. LEGAIT 'aa .. queile que soit ra roi de x.exempre précédent. on retrouve bien les iésurtats de l. . . Un + F (X.n-k+1) E (Y[) : (k+r-1)lnt (k-1)!(n+r)! D'où les deux premiers moments de yn: E (Yk) : .. n-k+1) B(k. E (xtr.p. rr.../ : E (yç).+1 v (Yk) : Remarque .. v) : (v _ u)n-2 v).X.. c'est-à-dire si la loi originelle de X est la loi uniforme sur [0.OBSERVATIONS ORDONNEES De même: v(x(k)) et.. Urot qri serait obtenue en appriquant ra statistique d'ordre à un échantillon (U. en remarquant que fn. E (F (X..r ( k. En effet. b) Calcul approché On sait que Yn des moments : F (X1) suit une loi bêta Ê (k.a. - k(n--k+1) (n+1)2(n+2) (u s< t (u.S..o/ de toi t lr I : F (Xn) Yr : FFk.))est égal à l'espérance de la v. Xcr) : +#" * : .. on peut représenter de la façon suivante les divers modèles intervenant : Xdeloi P: (xr. Un)extrait d. .n.. xn) (Xrry. . %ro. r.

LEGAIT . en notant pr: E (Yn).1). # Or.) [1-Zon /'"'(on) *nn(1t-Rn) /'''ton)-l ("-2f L .+*# 4t" (ont . : "*+ r/'(on) Q'b. t . 1 on(l ..{3).on(1 -R1. en particulier pour la loi normale N (0.) : yn. Cov (X1py X11/ déRend de l'ordre auquel on arrête le développement.E (yk)). U1Ly : F (X1n. ffn-no)i /(i) Le calcul Oe E (X11/.ét.. on(1 -pr) t'bp) t'"' (pn) *. TASSI . A l'ordre 4. c'est-à-dire du degré d'approximation. V (Xtr/. .j.) + (1 -2pl t" $fi e'bnl 1 * 1 .l + ï=fl t B : (1 -2pkl e" bn) Q'b.) r/t'(ovl Q"$nl - pk(1 -pk) ('/'bv) V"(pn) .j.l . on obtient les formules approchées suivantes (il suffit de remplacer E (Yp par les formules précédemment établies à partir de la loi bêta de Yn) : e (xrr/ : e bnt .. + 4t"(oo)1" cov(Xrrr Xrn/ avec ... Ces dernières sont reproduites en tables 10 et 1 1 272 PH.. F-1 (Yr) : Xlry . t pr(1 -n/ /'(nn) t'"'loll *t . Le calcul approché des moments de la statistique d'ordre est fait en utilisant un développement de la fonction F-1 1Yn) au voisinage de E (Yn) : ffn .S. v (xk)) : &5U ttt'' (on) -ffi o avec : A:2(1 -2pr.p/ e" bn) t" $l Des tables numériques des moments de la statistique d'ordre existent pour certaines lois.OBSÊ RVATION S OBDON NE ES La fonction F étant croissante. et t : F-t F: 1 (y(k/: F-' (E (y(k/)+ r-' {Ru) (u)lu:E(yp) X(o) : /(no) + .

. O < a < 1. 0 ou 1. la théorie des valeurs extrêmes a été considérablement utilisée dans des domaines d'application tels que la fiabilité. XJ : - Max (- X1.OBSE RVATIONS ORDONNF ES 3 COMPORTEMENT ASYMPTOTIOUE Si les résultats à distance finie rattachés à un échantillon ordonné sont importants. PH.1. 3.n. etc. si O on étudie alors un fractile empirique. plus généralement. on étudie un rang fixé (valeur extrême) . cette remarqub'jouera pour étudier les comportements oes U]â. aux rôles symétriques Xlpy "t X(n _ n * rI Lorsque n tend vers l'infini. alors que le rapport i n ... . le contrôle de qualité. - Xn) on obtiendra la loi o" *.. LEGA]T I a 11.. le rapport ! n t"na alors vers n.y dans la roi de X. compte tenu de la liaison entre X1p1 et X1n _ k + 1y on étudie le comportement asymptotique d'un rang donné . en effet : Min (X. Cette situation est celle d'un fractile empirique d'ordre a (chapitre 3). Ce cas correspond en particulier aux valeurs extrêmes. deux possibilités existent pour k : a) soit k est f ixé. Si a:0 ou a: 1. TASSI .. et. alors : * P xo z/J ....1 Convergence Théorèrne 6 d'un fractile empirique O Si F est continue et strictement croissante.0"r le changement y .. ce paragraphe aborde la loi asymptotique d" X(n) et les lois limites des valeurs extrêmes d'un échantillon ordonné. lim 0(a(1 < a < j. k : 1 ou b) soit k tend vers l'infini. ..S. et si Xr*t où xo est le fractile d'ordre a de X."nO vers û. Remarquons tout d'abord qu'un simple changement de variables permet de passer de la loi d" X(n)à celle 6e Xlty.. écrivant: on peut synthétiser les deux types de comportements asymptotiques en n l"l-æ -1&.

i : 1àk: : Vn I X.Xtnr. on ne restreint pas la généralité de la Fn(X11noJ*r1) : Ina] n r (xtrt)- F (xJ : : F (X111). fournit la Théorème 7 Soient (X(nr).Fn (X(k)) * I na] d -On sait (voir chapitre 8)que dk (Fn.-x^ | \\ tnk) ak ..) < co...F (xa) F (X111). X(n)).. : at O a o. (i : 1 à Si 0 < f (xo. k). On suppose : n. P convergence en loi de X.*æ.Fn(X111)+ Fn(X111)./I 21 4 |"(n1l /X. LFGAIT PH. TASSI . 1. est noté xo. on conclut en composant par F-1 Xtnl : * xolorsquen*co. F) : : Sup I F (x) - Fn P (x)l 0 P O d'où: F F(X1py) -F(x/* étant continue et strictement croissante.:) . a. S. ll est énoncé sans démonstration approfondie. D'après la définition de la fonction de répartition empirique Fn donnée au chapitre 3 : -n convergeant vers d. i : 1 à k. établi par Pearson. x ...l) k variables ordonnées (k < n) extraites de la statistique d'ordre (X(1I . Le théorème qui suit. hi*Le fractile d'ordre etliml 11.."al \\ loi - N(0. Smirnoff et Mosteller. . celle-ci pouvant être trouvée par ëkemple en [17] ou en [2].u.-.OB SE FVATIONS O RDONNEES Démonstration Le rapport k démonstration en écrivant k : Ina] + 1.

où Rn converge en probabilité vers zéro.)..0. et Go: nYn.. et. LEGAIT F(X.S.. Le résultat s'en déduit immédiatement..). Onseplaceici danslecaskfixé. .)) -::d.) (xo..-1ffi* a. al\ : Or.. L N (0.) _ (ar - xoo)) est identique à ceile de Fn : .OBSE FVATIONS O RDONNEES I étant d'élément courant : o. On suppose n -* oo. ao) ^ oâ: a(l -a) t\^^l 3. I r/n \" ^o).dj: oi(-qjl.J" f (xo.. a)..(x_) : *oi .6 {X1nn1(a.: 't Jl? f l(Xo) (xo) (1 < i< j< k) Eléments de démonstration L'idée est de remarquer que I'on peut écrire X(ni) : F. pour i ( j nCov(Fn(xo. .Fn (xo.^. n Fn (xo ) suit une loi gJ g. TASSI . on a: r {x. Fn(xo. k restant fixé PH. La loijointe de (vG (Xtnr)- (. r. Remargue Pour une k coordo nnéeX1py avec lim. *".2 Soit : Convergences des valeurs extrêmes a: 1.n..soita:0 ou Yr: .: d.)) : ai-q.

En effet.. Compte tenu de la remarque faite en début de paragraphe. 1) Ce résultat provient du comportement asymptotique de la loi nÉ (k. Gr.3 k: Les lois des extrêmes lntéressons-nous plus particulièrement aux (vrais> extrêmes. dépend de la distribution F de X. loi des exY quand n .A+B A A . la loi de la variable Y telle eue X(n) l. Ona: /n\ r< El-l:-etvl-l:.deloisrespectivesyk.*.r. B oùAetBsontdesv..S. a) Les trois formes asymptotiques initiale Le comportement asymptotique de la loi de X1n. par définition d'une loi p sur [0. LEGAIT .a. c'est-à-dire Gn converge f (k. peut être mis sous la forme uk nA . En vertu du théorème 16 du chapitre 7. TASSI . 3. n-k+1). 1).indépendantes. trêmes.OBSÉ RVATION S OFDON NE FS Théorème 8 ck t. : y (k. qui converge en loi vers une loi gamma y (k. Fisher et Tippet (1928) ont établi I'existence de trois seules lois limites possibles. correspondant à 1 :X11y et X.n. Définition 3 On appelle loi asymptotique des extrêmes.1). on se limitera à l'étude 6e X1n. n-k+1 n 2 et n B converge en probabilité vers 1. en loi vers la loi de A.lletf(n-k+1. /n\ n \n/ \n/ : k n' donc A -n converge en probabilité vers 0. 1]. ou plus simplement. De même Ë /B\ \n/ n-k+1 n v [ -l- / B\ \n/ 1). 276 PH.æ.

F) Loi du type de Y lJ 'À lll : Elle est définie par sa fonction de répartition i-v\P .ltr.i. p>0) retrouve cette loi en faisant le changement y cette troisième forme de comportement asymptotique est du type weibull (on * .Êl:11.*-1(y) lR. de façon non triviale.Êl:e lr P ).S TEGAIT l/ / .. l. p>O Cette loi est parfois associée aux noms de Fréchet. dardisée Y-^ lJ h la fonction de répartition Fg (y. Êl la fonction de répartition F.À lJ o.r. 1)correspondant à la variable dardisée cette loi est appelée généralement loi de Gumbel ou double- exponentielle.(v. 1.l € p >O. On notera F"(V. O. On notera Fr(V. seule la loi du type I est définie sur lR./ s ) I Fs(y. y-^ . (v. (y.. les lois du type ll et du type lll peuvent être ramenées à la loi du type I respectivement par les transformations : Z:Log(Y-À) et T: -Log(À-Y) PH TASSI . O. P) de'la variable stan- On remarquera que les lois du type ll et lll sont des lois tronquées .e I I .1l)O stan- notera Ft (y) la valeur de F.^.**1(y)+e (. plus rarement à Fisher et Tippett.11--.p.OBSE RVATIONS ORDONNEES Loi du type I La loi du type I est définie par sa fonction de répartition : F. p )O. Loi du type ll Elle est définie par sa fonction de répartition : Fr(y. sur un support borné.À .p. Y -.21(y) € lR.l\ :exp\-e / r on )o€R. En outre.y). 1.r) | -t u.

1l. Démonstration (cf . la v.si Ysuituneloi dutypelstandardisée..1. LEGAIT . Propriété 2 Soient deux v. n 2 1.a. d'où E(eitY) : E(X-it) 1l: E(Xr) : F(r+1) : zyftl: r(1 -it) d) Génération de lois des extrêmes Théorème 9 Soit (Yn).. Fl : (e-t-vÉ { ( 1 : y€rR ye lR* Propriété 1 Soit Y une v.. U : X . ll est donc possible de calculer la fonction caractéristique g" de Y : gY(r) : Or.. indépendantes identiquement distribuées.. X et Y. La v.'l). de loi exponentielle.a. Êl : s-(v)-É y € R* (y.UB s-9z1 1Z est donc de la forme utype lo avec i : Log lr el pt = p .a. pour une loi y (1.Y suit une loi logistique. chapitre 4). b) Propriétés Nous ne considérerons par la suite que des variables standardisées : Typel : TYPe ll : Type lll Fr (y):exp(-"-v1 y€ lR Fr(V. et N une v. suivant une loi de type I. : F3 Bl : (V. .. c) Calcul des moments Le calcul des moments des lois des extrêmes n'est pas toujours aisé.a.a. Cepen- dant. Alors X : Sup (Y. de type I .a. X e-Ysuit une loi exponentielle f (1. X:e-Ylcasstandardisé) suituneloi y (1. une suite de v.OB SE RVATIONS ORDONNEES Par exemple : P(Z<zl: P (Y<i1e') : exp(. pour tout r. indépendantes.Y*)suit une loi du type L 218 PH. TASSI _ S. exercice 4. suivant une loi de Poisson tronquée en {O}.

/N: n) p(N:n) = i ne-x11 -e-")n-1 1si-ry-r ].f*(x.À.3).Fât. Ainsi.2. (i : 1... Ft 279 PH. et faisons la transformation Z ll FzEl : . de la loi limite de X.(. . pl * _Y Fi (.Àe-x e^-1 X(n) e) Relations entre les lois asymptotigues de Xfr)"t existe entre les lois asymptotiques d" X(n) et de X111 des relations aisément démontrables par changement de variables.r. P (Z<z) : p(-y< zl : 1 ..-À.À.pl Nous noterons : \ \ u )) F.x\ r- Àe^ g-x-.À.- y.(-2... p.F"(-z) .Â(1 'e. pl : On démontre de façon analogue les propriétés suivantes Fz ('' À' u' Pl : p) : rË t'' - À' P' Ê) Fs (. i.. on notera par F] la f.OBSE RVATIONS ORDONNFES Démonstration En décomposant : {X:x} : f*(x) : æ n:1 i {X:xn N : n}..Ul f f x-(-^) 'll \\ ' -1-exP[-exp I : Fi(x. . ona: n:l I. p. soit Y de type l.1-F. À. TASSI S LFGAIT . ..1 (1 _e-x)]t ei-1 ôtx - I k:O kl = ei-1 ". n n=1 _ À "-" i [.

Fâ '- o... Ln F..t . p.' Ln P. (. O. Ê) ... F. Pl l.S. pl p. rt-'. (.. Pl F. o. j : 1 à k et I : 1 à m. ".À . o. les élémentsde chaque sous-échantillon. par exemple Fâ (. Ll (-J r. LEGAIT . l'échantillon initial. Bl Fâ (. ttl e-.. " o. ^.FË 1.t.4 Eléments sur la démonstration des convergences en loi de X1n1 L'idée de base. tt'-' . Êl : L'ensemble de ces relations peut être résumé par le diagramme suivant F1 e-Y LnY F2 Fi F3_Fâ Y-1 3. Ê-'l Fl (. ll est évident que : Sqp t. (. . O. ^. o. (. Ln u. Ê-') : De même. consiste à découper l'échantillon de taille n en k sous-échantillons de taille m. 'pl Y-1 Êl Y-1 Fâ t. u. O. - (.. i : 1 à n..-') L\Y F{ (. (. - r.). B-') F. tt. r. F.OB SE RVATIONS ORDONNE ES Fr(.. et (Xj). notons (X.(. L\Y r. k : nm ... TASSI 28A .. o.t. p.l Xi : Sqp Sço Xl t PH.. les relations inverses entre F et F* existent. due à Fréchet (1927iret à Fisher et Tippett (1928).. O..

dû à Gnedenko F. si possible. -S LEGA]T ?Ê 1 . Sur l'ensemble nêtre de même type> est une relation d'équivalence.*_ .** : F. on aura l'identité de Gk et de G Gk1x1 : de de : G(an x + bn. que nous n'aborderons pas. coefficients dépendant de k. d'équivalence. an ) O. vers quel type de loi va X1n.espace quotient rème suivant.v)Éy t. c'est-à-dire un élément de l.r* (V) " Type lll : F.(. A une transformation affine de ra variabre près. ôn appelle type une classe 'g/e.É1 t . et (bn) telles que : Gn1xl pour tout x réel. (ax + [) I des fonctions de répartition sur lR. réelles et indépendantes de x.n. et F2 sont deuxfonctions de répartition. (y. (s) l'équation fonctionnelle définissant toutes les lois limites possibles pow i. La relation (s) traduit ce que I'on appelle le principe de stabilité..pour un maximum. si F. et est Définition 4 Une fonction de répartition G est dite stable (sous-entendu. selon sa loi initiale F.OBSE RVATIONS OBDONNEES Faisons tendre m vers l'infini pour k fixé . Alors G appartient nécessairement l'un des types suivants : à | Type ll TYPe (. (y) exp (B paramètre strictement positif.e. constantes an et bn sont des constantes de normalisation.) : (V) converger PH TASSI Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêt propre. conduit au théo: Théorème 1O Soit G une fonction de répartition stable. F.U. L". : G(anx+bn) Remarque Plus généralement.) s'il existe des suites (an). soit G la fonction de répartition la loi limite d" X(nI n * æ. Êl: exp (. É) : 1 (y) + exp (.Y) : F (V. (x) : F.. la relation O La résolution de l'équation (s). il est important d'essayer d'identifier. et dites de même type s'il existe deui constantes a (a ) o) et b telles que : F2 sont pour tout x réel.

alors G e g G) eT 9t (Gl est non vide.Xn) étant un échantillon extrait de la loi F. + -1 (v fini ou non) . f étant nulle sur [v.r.3) i:1 àn Nous allons donner maintenant des conditions suffisantes de stabilité permettant de préciser le domaine d'attraction de chacun de ces types. Xrn) : sup X. représentant d'un type" Les caractéristiques des domaines d'attraction sont établies dans les théorèmes suivants : Théorème 11 Soit F une f. si v). .. de densité f positive admettant une dérivée f'négative sur (u.t. PH.. tim x Îv alorsFeQç.r. On appelle domaine d'attraction de F. va converger en loi vers la loi des extrêmes de type F. Pl). on peut montrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attraction d'une et une seule fonction G. S.. et (bn) telles que : lim Fn(anx+bn):G(x) n*oo pour tout x point de continuité de G. IEGAIT . En outre. Définition 6 Soit G une fonction de répartition sur lR. + æ[. Remarque Si G est stable. an ) 0. Théorème 12 f'(x) -F(x)) f' (x) (1 __1 Soit F une f.(i : 1. TASS . de densité positive f sur Iu.OBSE BVATIONS ORDONNEFS Définition 5 l'ensemble g ffil des lois de probabilité F pour lesquelles (X'. si : x-+oo 1-F(x) alors F 282 rim xf(x) :É>o € 9l ffzl.2.. une fonclion de répartition F sera dite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an)...

L'ensemble des démonstrations peut être trouvé en IS]..x.) æ. v).e.Ln n . PH TA.S. en effet. xlv 1-F(x) (v (x) _. alorsF€gFs(. de f. [7] ou t 1 Sl.OBSE RVATIONS ORDONN EES Théorème 13 si soit F une f. : + -1 .toiexponenrieltededensité u.p1). 1) au domaine d'attraction de F. pour la loi r (1. peut être x)O :' f'(x) (1 f1^)-:b) Soit X de loi togistique.n. Exemples a) SoitX -) y (1). 'n Fn(z+Lnn) :(1 -n e-z)n*exp(-e-z) L'appartenance de retrouvée à I'aide de la condition du théorème I 1 .r.. -F(x)) :e_*_1__1 ft (^) '\"/ (1 283 LEGAIT . La fonction de répartition Fn de Xlny Fn (x) : (1 .x)f . de Xlny est Fn : 1+ e-x quand n - X(n) . 1 Fr_(x) : Il +e:(r*tnn) ]-n : (1 * 'nn "-r)-n-exp(-e-.(z): quand n*æ.r.. . (x) : (1 + e-").n 1. Soit Zn: De même que pour l'exemple a) : f'(x) quandx-+æ.. et nulle sur lv.0* (x) -Lnn 1 Soit : Zn:X(n) F.^*(x).t . .r.SSI . de densité f positive sur un intervalle (u. f (x) : e-xi.F (x)) F e-" e-" 1"-"Y teile que : :-i F(x) La f.

1 Résultat général Un cas particulier de fonction des extrêmes très utilisé en statistique descriptive est l'étendue W I Xtnt .1)1. àQ ç. pour F' (y): f'(v) (1 L t" (vl - F. 1) appartiennent %ro. loi uniforme d) On établit que la loi y (p.Xt'f ou plus généralement les quasi-étendues de la forme X11y. 284 PH. et donc f'(y) quand Y*+oo (1 - F' (y)) *-1 r'(y) 4 LA LOI DE L'ETENDUE 4.7.S.. (y)) ey+e-Y (1 _ ev_ "-Y) (e- 1) : Or: e"-Y 1 gY 19* e-Y : - 1) {e-v .r)à g Fs(.e-Y quand y -* + -. TASSI .1]l1. Ainsi.. LEGAIT ..OBSERVATION S ORDONNEES c) Soit X suivant une loi de Cauchy de densité f (x) = 1 : 7r (1 * "t) X xf(x) 1-F(x) -= + -Arctgx) x xi(x) rim 1-F(x) . 1) et la loi N (0.X(k) (t > k).rim 1+x'= :1 x*+oo x-+co (1 + x2) (1 + x2)Ar"tg a pourx) 0 La loide Cauchy appartient àg F2(.l1 . et la Remarque On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction.

TASSI 6u 285 .pe) deZr. A partir de la loi du couple (Xtrrr Xril établie au paragraphe 2.k) s'obtient simprement.t après avoirfait le changement de : (*. (1 -g-u. en remarguant que valeur absolue du jacobien du chaËfement de variabres est 1 : Qfu.n-l*1) [1 f (u) f (u+z) Fk-1 (u) - F 1u + z11n-1 [F (u + z).t :6 *îil+.): Exemple: cl Jn t1-F(v)ln k rk1v1 ov Soit X de loi exponentielle ).S.k-t "-(n-k-1)(z+u) "-u "-(z+u) PH.pQ): J.zt.i-k) B(r.. on cherche la loi marginale d"zt.OBSERVATIONS ORDONNEES variables Soit la v.n: Q1.u. ) \*.u).k 1[: 1 à n _ 1) : ekri.]n-k-t.n/ -(*. considérons la longueur des mailles.r rn-t(u) t1-F(u+z)ln-l lF(u+z)-r1uy1l-k-t t(r) f (u+z)du A titre de cas particulier.r. Zk*1.a. (1).f En calculant E (Zx*t. c..-. E(zx*r.* rn-t (u) f (u+z)du (u) [1-F(z+u. \ \x(rt-x$t) ra La loi jointe du coupre (rJ.ut.f 1u.est-à-dire l'écart entre deux coordonnées successive.11-k-t En intégrant par rapport à u..on obtient après changement de variables .z): B(k..Xrul. on obtient la densité e1.uLzr : ffi J.. / (u) \. eu*t. LEGAIT . r : X(l) . Zn.

1 (1 _ t)k 1 .1(w) : n(n-t) Jn [F(w+u)-F(u)]n-2 t(r) f (w+u)du. La densité en.^w (w) : J'o e n.2 L'étendue W a) Loi de W Pour obtenir la loi de l'étendue W dans gr. B (n en posant donc : t: e-u.u-y(1. cette dernière intégrale n'est autre Q*+1.1..k(z) que - k + 1. et : (n n-k z .o (z). (w) est Fn. : Sa fonction de répartition Fn.OBSE RVATI ONS O RDONNE ES (n-k)z ' "(k-1)l(n-k-1)! n .. :X(n): Xf.n_k 6.1Ql dz : d: n(n-lf fJ[ fr(z+u)-F(u)]n-2 f (u) f (z+u)dz) du : d: n(n-1) f (u) du (JT** tF(v)-F(u)ln-2 f (v)dv) : d: nlF(u1w)-F(u)ln 1 orluy b) Espérance de l'étendue E(W) :E(X1n1) -E(X(1)) 286 PH IASSI .k) s- Zk*1.. 1 .k) (" _ kf 4.1) : : 1 n_k 1 V (Zk.f il suffit de faire I : n et k : 1 t de W est donnée par pn. k). LEGA]T .S.n-k) E(Zn*1.

v) PH. \ E( . TASSI : n(n- 1) tF(v)-F(u)ln-2f (u) f (v) 11....n) : n-1 Jn cl (1 . La densité de W pn.r (u..Fn(v)l ov m:o Exemple ! cT (1 - F)n-m pm - '.*t.r.F (v))n-k rklv.F(v))n-k Fk(v) dv k:1 ol r t E (w) : t^ c5 tr .. dv . Soit X de loi uniforme sur tO.n/ : fn.* tt -tl-F(v)ln .w) y7n-2 tto. (w) : X(n) . R cléfinie par: où la constante 1W (Xtn)_Xt.r1 (*) E(W) Remarque : ll r -(1 -w)n-wnl a..S. LEGAIT .OBSERVATIONS ORDONNEES Avec les notations précédentes : E(W) : n-1 E(zr.a. Cette propriété est fort utile en statistique. X.. _ rrr o / ! c) Contenance Partons de la densité de la loi de (X. dw:++ Soit X suivant une loi d'écart-type considérons la v.t) : il dn est.u1 287 . R: O -n o. on a E (R) : de l'étendue /x. - [(u + w)- u]n-2 1) (1 .: : que l'on peut écrire E(W) en utilisant : : J. \o Par construction. x.t) "f...n.X111 est du : = : n (n n (n f * . 1 I. et les constantes dn ont été calculées pour la loi normale. par définitionl égale à .

OBSERVATIONS ORDONNEES

Procédons au changement de variables

:

(",,,\ \*,",/
Son jacobien est
:

/'\ \"/

:
0

(*u,
:
f
(X1n/

\

\rrx,",r -F(x(1//

1

_ i (xrr/
d'où la densiré de (2, nl
:

f (x(n/

fr,o(.,Trl: n(n-1) rn-2 l(.1
La loi marginale de rr est
:

1r_,p_111 _.oy1el

fr(nl : îL-" n(n- 1l rn-z da avec a :
f

Flz)

7r0r)

:

n (n

-

1) (1 -

r) rn'2

1to,r1 (n)

ll s'ensuit
Soit alors
pour que 1oo y

observée, suit une loi bêta F

que n, qui représente la probabilité que X soit dans l'étendue 6 - 1 ,2).
P {r } y} : P (f) est ta probabilité au moins de la population soit dans l'étendue observée (Xtrr Xtn/.

), € [0, 1]. ta probabilité o/o
f

P(trln:

fy ,(tr) dr - 1 - n yn-1 + (n- 1) rn P(yl:1-nyn-1 +(n-1Jy"

On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de la population soit dans l'étendue d'un échantillon observé.

28B

PH,

TASSI

S. LEGAIT

Chapitre 10

Notions élémentaires sur les processus
_ Ce chapitre se propose de montrer comment le temps est introduit dans les éléments classiques du calcul er de la théorie des probabiliiés.

1

DEFINITION D'UN PROCESSUS ALEATOIRE

Soit (Q, ,4, P1 un espace probabilisé. On rappelle (cf. chapitre 3) qu.une varia_ ble aléatoire X est une application définie sur (e, ,41, à valeurs dans un espace quelconque (o', -r/') oit ,,4'est la tribu des événements de e", X possédant la propriété de mesurabilité
;

V A'

e .4'

x-1

1p-'l

e ,sl
:

La loi de probabirité de X est [image de p par X, notée px, définie par

V

A'€_

,t4'

px(A')

:

p(X-1 (A'))

1.1

Définition d'un processus
G étant la tribu des événements
de T.
1

Soit (T, G7 un espace quelconque,

Définition

On appelle processus aléatoire l'application X

:

@,

.vll x $, Gl - (a',,&,1
er

qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t fixé, X, est une v.a. sur (Q, ,,4,p).

indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant une grandeur aléatoire varia'nt dans le temps.

Par extension, on écrira un processus sous la forme d'une suite de v.a.

Remarques

- U -Si ,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou (lRn, g,nl, le processusx est réel ou multidimensionnel dira plutôt
multivarié de dimension n ; si
PH. TASSI

,o',

A' C Z

le processus est à espace d,états discret.

;on

univarié ou

. S, LEGAIT

289

NOTIONS ELEMENTAIRES SUF LES PROCESSUS

2) Pour c.r €
3) Si T :

Q fixé, X, (ar) est la

trajectoire de X pour l'individu

ar,

lR. on parle de processus continu.

4)

Si

T

:

Z, on parle de processus discret, noté (Xt,

leZ).

5) L'espace des indices T est fréquemment assimilé au temps, t étant I'instant v.a. X sur I'individu a.r. Mais T n'a pas forcément une valeur temporelle ; ainsi X (r,r, t) peut être, par exemple, la concentration en uranium
d'observation de la d'une carotte rocheuse dans une exploitation en un point
a-r

et à la profondeur t.

Définition 2 On appelle loi du processus PX. loi image de P par X ; on en déduit que, Vt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre gue la loi marginale correspondante extraite de P^.

1.2

Processus équivalent

Définition 3
Soient deux processus X et X* admettant le même ensemble des temps T et même espace d'états (A', .4'), définis respectivement sur @, .4, P) et (Q*,
:

,.il*, p*|.

Ces deux processus seront dits équivalents si la relation R suivante

P(Xtl € Br,...,X,n € BJ - p"(Xir e 8.,,...,Xin € Bn) (R)
est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et de parties Br. ..., Bn extraites de ..n('. Remarque Un processus stochastique est une représentation mathématique d'un "système, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le "hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un très grand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuel lement avec n grand, pour être dans les conditions d'application des lois des grands nombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'au phénomène étudié est associé une classe d'équivalence de processus plutôt qu'un proeessus. Le probabiliste aura donc la liberté de choisir dans une classe de processus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarche est analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur des classes de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. chapitre 3).
PH,

TASSI S. LEGAIT

NOTIONS ELTMENTAIRES SUR LES PROCESSUS

2

PROCESSUS STATIONNAIRES

Dans l'étude des processus stochastiques, une place particulièrement importante est tenue par les processus dont les lois de probabiiité présentent une invariance pour toute translation dans le temps (on considère ici que l,ensemble des indices qui caractérisent le processus est l'ensemble des temps). Cette propriété d'invariance temporelle est couramment utilisée en économétrie, en théorie des filtres, en analyse statistique des séries temporelles à I'aide de processus autorégressifs- moyennes mobiles (ARMA).

2.1 Stationnarité
Définition 4

stricte

Le processus réel (X,, tout n-uple de temps tt

t e r) < tz

est dit strictement stationnaire si, pour

T, et pour tout temps h appartenant à T avec ti + h C T,

Vi :

1, ..., n,la suite

(X,,, * n, ..., Xtn * 5) a la même loi de probabilité que la suite (Xrt, ..., Xin)

px,t'
Remarque

'

*,n

-

p*r,

+

h'

,Xtn + h

tition, la définition précédente est équivalente à : pour tous x1, x2, ..., xn, tous tl,tz, ...,tn et tout h
:

Puisqu'une distribution de probabilité est déterminée par sa fonction de répar-

P

(Xtr

<

"1,

...,X,n

(
:

xn)

:

p (X,,, *h

(

x1, ..., Xtn* r,

(

xn)

En particulier pour n

:

1

P(Xt<x)

:

P(Xtnr.

( x),Vh€T
a:

En effet, d'après la définition 4,pour toutchoixd'événementsA,,..., An, on P(Xr1

€A1,...,X,ne An)

: p(*,1 *n € A,'...,Xtn*5 e
x,[.

An)

ll suffit de prendre A,
PH. TASSI

: J- *,

- S. LEGAIT

NOTIONS ELEMENTAIRES SUR LES PI]OCESSUS

Théorème

1

Si{Xfl

t€

T) (avec

T:

lR, lN

ou Z) est stationnaire, alors on a en particulier:

(i) (ii) (iii)

:m Yt€T Var {X,) : o2 Vt € T Cov (X,, Xr) : r (lt - sl) V (t, s) €
E(X,)

T'?.

Démonstration
(i) et (ii) sont évidents ; (iii) Ccv (X,. Xr) existe si e l'inégalité de Schwarz
:

(X'?,)

et E tx'?.)

{ -

d'après

lE (xrxs)l
temBs quelconque de T
:

<

1e

1x]))"'

1e

1x!))"'

D'après la définition, il est clair qu'en prenant deux temps

t et s, et h un

Cov(Xrnh,Xr*6) : Cov(Xt, Xs) Vh €
Notons

T

/

(t, s) cette covariance

:

f

(t.

s) : :

Cov (Xr _ s, Xd

en posant en posant

Cov (Xo, Xs_t)

h : -s h: -t

Donc la covariance ne dépend que de la valeur absolue de la différence des temps et de la loi de Xo ; dans ce cas, on notera cette covariance f (lt - sl ).
Ces propriétés conduisent à une définition plus faible du concept de stationnarité.

2.2 Stationnarité
Définition 5

faible

Le processus (X,, t € T) est dit faiblement stationnaire ou stationnaire au deuxième ordre s'il satisfait aux propriétés suivantes
:

: m Var (Xr) : o2
E(X,)
Cov (X,, X,
u

Yt € Vt € : r (h)

T T

6)

V (t. h)

T'z

Définition 6
;r {hr} porte ie norn de 292

fonction d'autocovariance eiu processus.
PH

TASSI S. LFGA]T

NOTIONS ELEMENTAIÊES SUR tES PROCESSUS

La condition de stationnarité au deuxième ordre est plus faible que la condition de stationnarité (stricte). Cette stationnarité faible est très souvent utilisée en économie. Par abus de langage. nous appellerons par la suite série stationnaire une série temporelle stationnaire au sens faible; il convient de remarquer qu,imposer l'espérance et la fonction d'autocovariance indépendantes de t est une condition très difficile à remplir dans la réalité des séries économiques. Néanmoins, ainsi que nous le verrons par la suite, les processus stationnaires présentent un grand nombre d'avantages. L'une des préoccupations du statisticien sera donc de ustationnariser, les séries dont il dispose.

Propriété

1

f (h) est une fonction paire. Soitt* : t+h r (h) : Cov (Xr Xt * :
1.,)

Cov (Xt* _ h, Xt*)

:

Cov (Xt_, Xr* _ n)

:

y

(-

h)

2.3 Remarques diverses sur la stationnarité
a) Exemple de processus non stationnaire
considérons le processus X, : at + b + r- où la suite des e. est indéoendante et identiquement distribuée (i.i.d.)'d'espérance riulle et de varianc'e ar. Le processus X, n'est pas faiblement stationnaire car
:

E(X,)
premièreo Y,
:

: at+b

Pour le "stationnarisero, considérons maintenant le processus *différence

Yr: Xr-X,_, : a*tr-€t_l E (Yr) : a pour tout t : var(er-st_1) : var(c,) +var(st _1) = 2o2 Var(Y,)
d'après les hypothèses sur rt.

cov(Y'' Y'*n)

:

- *E(rr r,_1+fl d'après les hypothèses sur rr.
PH TASSI . S. LEGAIT

Il,:;;;1.;:*:-::]l

,,*h *,,_, 6,_,*6)

E(er_,, er*n)

NOTIONS ELEMENTAIRES SUR LES PROCESSUS

Cov (Y,, Y, * n)

:

( -o"^si h: -1 | -o'si h : { o si h€ z-(-1,0,
1

1)

Le processus (Y,) est donc faiblement stationnaire.

b)

Processus stationnaire

ll est fréquent d'assimiler la notion de processus stationnaire à celle de processus maîtrisable. régulier, "sympathiquen. ll n'en est rien, et les trois exemples suivants sont à retenir
:

Exemple

I

Soit le processus X, à valeurs sur

{-

1, + 1}, tel que

:

P(Xt:
Ona:

1)

:
o

P(Xt

--

1)

:;,

1

pourtoutt.

:(-1f. 1^1 . -1 z*lf t et pour h*O: y(h) : E(Xr Xt*6) : 1 -2î11 -11+1. - -o + 44
V(Xt)
Le graphe du processus est, par exemple
:

E(X*)

:

i\

lr rl r1

,t

?-+-1

294

PH. TASSI

.

S. LEGAIT

Æ avec ta probabitité + E(X. : t I tï avec la Probabilité + I . est donc stationnaire au sens faible. par une constante est E (X. à la date t (T € lN - {o}).. est bien stationnaire. X.y\ Jl' v\ v\' avec la probabilité avec la probabilité -]2tt' -:2tt' d'où E (X. le processus X.. Exemple 2 on corrsidère le processus X.) : o : .t/l + tft -0 '2t21 V(Xt) E(X? : Cov (X.1/t : . X.NOTIONS ELEMENTAIRES SUR LES PROCESSUS La meilleure prévision de X. X.. TASSI S. prend les valeurs : *.) X.. eui.) : O. qui n'appartient pas à l'espace des valeurs de X. chapitre 5).t: + j. : . mais oimprévisible> au sens propre du ternie.2t : 2t E t (Xr Xr. PH..) I O avec la probabilité 1 . X..) : o (cf. LEGAIT 295 .

S. e. avec une probabilité de plus en plus faible. : X.1 Le Définition 7 CORRELATION ET CORRELOGRAMME coefficient d'autoccrrélation C T) . + Y. X. p lXt. des valeurs t Vt qui tendent vers I'infini. est tel que I : ^ a5. E (e.. prend Exemple 3 Soient les processus X.) |2r. LFGAIT . la valeur : Cov (X' X") ' ' I s' ut\. est stationnaire. t temps t et s.NOTIONS ELEl\IENTAIBES SUR LES PROCESSUS des valeurs nulies sauf. et pourtant est susceptible d'engendrer des points oaberrants.1)t er où e. est non stationnaire aucune raison d'être stationnaire. est un processus : 0. la somme de deux séries stationnaires n'a donc 3 3.:( t o E(S.Al - lv (xr)lt" lv (xr)1"' tempstett+hpar: Si le processus est faiblement stationnaire.) : { ( q o' O si r est pair si t est impair S. sitestpair sinon i o \ : O I I r V(S. Le processus X. : €t et Yr : stationnaire.. V ltr) : o". on appelle coefficient d'autocorrélation pour les Soit le processus (Xt. plus X. .. Plus t augmente. TASS] . o r.) (.) est défini pour les p(h) 296 :p(XrXt-n) :+ I V (Xt)1"' 1V (X1 * 6)1"' PH. E (€t) : O.S.

(xt-xr) (x. + 1l définie par h * p (h). | ik) p(1t.. symétrique): r = i: \. puisque y (h) est une fonction paire : p(h) Définition 8 : p(-h) On appelle fonction d'autocorrélation d'un processus (xt..*h-xT) : ï:l t +i4t T (x. X.S.. p il ) I "'. TEGAIT 297 .... Le graphe de cette fo nction s'appelle Z c l'a utocorrélogra m me (ou corrélogramme). . * 6) : r(0): r r (h) (0) p{h) : b ez) Propriété du coefficient d'autocorrélation Si le processus est faiblement stationnaire. alors. notées X" "'.- l: t: t: I P(t) p a t'. Soient alors (k + 1) valeurs successives du processus.NOTIONS ELEMENTAIFES SUR LES PROCESSUS et.. . p (h) est estimé de la façon suivante . p (1i"" 1 ) Pour les calculs effectifs.... * on t' appelle matrice de Toeplitz la matrice des autocorrélations de (X. on estime p (h) par : T-h p(n) Z. '... Compte ten( de la propriété précétu dente. puisque V (Xr) : V (X. TASSI . * p) (donc . t € Z) l'application () * l. ' P (t't I """' i i I . le corrélogramme est en général tracé pour h e tN... si l'on dispose des observations (xr. .. X.. 1 I - Xr) -"2 T PI-1.1. xr) du processus. .1..

Examinons quelques cas. N cr) a a.. aaaaaaaaa. Exemple 1 O) æ F (o tf) + cY) N o.) lci seuls p (1) et p (2) sont significativement différents de zéro.TASSI S LEGAIT .a + f- r. est donc corrélé linéairement avec X.l et avec X. On verra plus loin que c'est une caractéristique des séries non stationnaires. X. aa taaa 4a. Exernple 2 Dans cet exemple. PI_i.2 Exemples de corrélogramrnes L'examen purement descriptif du corrélogramme fournit souvent d'intéressants renseignements quant au processus étudié.c) (o æ O) I L'autocorrélation devient rapidement "statistiquement> nulle. la pratique montrant qu'existent des formes relativement standard.NOTIONS ETEMENTAIFES SUR LES PROCESSUS 3.O. aucune 2 autre observation du passé du processus n'est liée de façon linéaire à X. p (h) décroît lenternent vers zéro. ce qui n'apporte aucune information..1). ll s'agit ici du corrélogramme de: Xr: at+b+st où eo 298 -) N (0. p (1]. _ .. puisque seuls p (1) et p (2) sont différents de zéro.lZ et p 12):0. a aaaa. bien sûr p (O) : 1.. (Les droites horizontales représentent les limites de la région d'acceptation de I'hypothèse (Hj p (h) : 0 : si â(rr) est entre ces deux limites.a. _ .38 . a. on accepte Ho....

NOTIONS ELEMENTAIFES SUR LES PROCESSUS Exemple 3 .

r. mais également un grand nombre de corrélations non nulles hors des pics saisonniers. Exemple 5 La série analysée présente là encore un phénomène saisonnier de période 12. PH. est une observation mensuelle). N (O. est donc corrélé avec Xr_ 12 et Xt . .o. TASSI S. qui est le trafic aérien des lignes extérieures. ll semblerait donc suffisant d'extraire la saisonnalité pour obtenir une série stationnaire. 7TT -) -)+e. : 0. _ .NOIIONS ELEMENTAIRES SUR LES PROCESSUS Le processus représenté est : X. Le processus est a priori non stationnaire et saisonnier. en étudiant la série X.2) Exemple 4 o) æ F (o |r) st cf) (\ C\.1 o cf) <t rf) (o F co o) I Les corrélations p (h) sont toutes nulles. X. remarquons que cette saisonnalité se déforme. graphe dont le simple examen révèle la non-stationnarisation (tendance de type exponentiel) et la saisonnalité (pics et creux réguliers) . LEGAII . Le corrélogramme est celui de la série représentée ci-après.X. on aurait p (4) . Ceci laisse présager une saisonnalité de période 12 (saisonnalité annuelle si X.51+5+4 (3sin 7TT -cos 6 s. sauf p (12) et p (241. Pour une série trimestrielle.O.

1963 1964 1965 't966 1967 1968 1969 1970 PH TASSI. A /\ .[. aa aaa a.a " n a l I |{ /\ A A r{.S.NOI]ONS ELEMENTAIRES SUR LES PROCESSUS ar a a a a a a. LFGAIT 301 .

Y. Zn n'est autre que le coefficient de Y. TASSI S. pour trois v. Y. Xi et Xi _ n les régressions affines de X.2n.Zn.. .X....21 la régression de Y.Y2.. h + 1. Xt-t..... par rapport à2. et n On appelle corrélation partielle de Y.2n: m Cov (Y. t du second ordre.. 302 PH. . Y.. .On notera.... Zr.-2: r:--_2_ \/t-Qzs 4.. et Yrpar rapport à2r. stationnaire..Yi.. X. Y.1 Définition générale v. t e 7Z).. .2n admettant toutes des variances finies. sur les variables 2.. Donnons tout d'abord une définition générale.. On note Y] (i : 1. et Y. et Xr nsurXr_h+ 1.. e Z) réel. Théorème 2 Le coefficient de corrélation partielle de Y. Définition 9 Soit la séquence X. . extraite du processus (X. non "expliquéesn par Y{ et Y). dans la régression affine de Y. Zn le coefficient de corrélation linéaire entre les parties de Y..Yr/2.. Plaçons-nous alors dans le cadre d'un processus (Xt.. soit : PY. .. Soient deux v.. . sur 21.Pts Pzz r.a.. 1 (régression affine..NOTIONS ELEMENTAIFES SUF LES PFOCESSUS 4 FONCTION D'AUTOCORRELATION PARTIELLE 4.... et Yr. et Y. .. - Yà) Par exemple. n..--.. avec terme consta nt).r...-. LEGAIT ..a.r. comme précédemment. on trouve le classique coefficient de corrélation partielle de la statistique descriptive : P'rzts : Vl-Prs Ptz.. et Y.a.2 Le théorème de Frisch et Waugh Nous énonçons maintenant sans démonstration un théorème fort utilisé en économétrie...

En vertu du théorème 2 de Frisch et waugh._n*. _ r._n-Xi_n) Le processus étant stationnaire. .) *. soit On appelle coefficient d'autocorrélation partielle d'ordre h du processus : la r(h) : P*. + h e.) v (xt .X*t _ r.. E(X.. on a : r(h) : Cov (X.. ._.S. X. et sa régression (l ) Vj :1àh: Xr: âo h r:r a.... E(xr....]...xr_j) : a0 E(Xt_.. LEGAIT i]t ".. sur X. X. r (h) est donc le coefficient de Xr_n dans la régression affine de X...xi) ... Xr_. E(xt_i. -h/xt-1 ._i)l E(Xr_j) h yU): cov(X..NOTIONS ELEMENTAIRES SUR LFS PROCESSUS corrélation partielle de X. X.3 Système de détermination de r (h) : Soit le processus X. _ : Ona:an: r(h). x.E(Xt_i) : [ao *._n par rapport à X.Xt-h+1 _ Cov(X. On en déduit: h u. y(_l . 4.I1 E(Xt). .Xi..xt_j) a. et X.X._j) : PH TASSI . X. _ .-Xi. .

une fois calculé le corrélogramme. en écrivant le système(3) pour . -) Xr: 0.S. en divisant par y (Ol.NOTIONS ELEMENTAIFES SUR LES PFOCESSUS D'où.25 Xr _ 2+ €t N (0. i:l : lllll:l i | tlt 7| \ot'-tt \rir't de h équations à h inconnues.i :1àh) Les équations (2) peuvent s'écrire matriciellement f rrrr \ ( 1 p(t tlllll itttt I I p(1t I (3) p(h- 1ù G.\ II II I I . en outre. ce 5 LES OPERATEURS B ET F Ce paragraphe a pour objet de définir des êtres mathérnatiques dont nous ferons un usage fréquent dans le chapitre 1 1 304 PH TASSI .1).0. à partir d'un système linéaire 4. TEGAIT .25. on obtienr les équations (2) : (21 P{j) : ! a. : ll-l p(1) ptlt 1 ) tt i an s'obtient dorrc. (C'est ce qu'on appellera un processus autoré- : "l D'après l'équation. on obtient le résultat général : p(1):(1).e(i_j) i:1 : (. gressif d'ordre 2.r(1) p(1) : r(1) ll ne reste donc plus qu'à calculer I'estimation de p (1 ) pour connaître r qui peut être fait sans difficulté à partir des observations du processus" (1 ). _ r .) h : r.5 X. r (21 : -A.4 Un exemple Soit ie processLts déflni par l'équation de régression avec par exemple.

à X. t € Zl un processus. : Xt*t -Xt e lN).. : X. n X. les V: l-B A: F-l (l représentant l'opérateur neutre : lX. Fk : X. associe Ir. BX. : ces opérateurs B et F peuvent opérer sur autre chose que des séries temporelles: ainsi. à X' associe FX. : Xr-P ll est évident que : BF:FB:I n*1 o --F F-1:B On peut remarquer que les opérateurs V et A opérant sur un polynôme p^ (x) de la variable x de degré n réduisent le degré du polynôme : Vp^ (x)et Ap_ (xlsbnt des polynômes en x de degré n . On appelle opérateur (avance> (ou oforwardo) I'opérateur F qui. Vk et ak transforment un [orynôme'Èn {*) en un polynôme de degré n . On appelle opérateur oretard.. (ou nbackwardn) l'opérateur B qui... si Pn (x) est un polynôme de degré n en la variable réelle x: BPn(x) : Pn(x. PH TASSI S. (nnabla. VX.k si n ) k.NOTIONS ETEMENTA]RES SUR LES PROCFSSUS Soit (X. en 0 si n < k. LEGAIT 305 . : Xt-Xt_t AX. à partir des opérateurs de décalage B et F.*.l.+ {-1)d ad La puissance d'ordre k de B ou de F n'est autre que l'opérateur de décalage opérant k fois : BkX.) ("delta") : Xr). Ad ( d dont l'expression s'obtient par la formule du binôme Vd: t-clB+.1 . : Ces opérateurs permettent de générer tous les opérateurs Vd.1) et Fpn(x) : pn(x+ 1) : on peut définir opérateurs "différence premièreo également.

.NOTIONS ELEMFNTAIRES SUR LES PROCESSUS Enfin. LEGAIT . 1-.ÀB 1 :1+ ^B+^. 1-ÀF =1+^F+^'F"+... il est possible de donner un sens au développement en série de quantité: la 1-iB ou-silÀl 1-ÀF 1 1 1 <1 B"+.. PH.S. TASSI .

.. un processus stationnaire à accroissements indépendants stationnaires. de plus.. la loi-de Xt*h . PH...n .!X..l : o". et X. indépendantes.. LEGAIT 307 . { t. t € T) est dit à accroissements indépendants stationnaires si. ce chapitre a pour principal objectif la présentation de quelques processus probabilistes importants dans l'analyse statistique des séries temporelles. Un bruit blanc est.Cov (X..Chapitre 1 1 Exemples de processus ll existe dans la littérature probabiliste un grand nombre de processus... a tn les v.. TASSI . Xr.n_' sont Définition 2 Le processus (X. un) de (X.. Xr...Xt. h € T. ne dépend pas de t. le processus le plus simple consiste en la donnée d'une suite dev..n déterminée si I'on connaît les lois de X. .Xtl X. \e Zltelteque E{Xt) : OgtV_(X. S..a. - X. on peut montrer à partir de la fonction caractéristique (u..a. 1 1. . . X1*6) = Opourrout t et h.r. est parfaitement *. comme les processus étudiant l'évolution d'une population.r. Un tel processus porte le hom de bruit 6lanc.1 Définition 1 LE PROCESSUS DE POISSON Les processus à accroissements indépendants Le processus (X.. Xrn) que la loi du n-uple de v. certains d'entre eux étant adaptés à une situation bien définie. Sans prétendre à l'exhaustivité..X. Remargue Qx\ Pour de tels processus. Pour mémoire.a. t € T) est dit à accroissements indépendants si pour tout n-uple de temps t. de façon évidente..

EXËMPLES DE PÊOCESSUS

1.2

Le processus de Poisson

a) Définition et hypothèses
Soit un processus (X-, t € lR) à temps continu et espace d'états discrets (par lN), que l'oh supposera être un processus de dénombrement ou de comptage car, un événement étant choisi. il comptabilise le nombre (aléatoire) de réalisations de cet événement dans l'intervalle de temps [0, t[. Ainsi X, Fourra compter le nombre de voitures passant devant un observateur durant un intervalle [0, t[, ou bien le nombre de clients entrant dans un magasin, etc.

exemple,()'C

On fait les hypothèses suivantes

:

r o o

H1 : Le processus (X,) est à accroissements indépendants: Vto, .... tn

lR,

to(t1
v.a. indépendantes.

H2 : Le processus (X,) est homogène : Vt,

det-t'etnondetett'.
est
:

t' (t > t'), X, - X, ne dépend que
t et t + dt

H3 : La probabilité P (dt) pour qu'un événement se réalise entre
P

(dt)

:

ndr +

o

(dt)

>

o; tim j9 dt dr -o

:

ol

o H4

La probabilité pour que 2 événements ou plus se produisent entre t et t + dt est négligeable à l'ordre 1 en dt.

b) Loi du processus
Soit pn (t)

:

P

(Xt

:

n) ; à l'ordre 1, on peut écrire

:

pn (t +

dt)

:

pn (r) (1

-

dt) + pn_r
^

(r) . .Àdt

pn(t+dt)
En

dr
(r)

pn(t)

_ _ ipn(t) + ÀPn-1 (t)
Pn (r) +

faisant dt *

O

:

(1)

P',n

: -i
dt)

,1pn*,

(t)

D'autre part, on a à I'origine

: po (t) (1 p;(t):-ipo(t) po(t) : e-i' car. pn(O) : o
po (t + 308

dt)

Vn €

lN.

PH. TASSI

- S. LEGAIT

EXEMPLES DE PROCESSUS

Posons Qn (t)

=

"it

Fn (t). L'équation

différentielle (1) devient

:

(2|
ll s'ensuit
;

q'n(r)

:

Àqn_,

(t)

Yn à

1

qi(t) : À
q, (t)

+ (t) +

qr(t) :it
Qe

: i

qr

(t) :

('1t)'
2

Q'n(t)

: iqn-, (t)
:

e

qn(r) :-_]41)n

nl

et donc

(3)

P

(Xt

:

n)

:

s-it

!+

n!

X, suit une loi de Poisson de paramètre .Àt.

c) Lien avec le temps d'attente
soit T la v.a. représentant le temps d'attente du prochain événement, lorsqu'on est à la date t.

d'où:
T est donc

P(T>s) : P(X": O) : s-'1s (s>O) P(T<s) : 1-e-it. une v.a. de densité e-isl (s), soit T -) f ,1, À). r^

Soit alors (Tn), n )- 1 , la suite de variables aléatoires telle que Tn est le temps s'écoulant entre la réalisation des événements n et n + 1. une origine o étant choisie. notant ti la date de l'événement i. on â Tn : t6a1 - tn.

on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépendantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1.
Remargue
Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:

Sk

: To*...

+Tk-r

La loi de Sn est donc une loi gamma y (k,
^1.
PH. TASSI

- S. LEGAIT

309

EXEMPLÊS DE PROCESSUS

2

LES PROCESSUS DE VIE ET DE MORT

lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvant subir des événements de type "naissance". entrée dans le système, ou "mort,. sortie du système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre de ojobs, en attente dans un système informatique, l'évolution démographique d'une
zone géographique peuvent être de bons exemples d'une telle modélisation.

Soit donc un processus (Xfl t On fait les hypothèses suivantes:

lR) à temps continu et espace d'états discret.

o c o

H1 : (Xr) est à accroissements indépendants.

H2 : On appelle "événementu soit une naissance. soit une mort. Le système étant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort) survienne entre t et t + dt est i n dt (resp. pn dt). H3 : La probabilité pour que surviennent deux événements ou plus entre t
et t + dt est un o (dt).

Modélisation
Posons pn(t)

: P(Xt:

;pourn21,ona: pn(t+dt) : pn(t) (1 -,^ndt)
n)

(1

-gndt)
dt)

* *

Pn-, (t)
Pn+r

in-, dt (1 -gn-1

(t) /n+1 dt (1 - in*1 dt)
:

En supprimant les termes d'ordre 2 et plus en dt, et en procédant comme pour l'équation fondamentale du processus de Poisson, on trouve

p'(t) : -(in+gn)pn(t)+Àn_l
A l'origine
d'où
:

pn_1

(t) * !n+.r on*,(t) (n

)

1)

po(t+dt) : po(t)
p; (t)

(1

-iodt)(1 -Podt) + pl (t) g1 dt

:
:

: - io po (t) + p, p, (t) n, Pn (O)

Enfin

on (O)

:

1 si Xo

:

0 sinon.

En résumé

:

p;(t) : -(in*//J pn(t) + in_, pn_1 (t) * /n+r pnr (t) (n ) p; (t) : - io Fo (t) + p, p, (r) on (0) : î[xo: n]
310

1)

PH. TASSI

- S. LEGAIT

EXEIVPLES DE PROCESSUS

Remarque
Les cas les plus fréquents sont les suivants

:

'

' t)

: " in ,À : naissance au taux i (souvent Ào : 0) r in : ni : naissance au taux i par individu présent . Fn g : mort au taux U Uto : O) . Un : n/_/ : mort au tauxg par individu présent.

dans re système

3
(i)

LE MOUVEMENT BROWNIEN

Le processus (X,,

t€

lR+)

est dit brownien ou de Wiener_Lévy si

:

le processus est initialisé en

t: p(Xo:

O

O)

: l

(ii) le processus est à accroissements indépendants stationnaires (iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une roi normale d'espérance nulle et de variànce br _ s1 lt X, - X. -> N (0, a r,4:S
:

P (Xt

- X, €

A)

:

;#6-J

*'t2o'(t -,)dx
Oe-

4
.

LES PROCESSUS AUTOREGRESSIFS

deuxième ordre.

Dans cette partie, on ne considérera que des processus réers discrets du

4.1
X,

Définition
AR (p), si
:

-)

soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p, noté

X, : PH, TASSI

.r- gi Xt-i+ tr i:1

p

- S, LEGAIT

EXEMPLES DE PROCESSUS

cr est un bruit blanc

:

E(st)
Remarques

:O,V(e,) :02,

E(e,e,.)

:O

(T+t'l

a)

En faisant intervenir l'opérateur B, on peut écrire

:

avec le polynôme
de degré p.

(-Qt B-...-9oBo) X,: <D1e; = l-9', B
:

t,.soit<D(B)

Xr: tt

QrB'

b) Sous sa forme la plus générale, un processus AR (p) peut contenir un terme
constant

do:

X.
c) Supposons
E

:

do

*

p

(X,)

:

,Z-, 'tXt-i+
p

Et

m, constante Vt. Alors, m vérifie

:

m(1
p

- I
l:l

e,l:A

si 1+

ô {z) (ce que nous supposerons par

i:1

la suite), m

:

O.

4"2

Etude du modèle AR (p)

a) Inversibilité du processus AR (p)
Soit
AR (p)
<D

(71

ô (B)X,:

: Ie,.

e,,7....

-

çpZp le polynôme caractéristique du processus

Soient 2.,,"..,7p1es racines de <D (Z) dans C, et notons Zr, ...,Zr les r racines de module supérieur à 1, Zr+1, ..., Zo les p-r racines de module inférieur à 1. (Notons que le produit 2.,

...2,
:

:

1.1

On peut écrire

elzy:
312

i:1

fi ti rr-4i j:r+1 r-4t Li
Lj
PH.

TASSI S, TEGAIT

EXEMPLES DE PROCESSUS

Par analogie, on a

:

<D1a;

: ti

i:1

(1

-

t', fi lr--1r Zi j:r+1 Zj'

où 1 représente ici l'opérateur identité.
Soit
:

o,qey
@, (B) peut se

:5f (t- 3, : fi li ",ô,(B) j:r+1 rr-3t i:l Zj'
:

transformer, en factorisant B, en

Qr(B)
et

:

(- 1;P-r

3n-r fi

donc:

j:r+1

)g -r,rl lj
'

vP x, : [(- 1)0-r fl . z, Fp-' o,t j:r+1 '
avec
:

(B)

o;t (F)] €t

Oo(F)

:

j:r+1 f-Z;FI
:

n

p

X, est donc une combinaison linéaire d'ordre infini des c,
+oô

Xr:
On retrouve
:

:
l:-oo

Qi r,*i Vt

E(X,)
Remarque importante

: O

à 1, Xt

développant en série

supposons,l: p, c'êst-à-dire que toutes les racines sont de module supérieur : .Di' (S) e,. Alors, en décomposant en éléments simples, puis en
:

^^-L

'

=t

pb,
. B
zi
I

i:l

pæBk X,: : b,(: ' i:1 'k:O
PH. TASSI

. )e. Z*, t

- S. LEGA|T

EXEMPLES DE PROCFSSUS

F X.- : (> ' k: O i:l

oc

b'

Z\,

. )B*s,
b;

x.- l- P ,
k:O i:1

Z\

t-K

Soit:

X,: i ^tiEr-i t:(J
le
:

X, n'est donc fonction, dans ce cas, que des (e,) du passé ; on dit alors que
processus X, est inversible. En outre, on a
E (e,

X,_n)

: O

(k

>

1)

Le bruit stest orthogonal au passé Xr_.,, Xt_2, ...du processus. Dans l'équation de définition de I'AR (p), e, est donc orthogonal au sous-espace de Hilbert

engendré par (X,_.,, ...,

X,,J;

la relation

X, :

p

iIf

qi Xr_, +
5).

st est alors

l'équation de la régression de X, sur Xt_r, ...,X,_o (chapitre Exemple

î
:

Soit X, le processus de Markov AR (1) défini par

Xr:
Le polynôme a pour racine 2.,

O,4 X,_1

* t,
1.

Ô121

:1-O,42
2,5 supérieur à

:

On peut écrire

:

x, '

-

1-r1-0,48
(1 + 0,4
t

X, :

B+

(0,412 82 + ...) st
...

X, : €, + O,4 et- 1 + ... + (0,4)k tr-k *
(k

>

On a inversé le processus AR (1). On remarque par ailleurs que E (e, Xr-o) : O, 1), et que le bruit est non corrélé avec les observations passées du processus.
PH. TASSI

314

- S, LEGAIT

1 1-28 et donc : r F-2 _F 2(1 _O.5 e.. s'exprime en fonction des vareurs à venir du bruit e.S)2 F2 +. : l+1. Contrairement à I'exemple précédent.58) (1 +28) X. ^t v1 l--lt rt Or.*r -(O.5F) e.: +0.5F (1 + O. 315 . E E (c.. X.:e.est pas : -0.. Exemple 3 Soit le processus de yule AR (2) défini par .îF)n'adesensquesil'. €t+2-.: 2Xt_t + €t (1 -28) X.S). : -0. ._u) : . 2B(1 -O.S.S)k o2 et rr est corrélé avec le passé du processus.sz) (1 +22) Ona: (1 -0.S)k X.est pas inversible. : €.Uqt PH. €t*k_. le développement On peut écrire : de ' 1-.5 Xr_1 + Xt_2 + rt O1a.. re processus n. TASSI .1O. Xr_p) n.S F + (O. LEGAIT (1 X.5 z_22: (1 _ O.al < 1-. nul : (e.ÀB 1ou -1 t 1.sFt -(O. X. Xr: -1.5 B-82 e1z1 = t + 1.. X.) e..EXEN/PLES DE PFOCESSUS Exemple 2 Soit: X.

X1 p p i:1 Or: E (e.5)k Fk + . Compte tenu de ce que nous venons de voir quant à la valeur la stationnarité d'un AR (p) n'est pas toujours établie.) €t -Ë^ +oo 1+ KK | LÎK avec : ûk: D'où : (. E(e. + er)) l:l p l:l .ç.2.0.5 F (1 .l (o.t)k-1 .I æ r Gk 6t*k j:o co : (o.58 r. Xr_o). TASSI .) L I : p i:l e.l)k (0. X.9. 0.EXEMPLES DE PROCESSUS (1 - 0..slk X.+ (..s/ BI : +ôo k:1 d.t. LEGAIT .: : 1-0.5 F '.:^ (0. E(Xt Xt_i) + E(e. alors E(e. Xr_.5 B) Xr 0. 316 PH. c'est-à-dire toutes les racines de sontsupérieuresà 1 en module. Ona: V(Xt) : E(X'?r) E(Xt. Xr-J + E (s1) tD (Z) Premier cas : Le processus est inversible.Xr-) : O et E(erXr) : o2.( Z.5)j €t*r_i) I:U de E (e. r+K K k:l b) Stationnarité K' .5 F +.5F 0... S.

FXEÀ.,1PLFS DE PROCESSUS

D'où

:

r(o)
r(O)

:

p

i:"1
p

Y$!+s2

:
:

r(o) r
l:l V(Xr)

Qi Pfiil +

q2

r(0)
V (X,) est indépendante de

:
t-

ê

1- >
I

p

(p,p(il

t : le processus est faiblement stationnaire.
<D

Deuxième cas ; Les racines de

{Z) ne sont pas toutes supérieures à 1 en module.

Nous nous contenterons d'énoncer le résultat : on peut toujours supposer que les racines du polynôme <D (z) sont de rnodule plus grand qu" i, en remplaçant le processus S (BlXt : €t par le processus o" {b} xf : a,. où ô* te) s.ôntilnt eÀ rernpiaçant, cians s (B), les racines inférieures à 1 en nrodule par leur inverse, a, étant un nouveau bruit blanc.

e) Fonction d'autocarrélation partielle Vh > p, on peut écrire:

X_
I

p
._4

T

gi Xr_i * 0.Xt_p_1 +..+0.X,_h + €r
X,-r, ....X,*n et r (h), coefficient
:

avecE(er)
nul.

:0,

V{rr) : sn, E{er.X,_p} : Opourk:,! àh.C,estdonc
de X,_n, est

l'équation de la régression de X, sur

Ceci est une caractéristique des AR (p)

Vh > p

r(h)

:

0

d)

Fonction d'autocorrélation

Vh > O:Xr. Xt-h

:

g

i:'l
p

Pi

xr i X, r, * et Xt-l-,

r(h)
(4)

:

i:'l
p

z

aiyh-ù
ei ph-ù

=' p(h)

I

,_I,

PH TASSI , S. LEGAIT

EXEMPLES DE PROCESSUS

On peut écrire les équations (4) sous forme matricielle pour h

:

1àp

:

p

1"

1

p

(1)

........

p (p

- 1)
.

p(11
(5)
.

:
p ipr

p(1t

p(p-1)

......... plll

1

La relation matricielle (5) s'appelle système de Yule-Walker.

Exemple Soit le processus
:

xr

:

0,5 X,_,

- O,25 Xr_, + e,

Ona:

(;r) :
D'où
:

P (11

: p (21 :
:

[],, '.'1) (::,)
o,5

-

o,25 P (1)

o,5 p

(1)-

0,25

p (11

0,4 et p (2)

: - 0,05.
:

Pour avoir p (3ll, p (4) etc.. on utilise les relations (4)

p(3)

= p(41 :

A1

pQl * e"p (1) : - 0,125 A1 ppl + ezp (2) : -O,OS

etc.
PH. TASSI

3'1 B

. S. LEGAIT

EXEMPLES DE PFOCESSUS

c) Fonction d'autocovariance
Soit à calculer E (X, . X,_r,)
E

(Xt. Xt_h)
(€t-6

:

E

[(rt

-

0., €t-.,

-

...

-

9o e,_o)

da t,-q-6)J - dr tt-h-., e Si h ) q : E(X,.X,_') : 0 c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo'
Le processus est donc stationnaire (au sens faible) et on en déduit la fonction

d'autocorrélation

:

P(h) : O Vh )

q e

-0,+0.0, p(h) :#si 1+01+ .*eZ
système décrit au chapitre 10.

+...+0

h(q.

Le calcul de r (h) ne présente pas de particularité, et est exécuté selon le ll résulte des calculs précédents qu'un processus moyenne mobile est toujours stationnaire (au sens faible), ce qui n'était pas le cas pour un processus autorégressif quelconque.

Conclusion Le problème de l'identification d'un processus MA (q), c'est-à-dire la détermination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).

5.3
graphe

Remarque sur le lien entre AR et MA

La démonstration de l'inversibilité d'un AR et les exemples 1,2 et 3 du para4 laissent apparaître une équivalence entre AR (p) et MA (oo). En pratique. on peut approximer au sens de la moyenne quadratique (donc dans Lr) un processusAR (p) par un MA d'ordre fini. Considérons, par exemple, un processusAR (1)

défini par

:

Xr:p X, ., * r,
E(€r)
324

:

O, V(e,)

: o',

Cov(e., er*n)

:0

(h +

O)

PH TASS1 S. LEGAIT

EXEMPLFS DE PROCESSUS

Par substitutions successives, il est clair que

:

X, : €, + p €t_t +...+ pq tr_o * pe*t X,_.q*,

E,*,

-

,!o

pi

,, jl, :

p"e*"

E (x1_q_1)

supposons que (X1 est faiblement stationnaire, centré, de variance v: E (X'zr) pour tout t (nous ne démontrerons pas la stationnarité d'un tel processus).
L

Alors

:

e (Xt

9 - j:o^ ri r,-j)" : p'q*' v

et

E(X,-Y,,')t -_ O quandq ---->

+ôo, en notanty,,,

: 9 ,t cr-,. La suite '[r j:0

de v.a. (Yr,o) converge donc en moyenne quadratique vers la v.a. Xr.

DH
I i

T^qst S

IFCAIT

321

BIBLIOGRAPHIE

I
I 11 I 2l t 3l t 4l t 51 t 6l I 7) t 8l t 91 t10l
t11

REFERENCES CITEES DANS LE TEXTE

Z. BIRNBAUM (1948) : On random variables with comparable peakedness, Ann. Math. Statisr., 19, pp. 76-81.
H. DAVID (1981): Order staristics, Witey.
L. DEVROYE (1986): Non-uniform random variate generation, Springer-Verlag,

New York. B. GAREL (1982) : La distance de Prokhorov, rapport de recherche no 288, Université de Savoie et Laboratoire IMAG, Grenoble.
B. GNEDENKO (1943) : Sur la distribution limite du terme'maximum d'une série aléatoire, Ann. Marh,44, pp.423-453.

J.M. GROSBRAS (1987) : Méthodes statistiques des sondages, Economica.
Paris. L. de HAAN (1976) :Sample extremes: an elementary introduction, Statistica Neerlandica, 30, pp.161-172.
N. JOHNSON et S. KOTZ (1969, 1970) : Distriburions in statistics, Houghton-

Miffin et Wiley.

A. KAUFMANN (1968) :Méthodes et modèles de la recherche opérationnelle, Dunod, Paris.

A. KOLMOGOROV (1933) : Sulla determinazione empirica di una tegge di distribuzione. Giorn. lnst. ltal. Attuari, 4, pp. 83-91.
J.P, LECOUTRE et P. TASSI (1987) : Statistique non paramétrique et robustesse, Economica, Paris. P. LEVY (1925) : Calcul des probabilités, Gauthier-Villars, Paris. E. LUKACS (1960) : Characteristic functions, Griffin, Londres.

I

112l t1 3l [14]

H. MANN et D. WHITNEY (1967) : On a rest of whether one of two random variables is stochastically larger than the other, Ann. Math. Statist., 18, pp. 50-60.
- S. LFGAIT
,) 2.1

PH, TASSI

BIB LIOG RAPH IE

t15l t16l l17l tlBl 191 t20l l21l
t

R. von MISES (1935) : La disrribution de la ptus grande de n vateurs, in Selected Papers ll (Ann. Math. Soc.), pp.271-2g4.

A. MONFORT (1980) : Cours de probabitités, Economica, paris. F' MOSTELLER (1946) :On some useful inefficient statistics, Ann. Math. Statist., 17, pp. 377 -4O8.
RAND coRPoRAT|oN (1955) :A miilion random digits mal deviates. The Free Press. Glencoe, lllinois.

with tooooo nor-

G. SAPORTA (1978) : Théorie er méthodes de ta statistique, Technip, paris.
P. TASSI (1985) : Méthodes

statistiques, Economica. paris.

W. WEIBULL (1951) : A statistical distribution function of wide appticabiliry, Journalof Applied Mechanics, 18.

II
J.

AUTRES REFERENCES GENERALES

Masson, Paris.

BASS (1967) :Elémenrs de catcut des probabitités théorique et appliquée,

P. BILLINGSLEY (1968) : Convergence of probability measures, Wiley. N. BOULEAU (1986): Probabilités de l'ingénieur, Hermann, paris.
P. BREMAUD (1984) : lntroduction aux probabitités, Springer-Vertag.

G. CALOT (1967) : Cours de catcut des probabitités, Dunod, paris. G. CALOT (1971) : Exercices de cale ul des probabilités, Dunod, paris.

D' CARTON (1975) : Processus aléatoires utilisés en recherche opérationnelle,
[Vlasson, Paris.

D. CORNUEL et P. DERREUMAUX (1976) :Calcul des probabilités. exercices corrigés et rappels de cours, Sirey, paris.
J.L. DOOB (1953) : Stochastic Processes, Witey.

M. corrRELL, c. DUHAMEL, v. GENoN-cATALor (1980) : Exercices de probabilités avec rappels de cours, Dia, Belin, paris. New York.
T. FINE (1973) : Theories of probability. Academic press, New york.
P. HALMOS (1950) : Measure theory, Van Nostrand. 324
PH. TASSI

W. FELLER (1966) : An introduction to probability theory and its applications, Wiley,

. S.

LEGAIT

PARTHASARATHY (1967) : Probabitity on metric spaces. probabilités. Paris. JACOUARD (1974) : Les probabitités. M. Technip. KRIEF et s. M. Masson. paris. Masson. Paris. HENNEOUIN et A.BIB LIOG RAPH IE P. Dunod. METIVIER (1968) : Notions fondamentales de la théorie des probabilités. LEGAIT 325 . statistiques.L. f ites d'artente. PELLAUMAIL (1986) : Probabilirés. LEVY (19721: calcul des probabilités. Masson. LOEVE (1960) : Probability rheory. NEVEU (1964) : Bases mathématiques du calcul des probabilités. Editions de Moscou. A. Ross (1987) : lnitiation aux Lausanne. de JEKHOWSKY (1977) : Eléments de statistique à t'usage des géologues. Paris. pUF. Dunod. paris. Dunod. TORTRAT (196b) :Théorie des probabitirés er quetques applications. RENYI(1966) : Calculdes probabitités. presses polytechniques romandes. paris. B. Y. Coil. Oue sais-je ?. exercices. s. TORTRAT (1971) :Calcul des probabilités et introduction aux processus aléatoires. PH. Van Nostrand. Hermann. Eilipses. K.S. Paris. J. VO KHAC (1984) :Théorie des probabitités. J. Paris. A. Academic press. ROZANOV (1975) : Processus aléatoires. paris. A. paris. TASSI . A.

.

rue Bertin Poirée . Paris.TABLES NUMERIOUES Les tables I à I sont reproduites avec I'aimable autorisation du CERESTA: lo.75001 Paris. PH. 1986. Elles sont extraites de I'Aide-mémoire pratique des techniques statistiques. Les tables I à I I sont extraites du livre Statistique non paramétrique et robustesse. 1987. qui constitue un numéro spécial du volume XXXIV de la Revue de statistigue appliquée. de Jean-Pierre l-ecoutre et Philippe Tassi. Economica. TASSI S. LEGAIT .

.

q.9032 0.7642 0.9798 2.9943 0.853 I 0.7549 0.'l 1.9846 0.9906 0.8 3. 2.9871 0.9336 0.9890 0.9'49 0.9452 0.00 0.9rgg 0.9649 0.93 I 0.I .6915 0.5438 0.9r6g 0.91 l 5 0.83 89 0.9207 0.9817 0.99903 valeurs de r > 3.9r73 0.9'24 0.9987 0.5910 0.8729 0.9'12 0.9983 0.925 l 0.9956 0.82t2 0.996 I 0.7704 0.7088 0.8078 0.9192 0.9788 0.8790 0.8997 I.6026 0.9808 0.7823 0.i) 15 los\ PH IASSI S.9884 0.9750 0.9r65 0.95 l5 0.0 0.5987 0.3 0.862 l 0.9222 0.9838 0.85 77 0.5 1.8 3.6628 0.9981 0997'7 0.9r86 0.9989 0.9r85 0.5 I 60 0.9904 0.9850 0.7 852 0.6 3.997 5 0.6950 0.9987 0.9279 0.'7 5 0.87 49 0.g3g 0.B.9r44 0.9'53 0.9'36 0.9986 0.9'63 0.997 4 0.1 0: P: F(u) .9982 0.9r39 0.9056 0.9955 0.9 1.9067 0.6103 0.9834 0.6985 0.9r79 0.9960 0.9744 0.grg I l 0.9265 0.9909 0.725'7 0.9484 0.9150 0.9803 0.9525 0.04 0.9633 I.8599 0. la valeur p normale réduite telle que P : F(u) de la fonction de répartition de la loi : Fttt) : f' L "-5 a.9049 0.9793 0.9r90 0.9625 0.9t62 0.9008 0.9'99 0.98e6 0.6 n) 0.9406 0.9686 0.9"52 0.8849 0.9985 0.9881 0.9987 0.6064 0.9r57 0.9962 0.7190 0.6406 0.5 I 99 Pourr < u 0.6 2.8289 0.5675 0.grg3 0.9980 0.8665 0.7'764 0.79 I 0 0.9t59 0.9861 0.9854 0.9425 0.6 0.9r78 l i | 0.4 0.9893 0.9r7 5 0.9394 0.9772 0.9821 0.9968 0.7995 0.9t47 4.J 2.7794 0.7 0.i- 2 (t--t 3 n* .914l 0.7967 0.805 l 0.9r92 0.9984 0.9927 0.8023 0.05 0.7123 0.8340 0.9699 0.gr lg a.94'74 ô s571 t.l .5398 0.9678 0.6554 0.8 0.01 0.8962 0.0.9r49 0.9r60 0.976 I 0.9599 0.8264 0.9738 0.99 r3 0.991 I 0.9r3l 0.9616 0.2 1.9826 0.7580 0.9940 0.6664 0.7734 0.6255 0.5279 0.9982 0.9'52 0.7939 t7 0.1 '\1 0.9236 0. La notation 0.90l5 0.9963 0.9'59 0.93 r9 0.0 2.6879 l9 0.9964 0.8944 0.9985 0.9564 0.8980 0.8869 0 8554 0.9r97 0.1 0.788 I 0.8238 0.8 l 33 0.8888 0.9146 0.7 3.9495 0.9397 0.6591 0.9r64 0.9990 0.9292 0.8830 0.9656 0.9693 0.9r55 0.9'94 0.8508 0.9986 0.97 r9 0.5793 0.9r86 0.8485 0.gr2g 0.8438 0.9767 0.08 0.'7673 0.5080 0.633 I 0.9922 0.9t77 0.8315 0.6480 0.9357 0.'t454 0.7224 0.9989 0.9161 0.70 0.9953 0.06 0.4 1.9.02 0.99'19 0.8 186 0.5832 0.55 r7 0.07 0.51t4 0.7357 0.9973 0.9989 0.91'r'2 0.9142 0. par exemple.9082 0.97 56 0.99 I6 0.998 I 0.9842 0.-q4!] 0.9r46 0 q'6) 0.9382 0.6517 0.9979 0.9r95 0.5753 0.9948 0.9r71 0.6808 4.6293 0.5040 0. pour u >. on pourra utiliser I'approximation suivante (à l0-r près) u) F(u):t-e' urt7-x\' .9812 0.93g0 0.gr7g 0.9400 0.9984 0.7 486 l4l 0.87 70 0.09 0 5'l5a 0.9875 0.9706 0.5948 0.8907 0.9545 0.9099 0.5 5 57 0.9988 0.9970 0.9'732 0.6443 0.9864 0.97 l3 0.7 t5'7 0.9934 0.9957 0.9r06 0.9949 0.9'04 0.9^77 0.9r26 0.8708 0.9\7 4 1S 3.9370 0.997 6 0.8925 0.9066 0.6217 0.9r68 0.9334 J.9306 0 s4)s 0 s51s 0.9608 0.9887 0.5 0.964 I 0.9967 0.9418 0.9441 0.53 0.9'66 N.9938 0.9830 0.9170 0.6 t 79 0.9r 0.6700 0.5871 0.9r66 0.901 5 0.9161 0.3 0.TABLES NTJMEFIOTJES Table no 1 FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE cette table donne.9965 0.9918 0.9974 0.5 l 20 0.9r03 0.9039 0.9505 0.9591 0.9936 t< 2.9r76 0.0 3.9664 0.7291 0.54'78 0.9r59 0. J--/2n 0.6844 0.6772 0.9582 0.8 l 59 0.9r40 0.8 1.7389 0.9 0.9971 0.6368 l9 0.4 l0 0.9946 0.9972 0.997'7 0.99.9383 0.03 0. équivaut à 0.8 106 0.6 0.7054 0.*.9'89 0.9868 0.9454 0.gr2l 0.5239 0.995 I 0.9022 0.9929 0.8686 0.9554 0.6736 0.9463 0.8643 t.9443 0.9898 0.9978 0.gr l6 )o 0.9345 0.9783 0.9988 0.9'64 0.0 0.9945 0 qssq 0.9r l3 0.9'3 | 0.9925 0.5000 0.8365 0.F(-r).994 I 0.9r50 0.9rgg 0.9920 0.4 0.gr3l 0.5596 0. 0.9966 0. LEGAIT 2to .9J03.9969 0.9990 0.9'2g 0.967 l 0.t 11 3.9952 0.76 I I 0.9332 0.9 0.88 l0 0.8461 0.7324 0.5636 0.9932 0.7422 0.9901 0.9'l g 0.9"33 0.985 7 0.9778 0.9726 0.9878 Z. Pour les l.7 2.

3165 1.1 503 1.84 I 6 0.27 0.6745 0.006 0.8452 0.9863 4.8596 0.29 0.9600 I. nr de la -!' F1u.0335 2.90 l.005 0.8560 0.7060 |.8890 0.7866 |.005 0.6808 0.5302 0.23 0.61 58 0.9002 0.8064 0.6098 0.9192 0.7 I 60 0.7356 0.6713 0.28 0.6646 t.5592 0.0 194 t.943t 1.9141 0.3047 l.3532 1.9269 09na 0.5388 0.62t9 0.0537 I.001 0.8742 0.1 750 0.r8 0. LEGAIT .5446 0.1 800 I.7031 0.0669 I.2t07 I.2zlz I.1 I 0.88 l6 4.4538 t.257 | 0.15 0.405 I I.7722 0.002 0.6280 0.7063 0.1 455 t.s828 0.28 l6 0.l: I +e--ldu:P î.6258 |.7095 0.1264 I.8927 0.5476 0.3656 2.9661 0.2904 2.4395 I.87 l3 |.04 I.5632 I.007 0.6871 0.9307 0.0803 0.6012 l.5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs.2r60 |.1u4 2.259t t.004 0.7 507 t.5464 l.5534 0.0758 0.3225 I .4325 0.3263 0. I 850 I.7790 0.27 59 t.7 t69 l.7388 0.6164 I.0 r 0.8524 0.8779 0.004 0.248 r |.008 0.0969 2.57 69 0.8384 1.22 0.72 0.'77 44 t.0537 0. l.81 0.7421 0.3408 |.6840 0.003 0.9945 l2 1.2930 1.000 0.053'7 2.5563 0 st14 0.8416 0.1 7 0.8381 0.6341 0.67 45 0.001 0.5858 0.9078 0.09 0.5382 l.3469 l.3787 |.57 58 2.6433 0.5417 0.97 I.0749 2.4573 2.6954 t.59 l 8 0.7 454 0.7063 0.61 28 0.003 0.70 0.7824 0.8488 0.89 |.3984 I.000 P JJU PH TASSI S.565 l 0.9268 I .5799 0.6352 r.1650 I .6464 0.7 t92 0.39t7 l.6521 2.6176 0. l9 0.4833 l.009 0.9986 0.8250 l.91 54 0.0027 0.06 0.75 0.5710 0.1201 2.8705 0.79 0.71 0.796 l 0.8064 0.010 0.762t 0.3263 2.9346 0.5948 0.461 I I.7 521 0.5t2l 2.93 0.9822 0.8669 0.977 4 1.6250 0.l 123 |.88 I.4466 I.41 87 l.3 106 I .2262 2.8957 l.9782 0.5978 0.5359 0.0902 2.'t3 0.6620 0.80 0.0581 I.6372 0.962t 0.0714 l.6967 0.2873 I .28 z.4322 |.9581 0.4909 I .91 54 0.7 4 0.21 0.9954 1.7 507 0.8633 0.P .20 0.96 I.631l 0.1 552 I.4758 0.6433 0.02 2.2646 I.94 I.0152 I .07 0.0848 1.8274 0.0069 I.8099 0.24 0.6038 0.5622 0.7588 0.970 I 0.08 l.05 2.0893 l.8663 1.8965 0.8345 0.0985 l.2265 t.5 (colonne de droite et ligne inférieure) les fractiles up sont positifs.6068 0.7388 0.530 r t5220 l.8030 0.0494 I.1952 I.0279 1.7257 0.0141 0.4051 0.4684 I .3595 I.5982 I. l60l 1.0364 0.7225 0.83 0.5548 1.5244 0.3285 1.7688 l6 0.9424 0. I.4l l8 l6 I.3852 t.l03 l l. l0 0.l90l l.5505 0.7323 0.6526 0.14 0.568 I 0.74'18 2.2319 I.8808 I.8522 0.86 I.9463 0.8239 0.7 554 0.8ll9 t.'t392 |.0939 r.0237 0.2265 0.4985 1.6128 0.9904 0.6403 0.'7722 0.01 l0 l.010 3.5330 0.98 t.8204 0.7926 0.5893 l.9385 0.85 I .008 0.1 359 l. 0.2004 I.7995 l.t407 1.5273 0.5740 0.2s 0.l3 I I t.9542 0.5063 1.7290 0.6588 0.5141 I.2702 1.t701 I.1'756 0.4255 I.t2t7 I .8179 0.0450 I.72'79 0.8 169 0.76 0.67 47 |.00 0.6M9 I. P 0.3346 l.5548 0.99 2.7488 0.9502 0.3658 |.4089 2.8782 2.6682 0.2426 t.2988 r.7991 l.6495 0.6546 |.009 0.5805 l.t700 I.1077 I.4758 I.92 r.82 0.2536 I . loi normale réduite tels que J__lztt Pour P < 0.l 170 I.3408 0.83 10 0.6935 0.6903 0.9116 0.2055 1.61 89 0. Pour P > 0.1624 1.002 0.6008 0.1973 2.5 828 0.95 I.8853 0.7892 0.9542 0.6449 0.t264 0.03 1.9040 0.007 0.TABLES NUMERIOUES Table no 2 FRACTILES DE LA LOI NORMALE REDUITE Cette table donne les valeurs absolues des fractiles.91 l0 I.0625 I.7858 0.0407 r.7 t28 0.5888 0.8808 0.9 r t.78 0.26 0.2372 I.8 l 34 0.3722 l.6999 0.006 0.7655 0.0364 |.7'7 0.0803 0.6651 0.84 0.6849 I.6557 0.5718 I.1750 I.9945 0.

442'7 0.000 0.1055 0.52 I 5 0.2 198 0.33 t 9 0.0778 0.2404 0.2689 0.3 107 0.4959 0. l 206 0.54 0.3934 0.009 0.3002 0.3055 0.5129 0.2767 0.1968 0.2378 0.3398 0.0451 0.6 r 0.263't 0.48'14 0.025 l 0.4399 0.55 0.0803 0.20'10 0.2924 0.3239 0.2793 0.4930 0.0251 0.45 l0 0.0376 0.38 0.4987 0.020 l 0.58 0.1 l8 l 0.52 0.37 0.040 l 0.0828 0.0517 0.3638 0.30 0.3425 0.005 0.0075 0.3 134 0.0929 0.0025 0.004 0.0979 0.4399 0.40 0.3692 0. r 789 0.20 l 9 0.1 156 0.51 0.008 0.4125 0.0904 0. l 383 l 0.3853 0. I 030 0.287 | 0.1 105 0.409'7 0.43 l6 0.4070 0.2275 0.2353 0.0652 0.4482 0.4043 0.4125 0.2327 0. TASSI .000 P Grandes valeurs de u P uP l0-" 3.36 0.361l 0.3585 0.3989 0.3880 0.125'1 0.003 0. I 004 0.001 0.1231 0.67 0.3665 0.66 0.0753 0.0502 0. I 535 0.45 0. l 993 0.1 r30 0.2482 0.3055 0.2898 0.5244 0.4207 0. l 840 0.4261 a.2533 0.t332 0.0226 0.60 0.35 0.1891 0.002 0.48 0.3451 0.2585 0.46 0.003 0. I 080 0.0125 0.4'789 0.50 0.4372 0.37 t9 0.2533 0.3853 0.3'745 0.40 l6 0.002 0.43 0.4817 0.3372 0.39 0.4621 0.230 0.S.467'.3907 0.010 0. l 866 0.50 I 5 0.?845 0.3772 0.007 0.3799 0.0351 0.2096 0.t917 0.0050 0.33 l9 0.2715 0.0702 0.4344 0.7 190 l0-5 4.0627 0. I 408 0.2019 0.0602 0.3292 0.2976 0.308 I 0.2224 0.49 0. l 560 0. l 637 0.69 0.4902 0.1004 0.4t52 0.004 0.1282 0.2430 0.1713 0.4454 4.42 0. I 764 0.34 0.3 186 0.2950 0.3505 0.5 l0 0.1459 0.4845 0.1510 0.0426 0.2741 0.0753 0.3029 0.0476 0.5 I 58 0.5 187 0.005 0.396 l 0.476t 0.1662 0.4959 0.030 I 0.009 0.44 0.0878 0.2147 0.31 0.0175 0.3 160 0.008 0.1534 l0 -' l0 -E t 0-'q 5. l6l I 0.006 0.2508 0.47 0.2t21 0.l8l5 0.4538 0.0728 0.2045 0.1764 0.3826 l 0.t434 0.22s0 0. I 687 0.9978 PH. I 738 0. LEGAIT 331 .010 0.2649 l0 -o 4.0853 0.4733 0.0000 0.0527 0.1 5 10 0.1257 0.02'16 0.1484 0.TABLES NUMERIOUES Table no 2 (suite) FRACTILES DE LA LOI NORMALE REDUITE P 0.5044 0.l 0.5072 0.3531 0.2456 0.0677 0.4t79 0.4234 0.3266 0. l 993 5.65 0.4565 0.3s58 0.68 0.4649 0.32 l3 0.01 50 0.261I 0.007 0.0502 0.4593 0.4677 0.63 0.0326 0.0552 0.59 0.0954 0.25s9 0.21'73 0.4705 0.01 00 0.6 120 5.006 0. I 358 0. I 307 0.53 0.62 0.00 r 0.2275 0.3585 0.3478 0.t942 0. l 586 0.57 0.41 0.33 0.3345 0.64 0.2819 {2793 0.56 0.4289 0.32 0.2663 0.

6648 0.9962 0.9392 0.9044 0.7324 0.9999 I 0.9921 0.9999 I 0.999'7 I 0.9568 0.9990 0.9980 0.9994 I 0.9039 0.9967 0.9639 0.9881 0.9980 I 3 4 0 I 2 0.9990 1 0.9996 0.9998 I 0.9887 6 7 8 9 0 0.717 5 0.9268 0.8809 0.924s 0.63 33 0.1216 0. Cl po (l - p) t09 p: 0.4840 0.6240 4.9999 I 0.1334 0.9971 4 30 5 0.9989 0.3894 0.98 12 0. I 887 0.7842 0.3694 0.8794 0.3367 0.9976 0.8824 0.9844 0.8122 0.9957 0.8870 0.9999 l 0 sR2t 0.8 103 0.9326 0.5 o sÂ71 l' 0.5490 0.9999 I 0.9681 0.9915 0.9994 0.9852 P: 5ok : 60l p:'7% P:8% p :9% p : 0.853 I 0.735 8 0. 0.9142 0 ss?) 0.9945 4.9932 0.9638 0.5869 0. I 563 0.9980 0.4633 0.9992.6488 0.940 I 2 3 20 l 0.2863 0.9999 I 0. TASS S LEGA]'I .9999 I 8 9 0.9999 I 332 PH.9995 I 0.8245 0.9994 0.9972 0.9967 0.3486 0.9984 I 0.9893 0.9912 0.9790 0.290 l 0.9999 I 0.883 I 0.9294 0.9984 0.40 l0 0.9997 I 0.'7738 0.9998 I 0.9996 I 0.3953 0.6605 0. l 837 0.9841 0.9126 0.9429 0.9561 0.9996 0.9950 0.9885 0.4344 0.983 8 0.5438 0.4120 0.9270 0.8670 0.7397 0.66t2 0.9988 I 0.4555 0.9997 I 0.9918 0.8974 0.9938 0.9994 I 0.9872 0.997 4 4 5 0.2939 0.9999 I 0.9007 0.0424 0.7738 0.9994 1 6 0 I 2 J 0.8450 0.0591 0.9399 0.9960 0.9997 I 0.983 8 0.9937 0.983 I 0.1516 0.5987 0.9987 0.860 l 0.9999 I 0.9918 0.9707 0.9986 0.95 I l% P:2ol l0 0.960 I 0.9990 0.9998 I l5 4 5 0.9997 I 0.7361 .659 I 0.9694 0 qs17 0.97 l0 0.997 6 0.9964 0.9995 0.9599 o os4.8723 0.9647 0.7'731 0.0820 0.9298 0.9981 0.9848 n ooss 0.6597 0.9973 0.9969 0.9996 I 0.TABLFS NUMEBIOUES Table no 3 LOI BINOMIALE - PROBABILITES CUMULEES Probabilités cumulées Pr (& n c < c) : I t_0 P 0 t-.9 r 39 0.91 7 l 0.2059 0.9998 0.9999 I 0.9983 0.9997 I 0.41t4 0.9926 0.9993 0.1 0.9955 0.9685 0.9906 0.9456 0.9904 0.911 0.8 r 59 0.9447 0.77 46 0.9999 I ) 3 I 0.9999 I 0.9987 4.8390 0.6676 0.5386 0.9710 0.8l2l 0.9980 0.7879 0.9997 6 7 0.6035 0.5654 0.5455 0.5 169 0.9998 I l0 n 0.991 0 0.9997 I 0.9418 0.9990 0.9990 0.9896 0.94r'.647 4 0.9998 0.981 7 0.8 5 87 p:4% 0.8171 0.1 1 34 0.97'7 4 Tttq I 5 2 0.8483 0.9999 I J 4 5 0.9999 I 0.6769 0.95 r 9 0.9999 I 0.9999 I 0.9978 0.8179 0.3917 0.9970 0.9783 0.9997 I 6 '1 0.9727 0.2343 0.7 l 68 0.9996 I 0.9992 0.9529 0.2r46 0 5s1s 0.2958 0.73'74 0.485 5 0.9185 0.45 l6 0.2342 0.9972 0.9998 I 0.8290 0.542t 0.9962 I p:3% 0.9944 0.6951 0 q575 0.5905 0.9991 0.8850 0.99t4 0.7386 0.9982 0.9929 4.8802 0.9999 I 0 0.9797 0.9655 0.9999 I 0.9999 I 0.9460 0.8153 0.35 85 0.2430 0. 0.9997 I 0.999 I I 0.

8619 0.9106 0.9252 0.| 0.9998 I 0.936 l 0.8535 0.9957 0.9996 0.95 l0 0.0805 0t 0.9999 I 0. I 285 0.9999 I PH.9944 0.7868 0.9624 0.9999 I 0.7604 0.9990 0.TABLES NUMERIOUES Table no 3 (suite) LOI BINOMIALE - PROBABILITES CUMULEES Probabilirés cumulées Pr n (k < c) : 5o/o p: 0 l% P:20Â P:30/o P : 0.9543 0.8609 0.958 l 0.99 r 8 0.9964 0.7 103 4 5 0.8822 0.9393 0.999'7 t2 0.6290 0.2201 0. r 605 0.9968 0.7072 0.3642 0. LEGAIT ??2 .9993 0.735 8 0.9994 0.0230 0.9990 0.9755 ll l0 0.399 I 0.9998 I 9 0.9686 0.9622 0.6007 0.9862 0.96't2 0.0'769 o 5ss'l 0.9968 0.969 I 0.4231 0. r 900 4.9882 0.9951 0.3694 0.5327 0.6690 0.67 67 0.5665 0.9994 0.9997 0.0148 0.7855 0.3303 0.9988 0.9999 I l 0.9990 0.9977 0.9992 0.6473 0.9999 I 0.9993 I 0.9372 0.6161 0.9232 t.9995 0.9845 0.9978 0.0338 0.9949 0.9909 0.9973 0.9875 0.2894 0.9995 0.9993 0.0532 0.9987 0.9856 0.9999 I l5 0.43t2 0.9906 0.9976 0.0827 0.9983 0.4162 0.9104 0.986 I 0.9999 I 0.9562 0.9758 0.0453 0.2794 0.661 5 40Â P: P: 60/o P:70/o 0.9520 0.9873 0.9822 0.9968 0.9998 I 0.8 l 06 0.9421 0.9985 l0 ll t2 l3 0 I 2 3 0.9996 0.9999 I l3 t4 0.7827 0.9999 I 0.6767 0. TASSI S.5092 0.4625 0.2260 0.2 I 8l 0.8964 0.4457 0.7937 0.8095 0.9995 0.9999 I 0.3 108 0.1 I l7 0.9998 I 0.992s 0.9920 0.9999 I 0.9988 0. I 594 P:9% 0.94t7 0.9963 0.9942 0.8546 0.9992 0.9906 0.8650 0.7290 0.7919 0.t265 0.2990 0.0155 0.94t9 0.9832 0.4253 0.9999 I l 0.980 40 6 7 8 9 0.9984 0.9033 0.9999 I 0. l 954 0.2228 0.9966 0.5405 0.0549 P:80/o 0.8779 0.9790 0.898 I 0.1299 0.9216 0.4005 0.6050 0.52 l 0 0.9963 0.9780 0.9224 0.0052 0.0842 I 2 3 0.0090 0.8206 0.527'.6290 0.9834 0.9998 I 0.9005 0.1 140 l0 0.971 0.8404 0.2503 0.7702 50 6 7 8 0.9999 1 4 5 0.2957 0.9993 0.6937 0.9985 0.0266 0.0356 0.9933 0.9927 0.

9977 I 0.8 r 53 0.9999 I 0.4335 O.9 0.9733 0.9986 0.9197 0 I 7 3 0.9992 0.9972 0.9834 0.9989 0.199i 0.9988 0.831 4.9579 0.0498 0.7029 0.5488 0.532 0.9997 0.2650 0.9989 0.5 m-4.9e0e 0.9999 I 0.9992 0.0 0.8187 0.9829 0.9473 0.9997 .9372 0.S.9999 I 0.9999 I 0.2381 0.9999 I l6 334 PH.9997 0.99't6 0.9866 0.2231 0.8 m-0.9998 I 0.4066 0.0611 0.9659 0.9996 1 0.9945 l0 l1 0.9942 0.9489 0.9901 0.5578 0.6 m_0.9993 0.7622 0.2 n-0.7725 0.9999 I 0.6472 0.9319 0.9998 I 3 4 5 0.9997 I 0.9863 0.9999 I 09997 0.9098 0.75't6 0.9964 0.4232 0.1 m-0.9631 0.9991 0.8088 0.6288 0.5438 0.9962 0.MM 0.9989 0.0183 0.0067 0.3208 0.5366 0.7851 0.5 m-3.'i' "-^ ^r kt.6767 0.5 m-2.9998 0.l 6 I I Probabilités cumulées Pr c (k < c) .9825 0.9526 0.9958 0.0 m-2.9999 I t2 l3 0.9665 0.9161 0.9991 0.9384 0.1 736 0.9933 0. I 353 0.988 1 0.9786 0.9998 0.9953 t I 0.4966 0.9858 0.0 m-4.7358 0.9990 0.8576 0.0 m-1.5 m-0.3679 0.9347 0.1247 0.1423 0.8912 0.9955 0.9999 0.9920 o.7408 0.9994 0.4493 0.6065 0.TABLES NUMERIOUES Table LOI DE no 4 POISSON PROBABILITES CUMULEES Probabilités cumulées Pr (/< ( 0 < c) .'i' "-^ ^* Ê" ft! m-1.6703 0.7254 0.9344 0.9999 0.4405 0.8571 0.8666 0.9s97 0.9048 0.9769 0. TASSl .0916 0.9955 0. l 359 0.9982 0.9966 0.9967 9 I 0. LEGAIT . Ï^ m-0.8088 0.9134 0.8893 l 1 0.8442 0.9810 0.9814 0.9980 0.9997 0.9997 0.4 m-0.9998 I 0.9998 l4 l5 0.6160 0.0302 0.9919 0.7 m-0.5 m-5.8781 0.9682 0.1 m-0.9963 4 5 6 7 8 0.0821 0.0 m-3.4060 a.9856 0.28'tt 0.01l I 0.9992 0.

9466 0.0818 0.9998 l4 l5 t7 o.0296 0.9954 0.9988 0.0015 0.7060 0.9091 0.9999 0.6620 0.9784 0.99t4 0.1 32 1 0.9015 0.9999 I 0.4557 0. LEGAIT .0006 0.4457 0.9983 0.0012 0.0073 0.9964 0.0550 0.9992 0.8030 0.2562 0.22!7 0.9996 0.1 I l8 4 5 0.0138 0.9957 I 0.9929 0.2068 0.0430 0.0001 0.9989 0. r730 0.9999 1 0.9987 0.9947 0.9799 0.0113 0.9162 0.0001 0.8774 0.6063 0.3007 0.0047 0.8758 0.0403 0.1 1 57 6 7 8 0.95'74 0.5987 0.8487 0.0212 0.9994 0.9332 0.9897 0.0019 0.0884 0.521 8 a3219 0.9573 0.0042 0.0424 0..0203 0.8095 9 0.9999 0.l9l2 0.991I 0. : ti"u^ # 0.9980 0.0008 0.9827 0.7440 0.9486 0.9726 0.'1614 0.9999 I 0.0996 0.0174 0.9918 0.9998 0.9997 0.9823 0.9665 0.0149 0.3918 0.0885 0.9658 0.0266 0.9997 0.9998 0.9912 0.4497 0.9840 0.8622 0.0301 0.9970 0.S.0002 0.9585 ll t2 13 0.97 47 0.8364 0.9161 0.9976 0.6728 0.0030 0.3134 0.5265 0.0746 0.9780 0.6530 0.5246 0.9999 1 24 22Â PH.9976 0.9890 0.8305 0.9862 0.201'7 0.9955 0.3690 0.9998 0.0591 0.TABLES NUMERIOUES Table no 4 (suite) LOI DE POISSON - PROBABILITES CUMULEES Probabilités cumulées Pr (k < .9993 0.9970 0.888 I 0.9872 0.5231 0.0003 0.3782 0.6860 0.7916 0.2414 0.7764 0.9999 23 I 0.9963 0. TASSI .4530 0.9208 0.5925 0.6453 0.2851 0.9943 0.15 I 2 0.7166 0.5289 0.9998 I I l8 l9 0.9462 0.9730 0.0062 0.9986 0.9984 0.9995 0.0620 0.1649 0.9996 0.9261 0.9990 0.0041 I 0.9400 0.9980 0.9995 0.0025 'l 3 0.9998 0.1496 0.8159 0.9991 I 0.9996 0.898 I 0.8472 0.9996 0.9889 0.'1520 0.0093 0.3575 0.966 I 0.9044 0.0009 0.3856 0.5874 0.2687 0.'1291 0.

0104 0.5659 0.2081 0.0847 0.9998 0.3329 0.8541 0.9169 0.9999 I 0.861 5 c.0004 0.9979 0.5760 0.7307 0.7559 0.9999 I 0.9967 0. l 756 0.1432 0.2867 l3 l7 l8 l9 20 22 23 0.8055 0.9107 0.0040 0.6509 0.9593 0.7363 0.7 487 0.9999 I 0.0549 0.0151 0.8tzz 0.9908 0.9075 0.1931 0.0014 0.97 l8 0.99t2 0.0001 0.000 I 0.9990 0.9751 0. I 550 0.9999 I 0.09 r 7 l0 ll tl 0.9860 0.0001 0.9993 3l 32 33 34 35 36 0.4686 0.9869 0.0220 0.2600 0.9926 0.0003 0.0021 0.6887 0.9983 0.0786 m:12 0.3622 0.9986 0.8272 0.0620 0.9992 0.3s32 0.95 0.7636 0.0002 0.0076 0.6640 0.8355 0.9982 0.0142 0.0023 m:13 0.0005 0.9925 0.9824 0.3472 0.4644 0. S.5622 0.0001 4 5 0.9982 0.0010 0.5680 0.9514 0.9990 0.026 l 0.26'76 0.077 4 0.6751 0.9E27 0.868 I 0.4677 0.9996 0.0002 m:!4 0.8988 0.0107 0. l 302 0.9787 0.3675 0.9938 0.9999 I 24 25 0.8445 0.9954 0.6968 0. TASSI .9897 0.9442 0.9805 0.9907 0.9999 I 28 29 30 0.9371 0.0895 0.9857 0.9626 0.9367 0.9967 0.0009 0.5730 0.9950 0.79 I 6 0.3405 0.9984 0.9978 0.9969 0.9999 I 0.37 t4 0.0374 0.96t7 0.t426 0.9048 0.2424 0.1 1 84 0.9712 0.9997 0.917'7 0.9950 0.7721 0.0203 0.9941 0.6693 0.9994 0.0002 0.9730 0.0491 0.6550 0.999'7 0.0540 0.0458 0.8645 0.9998 0.9997 0.9973 0.4580 0.9987 26 27 0.0012 0.0076 0.9999 0.7423 a.9748 0.0259 0.0054 0.9989 0.0304 0.0071 0.2009 0.0055 6 7 I 9 0.8826 0.25 0.0293 0.5704 0.78 I 3 l7 0.5440 0.9554 0.9235 0.6593 0.9993 Q. l 093 0.875 l 0.3584 4.8989 0.0037 0.2320 0.9888 0.9962 0.0375 0.7991 0.0029 0.9884 0.0997 0.855 I û.0126 0.9985 0.9679 0.0154 0.0698 0.9996 0. l 350 0.2808 0.0002 0.0028 0.9998 0.9833 0.68 l6 0.0433 0.9992 0.583 l 0.0671 0.3750 0.9998 0.0028 m:ll 0.4667 0.001 8 m:15 m:16 m:18 0 I 2 3 0.9633 0.9468 0.9993 0.0010 0.9928 0.2243 0.t270 0.9965 0.) :'t io u-^ 4 kt m:17 m:10 0.0005 0.9960 0.9995 0.9 r 66 0.4656 0.TABTES NUMERIOUES Table LOI DE POISSON no 4 (suite) - PROBABILITES CUMULEES Probabilités cumulées Pr c (k < .93 l3 I 0.9939 0.9995 0.0007 0.8905 0.9999 I 336 PH.9997 0.4616 0.9672 0. I 847 0.9996 0.0005 0.0049 0.9974 0.8193 0.2745 0. LEGAIT . I 658 0.0 r 80 0.4599 0 57S1 0.952t 0.9302 t4 l5 16 0.463 t 13 0.9848 0.0316 0.0 100 0.

8 46. I 13.3 18.3 .45 6.63 6.8 15 17 1 1 40 50 )î'1 19.6 44.3 29 30 32 18.39 10.598 0.37 3.7 t2.4 112.8 t3'7.62 105 157 4.8'7 t4.8 18.0 56.0 14.2 3"1 l'l l8 l9 20 3.9 40.3 13.14 8.01 { 11 6.584 2.49 s 1s 6.96 8.8 4.64 2.016 0.l 2.9 30. I 38.6 12.0 5 s5 5 4l .5 6 1 8 9 0.63 8.3 5.0 58..7 15.3 24.6 43.9 59.56 8.4 26.67 26.8 18.71 I 2.8 r) 5 3.1 r 124.4 55.24 10.1 51.3 32.8.9 23.09 2.6 12.81 6.0 23.81 5.9 34.7 4'7.01 5.3 2'7.6 31.3 2l )5 .4 I.3 24.676 0.6 12.9 I 1.3 'l{ ) 36.115 4 5 0.2r6 0.2 66.4 37.65 )l 1 ))7 23.42 4.020 0.554 0.34 10.6 50. I 40.5 28.0 5Rg 6.21 l3 t4 l5 t6 2.I |.3 99.'7 t? 1 )5 1 38.001 0.l l 4.9 51 5 s) t1 r.4 9.352 0.2 r00 I18.3 19.8 42.3 42.3 ll3.9 l 1 sR1 59.2 42.0 I 1.24 1.10 3.9 26.35 9.91 )2.21 I 0.40 5.11 4.2 48.92 6.3 13.34 0.2 27.024 0.91 7.6 6l .4 16.5 5l.3 14.455 r.6 r 2.4 .9 31.3 45.7 '76.7 16.2 t49.8 36.072 0.02 ?1R 6.0 7.5 48.5 9.35 t2.3 22.8 28.5 92.4 56.98 7.1 03 0.3 '7 56.5 1q1 40.I 10.0 44.9 40.857 |.291 0.2 14. on pourra utiliser I'approximation xirvt:"(r-z*.9 13.5 49.0 106. I 28.6 4'. I 4l .4 40.3 3 1.99 7. Pour v > 30.3 49.78 s I 15 6.9 26. I 21.2 l0 0.f!*)' où t" est le fractile d'ordre P de la loi normale réduite' aal PH.22 9.2 52.69 2.4 16.6 43.3 I 5.2 r l1. I 15.l 124.6 I 12.3 18.989 I. I 18.21 l r.8'72 1.4 40.3 29.412 0.6 32.3 128.0 70.23 5.9 9.36 1.3 24.3 17.8 79.2 10.6 51.90 5.0 33.831 0.8 48.83 2.1 {1 t 65.41 7.3 46.t1 2.55 9.7 I 8.6 14.8 14.5 45.8 63.3 21 .26 6.6 2l 22 23 8.8 61 .5 19.2 16.9 1J.3 rs I 16.2 64.3 49.8 45.48 l .I 16.0 53.5 48.4 t3.5 20.3 t.051 3 0.l 5 t6.5 1L t )( t 26.9 t'7. TASSi S.012 oto 0.1 26.8 r 20.08 8.3 7)'l 11S 1( S ? {1 8.9 4'7.1 zl.25 3.04 3.'l 62.65 1.8 140.3 49.88 10.6 14.73 t0 2. I r 28.8 1?q 34.80 10.25 7.0 t 04.201 0.9 24.t1 4.30 7.49 I ll.3 95.6 39.'7 31 .8 14.4 I 1.'7 I..9 8.6 I 88.091 0.13 1'11 I .06 0.6 24 25 26 27 28 t5. LEGAIT .61 4.3 16.3 l8.6 54.90 9.34 9.3 29.83 3.31 10.79 8.9 2t.2 63.2 3 r.5 96.3 59.484 0.1 4.3 20.8 38.1 0 l )? < 30.2 68.54 10.6 85.O il.9 83.0 13.6 36.5 36.51 20.6 107.l5 I.4 34.3 4l .6 6t.6 35.'7 ass 10. I 37.-l 23.l 13.0 54.61 1R4 5.7 29.9 36.5 rl t t2.4 sulvante N.2 7 52.23 8.41 't.3 13.r5 |.L 44. l 56.1 16.TABLES NUMEFIOUES Table no 5 FRACTILES DE LA LOI DE x'z(u) I 2 0.1 7.3 22.56 4.2 43. 3.8 I.6 1S4 4.04 7.4 100.7 13.4 60 70 80 90 4.20 2.5 t29.5 101.004 0.5 '7 t'7.26 t2.6 9.26 ll.3 22.r8 2.'7 ll t2 l.3 19.39 0.5 34 36 38 20.l 2t.58 t9.8 30.3 0.4 32.2 116.48 5.66 5.3 15.3 39.l t24.82 2.4 86.61 9. I t4.6 90.5 65.1 35.57 '7.24 0.0 17.9 I 1.94 4.381 0.

363 9 0.856 0.032 2.708 2.876 0.328 .858 0.'t85 4.43't 4.421 3.972 I.048 2. LEGAIT .3'16 I 0.579 3.024 40 50 60 70 80 90 2.485 2.29t .255 0.257 0.441 2.350 2.812 l0 0.697 2.450 1 3.859 0.365 3.298 t.381 3.686 3.041 4. S.977 2.447 4.852 0.02t 2.'t92 3.t69 3.333 .7 34 2.873 0.435 3.617 0.1 82 1.4'19 2.534 0.416 .3 l3 .861 l9 20 0.7l I t.851 0.s32 0.060 2.042 2.60 0.965 2.267 0.449 2.868 0.975 0.390 2.528 0.374 2368 2.530 0.s27 a.747 3.315 I.290 .925 5.659 3.525 0.292 .403 2.843 0.660 2.847 0.257 0.852 0.930 3.941 53 6.8 2t 22 23 0.706 I.015 1.728 2.538 0.542 0. e(v).53 7 0.26r 3.960 0.7 t2 3.684 2.906 0..253 0.694 r.296 .707 3.639 2.850 3.126 2.53 l 0.943 1.330 |.848 0.978 0.84 r 31.2s4 0.539 2.131 l8 0.763 2.688 .289 0.3 .5 83 3.860 0.707 3.756 2.990 I.333 3.551 2.254 0.6 5.6'78 0.40.662 t.073 11? .95 0.303 .365 3.727 0.03'1 2.258 0.61 0 2.782 t.529 0.862 0.255 0.3 l8 t4 l5 l6 l'7 .306 I.473 2.396 3.72t t.67 4 26 2'7 0.032 3.365 2.664 t.t20 2.660 t.94 8.492 2.260 0.045 2.854 0.645 I.855 .842 t.527 0.307 .856 0.345 2.82 3r8.984 2.025 3. Pour v > 40.738 2.256 0.254 .965 1.255 0.60 t0.86 I 3.221 4. TASSI .t45 2.7 14 3.20t t8 2.208 4.699 t.061 t2.526 0.383 .255 0.533 0.584 0.845 0.879 0.849 0.1 06 I.283 .365 2.13 1 3.857 0.566 3.776 2.29t y'V.549 0.77 t 2.356 .781 6 7 8 0.256 0.323 t.434 2.529 0.533 2.J45 .571 2.259 0.265 0.160 2.896 0.22 t2.533 0.53 I 0.7 t9 2.553 0.750 2.601 3.704 2. 1P v\ I 2 3 0.009 2.485 3.3 l8 .531 0.078 .080 2.253 0.325 0.195 3.304 .1 l0 2.4t5 .325 .3 22. 338 PH.866 0.309 .995 63.074 2.27 t 0.46'7 2.994 i.31 I .259 0.648 r.3 r00 200 500 3.61 l 4.228 2.855 0.s27 3.140 4.701 2.893 5.889 0.648 2.527 0.576 l0 3.779 2. on pourra utiliser I'approximarion suivante tp(v)-ue*(u)r+u"\/4v où ur est le fractile d'ordre Pde Ia loi normale réduite.256 I.787 1 711 4.086 2.257 0.389 3.457 2.66 0.t32 2.s28 2.676 t.t44 4.143 9.729 I.55 2 2.t73 5.2s6 0.405 5.33 4 5 0.80 I.67 I 3.667 .r01 2.s29 0.TABLES NUMERIOUES Table no 6 FRACTILES DE LA LOI DE STUDENT Cette table donne les valeurs des fractiles 1r(v) de la loi de Student pour Pour fes valeurs P( 0.254 0.653 t.2n 3.895 1.898 0.3 r9 .t.624 2.258 0.0t2 2.854 0.260 0.543 .t79 2.530 0.093 2.250 6.256 0.921 2.601 3.56't 2.524 2. on a tp(v) : .257 0.090 3.529 0.334 2.632 2.262 2.922 3.256 0.638 .764 2.990 3 0.999 0.531 .3 l0 2.5 r8 3.256 0.339 3.842 0.90 .650 2.499 1 15S 3.501 4.851 t.028 2.3 l4 .341 I.920 0.626 2.3t4 2.263 0.646 3.7 t7 t.408 3.886 .26t 0.878 2.32t .348 3.947 4.277 0.846 0.987 I.787 3.402 3.2s7 0.965 4.319 1 1n7 3.7 4.602 2.797 2.069 2.7't t dl{ 28 29 30 32 34 36 38 0.860 0.508 24 25 t.3 l6 .586 2.870 0.526 0.052 2.831 2.532 I.604 7.71 4.536 n 51t 0.530 0.496 3.821 2.767 3.525 0.000 2.303 3.60.255 0.833 1.429 2.532 0.569 0.530 0.174 3.306 2.4r5 3.853 0.541 3.256 0.858 0.385 3.703 t.646 3.1 83 3.258 0.254 0.460 3.587 4.294 t.282 t.582 .80'7 3.262 0.622 3.746 I.064 2.r06 10s5 4.505 3.70 0.423 2.539 0.8 l9 2.297 ll t2 I3 t.796 1.725 2.286 .500 2.865 0.959 5.859 5.9995 636.753 2.256 0.546 0.852 3.540 0.39'l .686 1.256 0.232 .462 2.998 2.0r5 3.056 2.681 3.8.725 3.254 0.863 -3tt .46'7 l9 0.845 2.740 t.883 3.440 2.691 r.761 I.896 2.534 0.920 2.745 3.552 2.846 0.559 0.690 3. P> 0.883 .

28 l0 2.02 2.4t 2.7 6 6.28 3.49 237 2.t5 2.83 l.37 ))o 1< 2.5t 2.50 2.4 t9.l8 3.63 2.95 '.49 2.84 2.32 ') t! 2.76 2.83 2.69 .96 I.48 117 3.1 2.32 )1) 2..37 2.50 3.55 2.65 2.01 2.46 4.34 3.64 2.46 2.06 2.S.1"t 2.46 2.03 2.74 5.26 4.89 3.l8 3.33 2.03 1.l l 3.03 2.04 2.92 2.M 3.n 2.t6 2.68 4.3s 2.37 z.24 4.76 2.32 3.5 8 4.8 5 ) 11 3.01 8.57 2.5 200 19.70 2.79 2.80 2.96 2.00 2.85 2.l8 2.42 2.53 .87 4.04 2.76 2.05 3. f.24 f f t 2.49 4.67 2.02 l.92 1.35 4.53 4.36 3.54 2.64 2.91 2.14 )11 232 2.99 I.03 3.85 t.2 230 19.46 2.25 2.89 1.81 10.88 t. {( 2.04 4.30 2.71 4.2 9. l0 3.85 2.94 2.69 3.90 2.45 2. t5 3.22 3.04 2.t2 2.31 2.3 214 19.36 2. 3.12 3.3t ))1 ))1 2. .42 3.59 5 1t 4.49 2.87 3.01 I.35 2.4 t2 244 t4 245 l6l r z 3 8.87 2.) 26 27 28 4.44 2.08 4.26 4.20 3.91 t9.l8 3.t6 2.28 225 19.07 r.47 2.42 2.35 4.90 2.7 t 1?r 2.33 3.49 l6 l3 2.84 4.79 3.4 8.03 161 3.78 2.60 2.(Jl t2 3.62 ) {< 2.95 2.34 2.79 1.00 3.60 4.[] d.IJ.s3 2.54 4.41 4.23 t 2. 3. r. LFGAIT 339 .42 2.39 4.01 2.15 z.59 3.88 2.84 2.42 2.94 3.8 I 2.71 6. l0 2.3t ) )t 2.60 2.68 2. uz\ P:0.6t 2.86 1.42 2.92 2.96 4.45 3.77 2.40 2.t7 4.62 2.80 I.t5 2.00 t.24 3.70 2.34 2.00 4.00 2.23 2.3s 2.64 2.28 l0 2.7 4 5.4'7 2.-r(v.2t 2.79 2.98 2.4 8.34 2.03 40 50 60 70 80 90 100 2.36 2.59 3.40 2.55 2.49 2.80 ) 7( 2.09 2.48 2.97 r .45 l6 t7 3.70 2.53 2.20 3. 4.91 1.08 2.74 2.0s 2.84 2.t 4 4.3 8 2.0'l 3.09 3.06 2.98 I.90 2.46 2.t3 2.7 4 3.66 2.7 t 2.34 3.79 5.07 2.7 4 5.t9 2.07 2.12 2.63 2.96 4.23 2.51 2.09 2.t9 2.3t 2.99 5. vz): F.54 2.28 4.39 ) )'.79 2.09 4.21 6. .29 3.24 1 11 2.53 2.0'l 2.2t 4.26 3. (vr' v'\ PH TASSI .48 2.TABLES NUMERIOUES Table no 7 FRACTILES DE LA LOI F (uI.09 2.60 l3 l4 l5 4.56 2.32 155 3.t3 2.59 2.49 3.28 2. r8 2.68 3. l0 2.26 2. 2.94 6.4t 4.0 2t6 t9.89 t9.81 3.0'l 3.28 3.69 2.t4 2.20 ll d.94 1.49 2.l5 4.95 Vr N I DEGRÉS DE LIBERTÉ 2 3 DU NUMÉRATEUR 7 4 5 6 8 9 241 l0 242 19.84 147 3.07 3.95 t.t9 2.60 2.84 3.01 2.29 2.40 3.96 3.61 6.02 3. g ! th 29 30 5Z () 34 36 38 l8 4.4 8.l0 4.36 2.67 2.54 2.42 2.4 8.63 3.48 2.5t 2.99 2.24 4.39 3.82 F {! 24 25 4.3 5 3.93 1.34 2.70 2.24 3.26 ))1 2.29 2.09 2.] 2t 22 23 141 3.94 6.20 2.69 2.23 2.95 1.86 I r.00 3.38 2.60 2.96 3.45 2.37 ))1 )')< 2.89 3.96 2.88 4.38 4.98 f.l5 171 l0 9 5.s2 3.20 l4 2.t4 2.5t 2.38 2.40 2.t2 4.45 2.0 r 2. l0 'l s6 l3 2.28 : q.74 1 11 11t 3.r8 2.46 2.t2 2.65 2. 3.64 J.7 5 Pour les valeurs de Fcomprises entre 0 et l.86 2.40 2.20 2.59 2.98 2.26 5.i7 2. r s t9.il 3.35 2.03 3. l4 l0 l0 111 3.l9 4.61 2.06 3.n 2.66 2.95 2.06 3.t7 2.23 3.t3 2.48 3.90 2.20 4.39 9.85 4 5 7.19 2.29 3.98 3.66 t<? 2.59 5.7 t ))o ))\ 2.53 6 7 8 5.39 2. l1 2.t3 4.5 8 2.99 t.67 4.56 2.59 2.86 3. 2.l l 4.99 2.30 I l< 2.14 2. (r] F = .82 6.05 t6 5?0 5.t2 6.48 2.39 3.68 4.57 4.00 1. 2.95 6.93 2.l l 3.85 2.7 5 4.41 3.t3 2.64 3. 3.24 3.49 2.95 2.28 3.87 2.93 z l8 l9 20 4.30 4.9t 2.14 3.7 4 2.44 3.20 117 11s 3.26 2.05 2.08 2.29 3.71 55 9. 8.88. 8.43 2.33 2.82 1.3 237 239 19.2t 2.77 4.85 2. on a: I F.

45 .84 t9.'7 I .83 .54 l. v:) : 340 exP lÆ '+ v.to 2.24 .86 .99 1. TEGAIT .89 .27 6 '1 )q7 2.87 I .94 .48 .84 .85 1.48 t.90 l .59 2.24 ))) 2.l0 .26 8 t.37 t.67 .69 .08 2.65 1.5 157 253 19.7 5 I.43 .91 2t 22 23 l.57 |.82 4.48 2.5 1.09 2.39 I.05 2.78 t.68 .3 2.t2 2.95 l.'\Ly'(vr -0.72 t.77 I.41 4 5 4.'74 +.80 I I .52 r.48 2.97 1.35 11 .03 2.7t .98 1.93 I .90 1.80 249 t9.5 I 30 e rn .64 t.32 t.49 4.91 1.28 ) r< 2.60 3. 2.83 2.01 t. 6 .84 1.94 |.77 t.0s t.7 t t.99 t.t3 2.51 2.72 .29 2..90 3.97 1.47 2.99 I.5 .84 1.46 .62 t.91 1.78 .16 2.96 2.02 ) (\) .90 l .66 t.02 2.59 .81 t4 l5 l6 t7 - l.89 '.89 I l.92 .65 .79 I.t6 2. l6 246 l8 247 20 22 24 26 28 30 40 251 "'/ 100 60 248 t9.t3 l8 2.87 2.40 3.3 l 2.63 5.'71 t.70 .57 t.92 3.65 .03 2.90 2. (v.95 DEGRÉS DE LIBERTÉ DU NUMÉRATEUR: y.96 2.21 2.43 )\1 2.99 2.65 .65 26 27 28 29 19 .87 1.08 2.'19 I..34 1.99 |.50 .80 t.69 .t5 l rt 2.49 2.68 .59 I.2a l.82 .84 I.66 5.02 r.7 4 2.26 2.09 2. r0 8. 1) 2.46 ll t2 rn 2.00 2.82 r.5 3.92 l8 l9 20 fa -J lr)' t! l.5 249 19.79 I.01 2.1'.475 l'5681 tu-' .33 2.93 I.3t .51 3.93 1. I.l3 1.85 I .91 1.76 .49 1.92 1.90 1.39 2.38 2.97 I.20 2.59 .97 I.88 1.t0 2. t.72 1.79 t.60 3.13 l3 v arJ.19 ))) 2.44 2.84 3.39 I.52 1.62 5.6"1 3.00 .88 2.00 )n1 1.lt 2.88 .79 J.t9 2.t7 2. r.54 .69 1.07 l9 .01 1.5 249 19.59 |.78 t.62 I t.87 A\) 8.s4 t9.87 1.91 I.99 |.S.92 . une bonne approximation est donnée par la formule: f'.75 .30 2.81 I.48 I.7 5 i ?.82 I.64 I.82 .21 3. t.82 .96 t.'7 I c z z = -l Ë tr.95 I.06 1.12 2.44 3.7 5 1.37 .10 2.89 .69 .96 .81 1.98 .08 2.t5 l5 I.81 I.95 I.56 3.l3 2.07 .79 I.t0 2.4t 2.80 2.5 8 i.92 1.76 3.42 2.30 .74 1.l8 2.7 )R1 1.62 5 ?S 8.90 1.89 1.80 1.83 3.63 .TABLES NUI\IEBIOUES Table no 7 (suite) FRACTILES DE LA LOI F (ut.85 .93 .88 .28 .n 2.t ll I PH TASSI .25 2.44 10 15 1'.73 .2t .76 t.7 t 2.2t 2.63 3.7 5 I.05 t.85 .69 1.94 .76 1.47 4.) t.44 2..54 8.0i ..53 .70 2.l9 't.69 1.8 r ].32 2.40 1n 8 9 l0 )<1 2.ll t.04 2.70 t.78 t.07 2.00 60 70 80 90 100 .4l t. 1.4 8.98 1.45 r.67 1.46 \'1'7 I lr'.4 8.07 2.85 I.85 .81 l.64 .5 5 .86 l.43 3.t2 2.4 8.l .95 I.90 1.86 t.26 z.94 2.z) 2.7 4 1.43 t.50 3.57 55 51 ..78 2.'7'l t.00 |.04 2.92 .04 2.87 .4t 2.62 1.t2 2.60 I.63 .66 . r5 2.62 I.38 3.76 .98 q7 I.66 '.'74 .t7 I.87 l. 24 25 .83 1.02 2.60 t.64 I. uz) P:0.3 8 ) s1 .82 t9.30 2.t7 2.81 1.59 9.9l 1.94 1 a1 2.01 t.04 i.86 .07 2. 11 t)) .70 1.65 t.'79 .76 ?1 .71.05 z. (.46 .82 |.64 .93 I 2 3 i.04 2.07 2.5t 2.96 st .67 .93 I I.1I 2.58 51 r.5'7 .72 I l.94 I.05 2.71 .73 I.7t ..93 I l.5 250 19.6l 5q l.t9 2.70 t. l0 1.6'7 : I.07 2.65 t.76 t.64 571 4.62 .'77 .85 .70 ){o )'t5 2.74 l.61 5) .63 I.86 t10 |.-.5 252 r9.60 .67 5.62 )2 34 36 J6 40 50 l.02 2.95 .96 .82 I l.15 2.69 5.33 2.'7 5 ..21 .97 I.2l 2.65 1.54 2.67 t.39 | <r 1.0'l 2.96 1.0 r .68 1.05 2.54 51 I.91 1.t6 2.88 I I .87 RS .5 250 19.50 Pour vr et vz ) 30.41 4.65 110 3.63 t. arJ t')< t.70 .88 .92 )7{ t.84 .84 .98 1.88 t.80 .61 2.66 t.50 3.06 l.46 2.58 3.35 .

48 4.53 3.42 I rrl 26 2'7 l0 2.3 l 3.08 4.'16 2.20 1S1 3.2t 6.t2 4.78 3.28 )) 3.09 2.14 2.'10 2.73 2.25 3.43 39.10 6 7 8.22 4.94 2.56 2.24 2.28 4.33 ) ){ t tt 2.43 2.04 5.65 4.42 4.82 3.7 6 8. l8 t9 20 105 3.82 r4.01 3.t1 3.94 2.20 3.55 4.39 2.50 t'l 3.7 9.06 3.87 2.22 3.3 t4.47 5.65 2.t2 4.50 3.4t 2.76 3.88 3.29 1.l8 3.t0 4.66 3.78 4.05 922 1S1 t4.96 ?Rq 2.68 5 5) 7.48 1ts 3.27 3.6'l 2.51 3.36 4.3t 2.78 2.2 4 5 t7. LEGAIT .29 4.30 2.82 1 11 2.22 .l2 3.57 2.61 432 4.7 | 7.08 2.34 2.64 2.84 1 R1 114 3.60 F 575 24 25 <1) 5.l3 3.20 4.85 5.23 5 5' 5.66 5.70 8. f ll t2 5.M 3.60 5.l9 17'l 3.63 3.83 5. 15 3.65 3.s3 2.45 5.62 3.96 ?.12 4.94 6.3 8 2.86 4.4 14.3 648 8.48 2.01 2.30 4.60 7.03 2.27 4. 3.3 948 39.0 10.61 l0 3.87 3.3 8 z . 13 3.38 1 1s 3.4 )9.37 2.61 3. 2.29 50 60 70 80 90 100 3.46 5.S.98 2.'.80 2.'.92 2.0 8.55 . 3.77 3.09 3.1') 4. uzl P : 0.4 14.01 { ts <)) 5.98 3. 3.39 6.4 t2.69 2.96 3.12 3.17 1 11 4.76 4.24 4.76 2.59 2. 5.28 3.4 14.65 6.n 2.35 l 1?q 3.20 6.97 2.9'7 2.21 ).20 ){ 3.59 3.78 2.06 3.20 3.41 ?10 2.53 4.38 3.38 2.l 1)1 3.28 U a ql 5.54 6.00 3.44 3.24 2.05 2.7 t 2.47 2.84 2.5 963 39.26 5.43 4.06 2.49 2.70 2.36 15S 3. 4.6 8.90 4.t! U l5 l6 6.24 4.98 39.34 2.95 2.65 2.08 1.45 2.33 3.5 I 4.5t 2.90 2.07 8 9 't \1 7.'71 2.90 6.83 2.75 6.3 I 2.81 )<1 ll 2.73 2.06 2.61 3.15 4.4t ))a ) lt 2.42 5.34 3.88 1 71 4.2 10.56 4.67 2.4t 2.72 6.41 3.19 2.97 ) 1) 2. 28 t?s 3.62 4.79 ) ?< .87 2.62 5.4 1S4 14.04 3.89 5.26 6.50 5.2t 2.29 4.34 5.02 5.t4 '2.86 3.85 .TABLES NUMEFIOUES Table no 7 (suite) FRACTILES DE LA LOI F (ut.6 3.89 3.ql d.61 2.69 6.t2 )\1 2.30 3.31 1s1 117 1 3.94 2.82 2.86 3.43 2. (1 2.66 3.93 2.44 3.l8 2.42 2.05 3.98 2.32 4.84 6.7 4 ){7 2.76 6.10 3.0 16.66 3.98 2.45 2.82 2.60 3.975 Vt N I 2 3 3 opcnÉs oe lrnenrÉ ou NuvÉnettuR I 2 3 4 9C0 5 6 7 8 9 l0 969 t2 977 l4 983 39.t! trl co 3.28 J.63 ))) ) 1'1 2.99 4.69 4.8s 2.69 3.09 2.8'l 2.79 2.24 4.l5 3.48 2.50 2.95 3.56 3.48 3.48 3.99 5.92 ! .26 2.02 2.90 3.05 2.4 9.98 6.35 2.19 l8 2.5 800 864 39.62 2.81 2.69 3.03 )9n 2.61 2.08 4.46 4"16 8.87 5.4 14.54 2.80 3.68 2.46 2.5 r 3.98 5.l6 3.Zl 3.49 2.45 2.67 3.46 1 '1S 2.r3 3. TASSI .83 9.07 3.61 4.60 5.92 2.89 5.98 5.67 4.6t ){o f <1 2.62 2.97 4.08 29 30 32 34 36 J6 4A s5s 557 5 S'.36 3.60 ?.44 2.56 3.88 2.89 3.5 8.00 l .93 2.54 2.73 2.36 7.5 I ?( 2.r I 2.18 3.r 9.92 2.41 2.99 2.35 gl l3 t4 6.2 15.84 2.04 1.90 2.47 4.33 3.5 8 F 4.55 4.r5 3.77 z f.61 5.01 ) l5 <o) 3.69 5.51 t ?( 2.38 4.2t 3.76 -) 2.66 2.88 2.9t 2.06 5.l5 4.51 7 55 ) {1 2.55 2.99 2.87 2.52 5.47 2t 22 23 3.36 ) 11 )11 2.54 l9 2.06 3.64 2.45 2.39 3.82 4.8 t t5.82 4.43 3.4 2.70 2.05 PH.7 | 2.t2 6.82 2.05 3.12 4.46 5.03 3.38 2.47 2.29 J.59 ) {t 3.87 2.4t 6.64 2. l0 105 3.60 4.75 2.89 2.00 2.60 )<1 7 5t 2.68 2.9 9.6 957 39.3t 2.20 3.1 5 937 39.07 4.07 6.02 2.09 4.47 l0 5.43 2.29 4.7 5 7)) 3.42 5.37 8.80 3.93 ) F.1 5 4.t9 2.46 4.80 2.69 2.72 3.

80 I.80 l.72 2.96 2.2t 4.s2 2.14 2.t7 2.76 2.37 2.96 2.5 39.24 2.4 2.94 t.02 3.47 4.30 2.77 t.0 8.48 t.7 5 26 27 28 29 30 32 34 36 38 z -l rn C l0 2.2t 2.07 2.99 t.50 I.44 2.50 4.48 I.54 2.98 I.03 2.07 t4.79 t.78 2.89 3.60 1.28 2.01 6.69 t.93 l.74 3.t9 2.83 r.33 2.20 6 7 8 9 l 3.92 2.39 .85 3.79 2.73 l.30 2.83 2.39 3.00 Pour yr ct yr > 30.t4 3.82 I.32 2.99 .3 8 2.26 6.28 5.t7 3.20 3.64 3.05 2.06 2.35 l.26 2.58 I.98 1.23 e F 2.33 3.78 8.26 5.39 2.7 4 3.68 2.5 14.73 2.09 2.39 2.48 2.66 t.05 2.97 I.29 2.76 I.0t I.95 .n 2.34 3.6t 2.43 2.80 I. 39.88 I.87 2.91 l.64 t.70 2.40 2. TASSI 342 .98 2.t6 2.56 2. une bonne approximation est donnée par la formule: 4o.t2 2.94 2.71 l.81 117 3.0 8.tt 2. l8 111 '1 )') 111 2.7 5 l.56 2.33 2..90 r.85 I.58 3.15 2.97 3.72 I.t9 2.44 I.5t 2.2 8. 13 4.08 4.82 l.)l ' 'J PH.81 I.85 4 5 5.59 2.24 5.58 3.9 t4.96 t.97 1.45 2..64 2.44 3.t'l 2.5 14.87 t.83 I.1 I 4.1a 2.00 I.20 2.l5 3.95 2.46 2.7 5 t.81 t.2 8.43 2.00 t.65 2.03 l.66 2.41 2.t7 4.88 1 11 1r'S 3.57 2.26 3.20 2.30 l.88 l.80 t.30 3.61 4.47 2.38 3.34 2.98 1.5 13.67 3. 2.95 I.4t 2.25 3. 6.t3 l0 2.5 14.60 6.02 4.34 2.47 2.lt 2.5 I 4.57 t.48 l.3t 2.85 2.52 2.4 l8 990 39.53 I. 'r 7< 2.30 5.28 2.59 t.92 4.23 3.74 1.67 l.74 I.88 I.25 114 2.74 I.88 I.01 2.53 t4.80 2.33 14.8t 2.4 20 993 39. uz) P:0.39 3.49 6.85 o E z î r< 2.46 6.24 ))< 141 2.08 2.96 I.04 2.t2 2.s (v.t3 2.94 I t.95 t.48 39.86 I.29 2.91 r.37 2.21 .03 3.88 I.U I..00 2.t5 2.t8 2.98 I.94 I I.37 5.97 1.13 l8 I c! rrl l- ln l9 20 2.51 26 l6 1000 30 100 I 40 1006 60 /vt 999 39.59 3.t3 2.t7 2.55 I.53 2.84 2.04 2.67 3.56 I.50 71) 2.3t 2.63 40 50 l.55 2.78 I.t3 2.03 2.20 2./ 100 l6 98'l 39.36 2.ur.t2 4.82 l.03 2.60 I.56 2.56 3.20 2.t6 2.96 4.I 8.03 2.61 I.00 2.t9 2.88 l.37 r 60 70 80 90 100 1.03 2.64 2.98 1.t 8.88 l .08 3.0t I.68 2.0 l0l3 39.09 2.6'7 ll t2 U ô fll.09 2.85 I.85 l.33 2.00 F -t ln.J8 2.32 6.l 8.79 2.44 2.5 24 997 39.68 1.42 2.t3 2.s 14.07 2.14 )l 22 2.94 I.7 t 1.50 145 3.58 2.5t 2.84 l4 l0 4.04 2.00 3.08 2.26 l0 3. LEGAIT .21 1..64 t4.00 1.9s 3.88 2.0s 2.3t 2.46 2.32 U 2.03 2.09 2.I 8.60 2.79 I.9l I.09 2.89 |. 2.72 t.78 1.91 l.76 1.93 4.38 2.85 v I.7l 1.08 2.tl 2.73 2.05 2.34 2.90 l.09 2.t3 2.25 6.35 2.t8 2.89 2.92 1.l8 2.62 2.9t 2.4 22 995 39.08 2.67 2.20 ))< )J) 2.46 2.96 3.t5 2.33 2.60 3.2 8.36 2.TABLES NUMERIOUES Table no 7 (suite) FRACTILES DE LA LOI F (ut.t3 2.65 2.92 4.27 2.39 2.40 3.23 5.84 3.42 3. I 8.51 2.92 l.15 8.02 2.42 3.40 I.56 .30 2.07 2.00 2.76 2.77 2.6'7 l.t7 2.00 2.41 I 2 3 14.12 6.48 2.85 I.l5 3.5 l0l0 39.54 4.70 2.88 I l.30 2.32 ?11 2.06 2.03 2.56 6.84 2.25 2.55 2.45 2. )< l6 t7 2.t5 2.28 2.tl 2.08 6.59 2.r+ û1-1 -î37 - 1.49 l3 t4 I5 F (t 2.24 2.91 . .64 r l.27 2.50 2.3r 3.t5 |.43 2.975 V DECRÉS DE LIBERTÉ DU NUMÉRATEUR: .21 2.82 I.94 t1 24 25 11.9l l.66 I.50 2.07 2.39 2.5 l0l8 39. 2.36 6.t7 2. S.n 2.40 2.4t 5.4t 2.93 2.03 r.80 I.3 4.t6 2.07 2.36 2.08 2.66 l.18 5.2'l '.82 l.98 2. 2.36 2.36 3.96 I.63 2.29 aa1 J1) iJ< t t2 2.86 1.39 2.05 2.948 (".06 2.t7 2.77 t.33 2.75 l. rî.79 t.70 t4.60 2. y:) - exp l:-2lll!' [r|(t.

TABLES NUMERIOUES Table no I NOMBRES AU HASARD 50230 84980 t3407 62899 63237 22lL6 33646 68645 15068 62458 26518 39t22 36493 41666 77402 12994 83679 971s4 71802 39356 57494 72484 '73364 38416 42237 59t22 32934 60227 05764 t4284 32706 94879 22190 2'7559 81616 t5641 26099 65801 71874 61692 087'74 29689 37294 92028 33912 37996 63610 61475 01570 4t702 92834 16178 81808 28628 62249 40747 't8937 94083 09703 17545 56898 96561 90525 93634 78397 7t652 66t79 657'72 401 25033 56358 31321 87A2t 56004 15 02656 46982 86s06 27524 68648 2787t 4034t 50260 7t329 85581 84741 89107 59892 tu99 83965 03084 02981 22676 443t1 93128 t0297 75403 18002 0'1734 88940 92855 62097 58707 44858 73069 80830 93188 66049 95668 53261 70823 53338 08967 73287 79788 51330 15356 05348 I 692t2 57932 45068 88722 81276 36081 l4l9 82937 s4257 857t7 06318 9492t 959'. TASSI .12 t8782 st646 37564 0s9t2 29830 89052 43645 89232 61618 1927s 68136 06546 74005 34558 54437 88825 02404 59253 7t535 20471 t3914 65946 60766 00939 47818 499s2 29t23 17328 70732 19420 702t5 8454t 122'73 9t261 96711 69831 I 297t2 0287'7 0r990 94762 42408 00384 10858 40744 22482 04029 4'1946 93779 96t20 0'7943 81795 89926 84764 26149 99330 74084 75949 45950 46319 90476 6798t 3t709 t9159 55467 13358 95355 43684 35629 37938 47030 45581 22484 44707 67578 269sO t9l2l 4l t90 49t45 76400 05373 69649 57964 495t4 89820 49105 06777 13524 03023 t9037 02831 51553 12158 00755 t78t7 87t2^7 PH. LEGAIT .S.70 24t59 77787 52941 60063 32980 82072 65757 99891 39061 42245 51903 56850 83380 78967 5720t 26980 23804 30282 54647 38973 82178 88301 22t27 59284 t62'79 80660 98391 04854 52809 01585 9981 8000t 69870 84446 21430 63506 22007 58248 21282 02305 59741 69179 96682 66916 73998 54972 72068 06077 29354 46802 90245 23459 40229 48003 44634 62243 t9678 86608 68017 96983 15082 47234 93263 21789 14093 12424 98601 t9526 2'1t22 01695 47720 t723t 25988 2t676 7998t 42936 46656 98943 78902 47008 72488 57949 57532 60307 91619 48916 676t9 39254 90763 74056 0981 l 82848 922n 5t 178 42221 88293 67592 06430 85596 83979 09041 62350 65281 57233 07732 58439 34405 67080 16568 00854 94952 59008 95774 44927 37129 31898 3401 I 43304 03582 66183 68392 86844 84389 88273 96010 09843 18085 92626 6091 I 39137 73810 79866 84853 68647 81607 00565 56626 77422 01291 68707 45427 82t45 35365 13800 83745 40141 43618 42n0 93402 93997 29966 38tM 62556 07864 56938 54729 6775'7 684t2 34262 15157 27545 14522 91819 60812 4763t 50609 37612 15593 73198 99287 54289 07t47 84313 51939 19403 53756 0428t 98022 95704 75928 2l8l I 88274 01805 23906 96559 06785 74678 2t859 98645 72388 08623 32752 40472 05470 39551 18398 36918 43543 l l 120 28638 72850 03650 83851 77682 81728 52t47 70955 59693 26838 9601 I 47386 17462 18874 742t0 06268 46460 97660 23490 19089 53166 41836 28205 425t5 55048 239t2 81 105 88&6 73520 40050 90553 04626 64838 92133 44221 982t3 t7704 47400 30837 42545 43920 I I 199 36521 00185 0104t 46662 98897 97149 4t628 78664 80727 41310 19722 07045 28808 31998 79942 98351 t0265 18046 '15287 74989 58152 36558 82712 05590 64941 14668 15656 37895 94559 22757 76116 76977 945't0 343 484'.

3Tt .569.z.5?O.22.335 -..??7 2.033.6rl .osr.o{9 1.35?."620 .86..?s! .ls? ..161.t?9..oer .r15.zet_ .1. .2.589 .22L- 1.619.s2a 1.rsz r.!l? r.a2o r.. 1.112..585 .t:.522 .t77 1.0l 9l.!?6-..03?..qea r:?46 ..l..eloi-iià .89?..650 .1.{59..t3 .063_ r.t...1.oe3 l.227..l.eze .6?3 1.830 .??\.?8?.821 l.s63_ .67? .zsg. S.llq.r.1.6.E _.l. l6a 1.060.169 "t06 .!19.l9g r.326.ll! -.t...eas.8.srt ..1. 862...gel ..z..o53.r..126 .g.!19.069 2.o{t .251 .172 .-A23 1.I.50a 1.56t.ers.t-zrt..172 .a50 t.g?l .o3?..16? 1..i6sr.trl.853 l.?o3 .203-....192..088.84? .sss.ase 1:ôàè .:é{i.tts.6sr .2.65{ l.17A t.025 t.?81 ..2o8.5?8_ .1.3rt r. .00{..166.lqq.826- ..!?i l.a36 .?9q.r2s.003.oii :iat .o2z_ .199.:ti1 .E65t.zsn- r.2..o12.908 .Alg.t.85{.31O -ZSZ..681..{61..t.aaz_ z.8.:iû_ .o3r.zse :aaô .tzz..z.011.o03.231.a56 .2A7.060.3?r2.zrr.82t_.986...603.222 r.!06.o31.916.tee t-rii.6?0.lal .r.075.2.Bs8.5?o r.936..086 .683 .!?l.162 rlàÀi.29L 1.....g?5..el! r..1.1.s8e.t63.256 .?e2.17O- ..1) l.t3 l..25O 1.Ol.oo.997 .l8o L.686 1...127.oéi.228...7L6 .rrg .63? 1.305.1..t71 1...aoi..276._.0?6r.a23.1..6s5.1.390 .257 .zzg.640.sto ..606_ 2.078 1..91! -..1.ezs i-.1.223 1. ..qlg.216 .?9? t.999.r53.9O7.eos :it5.a3l 2.:ié..53?.rzo.gl? t"t75.ssl.610 .374..slg.glr .102 2.991 l.1.19.71L t.r..?3_? . LEGAIT .1.7e7 r.1.9I.6rto.6.6E!.{58.zos.3ll l.012.l.251 .9i9 ..l?o.155..219.226 .s9l _.302.958.zas :iaô2.968.ssr .531.38? .762.279 .ose r.oss ....a8a 1.7!1.zsz.Jeg.os3 .922.7o-2.l..961 .?qc.o{9.zto_ :æé.!lq.985.1..-.709 .L.7L!.ZSS...1.1.682.t57- .rss.37O .291 1.?aa ..5?1..e68..19? 1..r.135 1.2tq..rs2.o3e ..866.zos.7lo.orr ..Z16-.13.:i6a.2rO.075.-.320 .1ôo-:tià_ -:âôô .t:?o?.O2t.680.s21...235. 73a 344 PH TASSI .?19 .l.986.102 ..302.441..oos..99s.392 . .387 .2.347..776 t..112 l.680.t..r.iôô_ .?99 .?-4?.ore.88?.qqg .89? .393.66e_ ... 136.878 .Brl-..rgs l..225.4?8.710 1..qq! l.?65.srs .TABTES NUMER]OUES Table no 9 NOMBRES AU I-IASARD GAUSSIEN N (0.o28.5ol l.327 .1zs.t...80?.{86 l.05t - 1.036.980 r.100..O42.e3?.r.q91 .449 l.190.O2g .489 t.199..2L6 1.oq.24t 1.02{ l..628...169 L.711.2.1.

4€14 r.0285 r.z3tt -0.0.7286 0"7928 0.t84t 0.1460 0.34t0 0.20r.X.519t 0. . est I'observation de rang i lorsque léchantillon est classé pu.t481 t7 lE r.3962 0.0518 -0.3705 0.7066 0.E463 -0.4236 0. t3t0 1.21t5 0.9050 0.7939 1.!522 1.0995 l.3t01 0.Cette (X.4950 0.0620 0.5034 t"2144 1. r852 0.0564 23 3 24 2' 26 2t 2E Le 4 5 I t I tl lf l2 l4 6 t0 .7E15 0.t22t o.2r58 0.u ).06s! -0.4461 0.) 2 table fournit E (X. .9812 1.9292 r.284t 0..0U7 2.t012 0.3758 -O.t724 0.8470 0.t9o5 0.Llot -0.2798 0.. où X.y77 0. 0..3620 0. r60t t..6292 r.5t98 .2952 -o. r64t 1.9E22 l.t227 0.4780 0. uot 0.1653 16 t.99E3 2.108 r 0.2616 0.0478 -0.4950 -0.2392 1.2952 0.tot6 1. par symétrie.0000 0.2015 _0"0000 0.3160 0.."..4728 -1.1184 0.5316 0.2 X.8708 0.æ00 0.2239 0.3527 0.r9E9 r.629E O.4620 0..1460 -0.4556 0.326t r.0922 0.ool4 l.92t0 0. u09 l. n varie de 2 à 50.2249 -o.4u0 0.4016 0.6420 0.E153 0.ré56 0. ).0620 0.664t o.0995 0.t0lt 0.t929 0. l08l -0.70t4 t.0000 0.t2(! t.1026 o.6973 0.5098 0.4915 0.233E t ll I 2 7 0.E892 1.5700 0.990! 0.82@ l.5157 -0. t.9538 0.20t9 1.22{9 0.6138 0.6667 0.3rE8 r.2419 0.o409 0.*2 1.2(13 0. o..0000 0.9846 0.8202 0.07tt -0.J.5388 t.3r49 0.06 l.6369 0.E074 0.0444 r 0.2t5l I .0'66t I .2001 0.tit36 0.6S! 0.9477 0.7660 r.841.9323 l.2970 0.091ô 0.ôJu 0.0995 -0.3to[ r9 20 21 22 1..2145 0.0000 0. rl47 l.66S0 1.r.3t22 o.4 0.).2015 0.9653 1..15E: 0.2384 0.3064 1.ooq) 0.8498 0.846t 4 4s6 7E 1. rE82 0.6679 0.350s 0.7t59 0.@76 r.0859 0. 1870 0.6@ 0.5642 0.1574 0.6028 0.5 1.3351 -0.00ôl 0.0t!t -0.2537 0.0000 0.2672 r.75t5 0.TABLLS NUIVERIOUES Table no 1O ESPERANCE DE LA STATISTIOUE D'ORDRE _.o65t 0.tr49 0.6418 0.0000 0.oooo -0.07t3 9 l0 -0.329t 0.9570 0.5720 o. L525 I 2 3 4 5 6 t I 2 3 4 5 6 9l0ltt2u t4 15 t.!t68 0.2rtt 1.74'É 0. lr57 r.45S2 1.t64t 0.8461 0.0u6 t. décroissant: X.0295 l.os82 0.8675 r.901r o.733t 0.3t62 -0.1026 o.0{t8 1." -'.(xn.3ss3 0..29t0 0.2''45 -O.6r95 0.E85t 0.37t 0.5t2t 0.26:/3 0.oooo o. xn) extrait d'une loi normale N (0..3799 r.5]68 0. r35C 1.o29ô -0.207t 0.t t l.5720 -0.9097 t.7251 0. 0.%7t 1.4433 0.7532 0.5903 0.5642 0..t ) .) X.rt00 -0.66IE 0.3462 l. E (Xrrr : 3 I ? 3 0.4336 1.1630 t.6t6r 0.(430 0.6839 0.9tr7 0.t690 0. l) ' -E(X.5864 t.2626 t.1558 o.4850 1.4096 o.r4!9 0.J756 0.2602 0.e522 -o.0296 r.5633 t"5815 l.

59t9 0. l24r 0.6318 0.9250 0.4394 0.5208 O.2178 r.3903 0.4129 0.3252 0.8634 0.7531 l.9604 0.7757 1.2457 O.3705 1.3358 0.E983 0.0366 0.0092 1. t6 ul -0"1169 -0.0389 0.8455 0.0000 0.2456 r. S.2014 0.2tA6 0.8236 0.6620 r.1229 t.5296 r.0000 0.6460 0.7099 0. 1515 -0.0000 -0.2751 0.o47t 1.7926 0.2886 0.5359 0.0916 -0.026t l.7291 1.1749 0.4906 r.8260 0.0000 0.t28t 0.1051 l.0162 0.592r 0.2592 0.0804 0.1101 0.4164 l.64.6317 1.0328 0.0824 r.u93 2.8279 0.3575 0.3827 t.2847 1.1980 1.89t4 0.0339 1.9&30 0.9789 0.0804 -0.2520 r.2585 0.4859 0.1568 r.0565 32 33 34 35 36 I I 9 l0 n t2 13 l4 l5 r6 l? t8 r 2 3 4 5 6 t 8 9 r0 ll t2 13 14 t5 16 l7 l8 19 20 2l 2.3573 1.71tû 0.3553 0.tÂ24 1.t60E 1.0755 tâ 37 38 39 2.L707 2.3269 0.9308 0.3833 1.0985 -0.6688 0.0389 0.5s38 t.754'' O.2033 1.5294 0.0697 2.3089 0.0312 2.7287 0.29t 2 0.3934 0.2915 0.a733 0.2316 0.2995 0./635 0.1506 2.6156 r.3%0 0.6904 0.0755 -o.76/+6 1.3637 0.2093 0.5955 0.2283 0.0509 r.432t t.7767 0.0580 346 PH TASSI .5021 0. l16l 0.5780 0.04r5 0.9772 0.1728 l.t643 0.L241 -0.ô820 0.0672 1.7tÉ9 0.5483 0.4176 0.2341 0.7865 r.6515 0.3 166 0.Èr9 r.1842 0.234'' 1.0428 2.6701 0.6043 0.0967 1.2432 o.0610 0.6902 1.rt8t o"7420 0.6944 0.029? 0.4409 0.9062 0.W7 0. t169 0. 1066 2 .t694 0.0000 0.6Ell 0.067ô -0.5419 1.tû62 0.5679 0.{768 1.0415 0.0865 0.2'127 0.6490 0.â666 0.1564 0.0947 2.7316 0.03u -0.4158 0.4418 0.6EE9 0.7r38 0.2 199 0.3296 r. 1647 0 .6271 0.6764 1.0245 0.7036 1.5075 0.0674 r.5r70 r.1835 0.4144 0. t 136 0.3198 0.1351 -0.74L1 1.3648 t.6705 0.7 r 1.2152 0.06ro -0. 1786 1.!065 0.8063 0.tEEt 1.8451 0.46 lt 0.2A42 0.TABLES NUMERIOUES Table no 1O (suite) ESPERANCE DE LA STATISTIOUE D'ORDRE t0 I 2 3 4 5 6 31 2.2666 t.3574 0.1282 0.1739 0.3669 0.0985 0.1957 0.rlol 0.0366 0.1897 1.9384 0.5683 0.0608 0.4904 0.tA75 t.5040 r.6213 0.7166 r. t2r9 0.7645 0.3r5t r.4 169 0.5900 0.3326 0.E007 0.W9 0.lrol 2.1040 -0.0328 0.0346 43 41 42 2.4957 0.1490 0. 1426 0.5804 0. 135 r 0.0833 0.5283 0.6695 0.8106 0.3002 r.3437 1.0712 0.0000 0.2088 0. l 929 0 .386t 0.16u 0.0e92 0.9935 1.3434 0.6 r7 l 0.5555 0"3824 0.6113 0.t136 l.r80! 2.2704 O.20EE -0.9r48 0.3999 1.9979 1.7857 0.2167 r.0674 0.8E68 0.9169 0.3734 0.9590 0. r r8 t 1.1402 0. LEGAIT .

t020 0.0260 0.9902 l.4379 0.0851 -0.3!90 0.!tt6 0.1690 l.25t5 0.0810 1"0942 !.6rE7 t.3r9E r.081ô 0.5217 0.9068 0.407E 1. 96 14 0.2051 0.!rto 0.6356 0.172t 0.60rÉ 0.tA22 t.2331 2.E27l 1.207t 1.2455 0.8366 1.86 t0 0.02tt 0. ll95 0.5982 t.t806 0.8139 0.94s9 0. lsl. u5r -0.00@ 0.1422 0.2636 0.9I'63 0.5766 1.4{x)t 0.1756 0. t.4975 0.4363 0.02tt .93s3 0.2842 1.324t 0.tA 0.1534 0.0174 l.5022 0.trot 0.tllt 0.5933 0.0155 0.257' 0.7198 0. t67l 0.67 rt 0.0851 0. u03 0.68?t 0.053r 0.5875 1.0o4o _ r.t830 0.0509 0.4196 l.2249 2.2236 -0.1070 r.t238 0.(3u l.6552 0.45tt o.TABLES NUMEBIOUES Table no 10 (suite) ESPERAI\CE DE I-A STATISTIOUE D'ORDRE I 2 3 4 t 6 1 € t0 t2 r3 t4 I il l5 lt It 2t 22 l6 l9 l98t 2.uA 0.5763 0.797t 1.3083 l.6oE6 l.ao22 0.4591 0.876t 0.9212 0.6368 0. TASSI . LEGAIT 347 .!!oa 0.tt66 0.2164 2.7875 0.et40 0.1910 0.u60 0.62E5 1.8590 0.2588 t.0000 0.53t6 0.5863 0.0781 0.0260 0. S.2808 2.2361 0.453t 1.6t09 0.7405 0.067t t.08r4 -0.5405 0.c.395t 1.2964 1.1t99 0.8013 1.1422 0.2265 0. 0.r9rt 0.249r r.4935 0.1944 !.2066 r.8549 1.2r85 l.37t.24t2 2.4t89 0.478t 0.7067 0.0271 0.418t 0.7E15 0.g3o4 0.8458 r.1064 0.0250 PH. lllr 2.4't5.10t9 0.9760 0.5159 0.2761 0.0536 0.4191 0.7040 0.!9S! 0.8920 0.tê.6535 0. 0.0271 0.3t'46 o.5t08 0.6219 0.6099 0.0.05t5 -0.t979 0.5586 0.t294 0.E732 0.735 t 0.8u3 l.463? r.0392 t. 20 2l 24 2t -0.t42t l"t55E 1.0749 -0.5616 0.00co 0.5653 t..3lu l.27rt l.05t1 -0.2899 0.t602 0.

2662 0.lt2t 0.2455 o. t05r 0.) = Cov(X..X.O4/.0?ô9 I 0. N (0.t421 5 0.. t233 5 0.0632 3 0.3!32 2 0.0294 ll 0. X") extrait d'une loi classé par ordre décroissant : X..o4t4 t 0.023t I 0.t!2I 0.2359 O.0602 t 0.q91 t 0.0630 a 0. .l0rt 6 0.X.*.07lrt 6 0.09L1 t 0.2567 0.0978 4 0.lt{ I 0.1632 a 0. u2ô 5 0.1511 6 0.ltlt 0.ur9 5 0. l3t8 5 0.239t t 0. Ll07 0.1863 3 0.0é22 ! 0.ô917 0.ut0 6 0. 0.X1" g9 1*..53 1' 0. 4 ! I 2 I 4 5 6 2 !0.070t 0. raoS a 5 0.275t 0.2008 4 0.105t t 0. u56 I 0.1654 t 0..0451 t 0. l7r0 ô 0.1672 5 0.1649 tt a g. u7t 6 0.051.0632 E 0.!919 0.03t1 l0 0.09t4 6 0.3605 0.0727 6 0.0ô92 t 0..1492 I 0.036E 2 0. .3574 2 0.1024 0. l) représente l'observation de rang i dans un échantillon (X.ljto 1r.".uto lrtt 0.1260 a 0.07{2 0.1661 0.).0869 5 0.2197 { 0.0584 0..0267 0. lt49 0.5595 0.04 u 9 0.2796 0.10ô7 0. par n allant cie 2 à 20.E 0.0766 0. LEGAIT .r.S.0Ê30 ! 0.".1397 0.u9 3 4 5 3 I I 2 3 4 t 6 7 2 3 4 5 5 o..1466 0.1962 0.1706 Â { 5 l.3443 0.0?72 4 0.1194 0.iesvaleursdeV(X.09E5 0.225' t 0.1!!E 6 0.0714 0.0434 t 0.0572 t 0. > .089t 348 PH TASSI .2104 i 0.6t17 0.TABLES NUMERIOUES Table no 11 VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE X.r).065t t 0.0401 . t0 I 5 6 t I 2 3 t 5 6 t e I l0 2 ! 0.04It 0.0599 0.. t:lt6 4 0.2 X..3115 0. I 2 3 4 2 3 I 2 3 4 5 2 .tÆ1 0.0787 t 0. l16l 0.. ut? 5 ll I ô 0.09t{ r 0.0561 0.1020 0.094? 5 0.0595 ? 0.1085 0..2145 0. lTEl I 0.03ré 0.1E6{ 4 0.J729 2 o.0523 9 0.ltt0 t 0. 0"0311 2 0.OnaCov(X. uot a 0.068E 6 0.0882 0. L z ! I L ll 4t 2 2 6l 3 I 2 2 I 2 3 ...3 U3 7 Â 3 L 0.2052 ! 0.2868 0. ul70 0.0742 7 0...)etCov(X(i).0976 6 0.2084 0.1656 5 0.t{?5 0. l54l 4 0.076t t 0.1499 0.22ô! g.1059 0.1u4 a 0. ! 0. Cette table iournit..04ê9 0.

tt44 I 0. LEGAIT 349 .t071 5 0.1026 6 0.1$0 J 0.0589 0.0864 6 0.loæ 7 0.0354 l0 0.I26t a 0.1904 J 0.0J91 0.0822 7 0.0537 7 0.0269 t2 0. l5l4 ô 0.0ct0 t 0.0219 c.u9r 5 o.0ô76 0.0609 5 0.052e 4 0.052! l0 0. 1017 0.0677 0.ct84 ll 0.0337 2 3 0.i3 l0 0. tito6 6 0.0886 0.049{ 9 0.0607 t 0.0305 ll 0.0789 5 0.0{50 0.0725 E 0.1:lr0 t 0.0229 Li 0.0890 0. ljtr2 I 0.0809 6 0.0509 8 0.0310 n 0.065t 6 0.0519 9 0.1096 7 0.0671 6 0.0t09 II 0.094t L !t ! 3 J 14 I 7 6 7 t 9 l0 u 4 t ô ? t 9 t0 5 6 7 E 9 6 7 t ? I 0. L'02 4 0.0612 ô 0.0701 9 0. u6E 4 0.0780 0.oE{9 t 0.or3t 6 0.0952 t 0.0937 8 0.10E4 I 0.07i4 0.0517 0.0604 9 0.0ô74 7 0. S. tr?3 ! 0.1657 4 0.0520 9 0.0477 t 0.0809 6 0.0459 t 0.0352 l0 0.1183 0.0701 6 0.0503 9 0.0725 t 0.043ô lo 0.155t 3 0.0361 ll 0.0rot 9 0. u60 ! 3 J 6 tit I a 0. lJ{9 ( 0. t602 3 0.0371 I 0.066 I 0.02tô 3 0.0tr0 t 0.108J 0. lr99 6 0.1032 t 0. tt36 6 0.025t ll 0.0354 l0 0.307t o.0tll 5 0.ut? 0.0992 6 0.05 9r t 0.1032 PH TASSI .0548 ? 0.1266 7 0.1059 4 0.0910 0.0206 2 0.3236 2 0. Lt30 0.0450 4 0.0696 7 0.0679 0.0592 0.0785 6 0.0793 0.05ro 7 0.0!tt 12 0.0273 u 0.09E3 6 0.0439 l0 0.0967 t 0.TABLES NUMERIOUES Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE L ll t 2 J o 12 12 5 I 4 0.0t66 2 0.12t2 5 0. 1167 ? 0.03Ë t 0.1037 0.c719 t 0.0512 I 0.0382 ll 0.1233 0.0443 l0 0.06(0 6 0.3152 2 0.0997 5 0.0184 2 C.0461 t 0.O. u96 6 0.0514 0. t0c9 ô 0.056t t 0.0E59 t 0. u6! 5 0.0660 t 0.0205 u 14 0.

t45t 4 0.0421 l0 0.054t 9 0.0t61 t 0.0641 0.0146 Lt 0. t0t7 I 0.016t tô 0.o49E !.052t t 0.0æ5 0.022t o.0{t2 ll o.0561 0.0t0t l! 0.0445 ll 0.0!90 0.0t40 t o.0475 I 0.0ttt 6 0.06t1 0.0t5{ 0.014/a lJ 0.0716 . utt t o.014t lo 0.0263 0.0r4t a 0.rort 0.03tt 0.0206 t 0.09tt 0. I o.09E5 ô 0.it12 0.02t4 l5 0.0t6t l4 0.0tta t 0. lo tl u u t4 t a 5 ô t t 9 l0 ll u u a t 3 t t t l0 u u t é t I I l! ll 6 r t I lo 0.061t 0.03t6 u o.uu t 0.011ô4 l0 0.01t5 r-Â ut 2 L lt 2 t { 5 6 7 t .0446 t 0.o65t lo 0.074t 0. 1449 I 0.0tl9 t 0. 1059 0.0626 6 0.096E t 0.0t96 9 0.lt9r 0. 6 0.0630 350 PH. to90 t 0.oE42 0.0414 0.o3ô.0t97 t 0.0309 tô 0.0{4t 5 0.0t51 I 0.174{ t 0.05t6 lo 0.0]at 0.0Lrt 2 0.07ô2 t 0. o.otra I 0.074.ocr6 0.0722 . t19l a 0. 12 0.023t u 0.042t 0.0900 9 0.0tta I 0.0{99 0.02u t{ 0.2950 2 0.095t I O.TABLES NUMERIOUFS Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE L1 142 3 L u 0. t02t ! 0.0516 ô o.0561 0.0tu 0.0253 3 0.0392 tl 0.06tt 9 0. Ll6l a 0.0t5t t 0.0to0 u 0.o6t9 0.065.0295 lJ 0.100t 4 0.071( 0.0t6t ? 0.0220 la 0.0275 U 0.0110 tt 0.1119 0.o4tt t 0.0945 0.0195 u 0.0t4t t0 0.. TASSI .0t90 I 0.0æl 0.06æ t 0.050t lo 0.or94 0. LEGAIT . S.030t 11 0.t.0t7t I 0.1u0 t 0.0542 t 0.laot 0.104t 5 0.0tr5 ll 0.0560 o.0il1 t 0.0ut 0.0764 t 16 I 0.tl I 0. tott 6 0.o64t 0.09t7 0.02t6 u 0.0517 t 0.0il{ t 0.03tt 0.t I 0.0t09 0.1. 0.0æ2 0.0t9a 0.02?t u 0. u7t 6 0.o6u t 0.tOUt 2 o.0299 0.o{4t o.0613 6 0. u2ô a I 7 L t o.

0æt ll 0.0929 E o.017t 16 0. r66t I 0.030! ll 0.0127 2 0.02m rt 0.0703 t 0.0531 L l7 ! 5 lll o.072t 6 0.0t6t r7 0.05at t0 0.0{31 lJ 0.02ôt a o.021t 16 0.050t t 0.0965 a 0.or92 5 0. tatt ! 0. trl9 5 0.043t t 0.047t t 0.0932 6 0.0145 ? o.01E2 t6 0.05E9 tl 0.0ut I 0.05t4 9 0. u2{ a 0.0609 ll 0.0273 u 0.oa0E l0 0.o€t2 5 0.0617 I 0.07æ l0 0..ot3l 6 0.2195 2 0.?84t 2 0.o65t l0 0.0tôt l0 0.034a u 0.o60t t 0.0520 r 0.0590 6 0.022t l{ 0.0r9t lo 0.0t3! u 0. 12 0.0rD 2 0.utE L2 0.0611 l0 0.02{2 u 0.0725 9 0.03Eâ 6 0.0900 1 0.1179 5 0.0499 t 0.&31 t 0.o974 ! 0.0429 u 0.0!49 5 0.03E5 9 0. u93 t 0.07J9 t 0.072t 10 0.0656 9 0.0st 9 0.02tt u 0.0tEt I 0.oô{ô 5 0.05E! 6 0.at24 16 0.0ôoo t 0.0too u 0.02?0 rÔ 0.033t l0 0.0875 E 0.ûtr9 u o.09a5 4 0.0679 t 0.08Lt 7 0.05a6 lt 0.027a t2 0.0t79 t 0.0616 7 0.0155 B a L l7 0.045t 9 0.o4tt ll 0. 1135 ô 0.0247 tt 0.066t 9 0.0963 6 o.072t 5 0.05!{.oEu t 0.0110 14 0.0?u 6 0.0531 t 0.0t5t 9 0.0475 10 0.170t 3 0.TABLES NUMERIOUES Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE D ! 4 L s 0.0850 I 0.036t l6 l7 I 2 Itl 9 3 rt I PH TASSI -S LFGAIT 351 .078t 7 0.o(tr 6 0.0614 t 0.042t ll 0.0601 6 0.0roa t 0.0682 lo 0.036t u 0.0t39 5 0.031. t0'4 6 0.070t 7 0.0382 u 0.0562 t 0.0r€ lt 0.06t9 9 0. lt62 ô 0. !0r0 t 0.076t 9 0.o40t l0 0.0t9t ll 0.0969 7 0.0466 I 0. 5 0. to74 6 0.053! lo 0.0t49 la 0.0601 t 0.oaga ll 0.020t 15 0.ltao 5 0.o65t lt 0.o4la lo 0"0170 ll 0.073' 9 0.0247 Ll o.0437 rt 0.

0330 12 0.0992 5 0.0a6J lo 0.0999 0.0t09 0.0326 16 5 6 7 t 9 l0 ll 12 13 la u o.0570 t 0.0561 0.08 90 0.0360 0.071t 0.O42t .0653 0.0627 0.0112 lJ 0.0416 0.0932 0.016t 0.0904 6 0.0150 0. l2t9 a 0.03Lt t9 u 5 6 ? t 9 t0 lt u ll l4 6 7 I 0.0172 0.0245 t5 0.076t 0.0696 0.038{ 0.TABLES NUMERIOUES Table no 11 (sufte) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE L l8 ! 2 J sl8 ! 6 J t0.069ô 0.0314 352 PH.0569 0.0577 0.0.0t21 0.07E5 0. LEGAIT .0377 12 0. 0.0254 u 15 0.059{ I 0.2799 0.0425 0.02t0 0.0790 6 0.0371 0.0967 5 0.0u9 3 0.033t u u 0.0tl! 0-07Lt u t 9 l0 tl 9 l0 I 2 3 a 5 6 7 t I lo 11 l2 lj! l{ u 16 l7 u lt 2 t a 5 6 t t r l0 ll 9 l0 t1 u Lt 7 t 9 !0 ll t9 0.0314 0.161ô 0.o{5E 0.0296 13 0.0929 0.05ô4 I 0.0300 0.0(50 9-9401 0.0734 0.0197 l7 0.0341 lJ 0.0221 16 0.025t 0.oEô5 0.0569 0.95t 0.0225 4 0.02E3 0.o4tt lt 0.05u 0.05u t 0.0505 0.0376 lJ 0.051t 0.0202 t? 0.0571 1 2 J ll 0.0636 0.0246 u 0.0580 0.0669 7 0.06ô7 0.062t 0.0252 16 0.02tt 0.0410 tl 0.0124 0.o64t6 t 0.0522 9 0.02t0 15 0.(x2l 0.02È 16 0.0741 1 0.o2E4 0.0307 ll 0.Lt6t 0.(xt2 u 0.0309 l{ 0.0847 0.0343 14 0.0230 l.0346 l( 0. TASSI .0206 a 0.S.0679 6 0.0520 lg 0. l106 5 0.1257 4 0.0467 0.05t6 0.0181 lE 0.07 u 0.031t 5 0.0664 t 0.0609 0. t075 t 0.o4tô ll !:l 0.0172 3 0.0t10 6 0.0766 t 0.0510 nll 0.096t 0.02t0 14 0.020{ 0.0132 t2 0.0345 0.0270 14 0.0580 0"0490 0.0700 0.037 9 0.0615 7 0. 0.0333 0.0u5 0.0629 0.o46t 0.0853 0.0509 l0 0.0456 t l0 0.0298 13 0.0rri6? tt 0.026 0.

0395 l0 0.049E l0 L! 204 5 t lt 5 6 ? t 9 lo ll t2 Ll l4 0.0205 15 0.0]148 0.0245 l! 0.0557 9 0. l08t 4 0.0319 0.o44t 0.0t21 20 0.0726 t 0.0699 PH TASSI .0599 0.02{5 15 0.2t5? 2 0.0305 l4 0. 0.0631 5 0.0224 l4 0.0911 a 0.0294 13 0.0501 I 0.083ô 5 0.0233 17 0.0416 14 0.0900 .0457 tjt 0.0u6 It 0.094t 5 0.0442 I 0.0259 t6 6 7 t 9 t0 lt 12 u la 15 ? E 9 I0 tl 12 u la 8 9 l0 tl l2 lJ 9 l0 ll 12 l0 ll 0.0ltt tt 0.0373 0.0tot 0.01J I 19 0.0655 7 0.080t t 0.0756 9 0.0670 0.0255 t6 0.075E 0. ui45 ! 0.0690 9 0.0155 It 0.046E 0.0564 0.1047 5 0.0608 ll 0.0167 t9 0.0310 0.0374 0.0211 u 0.04Et ? 0.0ro7 0.1J96 J.0700 5 0.069! 0. S.0703 0. 0.07tt ll 0.067t t0 0.o{ol tt 0.0502 12 0.o9lo 0.olÉ8 0.0ltl 17 0.0396 lr o.063E 0.07/€ l0 0.0856 6 0.0366 12 0.0730 0.04{7 0.044t t0 0.0501 l3 0.057E 7 0.0102 2 0.0611 0.0268 t{ 0.0555 ll 0.0796 0.0284 0.06t2 6 0.o45t t 0.062t 9 0.0269 t2 0.04æ 0.066t l0 0.0667 tl 0.0E56 E 0.0446 0.0147 3 0.0190 4 0.0?69 0.0616 t0 0. u2t a 0.05E2 0.0225 16 0.0235 0.02E5 0. 3 0.0491 0.0171 0 .0t22 L2 0.054t 0.0604 12 0.0172 6 0.0418 t 0.05{0 0.0778 0.065! 0.olo8 0.0329 l0 0.03u 0.05t1 6 0.0589 0.0551 12 0.0535 0.O4o.0379 7 0.0550 9 0.056t 6 0.0205 t7 0.0E26 0.07 13 0.0297 u 0.0341 rJ ll 12 lJ l4 u t6 0.0782 E 0.TABLES NUMER1OUES Table no 11 (suite) VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE n ! 6 J L 20 E 2 l9 20 l0 I 6 0.0641 0.0533 0.01E7 16 0.0794 0.0501 t 0.0872 0.0369 9 0.0342 0.0279 t5 0.06u t0 0. LEGAIT .

I .

20g.S. I 2. Affinité. 266. 78. Convergence dominée (théorème).INDEX A Absolue coniinuité. 282. Distance de lipschitz. 297 . 73. Espace mesuré. Brownien. Borélien" 18. 187. I 66. Centile. 154. 217. 282. Fonction génératrice.l. 227. F eovariance. LEGAIT Famille exponentielle. Fonetion de répartition empirique. Accroissements indépendants. 207. . 284. E Banach. 1 50. Bayes (théorènel. Distance de Paul Léuy. 72. Etendue. Algèhre.83. . Fonction caraetéristique. 292. Distance de Frohorov. 59. 236. 115. Bienaymé-Tchebichev. 3b. 51. Distance en uaùation. Espérance. Gonvergence presque sûre. Corrélogramm e. Approximation. 2. B Décile. PH TASSI . Beppo-l-evi. 3b. 27. Gentral limite (théorènel. Fisher (théorème). Fonction de répartition. Fonetion intégrahle. Etagée (fonct!on). 76. . Bochner. I 7g. Dirac (mesure). 242. 53. Extrême. Espace probabilisable. I 86. Fonction mesurable. D Autorégressif. 31 l. 13. Convergence en probabilité. Expérience. bg. Espace mesurable. 243. 307.|67. I 69. 80. Convergence en loi. g8. 49. S2. I 89. 76. 0istance d'Hellinger. 3 02.l3. Goefficient de corrélation. I 3. 7. Domaine d'attraction. 244. 1 b2. Gomptage (mesure). Sl. Convergence dans l-a. 166. 56. 243. 50. Autocorrélation. 1iZ. Ecart-type. 244. 2S1. 22. Espace probabiiisé. Echantillon. 40. 12.241. 80. gJ. EZ. Cramer-Wold. c Cauchy-Schwarz. 247. Evénement. Convergence dans [r. Fisher (coefficienrs). Autccorrélation partielle. Espérance conditionnelle. Autocovarianc e. Densité. bg. 2g6. 40.l3. Attraction. I 82. 22. 78.46. 7b. Coefficient de détermination. Fonction muette. 214. Cramer-von Mises. 37. 31 1 .

1 10. Loi d'une u. 143. lévy Paul (théorème). K Khintchine. lndicatrice. 277. 277. 223. 1 16. t lebesgue (mesure). 59 lévy Paul (distance). Fisher-Snedecor. laplace.223. 18. I 88. 71. 1 31. 31 4.4. 277. Binomiale négative. loi du type l. 217 . 1 24. 35.253. 65. 243. 248. 87. Mesure. 107. 255. 124. 128. 188. 35. 135. 40.S.a. I 38. I 15. 1 llellinger (distance). 140. Frisch-Waugh. Gumbel. lntégration. Hermite. lnjectivité. 1 17. Henry (droite). Cauchy. I 92. Binomiale. 273. Markov. lntégrale bêta incomplète. Holder (inégalité). Itlormale unidimensionn elle. Masse. Pascal. Jensen. I1. 276. H Logarithme itété. 46. Student. 356 PH.. Hilbeit (espace). Bêta. Loi du gpe . 281. 6 1 . Géométrique. Mesurable (application). 140. 1 16. M lback-Leiblet. Mesure étrangère. log-normale. Mesure discrète. 241. 169. Kofmogorov. 108. Poisson. Uniforme.121. 39. Loi du type all. Fubini (théorènne). 61. LEGAIT . 190. lois usuelles : Bernoulli. Fractile empirique. Gamma. 44. G Gnedenko. 1 :10. Exponentielle. 6 1 Lebesgue (théorème). Multinomiale. lévy Paul (lois). 1 16. 1 1 8. 195. 78. 1 09. 86. Dirac.52. loi conditionnelle. I 13. 1 69.INDEX Fractile. ltlormale multidimensionnelle. Médiane. lnversion. Grands nombres (loil. 264. Kuf Weibull. loi des extrêmes. 1 08.77. Loi marginale. lndépendance. Hypergéométrique. lebesgue-Nikodym. 302.243. 24. 37. TASSI . 1 19. Khi-deur 136.

244. N ilégligeabilité. 3l g. Type. W Woltowitz. 84. Trajectoire. V Valeur extrêm e. Stationnarité stricte. 2gl. 189. 2gZ. Tribu produit. Variances-Covariances (matrice). srabiliré. Tribu. Référentiel. T P Papier fonctionnel. Happort de corrélation. 1 42. Moyenne quadratique. Prohorov.271. 21 4. 0uartile. Somme (de v. 278. 3l I Moyenne arithmétique. 0 0pérateur. I 72. Translert (théorème). 21 1.a. I 71. Processus équivalent. 2b3. 1 50. Polya (théorème). Ouasi-étendue. Poincaré (formule). Stationnarité. Mouvement brownien. 12. Radon-Nikodym. Presque partout. Pearson (distance). 194. 291. Variance. 1 70. Tableau statistique. LEGAIT .318. Processus de Poisson. 75. . 2 9 1 . 26 1. I3.253. Tribu borélienne. 246. 2 g0.). 261. 44. 62. Statistique d'ordre. Processus autorégressif.315. 281. Pearson (coefficients). 266. PH TASSI . s Slutsky (théorème). Vitesse de convergence. 92.S. 0rdre. 37. Moment 75. Tribu engendrée. 307. Presque sûrement 54. Variable aléatoire. 1 6. Yu|e. Probabilité conditionnelle. 168. 43. 2 84. 310. 258. R Mesure o-linie. Bésulrar. 40. Stationnarité laible. 247. Processus stationnaire. 23. 1 71. 1 01. Minkowski. 71. Proximiré. Probabilité. 18. 78.281. Statistique descriptive. Processus moyenne mobile.247. Processus. Processus de vie et de mort. 304.INDEX Mesure image. 54. Mesure produit 64. 12. 1 7. 0rdre (statistique). 289. 43.82. 31 1. 54. 21. 6 1. 290.

.

P.lmprimé à I'INSTITUT FRANCAIS DU PETROLE B. 311 92506 RUEIL-MALMAISON CEDEX FRANCE Dépôt légal 1"'trimestre 1990 : Achevé d'imprimer en janvier 199O No d'ordre éditeur : 8O5 .

.

7 108-0582-0 ./ r lsBN 2.