You are on page 1of 27
Chapitre 3 Variable aléatoire discréte 3.1 Variable aléatoire 3.1.1 Définition générale Definition 19 On appelle variable aléatoire le résullat d'une épreuve aléatoire lorsque Uissue de celle-ci peut étre représentée par un nombre, Une variable aléatoire est généralement désignée par unc lettre majuseule X,Y, ete. et peut ‘également étre définie en tant qu’epplication depuis V'univers @ dans R xX: 25k wr Xu) en considérant « € comme une réalisation particuliée de I'épreave en question. L'ensemble des valeurs numériques prises par X est pour cette raison noté X(N), puisquil s'agit de image de 0 par X. 3.1.2 Variables aléatoires diserdtes Définition 20 On appelle variable aléatoire discréte une variable aléatoire qui ne prend que des valeurs ponctuelles (Nisolées"). Exemple 18 ~ Résultat d’un jet de dé. Le résultat X est une variable aléatoire X03 014 X(u) 4 valeur dons X(M) = {1,2,3,4,5,0) = Lancer de 2 pitces de monnaies identiques dont Vissuc est P (pour pile) et F (pour face). L'univers 9 = {PP,PF,FP,FP} est pas composé de grandeur numériques mais on peu! par example s'intéresser au nombre de fois 0% face (F) est appara, définissant ainsi une variuble ulgaloine X :% —> {0,12} CR Adéfinie par te tableau n Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE % [PP [PF] FPL xXfels [i fe Cette application ne prenant qu'un nombre fini de valeurs, la variable aléatoire X est discréte ‘avee X(M) = {0,1,2}. Les évinements (X = 24} (2% étant une valeur possible de X), engendrés par les différentes var leurs prises par une variable aléatoire constituent les évenements élémentaires de X. Les évenements. Elémentaires de Pexemple précédent seront ainsi notés {X = 0} ("Aucun face n'a été tiré”), (X = 1} ("Un face a éé tire") ct (X = 2} ("Deux faces ont été tirés"), (On définit done naturellement des variables aléatoires en associant un nombre a chaque événement Elémentaire. Comme on le verrs, "étude systématique des variables aléatoires fournit. un cadre théorique d'étude des phénoménes aléatoires. 3.1.3. Variables aléatoires continues Définition 21 On appelle variable aléatoire continue une variable aléatoire dont Vensemble des valeurs est R ou une réunion dintervalles de R. Exemple 19 - Durée de vie d'une ampoule éléetrique : Bien que n'étant pas étemnelle, on considére souvent qu'une ampoule éléctrique peut avoir n'importe quelle durée de vie et qu'elle Peul tomber en panne ou ne pas tomber en panne d tout moment. Aucune durée n'est exclue et la variable X qui ta représente est une variable aléaloire continue dont Vensemble des valeurs est Rt = (0, +00]. Dune moniére plus réaiste, les ampoules ont une durée de vie marimale DEX est une variable aléatoire continue d valeurs dans Untervalle X(0) = (0, D), durée mazimale étant souvent inconnue, on considie généralement X(Q) = Ri. ~ Etude de la taille dans une population donnée : Si on considére sur ‘une population de taille N dont on note t; la taille de chague individu i (t= 1,...,N), la variable X qui dénote la {aille d'un individu de la population pris au hasard, ensemble des valeurs prises par X est ensemble discret X(O) = {tutay...stu}. Méanmoins, la tale d'un individu pouwant a prion prendre toute valeur réelle positive, on considére pour étudier des populations en général que X peut également prendre toutes les valeurs réelles et et donc une variable continue d valewrs dans R* (ou dans un sousintervale sion veut considérer une taille mazimale), sais la Dans la suite de ce chapitre, on ne considerera que des variables aléatoires diserétes, 3.2 Loi d’une variable aléatoire discréte 3.2.1 Définition Définition 22 La loi d'une variable aléatoire discréte X est une probabilité Py définie sur ses évinements élémentaires par application Px: X19) — (0,1) 2 P(e) = PUK =2)], Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 26 On note invuriablement PIX’ = 2}) PIX Ja valeur . On vévfic aiséanent. que cette application est bien Vensemblo X(9) des valeurs prises par X. {,Px(2) on p(x) Ia probabilité que X prenne ine probabilité dont Punivers est Exemple 20 Si on reprend Veremple d'un dé a siz faces équilibrées, ef que X représente le résultat d'un jet, on a X(M) = {1,2,3,4,5,6} ot directement (1, 2,3,4,5,0)] = PIX € (1, Px[X(0)] = 4,5,6)] De méme, Paxiome de Mévénement impossible (Px [0] = 0) et de additivité pour des évinements disjoints sont vérifiés. Donner la loi d'une variable aléatoite revient alors & donner les probabilités wentaires qu'elle induit, et on présente souvent ces données sous forme d'un tableau, en notant dune manitre générale X(Q) = (#;)eor,... = (71)2,-+-,2~) pour une variable léatoires & N valeurs possible (qui ne sont pas foreément 1,2,..-,¥), des événements X[al=[- [ew Px [ms [m | [ow it Yon note respectivement py = Pax(1) = P[X = 1}, pp = Px(2) = PX = 2), ..., pw = Px(N) = PA = NJ. Ce tableau peut se représenter graphiquement par un diagramme en batons. Exemple 21 9 = {PP,FP,PF,FF},X = nombre de "Face" i |wen|aig|ae: Px(z) | 1/4 | 1/2 | 1/4 cat 3.2.2 Fonction de répartition Définition 23 Une loi de probabilté est souvent définie d partir de sa fonction de répartition F: R= (01) ar Fla) = PIX < 2] parfois également appelée fonction cumulative car on cumule les probubilités de toutes les valeurs inférieures ou égales & x. Scanned with CamScanner CHAPITRE 3, VARIABLE ALEATOIRE DISCRETE, a Dans le cas discret, il sullit d'additionner les probabjlités élémentaires Fa) = ai] be APN =n] = pitt ty Propriété 22 Si X est une variable aléatoive discréte de fonction de répartition F, alors on a les proprétés suivantes ~ P est une fonction en escalier ave litty-s-oe F(a) ~ F est une fonction ervissante. ~ Pour tous a,bER eta 0, Pry) = PY =9)=P(X|= val PIX = vu}U {xX = -va}] PIX = ya} + PIX = — va} Px(vi) +Px(-vo) (On peut déterminer Vespérance de ¥ & partir de sa loi, mats également directement & partir de celle de X grice& la formule EU = So fz)Px(2). sexta) Remarque 9 L'espérance E[X] nest qu'un indicateur moyen ct ne peut caractériser la loi une variable alfatoire a lui tout seul 3.3.2, Variance Pour décrie plus précisément le comportement de X, sans pour autant caractériser compldtement Ja loi de X, on peut s'intéresser aux éearts de X par rapport & cette moyenne. Cependant, sion considére simplement Ia différence X ~E[XJ, on obtient un écart- moyen E[X — E{X]} = 0 (par linéarité de Vespérance, voir 3.3). On pourrait considérer la valeur moyenne de |X —E[X]| mais on préfere considérer la moyen de (X ~E[X]), plus pertinente mathématiquement. Définition 25 La variance mesure ainsi la déviation moyenne autour de la moyenne espérée EX], etext dfinie par x VIX] = E[(¥ — BIXI)"] = Ops: (es ELA). am i6t6 24 (formule de Koenig) Elle est toujours positive puisqu'il s‘agit de Vespérance dun On Vexpression suivante ‘V[X] = E[X?] - (EX). (3.1) Définition 26 Pour mesurer la dispersion d'une variable aléatoire X, on considére souvent en. statistiques écart-type, lié 4 la variance par ox = V0) (3.2) Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 9 Exemple 25 Lorsque X est le nombre de face oblenu lors du lancer de 2 pidces équilibrécs, la variance est Vix} = F-0-8 + Farad @-yed, Lelien entre la variance et le dispersion moyenne autour de la moyenne peut étre explicté grace égalité de Bienaymé-Tehebychev (ef (2.6))- 3.3.3 Propriétés de l'espérance et de la variance Propriété 25 (Linéarité de Vespérance) Si X et ¥ sont denz variables aléatoires définies sur le méme univers O et a,b deur récls, BlaX + 8Y] = aB [Xx] + UB]Y) (33) Bn particulier, ElaX] = aE|X]. 'é 26 (Non-linéarité de la variance) Pour toute variable aléatoire X et a,b€R Prop: Wax +0) = aPVLX. Propriété 27 (Inégalité de Markov) Soit X ime variable aléatoire postive d'espérance fini, alors pour tout a> 0 PX 2a] < ZB) (Ga) Propriété 28 (Inégalité de Bienaymé-Tchebychev) Soit X une variable aléatoire réclle de variance finie, alors pour tout a > 0 Pil X -E[X] |2 a] < Aven. (35) 3.4 Couple de variables aléatoires discretes 3.4.1 Définition Définition 27 Un couple aléatoire discret est un couple (X,Y) de variables aléatoires définies sur le méme univers 9 et d valeurs dans X(A) x ¥() = {(z,y) : 2 € X(M),y E ¥(N)}. 1¥ = 1) pour désignr Vévtnement élémentaire (X= 2} (¥ = Par la suite, on notera {X = uh Définition 28 On appelle loi de probabilité ou loi jointe de (X,Y), Vapplication Py de X(9) x ¥(A) dans [0,1] qui d chaque couple d'évinements élémentaires (2,y) associe ta proba- bite Pxy(z,y) = P[X = 2,¥ = y] Dans la pratique, ces probabililés jointes sont données A Vaide d'un tablean A double entrée dont les lignes correspondent au valeurs possiblos 2: € X (A) prises par X, les colonnes & celles 1% € ¥(O) prises par Y, et l'élément de la ligne é et colonne j i ha probabilité jointe Pxy (2, ys) : Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 30 X1¥ wu va . uy uN a1] Pxv(enm) [Pay (ena) Pxv(aiys) Prv(zi uw) | Pxv(za.m) | Pay (etn) Pxv(zasyj) Pxy(z2.yw) | Pry(aw) Pxv (ents) Pry (envy) n_| Pxy(emu) Pay (=n) Poy (ns Uw) Exemple 26 Une urne contient 3 boules numérotées (1,2,3). On tire successivement, sans remise ct équiprobablement deur boules de Uurne. Soit X et ¥ les numéros obtenus aur ter et 2nd tirages. Les résultats du 2nd dépendent trivialement de ceuz du Ler. Pour déterminer la loi dv couple, on utilise les probabilités conditionnelles pour écrire Prv(aya) = PIX =n¥ PY =y|X=2)-PiX La loi du couple est alors donnée par le tableau suivant zw]i]2]3 1 [0 fie fae 2 [wel 0 [ie 3 [elit o Dune maniére générale, on peut calculer Vespérance d'une fonction f des deux variables X et ¥ grice & la loi du couple en écrivant EUGYI= Osa) Pxv(zv). (eanex@xviay 3.4.2 Lois marginales 1 se peut que connaissant la Joi du couple on ne veuille s'ntéresser qu’a une seule de ses cvordonnées : on parlera alors de loi marginale. Définition 29 Soit (X,Y) un couple aléatoire discret. On appelle loi marginale de X Vapplica- ton Py de X(M) dans [0,1] définte pour tout z € X(M) par D Prv (ay). erin) On définit de maniére analogue ta loi marginale de Y. Px(z) = PIX Exemple 27 Dans l'ezemple précédent, la loi marginale de X est ainsi obtenue en sommant les lignes du tableau de ta loi jointe, et est donnée par le tableau = [1]?]3 Pee) 1 fs A tandis que l'on obtient (a loi marginale de Y en sommant les colonnes : i Pr@ [13 [173 [as Scanned with CamScanner CHAPITRE 3, VARIABLE ALEATOIRE DISCRETE, 31 3.4.3 Covariance Définition 30 Soit (X,Y) un couple aléatoire discret. On appelle covariance de (X,Y), notée Cou(X,¥), le nombre réet Cov(X, ¥) = El(X— E00) -(¥ - E(Y)) 6) On peut également la calculer & Vaide d'une formule de type Koenig Cov(X, ¥) = EIXY] - E[X] -E{¥I. Elle permet de quantifier un lien entre les 2 variables marginales X et Y via le coefficient de corréiation pxy donné lorsque @x et ey sont non nulles par Sate) @n exey px Ce coefficient de corrélation est trés utile pour déterminer le lien entre deux caractires en statistiques descriptives 3.4.4 Indépendance ‘Les lois marginales se calcuent simplement. & partir de Ia loi du couple. Par contre, il est. en général impossible de calculer 1a loi du couple & partir de ses lois marginales, Le cas simple de nis c'est variables aléatoires réelles indépendantes permet cependant de retrouver la loi di coupl Join dtr To ens en général Définition 31 Soit (X,¥) un couple aldatoire discret. On dit que les variables aléatoires X et Y sont indépendantes lorsque tous leurs évinements élémentaires te sont dee deus, i ) EX (A) x Y(M), Pxv(z.y) = Px (2) -Py(y). Mees Dans ee ens, les variables sont également non corrélées, c'est & dite que pxy = Cov(X, ¥) = 0. La réciproque est fausse en genéral Propriété 29 SiX et ¥ sont deur variables aléetoires indépendantes, alors EIXY] =E[X]-E1Y], VIN +] = VIX] 4 9] = Vix -¥). La réciproque est fousse = deux variables aléatoires ifiant une des relatione précédentes, peuvent ne pas étre indépendantes. (exo : fabriquer un contre ex) 3.4.5 Lois conditionnelles Definition 32 Soit (X,Y) un couple aléatoire discret. On appelle loi conditionnelte de X sa- chant Y, Vopplication py;y- de X(M) dans [0,1] définie pour tout (z,y) € X(0) x ¥(9) par Pry (x.y) Pry) On définit de maniére analogue la loi conditionnelte de ¥ sachant X, pl ly] = PIX =2/¥ = Nici Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 2 Exemple 28 Dans Uezemple précédent, la loi conditionnelle de ¥ sachant que le chiffre 1 a été liré au premier tirage est donnée par le tableau suivant : ivi) f1a]eai ia Prixlv Ii [0 [1/2 [1/2 On peut également calculer la lot du couple (Ia loi jointe) & partir des lois conditionnelles en toutes circonstances, et en particulier quill y ait indépendance ou non, grace au théoréme suivant. Théoréme 5 Soit (X,Y) un couple aléatoire discret. La formule des probabilités composées permet Wécrire Pxy(z,y) Px(z)-Pyix(ylz) si Px(z) #0 Pxy(zy) = Px(v)-Pxy(aly) si Px(u) #0 0 sinan, En particulier, lorsque X et ¥ sont indépendantes, les probabilités conditionnelles se confondent avec les lois jointes : Pxiy (2 | y) = Px (z) et Pyix(y | 2) = Pry). 3.5 Lois discrétes usuelles On considire une variable aléatoire discrete X sur un univers quelconque 2 Lorsque X prend n valeurs, l'ensemble X (2) des valeurs prises par X est désigné par (1))iet..ns i€. (£152025.-42is++-5EZn)y +0 (zien lorsque X en prend tne infinite. Le comportement aléatoie de X peut étre trea diffrent selon les phénoménes étudiés, et toute forme de loi est a priori envisageable. Cependant, certains paramétres objects de earactrisation (moyenne, dispersion, et.) permettent de dégager des com. Portementsrécurrents et des familles de lois qui permettent une modélisation approchte raisonnable de la plopart des phénoménes stores courant, Nous décrivons ic les lois discrées les plus im- portantes, travers certain exemples de mod2istion. 3.5.1 Loi uniforme sur {1,...,n} Elle modélise des situations d'équiprobabilté Définition 33 On dit qu'une variable aléatoire X suit une loi uniforme diseréte lorsqu’elle prend ses valeurs dans {1,...,n} avec des probabilités élémentaires identiques. Puisque la somme des ces derniéres doit valoir 1, on en déduit qu’elles doivent toutes étre égales dun I/n wl Lee, PIX, On note également ces probabitités px,p(k) ou Px(K). Ces probabilités élémentaires sont en parti- culier indépendantes de la modalité k. Propriété 30 (Espérance et variance) On calcule aisément n+l Ex]=——-, Scanned with CamScanner CHAPITRE 3, VARIADLE ALBATOIRE DISCRETE = Démonstrntion : Lyatea = be 1 aint) ee he $1, Thy k= UGE ext ta somme des premiers termes d'une suite arithmétique de raison 1 de premier terme 1 EX4] = sand, _ Un(nt1)@n+1) “no 6 _ (+ n+1) 6 DL B= MUAH ost un résltat classique qui se démontre par récurrence. Y[X] = E[X7| - (E[X1)*, = +N Qn+1) (net? 6 4 fo+n/ Qnt+1 n+ 6 4 Exemple 29 X = résullat d’un jet de dé a sir faces non-pip Les n= 6 modalilés possibles, 2; = 1, 22 = 2, 23 = 8, 24 = 4, 25 = 5, 26 = 6, ont toutes pour probabilité élémentaire 1/ Vk=1.. et on peut caleuler BX] = J; VIX] =. Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE a 3.5.2 Loi de Bernoulli Définition 34 Cette loi est celle de toute variable aléatoire X modélisant une expérience dont Missue ne posséde que deur alternatives de type "succés ou échec”, "wai ou faux”, "marche ou arrét, pile ou face”, etc. Un succes est représenté par Vévenement {X = 1} tandis que X = 0 correspond a un échec X(M) = {0:1}. Puisque Von a PIX = 0] = 1-P[X = 1], la loi de X ne dépend que d'un paramétre (la probnbilité de suecés) ; on parle alors de la loi de Bernoulli de Paramitre p caractérisée par PIX =1]~p, PIX Propriété 31 (Espérance et variance) ELX] =p, VIX] = Pll»). 3.5.3 Loi binomiale B(n,p) Définition 35 La loi binomiale est la loi de probabilité d'une variable aléatoire représentant une série d'épreuves de Bernoulli possédant les propriétés suivantes : ~ Chaque épreuve donne lieu & deux éventualités exclusives de probabilités constantes petq= 1-p, ~ Les épreuves répétées sont indépendantes les unes des autres. ~ La variable aléatoire X correspondante prend pour valeur le nombre de succés dans une suite de n épreuves. Deux paramétres, le nombre 'épreuves (identiques mais indépendantes) répétées n et la pro- babilité p de succts dans Iépreuve de Bernoulli en question caractérisent. cette loi. Lors dune telle expérience, on dit que X' suit une Ginomiate B(n,p), a valeurs dans X(9) = {1,2,...,n). Exemple 30 Le nombre X de “Pile” obtenus au cours de n lancers indépendants d'une pitce équilibrée est une variable aléatoire discréte, é valeurs dans {0,1} et suivant une loi binomiale B(n,p) avec p= }, puisque ta probabilité de succes est celle d’obtenir un pile, ie. } ‘Théoréme 6 On a par ailleurs Xe tt Xn oii les Xx sont des variables aléatoires de Bernoulli indépendantes de paramétre p, correspondant au succés d'une seule épreuve de pile ou face. Exemple 31 Le nombre de boules rouges extraites au cours de n tirages successifs avec remise (pour assurer Vindépendance) d’une boule dans une urne contenant des boules rouges et blanches pest une variable aléatoire suivant une loi binomiale B(r,p). dans des proportions p et q Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE : 35 Pour déterminer les probabilités des événements élémentaires d’une variable aléatoire suivant une loi binomiale, i nous faut tout d’abord déterminer le nombre de possibilités d’obtenir k succés au cours de n épreuves. Il s'agit de déterminer le nombre de combinaisons (non ordonnées) de k objets pris parmi n, avec bien sir k < n, Les combinaisons sont non ordounées car seul importe avoir k objets (succés pour nous) et non pas & quel(s) tirage(s) ces succés ont eu lieu. On connait le nombre de possibilités de k suecés et n échec, (Ci) il suffit de les multiplier par les probabilités de succts et d’échee pour obtenir la loi binomiale. On a done Propriété 32 Les probabilités élémentaires d'une variable aléatoire X suivant une loi binomiale B(n,p) sont données pour tout nombre de succes k= 1...n par: PIX = 4) = C8 -p*-(1=p)"*. Remarque 10 On a bien, en utilisant la formule du binome, DvEx =a) = Doak pH py fo =1 Propriété 33 (Espérance et variance) E[X] =np, VIX] = np(1 -p). Démonstration Ona Vécriture X = Xy-+Xo-t+--+X_ + --+Xn, ou les Xx sont n variables aléatoires de Bernoulli indépendantes. On a en effet par linéarité de l'espérance n- BX] =0-p E[Xy] + E[X2] +++ + E[Xi] ++ + E[Xn) E(x] et par indépendance des variables aléatoires (Xk)ka1..n VIX] = Via] + VE] +--+ VN] +--+ VEXe)] = 2 VEG] = 9p) « Exemple 32 1, Un atelier comporte 10 machines identiques. Chague machine a une probabilité ‘p = 0.01 de tober en panne 4 un moment dans la journée. Lorsque l'on suppose que les machines tombent en panne de maniére indépendantes, la variable aléatoire X désignant le nombre de machines en panne d un moment donné dans la journée suit une loi B(10,0.01). Le nombre moyen de pannes par jour est donc E[X] = 10-0.01 = 0.1, la variance étant ‘Y[X] = 10- 0.01 - 0.99 = 0.099. 2, Une machine qui a une probabilité p = 0.01 de tomber 1 20 jours consécutifs. Alors, en supposant l'indépendance des pannes, i.e X suit une loi ‘en panne dans la journée est amenée a Jfonetionner pendant ‘si Von considére qu'aprés chaque panne la machine est restaurée d 'identique, B(20,0.01). Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 36 3.5.4 Loi de Poisson Lorsque le nombre d'épreuves n devient trés important, Ia manipulation de ka Joi binomiale devient elle trés fastidieuse ot eat parfois remplacée en premiére approximation par son homologue asymptotique, a lot de Poisson (théoréme 7). Cello-ci évalue le nombre aléatoire d’événements de méme probabilité pendant une durée donnée, Elle peut modiliser par exemple le nombre «appels Focus par un standard téléphonique, le nombre de voyagenrs se présentant. & un guichet dans la journée, ete. Pour des raisons tues ici, lle s'exprime Vaide de Ia fonction exponentielle et dépend. d'un paramétre A > 0, qui correspond au nombre moyen doceurence du phénomiéne observé pendant. 1s durée donnée. Plus formellement : Definition 36 Une variable al¥atoire X suit une loi de Poisson de paramétre d > 0, notée P(A) lorsque X(A) = N et pour tout ke N i Ee Px(k) = PIX = 4] Propriété 94 PIX =k4+1) On admettra que : Propriété 35 (Espérance et variance) EX] = vix]= Exemple 33 Si on sait gu'en général un standard téléphonique rezoit 20 appels dans la journée et que l'on peut modéliser le nombre aléatoire d'appels par unc loi de Poisson, on pourra calculer {a probabilité d’avoir k appels, pour tout k, & Vaide des formules données par une loi de Poisson P20). Remarque 11 Dons la pratique, des tables donnant les probabilités élémentaires pour différentes valeurs du paramétre sont disponibles et uilisées. Propriété 36 Si X; et Xz sont deuz variables aléatoires indépendentes suivant respectivement des lois de Poisson P(A) et P(Aa), alors X = Xi +Xz suit une loi de Poisson P(dy + ds) Démonstration ap PIM =k] = eo PIX: = ka] Scanned with CamScanner CHAPITRE 3, VARIABLE ALEATOIRE DISCRETE 37 z-3] oa MF ea! Me a eret SAL e a (&-a 1s & ae i yst . wy ae f Loy 1 ee“ tany Qa t Aa)* ro eet < 3.6 Approximation d’une loi de Poisson par une Binomiale La loi de Poisson est souvent utilisée comme approximation de certaines lois binomiales pour de grands échantillons, i.e. des lois binomiales correspondant & des grands nombres n d’épreuves de Bernoulli. Il y a bien sir quelques restrictions dont nous tairons ici les justifications théoriques, ct Ie paramitre de Ia loi approximante doit étre choisi de sorte que Vespérance soit celle de la loi binomiale approximée. Définition 37 On dit qu’une suite de variables aléatoires (Xq im €N) convergence en loi vers la variable aléatoire X si et seulement si on a, pour tout événement A PIX, € A] >, PIX € A] On notera Xn > X. Remarque 12 Si les variables (Xq :n €N) et X sont discrétes alors il suffit que pour tout x € R, PX =a] 3 POX Théoréme 7 Soient Xn ~ B(n,p), ¥ ~ P(u). Alors ona: Preuve : exercice! Exemple 34 Conparaison des fonctions de répartitions d’une loi B(100,0.1) et de celle d’une loi P(10)- Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE. 38 Remarque 13 Dans la pratique, on considére que Vapprozimation est bonne lorsque n> 30, p 30, p = 0.1, n-p=10 <5). Ce théoréme nous assure que PIX = Le premier terme de l’égalité est : Ch0.1%0.98 ), 034 PIX Le résullat a été trouvé par informatique la plupart des calculatrices étant incapable de te calculer contrairement a Vautre terme : 10° Ply =5] = Fy exp(-10) = 0,087 Exemple 36 Conparaison des fonctions de répartitions d'une loi B(100,0.5) et de celle d'une loi P(50). Scanned with CamScanner CHAPITRE 3. VARIABLE ALEATOIRE DISCRETE 39 SL MSREHE OS HHOSH HOLS ES Remarque 14 Il existe d'autres résultats de convergence en loi notamment le théoréme de la limite centrale 9 page 46. Scanned with CamScanner Chapitre 4 Variables aléatoires continues, loi normale 4.1 Loi d’une variable aléatoire continue 4.1.1 Définitions Définition 38 On appelle variable aléatoire continue une variable aléatoire dont Vensemble des valeurs est R ou une réunion d'intervalles de R. 4.1.2 Problématique de la notion de loi dans le cas continu Sa loi, c'est & dire la description des valeurs probables de X (avec quantification de ces probabi- lités) est plus briévement. qualifiée de loi continue. La description d'une loi continue differe de celles des lois diserétes puisque pour une variable aléatoire continue X, la probabilité que X prenne une valeur bien précise « Px (z) = P[X = 2] est mule. Ily a en effet une infinité de valeurs dans R ou dans un intervalle, et au regard de toutes ces valeurs précises, le poids de la valeur particuliére est tellement insignifiant qu'il en est nul! Il n'est ainsi pas possible de définir la loi de X par la donnée des probabilités des événements élémentaires. Par contre, il est possible de déduire les probabilités que X prenne ses valeurs dans une partie de R A partir de Ia fonction de répartition qui vaut dans ce cas continu F(a) = P[X <2] =P[X <2} 4.1.3 Fonction de répartition et loi a densité ‘On considére une variable aléatoire X de fonction de répartition Fx. F(z) =P[X yar[XZ$ > 158 =Pz> =#G) = 0.938 Ps x Pim - 30 < X < m+ 30] = 0.997 Autrement dit, lorsque Von a une variable aléatoire qui suit une loi normale N(m,o), on est "pra fiquement siir” que la valeur se situera entre m 3a etm + 3a, Sommes de v.a. normales indépendentes Propriété 44 Soil X, et X deur v.a. indépendentes de lois respectives N(j1,01) et N(H2,02). Alors X1 + Xz suit une loi normale Nj + 42, Va + 4) et Xy — Xz suit une toi N(ur — p2, op +04). 4.4 La Loi normale comme limite en loi Liimportance de la Lois Normale est due A son apparition conne loi limite de nombreux phénoménes, & travers par exemple le célébre Théordme de ta limite centrale, Scanned with CamScanner CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE 46 Théoréme 9 Soit X1,X2,... une suite de variables aléatoires définies sur le méme espace de pro- babilité, suivant la méme loi £ et indépendantes. Supposons que Vespérance ys et U'écart-lype @ de L existent et soient finis (@ #0). Considérons ta somme Sy = X1+...4+Xq. Alors Vespérance de Sq est njs et son écart-type vaut vita. Alors Sn— np ayn converge vers la loi normale centrée réduite N(0;1) lorsque n tend vers Vinfini Zn= Corollaire 2 (Théoréme de laplace) C’est notamment le cas pour une loi de bernoulti b(p) et dans ce cas, Sy n’est autre que la loi binomiale B(n;p) qui vérifie bien les hypothéses. On a: Sam 2, y avec U ~ N(0;1). Dans la pratique, on considére que l'approzimation est bonne lorsque n230, p>O.letn-p>15 Se Ficure 4.3 - Illustration du Théoréme de la limite centrale. Exemple 40 (Utilisation du Théoréme de la limite centrale) Considérons X ~ 5(100,0.4) etU ~N(0;1). On cherche & évaluer PIX < 45) Scanned with CamScanner CHAPITRE 4. VARIABLES ALEATOIRES CONTINUES, LOI NORMALE a7 Pour ce faire, il sufit d'éerire + PIX < 45] = lest facile de voir que les deus événements sont identiques et done que les deur probubilités sont éaales. Maintenant, il suffit de dire que nous sommes sous les hypotheses du Uigoréme 2 (n= 100 > 30, p= 0.4, n-p= 40> 15) et que ce dernier nous assure que X-40 PIX < 45) = P| 1,02] = PV < 1,02] Par informatique on trouve (la plupart des calculatrices étant incapable de le caleuler et aucun Atudiant assez courageux pour ealeuler les 46 termes de la some...) 6 PIX = 5] =) Cfg0.4'0.61-* 0,809 Une tecture dans la table nous permet d’affirmer que PU < 1,02] = 0,849 Ce qui est une trés bonne approximation. 4.5 Lois dérivées de la loi Normale Parfois d'autres lois que la loi normale sont utiles dans les approximations (cf. les calculs d'inter- valle de confiance, de test). Ce sont les lois de Student et du x? (lire khi-deux). Ces lois dépendent d'un paramétre n entier, appelé degré de liberté (d.d.L). De méme que pour la loi normale A (051), on disposera de tables pour ces lois. 4.5.1 Loi du Khi-deux Définition 44 Soient X;,...Xq des v.0 indépendantes de méme loi N (051). Posons x? = Dint.n Xe par définition la v.a. x? suit une loi du khi-deur dn degré de liberté (abréviation d.d.l,). On note (n) cette loi Quelques Propriétés : = x7 2 0, cette loi n’est done pas symétrique, = x? admet une densité, = E(x?) = net var(x?) = 2n 4.5.2 Loi de Student Définition 45 Soient X ~ N(0;1) et ¥ ~ x%(n). Posons 7 Student din degré de liberté et on la note T(n)- iw Alors 7 suit une tot de Scanned with CamScanner Chapitre 5 Une introduction aux Théorémes limite en Probabilités “En essayant continuellement, on finit par réussir. Done plus ca rate, plus on a de chances que ga marche.” 5.1 Loi des grands nombres La loi des grands nombres est la formulation rigoureuse des faits intuitifs suivants ; si on lance un « grand > nombre de fois une pice en 'air, il y aura en moyenne 50% de piles (et donc aussi 150% de face). Précisons cette remarque. On joue n fois au pile ou face, avee proba p de tomber sur pile, Pour 1 nombre de fois un d® & 6 faces en V’air, il y aura en moyenne 1/6 tme des faces qui seront, par exemple, des 4 (si la piéce et le dé sont équilibrés). Il existe deux versions de la LGN qui correspondent & deux modes de convergence : la faible oli on énonce Ja convergence en "probabilite”” ct la forte avec la convergence “presque sire.” (cf. paragraphes suivant pour définition de ces modes de convergence) 5.1.1 Un premier pas : Loi faible des grands nombres Théoréme 10 Soit (Xn)nen- une suite de v.a. réelles deur & deur indépendantes et de méme loi tel que E(X}) <0. Alors, Ye>0 tim P12 D> X-B(K)L> €) 48 Scanned with CamScanner CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 49 Cetype de convergence s'apell la convergence en probabil. Autrement dit la moyenne arithmetique de Xsan Xn converge en probabilté vers Vespérance de X;. Ce résultat pent etve "aclement” Prowvé & Waide de Vinégalité de Vinégalieé de Bienaymé Tehebychev (et. feulle deco), ce gut donne une eaquissed'intition de la vracté de cos propictés, aux plus motivés dente vous 5.1.2 Loi forte des grands nombres existe une version de la loi des grands nombres pour la convergence presque sire, on parle de la loi forte (car la convergence presque sire est plus forte que celle en probabilité.) ‘Théoréme 11 Soit (Xn)nen- une suite de v.a. réelles deur 4 deur indépendantes et de méme loi tel que E(|X;|) < 0. Alors, our presque tout w, lim> YY X;=E(%). On parle de convergence presque sire (p.s en abrégé). Cela signifie que pour presque chaque réalisation w, la quantité moyenne arithmétique des X; converge vers E(X,). Attention, la "vik tesse" de convergence dépend du w. On admet ce Théoréme (LGN) fondamental dont les preuves sont beaucoup plus complexes que celles de sa version faible. Exemple 41 Appliquer ta loi des grands nombres au jeu du pile ou face. Pour i = 1.n, posez x Exemple 42 Application : estimation d'une proportion inconnue. On se propose d’estimer le pa- mamitre p inconnn d'une loi de Bernoulli en observant un grand nombre de Jois un phénoméne Lipite) aléatoire de loi de Bernoulli(p), c'est a dire en observant les valeurs d'une suite de va, Xi indépendantes et de loi ie Bernoulli(p). Considirons une ure comportant des boules rouges en proportion inconnue p et des boules vertes (en proportion 1 ~ p). Daprés la LGN, wn grand nombre de tirayes de boules dans Uurne donnena tne estimation de la proportion p en comptant (la fréquence du) nombre de boules rouges ainsi tirées Seulement, quel est le nombre raisonnable de boules a tirer pour avoir une réponse assez précise ? cette question, on peut fabriquer un intervalle dans lequel on est certain que le 1é. On appelle un tel intervalle, un interoalte de Pour répondre paramitre p se trouve avec une certaine probab confiance. L'inégalité de Bienaymé Tehebychev (cf. feulle d’ezos) permet de donner un intervalle (exo). [ le paragraphe suivant (avec le TCL) donne également un intervalle] Exemple 43 (Sondage) : Avant le second tour d'une lection, opposant les candidats D et G, tun institut de sondage interroge au hasard 1000 personnes dans la rue. On note p la proportion d’Atecteurs décidés & voter pour G dans la population totale et on suppose l'échantillon de personnes intérrogées représentatif. Dans Véchantillon sondé, celle proportion est égale & 0, 54. A aide de Bienaymé Tchebychev, proposer un intervalle de confiance pour p avec un risque d'erreur de 5%, Paut il augmenter la taille de W’échantillon pour répondre dla question ? 5.2 Théoréme central limite On sait maintenant que sous certaines conditions, la moyenne arithmétique Xq = J, Xi/n, de va. indépendantes ayant la meme lois converge vers l'espérance. Ou sait donc que Xn —E(%) Scanned with CamScanner CHAPITRE 5. UNE INTRODUCTION AUX THEOREMES LIMITE EN PROBABILITES 50 tend vers 0. On aimerait aller & V'ordre supérieur et connaitre "la vitesse” de convergence vers 0. Le (TCL) Théoréme central limite répond & la question Théoréme 12 Soit (Xn)no1 une suite de wa. réelles indépendantes et de méme loi, de moyenne met d’écart type o. Notons Alors pour tout intervalle [a;b], on a : limP(Zn € [a;6]) = PCY € [a;8)) ot Y suit une N(0;1). On dit que la toi de ta va, Zy = ~2%=2) converge en loi vers une normale centreé réduite (051). Autrement dit les sommes renormalisées se comportent asymptotiquement comme Ia loi normale. De fagon générale, V'écart entre les moyennes arithinétiques et lespérance (eart qui tend vers 0 par la LGN) se comporte aprés normalisation comme Ia loi normale (ou bien encore en notant que Xq—m= 2D 1,n(Xi—m), la moyenne des éearts (renormalisée) "tend" vers une Gaussienne.) Connaissant la densité de la loi normale, on peut le “lire” intuitivement comme suit. Si n est assez. grand alors Zest Urs probablement compris entee -3 et 3 (Ia probabilité est 0.9973). Soit encore + Xt bX avec grosse probabilité. Remarque 19 4. Quelgue soit la loi des X; (moment d’ondre 1 fini), les sommes renormalisées convergent vers tune meme toi limite, la loi Normale, ce qui explique le nom de cette loi et son caractére universel. 2 Le i est nécessaire! Prendre 3. En pratique, lorsque Von considére un grand nombre de v.a. indépendantes et de méme loi XiysXny on approzime leur somme Sq ou leur moyenne Xq par des variables normales "~N(0}1) et regander les variances des 2 termes. suivantes : Sn~N (nm; Vio) et Xy~N (mio/VA) , ot: m= E(X3) et o? = var(X). 4. Si Von prend X;~ Bernoulli(p), on retrouve qu'une Binomiale approche une Normale. [On @ done deux approximations possibles pour les lois binomiales B(n;p) : celle par une loi de Poisson P(np) lorsque n est grand, p petit et np de Vordre de quelques unités et celle par N (np; Jap = ) lorsque n est grand. Seule la prutigue permet de décider laquelle des deur est la meilleure approzimation. | Scanned with CamScanner

You might also like