You are on page 1of 80
tirage exhaustif donne en effet des estimations plus précises. Pa: contre, la loi hypergéométriq ue a des propriétés moins simples ct ¢ lle est d’une utilisation moin s commode que la loi binomiale. Toutefivis, dés que ’effectif N de La population est grand par rapport a celui n de |’échantillon, la loi hypergéométrique devient txés proche de la loi binomiaile et peut, en pratique, lui éare assimilée. ie Definition ‘Reprenons le schéma de I’ ture contenant N boule de deux catégories Des boules blanches B, en proportion p, Des boules rouges en proportion q= 1-p On effectue n tirages successifs d’une boule, sans remettre celle-ci dans l'urne avant | es tirages suivants, ou, ce qui revient au mame, on préléve d’un seul coup un échantillon ce n boules. La variabie alé atoire hypergéométrique X est définie comme le nombre cle boules blanches obtenues em ces n tirages Loi de probabilité Dans le cas de la loi binom iale, du fait de la remise de Ia boule dans I’ume, les tirages suecessifs étaient indépendsants. Pour la variable hypergéométrique, il en va autrement : 1x: probabilité de tire ie blanche au idme tirage dépend du résultat des tiragers antérieurs. En effet, la composition de l'urne varie au fur et & mesure des épreuves. L’effectif de 'ume s*épuise peu a peu, d°ot le nom de tixage exhaustif donné a ce mode de sélection d’un échantillon. Exemple . Soit une ume contenant 10 boules dont 2 bLanches B et 8 rouges R. La loi hypergéométrique correspondant au tirage d’un échantillon dans cette ume a pour paramétres : Ne P=0,2, la proportion de boules blanches ( composition max (0,n — Ng) On a Gone, en définitive : max (0,n— Ng 50 et p< 10% Liintérét de pouvoir remaplacer Ja loi binomiale par Ja loi de poisson est la plus grande commodité d'emploi de ceite demiére :celle-ci ne dépendant que d'un seul pararnétre m, les {ables donnant les probabiilités de la loi de Poisson sone des tables & double entrée 4m et x) qui tiennent au maximum en quelques pages, au lieu d’un fort volume pour les tables A triple entrée ) de la loi binomaiale Cette convergence de la levi binomiale vers la loi de Poisson explique que l’on rermcontre celle- ci, par exemple, dans les ¢ as suivants : ~ Nombre de pigces défectueuses dans un échamtillon important prélevé aus cours d’un Processus de fabrication en série : en général, la proportion de piéces défec-twcuses dans ensemble de la fabrication est faibles ; ~ Nombre d'erreurs commises lors de l'inventaire d’un stock comportamt un grand nombre d’articles différents ; d’une fagon gén érale, nombre d’erreurs c ommises au cours dune longue suite d’opérations Démonstration. Soit X une variable aléatoire bin omiale : - CE PF(1— Py Posons : mp=m+e. PX pyrex On peut écrire peR@aDin-241 (np) 7 = G-ee | Soit pyhnDakemett) (mye 1 me a OF =10-41).. Quand n> 0 et p + 0, de sorte que np — rn fini : apa..d 451 C= a, Car on sait que ¢1~ tend vers 0 Dans ces conditions: Pp e7™™= B- Le processus de Poisson Un processuss se rapporte la réalisation d “événements aléatovires dans le terraps, par exemple “pares de machines, arrivées de bateaux dans un port pour changement, appels téléph oniques sur une ligne, arrivées de clients & un comptoir. Supposons q ue la réalisation d'un événernent particulier ( par exemple, un appel téléphonique ) obéi sse aux conditions suivantes -La probabilité de réalisation de I’événement au cours d’une petite période de temps dt est proportionnelle a la durée de cette période :pdt : ~Cette probabilité est indépendante du nombre d’événement s qui se sont produits antérieurementt, et reste constante au cours de la période d’ob servation -Laprobabilité de deux apparitions successives de cet événement sur un méme petit intervalle de temps de est négligeable Moyennant ces hypothéses, le nombre X d’événements enregistrés au cours d'un intervalle de temps de durée T est une variable aléatoire de Poisson de parsamétre m= pT Cette propriété explique que I’on rencontre en pratique la loi de Poisson dans dl'assez nombreux cass ait les hypothéses précédemtes sont plus ou moins rigoureusement satisfaites, 1 cn est ainsi pour ~Les arrivées cle navires dans un port, de véhicules & un péage d'autoroute, camions aun poste de chargement, d’avions un a&roport, de client A un guichet : Les pannes de machines ; -Les appels té1éphoniques ; -Les ventes d'un appareil déterminé dans un magasin, la demande d'un eertain modéle de pice de rechange en réserve . -L’émission de particules radio-actives, etc, C-SOMME DE VARIABLES DE POISSON INDEPENDANTE$ La somme de 2wariables de Poisson indépendlantes de paramétres respectifs. m= m+ mz: X=P(m) Xp=P(Xa) ¥ =X, +X,=Pom, +m) Ce résultat s’étemd, bien entendu, a un nombxe quelconque de variables de Peisson indépendantes : Z=m, +m + +m 4-Caleul pratique des probabilités. Tables de la loi de Poisson Le calcul numérique des probabilités de la loi de: Poisson, bien que plus simple que celui de la loi binomial, reste cependant assez fasticieux Exemple. Consid érons la loi de Poisson de para métre m = 1,2, Calculons, par exemple, la probabilité de Ea valeur modale. Le mode est la valeur enti¢ © comprise entre 7m ~ 1 et m = il est cual A Py=e2 En prenant le logerrithme de P, Ona InP,= In1,2-1,2ine=0,07918- 1,2x0,43429= 1, 55803 dou P,-0,36143 Comme pour la Ici binomiale, on obtiendra les zuutres probabilités avec un minimum de calculs, en utilisazt la relation liant deux probabilités successives = Presa mm Py aT Ce calculs font | objet du tableau qui suit. Iss sont beaucoup pl us aisés que ceax de expression binorniale exacte correspondant ( jaar exemple n= 40,p = 0,03 Il existe de tabless qui permettent d’éviter ces caleuls. La distribution de Poisson ne dépendant que d’un scul paramétre m, ces tables sont a double eratrée (m et x) et: d’un usage beaucoup commode que celles de la loi bimomiale. Les tabless données fournissent les valeurs numériiques des probabilitésP,et de La fonction de répartition F(x) Pe-P(X =x), F(X)=P(X Fonction de répartition Osixb Valeurs catactéristiques ci a Boe Vor Soa 8 2- Loi exponenticlle Définition Soit «un réel strictement positif . On appelle variable exponentielle, de paramétre @, lune variable aléatoire absclument continue admeteant comme probabilité la fo nction f telle que : fOsix<0 fer oe Fonction derépartition La fonctiom de répartitionF” est donnée par _f0 sixO leurs carseteristiques EQO=: YO) Zz atty=t DEFINITION DE LA LOI DE PROBABILITE NORMALE La distribution normale est une fonetion de probabilité continue représentée par une courbe en cloche, symétrique par rapport a la meyenne et de concentration normale (moyenne), A mesure qu’ors’éloigne de la moyenne, dans les deux direction, lacourbe approche de |'axe horizontal, sans jamais le rencon trer ( situation asymptotique ). De toutes les distributions de probabilité, c'est la. distribution normale qui est la plus fréquemment utilisée en ansalyse statistique. En effet, la nature aussi bien que ’imidustrie offrent de maultiples exemples de distributions norrnales ; ainsi la répartition dle poids et des tailles dans une population nombreuse, ou les variations de dimensions des pices usinées par une machine, lorsque les quantités procluites sont importantes. Par ailleurs, Ja distribution normale pemet dans de nombreux cas d’approcher cPautres distributions, telles la distribution binomiale ow la distribution de Poisson. Enf in, dans le cas d’échantillonr répété, les moyennes et les proportions des échuantillons présentent souvent une distribution normale, indépendamment de la distribution de la population consi -dérée. Une distribution normale récluite est une distributionmnormale, oi m = 0 et o = L, Toute distribution normale, définie par des valeurs particuliéres de m et de o? , peut étre transformée en distribution normale réduite en posant m = 0 et en exprimant les écarts ar rapport a la moyenne en unités d’eicart-type. Nouss pourrons souvent détexminer les aires représentant les probabilités en convertissant les valeurs de X en valeurs comrespondantes de T=" et en utilisant les tables A- LOI DE PROBA BILITE NORMALE Soit une variable aléatoire X continue. On dit que X stait une loi de vprobabilité normale (ou de Laplace-Gauss) si ~ _ ses réalisations appartiennent a Vintervalle (—20, +00) , ~ _etsi la densité de pro habilité, associée a ses réalisations est définie par i Qn o ole)” ma = 3,141 59... 2,71 8 26 ... (base des logarithmes népériens) ; 7a eto sont deux paramétres, m queleonque eto positif: nous verrons plus tard. que ra. est égal 4 l'espérance mathématique fou moyenne) et: ¢ l’écart-typpe de la distribution. Lax variable ‘rormale est donc entigrement définie par sa moyenne m et son écart-lype 0. La fonetion de réparttion, qu.ireprésente la provbabilité que la Sariable aléatoire X ait une valeur inférieure & x a pour expressi on : 1p 1pe— m2) exp Pg a | vinad $ ymboliquement, nous notercons : x =N(m0), Pour indiquer que la variable aléatuire X suit ume loi normale ele paramétres m et o. La loi normale dépendant de cleux paramétres, on pourrait penser que les tables de cette loi soit 4 triple entrée (m, ¢ et x) et, par conséquent, comme elles de la loi binomiale, fort volurnineuses ot d'usage peu commode, Fortheureusement, il.n°en est rien : de la connaissance de lax loi pour une valeur déterminge de m et de 0, on peut Aéduire de fagor trés simple les distributions de probabilité comespondant a n™importe quelle autre valeur de 1a et de o. A. Loi de probabilité normale réduite Faaisons le changement de variable - *Vexpression « exp[_ ] > est utilis €e lorsque argument de la fonction exponentiolle est plus long qu'un m seem) |- ents) seve r0pe desde: | que X soit dans Pinterva lle infinitésimal (ac, x + dx) est: a 1x — my? fod wees Ss) Jax Puisque : =" = ¢, x = ot +m, dx = odt, apres changement de variable, lex probabilité que T se trouve dans Vintervalle (t, ¢ + dt): y(at = T ext done aussi une variable aléatoire normale, de pararétres m = 0 et ¢ = 1. On Pappellle variable normale centrée réduite : centrée cat son origine est la moyenne m, et réduite car pour Ja rmesurer on prend pour unité I’écart-tspe o, On dit encore : variable normée {moyenne nulke et Ecart-type unite), ble toutes les distributions normales se ramé Par ce changement de v de Ja variable normale centrée réduite. La densité de probabilité de la variable normale centrée réctuite est : (=e? o- tet a V2n Et sa fonction de répartition, notée [](¢) -ocacte si tee © =Pr<3 ole On -Yérifie que la somme des probabilités est bien égale a 1 : tee ty Saran T=) =f" reoa Usa ge de la table de Ia fonction : W(0, 1). Lal lure de fa fonction VO, 1) est Ia suivante : ye f(t) La fonction est symétrique : f(t) = f(—t). Les tables (Cf. annexes Ket I1) donnent les valeurs de la fonction, uniquementpour les valeurs positives de la variable t. Bx k 0 = 039894 = 1) Goon 0.24197 t=—1 y=0,24197 t= 4 y=0,00013 t= 4 y=0,00013. La courbe est pratiqueme nt asymptotique pour |t| > 4. La fonetion intégrale []Ct) de la loi noxmale, centrée, réduite W(0, 1). En intégrant la fonction F(t), densité de probabitité de 1, on définit la. fonctiors intégrale de la loi nommale, conirée, zé> est utilisée lorsque I'argument de la fonction exponentielle est plus long qu'un simple ¢ roupe de symboles : exp He2)] oes) Puisq ue : = 1 X= ot +m, dx = o dé, aprés changem ent de variable. la probabilité que T se trouve dans Virstervalle (t, t + dt) (ode =e Fa ‘t)dt = —e TZ dt. ‘ Vin T est done aussi une: variable aléatoire normale, de paramétres m = 0 et o = 1. On Fappelle variable normale ce.ntrée réduite : centrée ca son origine est Ta moyenne m, et réduite car pour la mesurer on prend pour unité I’écart-type o. On dit encore : variable normée (moyenne nulle et écaxt-type unité), Par ce changement Ge variable toutes les distributions normal es se raménent a une seule : celle de la wariable normadle centrée réduite. La densité de probabilité de la variable norm ale centrée réduite est a ae ectcte Et sa fonction de répartition, notée [](Q) M@ = Perec Vin On vérifie que la somume des probabilités est bien égale a1 : a nee) = f “peat Eneffet : (1 (+))? Tm 20 Ja nope +0 du alae mal, [=| zi tua)|de du Effecturons le changement de variables (passage en coordonnées polaires) t= rcos0, u=rsin 0. Ona: eeu dt du =rdr do dans ce nouveau systtme de coordonnées, |élément différentiel d'aire comespondant au rectangle infinitésimal de c6tés d¢ et du est, en effet, V'aire comprise entre les c ercles de rayons retr + dr et les droites d’angle polaire 6 ety 0 + d@ (fig. 25). a Or Dot D. Forme La courbbe de densité de probabilité de la loi de Laplace-Gauss se présente comame une courbe symétrique a un seul mode, ses branches extxémes se raccordant tangentiellement a I’axe des abscisses. Cette forme particuliére lui a valu 1a dénomination de courbe en cloclhe (fig. 26). Les observations sont groupées autour de la moyenne : 50% somat dans Vintervalle (m~20,m +20), 68% sont dans l’irttervalle (m — ¢,m +0), 95% sont dans "imtervalle (m — 2¢,m +20), 99,7% sont dans I’ antervalle (m—~ 3, m+3 a). En pratique, la quasi-totalité des unités sont donc rassemblées dans un intervallle de six écart- type autour de la moyenne. La valeur de la moyenne détermine la position de la courbe : des courbes de méme écart-type se déduisent par transition, Suivant la valeur de l’écart-type, la —c0, Et asymptote a la droite d’ordonnée y = 1 pour x + + 0. 3. Enraison dela symétrie y(¢) est maxim um pour t = 0. On vérifie que la dérivée : yM=- te z, i wen S’annule pour t = 0 Cainsi que pour ¢ + ©). La valeur du maximum est y(t) = 7. Ce maximum correspond au point d’inflexion de la courbe [](t). 4. Ladérivée seconde de la densité de probabilité : 1 e (= Fees te Svannule pour ¢ = + 1, la dérivée troisiéme ¢tan t différente de zéro. La courbe de densité de probabilité a donc deux points d’inflexion pour t = — 1ett = +1 La variable normale de moyenne m ct d’écart-typse o,, qui se déduit de la variable centrée réduite par la transformation inéaire : x=ottm @ une courbe de denssité de probabilité symeétrique par rapport a m(t = 0) et deux points @inflexion pour x = rn — o(t = —1) etx = m-+a (t= +1) 2. Caractéristiques de la loi normale - A. MODE Du fait de la symétrie cde la courbe de densité le mode est égal a la moyenne m B, ESPERANCE MATHEMATIQUE, L’espérance mathématique (ou moyenne) de la ici normale est égale & m. E{X}=m Le paramétre m de Ra loi normale a done une signification particuliére, c’est la moyenne de la distribution. Démonstration. En raison de la symétrie, l'espérance mathématique de la variable normale cenirée réduite T ese nulle, En effet, par définition E{T} al te “hat, Ce qui peut s*écrire, en décomposant l'intervalle d’intégration : 0 EQy= fe eh az, La fonction g(t) = € e~/? est impaire, c’est- 9) = —g(0). Par suite a Ie ePrar=— ef vette, D’ot ET} = La variable normale de paramétres m et c, se déduit de la variable centrée réduite par la transformation linéaire : X=oT +m En vertu des propriété de I’espérance mathémati que (voir chap. I, p.47) : Ex oF £T} +m, Dou: EQ =m C, VARIANCE La variance de la loi normale est égale & 0 VEX} = 0? Le paramétre ¢ dle la Joi normale a done, lui acassi, une signification trés precise : c'est écart- type de la distrib ution. En définitive, unc loi normale est, par conséquent, enti¢rement définie par la connaissance de sa moyenne m et de som écatt-type o. Démonstration. Par définition V{T} = E{T — B{T})") = Efr?}, Puisque E{T} =O: = J ef(de = Er?’ En intégrant par parties : Le premier terme de la somme est nul et Je second est égal 1, car c'est la somme des probabilités de la Loi normale. v{T} Lécart-type de la variable normale centrée rédesite est égal a l'unité. La variable normale de paramétres m et o, se déduit de la variable centrée réduite par la transformation linSaire X=oT+m En vertu des propritétés de la variance (voir chap. 1, p.52): VX} = 02 Vir), Dod: Vix} 3. Conditions d’application A. LE THESOREME CENTRAL-LIMIT Laloi normale st d’application tres généralle. Elle est, en effet, engendrée, sous des conditions tres peu resiricti-ves par J’addition de causes de fluctuation nombreuses: et indépendantes, 11 S‘agit la d'un thEoréme trés important du Calcul des probabilités, le shéor2me central-limit, Soit une suite de variables aléatoires X,, M .... Xq correspondant aux «lifférents facteurs de fluctuation et v &x ifiant les conditions suivamtes : 1. Les variables X, sont indépendantes ; 2. Leurs N(rp,./mpq). Ce résultat esst trés intéressant en pratique : si p n’est pas trop proche de 0 ni de 1, il permet de remplacer la loi_—binomiale. © par da_—Ssdoi_—sneormale = dés_-— que nest de|'oralrede quelques dizaines d’unités. Naturellement, approximation est d’autant meilleure que p et q sont plus voisins de 3, la loi binomiale qui est alors symétrique, S‘approchant plus rapidement de la loi noxmale, elle-méme symétrique. Dans cette opération, une variable discréte et susceptible de prendre seulement un nombre fini de valeurs est remplacée par une variable continue et dont le champ de variation est théoriquemert infini. En réalité, les probs bilités deviennent rapidement si négligeables lorsque la variable mormale tend vers +00 0u —0o, qu’un phénomene fini peut-étre trés bien étre représenté par une loi normale. Le passage dune variable discréte A une variable continue entraine par ailleurs, quelques précautions dont il sera fait état lors de | “exposé sur utilisation pratique des tables de la loi normale (voir § 4, p. 112) Habituelleme nt, on accepte U'approximation de la loi binomiale par la loi normale lorsque les produits np et ng dépassent 15 d 20 unites. ‘a lendance Cle la Joi binomialc vers ia loi normale est une conséquence directe du théoréme central-limit. La variable biinomiale X de paramétres n et p, peut en effet étre consiclérée comme la somme de n variables de Bernouilli X; indépendarttes (voir Chap. Il, section I, p.63) : XS My thy tot Xq Les conditions d°application du théoréme centra-limit sont réunies 1. Les variables X; sont indépendantes ; 2. Leurs espérances mathématiques et leurs variances existent : E{X3 =p, Vik = pg; 3. Le rapport de la variance d’une variable de Bernouilli particuliére a la somme des variances : Ve) ara ini V 4X} mpq on tend vers 0 queind n augmente indéfinimens. La variable X, quand n augmente indéfiniment, tend donc a suivre une loi normale de moyenne et de variance jnomiale tend vers la loi normale repose sur approximation des factorielles par la formule de Stirling : nls (2) Vaim (1+ etn, Dans l'expression des probabilités de la Loi binomiale : nt “xt @eyi ee Pe, C. LOI DE LA MOYENNE D’UN GROS ECHANTILLON La loi de probabilité de la moyenne ¥ d” un gros échantillon de taille: n, tiré avec remise dans tune population de moyenne m et d’écart-type 0, est approximativerent, quelle que soit la loi de distribution de X. une loi normale de moyenne m et d'éart-type o/Vn XN (m,o/yn) Ce résultat est généralement considéré cornme valable lorsque n dépassse une trentaine d’unités Cette tendance de la distribution de la moyenne d’un échantillon vers 1a loi normale, quelle que soit la loi de clistribution de la variable statistique considérée, est aussi une conséquence du théoréme central-limit, Les conditions d’application de celui-ci sont réunies, La moyenne d'un échantillon de taille n est la somme de 1 variables aléatoires : 1. Les variables x; sont indépendantes puisque les tirages sont ef Fectués avec remise ; Leurs espérances mathématiques et leurs variances existent E(x} =m (moyenne de la population), V{x} = 0? (moyenne de la population) ; 3. Le rapport de la variance d’une ob servation particuliére a la somme des variances Vdd oo? 1 ThV &) na Tend vers 0 qu and m augmente indéfiniment. Par conséquient, la variable aléatoire #, quand I'effectif de P’échantillon augmente indéfiniment, tend a suivre une loi normale de moyenne: : w= 1S x] Set =m, at) "G Et de variamce : 1< ly vea-r hy =3 Ved rot Lorsque le tirage de l'échantillon est exhaustif (on ne remet pas Tes unités déja tirées dans Tume), la tendance de la distribution de Ja moyenne vers la loi normale subsiste bien que la condition d’ indépendance des observations ne soit plus strictement respectée, mais on démontre (voir Chap. VI, p.226). que I'écart-type de: la moyenne de I’échantillon est alors : Onnotera que le coefficient comectif Y(N — n)/(N — 1) appliqué al’éeart-type de la moyenne @un échanti lon dans le cas de tirages indeéspendants (¢z = 0/¥n) pour obtenir l’écart-type de frearimi SONAL la me est le méme que ceiui qui permet de passer I'écard-type d'une variable binomial (/npq) a celui d'une vartable hyper-géométrique G/mpg JOP WYN =F) (voir p.77). Rien d’étonnant a cela : la fréquence d’une variable binomiale dans un échantillon de taille n variables de Bernouilli indépendantes, et celle d’une variable hyper géométrique comme la moyenne de 72 variables de Benouilli non indépendantes 0d X; = 10a 0 suivant Ja nature de individu tiré, Lorsque n augmente, le coefficient correctif(V ~ n)/(N — 1) tend vers 0. Comme il est naturel, la précision de I’évalaation d’une moyenne, comme celle d’un effectif ou une fréquence, augmente au fur et & mesure que Veffectif de I"échantillon se rapproche de celui de la population, En général, cependant, l'effectif N de la population est grand par rapport a la taille n de léchantillon = le coefficient est done peu différent de 1: Nese dN Noa Quand N + D. SOMME DE VARIABLES NORMALES INDEPENDANTES La somme de 2 variables normales indépendantes ayant respecti vement pour parametres (my, 02) est elle-méme une variable normale de moyenne : m=m, +m, Et de variance: o* =o} +03 Ce résultat s‘étend, bien entendu, a un nombre quelconque de variables normales indépendantess; X= N(m, o,) 2 = N(mz 02) X= Mm 0%) Zak, +X tet X= (my + ttm Fatt. 42) 4. Détermaination pratique des probabilités : usage des tables de lea loi normale Par le changernent de variable : Toutes les distributions normales se ramenent & une seule : celle de la variable normale centnée réduite 7. C'est pour celle-ci que les fonctions de densité de probabilité ot de répartition ont été calculées et fomt l'objet de tables que l'on trouvera en annexe & ce volume. A. TABLE DE LA DENSITE DE PROBABILITE y(¢) 1, Deseripstion Cette table donne la densité de probabilité y(t) correspondant aux valeurs positives de la variable normale centrée réduite variant de dixiéme en dixigme ; t = 0,0;0,1;...;3,9. les unités se lisent en ligne et les dixiémes em colonne (annexe : table 2), Exemple. Pour ¢ = 1,3 la densité de protoabilités est : y(1,3) = 0,171,4 Valeurs de t né gatives En raison de lea symétrie de la courbe de densité, la table permet de déterminer les densités correspondant & des valeurs négatives de t: a-) =O) Exemple. Pour t = —2,8, la densité de probabilité est y(-2,8) = y(2,8) = 0,0079 La loi normale étant une distribution continue, les densités correspomdant a des valeurs de t intermédiaire's de celles figurant dans la table sont obtenues par interpolation linéaire. Exemple. Pour t = 1,36, la densité de probabilité sera évaluée de la fa.gon suivante : y(L,3) = 0,171.4; y(L,4) = 0,149 7; (0,171 4 - 0,149 7) 10 (1,36) = 0,1714- =0,1584 On trouvera toutefois une table plus pr&cise pour t variant de centieme en centigme : t = 9,00 ;9,01 600, dans les « Tables for Pearson’ jomedticians » éditée par K. 2. Utilisation Le changememat de variable : X-m T o Permet de déterminer a l’aide de la table, la densité de probabilité corr espondant une valeur queleonque de 1a variable normale X de moyenne m et d’écart-type 0. Pour X = x, 1a densité de probabilité est, en effet : 10) = ace [-FEL")] ano Alors que celle de la valeur corespondante de la variable normale centr-ée réduite est : yO) =Fee te * Tables for Statisticians and Biometricians, ed. By KK. Pearson. Cambridge Univ. Press ee Iexiste done entre les densités de probabilité de x et de t la relation : 70 A Exemple. Soit X une variable normale de moyenne m = § et d’écart-type o = 2. recherchons ladensité de probabilité pour X = Bet X = 4,52. Pour X = 8, la variable normale centrée réduite a pour valeur : 8-5 =15 Par consultation de la table ; ¥(,5) = 0,1295 D’oa: yO FQ = 1295 = 0,0648 z Pour X = 4,52 452-5 0,24, y(-0,24) = (0,24) Par interpolation linéaire : ¥( 0,20) = 0,3910 y(0,30) = 0,381 4 (0,391 0 - 0,381 4 y(0,24) = 03910 —{ 2 : = 0,387 2, 10 Drow: £(4,52) 3. Approximation de la loi binomialle La table y(t) surtout utilisée pour l’app-roximation des probabilités cle la loi binomiale par la loi normale . Exemple. On tire un échantillon de taille n= 40 dans une population comportant une proportion p= 0,4 d'individus préssentant le caractére A (pax exemple : posséder une automobile). Déterminons la probabilité d’observer dans l’échantil on exactement 20 individus ayant ce caractére. Lenombre X d’individus présentant le caractére A dans I’échantillon est une variable aléatoire binomiale cle paramétre n = 40 etp = 0,4: L’espérancee mathématique de X est : E(X} = np = 16 Et son écart-type : oy = /npq = 3,1. La taille n cle l’échantillon étant suffiseamment grande et la proportion p n’étant voisine ni de 0, ni de 1, cette loi binomiale peut étre approchée par la loi normale ayant mémes espérances mathématique et écart-type : ‘B40 ; 0,4) > W(16 ; 3,1). La variable normale centrée réduite co rrespondant & X = 20 est : 20-16 Sha Par consultation de la table de la loi normale et interpolation, on trouve : y(t) = 0,173 7, Dot: yo) (20) = 24737 f= 056 0 31 La probabilité exacte est : ! = 20} = C2? p20 20-10! PEX = 20} = Ci? p? 201201 (0,4)? (0,6)2° = ,055 4. B. Table de la fonction de répartiti on [](€) 1. Description Cette table donne, pour toute valeur possitive t de la variable normalle centrée réduite, la valeur correspondante de la fonction de répartiition [](¢), représentée par l'aire hachurée, qui est égale la probabil ité pour que T'soit inférieur & ¢: MG) = Per 0,28}=1— [1(0,28)=1 - 06103 = 0,3897, Valeurs de t négatives En raison de la symétrie de la courbe, la table permet de détermin er la fonction de repartition pour les valeurs négatives de ¢ : PIr<-O=PT > MC) =1- 110) Exemple. La probabilité pour que T soit inférieur 4 —0,77 est PUT < -0,77} = T(-0,77) = 1 - 110,77) = 1- 0,779.4 = 0.2206 Pour certains usages, il peut étre plus commode d'utiliser une table dérivée, la table Po Latable P(t) Les valeurs de ¢ telles qu’il y ait une pxobabilité P que T se trouve a Pextérieur de Vintervalle (Ct, +), sont données par la table P(t). Les valeurs de P varient de centiéme : P= 0,00 ; 0,0 1; 0,02 ... (annexe table 4), existe entre [](¢) et P(c) la relation : Pd) = 2[1- [1]. Les lois ele distribution statistique. Les modéles continus La table [](t) donne directememt les probabilités comrespondant & des valeurs rondes de tla table P(E), au contraire, permet cle déterminer commodément les valeurs de t correspondant & des valeurs rondes des probabilités. Exemple 1. Déterminer Vintervalle (—t,+ t) tel que la probabilité que T soit intérieur a cet intervallc: soit égale a 95% : Pi-" Probabilité pour que X soit inférieur & 9. La valeur de la variable normale c-entrée réduite correspondant 4X = 9 est: as t=——= PIX <9) =P(T <2) 0 7 = 09772 » Probabilité pour que X soit supérieur ou égal 8,36. 8,36 —5 Pa P{X > 8,36} = P{T > 168) =1-P{T<168} — J1(.68) 0,9535 = 0,0465. é pour que X soit compris entre 6 et 8. P{6 Probabilité pour que X soit compris entre 1 et 7. a-5 4-—- PUSxke3) =P{-2<1T<4 = P{r<1}-P(r< -2} =P(T<1}-[1-P (r<2}] aa =N@-~f-N@)] cea or = 0,841 3 — 0,022 8 = 0,8185 3. Approximation de la loi birsomiale La loi normale est souvent utilisée comme approximation de la loi binomiale, notamment dans Je domaine des sondages. La table []( ¢) sert 4 évaluer la probabilité pour que la valeur de la variable bi nomiale se trouve l'intérie ur d’un intervalle déterminé, Exernple, On tire un échantillon de taille n= 40 dans une population comportant unee proportion p= 0,4 dindividus présentant un certain caractére A. Evaluons la probabilite avoir dans I échantillon un nombre d’individus X présentant ce caractére, supérieur ou égal & 16 et strictement inférieur & 20 : P{16

You might also like