You are on page 1of 302

Probabilităţi şi

statistică

CUPRINS

Introducere...........................................................................................................7

Capitolul 1. Teoria probabilităţilor...................................................................11
1.1. Formalizarea experienţelor aleatoare..............................................11
1.1.1. Evenimente...........................................................................11
1.2. Relaţii între evenimente...................................................................12
1.3. Câmp de evenimente........................................................................14
1.4. Câmp de probabilitate......................................................................15
1.5. Reguli de calcul cu probabilităţi......................................................17

Capitolul 2. Variabile aleatoare.........................................................................27
2.1. Variabile aleatoare discrete..............................................................27
2.2. Vector aleator bidimensional...........................................................32
2.3. Caracteristici numerice asociate variabilelor aleatoare....................36
2.4. Funcţia caracteristică. Funcţia generatoare de momente.................51
2.5. Probleme rezolvate...........................................................................53
2.6. Probleme propuse.............................................................................66

Capitolul 3. Legi clasice de probabilitate (repartiţii) ale variabilelor
aleatoare discrete.............................................................................69
3.1. Legea discretă uniformă...................................................................69
3.2. Legea binomială. Legea Bernoulli...................................................71
3.3. Legea binomială cu exponent negativ. Legea geometrică...............79
3.4. Legea hipergeometrică.....................................................................83
3.5. Legea Poisson (legea evenimentelor rare) ......................................86

Capitolul 4. Legi clasice de probabilitate (repartiţii) ale variabilelor
aleatoare continue..........................................................................91
4.1. Legea continuă uniformă (rectangulară).........................................91
4.2. Legea normală (Gauss-Laplace). Legea normală standard (legea
normală centrată redusă).................................................................95
4.3. Legea log-normală........................................................................105
4.4. Legea gamma.................................................................................107
4.5. Legea beta.....................................................................................112
4.6. Legea  2 (Helmert-Pearson) ........................................................114
4.7. Legea Student (t). Legea Cauchy..................................................119
4.8. Legea Snedecor. Legea Fisher......................................................123
4.9. Legea Weibull. Legea exponenţială..............................................127

3

Capitolul 5. Convergenţa variabilelor aleatoare............................................131
5.1. Convergenţa aproape sigură şi convergenţa în probabilitate..........131
5.2. Legi ale numerelor mari şi aplicaţii ...............................................137
5.2.1. Legea slabă............................................................................137
5.2.2. Legea tare..............................................................................138
5.3. Convergenţa în repartiţie................................................................148
5.4. Teorema limită centrală ................................................................155

Capitolul 6. Simularea variabilelor aleatoare ...............................................163
6.1. Simularea repartiţiilor pe dreaptă..................................................164
6.2. Algoritmul general: teorema de descompunere.............................173
6.3. Algoritmi speciali: repartiţii uniforme...........................................180

Capitolul 7. Statistică descriptivă....................................................................185
7.1. Prezentarea datelor statistice..........................................................185
7.2. Caracteristici numerice..................................................................191
7.3. Corelaţie. Regresie.........................................................................196

Capitolul 8. Teoria selecţiei..............................................................................201
8.1. Generarea valorilor particulare ale unei variabile aleatoare..........201
8.2. Variabile de eşantionare................................................................204
8.3. Legi de probabilitate ale variabilelor de eşantionare....................210

Capitolul 9. Teoria estimaţiei...........................................................................215
9.1. Estimatori nedeplasaţi...................................................................215
9.2. Estimatori de maximă verosimilitate.............................................216

Capitolul 10. Estimarea prin intervale de încredere......................................219
10.1. Forma generală a intervalului de încredere .................................219
10.2. Interval de încredere pentru medie...............................................221
10.3. Interval de încredere pentru diferenţa a două medii.....................226
10.4. Interval de încredere pentru dispersie şi raportul a două
dispersii........................................................................................229

Capitolul 11. Teoria deciziei.............................................................................233
11.1. Decizii „empirice” .......................................................................233
11.2. Decizii statistice...........................................................................233
11.3. Ipoteze statistice...........................................................................234
11.4. Teste statistice..............................................................................234
11.5. Tipuri de erori..............................................................................234
11.6. Nivel de semnificaţie ..................................................................235
11.7. Un exemplu..................................................................................236
11.8. Relaţia dintre probabilităţile α şi β..............................................239
11.9. Puterea unui test...........................................................................240

4

11.10. Încă un exemplu.........................................................................242
11.11. Testarea şirurilor binare.............................................................243
11.12. Testarea statistică a şirurilor binare...........................................243
11.13. Noţiunea de P-valoare................................................................245
11.14. Un exemplu: statistică repartizată normal..................................247
11.15. Alt exemplu: statistică repartizată χ2.........................................249

Capitolul 12. Analiza regresiei.........................................................................251
12.1. Modele de regresie.......................................................................251
12.2. Modelul liniar. Estimarea parametrilor modelului prin metoda
celor mai mici pătrate...................................................................255
12.3. Modelul liniar clasic Gauss - Markov. Inferenţe asupra
estimatorilor unui model liniar.....................................................259
12.4. Previziunea şi analiza rezultatelor unei regresii liniare................265

Capitolul 13. Statistică Bayesiană şi noţiuni de teoria credibilităţii.............281
13.1. Statistică Bayesiană......................................................................281
13.2. Modelul de credibilitate Bűhlmann..............................................289

Bibliografie........................................................................................................295
Anexe.................................................................................................................297

5

Introducere

Teoria probabilităţilor şi statistica matematică se aplică în majoritatea
domeniilor ştiinţei, începând cu ştiinţele exacte şi inginereşti şi finalizând cu
ştiinţele socio-economice, în special acolo unde există condiţii de risc şi
incertitudine şi unde este necesară adoptarea unor decizii riguros argumentate.
Una dintre construcţiile de bază în fundamentele statisticii şi teoriei
probabilităţilor, precum şi în justificarea aplicării acestora în alte domenii, este
dată de “legea numerelor mari” teoremă binecunoscută care îi aparţine
matematicianului Jakob Bernoulli (1654-1705), fiind apărută în lucrarea postumă
“Ars conjectandi” (1713). Printre alţi matematicieni care au rămas celebri în
teoria probabilităţilor şi statistică, îi amintim pe: de Moivre, Laplace, Gauss,
Bertrand, Poincaré, Cebîşev, Liapunov, Markov, Borel, Kolmogorov, Glivenko.
De asemenea, şcoala românească de probabilităţi, fondată de Octav Onicescu, şi
reprezentată de nume precum Gheorghe Mihoc şi Marius Iosifescu, a adus
contribuţii semnificative în dezvoltarea acestui domeniu.
Cartea de faţă îşi propune să vină în sprijinul studenţilor care au ca
disciplină de studiu, în cadrul a diferite specializări, disciplina Probabilităţi şi
statistică, oferindu-le acestora o gamă largă de aspecte teoretice, însoţite de
exemple şi aplicaţii. Ca structură, cartea se fundamentează pe baza a treisprezece
capitole, şase dintre acestea fiind dedicate Teoriei probabilităţilor, respectiv
şapte capitole, Statisticii matematice.
În Capitolul 1, sunt prezentate concepte de bază ale teoriei
probabilităţilor, mai precis, experienţe aleatoare, evenimente, probabilitate,
reguli de calcul cu probabilităţi, în timp ce în Capitolul 2, sunt abordate noţiuni
precum variabile aleatoare, caracteristici numerice ale variabilelor aleatoare,
funcţia caracteristică, funcţia generatoare de momente. În Capitolul 3 sunt
prezentate principalele legi de probabilitate ale variabilelor aleatoare discrete şi
anume: legea discretă uniformă, legea binomială şi cazul său particular legea
Bernoulli, legea binomială cu exponent negativ şi cazul particular legea
geometrică, legea hipergeometrică şi legea Poisson (legea evenimentelor rare),
iar în Capitolul 4 sunt prezentate principalele legi de probabilitate ale
variabilelor aleatoare continue, şi anume: legea continuă uniformă
(rectangulară), legea normală (Gauss-Laplace), legea log-normală, legea
gamma, legea beta, legea  2 (Helmert-Pearson), legea Student (t) şi cazul său
particular legea Cauchy, legea Snedecor şi legea Fisher, legea Weibull şi cazul
său particular, legea exponenţială. Capitolul 5 se construieşte în jurul
convergenţei, de diferite tipuri, a variabilelor aleatoare, fiind menţionate
convergenţa aproape sigură, convergenţa în probabilitate, convergenţa în
repartiţie, precum şi legile numerelor mari şi teorema limită centrală. Partea
aferentă teoriei probabilităţilor se încheie cu Capitolul 6, dedicat algoritmilor de
simulare a variabilelor aleatoare. În Capitolul 7, se studiază elemente de
7

statistică descriptivă şi aspecte privind organizarea datelor, cât şi analiza
acestora, punându-se accentul pe modalităţile de reprezentare, dar şi pe găsirea
diverselor mărimi caracteristice. Noţiunile sunt însoţite de exemple adecvate şi
actuale. În Capitolul 8 sunt prezentate noţiuni de teoria selecţiei, începând cu
descrierea generării unor valori particulare ale variabilelor aleatoare discrete sau
continue şi continuând cu legi de probabilitate ale variabilelor de eşantionare.
Capitolul 9 conţine o scurtă introducere în teoria estimaţiei. Se prezintă, cu multe
exemple, conceptele de estimator nedeplasat şi estimator de maximă
verosimilitate. În Capitolul 10, sunt prezentate intervalele de încredere pentru
principalii parametri statistici. Astfel, capitolul debutează cu fundamentarea
formei generale a unui interval de încredere, ca metodă de estimare statistică,
după care sunt prezentate pe rând, intervalul de încredere pentru medie,
incluzând cazul când dispersia este necunoscută, respectiv cazul particular al
unei proporţii, apoi interval de încredere pentru diferenţa a două medii, respectiv,
interval de încredere pentru dispersie şi pentru raportul a două dispersii, toate
acestea însoţite de exemple practice. Capitolul 11 prezintă succint teoria deciziei.
Sunt descrise noţiunile de ipoteză statistică, test statistic, tipuri de erori, nivel de
semnificaţie, putere a unui test, p-valoare. Exemplele sunt luate din practica
testării şirurilor binare în ceea ce priveşte caracterul aleator. În Capitolul 12, sunt
prezentate tehnici de analiză a regresiei, atât prin intermediul aspectelor
teoretice, cât şi prin intermediul unor exemple. În primul paragraf sunt trecute în
revistă noţiunile de bază, fiind definite diverse tipuri de modele de regresie,
urmând ca în ultimele trei paragrafe spaţiul să fie alocat cu precădere modelului
liniar. Astfel, este prezentată metoda celor mai mici pătrate în estimarea
parametrilor necunoscuţi ai unui model liniar multiplu, sunt realizate inferenţe
asupra estimatorilor unui model liniar în ipotezele clasice Gauss-Markov,
capitolul încheindu-se cu aspecte care ţin de previziunea şi analiza rezultatelor
unei regresii liniare. Cartea se încheie cu Capitolul 13 în care sunt abordate
aspecte care ţin de statistica bayesiană şi noţiuni de teoria credibilităţii.
Cartea de faţă a fost elaborată în cadrul proiectului
POSDRU/56/1.2/S/32768, “Formarea cadrelor didactice universitare şi a
studenţilor în domeniul utilizării unor instrumente moderne de predare-învăţare-
evaluare pentru disciplinele matematice, în vederea creării de competenţe
performante şi practice pentru piaţa muncii”, de către un colectiv de autori, cadre
didactice universitare, astfel: capitolele 1 şi 2, Lucia Căbulea, capitolele 3 şi 4,
Rodica Luca-Tudorache, capitolele 5, 6 şi 13, Gheorghiţă Zbăganu, capitolele 7
şi 8, Ariana Pitea, capitolele 9 şi 11, Ioan Rasa, respectiv capitolele 10 şi 12,
Nicoleta Breaz.
Finanţat din Fondul Social European şi implementat de către Ministerul
Educaţiei, Cercetării, Tineretului şi Sportului, în colaborare cu The Red Point,
Oameni şi Companii, Universitatea din Bucureşti, Universitatea Tehnică de
Construcţii din Bucureşti, Universitatea „Politehnica” din Bucureşti,
Universitatea din Piteşti, Universitatea Tehnică „Gheorghe Asachi” din Iaşi,
Universitatea de Vest din Timişoara, Universitatea „Dunărea de Jos” din Galaţi,
Universitatea Tehnică din Cluj-Napoca, Universitatea “1 Decembrie 1918” din
8

inclusiv popularizarea unor mari descoperiri tehnice. Proiectul are ca obiectiv adaptarea programelor de studii ale disciplinelor matematice la cerinţele pieţei muncii şi crearea de mecanisme şi instrumente de extindere a oportunităţilor de învăţare.învăţare . crearea unei baze de resurse inovative. analiza flexibilităţii curriculei. conform exigenţelor de pe piaţa muncii. studiul matematicii a evoluat în exigenţe până a ajunge să accepte provocarea de a folosi noile tehnologii în procesul de predare . moderne şi funcţionale pentru predarea-învăţarea-evaluarea în disciplinele matematice pentru învăţământul universitar sunt obiectivele specifice care au ca răspuns materialul de faţă. elaborarea şi implementarea unui program de formare a cadrelor didactice şi a studenţilor interesaţi din universităţile partenere. incluziune socială şi inserţie pe piaţa muncii. bazat pe dezvoltarea şi armonizarea de curriculum. Totuşi. se urmăreşte evidenţierea a noi motivaţii solide pentru învăţarea şi studiul matematicii la nivelele de bază şi la nivel de performanţă. Dezvoltarea şi armonizarea curriculelor universitare ale disciplinelor matematice. De asemenea. Se poate constata însă că programele disciplinelor de matematică nu au întotdeauna în vedere identificarea şi sprijinirea elevilor şi studenţilor potenţial talentaţi la matematică. reprezintă obiective specifice de interes în cadrul proiectului. Viziunea pe termen lung a acestui proiect preconizează determinarea unor schimbări în abordarea fenomenului matematic pe mai multe planuri: informarea unui număr cât mai mare de membri ai societăţii în legătură cu rolul şi locul matematicii în educaţia de bază în instrucţie şi în descoperirile ştiinţifice menite să îmbunătăţească calitatea vieţii. identificarea unor forme de pregătire adecvată de matematică pentru viitorii studenţi ai disciplinelor 9 . şi nu numai. proiectul contribuie în mod direct la realizarea obiectivului general al Programului Operaţional Sectorial de Dezvoltare a Resurselor Umane – POSDRU şi se înscrie în domeniul major de intervenţie 1. Evaluarea nevoilor educaţionale obiective ale cadrelor didactice şi studenţilor legate de utilizarea matematicii în învăţământul superior. însoţită de analiza metodelor şi instrumentelor folosite pentru identificarea şi motivarea studenţilor talentaţi la matematică ar putea răspunde deopotrivă cerinţelor de masă. masterate şi doctorate precum şi analizarea eficacităţii şi relevanţei curriculelor actuale la nivel de performanţă şi eficienţă. În acest context. Formarea de competenţe cheie de matematică şi informatică presupune crearea de abilităţi de care fiecare individ are nevoie pentru dezvoltarea personală. stimularea creativităţii şi formarea la viitorii cercetători matematicieni a unei atitudini deschise faţă de însuşirea aspectelor specifice din alte ştiinţe. în vederea dezvoltării de cunoştinţe şi competenţe pentru studenţii care învaţă discipline matematice în universităţi. în scopul participării cu succes în echipe mixte de cercetare sau a abordării unei cercetări inter şi multidisciplinare.Alba-Iulia. cât şi celor de elită.evaluare pentru a face matematica mai atractivă.2 Calitate în învăţământul superior. în care matematica cea mai avansată a jucat un rol hotărâtor.

matematice. 10 . în scopul utilizării la nivel de performanţă a aparatului matematic în construirea unei cariere profesionale.

Un eveniment se numeşte: 1) elementar dacă se realizează ca rezultat al unei singure probe. 2) compus dacă acesta apare cu două sau mai multe rezultate ale probei considerate.1.4. Definiţia 1. Evenimentul aleator este evenimentul care poate sau nu să se realizeze la efectuarea unei probe şi se notează prin litere mari A. Definiţia 1.7. C. după efectuarea experimentului considerat.8. Definiţia 1. Definiţia 1. ….3.1.1.1.1.1.5.6. Definiţia 1.1. Evenimentele se pot clasifica în: evenimente sigure.1.1. Definiţia 1. Definiţia 1.1.1.2. Bi. evenimente aleatoare. evenimente imposibile. Evenimente Definiţia 1.1. Evenimentul contrar evenimentului A se notează Ā şi este evenimentul ce se realizează numai atunci când nu se realizează evenimentul A. Realizarea practică a unui ansamblu de condiţii bine precizat poartă numele de experienţă sau probă. Mulţimea tuturor evenimentelor elementare generate de un experiment aleator se numeşte spaţiul evenimentelor elementare (spaţiul de selecţie) şi se notează cu  . sau prin litere mari urmate de indici Ai. se notează cu  . Capitolul 1 Teoria probabilităţilor 1. Prin eveniment vom înţelege orice rezultat al unei experienţe despre care putem spune că s-a realizat sau că nu s-a realizat. Formalizarea experienţelor aleatoare 1.…. B. Evenimentul sigur este evenimentul care se produce în mod obligatoriu la efectuarea unei probe şi se notează cu  . Acesta poate fi finit sau infinit. 11 . Evenimentul imposibil este evenimentul care în mod obligatoriu nu se produce la efectuarea unei probe şi se notează cu  .

Definiţia 1. Evenimentul imposibil  este "apariţia feţei cu 7 puncte". A. adică:   1 . 12 . Observaţia 1..2.1. Prin reunirea evenimentelor A şi B vom înţelege evenimentul notat A  B care constă în realizarea a cel puţin unuia dintre evenimentele A şi B.  2 . 1. Se aruncă zarul pe o suprafaţă plană netedă.proprietatea de tranzitivitate a relaţiei de implicare. B  K  A  B  B  A (comutativitatea).1. care are cele şase feţe marcate prin puncte de la 1 la 6. în contextul analogiei dintre evenimente şi mulţimi. Dacă notăm prin K mulţimea tuturor evenimentelor asociate unui experiment aleator avem: 1. Fie un zar.. B. astfel că pentru un eveniment compus A putem scrie. rezultă că reunirea evenimentelor poate fi scrisă astfel:  A  B     /   A sau   B  Observaţia 1. că A   sau A  P() . Relaţii între evenimente Definiţia 1.2. C  K  (A  B)  C  A  (B  C) (asociativitatea).  5 .3.2. n  şi orice eveniment compus ca o submulţime a lui  .4.5.2. A. A  B şi B  C rezultă AC . 2. O analogie între evenimente şi mulţimi permite o scriere şi în general o exprimare mai comode ale unor idei şi rezultate legate de conceptul de eveniment. dacă realizarea evenimentului A atrage după sine şi realizarea evenimentului B. i  1. Deoarece evenimentele A şi B sunt submulţimi formate cu evenimentele elementare ale spaţiului  .  2 . putem vorbi despre mulţimea tuturor părţilor lui  pe care o notăm prin P(  ).  3 . Exemplul 1. atunci spaţiul evenimentelor elementare ataşat experimentului cu un zar este dat prin  ={  1 .. Dacă notăm cu  i = evenimentul "apariţia feţei cu i puncte".  4 .10.2.2. Spunem că evenimentul A implică evenimentul B şi scriem A  B . Evenimentul sigur  este "apariţia feţei cu un număr de puncte  6". Spunem că evenimentele A şi B sunt echivalente (egale) dacă avem simultan A  B şi B  A ..6 . Astfel.  6 }. De asemenea.2.Observaţia 1.9.1. Definiţia 1. vom înţelege evenimentul sigur ca mulţime a tuturor evenimentelor elementare.

Definiţia 1. B  K şi A BAB B (evident A  . adică realizarea lor simultană este imposibilă. 3.2.2. Prin intersecţia evenimentelor A şi B vom înţelege evenimentul notat A  B care constă în realizarea simultană a ambelor evenimente. C.10. Dacă A. atunci sunt adevărate următoarele afirmaţii: i) A – B = A – (A  B) ii) A – B = (A  B) – B iii) A = (A – B)  (A  B) iv) (A – B)  (B – A) =  v) A  B = A  [B .      şi A  A   ). A.2.   Ø = Ø şi A  A  A ). 4.2.6. adică este posibilă realizarea lor simultană. C  K  (A  B)  C  A  (B  C) (asociativitatea) 3. Au loc relaţiile lui De Morgan: A  B  A  B şi A  B  A  B şi respectiv generalizările A  A .9. şi spunem că sunt compatibile dacă A  B  Ø.11. Diferenţa evenimentelor poate fi scrisă sub forma:  A  B     /   A şi   B  Observaţia 1.2. adică realizarea unuia constă din nerealizarea celuilalt.8. A. Dacă evenimentele A. Definiţia 1.7. iI iI iI iI Teorema 1. A  A i i i i . B.(A  C) vii) (A – B)  (C – D) = (A  C) – (B  D) 13 . Au loc relaţiile următoare: 1. A  K  A  A  Ø Definiţia 1. B  K  A  B  B  A (comutativitatea) 2. B. Evident avem A  B  A  B şi E  A  A . Evenimentele A şi B sunt contrare unul altuia dacă A  B   şi A  B  Ø. B  K şi A  B atunci A  B  A (evident A    A . D  K. Spunem că evenimentele A şi B sunt incompatibile dacă A  B  Ø. Intersecţia evenimentelor A şi B poate fi scrisă sub forma:  A  B     /   A şi   B  Observaţia 1. Se numeşte diferenţa evenimentelor A şi B.2.(A  B)] vi) A  (B – C) = (A  B) . A  Ø= Ø. evenimentul notat A- B care se realizează atunci când se realizează evenimentul A şi nu se realizează evenimentul B. A    A . Dacă A.

în condiţiile: i) A  K  A  K . K) în care K este un  -corp se numeşte câmp borelian (câmp infinit) de evenimente. Evident   K şi   K .12. B  K  A  B  K . K). Evenimentele A şi B sunt dependente dacă realizarea unuia depinde de realizarea celuilalt şi sunt independente dacă realizarea unuia nu depinde de realizarea celuilalt. în cazul în care K este un corp.1. i. O mulţime nevidă de evenimente K  P() se numeşte corp dacă satisface axiomele: i) A  K  A  K ii) A. i  I . i  1. K) sunt adevărate afirmaţiile: a. Cuplul ( . n 14 . j  1. c. 1. Dacă mulţimea evenimentelor elementare este numărabilă.3. B  K  A  B  K b. A. Pentru evenimentele independente în totalitatea lor vom folosi şi denumirea de evenimente independente.3. iI iii)   K . Câmp de evenimente Definiţia 1. ii) dacă I  N.3. O mulţime de evenimente sunt independente în totalitatea lor dacă sunt independente câte două. atunci  Ai  K . sau  -algebră) pe .3. Dacă A. I   şi Ai  K. câte trei etc. Perechea ( . Într-un câmp finit de evenimente ( . formează un sistem complet de evenimente (sau o partiţie a câmpului) dacă: n i) A i  i 1 ii) A i  A j   i  j. 1. K) se numeşte câmp finit de evenimente. n .Definiţia 1. Definiţia 1. evenimentele A i  K . o mulţime K  P() se numeşte corp borelian (sau  -corp.3.2. Observaţia 1. 2.2. B  K atunci A  B  K . Într-un câmp finit de evenimente ( .

3.Observaţia 1. A  K ii) P(  )=1 15 .  2 .4... Se numeşte câmp finit de probabilitate tripletul { .2.4. i  1.5. corespunzătoare unei probe formează un sistem complet de evenimente care se mai numeşte sistem complet elementar. B  K.... P} unde cuplul ( . Dacă   1 .. . A  K . Observaţia 1.  C nk  . n  atunci câmpul de evenimente corespunzător conţine 2n evenimente. numărul total de evenimente ale lui K este egal cu C n0  C n1  .4. Demonstraţie Pentru un experiment de n rezultate elementare şi prin urmare pentru un eveniment sigur compus din n evenimente elementare. vom avea diverse evenimente compuse din acestea după cum urmează: – evenimente compuse din câte zero evenimente elementare  Cn0 – evenimente compuse din câte un eveniment elementar  Cn1 – evenimente compuse din câte două evenimente elementare  Cn2 – ---------------- – evenimente compuse din câte k evenimente elementare  Cnk – evenimente compuse din câte n evenimente elementare  Cnn şi prin urmare.3. K. Propoziţia 1...  A. Se numeşte probabilitate pe câmpul considerat o funcţie P : K  R care satisface axiomele: i) P( A)  0. K) este un câmp finit de probabilitate. ii) P(  )=1. Evenimentele elementare  i . În cazul în care câmpul de evenimente ( . iar P : K  R este o probabilitate pe K. iii) P(A  B)  P(A )  P(B).  C nn  2 n 1. K) este infinit (K este infinită) probabilitatea P definită pe K satisface axiomele: i) P(A )  0. n .(axiomatică a probabilităţii) Fie ( . şi A  B   .3.4. K) un câmp finit de evenimente. Definiţia 1.4.1. Câmp de probabilitate Definiţia 1.

Au loc relaţiile: 1.   iii) P  A i    PA i  dacă Ai  A j  Ø i  j. P A  1  PA   n  n 3.4. adică  n 1  n1 P  Ai    P( Ai ) şi demonstrăm pentru n evenimente  i 1  i 1  n   n1    n1  n 1 n P  Ai   P   Ai   An   P  Ai   P ( An )   P ( Ai )  P ( An )   P( Ai )  i 1   i 1    i 1  i 1 i 1  n1  dacă s-a folosit ipoteza de inducţie şi s-a ţinut seama că   Ai   An  Ø .4. Presupunem relaţia adevărată pentru n – 1 evenimente. Observaţia 1.4. j  1.4. 1) Conform acestei definiţii nu putem stabili probabilitatea unui eveniment ce aparţine unui câmp infinit de evenimente. P  A i    PA i  dacă Ai  A j  Ø i  j.  i 1  Definiţia 1. (clasică a probabilităţii) Probabilitatea unui eveniment A este egală cu raportul dintre numărul evenimentelor egal probabile favorabile evenimentului A şi numărul total al evenimentelor egal probabile. i.5. 16 . A i  K . Propoziţia 1. PØ  0  2.  iI  iI I-o mulţime de indici cel mult numărabilă. 2) Definiţia clasică se aplică numai atunci când evenimentele elementare sunt egal posibile. j  I. Altă formulare: probabilitatea unui eveniment este raportul între numărul cazurilor favorabile evenimentului şi numărul cazurilor posibile.6. i. n  i 1  i 1 Demonstraţie 1) Din relaţiile Ø   =  şi Ø   = Ø aplicând axioma iii) din definiţia probabilităţii avem P(  ) = P(Ø   ) = P(Ø) + P(  ) şi rezultă P(Ø) = 0 2) Din relaţiile A  A   şi A  A  Ø aplicând axioma iii) din definiţia probabilităţii avem P ( A  A)  P ( A)  P ( A) adică P ()  P ( A)  P ( A) şi rezultă P ( A)  1  P ( A) 3) Demonstrăm prin inducţie matematică Pentru n = 2 P(A1  A2) = P(A1) + P(A2) relaţia este adevărată conform axiomei iii) din definiţia probabilităţii.

8. 11. Rezolvare În această experienţă aleatoare numărul total al cazurilor posibile este 15. 7. 7 14}. numărul cazurilor favorabile este 5. Dintr-o urnă cu 15 bile numerotate de la 1 la 15 se extrage o bilă la întâmplare. 9. Considerăm experienţa de aruncare a unui zar. B  K şi A  B atunci P(B-A)=P(B)-P(A) Demonstraţie Din relaţiile B = A  (B . adică {2. B = obţinerea unui număr par.4. adică { 3. 13}. B  K atunci P( A  B)  P( A)  P( B)  P( A  B) . Se consideră evenimentele: A = obţinerea unui număr prim. 5. Pentru A numărul cazurilor favorabile este 6. 15}. C =obţinerea unui număr divizibil prin 3. Deci P(A )   .7. 6 2 deci P(A )   . 15 3 1. 15 Pentru C.4. Demonstraţie Din relaţiile A  B  A  B  ( A  B) şi A  B  ( A  B)  Ø aplicând axioma iii) avem P( A  B)  P( A)  PB  ( A  B)  P( A)  P( B)  P( A  B) 17 . 15 5 Pentru B numărul cazurilor favorabile este 7. Să calculăm probabilităţile acestor evenimente. Evenimentele elementare sunt egal posibile şi avem 6 cazuri posibile. 4. Notăm cu A evenimentul "apariţia unei feţe cu număr par de puncte  6 " numărul cazurilor favorabile 3 1 evenimentului A este 3. 8. 6 2 Exemplul 1. deci P(B)  . 12. 6. 5 1 deci P(C)   . 6. Reguli de calcul cu probabilităţi P1) Probabilitatea diferenţei: Dacă A.A) şi A  (B . adică {2. 12.A) = Ø aplicând axioma iii) avem P( B)  P A  ( B  A)  P( A)  P( B  A) P2) Probabilitatea reunirii (formula lui Poincaré): Dacă A. 10. 3.Exemplul 1.5.

. Generalizare: Dacă A1. 2) P(A  B)  P(B)  PB (A) .. A2. Observaţia 1.5.1. …An sunt evenimente independente atunci n   n P  A i    P(A i ) . j 1 i  j k  i 1  i j P(A  B) P3) Probabilităţi condiţionate: Dacă P(B)  0 atunci raportul îl P(B) numim probabilitatea lui A condiţionată de B şi notăm PB(A) sau P(A B) .. …An sunt evenimente dependente atunci  n  P  A i   P(A 1 )  PA1 (A 2 )  PA1  A 2 (A 3 ). A2.  i 1   Ai i 1 3) Dacă evenimentele A şi B sunt independente atunci PB(A)=P(A) şi P(A  B)  P(A)  P(B) . Demonstraţie Arătăm că PB ( A) satisface axiomele probabilităţii: i) PB ( A)  0 deoarece P( A  B)  0 şi P( B)  0 P( B  E ) P( B) ii) PB ( E )   1 P( B) P( B) iii) Fie A1 şi A2  K şi A1  A2  Ø .. Avem PB  ( A1  A2 )  P( B  A1 )  ( B  A2 ) PB ( A1  A2 )    P( B) P( B ) . K. 1) Oricărui câmp de evenimente (  .  ( 1) n 1 P  Ai   i 1  i 1 i .Pn 1 (A n ). Are loc o generalizare: dacă A1..formula de calcul a intersecţiei a două evenimente dependente.…An sunt evenimente compatibile atunci n n n n     P  Ai    P( Ai )   P ( Ai  A j )   P ( Ai  A j  Ak )  .formula de calcul a intersecţiei a două evenimente independente. dacă s-a folosit P1. Generalizare: Dacă A1.K) îi putem ataşa un câmp de probabilitate condiţionat {  . PB}.  i 1  i 1 18 . P( B  A1 )  P( B  A2 ) P( B  A1 ) P( B  A2 )     PB ( A1 )  PB ( A2 ) P( B) P( B) P( B) dacă ( B  A1 )  ( B  A2 )  Ø .A2.

…An sunt  n  n evenimente independente. 4) Dacă evenimentele A şi B se condiţionează reciproc şi P(A)  0. atunci: P  A i   1   1  P(A i )  i 1  i 1 Demonstraţie n n Folosind relaţiile lui De Morgan  Ai   Ai şi faptul că Ai sunt i 1 i 1 evenimente independente implică  n   n   n  n n P  Ai   1  P  Ai   1  P  Ai   1   P( Ai )  1   1  P( Ai )   i 1   i 1   i 1    i 1 i 1 P5) Inegalitatea lui Boole: A1. Dacă A1. P(B)  0 atunci P(A )  PA (B)  P(B)  PB (A) . P4) Probabilitatea reunirii evenimentelor independente. …An. i 1 19 .  i 1  i 1 Avem succesiv  n   n1    n1  P  Ai   P   Ai   An   P  Ai   P( An )  1   i 1   i 1    i 1  n 1 n   P( Ai )  (n  2)  P( An )  1   P( Ai )  (n  1) i 1 i 1 dacă s-a ţinut seama de ipoteza de inducţie. Pentru n = 2 avem P( A1  A2 )  P( A1 )  P( A2 )  P( A1  A2 ) dacă P( A1  A2 )  1 şi rezultă P( A1  A2 )  P( A1 )  P( A2 )  1 relaţia este adevărată. P6) Formula probabilităţii totale: Dacă A1¸A2. A2. A2. Presupunem inegalitatea adevărată pentru n-1 adică  n 1  n1 P  Ai    P( Ai )  (n  2) şi demonstrăm pentru n. sunt evenimente dependente atunci  n  n n P  Ai    P( Ai )  (n  1)  1   P( Ai )  i 1  i 1 i 1 Demonstraţie Verificăm inegalitatea din enunţ prin inducţie matematică. …An este un sistem complet de n evenimente şi X  K atunci P(X)=  P(A i )  PA i (X).

5. Se cere probabilitatea ca extrăgând la întâmplare de 5 ori câte un cartonaş şi aşezându-le în ordinea extragerii să obţinem cuvântul LUCIA. deci de a obţine prin extrageri succesive cuvântul LUCIA. A5 = evenimentul ca la a cincea extragere să obţinem litera A. j  1. Cele 26 de litere ale alfabetului. i. Exemplul 1.. A4 = evenimentul ca la a patra extragere să obţinem litera I. n este un sistem complet de evenimente rezultă că X  ( A1  X )  ( A2  X )  . n  P(A i )  PAi (X) i 1 Demonstraţie Deoarece P( X  Ai )  P( X )  PX ( Ai ) şi P ( X  Ai )  P ( Ai )  PAi ( X ) avem P ( X )  PX ( Ai )  P ( Ai )  PAi ( X ) . Atunci evenimentul X are loc dacă avem X  A1  A 2  A 3  A 4  A 5 ..  ( An  X ) Deoarece Ai  A j  Ø. sunt introduse într-o urnă.2. i  1. A3 = evenimentul ca la a treia extragere să obţinem litera C. A2 = evenimentul ca la a doua extragere să obţinem litera U. Rezolvare Notăm prin X evenimentul căutat. deci P( Ai )  PAi ( X ) P( Ai )  PAi ( X ) PX ( Ai )   n dacă s-a folosit formula P( X )  P( A )  P i 1 i Ai (X ) probabilităţii totale. …An este un sistem complet de evenimente al câmpului (  . i. de asemenea notăm prin A1 = evenimentul ca la prima extragere să obţinem litera L. j  1. Rezultă: 20 . n Avem succesiv  n  n n P( X )  P  ( Ai  X )    P( Ai  X )   P( Ai )  PAi ( X )  i 1  i 1 i 1 P7) Formula lui Bayes: Dacă A1. i  1. K) şi X  K atunci: P(A i )  PA i (X) PX(Ai)= n . n avem că ( X  Ai )  ( X  A j )  Ø. A2. scrise fiecare pe un cartonaş.Demonstraţie Din ipoteza că Ai. i  j. i  j .

7. S 2 . B = A1  A 2  A 3 şi ţinând seama de independenţa evenimentelor.7  0.5.6) 2 . Exemplul 1.cel puţin o secţie să depăşească planul de producţie. B şi C sunt 9 7 11 satisfăcute cu probabilităţile P(A) = .5.6 şi dispunem de două automobile de acest fel.336 . care este probabilitatea ca cel puţin unul din automobile să plece în cursă într-o dimineaţă friguroasă? Rezolvare Dacă notăm prin A1 şi A2 evenimentele ca primul respectiv. Rezolvare Fie A i evenimentul ca secţia Si să depăşească planul de producţie.4  0. avem: P(B) = P(A 1  A 2  A 3 )  P(A 1 )  P(A 2 )  P(A 3 )  0.6. iar evenimentele A 1 şi A 2 sunt independente între ele (plecarea unui automobil nu depinde de plecarea sau neplecarea celuilalt). Exemplul 1.6.6) = 1  0. avem: X  A 1  A 2 .5. Trei secţii ale unei întreprinderi S1 . al doilea automobil să plece în cursă şi prin X evenimentul căutat. Dacă probabilitatea ca un automobil să plece în cursă într-o dimineaţă friguroasă este de 0. S3 depăşesc planul zilnic de producţie cu probabilităţile de respectiv 0. Cum P( A 1 ) = P( A 2 ) = 0. deci P(A) = P (A 1  A 2  A 3 )  1  P( A1  A 2  A 3 ) = 1  P(A 1 )  P(A 2 )  P(A 3 ) = 1. Dacă aceste caracteristici A.6 . atunci 10 11 12 probabilitatea ca să fie satisfăcute toate trei caracteristicile se poate evalua cu formula lui Boole.(0. 26 25 24 23 22 Exemplul 1.8  0.6  0.84. O presă este considerată că satisface standardul de fabricaţie dacă trei caracteristici sunt satisfăcute. iar P(X )  P(A1  A 2 )  P(A 1 )  P(A 2 )  P( A1  A 2 ).toate secţiile să depăşească planul de producţie. P( X )  P( A1 )  P( A2 A1 )  P( A3 A1  A2 )  P( A4 A1  A2  A3 )  1 1 1 1 1  P( A5 A1  A2  A3  A4 )      .4. Să se calculeze probabilităţile evenimentelor: A .8 şi 0. deci P( A1  A 2 ) = P( A1 )P(A 2 ) = (0. B . Se obţine că P(X) = 0.3  0. Astfel se poate scrie: 21 .976 . Avem: A = A1  A 2  A 3 . deoarece evenimentele A 1 şi A 2 sunt compatibile (cele două automobile pot să plece în cursă deodată).(1-0. P(B) = şi P(C) = .7)(1-0.2  0. deci ca cel puţin unul dintre automobile să plece în cursă.3.5.6) 2 = 0. 0.6 + 0.8)(1-0.

918 9 6 2 6 b) Folosind formula lui Bayes.  10 11 12  660 Exemplul 1. Produsele de la cele trei fabrici satisfac standardele de fabricaţie în proporţie de 90%. 2 =   0. A 2 şi A 3 evenimentele ca produsul cumpărat să fie de la prima.51   0. Scrieţi evenimentele ce corespund următoarelor situaţii : a) primeşte o bursă. P( A A 2 )  0. Dacă A este evenimentul că produsul cumpărat de client satisface 2 standardele de fabricaţie.08 3 6 2 Exemplul 1.95 şi P( A A 3 )  0. respectiv de la prima fabrică.10   0.5.10 3 0.5. După trimiterea actelor necesare. a) Care este probabilitatea ca produsul să satisfacă standardele de fabricaţie? b) Care este probabilitatea ca produsul să fie defect şi să provină de la prima fabrică? Rezolvare a) Notăm cu A1 . 22 . 95% şi respectiv 92%.95  0. Aceste trei evenimente formează un 1 1 sistem complet de evenimente şi au probabilităţile P( A1 )  .7.92 . Un student solicită o bursă de studii la 3 universităţi. respectiv a treia fabrică.90.49  0.92   0.90   0. atunci P(A A1 )  0. Un client ia la întâmplare o bucată din sortimentul de marfă respectiv. adică   1 4 1  229 P( A  B  C)  1       .05   0. acesta poate obţine bursă de la universitatea i (Ui) sau nu (U i ) .408.6. 1 1 1 0. de la a doua 3 6 fabrică şi restul de la fabrica a treia. 1 ≤ i ≤ 3 . P(A 2 )  şi 3 6 1 P( A3 )  . Un sortiment de marfă dintr-o unitate comercială provine de la 1 1 trei fabrici diferite în proporţii.  P( A  B  C)  1  P(A)  P(B)  P( C ) . avem: P(A 1 )P( A A 1 ) P( A1 A)   P ( A1 ) P ( A A 1 )  P ( A 2 ) P ( A A 2 )  P ( A 3 ) P ( A A 3 ) 1  0. Folosind formula probabilităţii totale se obţine: P( A)  P( A1 )  P( A A1 )  P( A2 )  P( A A2 )  P( A3 )  P( A A3 )  1 1 1 5. a doua.

e) primul băiat şi a doua fată. Altfel.5. d) primeşte cel puţin două burse. respectiv a doua alegere. sau de la a doua. Care este probabilitatea ca cei doi să fie : a) băieţi. unde E  (U 1  U 2  U 3 )  (U 1  U 2  U 3 )  (U 1  U 2  U 3 ) . caz în care prima şi a treia nu-i acordă bursă. Exemplul 1. Rezolvare a) Bursa primită poate fi de la prima universitate. La primul punct avem de calculat probabilitatea P( A1  A2 ) . d) Avem D  E  F . b) primeşte cel mult o bursă. Astfel C  A  E  F .8. d) cel puţin un băiat. Într-un grup de studenţi aflaţi în excursie se găsesc 6 fete şi 9 băieţi. Rezolvare Notăm cu A1 şi A2 evenimentele alegerii unui băiat la prima. c) Evenimentul poate fi scris ca reuniunea a trei evenimente : studentul primeşte o bursă. f) de acelaşi sex. evenimentul D este contrar evenimentului B. 15 14 7 23 . Se aleg la întâmplare doi studenţi pentru a cerceta traseul. c) un băiat şi o fată. b) fete. Avem astfel evenimentul A  (U1  U 2  U 3 )  (U1  U 2  U 3 )  (U1  U 2  U 3 ) . caz în care celelalte nu-i acordă bursă. c) primeşte cel puţin o bursă. 15 14 35 deoarece alegând un băiat mai rămân în grup 14 studenţi între care 8 băieţi. deci D  B  (U 1  U 2  U 3 )  A . trei burse. Obţinem evenimentul B  (U1  U 2  U 3 )  A . b) Avem două variante : studentul nu primeşte nici o bursă sau studentul primeşte o bursă. iar F  U 1  U 2  U 3 . Deci 6 5 1 P( B)  P( A1  A2 )  P( A1 ) P( A2 A1 )    . caz în care primele două nu-i acordă bursă. Întrucât a doua alegere depinde de prima avem : 9 8 12 P( A1  A2 )  P( A1 ) P( A2 A1 )    . sau de la a treia. două burse. Evenimentul de la punctul b) se scrie astfel : B  A1  A2 .

Evenimentul de la ultimul punct f) este 7 7 F  ( A1  A2 )  ( A1  A2 ) . Evenimentul de la punctul d) se exprimă astfel : D  A1  A2 . 35 7 35 Exemplul 1. La un examen de licenţă participă mai mulţi absolvenţi. Probabilitatea ca primul student să promoveze este ¾. Rezolvare Fie Ai evenimentul promovării examenului de către studentul i. prin urmare 1 6 P( D)  1  P( B)  1   . b) cel puţin unul să promoveze examenul. Evenimentul de la punctul c) este C  ( A1  A2 )  ( A2  A1 ) aşadar P (C )  P ( A1  A2 )  P ( A2  A1 ) . deci 3 4 5 1 P( A)  P( A1 ) P( A2 ) P( A3 )     . Evenimentul de la punctul a) este A  A1  A2  A3 . Cum ( A1  A2 )  ( A1  A2 )   cele două evenimente sunt incompatibile şi deci 12 1 17 P( F )  P( A1  A2 )  P( A1  A2 )    . 15 14 35 Am obţinut şi probabilitatea evenimentului de la punctul e) P ( A1  A2 ) . probabilitatea ca al doilea să promoveze este 4/5.2.5. iar de la punctul b) este B  A1  A2  A3 .9. 15 14 6 9 iar P( A2  A1 )  P( A1 ) P( A2 / A1 )   15 14 9 6 18 de unde P(C )  2    . Să se determine probabilităţile ca : a) toţi cei trei studenţi să promoveze. Evenimentele Ai sunt independente (rezultatele celor 3 studenţi nedepinzând unul de celelalte). 4 5 6 2 Folosind proprietăţile probabilităţii avem : P( B)  P( A1  A2  A3 )  P( A1  A2 )  P( A3 )  P(( A1  A2 )  A3 )   P( A1 )  P( A2 )  P( A1  A2 )  P( A3 )  P(( A1  A3 )  ( A2  A3 ))  24 . iar pentru al treilea 5/6. El este contrar evenimentului : B  A1  A2 .3. i=1. A2  A1 sunt incompatibile) 9 6 Dar P( A1  A2 )  P( A1 ) P( A2 / A1 )   . ( A1  A2 . între care numai trei din străinătate.

La un nou control. 50 50 50 b) Aplicând formula lui Bayes avem : 25 .  P( A1 )  P( A2 )  P( A1  A2 )  P( A3 )  [ P( A1  A3 )  P( A2  A3 )   P(( A1  A3 )  ( A2  A3 ))  P( A1 )  P( A2 )  P( A3 )   P( A1  A2 )  P( A1  A3 )  P( A2  A3 )  P( A1  A2  A3 ).70 .2. avem: P ( B )  P ( A1 )  P ( A2 )  P ( A3 )  P ( A1 ) P ( A2 )  P ( A1 ) P ( A3 )  P ( A2 ) P ( A3 )  3 4 5 3 4 3 5 4 5 3 4 5 119  P ( A1 ) P ( A2 ) P ( A3 )              . 4 5 6 4 5 4 6 5 6 4 5 6 120 Exemplul 1. Ţinând seama de independenţa evenimentelor Ai . 15 de la al treilea.80   0. 50 50 50 Fie A evenimentul ca documentul controlat să fie corect. Din mai multe controale asupra activităţilor a trei magazine se apreciază că în proporţie de 90%. Atunci A/ A1. Avem astfel 20 15 15 P( A1 )  . Cum {A1. A / A3 reprezintă evenimentul ca documentul controlat să fie corect ştiind că el provine de la primul. 80%.80. A2. cu ce probabilitate el aparţine primului magazin? Rezolvare a) Notăm cu A1.81. A3 evenimentul ca documentul controlat să provină de la primul.3.10. i=1. 15 de la al doilea. al doilea şi respectiv al treilea magazin. A1  A2  A1  A3  A2  A3   aplicând formula probabilităţii totale avem : P ( A)  P ( A1 ) P ( A / A1 )  P ( A2 ) P( A / A2 )  P ( A3 ) P( A / A3 )  20 15 15   0. A2. Dintre acestea se alege unul la întâmplare pentru a fi verificat: a) Cu ce probabilitate documentul ales este corect (înregistrat)? b) Constatând că este corect. P(A/A2)=0.5. A / A2. 70%. al treilea magazin. P(A/A3)=0. al doilea. cele trei magazine au declarat marfa vândută. A3} este un sistem complet de evenimente A1  A2  A3  E .90.70  0. P( A2 )  . Prin urmare : P(A/A1)=0.90   0. comisia de control solicită 50 de documente privind activitatea comercială: 20 de la primul magazin. P( A3 )  .

81 0.81 9  P( Ai ) P( A / Ai ) i 1 (A1/A reprezintă evenimentul ca documentul controlat să provină de la primul magazin ştiind că a fost corect). 0.36 4 P( A1 / A)  3  50   .90 P( A1 ) P( A / A1 ) 0. 20  0. 26 .

. Pentru ca astfel de experimente sau fenomene să fie cunoscute şi prin urmare studiate. legea statistică sau probabilităţile cu care este posibilă apariţia rezultatelor experimentului considerat. o mărime care ia valori la întâmplare sau aleatoriu dintr-o mulţime oarecare posibilă se numeşte variabilă aleatoare (sau întâmplătoare). Pentru un şir de măsurători. 2. Din acest motiv cuvântul sau conceptul „aleator” trebuie înţeles sau gândit în sensul că avem de-a face cu experimente sau fenomene care sunt guvernate de legi statistice (atunci când există un anumit grad de incertitudine privind apariţia unui rezultat sau reapariţia lui) şi nu de legi deterministe (când ştim cu certitudine ce rezultat va apare sau nu). variabila aleatoare este o noţiune care-l caracterizează din două puncte de vedere: . În linii mari şi într-un înţeles mai larg. care pot constitui o mulţime finită. În cadrul unei cercetări experimentale se constată că între valorile numerice măsurate există diferenţe chiar dacă rămân neschimbate condiţiile de desfăşurare ale experimentului. infinită sau numărabilă sau infinită şi nenumărabilă.caracterizare din punct de vedere cantitativ – variabila ne dă informaţii privind valoarea numerică a mărimii măsurate.1. Capitolul 2 Variabile aleatoare Variabila aleatoare este una din noţiunile fundamentale ale teoriei probabilităţilor şi a statisticii matematice. Variabile aleatoare discrete În ciuda faptului că după repetarea unui experiment de un număr mare de ori intervine o anumită regularitate în privinţa apariţiei unor rezultate ale acestuia. Se poate da şi o definiţie riguroasă. 27 . nu se poate preciza niciodată cu certitudine care anume dintre rezultate va apare într-o anumită probă. 2. Dacă valorile numerice ale unui şir de date aparţin mulţimii numerelor întregi sau raţionale atunci se defineşte o variabilă aleatoare discretă. iar în cazul aparteneţei valorilor la mulţimea numerelor reale se defineşte o variabilă aleatoare continuă. sunt importante şi necesare două lucruri şi anume: 1. rezultatele posibile ale experimentului. Dacă ne referim la o singură măsurătoare.caracterizare din punct de vedere calitativ – variabila aleatoare ne dă informaţii privind frecvenţa de apariţie a unei valori numerice într-un şir. variabila aleatoare este acea mărime care ăn cadrul unui experiment poate lua o valoare necunoscută aprioric.

Numim distribuţia sau repartiţia variabilei aleatoare X de tip  xi  discret. … 4) Evenimentele Ai = X-1(xi) = {ω Ω / X(ω) = xi } K.. 1) Evenimentele (X = xi ).2.Definiţia 2.1. Numim variabilă aleatoare de tip discret o aplicaţie X : Ω  R care verifică condiţiile: i) are o mulţime cel mult numărabilă de valori.5..1. iI 2) Variabila aleatoare pentru care mulţimea valorilor este un interval finit sau infinit pe axa numerelor reale este variabilă aleatoare continuă. x2. 3. Spunem că variabilele aleatoare X şi Y care au respectiv x   yj  distribuţiile X  i  şi Y   sunt independente dacă  pi  iI  q j  jJ P(X = xi . i  I mulţimea I putând fi finită sau cel mult numărabilă. 2) O variabilă aleatoare de tip discret este deci o funcţie univocă de forma X : Ω → {x1. Definiţia 2. ii) x  R ( X  x )  K Observaţia 2.3.. j)  IxJ. … xn. i = 1. P}.. Y = yj) = P(X = xi ) P(Y = yj). X-1 : {x1.. 28 . …. … xn.1. adică pi = P(X = xi ).1. …} → K este inversa funcţiei X. xi  R. 2. 1) Dacă K = P(Ω) atunci ii) este automat îndeplinită. K.1.  x n  . i  I . .1. x2. Definiţia 2. oricare ar fi i = 1. 3) Se obişnuieşte ca valorile variabilei să se noteze în ordine crescătoare adică x 1  x 2  x 3 . 3) Forma cea mai generală a unei variabile aleatoare aparţinând unei clase de variabile aleatoare de tip discret se numeşte lege de probabilitate discretă. (i. Fie câmpul de probabilitate {Ω. …}  R.4. Observaţia 2. i  I formează un sistem complet de evenimente şi  pi  1 . tabloul de forma X :   unde xi. 2. sunt valorile posibile ale  pi  iI variabilei aleatoare X iar pi este probabilitatea cu care variabila considerată X ia valoarea xi .

variabila  a  xi  aleatoare notată prin a  X :    pi  iI c) putere a variabilei aleatoare X de exponent k. j )IxJ  xiy j  X  Y   xi  p  X    ij  (i . adică F(x)=  p i . respectiv  yj  unde pij = P(X = xi. a . Y = yj) Y    pij  ( i . Y p   ij  ( i . x  R . a  b avem: 29 . K. (proprietăţi ale funcţiei de repartiţie) 1.6.Definiţia 2.8. Y care au respectiv distribuţiile  xi   yj  X   şi Y   atunci variabila aleatoare sumă X+Y. xi  x Dacă nu există pericol de confuzie. produs X  Y şi cât p   iI i q   jJ j X  xi  y j  (dacă y j  0. funcţia de repartiţie a variabilei aleatoare X se notează prin F. j )IxJ (i.1.1. iar X :   R o variabilă aleatoare. variabila  ax  aleatoare notată prin aX :  i   p i  iI b) sumă a variabilei aleatoare X cu constanta reală a. Se numeşte a) produs al variabilei aleatoare X prin constanta reală a. Definiţia 2. P} un câmp de probabilitate. j  J . definită prin F(x) = P X  x  . i  I şi p iI ij  q j . j)IxJ . k  Z . Dacă variabilele X. Propoziţia 2. Fie variabilele aleatoare X.j)  IxJ.1. variabila  xk  aleatoare X k :  i  cu condiţia ca operaţiile xik . b  R . i  I . să aibă  pi  iI sens. 1].1.10.7. Numim funcţie de repartiţie ataşată variabilei aleatoare X funcţia F : R  [0.Y sunt independente atunci pij  pi q j . (i. j  J ) vor avea distribuţiile X  Y   . Observaţia 2. Fie {  . x  R. Au loc relaţiile p jJ ij  p i .1. j )  I  J Definiţia 2.9.

adică  x1 . x  R . Care este probabilitatea ca X să ia o valoare mai mică p p   4 3 6 sau egală cu 3? Rezolvare Pentru ca X să fie o variabilă aleatoare trebuie ca p0 2 7 1 1 1 şi p   p    1 . F este nedescrescătoare pe R.11.1. x 2  R. Se obţine soluţia acceptabilă p  . F( x  a )  F( x ) (F este continuă la stânga în fiecare punct x R) Exemplul 2. P(a  X  b)  F (b)  P X  b   F (a )  P X  a  P(a  X  b)  F (b)  F (a )  P( X  b) P(a  X  b)  F (b)  F (a ) P(a  X  b)  F (b)  F (a )  P X  a  Demonstraţie Avem succesiv P (a  X  b)  P ( X  b. Se calculează 4 3 6 4 30 . lim F ( x)  1 x x Demonstraţie lim F ( x )  lim P ( X  x)  P( )  0 x  x   lim F ( x)  lim P ( X  x)  P ( E )  1 x  x   4. Se consideră variabila aleatoare discretă 1 2 3 4 X : 2 7 1 1  . P ( a  X  b)  P(a  X  b)  ( X  a)  P (a  X  b)  P ( X  a)   F (b)  P  X  b   F (a)  P  X  a   P ( X  a)  F (b)  P  X  b   F (a) dacă s-a folosit relaţia demonstrată anterior. x1  x 2  F ( x1 )  F ( x 2 ) Demonstraţie 0  P( x 1  X  x 2 )  F ( x2 )  F ( x1 )  F ( x1 )  F ( x 2 ) 3. 2. X  a )  P( X  b)  ( X  a)   P ( X  b)  P ( X  a )  F (b)  P  X  b   F (a )  P  X  a  dacă s-a ţinut seama de relaţia ( X  a )  ( X  b) şi s-a folosit probabilitatea diferenţei. lim F ( x)  0.

12. rezultă valorile 6 3  1  2p  q  12p 2  1  3 1 acceptabile p  şi q = 0.13.1. p  q   2 p  q 12 p   6 3 3 3  a) Să se scrie distribuţia variabilei 2XY.2p  q  0 şi apoi :  . Deci variabilele aleatoare au repartiţiile: 6  1 0 1 1 0 1  X : 1 1 1 . Variabila aleatoare X cu distribuţia următoare: 31 .1. Y :  1 1 1  . deci P(X + Y = c)> 2 corespunde   9  9 9 9 9 9 3 2 situaţiei P(X + Y = 0) =  adică c = 0. Y : 1  2 . 2 b) Pentru ce valori ale lui c avem: P (X  Y  c)  ? 9 Rezolvare Pentru ca X şi Y să fie variabile aleatoare se impun condiţiile:  1 1 1  p   q   1 1 1 6 3 3 p   0. Se dau variabilele aleatoare independente:  1 0 1  1 0 1  X : 1 1 1 . 9 9 Exemplul 2.probabilitatea cerută prin intermediul evenimentului contrar şi anume 1 5 P( X  3)  1  P(X  4)  1   sau 6 6 1 7 1 5 P( X  3)  P( X  1)  P( X  2)  P(X  3)     . 16 16 3 6 Exemplul 2. Avem :       3 3 3  3 3 3  2 0 2  a) 2 XY :  2 5 2    9 9 9  2 1 0 1 2  b) X  Y :  1 2 3 2 1  . q   0.

P}.. iar p ij  P ( X  xi .1. Y  y j ). . Vector aleator bidimensional Definiţia 2..2. dacă x  2 Graficul funcţiei de repartiţie este: F(x) 1 2/3 1/6 1/2 1 2 x 2. Definiţia 2. Numim distribuţia sau repartiţia vectorului aleator (X. …. ….2. . dacă 1  x  2. y j ) sunt valorile ……… pe care le ia vectorul aleator ……… ……… (X. Fie câmpul de probabilitate {Ω. . are funcţia de repartiţie: F ( x )  P ( X  x )   6 2  1 1 1  2  6 2 3  . dacă x  .. dacă  x  1.2.Y).2.Y) de tip discret tabloul: Y y1……………yj…………… X x1 p11……………p1j…………… unde ( xi . ……………………………… 32 . xi pi1……………pij…………… …. X:2  .Y) este vector aleator bidimensional de tip discret dacă aplicaţia U : Ω  R 2 verifică condiţiile: i) are o mulţime cel mult numărabilă de valori.  2 1    1 2 1 1  . Y  y)  K . (X  x .  1 0. 3 1. Spunem că U=(X. K. …. y)  R 2 . ii) ( x .

Evident p
i , j I  J
ij = 1.

Definiţia 2.2.3. Numim funcţie de repartiţie ataşată vectorului aleator
bidimensional funcţia F: R 2  0,1 , definită prin:
F(x,y) = P(X  x, Y  y), ( x , y)  R 2 .

Propoziţia 2.2.4.(proprietăţile funcţiei de repartiţie a unui vector aleator
bidimensional de tip discret)
1. dacă a<b şi c<d, atunci
P(a  X  b, c  Y  d )  F (b, d )  F (a, c ) .
2. F(x,y) este nedescrescătoare în raport cu fiecare argument.
3. lim F( x, y)  lim F( x, y)  lim F( x , y)  0; lim F( x, y)  1 .
x   y   x   x 
y   y 

4. F(x,y) este continuă la stânga în raport cu fiecare argument.

Observaţia 2.2.5. Dacă (X,Y) are funcţia de repartiţie F, iar variabilele X şi Y
au funcţiile de repartiţie FX şi respectiv FY , atunci:
FX ( x )  lim F( x, y) şi FY ( y)  lim F( x, y) .
y  x 

Exemplul 2.2.6. Se consideră vectorul aleator discret (X,Y) cu repartiţia dată în
tabelul:

Y 2 6
X

1 0,20 0,10
3 0,05 0,15
4 0,45 0,05

a) să se determine repartiţia variabilelor X,Y, X+Y;
b) să se stabilească dacă X şi Y sunt independente sau nu;
7 
c) să se calculeze F  ,5  .
2 

Rezolvare
a) Variabila X are repartiţia:

33

p1  p11  p12  0,20  0,10  0,30
 1 3 4
X:   , unde p 2  p 21  p 22  0,05  0,15  0, 20 , adică
 p1 p 2 p 3 
  p 3  p 31  p 32  0, 45  0,05  0,50
 1 3 4 
X:   .
 0,30 0,20 0,50 
 2 6 
Analog, variabila Y are repartiţia Y:   , unde

 q 1 q 2 
q 1  p11  p 21  p 31  0,20  0,05  0,45  0,70  2 6 
, adică Y:  .

q 2  p12  p 22  p 32  0,10  0,15  0,05  0,30  0,70 0,30 
 3 4 6 7 8 10 
Avem: X+Y:  .
 0, 20 0,05 0,45 0,10 0,15 0,05 
 
b) Pentru verificarea independenţei variabilelor X,Y, efectuăm un
control, de exemplu:
P(X=1) P(Y=2) = 0,30  0,70  0,21 , iar P[(X=1)  (Y=2)] = p11  0,20 .
Cum 0,21  0,20, deducem că X şi Y sunt dependente.
7 7
c) F( ,5)  P( X  , Y  5)  P[( X  1, Y  2)  ( X  3, Y  2)] 
2 2
=P(X=1,Y=2) +P(X=3,Y=2) = 0,20+0,05 = 0,25.

Definiţia 2.2.7. Fie variabila aleatoare X având funcţia de repartiţie F , vom
spune că X este variabilă aleatoare de tip continuu dacă funcţia de repartiţie se
poate reprezenta sub forma:
x
F(x) =  ( t )dt, x  R .

Funcţia  : R  R se numeşte densitate de probabilitate a variabilei
aleatoare X.

Propoziţia 2.2.8. Au loc afirmaţiile:
1) x  R , ( x )  0 .
2) F'(x) = ( x ) a.p.t. pe R.
b
3) P(a  X<b) =  ( x)dx .
a

4)  ( x )dx  1 .


Observaţia 2.2.9.
1. Pentru o variabilă de tip continuu P(X=a)= 0, deci P(a  X<b) =
b
P(a<X<b) = P(a  X  b) = P(a<X<b) =  ( x )dx .
a

34

F ( x  x )  F ( x ) P( x  X  x  x )
2.  ( x)  F ' ( x )  lim  lim , deci
x  0 x x  0 x
când x este mic avem P(x  X  x  x )  ( x )  x .

Definiţia 2.2.10. Fie vectorul aleator (X,Y) având funcţia de repartiţie F,
spunem că (X,Y) este un vector aleator de tip continuu, dacă funcţia de repartiţie
F se poate pune sub forma:
x y
F(x,y) =   (s, t ) ds dt , (x , y)  R 2 , iar funcţia  : R 2  R se
 
numeşte densitate de probabilitate a vectorului aleator (X,Y).

Observaţia 2.2.11. Dacă  este densitate de probabilitate pentru (X,Y), iar
 X şi  Y densităţi de probabilitate pentru X, respectiv Y au loc:
1) ( x , y)  0 , ( x, y)  R 2 .
 2 F( x, y)
2)  ( x, y) a.p.t. pe R 2 .
xy
2
3) P((X,Y)  D )     ( x, y ) dx dy , D  R .
D

4)  ( x, y) dx  dy  1 .
R2
 
5)  X ( x )   ( x , y)dy, x  R ; Y ( y )    ( x, y )dx, y  R .
 

Definiţia 2.2.12. Spunem că variabilele aleatoare de tip continuu X şi Y sunt
independente dacă F(x,y) = FX ( x )  FY ( y) , ( x , y)  R 2 .

kxy 2 , ( x, y )  1,2 1,3
Aplicaţia 2.2.13. Funcţia  ( x, y )   este densitate de
 0 , în rest
probabilitate dacă  ( x, y )  0 şi   ( x, y )dxdy  1 ceea ce implică
R2
2 3 1
ecuaţia în k, k   xy 2dxdy  1 , verificată pentru k  .
1 1 13
În acest caz funcţia de repartiţie va fi
0 , dacă x  1 sau y  1
1 2 3
 ( x  1)( y  1) , dacă  x , y   1, 2   1,3
 78
x y 1
2
F ( x , y )    uv dudv   ( y 3  1) , dacă y  1,3 şi x  2
 26
1 1

 1 ( x 2  1) , dacă y  1, 2  şi y  3
2
1 , dacă x  2 şi y  3

35

şi deducem de asemenea că funcţiile de repartiţie marginale sunt, respectiv,
0 , x 1 0 , y 1
1 2 1 2
FX ( x )   ( x  1) , x  1, 2 ; FY ( y )   ( x  1) , y  1,3
3 3
1 , x  2 1 , y3

2.3. Caracteristici numerice asociate variabilelor aleatoare

Fie , K, P un câmp de probabilitate şi X :   R o variabilă
aleatoare. În afara informaţiilor furnizate de funcţia de repartiţie F (x) sau chiar
de repartiţia probabilistă (discretă  pi  sau continuă   (x ) ale unei variabile
aleatoare X, de un real folos teoretic şi practic sunt şi informaţiile pe care le
conţin anumite caracteristici numerice (valoarea medie, dispersia, abaterea medie
pătratică sau diverse alte momente) ale lui X despre această variabilă aleatoare.

Valoarea medie (speranţa matematică)

Definiţia 2.3.1. Fie {Ω, K, P} un câmp borelian de probabilitate şi variabila
x 
aleatoare X : Ω  R cu distribuţia X  i , i  I . Se numeşte valoare medie,
 pi 
caracteristica numerică E ( X )   xi pi .
iI
Observaţia 2.3.2.
1) Dacă I este finită, valoarea medie există.
2) Dacă I este infinit numărabilă, E(X) există când seria care o
defineşte este absolut convergentă.

Definiţia 2.3.3. Fie{Ω, K, P} un câmp borelian de probabilitate şi variabila
x 
aleatoare X : Ω  R de tip continuu X  , x  R . Se numeşte valoarea
 ( x ) 

medie a variabilei X, caracteristica numerică E ( X )   x  (x)dx . Valoarea

medie există atunci când integrala improprie care o defineşte este convergentă.

Propoziţia 2.3.4.(proprietăţile valorii medii) Au loc afirmaţiile :
1) E (a X  b)  a E(X)  b, a, b  R
2) E(X + Y) = E(X) + E(Y)
3) X,Y independente  E(X Y) = E(X) E(Y)

Demonstraţie

36

a) Fie variabilele aleatoare de tip discret X, Y având repartiţiile
x   yj 
X  i  , Y  
 pi  iI  q j  jJ
1. Avem E(aX  b)   (axi  b) pi   axi pi   bpi  aE( X )  b
iI iI iI

 ax  b 
dacă variabila aX  b are repartiţia aX  b i  şi p i  1.
 pi  iI iI

 xi  y j 
2. Variabila X+Y are repartiţia X  Y  
 ,
 pij (i , j )I  J
pij  P( X  xi , Y  y j )
Rezultă
E ( X  Y )    ( xi  y i ) pij   xi pij   y j p ij 
iI jJ iI jJ iI jJ

  xi pi   y j q j  E ( X )  E (Y )
iI jJ

dacă s-au folosit relaţiile p
iI
ij  q j şi p
jJ
ij  pi

 xi y j 
3. Variabila XY are repartiţia XY  
 dacă X şi Y sunt
 pi q j  (i , j )I  J
independente.
Avem E ( XY )    xi y j pi q j   x i p i  y j q j  E ( X ) E (Y )
iI jJ iI jJ

b) Presupunem ca X şi Y sunt variabile aleatoare de tip continuu.
1. Dacă notăm prin Y = aX + b, a  0, atunci se obţine că
xb
X ( )
 Y ( x)  a , pentru orice x  R.
a
 
1 xb
Avem: E (aX  b)  E (Y ) 

 x Y ( x)dx 

a 
x Y (
a
)dx de unde prin

schimbarea de variabilă u = (x – b)/a, dx = adu, obţinem
  
E ( aX  b )   (au  b)  X (u )du a  u X (u )du b   X (u )du  aE ( X )  b
  
2. Dacă notăm prin Z = X + Y, variabila care are densitatea de
probabilitate  Z , iar densitatea de probabilitate a vectorului (X, Y) o notăm prin
 , atunci:
  
E ( X  Y )  E (Z )   s

Z ( x) dx   x (   (u , x  u ) du ) dx
 

37

Schimbăm ordinea de integrare, apoi schimbarea de variabilă
x – u = t, dx = dt, şi obţinem
   
E( X  Y )   (  x (u, x  u )dx)du 
 
 (  (t  u )  (u, t )dt )du 
 
     
  t (   (u, t ) du ) dt   u (   (u , t ) dt )du   t X (t ) dt   u Z (u ) du  E (Y )  E ( X )
     

3. Dacă notăm prin V =X Y, care are densitatea de probabilitate V , iar
densitatea de probabilitate a vectorului (X, Y) o notam prin  , atunci
  
x dx
E ( XY )  E (V )   x V ( x ) dx   x (   (u , u ) u ) dx
Schimbăm ordinea de integrare, apoi facem schimbarea de variabilă
x / u = t, dx = udt, şi obţinem:
   
x x
E ( XY )  (   (u , ) dx )du   (  tu  (u , t )dt )du 
 
u u  
   
   tu  X (u )  Y (t )dtdu   u X (u )du  t Y (t )dt  E ( X ) E (Y )
    

Dispersia

Definiţia 2.3.5. Fie {Ω, K, P} un câmp borelian de probabilitate şi variabila
aleatoare X : Ω  R. Se numeşte dispersia (varianţa) variabilei aleatoare X,
2

caracteristica numerică Var ( X )  E  X  E ( X ) iar  ( X )  Var ( X ) se 
numeşte abatere medie pătratică.

2
În mod explicit, dispersia are expresia Var ( X )    x i  E ( X )   pi ,
iI
I  N , dacă X este o variabilă aleatoare discretă sau
2
Var ( X )    x  M ( X )  ( x )dx , dacă X este o variabilă aleatoare
R
continuă.
Dispersia este un indicator numeric al gradului de împrăştiere (sau de
dispersare) a valorilor unei variabile aleatoare în jurul valorii medii a acesteia.

Propoziţia 2.3.6.(proprietăţile dispersiei)
a) Var ( X )  E ( X 2 ) E ( X )2
b) Var (aX  b)  a 2Var ( X ), a, b  R
c) X,Y independente  Var ( X  Y )  Var ( X )  Var (Y )

Demonstraţie

38

Atunci  Var ( X )   ( x  E ( X )) 2  ( x )dx   ( x  E ( X )) 2 p ( x )dx  D unde D  x / x  E( X )    . având densitatea de probabilitate  (x) .8. a)    Var ( X )  E  X  E ( X )  E X 2  2 E ( X ) X  E ( X )  2 2   E ( X 2 )  2 E ( X ) E ( X )  E ( X )  E ( X 2 )  E ( X ) 2 2 dacă s-a făcut un calcul formal. Deci.7. avem 2 2 2  ( x  E ( X ))  ( x)dx     ( x)dx   P( X  E ( X )   ) D D 2 Am obţinut că Var ( X )   P ( X  E ( X )   ) . Dacă X este o variabilă aleatoare discretă 39 . Calculăm    Var ( X  Y )  E  X  Y  E ( X  Y )   E  X  E ( X )   Y  E (Y )   2 2    E  X  E ( X )   Y  E (Y )   2 X  E ( X ) Y  E (Y )   2 2   E  X  E ( X )    E Y  E (Y )    2 E  X  E ( X ) E Y  E (Y )   2 2  Var ( X )  Var (Y ) dacă s-a ţinut seama că E  X  E ( X )  0 Propoziţia 2. b) Folosind proprietăţile valorii medii şi definiţia dispersiei avem:  Var (aX  b)  E (aX  b  aE ( X )  b) 2  E a 2  X  E ( X )   2      a E  X  E ( X )   a Var ( X ) 2 2  2 c) Dacă X.(Inegalitatea lui Cebîşev) Dacă variabila aleatoare X are valoare medie şi dispersie atunci   0 are loc inegalitatea Var ( X ) P( X  E ( X )   )  1  sau inegalitatea echivalentă cu aceasta 2 Var ( X ) P( X  E ( X )   )  . avem că (x  E( X ))2   . deoarece x  E( X )   .3.3. 2 Demonstraţie Presupunem că X este o variabilă aleatoare de tip continuu. rezultă Var ( X ) P( X  E ( X )   )  2 Folosind probabilitatea evenimentului contrar se obţine şi cealaltă formă a Var ( X ) inegalităţii: P( X  E ( X )   )  1  P( X  E ( X )   )  1  2 Aplicaţia 2. Y sunt independente avem E ( XY )  E ( X ) E (Y ) .

Fie {Ω.  pi iI  pi  1 atunci mk   xik pi i I iI 40 .9.3 X :   . caracteristica numerică mk  E ( X k ) Observaţia 2. E ( X 2 )   x 2  ( x)dx  5 1 12 1 6 1 16 1 169 11 Var ( X )  E ( X 2 )  E ( X )  5  2  36 36 11  ( X )  Var ( X )  6 Momente Definiţia 2. în rest atunci deducem că: 3 3 3 x3 13 3 x4 E( X )   x ( x )dx   .3.3. Se numeşte moment iniţial (obişnuit) de ordin k al variabilei aleatoare X. P} un câmp borelian de probabilitate şi variabila aleatoare X : Ω  R.  ( x )   4   ( x)  0. Dacă X este variabilă aleatoare continuă  x  x  .11. x  1.3. K. a) Pentru k=1 avem m1  E ( X ) iar pentru k=2.  2 1 0 1 2 3 X : 1 2 2 5 1 1    12 12 12 12 12 12  atunci deducem că: 1 2 2 5 1 1 1 E ( X )  2 1  0 1  2  3  12 12 12 12 12 12 2 1 2 2 5 1 1 E( X 2 )  4  1  0  1  4  9  2 12 12 12 12 12 12 1 7 Var ( X )  E ( X 2 )  E ( X )  2   2 4 4 7  ( X )  Var ( X )  2 Aplicaţia 2. Var ( X )  m2  m12 x  b) Dacă X este variabilă de tip discret având repartiţia X :  i  .10.

i 0 Demonstraţie Avem  k   k   k   k  E  X  E ( X )   E  X  m1   E  C ki X k i ( m1 ) i    i 0  k  k k  E  (1) i C ki X k i m1i    (1) i C ki E ( X k i )m1i   (1) i C ki mk i m1i  i 0  i 0 i 0 Observaţia 2. caracteristica numerică    rs  E ( X  E ( X )) r (Y  E (Y ) s . Definiţia 2. y )dxdy . În statistica matematică se utilizează de regulă primele patru momente centrate: 1 .3.s) al vectorului aleator (X. Între momentele centrate şi momentele iniţiale există k următoarea relaţie:  k   (1) i C ki mk i m1i .Y). iar pentru k=2.12. Se numeşte moment centrat de ordin (r. adică    xi  E ( X ) k  pi .3.3. Y) continuu R Definiţia 2. X discretă  iI k     xi  E ( X )  ( x )dx .  x  c) Dacă X este variabilă de tip continuu X :   atunci   ( x )  x R mk   x k  ( x)dx R Definiţia 2.15.  3 . adică 41 .  2 . X continuă k R Observaţia 2.17.3. (X. Se numeşte momentul iniţial de ordinul (r.  2  Var ( X ) Teorema 2.s) al vectorului aleator (X.3.13. ( X .Y) caracteristica numerică mrs  E ( X r Y s ) . caracteristica numerică  k  E  X  E ( X )  .3.  4 . adică  xir y sj p ij . Se numeşte moment centrat de ordin k al variabilei aleatoare  k X.16. Pentru k=1 avem 1  0 . Y ) discret  iI jJ mrs   r s 2 x y  ( x.14.

oricare ar fi variabilele  i 1 j 1  i  1 j 1 aleatoare Xi şi Yj şi oricare ar fi constantele reale ai şi bj. m0 1  E (Y ). Definiţia 2. În practică se mai spune că: 1) X şi Y sunt pozitiv perfect corelate dacă r ( X . Y )  E ( XY )  E ( X ) E (Y ).19. m1 o  E ( X ).Y sunt necorelate dacă r(X. a  0 c) r ( X . Y) continuu r s  R2 Observaţia 2. 2) X şi Y sunt negativ perfect corelate dacă r ( X . y )dxdy . Y independente  r(X. Se numeşte coeficient de corelaţie relativ la variabilele aleatoare X şi Y caracteristica numerică r(X. X ) . Y)  m11  m10 m01 Dacă X.20. C ( X . 1  j  n C ( X .  0 2  Var (Y ) Corelaţie sau covarianţă Definiţia 2.23.3. 1) C ( X . 2) Spunem că X. Y)  11 Observaţia 2.22.18. oricare ar fi X şi Y.  2 0  Var ( X ).Y ) Var ( X ) Var (Y ) Observaţia 2. Y )  E X  E ( X )Y  E (Y )  adică C(X. 3) X şi Y sunt puternic pozitiv (sau negativ) corelate dacă 42 . caracteristica numerică C ( X . Y independente  C(X. Y )  1 .3. Y)  0 . Se numeşte corelaţia sau covarianţa variabilelor aleatoare X şi Y. Y )  1  Y  aX  b.3. a  0 Observaţia 2. ( X . Y )  C (Y .Y) =0 Proprietăţi: a) r ( X.3. dar nu şi reciproc. Y )  1 . (X. Y )  1  Y  a X  b.3. Y)  0 reciproc nu este adevărat. X )  Var ( X )  m n  m n C   ai X i . Y)= C ( X .21.  b jY j     a b C X i j i . Y j . Y)  1 b) r ( X .3.   xi  E ( X ) r  y j  E (Y )s pij . 1) X. 1  i  m . C(X. Y ) discret  iI jJ  rs     x  E ( X )  y  E (Y )   ( x.

Fie (X. Y ) 12 r( X . 0. Y )  0. Y )    0. 25 (sau  0.75 ).25  r ( X . Calculaţi coeficientul de corelaţie r(X. Marginile valorice decizionale fiind alese convenţional. Y )  0 ).295 Var ( X )Var (Y ) 95 35  144 36 43 . Y )  1 (sau  1  r ( X . deducem imediat: 9 8 7 2 1 E ( X )  1  0  1    24 24 24 24 12 9 8 7 16 2 E( X 2 )  1  0  1   24 24 24 24 3 2 1 95 Var ( X )  E ( X 2 )  [ E ( X )]2    3 144 144 6 7 8 3 8 1 E (Y )  1  0  1  2   24 24 24 24 24 3 6 7 1 3 26 13 E (Y 2 )  1  0  1  4   24 24 24 24 24 12 13 1 35 Var (Y )  E (Y 2 )  [ E (Y )]2    12 9 36  1 1 1 1   1 1 1 1  E ( XY )  1    1  0  1  2   0    1  0  1  2    6 12 12 24   24 6 12 24   1 1 1 1  5  1   1  0  1  2    24 24 6 24  24 5 1 17 C ( X .24.75  r ( X .Y). Y )  E ( XY )  E ( X ) E (Y )   24 36 72 17 C( X . 4) X şi Y sunt slab pozitiv (sau negativ) corelate dacă 0  r ( X . Y -1 0 1 2 pi X -1 1/6 1/12 1/12 1/24 9/24 0 1/24 1/6 1/12 1/24 8/24 1 1/24 1/24 1/6 1/24 7/24 qj 6/24 7/24 8/24 3/24 1 Rezolvare Pe baza formulelor corespunzătoare. Y )  0.Y) un vector aleator discret a cărui repartiţie probabilistă este dată de tabelul de mai jos.3. Aplicaţia 2.

Pearson în anul 1901 ca rod al colaborării acestuia cu antropologul englez F. n j 1. X n )  E ( X 1 )... coeficientul de corelaţie clasic (sau coeficientul Galton-Pearson) este cel mai frecvent utilizat în practică şi.25.. E ( X n )  . Y ) . 2) nu este precisă în cazul independenţei şi al necorelării deoarece dacă r ( X . pentru că este cel mai simplu în utilizare. rezultate remarcabile în acest sens obţinând şcoala românească de matematică sub conducerea lui Silviu Guiaşu introducând măsurile entropice ale dependenţei dintre variabile aleatoare şi vectori aleatori (în anii 1974-1978) cu o largă aplicabilitate teoretică şi practică. Galton (care a avut prima idee de măsurare a corelaţiei sub denumirea de variaţie legată).Observaţia 2. printre care şi aceea că: 1) este dependentă de valorile vectorului aleator ( X .. Definiţia 2. Se numeşte matrice de covarianţă (sau de corelaţie) a vectorului Z şi se notează prin C (Z ) . Y j i . X n  Z : E  R n .. pentru celelalte două obiecţii nu s-au dat răspunsuri clare decât după apariţia în 1948 a teoriei matematice a informaţiei. fapte cerute de practică.27. a nu se face confuzie între media produsului componentelor X şi Y.. b) Uneori matricea de corelaţie C (Z ) se mai notează şi cu (Z ) .... se numeşte valoare medie a acestuia şi se notează cu E (Z ) . E ( X 2 ). Y ) şi ca urmare nu este aplicabilă pentru cazul variabilelor aleatoare necantitative. Dacă la prima obiecţie a dat chiar K.. matricea C ( Z )  cij i 1. c) Desfăşurat matricea de covarianţă C (Z ) are forma: 44 .3. n  C  X i . Y ) care este E ( X . În ciuda tuturor criticilor ce i s-au adus. 3) nu poate fi extinsă la mai mult de două variabile aleatoare sau chiar la doi sau mai mulţi vectori aleatori.26.. X 2 .Y )  0 nu există un răspuns categoric (în sensul independenţei sau necorelării). a) Pentru cazul unui vector aleator bidimensional.3. n Observaţia 2.3. această măsură a gradului de dependenţă a fost criticată încă de la apariţiei ei pentru diverse motive. Pearson un răspuns. Coeficientul de corelaţie r ( X . care este E ( XY ) şi media vectorului ( X . X 2 . Fiind dat vectorul aleator Z   X 1.Y ) reprezintă prima măsură a corelaţiei sau gradului de dependenţă în sens clasic.. Introdusă de către statisticianul englez K. vectorul n-dimensional ale cărui componente sunt valorile medii ale componentelor lui Z adică: E ( Z )  E ( X 1 . j 1. dacă există. dacă există.

28... atunci putem introduce matricea coeficienţilor de corelaţie R(Z ) a cărei formă dezvoltată este:  1 r ( X 1 . X1 ) 1 . X 1 ) Var ( X 2 ) . . Var ( X 1 ) C ( X 1 .... k  2 . Fie variabilele aleatoare: 1 1  1 3 2 4 X 1 :   . 8 9 1 3  p21  p211  p221  p2 2  p212  p222    16 16  45 . X n )  R( Z )    . X 2 . 1   n 1 n 2  Ambele forme ale matricei de corelaţie a vectorului aleatoriu Z reprezintă de fapt tabele ale măsurării gradului de dependenţă dintre componentele lui Z.. C ( X 1 . 8 4 16 16 Să se determine repartiţiile bidimensionale şi unidimensionale ale vectorului aleator tridimensional Z   X 1. X ) . 3 3 1 2  p21  p211  p212  p22   p221  p222    8 8  3 5   p11  p111  p121  32 p1 2  p112  p122   32 pentru  X . r ( X 2 ... C ( X 2 . X 3  şi matricele de corelaţie C (Z ) şi R(Z ) .. r ( X 1. d) Pornind de la definiţia coeficientului de corelaţie şi de la matricea de corelaţie. .. p122  . . p121  . X n )     C ( X 2 . .. considerate două câte două. X   .    r ( X . j.    C ( X ... p212  ... p221  ... X n )     r ( X 2 . X   . constatăm că matricea C (Z ) este simetrică.. X 3 :    p1 p2   q1 q2   r1 r2  a căror repartiţie comună notată ( pijk ) .. dacă toate componentele lui Z sunt neconstante.. X 2 ) . . X ) C ( X . 1  i.. p222  . 16 16 32 32 1 1 1 5 p211  . este: 1 1 1 3 p111  . X ) ..3. p112  . X 2 ) .. Var ( X )   n 1 n 2 n  şi ca urmare a proprietăţilor corelaţiei... X ) r ( X ... . X 2 :   . Rezolvare Avem imediat repartiţiile bidimensionale  1 1  p11  p111  p112  8 p12  p121  p122   8 pentru  X . Aplicaţia 2.. X n )  C (Z )    .

X2. 16 8 3 3 C ( X 2 . Var ( X 2 )  1 55 101 207 E( X 3 )  . r ( X 1 . E( X 1 )E(X 3 )  .21 1      constatând că X1 şi X2 sunt independente în timp ce între X3 şi X1 sau X3 şi X2 există o anumită dependenţă chiar dacă nu este puternică. X   . X3). E ( X 1 ) E ( X 2 )  1 . 3 13  2 3  p 21  p121  p221  p 22  p122  p222    32 32  şi ca urmare putem scrie următoarele tabele de repartiţie bidimensionale: X2 X3 X3 1 3 pi 2 4 pi 2 4 qi X1 X1 X2 -1 1/8 1/8 ¼ -1 3/32 5/32 1/4 1 3/16 5/16 1/2 1 3/8 3/8 ¾ 1 3/16 9/16 3/4 3 3/32 13/32 1/2 qj 1/2 1/2 1 rk 9/32 23/32 1 rk 9/32 21/32 1 din care se observă şi repartiţiile unidimensionale (repartiţiile variabilelor aleatoare considerate X1.12 16 32 32 207 113 55 E( X 2  X 3 )  . X 2 )  0 29 55 3 3 E( X1  X 3 )  . Se numeşte mediana unei variabile aleatoare X.21 16 207 şi ca urmare putem scrie matricele de corelaţie: 34 0 3 32   1 0 0. X 3 )  . Din aceste tabele deducem prin calcul imediat: 1 3 E ( X 1 )  . 3 5  p11  p111  p211  16 p12  p112  p212   32 pentru  X . Var ( X 1 )  2 4 2 E ( X 2 )  2 .21  3 32 3 16 207 256   0. X 3 )  . r( X 2 .3. E ( X 2 )  5 . X 3 )   0. X 2 )  0 . C ( X 1.12 0. E ( X 32 )  . X 3 )   0. Alte caracteristici numerice Definiţia 2.29. caracteristica numerică Me care verifică relaţia: 1 P( X  M e )   P( X  M e ) 2 46 . r ( X 1 . E ( X 12 )  1 .12      C (Z )   0 1 3 16  şi R (Z )   0 1 0. C ( X 1. Var ( X 3 )  16 8 256 E ( X 1  X 2 )  1 . E ( X 2 )E ( X 3 )  .

E(4X-2).34. 1.5  Să se calculeze: E(X). Dacă X este o variabilă aleatoare cu funcţia de repartiţie F (x) . Dacă există un singur punct de maxim local spunem că legea lui X este unimodală altfel o numim plurimodală. Se numeşte valoare modală sau modul a variabilei aleatoare X orice punct de maxim local al distribuţiei lui X (în cazul discret) respectiv al densităţii de probabilitate (în cazul continuu). 2 ab 2.  0.32.37.3. 1) Dacă e<0 atunci graficul distribuţiei are un aspect turtit şi legea se numeşte platicurtică. 2) Dacă e>0 atunci graficul distribuţiei are un aspect ascuţit şi legea va fi numită leptocurtică. Definiţia 2.  1 0 2  Exemplul 2. se numesc cuartile (în număr de trei) ale lui X (sau ale repartiţiei lui X) numerele q1 . Se numeşte asimetria (coeficientul lui Fischer) variabilei  aleatoare X caracteristica numerică definită prin s  33 .  Observaţia 2.30.3 0.35. Se numeşte exces al variabilei aleatoare X. caracteristica  numerică definită prin e  44  3 .33. 47 . E(3X).  X .31.3.Observaţia 2. Dacă F este funcţia de repartiţie şi este continuă atunci 1 M e se determină din ecuaţia F(Me)  . Observaţia 2. 3) Dacă e = 0 atunci repartiţiile sunt mezocurtice. q2 şi q3 cu proprietăţile:  1  1  3 F (q1 )  4  F ( q2 )  2 F (q3 )  4  1  1  3 F (q1  0)   F ( q2  0)  F (q3  0)   4  2  4 Observăm că q2  Me .3.3. Definiţia 2. Se consideră variabila aleatoare X :   .  Definiţia 2.3. Var ( X ). b] atunci se ia M e  2 Definiţia 2. Dacă M e  (a.36.3.3.3.2 0.

altfel Rezolvare x. 2 2 E ( X 2 )  (1) 2  0.2  0  0. în rest a) să se determine constanta k.56  1.8 i 1 E (3 X )  3E ( X )  3  0.38.5  2.8  3. dacă 1  x  2 0. Să se calculeze valoarea medie şi dispersia variabilei aleatoare care are densitatea de probabilitate 1  1  x . y  [0.2 Var ( X )  E ( X )  E ( X )  2.3.3  2  0.3. 2  0 2  0.2 .2) ( x )   0.2  0.2] ( x . c) să se cerceteze dacă X şi Y sunt independente sau nu. Rezolvare a) din condiţiile ( x .2] Deci ( x . Fie vectorul aleator (X.24 Exemplul 2.56 .  X  Var ( X )  1.3  2 2  0. y  [0. x  [0. altfel  Ţinând seama de definiţie avem:  1 2 x3 1 2 2 x3 2 E ( X )   x  (x)dx   x 2 dx   x(2  x)dx   x  1  0 1 3 0 1 3 1  1 2 x4 1 x3 2 x4 2 7 E ( X 2 )   x 2  ( x)dx   x 3 dx   x 2 (2  x)dx   2    0 1 4 0 3 1 4 1 6 7 1 Var ( X )  E ( X 2 )  E ( X )   1  2 6 6 Exemplul 2. y)   Se cere: 0.5  0.39. y)   5 0.x. E (4 X  2)  4 E ( X )  2  4  0.64  1. b) să se determine densităţile marginale. dacă 0  x  1  Observăm că: ( x )  2 . y)  0  k  0   1 2    ( x.8  2  1.4 . d) să se calculeze coeficientul de corelaţie între X şi Y. dacă x  (0.Y) cu densitatea de probabilitate k ( x  y  1). x  [0.1].Rezolvare 3 E ( X )   xi p i  1  0. în rest 48 . y )dxdy  k  dx  ( x  y  1)dy  1  k  1 5 .1].   0 0 1  (x  y  1).

în care X şi Y sunt dependente şi totuşi r  0 . x  [0.1]   X (x )   5 0. atunci coeficientul lor de corelaţie este nul. x  [0.  1 2 2x  4 b)  X ( x )   ( x. y )dxdy   y Y ( y )dy   y (2 y  3)dy     10 0 15  1 1 11 m2 ( X )  E ( X 2 )   x 2  X ( x )dx   x 2 (2 x  4)dx   5 0 30  1 2 8 m2 (Y )  E (Y 2 )   y 2  Y ( y )dy   y 2 (2 y  3)dy   10 0 15 11 64 37 Var ( X )  E ( X 2 )  E ( X )  2 Deci   30 225 450 8 289 71 Var (Y )  E (Y 2 )  E (Y )   2  5 225 225   1 1 2 E ( X  Y )    xy  (x.2]  5 0 10  2y  3  . altfel  1 1 2y  3  y ( y)   (x .Y ) 225 Se obţine: r ( X . y)dx   ( x  y  1)dx  . y)dxdy   dx  xy ( x  y  1)dy     5 0 0 1 1 14  9    2x 2  x dx   C ( X .3. y  [0. Se ştie că. Y )  E ( XY )  E ( X ) E (Y )  . dacă două variabile aleatoare X şi Y sunt independente. y )dxdy   x X ( x)dx   x(2 x  4)dx      5 0 15    1 2 17 E (Y )     ( x. Y )    0. Iată un vector aleator discret (X. altfel c) X şi Y nu sunt independente deoarece: ( x . y  [0.1]  5 0 5  2x  4  . y)   X ( x )   Y ( y)    1 1 8 d) E ( X )    x ( x.02758  X  Y 37 71  450 225 Exemplul 2. Reciproca nu este adevărată.40.Y). 49 . 5 0 3  15 9 8 12  1     15 15 15 225 1  C( X .2]   Y ( y)   10 0. y)dy   ( x  y  1)dy  .

adică M 0  (0. Var ( X )  . Y :    6 16 4 16 6 16   4 16 4 16 8 16  7 3 3 Avem: E ( X )  1.2).41. E(XY)=1   16 16 16 16 16  E(X  Y) .  Y  2 2 2   2 1 0 2 4  XY : 1 2 6 4  3  .2) adică există o infinitate de valori modale situate pe segmentul (0. E (Y 2 )  . 1 Me se determină din ecuaţia F ( M e )  . Y X -1 1 2 0 1 2 3 16 16 16 1 2 0 2 16 16 1 2 3 2 16 16 16 Rezolvare Calculăm repartiţiile marginale:  0 1 2   1 1 2  X :   .2) a) Să se determine modulul şi mediana b) Să se calculeze momentul de ordin k.. x  (0. x  (0.3.2) probabilitate definită prin: ( x )   . 2 50 . Fie X o variabilă aleatoare care are densitatea de 0.E(X)E(Y) 11  r  0  X  Y 3 10  2 2 Exemplul 2. mk (x ) . 1 / 2. Rezolvare a) Conform definiţiei. E ( X 2 ) . M0 este valoarea pentru care ( x )  max .  X  4 4 2 5 3 10 E (Y )  1. Var (Y )  .

 2 k 1 2.. P şi variabilele aleatoare X şi Y definite pe Ω cu valori reale. este de tip continuu R Propoziţia 2. Se numeşte funcţia caracteristică a lui X o funcţie  X : R  C dată de relaţia  X (t )   (t )  E (e itX ) . K. j  1. t  R defineşte de asemenea o variabilă aleatoare şi 2 eitX  cos2 tX  sin 2 tX  1 Definiţia 2. Me Me Cum F ( M e )  P ( X  M e )    ( x )dx   M e  1..2. 0 2  1 2k b) mk ( X )  E ( X k )   x k  dx  .4. Dacă X este o variabilă aleatoare expresia eitX  cos tX  i sin tX . i 2  1 .  X m este m  X (t )  1 (t ) 2 (t ) . Fie câmpul de probabilitate ..4. care explicit poate fi scrisă sub forma   pk eitx k . Se numeşte variabilă aleatoare complexă Z  X  iY . m sunt variabile aleatoare independente în totalitate   cu funcţiile caracteristice  X j (t )   j (t ).  t  R 2) Dacă Xj. este de tip discret  k K  X (t )   itx  e  ( x )dx . Fie X o variabilă aleatoare reală. a şi b  R.4. m . Funcţia generatoare de momente Definiţia 2.4. atunci Y (t )   X (at )eitb 4) Dacă X admite momente iniţiale de orice ordine atunci funcţia caracteristică admite derivate de orice ordin şi are loc relaţia 1 mr ( X )  E ( X r )  r  X(r ) (0) i Demonstraţie 51 . j  1.1.4. Observaţia 2.3.4. atunci funcţia caracteristică a variabilei aleatoare sumă X  X 1  X 2  .  m (t )   j (t ) j 1 3) Dacă Y  aX  b . Funcţia caracteristică. Funcţia caracteristică are următoarele proprietăţi: 1)  (0)  1 şi  (t )  1.. iar valoarea medie a acesteia notată cu E (Z ) este dată de relaţia E (Z )  E ( X )  i E(Y ) dacă mediile E ( X ) şi E (Y ) există.

4.4. Se numeşte funcţie generatoare de momente. x  0.  1 0 1  1) Dacă X :   atunci 1 6 1 2 1 3  1 1 1 2eit  eit  3  (t )  eit   eit  6 2 3 6 1  x 2  2ix itx 2) Dacă X :   . Folosirea relaţiei de la punctul 4) este recomandabilă doar atunci când calcularea momentelor este mai comodă prin această relaţie decât pornind direct de la definiţia acestora. X este de tip discret  k K G (t )   tx  e  ( x )dx . K.7.4. funcţia G : R  R .4.5.1 atunci  (t )   2 xeitx dx  e  2x  0 e2   x  1  it 3) Dacă X :   x  ...8. e itX m )   E (e )    j (t ) j 1 j 1 3) Tot ca urmare a proprietăţilor mediei avem:  Y (t )  E (e itY )  E (e itaX  e itb )  e itb aX (t )  e itb X (at ) 4) Observăm că  X( r ) (t )  E ( X r e itx i r )  i r E ( X r e itX ) şi rezultă  X( r ) (0)  i r E ( X r )  i r mr ( X ) . Aplicaţia 2.q. putem scrie că m m itX j  X (t )  E (e itX )  E (e itX 1  e itX 2 . dată de relaţia G X (t )  G (t )  E (e tX ) care explicit poate fi scrisă sub forma   pk etx k . 1)  (0)  E (1)  1 şi itx k  (t )  p e k  p k eitx  p k  1 dacă X este de tip discret şi k K k K k K  (t )   eitx  ( x)dx   e itx  ( x )dx    ( x)dx  1 dacă X este de tip continuu.d Observaţia 2.e. X este de tip continuu R cu condiţia existenţei expresiilor corespunzătoare. P . Fie X o variabilă aleatoare reală definită pe câmpul de probabilitate . Funcţia generatoare de momente are următoarele proprietăţi: 52 . R R R 2) Având în vedere proprietăţile valorii medii. dacă există. x  0 atunci  (t )   e  x eitx dx  e  0 1  t2 Definiţia 2. Propoziţia 2.6.

1. x  0 .   0 atunci  e    G (t )    e  x etx dx  . 1  j  m . Probleme rezolvate Aplicaţia 2.  X m este m G X (t )   G j (t ) j 1 3) Dacă Y  aX  b . X . 1) G (0)  1 2) Dacă Xj..  k  3) Dacă X :  k k n  k  . Rezolvare 53 . j  1. r  1.. atunci GY (t )  G X (at )  etb 4) Dacă X admite momente iniţiale de orice ordin. Y2. XY. m .. dacă t   0  t iar în caz contrar nu există.. max(X. G ' ' (t )  npet ( pet  q ) n 1  n(n  1) p 2e 2t ( pet  q) n  2 ' G ' (0)  np  E ( X ) . atunci funcţia generatoare a variabilei aleatoare X  X 1  X 2  . n n G (t )   Cnk p k q n  k e tk  ( pet  q) n k 0 G (t )  npet ( pet  q )n 1 . 1 / 2 1 / 4 1 / 4  1 / 3 1 / 6 1 / 2  Să se scrie variabilele aleatoare : 2X. 2X+3Y. p  q  1 . q  0 .5. .  1 0 1  1) Dacă X :   atunci 1 6 1 12 2 3  1 1 1 2e t  e  t  3 G (t )  e  t   e  t  6 2 3 6  x  2) Dacă X :   x  . Fie variabilele aleatoare independente :  0 1 2   1 1 2  X :   şi Y :   . X/Y. atunci funcţia generatoare admite derivate de orice ordin în punctul zero şi G X( r ) (0)  E ( X r )  mr ( X ) .5.4. p. Aplicaţia 2.9. X+Y. G '' (0)  n 2 p 2  npq  E ( X 2 ) 2. a şi b  R. atunci  Cn p q  k  0 . sunt independente în totalitate şi au funcţiile generatoare G j (t ) . 2.Y).

Y ) :   . 3Y :   . 1 / 12 1 / 12 1 / 2 1 / 24 1 / 6 1 / 8  Cum 2X şi 3Y au repartiţiile  0 2 4  3 3 6  2X :   .  1 / 2 1 / 4 1 / 4  1 / 2 1 / 4 1 / 4  1 / 2 1 / 2  1 1 1 P(Y 2  1)  P(Y  1  Y  1)  P(Y  1)  P(Y  1)    . Y2. Y  1)  P( X  0) P(Y  1)    .2. Fie X şi Y două variabile aleatoare discrete ale căror repartiţii probabiliste comună (pij ) şi marginale (pi) şi (qj) sunt date în tabelul următor : X\Y -1 0 1 pi -1 1/8 1/12 1/6 3/8 1 1/24 1/4 1/3 5/8 qj 1/6 1/3 1/2 1 54 . Y 2 :   . Y 1 / 12 1 / 12 1 / 2 1 / 8 1 / 6 1 / 24   0 1 2  max( X .1 ≤ i. Probabilităţile corespunzătoare valorilor lui 2X. 3 6 2 Deoarece X şi Y sunt independente avem că pij = piqj.5. X sunt aceleaşi cu cele corespunzătoare lui X şi respectiv Y. Obţinem 2 6 12  0 1 0 1 0  2 11 11 1  2 2 1 2 1 2  2 X  Y :    1 / 6 1 / 12 1 / 4 1 / 12 1 / 24 1 / 8 1 / 12 1 / 24 1 / 8  adică  1 0 1 2 3 4  X  Y :   . 1 / 6 1 / 12 1 / 12 1 / 12 1 / 24 1 / 4 1 / 24 1 / 8 1 / 8  La fel obţinem: X  2 1 0 1/ 2 1 2  :   . Avem:  0 2 4   0 1 2  1 4  2X :   . De exemplu 1 1 1 p12  P( X  0. j ≤ 3 . 1 / 6 5 / 24 5 / 8  Aplicaţia 2.  1 / 6 1 / 12 1 / 6 7 / 24 1 / 6 1 / 8  Analog  0  (1) 0  1 0  2 1  (1) 1  1 1  2 2  (1) 2  1 2  2  X  Y :    1 / 6 1 / 12 1 / 4 1 / 12 1 / 24 1 / 8 1 / 12 1 / 24 1 / 8  de unde  2 1 0 1 2 4  X  Y :   . 1 / 2 1 / 4 1 / 4  1 / 3 1 / 6 1 / 2  obţinem repartiţia lui 2X + 3Y :   3 1 1 3 5 6 7 8 10  2 X  3Y :   . X :   .

p22  .3] . 1 1 / 3 2 / 3  1 2 3 3 3 Aplicaţia 2. Y  1)  p1q1  P( X  1) P(Y  1) .8). p21  . Y 1 / 24  1 / 6 1 / 12  1 / 4 1 / 8  1 / 3  Repartiţiile lui X2 şi Y2 rezultă imediat din cele ale lui X şi Y: 1  0 1  X 2 :   . P (3. 1 3 1 ceea ce nu are loc întrucât   . p13  . Rezultă 3p2 + 2p = 1 şi p ≥ 0.1  X X  2. P ( X  3).2). P (1. p p 2 p p2 p 2  a) Să se determine p. 8 12 6 24 4 3 obţinem   2 1 0 1 2  X  Y :   .5  X  3. X ∙ Y. Y2. P ( X  2. X2.1). Rezolvare a) Trebuie să avem p + p2 + p + p2 + p2 = 1 şi p ≥ 0. p23  .5  X  3 2  X  4). c) Să se scrie variabilele X + Y . F(x) = p = 1/3 dacă x  (1.3. 55 . 3 / 8 5 / 8 1 / 6 1 / 3 1 / 2  b)Dacă X şi Y ar fi independente atunci p11  P( X  1. adică p = 1/3. F(x) = P(X=1) + P(X=2) = p + p2 = 4/9 dacă x  ( 2. Rezolvare a)Din tabelul de repartiţie de mai sus deducem că  1 1   1 0 1  X :   şi Y :   . b) Să se calculeze funcţia de repartiţie a lui X. Fie variabila aleatoare discretă X :  . b) Cum F(x) = P(X  x) rezultă că F(x) = 0 dacă x ≤ 1. P (1. 1 / 8 1 / 12 1 / 6  1 / 24 1 / 4 1 / 3   1 0 1  X  Y :   . 1 / 6  1 / 24 1 / 12  1 / 4 1 / 8  1 / 3  X  1 0 1  :   . a) Să se scrie variabilele aleatoare X şi Y. Y 2 :   . Y/X . p12  . b) Să se precizeze dacă X şi Y sunt independente. P ( X  4).2] . c) Să se calculeze probabilităţile: P ( X  1). 8 8 6 c)Deoarece 1 1 1 1 1 1 p11  .5.

x  [0. X  2. de unde  xdx    a  dx  1 sau  0 1/ 2  3   x2  x 2 10/ 2   ax   12/ 2  1 .5] şi F(x) = 1 dacă x > 5 . x0  0. 1  3 . 4  . x  (1/ 2. x  [0.8) p  2 p 5 P(1. Determinaţi constanta a  R pentru ca funcţia f dată mai jos să fie densitate de repartiţie şi apoi să se determine funcţia de repartiţie corespunzătoare. x  (1 / 2.5<X≤3/2<X<4)=P(X=2 sau X=3 / X=3) = P(X=3/X=3) =1. x  [0.1  X . 1  x  2. P(1. c) Avem P(X<1) = P(Φ) = 0. Să se calculeze mediana.1 / 2]  2x  ( x )  a  . Rezultă a = 4/3 şi deci  3  0.8) P( X  3. x  (1 / 2.2]  3  0.8) P( X  2. x  1. x  5. 9  1. cuantilele şi valoarea modală a variabilei aleatoare X având densitatea de probabilitate ρ(x):  2 x.2]   3  1.4.1) 2 p2 2 P(3. x2 56 . P(X≥2.8)    2  P( X  2. x0  2  2 x .1 / 2]  F ( x)    (t )dt   1 x 4  2t   4x  x2  1  4  1 / 2 3 dt.1  X X  2.2)=P(X=2)+P(X=3)=4/9.1)=P(X=3)+P(X=4)+P(X=5)=5/9.5. 2  x  3. x2  1. 4  x  5. P(X<3)=P(X=1)+P(X=2)=4/9.  F ( x)   9 7  .4] . P(X>4)=P(X=5)=1/9. F(x) = P(X=1) + P(X=2) + P(X=3) + P(X=4) = p + p2 + p + p2 = 8/9 dacă x  (4. Rezolvare  1/ 2 2  2x  Avem   ( x)dx  1 . Aplicaţia 2.1 / 2] x  x . 9  8 .2]   . F(x) = P(X=1) + P(X=2) + P(X=3) = p + p2 + p = 7/9 dacă x  (3. Deci :  0.5<X<3. P(3. altfel. 3  x  4.

Var(X). adică  . de unde q=1/2.2] . Analog q+q2+q2=1. Rezultă că 7 E(Y)=y∙q+2y∙q2+3y∙q2= y .5. deci 1 1 1 F ( M e ( X ))  şi F ( M e ( X ))  .  p 2p 3p 4p  q q 2 q 2  ştiind că E(X)=2 şi E(Y)=7. astfel că 2      10 5 10 5  2 4 4  1 1 3 2 E( X 2 )  0   1   4   9   5 şi 10 5 10 5 57 . Y : 1 1 1 . Să se determine variabilele aleatoare independente  x x  1 x  2 x  3  y 2y 3y  X :   şi Y :  . de unde x  2   (1 / 2. x . 3 2 2 3 1 Aşadar M e ( X )  2   c2 .5. Tablourile de 4 repartiţie ale lui X şi Y vor fi 0 1 2 3 4 8 12  X : 1 1 3 2 .1/2] şi descrescătoare pe (1/2.2]. Rezolvare Deoarece X este o variabilă aleatoare trebuie să avem p+2p+3p+4p=1. Atunci E(X) = x∙p+(x+1)∙2p+(x+2)∙3p+(x+3)∙4p = 10px+20p = x+2. Să se calculeze apoi E(2X+3Y).      10 5 10 5 2 4 4 Folosind proprietăţile mediei avem E(2X+3Y) = E(2X)+E(3Y) = 2E(X)+3E(Y) = 2∙2+3∙7 = 25. Aceasta se 2 2 2 2 4x  x  1 1 3 realizează pentru  . adică 2q2+q-1=0. Y : 1 1 1  . Întrucât F este continuă vom avea F(x) = F(x+0) . 3 4 2 Deoarece ρ este crescătoare pe [0. Se observă că F(1/2)=1/4 deci c1  c3 2 2 4x  x2  1 3 3 rezultă din F(x)=3/4. Cum E(Y) = 7 avem că y=4. de unde c3  2  . Acestea au tablourile de repartiţie  0 1 4 9 16 64 144  X 2 : 1 1 3 2 . 2 Aplicaţia 2. adică p=1/10. Cum E(X) = 2 rezultă că x = 0. prin urmare M o ( X )  . 1 x=1/2 este punct de maxim (singurul). Pentru calcularea dispersiilor avem nevoie să calculăm mediile lui X2 şi 2 Y . adică F ( M e ( X ))  . Var(Y) şi Var(2X+3Y).

Aplicaţia 2. Cum X şi Y sunt independente.5. Din ipoteză Var(Y)=1. rezultă că q1  şi 5 5 10 10 10 1 q2  . Obţinem astfel 2  a a2   b 0 b  2 3 X :  2 3  . de unde a1=5. rezultă că 10 2 5 2 b2 b2 49b 2 Var (Y )  E (Y 2 )  E (Y ) 2    . Din tabloul repartiţiei comune (pij) avem 49 7 58 . a2=-17/3. adică b  .     5 5 5 5   10 2 5  adică 3a2+2a-85=0. Atunci 2 4 4 Var(X) = E(X2)-E(X)2 = 5-4 = 1 şi Var(Y) = E(Y2)-E(Y)2 = 60-49 = 11. Să se calculeze apoi E(XY) şi Var(X-Y). adică   p13  . ştiind că E(X)=17 şi Var(Y)=1. Y :  3 1 1  . 1 1 1 E (Y 2 )  16   64   144   60 . X\Y -b 0 b pi a 1/5 1/10 a2 2/5 3/5 qj 1/5 Rezolvare 3 2 Deoarece p1+p2=1 rezultă că p1  1   . 2 100 100 100 10 astfel că b 2  . Din p11+p21=q1 şi p22+p12=q2. Cum 5 10 5 10 1 1 1 p13+p23=q3 rezultă că p23    . adică 5 10 10 3 2 1 1 3 p21     . Să se determine variabilele aleatoare X şi Y ale căror repartiţii sunt date incomplet în tabelul de mai jos. Astfel E ( X )  a   a 2   17 . rezultă că şi 2X şi 3Y sunt independente şi avem Var(2X+3Y) = Var(2X)+Var(3Y) = 4Var(X)+9Var(Y) = 4∙1+9∙11 = 103. Dar p21+p22+p23=p2. Deoarece 3b 1 b b E (Y )    0     şi 10 2 5 10 3 1 1 b2 E (Y 2 )  (b) 2   0 2   b 2   .6. deci p13  . Mai departe 5 5 1 1 2 1 p11+p12+p13=p1.

q  0 . Rezolvare  1 n 1 1 1 3 a)Din condiţia  4q n 0  1 rezultă că  4 1 q  1 1 q   q  4 4  ' 1 1  1  1    E ( X )   n  q n  q  n  q n 1  q  (q n )'  q  q n   n 0 4 4 n 0 4 n 0 4  n 0  Atunci ' 1  1  1 1 1 3 1  q     q 2    3 4  1  q  4 (1  q) 4 4 1 16 59 . avem nevoie de: a  b a 2  b a 2a 2 a  b a 2  b 6a 2  4a  b E( X  Y )        10 10 10 5 5 10 10 2 2 2 2 4 2 2 ( a  b) ( a  b) a 2a ( a  b) ( a  b) 2 2 E[( X  Y ) ]        10 10 10 5 5 10 6a 4  4a 2  2ab  5b 2  10 120 18985 Pentru a=5. x  [0.  a( x  2 x )  a 2 x 3 . 7 49 18985 14400 4585 deci Var ( X  Y )    .5.  q  4   x  b) X :  2 . având repartiţia respectivă:  n  a) X :  1 n . x  [0. Pentru calcularea dispersiei lui X-Y.2]   ( x)  2  0.1]. altfel. X fiind o variabilă aleatoare. 49 49 49 Aplicaţia 2.   a 2b  ab 0 ab a2b   a  b a2  b a a2 a  b a2  b  XY :  1 1 1 1 1  şi X  Y :  1 1 1 2 1 1       10 5 2 10 10   10 10 10 5 5 10  a 2 b ab ab a 2 b ab a Astfel E ( XY )        . E(XY)=17/21.  ( x )   ax.1]  x   1 c) X :  . a  0 . n  N . 10 5 10 10 10 7 Dacă a=5. Să se determine parametrii care apar în repartiţiile următoare şi să se calculeze apoi E(X) şi Var(X). E(XY)=-5/7. b=10/7 avem E(X-Y)= şi E[( X  Y ) 2 ]  . x  (1. iar dacă a=-17/3.7.

24  30  1800 Aplicaţia 2. astfel că : 2 1 2 x x5 x3 1 7 41 E ( X )   x   ( x )dx   x  x 3 dx   x  dx  1 0  2 1    0 0 1 2 5 6 5 6 30 2 1 2 x x6 x4 49 E ( X 2 )   x 2   ( x)dx   x 2  x 3 dx   x 2  dx  1 0  2 1  . Să se determine: (1  x )(1  y 2 ) 2 a) funcţia de repartiţie corespunzătoare. 40  16  1280 2 c) Din condiţia   ( x)dx  1 rezultă că 0 4 1 ax 2 2 x 1 x2 2 a 2 3a a 1 0 a 2 x 3dx  dx  1  a  0  a  1  1    1  Cum 1 2 4 4 4 4 a  4  ( x)  0 numai a=1 convine. 0 0 4 4 4 3  16 2 1 2 1 2 3 2 3  x 5 2 x 4  1 21 E ( X )   x   ( x )dx   x  ( x  2 x)dx     0 .8. Y variabile aleatoare independente. Atunci  3  3 4 1 1 3 3  x 4 2 x 3  1 11 E ( X )   x   ( x)dx   x  ( x 2  2 x )dx     0 . 0 0 4 4 5 4  40 2 21  11  67 Astfel Var ( X )  E ( X 2 )  E ( X ) 2     . Fie vectorul aleator (X.5.1)  [0. Rezolvare 60 . a cărui densitate de probabilitate este a  ( x. 0 0 1 2 6 8 24 2 2 2 49  41  313 Var ( X )  E ( X )  E ( X )     .1)) . 4  (1  q )  4 (1  q ) 3 Astfel Var(X) = E(X2)-E(X)2 = 24-9 = 15. Y )  [0.Y) cu X. y )  . b) P(( X .  ' ' 1 1  1    1   E ( X )   n  q n  q  n(q n )'  q  nq n   q  nq n   2 2 n 0 4 4 n 0 4  n 0   4 n 0  ' 1  1  1 2  q 2   q  24. 1 2 b) Din condiţia  a( x  2 x)dx  1 rezultă că 0  x3  4 3 a  x 2  10  1  a   1  a  .

3 2 x y b) Avem F ( x. y )    u vdudv   u 2 du  vdv  . adică a  x 2 dx  ydy  1 . 0 0 2 2 0 0 4 61 .1]  [0. b) Să se calculeze funcţia de repartiţie F(x. y )   u vdudv  u du vdv  0 0 2 2 0 0 . Fie vectorul aleator (X. 2]  ( x. y )    u 2 vdudv   u 2 du  vdv  x 3 . Rezultă R 2  (1  x )(1  y 2 ) 2  dx   dy 1 că a  2  2  1  a  arctgx  arctgy   1  a  2 .y)=1.1]  [0.0)  16 Aplicaţia 2. atunci f(x.1)  F (0. y )    0.0)  F (0. altfel. y )dxdy  1 . Rezolvare 1 2 1 2 a) Avem   ( x.y)  [0. y )  [0. y )  2    2     (1  u )(1  v )   1  u 2  1  v 2 2 2 Atunci 1 1  1 1   arctgx   arctgy    2   2 1 1 1 dudv P(( X . Dacă x > 1 şi y > 2. y )dxdy  1 .y)=0. a  a) Avem   ( x. Y )  D )  2     0 0 (1  u 2 )(1  v 2 ) b) 1  F (1.Y) cu densitatea de probabilitate ax 2 y.y) şi funcţiile marginale FX(x) şi FY(y). 0 0 2 2 0 0 Dacă x > 1 şi y  [0.2] obţinem 1 y 3 2 3 1 y y2 F ( x. deci  dxdy  1 . y )     ( x.1] şi y > 2 avem x 23 3 x 2 F ( x.   1  x  1  y  1 x y dudv 1 x du y dv F ( x. Dacă (x. a) Să se determine constanta a. ( x. rezultă că 0 0 0 0 2a 3  1 de unde a  .5.9. 4 Dacă x  [0.   Dacă x < 0 sau y < 0.y)=0 şi deci F(x.2] avem 3 2 x y 3 x 2 y x3 y 2 F ( x. atunci F(x.1)  F (1. y )dxdy .

y )    0. y0  y 2 FY ( y )  F (. e) Corelaţia variabilelor X şi Y. y  [0.y) şi funcţiile de repartiţie marginale FX(x). altfel Să se calculeze: a) P(X<1. FY(y). y )  [0. x  [0. y )   .10. y  2 Funcţiile de repartiţie marginale sunt  0. P(X+Y<1). x  1. ( x.2]  43 Astfel F ( x. )   x . x0  3 FX ( x )  F ( x. x  0 sauy  0  x3 y 2  . Fie vectorul aleator (X.s) . Y  1)     ( x. y)dxdy    e  x y dxdy   e  x ( e  y ) 10 x dx  0 0 0 x  y 1 1   (e  x  e 1 )dx  (e  x ) 10 e 1  1  2e 1 . b) Funcţia de repartiţie F(x.  0. x  [0. y2 Aplicaţia 2. P(X+Y≥2). P(X≥1/Y≥1). y  2  y 2  . y )   x . y  0  ( x.2] 4  1. y  [0. y )dxdy    1 1  x y  e dxdy  (e  x ) 10 (e  y ) 10  (1  e 1 ) 2 0 0 1 1 x 1 P ( X  Y  1)    ( x.1]  [0. x  1. ρY(y). P(X<2Y). Rezolvare 1 1 a) P ( X  1. x 1   0.5. d) Momentele obişnuite de ordin (k. P(X=n) .1]  1.2]  4  1. 0 P ( X  Y  2)  1  P ( X  Y  2)  1    ( x. y)dxdy  x  y2 2 2 x 2 2 1   e  x y dxdy  1   e  x (e  y ) 02 x dx  1   (e  x  e 2 )dx  3e 2 0 0 0 0 62 . x  0.Y<1).Y) având densitatea de probabilitate e  ( x y ) .1]. c) Densităţile de repartiţie marginale ρX(x).

P( X  1. 0 0 0 0 Funcţiile de repartiţie marginale sunt FX ( x )  F ( x.Y) un vector aleator discret a cărui repartiţie probabilistă este dată în tabelul de mai jos. y )    e u v dudv   e u du  e v dv  (1  e  x )(1  e  y ) . x  0 e . deci F(x. X\Y -1 0 1 2 pi -1 1/10 1/5 1/10 0 2/5 0 1/20 0 1/10 1/20 1/5 1 1/10 1/10 1/20 3/20 2/5 qj 1/4 3/10 1/4 1/5 1 63 . c) Densităţile de probabilitate marginale  X (x ) şi Y ( y ) sunt derivatele funcţiilor de repartiţie marginale:  0. v)dudv . Aplicaţia 2. y )     (u . Y )  E ( XY )  E ( X ) E (Y )  m11   xe  x dx  ye  y dy  0 0  1   ( 2) 2  1  1  0 . 0  3  3 3 x y b) Avem F ( x. Y  1) P( X  1 / Y  1)  P(Y  1) 2 P ( X  1. Y  1)  e 1 x    x y P ( X  2Y )   e dxdy    2 e  x e  y dydx   e  x (e  y ) 0x / 2 dx  0 0 0 0 x 2 y 3 x  x   x 2 32 x   2 1   (e  e 2 )dx    e  e  0  1   . y )  1  e  y . Fie (X. Dacă x ≥0 şi y ≥0 avem x y x y F ( x. P(X=Y)=0. Să se calculeze coeficientul de corelaţie r(X. )  1  e  x şi FY ( y )  F (. e .Y) şi să se scrie ecuaţiile dreptelor de regresie. 0 0  unde ( p )   x p1e  x dx este funcţia gama a lui Euler şi are 0 proprietatea că ( p  1)  p! pentru p  N .11. x  0  0. e) Avem   cov( X . Y  1)    1 1  1  e  x y dxdy    e  x dx   (e  x ) 1    e 2 2   P (Y  1)    e  x  y dxdy  e  x  0 (e  y ) 1  e 1 0 1  P( X  1. Y ( y )    y .y)=0. s  M ( X kY s )    x k y s e  x  y dxdy  0 0     x k e  x dx  y s e  y dy  (k  1)( s  1)  k! s! . y  0  X ( x)    x .5. y  0   d)  k .   Dacă x > 0 sau y < 0 ρ(x.y)=0.

pornind de la acestea.25 r( X . deducem imediat: 2 1 2 1 3 1 1 2 E ( X )  1   0   1   0 . 5 5 5 4 10 4 5 5 2 1 2 4 E ( X 2 )  (1) 2   0 2   12   . 5  0. Să se determine funcţia caracteristică şi funcţia generatoare de momente şi apoi să se calculeze. 4 cov( X . momentele m1 şi m2 . 5 5 5 5 1 3 1 1 13 E (Y 2 )  (1) 2   0 2   12   2 2   .  0. Y )   .25  4 57 57 4 5 50 50 5 Aplicaţia 2. 4 10 4 5 10 4 Var ( X )  E ( X 2 )  E ( X ) 2  . 5 13 4 57 Var (Y )  E (Y 2 )  E (Y ) 2    10 25 50 1 1 1 1 E ( XY )  (1)  (1)   (1)  0   (1)  1   (1)  2  0  0  (1)   10 5 10 20 1 1 1 1 1 3 1  0  0  0  0 1  0  2   1  (1)   1  0   1 1   1 2   10 20 10 10 20 20 4 1 cov( X . x  0 . Var ( X )Var (Y ) 2 57  5 50 Ecuaţiile dreptelor de regresie sunt : 2 2 y y x0 5 . e  Rezolvare a) Avem 0it 1 1it 1 2it 1 2  e it  e 2it  X (t )  e  e  e   şi 2 4 4 4 64 . E (Y )  1   0   1   2   .   2 4 4  x  b) X :   x . pentru următoarele variabile aleatoare: 0 1 2 a) X :  1 1 1  .Rezolvare Pe baza formulelor corespunzătoare. Y )  E ( XY )  E ( X ) E (Y )  . Y ) 0.25  x  0 .5.12.

i 4   b)  X (t )   e itx  e  x dx   (cos tx  i sin tx)  e  x dx  0 0     cos tx  e dx  i  sin tx  e  x dx  A  iB x 0 0   A   cos tx  e  x dx   cos tx  ( e  x )' dx  0 0   x    cos tx  e 0   t sin tx  e  x dx  1  tB . 4 4 Obţinem 3i 5 3 5  'X (0)  . i 65 .  "X (t )   (e it  4e 2it ) . 1 t 1 t2 1  it Astfel  X (t )  . 0   B   sin tx  (e  x )dx   sin tx  e  x  0   t cos tx  e  x dx  tA .  "X (0)   .  " X (t )  . (1  t ) (1  t )3 Obţinem  ' (0) m1 ( X )  E ( X )  X  G X' (0)  1 şi i 2  "X (0) m2 ( X )  E ( X )  2  G "X (0)  2 . (1  t 2 ) 4 (1  t 2 ) 5 1 2 G X' (t )  2 . G X' (0)  . de unde 4 4 4 4 '  (0) 3 1 ( X )  E(X )  X  G X' (0)  şi i 4  " (0) 5  2 ( X )  E ( X 2 )  X 2  G "X (0)  . 2 4 4 4 Primele două derivate ale acestor funcţii sunt: i 1  'X (t )  (eit  2e 2it ) .t2A. G "X (0)  .t  1 . 0 0 t 1 1 t Primele două derivate sunt i  2t  it 2 6it 3  14t 2  10it  2  'X (t )  . adică A = 2 şi B = . 1 0t 1 1t 1 2t 2  e t  e 2t G X (t )  e  e  e  . G "X (t )  (e t  4e 2t ) . 0 0 1 t Obţinem A = 1 . 1 t2   e x (t 1) 1 Apoi G X (t )   e tx e  x dx   e x (t 1) dx   0  . 4 4 1 1 G X' (t )  (e t  2e 2t ) . G "X (t )  .

6. Aplicaţia 2.5. 2 2 2 2 Aplicaţia 2.Y) cu densitatea de  A xy . Aplicaţia 2. Y.6. Să se determine:  0. Aplicaţia 2. abaterea medie pătratică.6. Fie X numărul unităţilor alimentare din cele patru la care se găseşte pâine proaspătă într-o zi fixată. y  0. Folosind inegalitatea lui Cebîşev.2. p2=0. Probabilitatea ca o persoană să găsească loc la un hotel este p = 0. Se consideră vectorul aleator (X.Y) coordonatele unui punct luminos ce reprezintă o ţintă pe un ecran radar circular şi care urmează legea uniformă pe domeniul D =  (x. b) numărul persoanelor care au găsit loc la hotel să nu depăşească 3000.6. m 1 dacă variabila aleatoare X are densitatea de probabilitate  x m x   ( x )   m! e .6. Y pentru variabilele aleatoare X. b) densităţile de probabilitate X. Fie X numărul persoanelor care au găsit loc la hotel din totalul de 4000. daca x  0 Aplicaţia 2. să se arate că m P(0X2(m+1))  .8.2.85. b) valoarea medie. Să se determine valoarea medie şi dispersia distanţei Z = X 2  Y 2 de la centrul ecranului până la punctul luminos. În decursul unei luni de zile. p3=0.9. daca x 0 .y)R2x2+y2  r2 . y    . Să se determine: a) distribuţia variabilei aleatoare X. Să se determine probabilitatea ca: a) numărul persoanelor care au găsit loc la hotel să fie cuprins între 3000 şi 3400. la hotelul respectiv s-au prezentat 4000 de persoane.6. 0  Y  ) şi P(X  Y  ).1. Fie (X. Probleme propuse Aplicaţia 2.8. 1 1 1 1 c) probabilităţile P(0  X  . Fie variabilele aleatoare independente: 66 . dispersia.6. daca x. y  x 1 probabilitate:   x.3. altfel a) constanta reală A.4. La patru unităţi alimentare din oraş se poate găsi zilnic pâine proaspătă cu probabilităţile p1=0.6. c) numărul persoanelor care nu au găsit loc la hotel să fie mai mic decât 500. mediana şi modul variabilei aleatoare X.95 şi respectiv p4=0.  0.

6. E(Y2) şi Var(Y). 3Y.7. X-Y. q > 0. Var(X). E(X2+Y). variabila aleatoare X şi apoi să se calculeze E(X) şi Var(X). . 2X+3Y. E(X2+Y2).6.1]. Var(X2+Y2).7. Aplicaţia 2. aR. Var(2X+3Y). Var(X2+Y). Fie variabilele aleatoare independente:  2 1 0 1 2  0 1 2 3 4 5 X : 1 1 2 1 1  şi Y :  1 1 1 1 1 1      10 5 5 10 5   12 12 2 6 12 12  a) Calculaţi E(X). Y3. b) Care dintre următoarele mărimi pot fi calculate şi care nu şi de ce? E(2X+3Y). E(XY).8.6. X 3X-2Y. Y c) Scrieţi variabilele aleatoare: X+Y.  x   x  a) X :  x  .1]. X . XY. b) X :  ax  . Să se determine. a > 0. E(Y). X3. 3Y-2X. Aplicaţia 2. Fie X şi Y două variabile aleatoare discrete ale căror repartiţii probabiliste comune ( pij ) şi unidimensionale ( pi ) şi (q j ) sunt date în tabelul de mai jos: Y -1 0 1 2 pi X -1 1/12 1/24 1/24 1/48 3/16 1 1/48 1/24 1/48 1/24 1/8 2 1/48 1/3 1/6 1/6 11/16 qj 1/8 5/12 11/48 11/48 1 a) Scrieţi variabilele aleatoare X şi Y. 2X. c) Calculaţi mărimile de la punctul b) pentru care răspunsul este favorabil. în fiecare caz. xN. d) X :  2  . xN. b) Precizaţi dacă variabilele aleatore X şi Y sunt independente sau nu şi justificaţi răspunsul. aR  ax   a (3 x  2 x )  67 . X-Y. x[0. p > 0. x[0. E(X2). X2. X2. Y3. Y2. b > 0  pq   b  x!  x  x  c) X :   .  0 1 2  1 0 1 2 X :   şi Y :   1 6 1 2 1 3  1 8 1 2 1 4 1 8  Să determine variabilele aleatoare: X+Y. Aplicaţia 2. XY.

d) X :   x  . k  N .Y ) şi precizaţi dacă există valori ale lui  pentru care X şi Y să fie independente. xR. Y )   . b) X :  1 1 2 1 1 .2 . aR.10. x  0  3x   xe  şi apoi verificaţi dacă momentele obţinute pe cale directă coincid cu cele obţinute cu ajutorul acestor funcţii. a > 0  0 .Y) în funcţie de   R .6.6. Aplicaţia 2.     6 3 2  10 5 5 5 10   x   x  c) X :  2 .  k!   k! c) P(k )   k (1   )1 k .1.11.0    1 68 .  1 . Calculaţi apoi coeficientul de corelaţie r ( X .2 2. Y  0)   şi P( X  1. să se   3  6 2 3 determine repartiţia comună a vectorului aleatoriu (X. k  0.6. Y ) şi densităţile de repartiţie marginale corespunzătoare  X (x) şi Y ( y ) .1 . Fie variabilele aleatoare discrete: X :1 2 şi   3 3  0 1 2 1 Y :  1 1 1  . Aplicaţia 2. Y  1)  . Fie ( X . x  0. în rest 0 1 Aplicaţia 2. b) P(k )  k e . Aplicaţia 2. Y ) un vector aleatoriu continuu cu densitatea de  a( xy 2  x 2 y ) . x  1. Calculaţi funcţia caracteristică şi funcţia generatoare de momente pentru fiecare dintre variabilele aleatoare: 1 2 3  2 1 0 1 2  a) X :  1 1 1  . xR.3 repartiţie  ( X . x  0. k  N . Verificaţi dacă funcţiile următoare definesc repartiţii ale unor variabile aleatoare discrete şi apoi calculaţi E(X) şi Var(X) pentru fiecare dintre ele.9. e    ( x)  ax . y )  1.  x   x  e) X :  a x  . b) Calculaţi coeficientul de corelaţie r ( X . Dacă P( X  0. f) X :   .1  a 2 x 2  ( x)   . ( x.Y ) .  0 . aR  2 0 .12.6. 1 1 (ln  )k 1   a) P(k )  . în rest  a) Determinaţi densitatea de repartiţie  ( X .

legea binomială cu exponent negativ şi cazul particular legea geometrică. Legea discretă uniformă Definiţia 3.2) n k 1 n k 1 n  k 1  Demonstraţie Din formulele de calcul ale mediei şi dispersiei obţinem 69 . 3.1.1). k  1. Variabila aleatoare discretă X urmează legea discretă uniformă dacă are tabloul repartiţiei  x1 x 2 . Din tabloul repartiţiei variabilei aleatoare X se observă că n n 1  pk   k 1 k 1 n  1.1. x n  1 X :   ..1) are o repartiţie discretă uniformă. legea hipergeometrică şi legea Poisson (legea evenimentelor rare).. unde pk  .2. Var ( X )   x k2  2   xk  .. Dacă variabila aleatoare X are repartiţie discretă uniformă cu tabloul repartiţiei (3.1.1.1..1.1. şi anume: legea discretă uniformă. .n . Teorema 3..1.1)  p1 p 2 . n   * . (3. 2. legea binomială şi cazul său particular legea Bernoulli. atunci valoarea medie şi dispersia sa sunt 2 1 n 1 n 1  n  E ( X )   x k . p n  n Vom mai spune că variabila aleatoare X dată de formula (3. Capitolul 3 Legi clasice de probabilitate (repartiţii) ale variabilelor aleatoare discrete Introducere Vom prezenta în acest capitol principalele legi de probabilitate ale variabilelor aleatoare discrete. (3..

d.1. n k 1 (3.1.    n n n atunci 70 . 2 k k 1 n  k 1 n n k 1 n  k 1  q. avem n 1 n itxk  (t )   pk e itxk   e .1. din relaţia a doua (3.2) avem n 2  n 2 n x    x k  .  t  R. . n n 1 1 n E ( X )   xk pk   xk    xk .. şi care rezultă direct şi din inegalitatea lui Cauchy-Buniakovski-Schwarz. adică are tabloul repartiţiei 1 2  n    X : 1 1 1 .3) Demonstraţie Conform formulei de calcul pentru funcţia caracteristică. atunci funcţia sa caracteristică este 1 n itxk  (t )   e . t  R.1). k k 1  k 1  relaţie utilă în diverse aplicaţii practice.1. q. 2.1.e.1.e.. Deoarece Var ( X )  0 . Dacă variabila aleatoare discretă X are repartiţie uniformă cu tabloul repartiţiei (3. Observaţia 3. Dacă variabila aleatoare discretă X are repartiţie uniformă şi ia valorile x k  k . k 1 n k 1 Propoziţia 3. k 1 k 1 n n k 1 n 2 2 2  n 2 Var ( X )  E ( X )  [ E ( X )]   x p k    xk pk  k k 1  k 1  2 2 n 1  n 1 1 n 1  n    x     xk     x k2  2   x k  .3..5.d.4. k  1. Propoziţia 3. n .

Legea Bernoulli Definiţia 3. k  Z ..2.d. n 1 n2 1 E( X )  . k  Z . k  Z .. 12 12 nt sin i ( n 1) t  (t )  2 e 2 ..1. 2. q. t  2k . k  1. 0  p  1 ) dacă ia valorile 0. t n sin 2 Demonstraţie Din formulele (3.. 2.2). obţinem pentru funcţia caracteristică 1 n itk e it 1  e int e it 1  cos nt  i sin nt  (t )   e  n  1  e it  n  1  cos t  i sin t n k 1 nt nt nt nt  nt nt  it 2 sin 2  2i sin cos it sin  cos  i sin  e 2 2 2 e  2 2 2   n t t t n t t t 2 sin 2  2i sin cos sin  cos  i sin  2 2 2 2 2 2 nt nt e it sin sin i ( n 1) t  2  cos ( n  1) t ( n  1) t  2 e 2 . Variabila aleatoare discretă X urmează legea binomială ( X are o repartiţie binomială) cu parametrii n şi p ( n  N .  t  R.. Var ( X )  .   i sin  t 2 2  t n sin  n sin 2 2  (t )  1..e. pentru x k  k . 3.  (t )  1. 2 2 1 n 1  n  1 n 1  n  Var ( X )   xk2  2   xk    k 2  2   k  n k 1 n  k 1  n k 1 n  k 1  1 n(n  1)(2n  1) 1 n 2 (n  1) 2 n 2  1    2  .1. n 6 n 4 12 Din formula (3. . n .. k  Z . obţinem 1 n 1 n n 1 E( X )   n k 1 xk   k  n k 1 2 . t  2k . t  2k . t  2k .1. Legea binomială. n cu probabilităţile 71 .3).1.2.  t  R.

2.. Dacă A este un eveniment legat de o anumită experienţă şi probabilitatea ca A să se producă când efectuăm o singură dată experienţa este P( A)  p . n .. atunci variabila aleatoare care are ca valori numărul realizărilor lui A când efectuăm de n ori experienţa are repartiţie binomială cu parametrii n şi p. Teorema 3.2.. k 0 k 0 72 . atunci X are repartiţie binomială cu parametrii n şi p (conform schemei lui Bernoulli).2..2. i  1.. k  0.2. k 0 Pentru a calcula suma de mai sus vom considera polinomul P( x)  ( px  q ) n  C n0 p n x n  C n1 p n1qx n1    C nn1 pq n1 x  C nn q n n n   C nk p nk q k x nk   C nk p k q nk x k .3. P ( X  k )  C nk p k q n k . C  n p q C n pq C n p q . n.. . C n p q  n n Se observă că C k n p k q n k   C nk p nk q k ( p  q) n  1...2) Demonstraţie Valoare medie a variabilei aleatoare X este n E ( X )  0  C n0 p 0 q n  1  C n1 pq n1  2  C n2 p 2 q n2    n  C nn p n q 0   kC nk p k q nk .4.. An sunt evenimente independente şi P( Ai )  p. Var ( X )  npq . iar X reprezintă numărul evenimentelor care se realizează în cadrul unei experienţe . Exemplul 3. atunci valoarea medie şi dispersia sa sunt E ( X )  np. 2.. A2 .. Tabloul repartiţiei variabilei aleatoare X este  0 1 2 . Dacă A1 .. (3. Dacă variabila aleatoare X are repartiţie binomială cu parametrii n şi p. . 2.1) unde q  1  p ..1.2. k 0 k 0 Exemplul 3. (3.. n  X :  0 0 n 1 n1 2 2 n 2 n n 0 .

Obţinem astfel dispersia lui X Var ( X )  np  n(n  1) p 2  n 2 p 2  np  np 2  npq.2. k 0 Dacă derivăm relaţia de mai sus deducem că n P' ( x)  xP' ' ( x )  np ( px  q ) n1  n(n  1) p 2 x ( px  q) n2   k 2 C nk p k q n k x k 1 .3). obţinem  kC k n p k q nk  np ( p  q) n1 . 73 . q.2. unde q  1  p. k 0 Înmulţim relaţia (3. n Media variabilei X 2 este E ( X 2 )   k 2 C nk p k q n k .2.e. Propoziţia 3.Derivând polinomul de mai sus obţinem P' ( x)  np ( px  q) n1  nC n0 p n x n1  (n  1)C n1 p n1qx n2   n (3.3) cu x şi obţinem xP' ( x )  npx ( px  q ) n1  nC n0 p n x n  (n  1)C n1 p n1qx n1  C nn1 pq n1 x n  0  C nn q n   kC nk p k q nk x k . Pentru a calcula dispersia lui X vom folosi formula Var ( X )  E ( X 2 )  [ E ( X )]2 . k 0 n Luând x  1 în relaţia (3. k 0 Luând x  1 în relaţia de mai sus deducem că E ( X 2 )  np  n(n  1) p 2 .3)  C nn1 pq n1  0  C nn q n   kC nk p k q nk x k 1.2.5. de unde k 0 rezultă că E ( X )  np . Dacă  este modulul (valoarea cea mai probabilă) a unei variabile aleatoare X cu repartiţie binomială cu parametrii n şi p.d. atunci np  q    np  p.

rezultă că variabila X+Y va lua valorile 0.. P ( X    1)  P( X   ). Inegalităţile de mai sus ne conduc la sistemul  q p  1 C p q n  1 n   1 C p q  n  n   n    1     np  p   1  1 n 1     C n p q  C n p  q n  p  q   np  q.e.  t  R. Teorema 3. atunci variabila X+Y are repartiţie binomială cu parametrii m+n şi p..1.d.1. respectiv m şi p. iar Y ia valorile 0.Demonstraţie Dacă  este modulul variabilei X atunci P( X    1)  P( X   ).6. sau (X=k şi Y=0). atunci funcţia sa caracteristică este  (t )  ( pe it  q) n .2..7.1. t  R. Variabila X+Y are valoarea k ( k  0.2. q.2.e..    1 n   de unde rezultă concluzia propoziţiei. Demonstraţie Deoarece X ia valorile 0. Dacă variabila aleatoare X are repartiţie binomială cu parametrii n şi p. n. Propoziţia 3. m.. n  m.. Atunci vom obţine 74 .1.d.4) Demonstraţie Conform formulei pentru funcţia caracteristică avem n n n k  (t )   C p q k n k e itk   C nk ( pe it ) k q n k  ( pe it  q ) n . k 0 k 0 q. n  m) dacă (X=0 şi Y=k) sau (X=1 şi Y=k-1) sau . Dacă variabilele independente X şi Y au repartiţii binomiale cu parametrii n şi p. (3.

j 0 Am folosit mai sus faptul că evenimentele X şi Y sunt independente. n  m. care poate fi dedusă egalând j 0 coeficientul lui x din dezvoltările (1  x ) n (1  x) m şi (1  x) n m .d.2. Concluzia teoremei mai poate fi obţinută folosind proprietatea de la funcţii caracteristice care spune că funcţia caracteristică a sumei a două variabile aleatoare independente cu funcţiile caracteristice 1 (t ) şi  2 (t ). Y  k  j}   P( X  j . Conform Teoremei 75 .atunci   lim P n  p     0. (Bernoulli) Un eveniment are probabilitatea de realizare p atunci când facem o singură dată experienţa de care este legat. Dacă  n este numărul de realizări ale evenimentului când repetăm experienţa de n ori. Demonstraţie Variabila aleatoare  n care are ca valori numărul de realizări ale evenimentului din problemă are repartiţie binomială cu parametrii n şi p. şi de k asemenea am utilizat formula C n j C mk  j  C mk  n .e.  k  0. Teorema 3. (3.4) deducem că funcţia caracteristică a variabilei X+Y este  (t )   pe it  q   pe it  q    pe it  q  n m mn . are forma  (t )  1 (t ) 2 (t ). . Din expresia de mai sus a funcţiei c tragem concluzia că variabila aleatoare X+Y are repartiţie binomială cu parametrii m+n şi p.8. Astfel folosind relaţia (3.1.2. t  R.5) n   n  oricare ar fi   0. k Deci am obţinut P ( X  Y  k )  C mk  n p k q m n k . q. t  R .2. Y  k  j )  j 0  j 0 k k   P( X  j ) P(Y  k  j )   C nj p j q n j C mk  j p k  j q mk  j j 0 j 0 k  p k q m n k  C nj C mk  j  C mk  n p k q m  nk .  k  k P( X  Y  k )  P { X  j .  t  R. adică variabila X+Y are o repartiţie binomială cu parametrii m+n şi p.

n Obţinem   2 pq P n  p     2  2 . din inegalitatea de mai sus rezultă inegalitatea (3. care spune că în condiţiile Teoremei 3.  n  Aplicaţia 3. i  1. n 3.1. (3..8 are loc relaţia   P n  p   1.2.9. n  n 2 q. Observaţia 3.. 2.  An au probabilităţile de realizare P( Ak )  p k .2. 2. Dacă scriem desfăşurat pe Q (x ) sub forma 76 .  n  n n   1 pq pq Var  n   2 Var ( n )  . Variabila aleatoare va avea atunci n valoarea medie. X  . dispersia şi abaterea medie pătratică   1 np m  E  n   E ( n )   p. n. În cadrul unei experienţe evenimentele independente A1 . Să se calculeze valoarea medie şi dispersia numărului de evenimente care se realizează atunci când experienţa are loc. n) este. Probabilitatea ca X să ia valoarea k ( k  0.2. Rezolvare Să notăm cu X variabila aleatoare care are ca valori numărul de evenimente care se realizează în cadrul experienţei.5) este dată de teorema lui Borel. n.. k  1. Valorile variabilei X sunt 0.  n  n n n n Vom folosi acum Inegalitatea lui Cebâşev pentru variabila şi a   . O îmbunătăţire a inegalităţii (3.2.2. A2 .e. 2.d.2.6) unde qi  1  pi . conform schemei lui Poisson (schema binomială generalizată) coeficientul lui x k din polinomul Q ( x)  ( p1 x  q1 )( p 2 x  q 2 ) ( p n x  qn ) .  n   n pq Deoarece lim  0 .5). n.. 2.2 avem E ( n )  np şi Var ( n )  npq .10.2.1.

(3. Q ( x)  a0  a1 x  a2 x 2    an x n . Ideea de demonstraţie a k 0 teoremei este asemănătoare cu cea a Teoremei 3. k 1 Pe de altă parte parte.10) k 1 n Pentru a calcula dispersia. Într- adevăr a0  a1    an  Q(1)  ( p1  q1 )( p 2  q 2 ) ( p n  q n )  1. scris sub cele două forme de mai sus (3.2. 77 . Înmulţim k 0 relaţia (3.2.2. Rezultă că n E ( X )   pk . Derivând relaţia (3.6) şi (3.2. derivând relaţia (3.7) atunci tabloul repartiţiei variabilei X este 0 1 2  n  X :   .7).4.6) obţinem Q ' ( x )  p1  ( p k x  q k )  p2  ( pk x  qk )    p n  ( pk x  qk ) . (3.  a0 a1 a2  a n  Suma tuturor elementelor de pe linia a doua a tabloului de mai sus este 1. n Valoarea medie a variabilei X este E ( X )   ka k . vom calcula mai întâi E ( X 2 )   k 2 a k .2. (3.8) de unde rezultă n Q ' (1)  a1  2a 2  3a3    na n   kak  M ( X ).2.2.2.9) k 1 k 2 k n iar pentru x  1 deducem Q' (1)  p1  p2    p n .2. (3.7) obţinem Q ' ( x )  a1  2a 2 x  3a3 x 2    na n x n1 .8) cu x şi obţinem xQ' ( x)  a1 x  2a 2 x 2  3a3 x 3    na n x n .2. Vom deriva polinomul Q.

2. n       p n  p1  ( p j x  q j )  p 2  ( p j x  q j )    pn1  ( p j x  q j ).12) rezultă că dispersia lui X este n n Var ( X )  E ( X 2 )  [ E ( X )]2   p k  [ E ( X )]2   p k2  [ E ( X )]2 k 1 k 1 n n n n   p k   p k2   pk (1  p k )   p k q k .3 j 1.2.10) şi (3.2.2. 2 j 1. Deci k 1 n E ( X 2 )  Q ' (1)  Q' ' (1)   p k  Q' ' (1). obţinem   Q ' ' ( x)  p1  p 2  ( p j x  q j )  p3  ( p j x  q j )    pn  ( p j x  q j )  j 1. k 1 k 1 k 1 k 1 O altă metodă mai simplă pentru calculul mediei şi dispersiei variabilei X este următoarea: să notăm cu X k variabila aleatoare care are ca valori pe 1 dacă Ak se 78 .12) k 1 k 1 Folosind acum relaţiile (3.n j 1.  j 1.11) şi din relaţia de mai sus deducem că n n E ( X 2 )   pk  [ E ( X )]2   p k2 .11) k 1 Derivăm acum relaţia (3.9) pentru a determina Q ' ' ( x) . k 1 Din relaţia (3.Derivând egalitatea de mai sus rezultă Q ' ( x )  xQ' ' ( x)  a1  2 2 a 2 x  32 a3 x 2    n 2 a n x n1. (3.2.n j  2.n 1  Pentru x  1 obţinem din relaţia de mai sus Q' ' (1)  p1  p k  p 2  pk    p n  p k  p1[ E ( X )  p1 ]  p 2 [ E ( X )  p 2 ] k 1 k 2 k n    pn [ E ( X )  p n ]  E ( X )( p1  p2    p n )  ( p12  p 22    p n2 ) n  [ E ( X )]2   p k2 . (3.2. n Pentru x  1 deducem din relaţia de mai sus Q' (1)  Q' ' (1)   k 2 a k .

n. m  1. 2. 2. 3. n. k 1 k 1 Deoarece variabilele aleatoare X k .1) 79 . legea binomială este cunoscută şi sub numele de legea Bernoulli cu parametrul p.. k  m. q  1  p. 2.. (3. şi pe 0 dacă Ak nu se realizează. Variabila aleatoare X urmează legea binomială cu exponent negativ (X are repartiţie binomială cu exponent negativ) cu parametrii m şi p ( m  N * . Tablourile de repartiţie pentru variabilele X k sunt 1 0  X k :   . Variabila aleatoare X care urmează legea Bernoulli cu parametrul p admite doar două valori posibile 0 şi 1 cu probabilităţile de realizare q=1-p şi p.  pk q k  Atunci numărul evenimentelor care se realizează este X  X 1    X n . k  1.3. m  2.realizează. . având tabloul repartiţiei 0 1 X :  .3. k  1.3. cu probabilităţile P ( X  k )  C km11 p m q k  m .1 este suma a n variabile aleatoare independente cu repartiţii Bernoulli cu acelaşi parametru p.e. pentru k  1.2. Legea binomială cu exponent negativ. Legea geometrică Definiţia 3. atunci dispersia varaibilei X va fi n n n n   Var ( X )  Var ( X k )   E ( X k2 )  [ E ( X k )]2   ( p k  pk2 )   p k q k . Pentru n  1.d. deci media sa va fi n n E ( X )   E( X k )   pk . n sunt independente.1. k 1 k 1 k 1 k 1 q. O variabilă aleatoare cu repartiţie binomială cu parametrii n şi p dată de Definiţia 3. q p  Valoarea medie şi dispersia variabilei X sunt E ( X )  p şi Var ( X )  pq . 0  p  1 ) dacă ia valorile m.

Dacă probabilitatea acestui eveniment când se face o singură dată experienţa este p. pornim de la dezvoltarea în serie de puteri a funcţiei (1  x )  m . O experienţă se efectuează până la cea de-a m-a realizare a unui eveniment A legat de ea. atunci numărul X de efectuări ale experienţei este variabilă aleatoare care are repartiţie binomială cu exponent negativ cu parametrii m şi p.2.3. conform schemei lui Bernoulli.  C m 1 p q C mm 1 p m q C mm11 p m q 2   Exemplul 3. Tabloul repartiţiei variabilei aleatoare X este  m m 1 m2   X :  m1 m 0 . Probabilitatea primului din aceste două evenimente este C km11 p m1q k  m .  Teorema 3. şi anume m m(m  1) 2 (1  x)  m  1  x x . evenimentul { X  k } se scrie ca intersecţia a două evenimente: „în primele k-1 efectuări ale experienţei evenimentul A se produce de m-1 ori” şi „în a k-a efectuare a experienţei se produce A”. Dacă variabila aleatoare X are repartiţie binomială cu exponent negativ cu parametrii m şi p.2) p p Demonstraţie Valoarea medie a variabilei aleatoare X este E ( X )  mC mm11 p m q 0  (m  1)C mm1 p m q  (m  2)C mm11 p m q 2      kC km11 p m q k m .3. Deci P ( X  k )  pC km11 p m1q k  m  C km11 p m q k  m . iar probabilitatea celui de-al doilea este p.1).3. atunci valoarea medie şi dispersia sa sunt m mq E( X )  .3. 1! 2! Pentru m  N * seria binomială de mai sus se scrie sub forma 80 . k  m.unde q=1-p. m  1. k m Pentru a calcula suma seriei de mai sus. Într-adevăr. Var ( X )  2 . (3. x  (1.

1). vom calcula mai întâi E ( X 2 ) .1) k m sau  (1  x)  m  C mm11  C mm 1 x  C mm11 x 2     C km11 x k m .3.  p p Relaţia (3. x  (1. (3. şi anume 81 .3.3. Într-adevăr m   m 1 m k m m m 1 k m m m 1 q C k 1 p q p C k 1 q  p (1  q)      1.5) (1  x) k m Pentru x=q din relaţia (3. k m k m  p p Numele repartiţiei binomiale cu exponent negativ provine din observaţia că termenii P ( X  k )  C km11 p m q k m . folosind relaţia (3.3.3) k m Folosind seria de mai sus (cu x=q).3. observăm că suma tuturor probabilităţilor de pe linia a doua a tabloului repartiţiei variabilei X este 1. x  (1. p m1 k  m (3.  (1  x)  m  C m0 1  C m1 x  C m2 1 x 2     C kk1m x k  m .1).6)   mq m 1 m E ( X )   kC km11 p m q k  m  p m q  m1  kC km11q k 1  p m q m 1  . (3.3. k m k m p m 1 p Pentru a calcula dispersia variabilei X.5) deducem mq m1    kCkm11q k 1.6) Atunci valoarea medie a variabilei X este.3.4) (1  x) k m Derivând relaţia (3. k  m sunt termenii generali ai dezvoltării m 1 q    . x  (1.4) obţinem mx m1  m 1   kC km11 x k 1 .3.3) se scrie echivalent astfel xm  m   C km11 x k (3.

1). (1  x) k m Prin derivarea relaţiei de mai sus rezultă x m1m(m  x )  2 m1 k 1   k C k 1 x . p m 2 p2 iar dispersia varaibilei aleatoare X este m 2  mq m 2 mq Var ( X )  E ( X 2 )  [ E ( X )]2   2  2.e. (3.7)  1  qe  Demonstraţie Conform formulei pentru funcţia caracteristică avem 82 . Propoziţia 3. x  (1. Dacă variabila aleatoare X are repartiţie binomială cu exponent negativ cu parametrii n şi p.5) cu x şi obţinem mx m  m 1   kC km11 x k . x  (1. atunci funcţia sa caracteristică este m  pe it   (t )   it  . t  R.   E ( X 2 )   k 2C km11 p m q k  m  p m q1 m  k 2C km11q k 1. (1  x) m  2 k m Pentru x=q din relaţia obţinută deducem  q m1m(m  q)  k 2Ckm11q k 1  k m p m2 . Rezultă atunci că E ( X 2 ) este q m 1m(m  q ) m(m  q) E ( X 2 )  p m q1m  . p2 p p q. k m k m Înmulţim relaţia (3.1).3.d.3.3.4.

1) C anb Pentru calculul mediei şi dispersiei variabilei aleatoare X cu repartiţie hipergeometrică vom presupune fără a restrânge generalitatea problemei că n  b şi n  a . t  R. (3.3). Conform relaţiilor (3. b. n  b).3. min( n. b şi n ( a.3.2) şi (3. it   1  qe  conform relaţiei (3. n  N * . | x | 1. q.1. Tabloul repartiţiei unei variabile aleatoare X cu repartiţie geometrică cu parametrul p este următorul  1 2 3   X :  m 0 . a )].    (t )   C km11 p m q k  m e itk  p m e itm  C km11 (qe it ) k m k m k m m  pe it   p m e itm (1  qe it )  m    . Var ( X )  2 . n  b) şi min( n. care este adevărată şi pentru numere complexe x  C .4. a)  n .4.  p q pmq pmq2   unde q=1-p.7) media. Legea hipergeometrică Definiţia 3. Variabila aleatoare X urmează legea hipergeometrică (X are repartiţie hipergeometrică) cu parametrii a.d.  (t )  . n  a  b ) dacă poate lua orice valoare întreagă între max( 0.e.4.  t  R. n  b)  0 şi min( n. deci max( 0. dispersia şi funcţia caracteristică ale lui X sunt 1 q pe it E ( X )  . a) şi C ak Cbn k P( X  k )  .  k  [max( 0.3. Atunci tabloul repartiţiei variabilei X este  0 1 2   n  n 1 n 2  X :  C a0 Cbn CC1 C C2 C C .n 0  Cn a b a b   a b  a b C an b C anb C  n a b 83 . p p 1  qe it 3. Pentru m  1 legea binomială cu exponent negativ cu parametrul p se mai numeşte legea geometrică cu parametrul p.

4. Var ( X )  npq . cu n  b şi n  a . avem n C ak Cbn k n C ak Cbnk n C ak Cbnk E( X 2 )   k 2   k ( k  1)   k k 0 C anb k 1 C anb k 0 C anb a (a  1) n k  2 n k a (a  1) n2 an an(a  1)(n  1)  n  C a b k  2 C a 2 C b  E ( X )  n C a b C a b  2   a  b (a  b)(a  b  1) an  . vom calcula mai întâi media variabilei X 2 .Se observă că suma probabilităţilor de pe linia a doua a tabloului de mai sus este 1. atunci valoarea medie şi dispersia sa sunt abn E ( X )  ap .3. fără întoarcerea bilei extrase în urnă (sau se extrag n bile simultan). Într-adevăr avem n C ak C bnk 1 n 1  n  n C k a C bnk  n C anb  1.4.2) a  b 1 a b unde p  . Dacă dintr-o urnă care conţine a bile albe şi b bile negre se extrag n bile una câte una. (3.2. a b a b Demonstraţie Valoarea medie a variabilei aleatoare X este n C ak C bn k a n k 1 a an E( X )   k n  n C a 1 Cbn k  n C anb11   ap . b şi n. iar X este numărul de bile albe extrase.4. Teorema 3. ab Deci dispersia lui X este 84 . b şi n. k 0 C a b C a b k 1 C a b ab Pentru calculul dispersiei. atunci X are repartiţie hipergeometrică cu parametrii a. q  1 p  . Dacă variabila aleatoare X are repartiţie hipergeometrică cu parametrii a. conform schemei hipergeometrice (schema bilei neîntoarse). k 0 C a b Ca b k 0 C a b Exemplul 3.

Pentru variabila    a b a b X 2 obţinem (în urnă au rămas a+b-1 bile) P( X 2  1)  P( X 2  1 / X 1  1) P( X 1  1)  P( X 2  1 / X 1  0) P( X 1  0) a 1 a a b a (a  b  1) a       . a  b  1 a  b a  b  1 a  b a  b  1)(a  b) a  b P( X 2  0)  P( X 2  0 / X 1  1) P( X 1  1)  P( X 2  0 / X 1  0) P( X 1  0) b a b 1 b b(a  b  1) b       .2.2. P ( X 1  0)  ... unde variabila X k ( k  1. Pentru variabila    ab a b X 3 avem (în urnă au rămas a+b-2 bile) P( X 3  1)  P( X 3  1 / X 2  1) P( X 2  1)  P( X 3  1 / X 2  0) P( X 2  0)  [ P(( X 3  1 / X 2  1) / X 1  1) P( X 1  1)  P(( X 3  1 / X 2  1) / X 1   0) P( X 1  0)]P( X 2  1)  [ P(( X 3  1 / X 2  0) / X 1  1) P( X 1  1)   P(( X 3  1 / X 2  0) / X 1  0) P( X 1  0)]P( X 2  0) 85 . n ) are ca valori numărul de bile albe obţinute la extragerea k (1 dacă obţinem bilă albă şi 0 dacă obţinem bilă neagră).2. a b ab  1 0    Deci tabloul repartiţiei variabilei X 1 este X 1 :  a b  . (a  b) (a  b  1) a  b 1 Folosind modelul urnei din Exemplul 3. an(a  1)(n  1) an a 2n2 Var ( X )  E ( X 2 )  [ E ( X )]2    (a  b)(a  b  1) a  b (a  b) 2 abn(a  b  n) abn  2  npq . Pentru X 1 . pentru k  1. n . avem a b P( X 1  1)  . Considerăm o urnă cu a bile albe şi b bile negre din care se extrag una câte una n bile (fără întoarcerea bilei în urnă) şi considerăm variabilele aleatoare X k .4. valoarea medie a variabilei X din problemă se poate calcula şi în felul următor. a  b  1 a  b a  b  1 a  b (a  b)(a  b  1) a  b  1 0    Deci tabloul repartiţiei variabilei X 2 este X 2 :  a b  .

Legea Poisson (legea evenimentelor rare) Definiţia 3. n au acelaşi tablou  1 0    de repartiţie X k :  a b .. variabila X se scrie X   X k . k  1. 2..e.1) k! 86 . deoarece variabilele X k .5. (deşi ele sunt variabile    ab a b dependente). k  0.d. (a  b  2)(a  b) ab b Asemănător se arată că P( X 3  0)  ( 1  P( X 3  1)). n . k  1. n nu sunt independente.. Deci tabloul a b  1 0    repartiţiei variabilei X 3 este X 3 :  a b . 2.    a b a b Se arată în acelaşi mod că toate variabilele X k .1. k 1 k 1 a  b ab n Pentru dispersie nu mai putem scrie că Var ( X ) este egală cu Var ( X k 1 k ). n Cu ajutorul variabilelor X k . Variabila aleatoare X urmează legea Poisson (X are repartiţie Poisson) cu parametrul  (  0) dacă poate lua orice valoare întreagă pozitivă şi k   P( X  k )  e .  a2 a a 1 b  a  a 1 a         a b2 a b a b2 a b a b  a b2 a b a b  b (a  2)a 2  2(a  1)ab  ab 2     a b2 a b a b (a  b  2)(a  b) 2 a (a  b)(a  b  2) a  2  . 2. k  1. n . 2. q.5. k 1 deci media variabilei X este n n a na E ( X )   E( X k )     np .1. .5. 3. (3. k  1. 2.

5. atunci valoarea medie şi dispersia sa sunt E ( X )   . q. Tabloul repartiţiei variabilei X este  0 1 2  k    X :  0  1   2   k   .d. şi anume x x2 xk ex  1    .5.2. (3. calculăm mai întâi media variabilei X 2 . k 0  k 0  Teorema 3.2) 1! 2! k! Folosind relaţia (3. Dacă variabila aleatoare X are repartiţie Poisson cu parametrul  . (3.2) pentru x   .  e e e  e   0! 1! 2! k!  Pentru a verifica că suma probabilităţilor de pe linia a doua a tabloului de mai sus este 1. vom folosi dezvoltarea în serie de puteri a funcţiei f ( x)  e x .5. Var ( X )   .  x  R . Obţinem  k   2 k  k  k E( X 2 )   k 2 e   (k  k ) e    k e    k (k  1) e  k 0 k! k 1 k! k 1 k! k 2 k! 2  k  2   E( X )   e   E ( X )  2 e   e     2   .e. avem   k  P( X  k )  e   k!  e  e   1. k 0 k! k 1 ( k  1)! Pentru dispersie.5.3) Demonstraţie Valoarea medie a variabilei X este  k   k 1  E( X )   k e  e     e e    . 87 . k  2 ( k  2)! Atunci dispersia lui X este Var ( X )  E ( X 2 )  [ E ( X )]2  2    2   .

88 .4). Demonstraţie Variabila aleatoare X 1  X 2 are ca valori pe 0. Din expresia de mai sus a funcţiei caracteristice rezultă că variabila X 1  X 2 are repartiţie Poisson cu parametrul 1  2 . (3.3.4. Legătura dintre repartiţia binomială şi repartiţia Poisson este dată de următoarea teoremă. Fie k  0 întreg. k 0 k! k 0 k! k 0 k! q. Variabilele aleatoare independente X 1 şi X 2 au repartiţii Poisson cu parametrii 1 şi respectiv 2 . Dacă variabila aleatoare X are repartiţie Poisson cu parametrul  . atunci funcţia sa caracteristică este it  (t )  e  (e 1) . Atunci variabila aleatoare X 1  X 2 are repartiţie Poisson cu parametrul 1  2 . t  R .5. X 2  k  j )   P ( X 1  j . t  R. Atunci avem  k  P ( X 1  X 2  k )  P  j 0 ( X 1  j . t  R.Propoziţia 3.5.5. avem  k  itk   k itk   (e it ) k it it  (t )   e e  e  e  e   e  e e  e  (e 1) . Teorema 3. X 2  k  j ) k j 0 k  1  k  2 e ( 1 2 ) j k j k   P( X 1  j ) P( X 2  k  j )   e e  1 2 C k j 1j k2 j j 0 j  0 j! (k  j )! k! j 0 k (1  2 ) ( 1 2 )  e .  2 (t )  e .d.e.d.e. k! Deducem astfel că variabila aleatoare X 1  X 2 are repartiţie Poisson cu parametrul 1  2 . t  R.4) Demonstraţie Folosind formula de calcul de la funcţia caracteristică. X 2 . Folosind funcţiile caracteristice ale variabilelor X 1 . deducem că funcţia caracteristică a variabilei X 1  X 2 este it it it  (t )  1 (t ) 2 (t )  e 1 ( e 1)  e 2 (e 1)  e ( 1 2 )(e 1) . 2.1. şi anume 1 ( eit 1) 2 ( e it 1) 1 (t )  e . exprimate cu ajutorul formulei (3. q.5.

Aplicaţia 3. Atunci are loc relaţia k   lim P( X n  k )  e .d. astfel încât toate să aibă aceeaşi valoare medie  . iar m2 ( X )  E ( X 2 )  2   .Teorema 3. Relaţia (3. Fie k  N fixat.5. precum şi momentele centrate  3 ( X ) şi  4 ( X ) pentru o variabilă aleatoare X cu repartiţie Poisson cu parametrul  .5.e.7. deducem conform primei relaţii din (3.5) ne arată că dacă p n este suficient de mic şi n suficient de mare. (3.5.5. iar pentru n  k considerăm variabilele X n care au repartiţii binomiale cu parametrii n şi p n . vom scrie pe m3 ( X ) astfel 89 .5.5) n  k! Rezolvare Deoarece variabilele X n .5.2 ştim că m1 ( X )  E ( X )   . Observaţia 3.5). Să se calculeze momentele iniţiale m3 ( X ) şi m4 ( X ) .5.5. Atunci obţinem k n k n(n  1)(n  k  1)      lim P( X n  k )  lim C nk p nk qnn k  lim   1   n  n  n  k! n  n n k k n(n  1) (n  k  1)   k   lim k  lim 1    e . k 0 k! Deoarece k 3  k (k  1)(k  2)  3k (k  1)  k . Momentul iniţial de ordinul al treilea al variabilei X k    este m3 ( X )  E ( X 3 )   k 3 e . k ! n  n n   n k! adică relaţia (3. q.5. n  k au aceeaşi valoare medie  . Deci pn   / n . Din acest motiv repartiţia Poisson se mai numeşte legea evenimentelor rare. Dacă n  30 şi np  5 atunci repartiţia Poisson cu parametrul   np este o bună aproximare a repartiţiei binomiale cu parametrii n şi p. atunci putem aproxima repartiţia binomială cu parametrii n şi p n . Rezolvare Din demonstraţia teoremei 3. prin repartiţia Poisson de parametru   np n .6.3) că valoarea medie a acestor variabile este E ( X n )  np n   .

Apoi momentul centrat de ordinul al treilea este  3 ( X )  E ( X   ) 3  E ( X 3  3X 2  32 X  3 )  E ( X 3 )  3E ( X 2 )  32 E ( X )  3  m3  3 m2  32 m1  3  3  32    3 (2   )  33  3   .  k    k  k m3 ( X )   k (k  1)(k  2) e  3 k (k  1) e    k e  k 2 k! k 1 k! k 1 k!  k  3  k  2  k 1  3e    32 e    e     3e  e  k  3 ( k  3)! k  2 ( k  2)! k 1 ( k  1)!  32 e  e   e  e   3  32   . Pentru momentul iniţial de ordinul al patrulea avem  4   m4 ( X )  E ( X 4 )   k 4 e . Apoi momentul centrat de ordinul al patrulea este  4 ( X )  E ( X   ) 4  E ( X 4  4X 3  62 X 2  43 X  4 )  E ( X 4 )  4E ( X 3 )  62 E ( X 2 )  43 E ( X )  4  m4  4m3  62 m2  43 m1  4  4  63  72    4 (3  32   )  62 (2   )  44  4  32   . Deoarece k 0 k! k 4  k (k  1)(k  2)(k  3)  6k (k  1)(k  2)  7k (k  1)  k . momentul m4 ( X ) se scrie astfel  k    k m4 ( X )   k (k  1)(k  2)(k  3) e  6 k (k  1)(k  2) e  k 3 k! k 2 k!  k    k    k  4  k  3  7 k (k  1) e   k e  4 e     63e   k 1 k! k 1 k! k  4 ( k  4)! k  3 ( k  3)!  k 2  k 1    72 e    e     4 e  e   63e  e   72 e  e  k  2 ( k  2)! k 1 ( k  1)!  e  e   4  63  72   . 90 .

legea beta.1) 0. legea gamma. legea  2 (Helmert-Pearson).1.1.   0) dacă densitatea sa de probabilitate (repartiţie) este funcţia 1     . şi     1 x  2  f ( x ) dx    2 dx    1. Variabila aleatoare X urmează legea continuă uniformă (rectangulară) (X are repartiţie uniformă) cu parametrii  şi  (   R.          . Legea continuă uniformă (rectangulară) Definiţia 4. şi anume: legea continuă uniformă (rectangulară). legea Weibull şi cazul său particular legea exponenţială.    f ( x)   (4. legea log-normală. Capitolul 4 Legi clasice de probabilitate (repartiţii) ale variabilelor aleatoare continue Introducere Vom prezenta în acest capitol principalele legi de probabilitate ale variabilelor aleatoare continue. 4. legea normală (Gauss-Laplace). legea Student (t) şi cazul său particular legea Cauchy. legea Snedecor şi legea Fisher.  x  R .1. deoarece f ( x)  0.1.   2    2 Funcţia de repartiţie a variabilei X este 91 .   .   2  .   2  2  Observăm că funcţia f este o densitate de probabilitate. x     2 . x    .

    0. (4. x    .1.   2  2  2 iar dispersia sa este     1 1  2 Var ( X )   ( x   ) 2 f ( x ) dx    2 (x  )2 dx  ( x  )3 2   .2.1.1.2 Teorema 4.    . Var ( X )  .e.1 Figura 4.1.  .1 şi respectiv Figura 4.1.1. Dacă variabila aleatoare X are repartiţie uniformă cu parametrii  şi  .2)   2  2 2      1. Figura 4.3.d.   2  3  2 12 q.3) 12 Demonstraţie Valoarea medie a variabilei X este     x 1 2  2 E ( X )   xf ( x ) dx    2 dx  x   .1.   2  Graficele funcţiilor f şi F sunt date în Figura 4. Propoziţia 4. atunci valoarea medie şi dispersia sa sunt 2 E ( X )   . (4.2.  2  1      F ( x)    x     .1. x     .    . Funcţia caracteristică a unei variabile aleatoare X cu repartiţie uniformă cu parametrii  şi  este 92 . x     .

Rezolvare Momentul iniţial de ordinul al doilea este   3   1 2 1 3  1   m2 ( X )   x 2 f ( x ) dx    2 x dx  x 2         2  3  2 3  2 3    1  2 3  2       3      2  .4. q. Să se calculeze momentele m2 ( X ). m3 ( X ) şi  3 ( X ) pentru o variabilă aleatoare X cu repartiţie uniformă cu parametrii  şi  . avem     i  it    2  it         1  1 itx  2  (t )   e f ( x) dx   2 e itx dx  itx e 2   e e  . t  0. Demonstraţie Pentru t  0.   2  4  2 93 .    2 it  2 t     iar  (0)   f ( x ) dx  1.  i  it      it         e  e  2  .4)     1. t  R * .  2   3  4  12 Apoi momentul iniţial de ordinul al treilea este   4  3  31 1 4  2 1   m3 ( X )   x f ( x) dx    2 x dx  x         2  4  2 4  2 4    1 3 3 3  2      ( 4     )    .1.1.  2  4 4 iar momentul centrat de ordinul al treilea este    3  31 1   3 ( X )   ( x   ) f ( x ) dx    2 (x  ) dx  ( x  )4 2   0.e.  Aplicaţia 4.d.  2  (t )   t  (4.

Deci f1 ( x  y ) f 2 ( y )  0 pentru y  [ x  1.1]. x 1 x 1 2 2 94 .1]. Variabilele aleatoare X şi Y sunt independente. Avem următoarele patru cazuri: a) Dacă x  [0. b) Dacă x  [0.2].5. x ] şi x x 1 1 f ( x)   f1 ( x  y ) f 2 ( y ) dy   dy  .1) .3] .2]. iar Y are repartiţie uniformă pe intervalul [0.2] şi 2 2 1 3 x f ( x)   f1 ( x  y ) f 2 ( y ) dy   dy  . f 1 ( x)   f 2 ( x)   2 0.3] . x ]  [0. x  [0. x  [0. atunci [ x  1. x ] .2]  [ x  1. iar parametrii variabilei Y 2 sunt  2  2 şi  2  1. x ]  [0.2]. Deoarece X şi Y sunt independente.Aplicaţia 4.2]. 0.1]. Să se calculeze densitatea de probabilitate a variabilei X+Y.2]  [ x  1. atunci  f1 ( x) dx  1 şi  f 2 ( x) dx  1. deci f ( x)  0 . densitatea de probabilitate a variabilei X+Y este dată de formula  f ( x)   f1 ( x  y ) f 2 ( y ) dy . 0 0 2 2 c) Dacă x  [1. Deducem din aceste   1 relaţii că parametrii variabilei X sunt 1  1 şi 1  . Rezolvare Dacă f1 şi f 2 sunt densităţile de probabilitate ale variabilelor aleatoare X   şi respectiv Y. iar f 2 ( y )  0 pentru y  [0. x] şi x x 1 x f ( x)   f1 ( x  y ) f 2 ( y ) dy   dy  . atunci [ x  1. x 1 x 1 2 2 d) Dacă x  [2. x ]  [0.  Observăm că f1 ( x  y )  0 pentru x  y  [0. x ]  [0.1] sau echivalent y  [ x  1.2]. X are repartiţie uniformă pe intervalul [0.2) . x ]  [0.1. atunci [ x  1.2]   . Atunci densităţile de probabilitate vor avea forma 1 1.  . atunci [ x  1. x  [0.2]  [0. x  [0.

 x  R şi  f ( x ) dx  1.     0  2 Am folosit mai sus integrala lui Euler-Poisson  e  y dy   / 2 . deoarece  f ( x)  0.  x  R.2. (4. Dreapta de ecuaţie x  m este axă de simetrie pentru acest grafic. Variabila aleatoare X urmează legea normală (Gauss-Laplace) (X are repartiţie normală) cu parametrii m şi  (m  R. Funcţia f de mai sus se numeşte densitatea de repartiţie normală sau gaussiană. pentru a verifica ultima relaţie.1).2). Într-adevăr.2.2. Dacă x   atunci y   . 4. 0 Graficul funcţiei f are formă de clopot (vezi Figura 4.   0) dacă densitatea sa de probabilitate (repartiţie) este funcţia ( x m )2 1  2 2 f ( x. şi anume . Legea normală (Gauss-Laplace). iar pentru x  m se obţine 1 valoarea maximă a funcţiei f.2.1)  2 O variabilă aleatoare cu repartiţie normală cu parametrii m şi  se notează cu N (m.  )  e . Legea normală standard (legea normală centrată redusă) Definiţia 4. x  [2. Punctele x  m   şi x  m    2 sunt puncte de inflexiune.  xm în integrala de mai sus facem schimbarea de variabilă  y .3]. Observăm că f este o densitate de probabilitate. Rezultă că  2 dx   2 dy . 95 .  f ( x)   (3  x ) / 2 .3].1).1.  2 ). Deci densitatea de probabilitate a variabilei X+Y este funcţia  x / 2. x  [1. 1 / 2. 0. x  [0. Obţinem astfel  1  2 2  2  f ( x ) dx   e  y dy   e  y dy  1. m. x  [0. iar dacă x   atunci y   .

1)  e .1)   f (t. 0.2. Dacă variabila aleatoare X urmează legea normală cu parametrii m şi 1  . (4. atunci variabila aleatoare Y  ( X  m) urmează legea normală cu parametrii  0 şi 1. vom determina mai întâi funcţia de repartiţie pentru o variabilă aleatoare cu repartiţie normală standard. (4.0. 0. ) .1) dt   f (t.2.2.2. Pentru a determina funcţia de repartiţie F ( x.3)   0 2 1 x t 2 / 2 unde  ( x)  e dt . 0.2) că urmează legea normală standard sau legea normală centrată redusă.2) 2 Vom spune despre o variabilă aleatoare X care are ca densitate de probabilitate funcţia (4.1) devine x2 1  2 f ( x.1) dt   ( x) . atunci F1 ( x)  P(Y  x)  P( X  m   x)  F (m   x. Funcţia  de mai sus se numeşte funcţia 2 0 integrală a lui Laplace. avem x 0 x 1 F ( x. Într-adevăr. 0. 0. Conform relaţiei de legătură dintre f şi F.1 Pentru m  0 şi   1 funcţia f dată de relaţia (4.2. notată cu F (x. Figura 4.4) iar densitatea de probabilitate a variabilei Y este 96 . ) a unei variabile aleatoare X cu repartiţie normală cu parametrii m şi  . dacă F1 este funcţia de repartiţie a variabilei Y. (4. pentru valorile căreia sunt întocmite tabele.1) dt   f (t .1) şi numită funcţia de repartiţie normală standard. x  R.2. m. m.

 ) dx   ( x  m) e dx . 0.   2 Dispersia variabilei X este ( x m )2  2 1  2  2 2 Var ( X )   ( x  m) f ( x.    2 xm În integrala de mai sus vom face schimbarea de variabilă  y . atunci valoarea medie şi dispersia sa sunt E ( X )  m . m. m.  x  R .2. x  R. 0.2. Var ( X )   2 . (4.2.6)    2    Teorema 4. m. 0. Dacă variabila aleatoare X are repartiţie normală cu parametrii m şi  .4) obţinem F ( x. iar pentru x   rezultă y   . )  e  f ( x.2.2.7) Demonstraţie Valoarea medie a variabilei aleatoare X este ( x m )2  1   2 2 E ( X )   xf ( x. m. 0. )  F  .    2 97 .1). (4. (4.1    .1)  F (m   x.5) Rezultă astfel că pentru variabila aleatoare X cu repartiţie normală cu parametrii m şi  . 0. 1  x2 / 2 f1 ( x)  F1' ( x)   f (m   x.2. 2 Deci F1 ( x)  F ( x. m. adică variabila Y urmează legea normală cu parametrii 0 şi 1. x  R .  ) dx   xe dx . Din ultima relaţie şi relaţia (4. ). pentru x   rezultă y   . Deci obţinem 1  2   2 E( X )   (y  m)e  y / 2 dy   ye  y /2 dy    2 2 m  2    ey /2 dy  m  f ( y. funcţia de repartiţie este  xm  1  xm F ( x.1) dy  m . de unde  rezultă dx   dy .1).

e. iar a.   Propoziţia 4.Folosind schimbarea de variabilă de mai sus. (4. obţinem  2  2t 2  2t 2 1 imt  2  u 2 imt  2  (t )  e  e du  e .4. k  0 .2.2.   2 x  (m   2 it ) Folosind schimbarea de variabilă  u .10) 98 .e. Propoziţia 4.2. k  R.3. t  R.9)       b) P(| X  m | k )  2 (k ) . atunci funcţia sa caracteristică este  2t 2 imt   (t )  e 2 . q. t  R . (4. Dacă variabila aleatoare X are repartiţie normală cu parametrii m şi  . atunci bm am a) P(a  X  b)      . q.2. obţinem 1  2 2  y2 / 2  2  2  y2 / 2 Var ( X )    y e  dy   y e dy  2  2  2  2  ' 2  2  y ye  y2 / 2 dy    2    y e  y2 / 2 dy   2 2 ye  y / 2      2   y2 / 2  e dy   2 .2. 2  Deducem de aici că abaterea medie pătratică a variabilei X este  X   . b. (4. Dacă variabila aleatoare X are repartiţie normală cu parametrii m şi  .d.8) Demonstraţie Funcţia caracteristică a variabilei X este ( x m )2 x 2  2 mx  m 2  2 2itx  itx 1  itx  2 2 1   2 2  (t )   e f ( x ) dx   e e dx   e dx     2  2 x 2  2 x ( m  2it )  ( m  2it ) 2  m 2 ( m  2it ) 2 1   2 2 2 2   e e dx   2 m 2  4i 2t 2  2 mit  2  m 2 [ x ( m  2it )]2 1 2 2   2 2  e  e dx .d.  t  R .

Egalitatea din (4. (4. Dacă luăm k  3 în relaţia (4.9974 .11) Relaţia (4.2.d.  p  N * .9) obţinem P(| X  m | k )  P(m  k  X  m  k )   (k )   (k )  2 (k ) . atunci momentele sale centrate sunt  2 p 1 ( X )  0. q.2.11) este cunoscută sub numele de regula celor şase  .6.Demonstraţie a) Din relaţia (4.  )            2     2    bm am      .       b) Conform relaţiei (4. deoarece funcţia  este impară ( (k )   (k ) ).e.  2 p ( X )  (2 p  1)!! 2 p .2.  2 ( X )  Var ( X )   2 . Propoziţia 4. m  3 ) .2. 1 ( X )   ( x  m) f ( x ) dx  0.10) rezultă P(| X  m | 3 )  2 (3)  0. Demonstraţie Momentul centrat de ordinul k este ( x m )2  k 1  k  2 2  k ( X )   ( x  m) f ( x) dx   ( x  m) e dx .2.5.2.13)    2 Obţinem astfel    0 ( X )   f ( x ) dx  1. Dacă variabila aleatoare X are repartiţie normală cu parametrii m şi  .6) şi continuitatea funcţiei F deducem că 1  b  m   1  a  m  P(a  X  b)  F (b. m. (4.12) unde (2 p  1)!! 1  3  5(2 p  1) . Observaţia 4. (4.2.2.2.   99 .11) ne spune că aproape toate valorile variabilei X sunt situate în intervalul (m  3 .2. m.  )  F (a.

Dacă notăm cu f şi g densităţile de probabilitate ale variabilelor X şi Y.  x  R. atunci variabilele X+Y şi X-Y au repartiţii normale cu parametrii m  m1  m2 şi    12   22 . iar pentru x   rezultă y   . Dacă variabiele aleatoare indepedente X şi Y au repartiţii normale cu parametrii m1 şi  1 .d. respectiv m2 şi  2 . Demonstraţie Vom calcula mai întâi densităţile de probabilitate pentru variabilele X+Y şi X-Y. din relaţia de mai sus rezultă relaţiile (4. în integrala din relaţia (4.13) vom face schimbarea de variabilă xm  y .2.Pentru k  2 .2. 2   Deci am dedus relaţia de recurenţă 2  k ( X )  (k  1)  k 2 ( X ) . pentru cazul particular m1  m2  0 şi  1   2  1. q.e.2.2) avem 1  x2 / 2 f ( x)  g ( x)  e . 1 ( X )  0 . Propoziţia 4. 2 Densitatea de probabilitate a variabilei X+Y este 100 . de unde deducem că dx   2 dy . apoi pentru x   rezultă  2 y   . atunci conform relaţiei (4. Deoarece  0 ( X )  1.2.7. Obţinem atunci ( 2 ) k ( 2 ) k k ( X )      k y e  y2 dy   2       dy y k 1 e  y 2 ' ( 2 ) k 2 ( 2 ) k  2  y k 1e  y    (k  1)  y k 2 e  y dy  2  2  ( 2 ) 2 ( 2 ) k 2  2  (k  1)   y k 2 e  y dy  (k  1) 2  k  2 . respectiv m  m1  m2 şi    12   22 .12).

 x  R.2. Asemănător funcţia caracteristică a variabilei aleatoare X-Y este 101 . 2  2 Rezultă că X-Y urmează legea normală cu parametrii m  0 şi   2 . Conform relaţiei (4. În cazul general al variabilelor X şi Y cu repartiţii normale cu parametrii m1 şi  1 .8) funcţiile caracteristice ale variabilelor X şi Y sunt  12t 2  22t 2 im1t  im2t  1 (t )  e 2 . Asemănător pentru densitatea de probabilitate a variabilei aleatoare X-Y obţinem ( x  y )2 y2  x2   y 2  xy    1   2  2 1    2   k ( x)   f ( x  y ) g ( y ) dy   e e dy   e dy  2  2  2  x x2 y  x / 2 z x2 x2 1   y    2  4 1 4  z2 1 4   e e dy  e  e dz  e 2  2  2  x2  1 2 )2  e 2( . respectiv m2 şi  2 . Se observă că  este tocmai funcţia caracteristică corespunzătoare legii normale cu parametrii m  m1  m2 şi    12   22 .  x  R. t  R . Atunci funcţia caracteristică a variabilei aleatoare X+Y este i ( m1  m2 ) t   2 2 1  2 t 2  (t )  1 (t )   2 (t )  e 2 . 2  2 Deducem astfel că X+Y urmează şi ea legea normală cu parametrii m  0 şi   2. ( x  y )2 y2  x2   y 2  xy    1   2  2 1    2   h( x )   f ( x  y ) g ( y ) dy   e e dy   e dy  2  2  2  x x2 y  x / 2 z x2 x2 1   y    2  4 1 4  z2 1 4   e e dy  e  e dz  e 2  2  2  x2  1 2 )2  e 2( . sau se poate raţiona mai simplu folosind funcţiile caracteristice ale variabilelor. putem să facem un calcul asemănător celui de sus. t  R .  2 (t )  e 2 .

nq )  (5. Teorema lui Moivre-Laplace este un caz particular al aşa numitei Teorema limită centrală. (Moivre-Laplace) Dacă variabila aleatoare X n are repartiţie binomială cu parametrii n şi p (p nu depinde de n). Pentru n  30 . Teorema 4. Astfel menţionăm următorul rezultat de legătură între repartiţia normală şi repartiţia Poisson. atunci aproximarea este acceptabilă. nq )  10.2. nq )  5.8 se mai spune că variabila aleatoare este  asimptotic normală.9 ne spune că pentru valori mari ale lui n putem folosi tabelele legii normale pentru studiul variabilelor aleatoare cu repartiţii binomiale.e. pentru    .2.2. atunci nu se foloseşte această aproximare. care spune că funcţia de repartiţie a unei sume de variabile aleatoare independente tinde în condiţii destul de generale către funcţia de 102 .Dacă min (np. atunci  X  np  1 b  x2 / 2 lim P a  n  b   P ( a  X  b)  e dx . q.9. există următoarea regulă practică care ne permite să aproximăm repartiţia binomială prin cea normală: .2. atunci funcţia de repartiţie a variabilei aleatoare  tinde  către funcţia de repartiţie normală standard.14) n   npq  2 a   Teorema 4. iar X are repartiţie normală standard.Dacă min (np.Dacă min (np. Se observă că ~ este funcţia caracteristică corespunzătoare legii normale cu parametrii m  m1  m2 şi    12   22 . i ( m1  m2 ) t   2 2 1  2 t 2 ~ (t )  1 (t )   2 (t )  e 2 . X   În ipotezele Teoremei 4. .8. Teorema 4.2. .d. Dacă variabila aleatoare X  (   0) are repartiţie Poisson cu X  parametrul  . dacă nu este nevoie de mare precizie. Legătura dintre repartiţia binomială şi repartiţia normală este dată în următoarea teoremă.10). t  R. (4. Legea normală reprezintă „cazul limită” al multor legi de probabilitate. atunci aproximarea este foarte bună.

2.95 . Care este probabilitatea ca numărul de apariţii ale „stemei” să fie cuprins între 112 şi 144? Rezolvare Să notăm cu X variabila aleatoare care are ca valori numărul de apariţii ale „stemei”. iar  X  npq  8 . În aplicaţii este foarte util un caz particular al acestei teoreme. Rezolvare 103 . (Liapunov) Fie variabilele aleatoare independente X n . Se aruncă o monedă de 256 de ori.  (n) k 1 Aplicaţia 4.11. De fapt. Rezultatul cel mai general în cazul variabilelor aleatoare independente este teorema lui Lindeberg-Fellar. care au momente centrate absolute de ordinul al treilea  n3  E (| X n  mn |3 ) .9 (Moivre-Laplace) şi vom aproxima repartiţia X  128 cu repartiţia normală standard Y.10.95.1) .2. Deoarece E(X)=np=128. n  1.2. În această aplicaţie trebuie să calculăm P(112<X<144). De câte ori trebuie să aruncăm un zar corect astfel încât probabilitatea ca abaterea frecvenţei relative a feţei 1 de la numărul p=1/6 să fie cuprinsă între -0.repartiţie normală. prezentat mai jos. unde Fn este funcţia n  1 n de repartiţie a variabilei aleatoare X   ( X k  mk ) .  n2  Var ( X n ) . n  1. atunci când se aruncă moneda de 256 de ori. 0.12. atunci lim Fn ( x )  F ( x.  8  Vom folosi Teorema 4. Teorema 4. n  1 cu mediile şi dispersiile mn  E ( X n ) .03.2. atunci are loc relaţia  X  128  P(112  X  144)  P  2   2 . Variabila X are repartiţia binomială cu parametrii n=256 şi p=1/2 (probabilitatea ca la o aruncare să apară „stema”).03 şi 0.  ( n) Dacă lim  0. Obţinem 8  X  128  P  2   2   P(2  Y  2)   (2)   (2)  2 (2)  0. este 0.  8  Aplicaţia 4. unde  (n)   12   22     n2 şi n   ( n)  (n)  3 13   23     n3 . prin Teorema limită centrală se înţelege un grup de teoreme care tratează problema repartiţiei limită a sumelor de variabile aleatoare (nu întotdeauna independente).

99  4.063.01)                 0.18 n   0. pq din relaţia (4.4)   (1.03 n  P n    0.937 .9) (cu m  0. O maşină produce o piesă circulară. rezultă că 0. Deci trebuie să aruncăm zarul de 593 de ori pentru a fi verificată relaţia (4. Dacă în n aruncări faţa 1 apare de  n ori.002       (1.6)   (2.2.18 n  1    F      0.96 .03   0.13.005  Rezultă atunci că probabilitatea ca piesa să fie defectă este 1-0.475  pq   5     0.  0.   1 ) pentru b  a  .2. vom determina pe n astfel încât să aibă loc relaţia    P  0.6)   (2.16) deducem că  0. Aplicaţia 4.2.002  P(3.15). (4.  5  2  5    Folosind un tabel cu valorile funcţiei  . (4.99 cm şi 4.937=0.2.14) şi (4. ştiind că d are repartiţie normală cu media 4. Care este probabilitatea producerii unei piese defecte de către maşina respectivă. probabilitatea ca o piesă să fie bună este bm am  4.2.18 n   0.99  d  4.95.975.01  4.2.03 n Folosind relaţiile (4.95 .005   3. Piesa este bună dacă diametrul său d este cuprins între 3.4)  0.16)  npq pq  6  0.03 n    2   0.2. 104 .2.2.9).8.005 cm ? Rezolvare Conform formulei (4. q  1  p  5 .03  n  p  0.95   0.15) se mai poate scrie astfel    np 0.18 n / 5  1.01 cm.15)  n  Relaţia (4. Obţinem n  592.002 cm şi abaterea medie pătratică 0.

 d  0. avem  d  d 2  d3  d 4  1 4 m  E (d )  E 1    E (d i )  10. avem P(| d  m | 3 )  2 (3)  0.3. f ( x. x  0.003.   0) dacă densitatea sa de probabilitate (repartiţie) este funcţia 2  1  (ln x  m ) 2  e 2 .  4  16 i 1 Conform regulei celor şase  (relaţia (4.  )   x 2 (4. O maşină produce o piesă circulară. Într-adevăr.3. Se poate afirma că maşina s-a dereglat ? Rezolvare Fie d1 . d 3 .1)   0. 4. Când maşina este bine reglată.14 cm.3.04 cm. Din această ultimă relaţie deducem că d ia valori în afara intervalului (9.88. 10. m.Aplicaţia 4.12) cu o probabilitate mai mică de 0. Legea log-normală Definiţia 4.14. Acestea sunt 4 variabile aleatoare indepedente cu repartiţii normale cu media 10 cm şi abaterea medie pătratică 0.3. de unde rezultă că P(9.1.2. Într-adevăr pentru ultima relaţie avem  105 . x  0.0016. d 4 diametrele celor 4 piese alese la întâmplare.  x  R şi  f ( x ) dx  1. Variabila aleatoare X urmează legea log-normală (logaritmică normală) (X are repartiţie log-normală ) cu parametrii m şi  (m  R.997 . Deci este aproape sigur că maşina s-a defectat. diametrul d al pieselor are repartiţie normală cu media 10 cm şi abaterea medie pătratică 0.04.997  P(m  3  d  m  3 )  0. d 2 .12)  0.  4  4 i 1  d  d 2  d3  d 4  1 4 Var (d )  Var  1   Var (d i )  0.11)).997 . deoarece  f ( x)  0.08.88  d  10. Se iau la întâmplare 4 piese fabricate de maşină şi se constată că media aritmetică a diametrelor acestor piese este 10. Atunci variabila d  (d1  d 2  d 3  d 4 ) / 4 are de asemenea repartiţie normală cu media 10 cm şi abaterea medie pătratică 0.2.08 cm. Funcţia f din (4.1) este o densitate de probabilitate.

  2 106 . k  N *. atunci momentele iniţiale de ordinul k sunt  2k 2 mk  mk ( X )  e 2. 0.0. avem (ln x  m ) 2 ln x  y  k  1 k  2 2 mk ( X )   x f ( x ) dx   x e dx   0  x 2 2 ( y m ) y 2  2 my  m 2  2 2 yk 1  ky  2 2 1   2 2   e e dy   e dy    2  2 y 2  2 y ( m  2 k )  ( m  2 k ) 2  ( m  2 k ) 2  m 2 1   2 2   e dy   2 [ y  ( m  2 k )]2  4 k 2  2 m 2 k  4k 2  2 mk 2 [ y  ( m  2k )]2 1   2 2 1 2 2   2 2   2   e dy   2 e   e dy. Notăm ( y  m   2 k ) /( 2 )  u şi obţinem  2 k 2  2 mk  2k 2 1 2  u 2 mk  2 mk ( X )  e  e  2 du  e . Dacă variabila aleatoare X are repartiţie log-normală cu parametrii m şi  . variabila Y  urmează legea  normală standard.1. (4.3. iar pentru x>0 este ln t  m (ln t  m ) 2 u ln x  m u2 x 1 1  x 2 2  1   2 F ( x )   f (t ) dt  0 t e dt   e du    2 2  ln x  m   F .d. ln x  m (ln x  m ) 2 t t2  1  1  2 2  1   2  f ( x ) dx   e dx   e dt  1.2) Demonstraţie Conform formulei pentru momentele iniţiale de ordinul k. Teorema 4.   2 0 x 2  Funcţia de repartiţie a variabilei log-normale X cu parametrii m şi  este F ( x)  0 pentru x  0. q.2. Deducem din ultima ln X  m relaţie că pentru valorile pozitive ale lui X.3.e.    unde F(x. .1) este funcţia de repartiţie normală standard.

Legea gamma Definiţia 4. Din relaţia (4.3. Teorema 4.4. d) 1 / 2   . deoarece f ( x)  0.1) este o densitate de probabilitate. Var ( X )  m2 ( X )  [m1 ( X )]2  e 2 m (e  1) .3. x  0.  Propoziţia 4. p  R 0 verifică următoarele proprietăţi: a) ( p ) este convergentă pentru p>0 şi divergentă pentru p  0 .1)  0. (4. x  0.  ( p ) 0 În propoziţia următoare vom prezenta câteva proprietăţi ale funcţiei  (pentru demonstraţiile lor vezi [21]).4. p  0. b) ( p  1)  p( p ). p  0 este integrala lui Euler de al doilea tip sau 0 funcţia gamma a lui Euler. Funcţia f din (4.  n  N * .2) deducem că media şi dispersia variabilei X cu repartiţie log-normală cu parametrii m şi  sunt 2 m 2 2 E ( X )  m1 ( X )  e 2 . atunci momentele iniţiale de ordinul k sunt 107 .1.4.4. c) (n)  (n  1)!.4. f ( x)   ( p) (4.3) 4. Dacă variabila aleatoare X are repartiţie gamma cu parametrul p.3.  x  R şi  1  p 1  x  f ( x ) dx  x e dx  1.   unde ( p )   x p 1e  x dx . Variabila aleatoare X urmează legea gamma (X are repartiţie gamma ) cu parametrul p ( p  0) dacă densitatea sa de probabilitate (repartiţie) este funcţia  x p1e  x  .2.4. Integrala (funcţia) lui Euler ( p )   x p 1e  x dx .

3) Definiţia 4.6)   108 .4. f ( x )    ( p) (4. atunci momentele iniţiale de ordinul k sunt p ( p  1) ( p  k  1) mk ( X )  k . Var ( X )  m2 ( X )  [m1 ( X )]2  2 .4)  0. x  0.5. (4.e. (4.  Într-un mod asemănător cu demonstraţia Teoremei 4. Teorema 4. k  N*.4.2.2) Demonstraţie Momentul iniţial de ordinul k este  1  k  p1  x ( k  p ) mk ( X )   x k f ( x) dx   x e dx   ( p ) 0 ( p ) (k  p  1)(k  p  1) (k  p  1) ( p  1) p( p)   ( p) ( p )  (k  p  1)(k  p  2) ( p  1) p.4. Din relaţia (4. (4.4. mk ( X )  p ( p  1) ( p  k  1). Am folosit mai sus proprietatea b) din Propoziţia 4. Var ( X )  m2 ( X )  [m1 ( X )]2  p. Dacă variabila aleatoare X are repartiţie gamma generalizată cu parametrii p  0 şi   0 .4. Variabila aleatoare X urmează legea gamma generalizată (X are repartiţie gamma generalizată ) cu parametrii p  0 şi   0 dacă densitatea sa de probabilitate (repartiţie) este funcţia   p x p 1e  x  .4.5)  deci media şi dispersia sa sunt p p E ( X )  m1 ( X )  . k  N * . (4.d.4. x  0.4.4. q.4.4.2) deducem că media şi dispersia variabilei X cu repartiţie gamma cu parametrul p sunt E ( X )  m1 ( X )  p.3 se arată următoarea teoremă.

e.5) pentru momentele iniţiale ale variabilei X. t  R . k 0 k!      q. obţinem pentru funcţia caracteristică formula  (it ) k  (it ) k p( p  1) ( p  k  1)  (t )   mk    k  0 k! k 0 k! k  k p p ( p  1)( p  k  1)  it   it      1   . Dacă variabilele aleatoare independente X şi Y au repartiţii gamma cu parametrii p şi respectiv q.4. deducem că funcţia caracteristică a unei variabile X cu repartiţie gamma cu parametrul p este p  (t )  1  it  .4. k 0 k! k  0 k! k 0 k! Folosind formula (4. (4. t  R .7)   Demonstraţie Pentru determinarea funcţiei caracteristice a variabilei X vom folosi formula care dă momentul de ordinul k al variabilei X în funcţie de derivatele funcţiei caracteristice c în punctul 0.7. Dacă variabila aleatoare X are repartiţie gamma generalizată cu parametrii p  0 şi   0 . Din relaţia (4. Deci 109 .  t  R.7) pentru   1. şi anume mk   ( k ) (0)  i  k .4.6. (4.d. ( m0  1 ). atunci funcţia sa caracteristică este p  it   (t )  1   .Propoziţia 4.4.4. Demonstraţie Să notăm cu f şi g densităţile de probabilitate pentru variabilele X şi Y.4. atunci variabila X+Y are repartiţie gamma cu parametrul p+q.8) Propoziţia 4. precum şi dezvoltarea în serie de puteri a funcţiei  care are forma următoare   ( k ) (0) k  mk i k k  (it ) k  (t )   t  t  mk .

iar g ( y )  0 pentru y  0. Dacă x  0. p ) e  x x p q 1  e  x x p q 1  .  0 (în prima integrală g(y)=0. x] şi atunci x x 1 1 h( x)   f ( x  y ) g ( y ) dy   ( x  y ) p1 e  x y y q1e  y dy 0 0 ( p) ( q) ex x   ( x  y ) p 1 y q1 dy.  Dacă x  0 atunci 0  h( x)   f ( x  y ) g ( y ) dy   f ( x  y ) g ( y ) dy  0. Concluzia acestei propoziţii o putem obţine mai direct folosind funcţiile caracteristice. iar în a doua integrală f(x-y)=0). atunci f ( x  y )  0 pentru x  y  0  y  x. Deci f ( x  y ) g ( y )  0 dacă y  [0. x  0.  ( p ) ( q )  ( p  q ) Rezultă că variabila X+Y are repartiţie gamma cu parametrul p+q. t  R . pentru y  0 rezultă t  0.   Densitatea de probabilitate h a variabilei X+Y este h( x)   f ( x  y ) g ( y ) dy.  ( p ) ( q ) 0 Pentru calculul ultimei integrale de mai sus facem schimbarea de variabilă y=tx. 110 .  1  x p 1e  x . x  0. deci dy=xdt. Fie 1 şi  2 funcţiile caracteristice ale variabilelor X şi Y. iar pentru y  x rezultă t  1. şi anume p 1 (t )  1  it  . t  R. Obţinem astfel ex 1 p 1 q 1 e  x x p  q1 1 q 1 h( x )   ( x  tx ) ( tx ) x dt   x (1  x) p1 dt  ( p ) ( q ) 0  ( p ) ( q ) 0 B ( q.  2 (t )  (1  it )  q . f ( x)  g ( x)   ( p )  0. Atunci funcţia caracteristică a variabilei aleatoare X+Y este ( pq)  (t )  1 (t ) 2 (t )  1  it  .

Pentru x  0 avem  ( X  m) 2   X m  G ( x)  P(Y  x)  P 2  x   P  x   x  2    2   m   2x  m   m   2x  m   P (m   2 x  X  m   2 x )                2 2x 2  2 ( 2 x )   e t /2 dt.d. Propoziţia 4. Demonstraţie Să notăm cu G(x) funcţia de repartiţie a variabilei Y. deducem forma funcţiei g. x  0. Rezolvare Momentul centrat de ordinul al treilea este 111 . Aplicaţia 4. Dacă variabila aleatoare X urmează legea normală cu 1 parametrii m şi  . şi anume  1  x 1/ 2 e  x . Deoarece Y  0 . atunci variabila aleatoare Y  2 ( X  m) 2 are o repartiţie 2 gamma cu parametrul 1/2.e. x  iar pentru x  0.9. q. 0  Atunci pentru x  0 densitatea de probabilitate g a variabilei aleatoare Y este 1 x 1 1 / 2  x g ( x)  G' ( x)  e  x e . Să se calculeze momentele centrate  3 ( X ) şi  4 ( X ) pentru o variabilă aleatoare X cu repartiţie gamma cu parametrul p.  adică variabila Y are repartiţie gamma cu parametrul 1/2. g(x)=0. g ( x )   (1 / 2)  0. q.2. d)). x  0. atunci pentru x  0 rezultă că F ( x )  P(Y  x )  0 .4.e.d.Deducem din relaţia obţinută că X+Y are repartiţie gamma cu parametrul p+q.4.8. Deoarece   (1 / 2) (conform Propoziţiei 4.4.

112 . f ( x)   B ( p. deoarece f ( x)  0. 3 iar momentul centrat de ordinul al patrulea este      4 ( X )   ( x  p ) 4 f ( x ) dx   x 4 f ( x) dx  4 p  x 3 f ( x ) dx  6 p 2  x 2 f ( x) dx        4 p 3  xf ( x ) dx  p 4  f ( x) dx  m4  4 pm3  6 p 2 m2  4 p 3 m1  p 4    p ( p  1)( p  2)( p  3)  4 p 2 ( p  1)( p  2)  6 p 3 ( p  1)  4 p 4  p 4  3 p 2  6 p.1). 4.  B ( p.5. Integrala lui Euler B ( p. Funcţia f din relaţia (4. Legea beta Definiţia 4. şi în rest este divergentă. q )   x p 1 (1  x) q 1 dx . q) 0 În propoziţia următoare vom prezenta câteva proprietăţi ale funcţiei B (pentru demonstraţiile lor vezi [21]). x  (0.  1 unde B ( p.5.1) este o densitate de probabilitate. Variabila aleatoare X urmează legea beta (X are repartiţie beta) cu parametrii p şi q ( p. x  (0. q  R 0 verifică următoarele proprietăţi a) B( p.2.1).      3 ( X )   ( x  p ) 3 f ( x) dx   x 3 f ( x) dx  3 p  x 2 f ( x ) dx  3 p 2  xf ( x) dx       p 3  f ( x ) dx  m3  3 pm2  3 p 2 m1  p3  p ( p  1)( p  2)  3 p 2 ( p  1)   3 p  p 3  2 p. p. p.1.1)  0.  x  R şi  1 1  f ( x ) dx   x p1 (1  x ) q1 dx  1. q  0 este integrala lui Euler de primul tip 0 sau funcţia beta a lui Euler.5.5. q )   x p 1 (1  x) q 1 dx . q  0) dacă densitatea sa de probabilitate (repartiţie) este funcţia  1  x p 1 (1  x) q 1 . q ) este convergentă pentru p>0 şi q>0. q ) (4.5. 1 Propoziţia 4.

sin( p ) Teorema 4. q  1). q)  pB( p. atunci momentele iniţiale de ordinul k sunt p ( p  1) ( p  k  1) mk ( X )  . q  1). p ). q). q  0. k  N *. i) qB( p  1. Dacă variabila aleatoare X are repartiţie beta cu parametrii p şi q ( p.1).2) ( p  q)( p  q  1)( p  q  k  1) Demonstraţie Momentul iniţial de ordinul k este 113 . ( p  q )  l) B( p. q  0. q )  B( p  1. n)  . q  1.  p  1. q  1.  n  N * .1  p)   ( p) (1  p )  . p  q 1 q 1 d) B( p. n)  B(n. q )   dt . p)  .5. q  0.  p  (0. (4. q )  B( p.5. p  q 1 ( p  1)(q  1) e) B( p. 0 (1  t ) p  q  ( p ) ( q ) k) B( p. p 1 c) B( p.  p. (m  n  1)! h) B( p  1.  t p 1 j) B ( p.  p  0. q  0. q )  . p ( p  1)( p  n  1) (m  1)!(n  1)! g) B(m. q )  B(q.  p.  p  1. q )  B( p. q  1)  B( p. q  0) . q  1).  m.  p. p  0.  p. ( p  q  1)( p  q  2) (n  1)! f) B( p. q  0.  p. q ).3. b) B( p. q  0. q )  B( p  1. n  N * .

 1 1 B ( k  p, q )
mk ( X )   x k f ( x) dx   x k  p 1 (1  x) q 1 dx 
 B ( p, q ) 0 B ( p, q)
k  p  1 B(k  p  1, q) (k  p  1) ( p  1) p B( p, q )
   
p  q  k 1 B ( p, q) ( p  q  k  1)( p  q) B( p, q )
p ( p  1) ( p  k  1)
 ,
( p  q )( p  q  1) ( p  q  k  1)

conform Propoziţiei 4.5.2, c). q.e.d.

Din relaţia (4.5.2) deducem că media şi dispersia variabilei X cu repartiţie
beta cu parametrii p şi q sunt

p pq
E ( X )  m1 ( X )  , Var ( X )  m2 ( X )  [m1 ( X )]2  2
.
pq ( p  q) ( p  q  1)
(4.5.3)

4.6. Legea  2 (Helmert-Pearson)

Definiţia 4.6.1. Variabila aleatoare X urmează legea  2 (Helmert-Pearson) (X
are repartiţie  2 ) cu parametrul n ( n  N * ) dacă densitatea sa de probabilitate
(repartiţie) este funcţia

n x
 1 2
1 
2
 n x e , x  0,
 2 n
f ( x)   2   (4.6.1)
 2
 0, x  0.

Parametrii n din Definiţia 4.6.1 se mai numesc grade de libertate, astfel că o
să mai spunem că X are repartiţie  2 cu n grade de libertate.
Funcţia f din relaţia (4.6.1) este o densitate de probabilitate deoarece
f ( x )  0,  x  R şi

n x
 1 
2
1 
2
 f ( x) dx  n  x e dx  1.
 0
2 n
2  
2

114

Pentru verificarea relaţiei de mai sus , facem în integrala dată schimbarea de
variabilă x/2=y, de unde rezultă dx=2dy; dacă x  0 atunci y  0 , iar dacă
x   atunci y  . Obţinem astfel
n
n
 1  n
1 22  1

f ( x) dx 
n
n 0 2 y  2
0
e  y  2 dy  n
n
 y 2 e  y dy
2 2
2   2  
2  2
1  n
    1.
n 2
   
2
În Figura 4.6.1 sunt reprezentate grafic funcţiile f pentru diverse valori ale
parametrului n.

Figura 4.6.1

Teorema 4.6.2. Dacă variabila aleatoare X are repartiţie  2 cu n grade de
libertate, atunci momentele iniţiale de ordinul k sunt

mk ( X )  n(n  2) (n  2k  2), k  N * . (4.6.2)

Demonstraţie
Momentul iniţial de ordinul k este

n x
 1   k 1 
mk ( X )   x k f ( x ) dx  n  x2 e 2
dx.
 0
2n
2  
 2

115

Cu aceeaşi schimbare de variabilă de mai sus folosită pentru calculul integralei

 f ( x ) dx , obţinem


n
n k n
1 
2
 k 1
y 22 
2
 k 1
y
mk ( X )  n  (2 y) e  2 dy  n  n  0 y e dy
n 0
2
2   2 2  
 2 2
n 
2 k   k 
 2   2 k  n  n  1 n  k  1  n(n  2) (n  2k  2).
   
n 2 2  2 
 
 2
q.e.d.

Din relaţia (4.6.2) deducem că media şi dispersia variabilei X cu repartiţie
2
 cu n grade de libertate sunt

E ( X )  m1 ( X )  n, Var ( X )  m2 ( X )  [m1 ( X )]2  2n. (4.6.3)

Definiţia 4.6.3. Variabila aleatoare X urmează legea  2 generalizată (X are
repartiţie  2 generalizată ) cu parametrii n şi  ( n  N * ,   0 )
dacă densitatea sa de probabilitate (repartiţie) este funcţia

n x
 1 1  2
2 2
 x e , x  0,
 n n
f ( x)   ( 2 )   (4.6.4)
 2
 0, x  0.

Într-un mod asemănător cu demonstraţia Teoremei 4.6.2 se arată următoarea
teoremă.

Teorema 4.6.4. Dacă variabila aleatoare X are repartiţie  2 generalizată cu
parametrii n şi  ( n  N * ,   0 ), atunci momentele iniţiale de ordinul k sunt

mk ( X )  n(n  2) (n  2k  2) 2 k , k  N * , (4.6.5)

deci media şi dispersia sa sunt

E ( X )  m1 ( X )  n 2 , Var ( X )  m2 ( X )  [m1 ( X )]2  2n 4 . (4.6.6)

116

Propoziţia 4.6.5. Dacă variabila aleatoare X are repartiţie  2 generalizată cu
parametrii n şi  ( n  N * ,   0 ), atunci funcţia sa caracteristică este

n

 (t )  (1  2it 2 ) 2 , t  R . (4.6.7)

Demonstraţie
Folosind formula din demonstaţia Propoziţiei 4.4.6, obţinem


(it ) k 
(it ) k nn  n 
 (t )   mk    (2 2 ) k   1  k  1
k 0 k! k  0 k! 2 2  2 
nn  n  q.e.d.
   1     k  1  n
2 2  2   (1  2it 2 )  2 ,  t  R.
  (2it 2 ) k 
k 0 k!

Din relaţia (4.6.7) pentru   1, deducem că funcţia caracteristică a unei
variabile X cu rpartiţie  2 cu n grade de libertate este

n

 (t )  1  2it  2 , t  R . (4.6.8)

Legăturile dintre repartiţia  2 şi repartiţia normală sunt prezentate în
următoarele două teoreme.

Teorema 4.6.6. Dacă variabila X n are repartiţie  2 cu n grade de libertate
X n n
( n  1 ) atunci densitatea de probabilitate a variabilei tinde pentru
2n
n   către densitatea de repartiţie normală standard.
Teorema 4.6.7. Dacă fiecare dintre variabilele aleatoare independente
X 1 , X 2 , , X n are repartiţie normală standard, atunci variabila aleatoare
X  X 12  X 22    X n2 are repartiţie  2 cu n grade de libertate.

Propoziţia 4.6.8. Dacă variabilele aleatoare independente X şi Y au repartiţii
 2 cu m, respectiv n grade de libertate, atunci X+Y are repartiţie  2 cu m+n
grade de libertate.

Demonstraţie
Să notăm cu f şi g densităţile de probabilitate ale variabilelor X şi Y, adică avem

117

m x n x
 1 2
1 
2
 1 2
1 
2
 m x e , x  0,  n x e , x  0,
 2 m  2 n
f ( x)   2   g ( x )   2  
 2  2
 0, x  0,  0, x  0.

Atunci densitatea de probabilitate a variabilei X+Y este


h( x)   f ( x  y ) g ( y ) dy.


Folosind un raţionament asemănător celui întâlnit în demonstraţia Propoziţiei
4.4.7, deducem că h( x)  0,  x  0 , iar pentru x  0 obţinem

m x y n y
x 1 1  1 1 
h( x )   m
( x  y) 2 e 2
 n
y2 e 2
dy
0
m 2 n
2
2   2  
2  2
x
 m n
2
e x
2
1
2
1
 mn  ( x  y) y dy.
0
2  m n
2   
 2   2

Notăm y=tx, de unde rezultă dy=xdt; dacă y  0 atunci t  0 , iar dacă
y  x atunci t  1. Obţinem

x
 m n
2
e 1 1 1
h( x)  mn  ( x  tx ) 2 (tx) 2 x dt
0
2 m n
2   
 2   2
x x m n
 mn m n  1
2
e 2
1 1
2
1
2
1 e 2x 2 m n
 mn
x  (1  t ) t dt  m  n B , 
2 m n 0
m n  2 2
2    2 2   
 2   2  2   2
m n x
1 2
1 
2
 mn x e , x  0.
2 mn
2  
 2 

Deducem că X+Y are repartiţie  2 cu m+n grade de libertate.

118

Concluzia acestei propoziţii o putem obţine mai direct folosind funcţiile
caracteristice. Fie 1 şi  2 funcţiile caracteristice ale variabilelor X şi Y, şi
anume

m n
 
1 (t )  1  2it  2 ,  2 (t )  (1  2it ) 2 , t  R .

Atunci funcţia caracteristică a variabilei aleatoare X+Y este

mn

 (t )  1 (t ) 2 (t )  1  2it  2 , t  R.

Deducem din relaţia obţinută că X+Y are repartiţie  2 cu m+n grade de libertate.
q.e.d.

4.7. Legea Student (t). Legea Cauchy
Definiţia 4.7.1. Variabila aleatoare X urmează legea Student (t) (X are
repartiţie Student) cu parametrul n ( n  N * ) dacă densitatea sa de probabilitate
(repartiţie) este funcţia

 n 1 n 1
  2  2
2  x 
f ( x)    1   , x  R. (4.7.1)
 
n n 
n   
 2

Parametrii n din Definiţia 4.7.1 se mai numesc grade de libertate, astfel că o
să mai spunem că X are repartiţie Student cu n grade de libertate.
Funcţia f din relaţia (4.7.1) este o densitate de probabilitate deoarece


f ( x )  0,  x  R şi  f ( x ) dx  1.


Pentru a verifica ultima relaţie, avem

 n 1 n 1  n 1 n 1
  2  2 2   
  2   x   2   x2  2
 f ( x) dx  1   dx  1   dx.
  n    n   n  0  n 
n   n  
 2  2

119

momentele de ordin impar sunt nule. ) şi astfel obţinem  n 1  n 1   1 / 2     2   y  2  1 n  f ( x) dx   n  0 n 1  dy   B .2 şi proprietatea d) a funcţiei  din Propoziţia 4. (4. de unde rezultă n dx  dy. atunci momentele iniţiale de ordinul k sunt m2 k 1 ( X )  0.3) n    n  n    2 deoarece funcţia f este impară (integrala de mai sus este convergentă).2.  n 2 2    (1  y ) 2 2    2  2  n 1  1   n        2  2  2    1. n k (2k  1)!! (4. 2k  1  n. cu 2k  n avem 120 .3) este divergentă. Dacă 2k 1  n integrala din (4. deci X nu are momente iniţiale de ordinul 2k  1.7. Într-adevăr  n 1 n 1   2  2 2   x  m2 k 1 ( X )     x 2 k 1 1   dx  0. 2 k  n.7.7. k  N * .În ultima integrala de mai sus facem schimbarea de variabilă x 2 / n  y. Teorema 4.7. ) se transformă în intervalul [0.4. Pentru momentul de ordin par m2 k ( X ). Dacă variabila aleatoare X are repartiţie Student cu n grade de libertate. (n  2)(n  4)(n  2k ) Demonstraţie Pentru 2k  1  n .5. x  0.2. n  n 1       2  2  În relaţiile de mai sus am folosit proprietăţile j) şi k) ale funcţiei B din Propoziţia 4. 2 y Intervalul [0.2) m2 k ( X )  .

) se transformă în 2 y intervalul [0.  n 1 n 1 2   2  2   2  x 2 k 1  x    m2 k ( X )  dx. Notăm  n x 2 / n  y. x  0. n  k    2   2 2    n 2 2 n  n 1           2  2  2   1 n   1  1 n  k  k    k  k  k   k    k  n 2  2 n 2  2 2        n  n  n      1  1 2 2  2  121 .7.4)  n  0   n  n    2 Pentru calculul ultimei integrale folosim aceeaşi schimbare de variabilă ca cea  folosită mai sus pentru verificarea relaţiei  f ( x) dx  1. n 0    2 Folosind proprietăţile funcţiei B din Propoziţia 4.5. (4. Intervalul [0. ) şi astfel obţinem  n 1  n 1 2  n 1 n k   1 n 1  2   (ny ) k (1  y )  2 n  2   y k  2 (1  y )  2 dy m2 k ( X )  dy   n  0 2 y  n  0 n       2 2  n 1  n k    1  1   n     k    k    2    k  2  1   y (1  y )   2   2   dy. de unde rezultă dx  dy.2 deducem din relaţia de mai sus  n 1  n 1  1 n  n k   n k    k    k  m2 k ( X )   2  B k  1 .

n  unde f (x. 0.  1  3  3 n  k  k   k   k    k  n  2  2  2 2       n  n  n    1  2   2   2  2  2   1  3 1 1 n  k  k   k      k  n  2  2 2 2  2  n k (2k  1)!!   . O variabilă aleatoare X cu repartiţie Cauchy are densitatea de probabilitate funcţia 1 f ( x)  . iar dacă n>2 atunci dispersia variabilei X este Var ( X )  .  (1  x 2 ) 122 .1) este densitatea de repartiţie normală standard. Pentru n  1 legea (repartiţia) Student se mai numeşte legea (repartiţia) Cauchy. n2 Legăturile dintre repartiţia Student şi repartiţia normală sunt prezentate în următoarele două teoreme. 0. . Teorema 4.d. Dacă f n este densitatea de probabilitate a unei repartiţii Student cu n grade de libertate atunci lim f n ( x)  f ( x. x  R.  x  R.4) este divergentă. X n1 are repartiţie normală cu parametrii m  0 şi  . atunci variabila aleatoare X n1 X  n X 12   X n2 are repartiţie Student cu n grade de libertate.3. Dacă fiecare dintre variabilele aleatoare independente X 1 . Din relaţiile (4.7.   n  1 n  2  n  k  n  k  (n  2)(n  4)(n  2k )         2  2  2  2  Dacă 2k  n integrala din relaţia (4.7. X 2 .2) deducem că dacă n>1 atunci media variabilei X este n E ( X )  0 .7. Teorema 4.4.1). q.7.e. deci variabila X nu are momente iniţiale de ordinul 2k.

1. avem   n  n2  n1  1  n  n1  n2  n  2  2   21 1  n1  2  f ( x ) dx   1   x 1  x  dx. (n1 .8.2 . Funcţia f din relaţia (4.8. deoarece  f ( x )  0. deducem că variabila aleatoare X cu repartiţia Cauchy nu are nici valoare medie şi nici dispersie. Astfel obţinem 123 . x  0.8. Legea Fisher Definiţia 4.  x  R şi  f ( x ) dx  1. 4.Din observaţiile făcute după demonstaţia Teoremei 4.1 se mai numesc grade de libertate.7. f ( x)   n2   n1   n2   n2  (4. astfel că o să mai spunem că X are repartiţie Snedecor cu n1 şi n2 grade de libertate. Parametrii n1 şi n2 din Definiţia 4.1)      2  2   0. x  0. Legea Snedecor.1) este o densitate de probabilitate.8. Variabila aleatoare X urmează legea Snedecor (X are repartiţie Snedecor) cu parametrii n1 şi n2 .   n2   n1   n2  0  n2     2  2 În ultima integrală de mai sus facem schimbarea de variabilă n1 x / n2  y.8. Pentru a verifica ultima relaţie. n2  N * ) dacă densitatea sa de probabilitate (repartiţie) este funcţia   n  n2   n n1  1  n  n1  n2  2  2  21 1  n1  2  1   x 1  x  .

  1. (4.8. n2  N * ).2) n1 (n2  2)(n2  4)(n2  2k ) Demonstaţie Variabila X are momente iniţiale de ordinul k pentru 2k  n2 . k  N * .2. 2k  n2 . Notăm n1 x / n2  y  şi obţinem  n  n2  n1  1  n k  1 1 n n n  2  2    n2 y  2  1 2 n mk ( X )   1     (1  y ) 2  2 dy  n2  n  n  0 n n1  1  2   1  2  2 124 .  n  n2   1 n1  n1 1   n1  2  2    n2 y  2  1 2 n2 n n  f ( x ) dx   n     0  n   1  y  2 dy  n   n  2   1  2   1   n1 2  2  n  n2   n  n2   1  n1 n1  n2  1   2   2 1  2  2   n1 n2   y (1  y ) dy  B  . (n1 .  n1   n2  0  n1   n2   2 2        2  2 2  2 Teorema 4.8. Dacă variabila aleatoare X are repartiţie Snedecor cu parametrii n1 şi n2 .  0  n2  n  n     1  2  2 2  2 Pentru calculul ultimei integrale folosim aceeaşi schimbare de variabilă ca cea  folosită mai sus pentru verificarea relaţiei  f ( x) dx  1. atunci momentele iniţiale de ordinul k sunt n2k n1 (n1  2) (n1  2k  2) mk ( X )  k  . Avem  n  n2  n1  1  n1  n1  n2    n1  2  2  x k  2 1 1  n1  2 mk ( X )   x k f ( x) dx      n x  dx.

e..3) deducem că pentru n2  2 media variabilei X este n2 E( X )  ..3. Teorema 4. iar pentru n2  4 dispersia variabilei X este n2  2 2n22 (n1  n2  2) Var ( X )  . X 2 .8..  n1  (n2  2)(n2  4)(n2  2k ) q.8. Din relaţia (4. X n1 .. Dacă variabilele aleatoare independente X 1 ...  n  n2  k  1  n1 n1  n2 n   2   y k  2 1 (1  y )  2 dy   2   n1   n   n  0  1  2  2  2  n  n2  k  1  n   2  B k  n1 .d. X n1 n2 urmează legea normală cu parametrii 0 şi  atunci variabila aleatoare 125 . n2  k    2     n1   n1   n2   2 2     2     2  n  n2   n  n  k  1   k  1  2  k  n   2    2  2    2   n1  n     n  n  n 2   1  2   1  2  2  2   n  n  n  k  k  1  1 1  k  1 2  k  n   2  2   2     2   n1   n  n  n   1  2  1 2  1  2  2   2   n  n  n n  n  k  k  1  1 k  1  2  1  1  2  k  n   2  2  2 2  2    2   n1   n  n  n  n  n   1  2  1 2  2   2  k  2  k   2  2  2   2   2  k  n  n1 (n1  2) (n1  2k  2)   2  .. X n1 1 . n1 (n2  4)(n2  2) 2 Legătura dintre repartiţia normală şi repartiţia Snedecor este dată în următoarea teoremă.

 x  R. Deci densitatea de probabilitate a variabilei Y este g ( x )  G ' ( x)  2e 2 x F ' (e 2 x )  2e 2 x f (e 2 x )  n  n2  n1  1  n n  1 2 n   2e n1x  1  2  2  1  n1 e 2 x  2 . q.5.8.d. atunci variabila aleatoare Y  ln X are o repartiţie Fisher 2 cu parametrii n1 şi n2 . (n1 . atunci funcţia de repartiţie G a variabilei Y este 1  G ( x)  P(Y  x)  P ln X  x   P (ln X  2 x) 2  2x 2x  P( X  e )  F (e ). Demonstraţie Dacă notăm funcţia de repartiţie X cu F. Definiţia 4.  x  R.e. (4. n2  N * ) dacă densitatea sa de probabilitate (repartiţie) este funcţia  n  n2  n1  1  n n  1 2 n  2  2  e n1x 1  n1 e 2 x  2 . Variabila aleatoare X urmează legea Fisher (X are repartiţie Fisher) cu parametrii n1 şi n2 . f ( x)  2 1   n  x  R.  n2   n   n   n2   1  2    2     2 126 . Dacă variabila aleatoare X are repartiţie Snedecor cu 1 parametrii n1 şi n2 .4.3)  n2  n  n     1  2  2 2     2 Teorema 4. n2 X 12    X n21 X   2 n1 X n1 1    X n21  n2 are repartiţie Snedecor cu parametrii n1 şi n2 .8.8.

Funcţia f din (4.9. Legea Weibull.9.   0) dacă densitatea sa de probabilitate (repartiţie) este funcţia   x  1e  x . 0 0       127 . obţinem pentru media variabilei X 1     x  y  y 1  1 E ( X )    x e dx    e  1 y dy 0 0    1 1 1   1   1  y  e  y dy      1. f ( x)   (4. deoarece    f ( x)  0.4. Legea exponenţială Definiţia 4.9.1) este o densitate de probabilitate. x  R şi  f ( x ) dx    x  1e x dx 1. Avem  1 1 2     y  1 1  2  E ( X 2 )    x  1e x dx      e y  1 y  dy      1. 0    Pentru dispersia lui X calculăm mai întâi media lui X 2 . x  0.  0    0  Teorema 4.9.9. atunci valoarea medie şi dispersia sa sunt 1 2   1    2  2 1  E( X )     1 . Într-devăr pentru  0 verificarea ultimei relaţii facem schimbarea de variabilă x   y . (4. de unde 1 1 1 rezultă x  ( y /  )1 /  şi dx  1 y  dy . Dacă variabila aleatoare X are repartiţie Weibull cu parametrii  şi  (  0.1)  0.2. Var ( X )       1      1.   0) . x  0.9. Atunci    1 1    y  y 1 1   f ( x ) dx      e  1 y  dy   e  y dy  1. Variabila aleatoare X urmează legea Weibull (X are repartiţieWeibull) cu parametrii  şi  (  0.1.2)        Demonstraţie Folosind schimbarea de variabilă de mai sus.

9.9. atunci funcţia sa caracteristică este 1  it   (t )  1   . t  R .9.e. Repartiţia exponenţială cu parametrul  este o repartiţie gamma generalizată cu parametrii p  1 şi .3). Funcţia caracteristică se poate calcula şi direct folosind formula din definiţia sa. x  0. (4. Var ( X )  2 [ (3)   2 (2)]  2 .      q. Avem     (t )  E e itX    e itx f ( x) dx   e itx  e x dx    e ( it  ) x dx  0 0       e x [cos(tx)  i sin( tx)] dx    e x cos(tx ) dx  i  e x sin( tx) dx. Observaţia 4.4.6. Pentru   1 legea (repartiţia) Weibull se mai numeşte legea exponenţială (repartiţia exponenţială) de parametru . x  0.Atunci dispersia lui X este 2    2  2 1  Var ( X )      1      1 . 0 0  0  I1 I2 Pentru I1 obţinem 128 . deducem că funcţia caracteristică a variabilei X este dată de expresia din (4.3. Din relaţia (4.9.3)   Demonstraţie Din Observaţia 4.d.4.3 şi relaţia (4.2) rezultă că media şi dispersia unei variabile aleatoare X cu repartiţie exponenţială cu parametrul  sunt 1 1 1 1 E ( X )  (2)  . Dacă variabila aleatoare X are repartiţie exponenţială cu parametrul  .9. Propoziţia 4.4. f ( x)    0. (3)  2.9.     deoarece (2)  1.7) din Propoziţia 4. Deci densitatea de probabilitate a unei variabile aleatoare X cu repartiţie exponenţială cu parametrul  este  e  x .

iar pentru x  0 avem  x f ( x)   f1 ( x  y ) f 2 ( y ) dy   1e 1 ( x  y )  2 e 2 y dy  0 x 12 1 x ( 1 2 ) y 1 2 2 x 1x  12 e 1x  e ( 1 2 ) y dy  0 1  2 e e x 0  1   2 e  e .  e  2 x .  12   e 2 x  e 1 x . x  0.  129 . q.5.   Aplicaţia 4. adică  e  1 x . x  0.  t  R. Să se determine densitatea de probabilitate a variabilei X 1  X 2 . Dacă 1  2 atunci densitatea de probabilitate f a variabilei X 1  X 2 este 0 pentru x  0.e. respectiv 2 . Fie variabilele independente X 1 şi X 2 cu repartiţii exponenţiale cu parametrii 1 . Pentru    t t I 2 din relaţiile de mai sus deducem I 2  2 2 .d. 0    0 1 t2  Rezultă astfel relaţia I1   2 I1 . de unde obţinem că I1  2 2 . Să se generalizeze apoi rezultatul obţinut la cazul a n variabile aleatoare independente cu repartiţii exponenţiale cu acelaşi parametru  .  0.9. x  0. x  0.  x  0. f 1 ( x)   1 f 2 ( x)   2  0.  1  x ' 1 I1   e x cos(tx) dx   0  0 e   cos(tx) dx   e x cos(tx) 0  t  1 t  1 t  0   0 '     e x sin( tx) dx   2  e x sin( tx ) dx   2 e x sin( tx)     0 2  1 t   t  e x cos(tx) dx    2  e x cos(tx) dx. Rezolvare Să notăm cu f1 şi f 2 densităţile de probabilitate ale variabilelor X 1 şi X 2 . Deci funcţia f are forma f ( x)   1   2  0. x  0. Obţinem astfel pentru  (t )  t 1  it  expresia  (t )  1   .

h( x)   2  0. x  0.. 0 0 Deci densitatea de probabilitate a variabilei X 1  X 2 este 2 xe  x .  Rezultă că variabila X are o repartiţie gamma generalizată cu parametrii n şi  . x  0. X 3 cu repartiţii exponenţiale cu parametrul  . x  0. X 2 . densitatea de probabilitate a variabilei X  X 1  X 2    X n este funcţia  n  x n1e x . Pentru trei variabile aleatoare independente X 1 . iar pentru x  0 obţinem x x f ( x)   e  ( x y )  e y dy  2 e x  dy  2 xe x ..  x  0. densitatea de probabilitate a variabilei X 1  X 2  X 3 este h( x)  0. X n cu repartiţii exponenţiale cu parametrul  .  x  0 şi pentru x  0 avem x x 3 2 x h( x)   2 ( x  y )e  ( x  y )  e  y dy  3 e x  ( x  y ) dy  x e . f ( x)    0. k ( x )   (n  1)!  0. x  0. x  0... x  0. Dacă 1  2   atunci f ( x)  0. X 2 . 0 0 2 Deci  3 2 x  x e . 130 .  Prin inducţie matematică se arată că pentru variabilele aleatoare independente X 1 .

variabilele aleatoare sunt funcţii Xn:Ω  .1. Capitolul 5 Convergenţa variabilelor aleatoare 5.. De altfel. De exemplu. u Mai există şi noţiunea de convergenţă uniformă: X n  X dacă supωΩ  X n (ω) – X(ω)    0. Avem un şir de variabile aleatoare ( X n ) n care sunt identic repartizate cu  r1 r2 . Situaţia tipică întîlnită în practica statistică este următoarea: se face un experiment cu rezultatele posibile r1.4. se va vedea la capitolul privind intervalele de încredere) am putea spera că dacă o să mărim numărul de aruncări ale zarului ne vom apropia din ce în ce mai mult de “adevăratele valori” pi  P( X  ri ) . Dacă da. Rezultatul obţinut la al n-ulea experiment este X n . p k  131 .3. dacă acceptăm că toate variabilele aleatoare X n au aceeaşi repartiţie.2. Fie de asemenea X o altă variabilă aleatoare. Să formalizăm puţin contextual. F.rk .…. Pentru funcţii se ştie deja ce înseamnă că X n converge la X : că X n (ω)  X(ω) pentru orice ω  Ω.Convergenţa aproape sigură şi convergenţa în probabilitate Fie (Ω. (deocamdată nu ştim ce înseamnă “prea mult”. Vrem să găsim numerele  p1 p2 . în acest caz rezultatele sunt 1..P) un spaţiu probabilizat şi ( X n )n un şir de variabile aleatoare. Am putea număra procentajele fi de apariţie a rezultatului ri şi spera că ele nu diferă mult de “adevăratele” probabilităţi pi. dar putem spera să aproximăm probabilităţile pi de apariţie a rezultatului ri..6) Nu avem cum să prezicem rezultatul X n . Ce înseamnă că X n tinde la X ? Desigur. (De exemplu se aruncă un zar despre care nu ştim dacă este corect sau falsificat. În cazul zarului nostru.. de aici a şi pornit teoria probabilităţilor.5. rk  repartiţia necunoscută F    . am putea să îl aruncăm de 6n de ori – de exemplu – şi să vedem dacă frecvenţele obţinute diferă mult de n.K. În teoria probabilităţilor aceste două tipuri de convergenţă nu prea sunt de folos. dacă facem unele ipoteze acceptabile.

La fel de evident este că diferenţa între convergenţa punctuală şi cea aproape sigură poate fi foarte mare.. Observaţia 5. s. Într-adevăr.1.4. X n  Y.atunci X n  X . Spunem că ( X n ) n converge la X P-aproape sigur şi scriem  a . poate.. p k .. Fie Ω = .s Observaţia 5. Observaţia 5.s.1.s .2. Yn. a.. Pentru aceasta calculăm valorile Yn. Aceasta este problema de bază. Dacă probabilitatea P se subînţelege. Xn(ω) = sin(nω).5. Tot evident este că limita aproape sigură a unui şir de variabile aleatoare nu este unică. La fel de evident este că X n  X  X n  X  0. 0  P  ( 0    )    . “P” şi scriem doar X n  X Observaţia 5. deoarece P(lim sup X n  lim inf X n  X )  P(lim sup( X n  X )  lim inf( X n  X )  0) .convergent aproape sigur. Evident că dacă X n converge la X punctual . spunem că ( X n ) n este un şir P. ci numai unică aproape sigur.i converge la pi dacă n   .6. Nu ne putem aştepta ca Yn. Dacă P(lim sup X n  lim inf X n )  1 . dacă X n  X şi X  Y (a. Aceasta este legea numerelor mari. Dar poate că Yn. adică să aibă loc convergenţa pentru orice scenariu    : de exemplu.3.1.1. Definiţia 5. obişnuit al cuvîntului . singurele puncte ω în care el  .i să conveargă la pi în sensul obişnuit al cuvîntului. atunci putem la fel de bine să spunem că a .s . Exemplu 5.1. s-ar putea ca rezultatul ri să apară mereu sau nici măcar să nu apară. a . s .1. aşa se întîmplă dacă se mai adaugă nişte ipoteze.5  132 . K = B(). deşi pi  0 .i  şi ne gîndim n că. Şirul X n este divergent.1. a . s . X n P  X (sau Xn  X (mod P)) dacă P(lim sup X n  lim inf X n  X )  1 .i converge la pi în majoritatea covîrşitoare a cazurilor? Într-adevăr.5 . Mai întîi să lămurim ce înseamnă “în majoritatea covîrşitoare a cazurilor”: înseamnă aproape sigur.). putem renunţa la litera a.în sensul a. s . j  n : X j  ri  p1 .

5  Exemplul 5. în plus. Observăm că P(An) = an+1 – an  0. un răspuns este dat de Propoziţia 5. An = d([an. a n 1  a n  1 . A3  [ln 3  1. Dacă luăm. Fie. ln 3  1).  . ).8. de data   / 2 5 / 2   a .K. X n P  0.1. aceasta.1). pe spaţiu probabilizat de la exemplul anterior. ln 5  2) . Atunci 1A a .1. deoarece P( X n  0)  1 . în care limita superioară şi cea inferioară nu coincid nicăieri. ank1 )   d[an . atunci A1  [0.s. Fie d ( x)  x  [ x] partea zecimală a lui x. A2  [ln 2. Sau.   limsup An   d [ank .9.an+1) şi Xn = 1 An . Fie Ω = [0. ln 2].1. acesta converge la 0 cu excepţia punctelor de forma /2 + k.1. ank 1)  d [ank . s. )      iar   n k n k  n lim inf An   d [a n k .s. a n k 1 ) = ) n k Exemplul 5. (De exemplu. etc. Fie (Ω.1)  [0. converge sunt cele de forma ω = k.  a . P = Uniform(0. an+1)) := d(x) : x  [an. X n  n1 1  . ln 4  1). Exemplul 5. atunci X n P 1 . (Într-adevăr.7.   n Cum putem decide dacă X n  X ? În cazul cel mai simplu. deci converge şi a.7 este unul extrem. K = B([0. De exemplu putem lua a n  ln n sau a n  n .P) un spaţiu probabilizat şi ( An ) n un şir de evenimente din K. Atunci X n converge evident la 0. dacă a n  ln n . dacă schimbăm puţin şi luăm X n ()  sin n () .1)  [0.s. A4  [ln 4  1.5 .  0. n Demonstraţie 133 .  0 . Totuşi. P  (  / 2   5 / 2 )    .1)).1) ( = măsura Lebesgue pe Ω!) şi (a n ) n1 un şir strict crescător de numere pozitive cu proprietatea că lim a n   dar lim( a n1  a n )  0 şi. Atunci limsup An = Ω şi liminf An =  deci lim sup X n  1lim sup An  1 şi lim inf X n  1  = 0. Presupunem că seria  P A n este convergentă.

1  0. Dar şirul de mulţimi ( Bn ) n este monoton  descrescător. atunci X n  X . că n n a. atunci 134 . Înr-adevăr..e.. conform observaţiei 3. deci P( B N ) = 0  N de unde P(B) = 0 q. orice variabilă n aleatoare X  1 A unde A este o mulţime neglijabilă. Adică putem scrie că Xn  X    > 0 există n astfel ca n  n  d(Xn. Cum şirul de mulţimi ( B N ) N este crescător.12. Observaţia 5. deci 1  1B cu B =  Bn şi P( B )  lim P ( Bn )  0 . Demonstraţie Fie B = ωΩ : X n (ω) nu converge la 0. X.e. . P( Bn )  0 .1. . deci are o limită de forma 1 A n cu A =  An . Cum P(A) = 0. De aici rezultă un criteriu important cu care putem verifica dacă X n  X Propoziţia 5.11.. putem scrie.s. 0. dacă lim X n  X . P(B) = lim P( B N ) – aplicăm din nou proprietatea de continuitate monotonă a probabilităţii. Putem lua ca limită a sa. Cel mai simplu e să spunem că 1A  0.  An Observaţia 5.1.. Fie ( X n ) n un şir de variabile aleatoare. Cum P( Bn )   P A  k 0 nk şi seria  P A  n este convergentă. Convergenţele obişnuite sunt date de o distanţă.X)  . Cum P(limsup 1A  liminf 1A )  P(B) = 0. cu P(An) = 1/n.Fie Bn  An  An1  .1. Presupunem că pentru orice  > 0 seria  P| X n |   este convergentă. nu şi necesară.. să zicem X. Bn n 1 Dar limsup 1A = 1lim sup A  1  1 B  1B de unde 0  lim inf 1A  n n   An  k  n n n k limsup 1 A  1B ..d n a.. Deci 1A  1A.q. Atunci B = B N unde N B N =ωΩ :  X n (ω)> 1/N de o infinitate de ori..d. atunci 1A este un şir descrescător. Dar seria  P| X n | 1 / N  este convergentă.s. De exemlu dacă avem un şir descrescător de mulţimi A1A2.10. urmează că şirul n n n (1 A ) n converge aproape sigur. Condiţia din propoziţia de mai sus nu este decît suficientă. Aceste convergenţe au următoarea proprietate: dacă din orice subşir al lui ( X n ) se poate extrage un sub-subşir care este convergent şi limita sa este aceeaşi.s. Atunci X n  a.

1.2) deducem cleştele P(Z > )  E(Z1)   + P(Z > ) (5.3) Să presupunem acum că d(X. observăm că dacă   (0.Z) = E[(X – Y  1) + (Y – Z  1)]  E(X – Z  1).Y) + d(Y.1.1. Altfel zis.Xn) = 0.Y) = E(X – Y  1). Atunci funcţia d este o semidistanţă pe spaţiul L(Ω. în probabilitate.1) Apoi E(Z  1.Xn)   pentru orice >0. Z > ) de unde E(Z  1)  P(Z > ) (5.14. totuşi. Z  ) + E(Z  1. Propoziţia 5.1.e.1. şirul 1An converge totuşi la 0. Într-adevăr. Spunem că aceste convergenţe sunt topologice. Definim d(X.1.7.d. în plus. 135 . aşadar d(X.1) şi (5.Xn)  0.3) E | X  X n | 1 deducem inegalitatea P(X – Xn  > )  . din a doua inegalitate de la (5. X )   .b  0  a1 + b1  (a+b) 1 . dacă ne uităm la exemplul extrem 1. Pe de altă parte. deci din subşirul ( X kn )n nu putem extrage nici un sub-subşir care să tindă la .2) Din (5. Fie X. deoarece ea este topologică: provine de la distanţă. adică P(X – Xn  > )   d X .1. X n  P  limn P(X – Xn  > ) = 0.7.1.K) al tuturor variabilelor P. Motivul este că P( An )  0 .1. Z > )  E(. Acesta este cazul exemplului 1. Spunem că şirul de variabile aleatoare ( X n ) converge în P probabilitate la X (şi scriem Xn  X) dacă lim n P(| X n  X | )  0  0.1.3) rezultă că lim supn d(X. Din definiţie rezultă imediat că un şir de forma Xn = 1A converge în n probabilitate la 0 dacă şi numai dacă P(An)  0. Definiţia 5.1). avem echivalenţa Xn  X  d(X.există un  > 0 şi un subşir (k n ) n astfel ca d( X k n .Y două variabile aleatoare. dacă pentru orice  > 0 avem că limn P(X – Xn  > ) = 0. putem scrie E(Z  1) = E(Z  1. Dar  este arbitrar. Z > )  E(Z  1. Convergenţa aproape sigură nu este topologică.13. Convergenţa în probabilitate este una mult mai uşor de manipulat. Din prima inegalitate de la (5. dacă notăm cu Z variabila aleatoare X – Y . deci lim d(X. dar în probabilitate. vedem că el are proprietatea ciudată că din orice subşir al său se poate extrage un sub-subşir care converge la 0. Z  ) + E(Z  1. aleatoare şi.Xn)  0  Xn  X  Reciproc.1. în care şirul nu are absolut nici o limită aproape sigură. q. Z > )  P(Z  ) + P(Z > ) de unde E(Z  1)   + P(Z > ) (5. este clar că d este o semidistanţă: d(X. care ne arată cum se prea poate ca un şir divergent aproape sigur să conveargă.Xn)  0 Demonstraţie Cum este evident că a.

aplicăm Propoziţia 5. Inegalitatea p normelor ne spune că funcţia p  ║X║p este crescătoare.1.17. p p X  Xn Lp p dacă Xn X. Spunem că şirul de variabile aleatoare (Xn)n converge în L p la p L X (şi notăm acest lucru cu Xn  X) dacă limn║Xn – X║p= 0. Dacă Xn  X pentru un anumit p  1. atunci pentru orice p>1 putem găsi un şir (n)n astfel ca Xn 1 Amintim că dacă X este o variabilă aleatoare. atunci limn P(X . Un caz care implică imediat convergenţa în probabilitate este convergenţa în Lp.. putem alege un subşir (kn)n în aşa fel încît seria  P| X kn |   să fie convergentă pentru orice >0. Într-adevăr. Concluzie. P = Uniform(0.2 converge în probabilitate şi în Lp pentru orice 1p<. şi p [1. Între cele trei tipuri de convergenţă există următoarele implicatii:  p Xn LX  Xn  L X (p< )  Xn  P a. Definiţia 5.] atunci 1  ║X║p := E | X | p  dacă p <  iar ║X║ := limp ║X║p = ess sup X . convergenţa în probabilitate este cea mai slabă. din orice subşir al său se poate extrage un sub-subşir care converge la X aproape sigur. deci nici în Lp cu p 1 -Şirul de la exemplul 5.1).3 converge peste tot.s. atunci Xn  X. dar nu în L1. Iar dacă p = .1. p  p atunci este şi mai evident: Xn LX  Xn  L X  Xn  P X. dar nu a.) folosim inegalitatea evidentă P(Z > )  : într-adevăr. 2 Z p p    E | Z | p  E | Z | p . | Z |    p P| Z |   136 .1. Este de remarcat că nu există alte implicaţii.s. q. P Observaţia 5.   n punctual la 0.s.1 p L P Propoziţia 5.d. -Dacă luăm Xn =  n1 1  pe Ω = (0.1).16. dacă Xn   X. care converge  0.1. Demonstraţie p Z p 2 Pentru p  [1.  X Aşadar.10 Prin procedeul diagonal. Totuşi.Xn > )  limn = 0 . X şi Xn   X  Xn  P X  X kn a .15.1. Astfel: -Şirul de la exemplul 5.1.e.

dacă Xn    .Xn. adică făcînd observaţii asupra ei? Aşa pusă fiind. Dacă aruncăm un zar de n ori. ci numai una.2. j n 3 abreviere internaţională: Weak Law of Large Numbers 4 Se mai numeşte şi “media de selecţie” 137 .2.. atunci X n  1  p p n P  p.1 Legea slabă Revenim la problema de bază enunţată în paragraful precedent: putem spera să găsim repartiţia unei variabile aleatoare „empiric”. da. De exemplu n = 1 p n . 5. Fie  = EXj .)2 =  EYiY j . Atunci X n . media? În definitiv  = EXj nu se numeşte degeaba „medie”! Răspunsul este: uneori. Putem accepta că aceste variabile aleatoare au aceeaşi repartiţie. problema nu are sens. p' L 0 pentru p’ < p dar Xn nu converge nicăieri dacă p’  p. n  0 1  j  n : X j 1  Ca un caz particular.║22 = E( X n . Propoziţia 5. n 1 Urmează ║ X n ..Xj) = 0 n 2 1i. noi nu observăm o variabilă aleatoare.. = .. pe baza observaţiilor făcute asupra lui.  Yn Centrăm variabilele: fie Yn = Xn . Demonstraţie Y1  Y2  . Pentru noi niciodată nu putem face mai multe observaţii asupra unei variabile aleatoare. Atunci problema capătă sens: avem un şir de variabile aleatoare (Xn)n care sunt identic repartizate şi am dori să îi aproximăm repartiţia. Legi ale numerelor mari şi aplicaţii 5. Legea slabă a numerelor mari..(WLLN)3 Fie (Xn)n un şir de variabile aleatoare identic repartizate şi necorelate din L2 (adică avînd şi moment de ordin 2).2. 2 = Var(Xj) şi fie X 1  X 2  ... Atunci X n  . ci un şir de variabile aleatoare X1.  X n P Xn  media empirică4. aproximativ. Nu cumva am putea să îi calculăm.1.. Dar EYiYj = cov(Xi.. Acum mediile X n se notează cu fn şi se numesc frecvenţe relative.

2 1 2 n 2 2 L2
dacă i  j . Deci E( X n - ) =  EYi   . Concluzie: X n   deci,
n 2 1i  n n2 n
P
conform cu Propoziţia 1.1.16, X n  . q.e.d.

Rezultatul nu mai rămîne adevărat dacă renunţăm la ipoteza necorelării. De
exemplu, dacă X şi Y sunt două variabile aleatoare cu aceeaşi repartiţie şi pe
baza lor construim şirul Xn = X dacă n este par şi Xn = Y dacă este impar, atunci
X Y
X n va converge peste tot la , care nu numai că nu coincide cu media, dar
2
mai este şi variabilă aleatoare.
Se pot da exemple de şiruri de variabile aleatoare identic repartizate pentru
care media empirică nu converge nicăieri. De exemplu se iau doua variabile
aleatoare X şi Y si cu ajutorul lor se construieste un sir format doar din X şi Y
care nu are limită Cesaro.

Observaţia 5.2.2. Legea slabă se mai numeşte Teorema lui Bernoulli. Ea a dat
primul răspuns la întrebarea: putem aproxima empiric probabilităţile? Forma
sa verbală repetată de sute de ani este: Frecvenţele relative converg în
probabilitate la adevărata probabilitate.

Acest rezultat nu este satisfăcător. De aceea teorema lui Bernoulli se numeşte
„Legea slabă”. Faptul că X n converge în probabilitate la  nu înseamnă de loc că
şirul X n (ω) converge la  pentru toate scenariile ω, nici măcar că aşa ceva se
întîmplă pentru „marea lor majoritate”. E suficient să privim exemplul 5.1.7. E
adevărat că el conţine un subşir care converge la  (observaţia 5.1.17) dar asta ne
ajută prea puţin.
Am dori un rezultat „tare” care să ne asigure că X n converge la  aproape
sigur. Dacă eliminăm ipoteza ca natura ne joacă o farsă urîtă, atunci putem fi
siguri că dacă tot repetăm un experiment în anumite condiţii, ne vom apropia
oricît de media cea “adevărată”.5
Chiar aşa se şi întîmplă.

5.2.2 Legea tare

Preţul este să înlocuim ipoteza ca variabilele Xn sunt necorelate cu ipoteza
mult mai tare că ele sunt independente.

5
Aici e de fapt o problemă de filosofie a satisticii: decretăm că evenimentele de probabilitate 0
nu se întîmplă. E o discuţie fascinantă, dar mai complicată.
138

Fie atunci X:Ω   vectorul cu componentele X = (X1,X2,....). Componentele
sale Xj sunt proiecţiile prj(X). În loc să scriem X n , scriem
1
( pr1 ( X )  ...  prn ( X )) . Avantajul este că acum avem o singură variabilă,
n
anume X. Introducem şi funcţia t:    definită prin
t(x1,x2,.....) = (x2,x3,....)  prj(t(x)) = prj+1(x)  j  1 (5.2.1)
care se numeşte shiftul canonic. Dacă notăm cu f:   prima proiecţie ( f =
pr1) atunci putem scrie
1
Xn=
n
 
f  f  t  f  t 2  ...  f  t n1 ( X ) (5.2.2)
unde prin tk înţelegem tt...t, compunerea de n ori a lui t cu ea însăşi.
Scrierea are avantajul că ne permite să ne concentrăm asupra unui şir
Cesaro în care apar doar două variabile: funcţia f şi shiftul t. Cu studiul unor
asemenea şiruri se ocupă o disciplină matematică numită teorie ergodică.
Ca să putem aplica rezultatele din teoria ergodică, ar trebui verificat că
shiftul invariază măsura.
Este vorba despre repartiţia P1 = PX-1 a vectorului X. Ea este o
probabilitate pe spaţiul produs (,B()) 6 În general nu ştim să o calculăm, dar
dacă facem ipoteza suplimentară că variabilele Xn sunt independente şi identic
repartizate, atunci este uşor de văzut că P1 = F , unde F este repartiţia comună a
variabilelor aleatoare Xn.7

Lema 5.2.3. Pe spaţiul (,B()) avem că
(i) P1t -1 = P1
(ii) Dacă A  B() are proprietatea că t -1(A) = A, atunci P1(A)  0,1

Demonstraţie
(i) Trebuie arătat că P1(t-1(A)) = P1(A)  A  B(). Din motive elementare8 este
suficient să verificăm acest lucru pentru un bloc de lungime n, A =
B1B2...Bn...

6
-algebra produs se defineşte ca fiind cea mai mică -algebră generată de blocuri. Un bloc de
lungime n este o mulţime de forma B1B2...Bn....... unde mulţimile Bn sunt boreliene.

Mulţimea D a blocurilor este în mod evident stabilă la intersecţii finite, deci B () coincide cu
U-sistemul generat de D.
7
Amintim că dacă j sunt o probabilitate pe un spaţiu măsurabil (E,E), atunci P = 12....
este probabilitatea pe E cu proprietatea că P(B1B2...BnEE.....) = 1(B1)2(B2)...n(Bn).
Că o asemenea probabilitate (numită probabilitate produs) există, nu este evident: existenţa ei
este dată de teorema lui Kolmogorov. Dacă 1 = 2 = ....= , atunci probabilitatea produs se
notează cu . Acesta este cazul nostru.
8
Motivul elementar este că dacă două probabilităţi definite pe o aceeaşi -algebră coincid pe un
sistem de generatori închis la intersecţii finite al -algebrei , atunci ele coincid. În cazul de faţă
acest sistem de generatori este mulţimea D a blocurilor.
139

Să remarcăm că t -1(A) = A. Într-adevăr, x  t -1(A)  t(x)  A  (x2,x3,.....) 
B1B2...Bn..  x2  B1, x3  B2,...,xn+1  Bn  x  
B1B2...Bn.. = A. Deci P1(t -1(A)) = F(  B1B2...Bn..) =
F()F(B1)...F(Bn) = F(B1)...F(Bn) = P1(A). Adică t invariază probabilitatea P1.
(ii) Lucrăm cu indicatori, căci este mai comod. Ipoteza t -1(A) = A devine 1At = 1A
. Dacă punem f în loc de 1A se pune întrebarea ce putem spune despre o funcţie f
care are proprietatea că f = ft. Aplicăm această funcţie vectorului X şi avem că
f(X) = f(t(X)) = f(t(t(X))) = .... sau, scris explicit, că f(X1,X2,...) = f(X2,X3,...) =
f(X3,X4,...) = .......
Aici intervine în forţă ipoteza independenţei.
Deci variabila aleatoare Y = f(X) este independentă de X1 (de vreme ce Y =
f(X2,X3,...) !) şi de X2 (de vreme ce Y = f(X3,X4,...) !), şi de X3, adică de toate
variabilele aleatoare Xn. Deci f(X) este independentă de X, adică şi de f(X).
Înseamnă că Y este independentă de ea însăşi. Dar atunci ea este constantă
aproape sigur.
Concluzie: dacă 1At = 1A, atunci 1A = constant (mod P1). Această constantă,
fireşte, nu poate fi decît 0 sau 1: deci P(A)  0,1. q.e.d.

Definiţia 5.2.4. Fie (Ω,K,P) un spaţiu probabilizat. Şi fie t : Ω  Ω măsurabilă.
Spunem că t este ergodică faţă de P dacă P1t -1 = P1 şi t -1(A) = A  P(A)  0,1

Acum suntem în contextul firesc al teoriei ergodice. Putem aplica:

Teorema 5.2.5.(Teorema ergodică) Fie (Ω,K.P) un spaţiu probabilizat şi f 
L1(Ω,K,P). Fie, de asemenea, t:Ω  Ω o funcţie ergodică. Atunci

1
n
 
f  f  t  f  t 2  ...  f  t n1 a
.s.
 Ef =  fdP

Demonstraţia este departe de a fi evidentă şi nu o vom da aici.9
Şi avem ceva mult mai tare decît am sperat, anume

Teorema 5.2.6. Fie (Ω,K,P) un spaţiu probabilizat, (E,E) un spaţiu măsurabil, X
= (Xn)n un şir de variabile aleatoare Xn: Ω  E cu proprietatea că shiftul t: E 
E este ergodic faţă de repartiţia sa P1 = PX-1 . Fie f: E   o funcţie
măsurabilă cu proprietatea că f(X)  L1(Ω,K,P). Atunci
1
n
 
f  f  t  f  t 2  ...  f  t n1 ( X ) converge P – aproape sigur la Ef(X).

9
Cititorul interesat poate găsi multe despre această teoremă aici:
http://en.wikipedia.org/wiki/Ergodic_theory. O demonstraţie frumoasă se poate găsi in
cursul lui I. Cuculescu (1974) sau Tudor. Demonstraţia originală a autorului (Birkhoff
1931) este aici: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1076138/?page=1

140

Demonstraţie
Nu avem decît să aplicăm teorema ergodică pe spaţiul (E,E,PX-1).
q.e.d.

Avantajul acestei formulări a legii tari a numerelor mari este că se poate
generaliza şi la alte tipuri de şiruri de variabile aleatoare – de exemplu la lanţuri
Markov sau la proces staţionare.
Ca să o înţelegem mai bine, o să îi scriem cîteva particularizări.

Corolarul 5.2.7. Fie (Xn)n un şir de variabile aleatoare i.i.d. cu valori într-un
spaţiu măsurabil (E,E) şi fie f: E   o funcţie măsurabilă cu proprietatea că
f(X1,X2,....)  L1. Atunci
1
 f  X1, X2,...  f  X2, X3,...  ... f  Xn , Xn1,... Pa
.s.
Ef  X1, X2 ,... (5.2.3)
n
Şi acest enunţ este foarte general. Ca să îl putem aplica, ar trebui să putem
calcula membrul drept. Particularizăm la cazuri calculabile. De exemplu dacă
variabilele aleatoare sunt reale iar f depinde doar de o mulţime finită de
componente:

Corolarul 5.2.8. Fie (Xn)n un şir de variabile aleatoare i.i.d. şi fie f:k   o
funcţie măsurabilă cu proprietatea că f(X1,X2,...,Xk)  L1. Atunci
1
 f  X1, X2,..,Xk   f  X2, X3,..,Xk1 ... f  Xn, Xn1,..,Xnk1 Pa
.s.
Ef X1, X2,...,Xk  (5.2.4)
n

Avantajul este că acum chiar putem calcula membrul drept, folosind formula
de transport.
Dacă PXn-1 = F, atunci Ef(X1,...,Xk) =  fdF k .
Dacă, de exemplu, F are o densitate  faţă de măsura Lebesgue, atunci
Ef(X1,...,Xk) =  f x1 , x2 ,..., xk x1 x 2 ...xk dx1dx2 ...dxk .
O particularizare şi mai mare este cea cu care am început: dacă f = pr1.

Corolarul 5.2.9. Legea tare a numerelor mari (SLLN)10
Fie (Xn)n un şir de variabile aleatoare i.i.d. din L1. Fie F repartiţia lor şi  =
X 1  X 2  ...  X n
EX1 =  xdF x . Atunci X n  n
converge a.s. la ..

Exemplul 5.2.10. Fie Xn variabile aleatoare pozitive i.i.d. şi repartiţia F. Atunci
media geometrică n X 1 X 2 ...X n converge a.s. la e E ln X1  e  ln xdF  x  . (Într-adevăr,

10
abreviere internaţională: Strong Law of Large Numbers
141

1
logaritmînd expresia avem ln X1  ln X 2  ... ln X n   ElnX1). Dacă P(Xn= 0) > 0,
n
atunci limita este 0.

1
Exemplul 5.2.11. Media lor armonică converge la 1 / E . Într-adevăr,
X1
n 1
 .
1 1 1 1
  ...  E
X1 X 2 Xn X1

Exemplul 5.2.12. (Procese de reînnoire). Fie (n)n un şir de variabile aleatoare
i.i.d. strict pozitive a.s. şi T0= 0 iar n  1  Tn = 1 + ...+ n. Fie N(t) = maxk:Tk <
t. N(t) este un contorcare numără cîte variabile j au apărut pînă la momentul t.
N (t ) a.s. 1
Atunci 
 . Într-adevăr, N(t) = n  Tn  t < Tn+1 . Dacă t  , atunci
t E1
T t T
n   şi avem cleştele n   n 1 în care termenii din stînga şi din dreapta
n N (t ) n
au aceeaşi limită, anume E1.

Posibilitatea statisticii: teorema lui Glivenko

Revenim la problema iniţială: putem spera să aproximăm, empiric, funcţia de
repartiţie a unei variabile aleatoare X?
Dacă dispunem de un şir de observaţii independente asupra ei, răspunsul este,
da.
Cu condiţia să punem problema corect.
“Observaţii independente asupra lui X” înseamnă de fapt un şir de variabile
aleatoare (Xn)n care sunt independente, identic repartizate şi avînd aceeaşi
repartiţie ca X.

Exemplu 5.2.13. Se dă un zar, posibil falsificat şi dorim să estimăm
probabilităţile pi = P(X = i), 1  i  6. X este rezultatul unei aruncări a zarului.

Exemplu 5.2.14. Se aruncă la întîmplare două puncte A, B într-un pătrat de
latură L = 1. Segmentul AB are o lungime aleatoare X  [0, 2 ]. Am dori să îi
găsim funcţia de repartiţie în ipoteza că „la întîmplare” înseamnă că punctele A
şi B sunt vectori aleatori independenţi repartizaţi uniform în pătrat.

În ambele cazuri problema este similară, deşi cu grad de dificultate tehnică
diferit.
Fie (Xn)n un şir de variabile i.i.d. cu funcţia de repartiţie F. Deci F(x) = P(Xj 
x). Îi ataşăm funcţia de repartiţie empirică şi arătăm că ea converge la F.

142

Definiţia 5.2.15. Fie (Xn)n un şir de variabile aletoare i.i.d. Şirul de variabile
1
aleatoare Fn(x) =
n
 
j  n : X j  x se numeşte funcţia de repartiţie empirică
calculată în x.

Propoziţia 5.2.16. Pentru orice n  1, Yn := nFn(x) sunt variabile aleatoare
repartizate Binomial(n, F(x)). Deci EYn = F(x), Var(Yn) = nF(x)(1 – F(x)). În plus,
Fn(x) a
.s.
 F(x)
În cuvinte:Funcţia de repartiţie empirică converge aproape sigur la adevărata
funcţie de repartiţie.

Demonstraţie
Fie Zj = 1X j  x . Variabilele Zj sunt i.i.d. repartizate Binomial(1,F(x)) iar
Z1  Z 2  ...  Z n
Fn(x) nu este altcineva decît care, conform SLLN converge a.s.
n
la EZ1 = F(x). q.e.d.

Şi totuşi, se poate şi mai bine.

Este adevărat că Fn(x) converge punctual la F(x). Dar funcţia de repartiţie F:
 [0,1] este definită pe o mulţime nenumărabilă.
Nu cumva mulţimea Ω0 := ω  Ω  Fn(x)(ω)  F(x) pentru orice x   poate
să fie de probabilitate mică, sau chiar 0? Noi am vrea să estimăm funcţia de
repartiţie F în toate punctele, nu numai într-un singur x!
Din fericire, lucrurile nu stau aşa. Nu numai că P(Ω0) = 1 (ceea ce tranşează
problema), dar se poate demonstra chiar mai mult:

Teorema 5.2.17. (Teorema lui Glivenko) Fie Δn(ω) = sup Fn(x)(ω) – F(x)
distanţa uniformă dintre funcţia de repartiţie empirică după n observaţii şi
adevărata funcţie de repartiţie. Atunci Δn a
.s.
 0
Funcţia de repartiţie empirică converge aproape sigur uniform la
adevărata funcţie de repartiţie.

Nu vom da demonstraţia acestui rezultat.11
Semnalăm că ea este foarte mult îmbunătăţită dacă funcţia de repartiţie F este
continuă. Un rezultat de matematică grea este următorul

Teorema 5.2.18. (Teorema Kolmogorov – Smirnov) Dacă F este continuă, atunci

11
Cititorul interesat poate consulta Teoria probabilităţilor de Cuculescu (1974) sau Tudor (1980).
Sau poate vedea mai multe referinţe aici
http://en.wikipedia.org/wiki/Glivenko%E2%80%93Cantelli_theoremhttp://en.wikipedia.org/wiki
/Glivenko%E2%80%93Cantelli_theorem
143

[ak. Atunci Xn = (Xn.. Dar.  Ef  X 1  ..... s.bk].1) Revenind la Exemplul 1.yb=runif(n) d=sqrt((xa-xb)^2+(ya-yb)^2) d} face n simulari (instrucţiunea xa=runif(n) produce un vector de lungime n cu componentele variabile aleatoare repartizate Uniform(0.Xn. Următoarea secvenţa (sau.b1][a2. Matlab. R. C++. Toate mediile de programare (R.bi).. Calcul de integrale. Excel etc) au în dotare cel puţin generatoare de numere pseudoaleatoare...summary(d) generăm 1000000 de segmente cărora le calculăm lungimea. limn  f  X 1   . media şi cuantila a treia..b2].dxk =  (C)[a.. Ef(X1) = n 1  fdU C  k C f x1 .k) este uşor de simulat: componentele sale sunt variabile aleatoare independente repartizate Uniform(ai.ya=runif(n).  f  X n  a ... Ideea este să generăm un şir de vectori aleatori independenţi Xn repartizaţi uniform în compactul C. Atunci 1  f  X 1   ..  2i 12 2 2 8x2 limnP( n Δn  x) = e x i 1 Metoda Monte Carlo Metoda se foloseşte într-o serie de probleme unde apar calcule prea grele pentru a fi abordate determinist. Să presupunem că vrem să calculăm o integrală de forma k I =  f  x1 . 144 . „script”) din mediul de programare „ R”: segment1<-function(n) {xa=runif(n)...6) A simula un vector aleator repartizat uniform într-un compact nu este un lucru simplu.11. maximul...1) Cu instrucţiunea > d<-segment1(1000000).Deci algoritmul este  C  1  f  x1 ... Apoi ni se furnizează minimul. mediana. Java.1.... este simplu: dacă C = [a1.. Uneori însă. conform formulei de transport.dxk   f 1C d C (5.s.2.. xk dx1dx2 . prima cuantilă. xk dx1dx2 .2..dxk .1.. xk dx1dx2 .5) unde C este un compact de măsură Lebesgue pozitivă şi f o funcţie integrabilă pe acel compact. repartizate Uniform(0.  f  X n  ] k C n (5. cum i se mai spune.xb=runif(n). Ele sunt de două tipuri: calcul de integrale sau probleme de optimizare...

3800000 Observăm că media reprezintă o remarcabilă stabilitate: primele două zecimale nu se schimbă.5113000 0.2.2.7043000 1. yA. yB  [0.8).38 iar minimul pare a fi ≈ 0. Teoretic.5213000 0.5118000 0.5215000 0.5213000 0.7039000 1.0006177 0.3279000 0.7044000 1.7) şi (5.7) EX = E x A  xB 2   y A  yB 2 (5.3277000 0.5126000 0.5215000 0.3790000 0. B(xB.3284000 0. Median Mean 3rd Qu.3284000 0.0006265 0. Max.3760000 0. tot pe baza SLLN că şi cuantilele de selecţie converg la adevăratele cuantile).1]: (xA – xB)2 + (yA – yB)2  x2 Iar a doua.7046000 1. Putem avea o idee despre precizia estimării comparînd cu lucruri cunoscute: ştim că maximul esenţial al lui X este 2 şi minimul este 0.5209000 0.0008071 0.0007994 0.7049000 1.3880000 0.5117000 0. 1st Qu.7046000 1.3282000 0.2.yB) sunt punctele aleatoare repartizate uniform în pătratul unitate.3670000 0.5212000 0.5214000 0.5210000 0. avem de calculat următoarele F(x) = P(X  x) = P((xA – xB)2 + (yA – yB)2  x2) (5. yB şi se cere să se calculeze cantităţile (5.7043000 1. Formal.3279000 0. yA.5119000 0.3860000 0.3560000 0.3276000 0.0004015 0.8) unde A(xA.5117000 0. la a calcula integrala 145 .3284000 0.3860000 0.5211000 0.5123000 0.2. Iată rezultatul a 10 simulări de cîte 1 milion de segmente Min.5113000 0. Sigur că este vorba de cuantilele de selecţie (se poate arăta.0008395 0. pe baza formulei de transport.yA).0005321 0.0002333 0.0005139 0.3283000 0.3278000 0.5119000 0.7043000 1.4010000 0. xB.3820000 0. Maximul empiric al lui X pare să fie ≈ 1.0003137 0. La fel şi mediana.7045000 1. Conform SLLN ne aşteptăm ca aceste variaile aleatoare (căci asta sunt!) să nu oscileze prea tare şi să ne dea informaţii despre repartiţia variabilei aleatoare X = ║A-B║.7041000 1. Prima revine la a calcula măsura Lebesgue 4-dimensională 4 a mulţimii Mx =  xA. se dau patru variabile aleatoare independente: xA. Calculul exact este aproape imposibil de făcut. 0. xB.5214000 0.5116000 0.

O problemă fundamentală în matematica aplicată este de a găsi maximele şi minimele unei funcţii f:C   unde C este un domeniu din kk.521 şi mediana≈. Atunci (Yn)n este un şir crescător de variabile aleatoare. Tot o sumă avem de făcut.. Fie (Xn)n un şir de variabile aleatoare repartizate uniform în C şi Yn = max(f(X1). Fie f:C   o funcţie mărginită definită pe compactul cu interior nevid C  k. după ce luăm cîte o diviziune pe fiecare axă.19. prezentăm şi graficul unei funcţii de repartiţie empirice după 100.000 de puncte.. Ideea de bază a algoritmilor probabilişti este de a arunca o ploaie de puncte „la întîmplare” cu mai multă sau mai puţină inteligenţă .2.f(Xn)). pentru al doua. Primul 146 .. vom avea de calculat valoarea funcţiei de integrat în 204 = 160.512 De curiozitate. Există două tipuri de agoritmi : determinişti şi probabilişti. Există multe metode deterministe de a face acest lucru – acesta este domeniul teoriei optimizării. Nu e sigur că eroarea va fi mai mică! Putem concluziona că X este o variabilă aleatoare cu media ≈0. Ca să avem o idee de puterea metodei.000 de probe. o putem compara cu metodele deterministe de calcul ale integralelor multiple. Zn = min(f(X1). Propoziţia 5. Calcul de maxime-minime. EX = 01 01 01 01 x A  xB 2   y A  yB 2 dx AdxB dy Ady B Prima cantitate se poate calcula exact... Dacă diviziunea este echidistantă cu 20 de puncte..f(Xn)). (Yn)n este un şir descrescător .. nu există formule prin cuadraturi. cu mult efort.

12
converge aproape sigur la Esssupf iar al doilea la Essinf f. Dacă f este
continuă, atunci Yn a
.s. a.s.
 max(f) şi Zn 
 min(f)

Demonstraţie
Fie F funcţia de repartiţie a variabilei aleatoare f(X) unde X 
Uniform(C). Deci F(x) = P(f(X)  x) = P(X  f-1(-,x]) = k(f-1(-,x])/k(C).
Fie M = ess inf f. Atunci P(Yn  M - ) = P(max(f(X1),...,f(Xn))  M - ). Dar
variabilele f(Xk) sunt independente, deci
P(max(f(X1),...,f(Xn))  M - ) = P(f(X1)  M - , f(X2)  M - ,... f(Xn))  M - )
= P(f(X1)  M - )P(f(X2)  M - ,)...P(f(Xn))  M - ) = Fn(M - ). Cum M este
supremul esenţial, F(M - ) < 1, deci F n(M - )  0. Deci P(Yn  M - )  0. Dar
şirul Yn, fiind crescător, are o limită, Y. Rezultă că P(Y  M - ) = 0  . Deci Y 
M. Pe de altă parte, Yn  M deoarece toate variabilele aleatoare f(Xj) au această
proprietate. Înseamnă că Y = M P-a.s.  Y = M (k a.p.t.).
Dacă funcţia este continuă, nu mai este nevoie de precauţia ca ea să fie
mărginită: sigur că este, deoarece orice funcţie continuă duce compacte în
compacte. Mai mult, atunci maximul ei coincide cu supremul esenţial din
următorul motiv: fie M = max f. Atunci mulţimea x  C  f(x) > M -  este
deschisă în C, deci are interior nevid. Orice mulţime de interior nevid are măsură
pozitivă. Adică M are proprietatea care defineşte supremul esenţial.
Demonstrarea afirmaţiilor legate de minim sau infimul esenţial este analogă.
q.e.d.

Observaţia 5.2.20. Acesta este cel mai simplu algoritm, deoarece lucrează „în
orb”, fără memorie. Perfecţionarea lui duce la „algoritmii genetici”. Dacă
apelăm şi la un minimum de memorie, reţinînd punctele de minim şi maxim
găsite, atunci putem avea o idee despre Argmin f şi Argmax f 13

Exemplul 5.2.21. Pentru a vedea cît este de tare algoritmul, să luăm o funcţie
căreia îi putem calcula extremele, de exemplu f(x,y) = xy – xy, f:[0,1]2  .
Verificaţi că max f = f( ½, ½ ) = ¼ , minf =0. Puncte de minim sunt o infinitate –
frontiera pătratului unitate, dar există un singur punct de maxim.. Aplicăm
metoda Monte Carlo şi să vedem ce rezultă. După 1000 de simulări a rezultat
minimul min f = 4.069785e-07 (în loc de 0), maximul max f = 0.2480471 (în loc
de 0.25), punctul de maxim z = (0.5315545, 0.5295112) (în loc de (0.5, 0.5)!) şi
un punct de minim de coordonate (0.8046973, 2.083834e-06) . Dacă însă facem

12
Supremul esenţial al unei funcţii definite pe un compact de interior nevid C este un număr M
cu proprietatea că f(x)  M pentru aproape toţi x  M şi măsura Lebesgue a mulţimii x  C f(x)
> M -  este pozitivă  >0. Similar, infimul esenţial este un număr m cu proprietatea că f(x) 
M pentru aproape toţi x  M şi măsura Lebesgue a mulţimii x  C f(x) < M +  este pozitivă
 >0. A nu se confunda cu supremul şi infimul De exemplu, dacă f = 1Δ – 1Δ’ cu Δ diagonala
pătratului unitate din plan, şi Δ’ cealaltă diagonală atunci sup f = 1, inf f = -1, dar ess sup f = ess
inf f = 0.
13
O notaţie pentru punctele în care se găseşte maximul sau minimul.
147

10000 de simulări, obţinem minf =9.063544e-09, max f = 0.2499187, Argmax(f)
= (0.4966409, 0.4967819), Argmin(f) =(0.9999011, 9.165588e-05) .

De regulă algoritmii Monte Carlo nu se aplică decît in extremis – dacă nu
avem altceva mai bun.
Viteza de convergenţă la WLLM şi SLLM este dată de 2 = Var(Xi).

5.3. Convergenţa în repartiţie
Spre deosebire de convergenţele din capitolul precedent, convergenţa în
repartiţie nu se referă ca convergenţa variabilelor aleatoare, ci la cea a
D
repartiţiilor lor. Propoziţia „Xn converge la X în repartiţie” cu notaţia Xn  X
trebuie înţeleasă în sensul „repartiţiile variabilelor aleatoare Xn converg la
repartiţia lui X ”.
De obicei, noţiunea de convergenţă este legată de o topologie: un şir de
repartiţii Fn are limita F dacă în afara oricărei vecinătăţi a lui F există cel mult un
număr finit de termeni ai şirului.
Şi tot de obicei, noţiunea de vecinătate este legată de o distanţă: o vecinătate
a unui punct F este o mulţime care conţine o bilă de centru F şi rază .

Convergenţa tare
Cele mai folosite distanţe sunt date de norme: d(F,G) =║F - G║.
Repartiţiile variabilelor aleatoare sunt probabilităţi pe dreaptă. Probabilităţile
sunt măsuri finite pe (, B()). Diferenţa a două măsuri finite este o măsură cu
semn.
Aici trebuie amintite unele lucruri elementare: măsurile finite cu semn pe un
spaţiu măsurabil (E,E) formează spaţiu vectorial. O măsură cu semn : E  
se poate întotdeauna scrie sub forma  = + - - unde + şi - reprezintă partea
pozitivă şi partea negativă a măsurii. Aceasta este descompunerea Hahn –
Jordan.14
Mai mult, există o mulţime H  E 15 cu proprietatea +(E) = (H) şi -(E) = –
(E \ H). Ea are proprietatea că (AH)  0 , (A \ H)  0 pentru orice A  E .
Măsura   := + + - se numeşte variaţia lui  iar funcţia definită prin ║║
=  (E) = 2(H) - (E) este o normă: ║║= 0   = 0 şi ║1 + 2║  ║1║ + ║2║
 1,2 măsuri cu semn.

14
Vezi orice manual de teoria măsurii sau, de exemplu aici:
http://www.math.purdue.edu/~zhang24/SignedMeasure.pdf
15
Ea se numeşte mulţimea Hahn ataşată lui . Dacă, de exemplu,  = , unde  este o măsură
oarecare, atunci H =  > 0
148

Norma se calculează uşor dacă  are o densitate faţă de o măsură adevărată,
: mai precis, dacă  = , atunci ║║ =  d 16.
De exemplu dacă F şi G sunt două repartiţii discrete cu acelaşi suport, F =
 p j  x j , G =  q j  x j , atunci  =   x j , densitatea lui F ar fi (pj)j , cea a lui G ar
j j j

fi (qj)j iar distanţa între F şi G ar fi ║F – G║ = | p j  q j | .
j

Definiţia 5.3.1. Fie (E,E) un spaţiu măsurabil. Fie (Fn)n şi F probabilităţi pe el.
Spunem că Fn converge tare la F dacă ║F – Fn║  0. Notăm acest lucru prin
„Fn s
 F”.

Propoziţia 5.3.2. Fie (E,E) un spaţiu măsurabil.
(i). Dacă F şi G sunt două probabilităţi pe E, atunci d(F, G)  [0,2]. Dacă
d(F,G) = 0, atunci F = G iar dacă d(F,G) = 2, atunci există o mulţime A în aşa
fel încît F(A) = 0 şi G(A) = 1. Spunem că F şi G sunt singulare.
(ii). Dacă  este o măsură oarecare şi Fn = fn, F = f sunt probabilităţi,
atunci Fn  s L1 E ,E ,  f. O condiţie suficientă ca f să conveargă la f
 F  fn     n
în L1 este ca fn să convearga la f  - aproape sigur.
s
(iii). Dacă Fn   F, atunci Fn(A)  F(A)  A  E. Reciproca nu este
adevărată. Ca un caz particular, dacă Fn şi F sunt repartiţii de pe dreapta reală,
atunci funcţiile lor de repartiţie converg: Fn((-,x])  F((-,x]). 17

Demonstraţie
(i). Fie  = F – G.Deci (E) = F(E) – G(E) = 1 – 1 = 0. Fie H mulţimea Hahn
ataşată lui . Atunci ║║= 2(H) - (E) = 2(H). Dacă ║║= 2, atunci (H) = 1 
F(H) – G(H) = 1. Dar F şi G sunt probabilităţi, deci F(H) = 1 şi G(H) = 0.
s L1 E,E,
(ii). ║Fn – F║ =  f  f n d , deci e clară echivalenţa Fn 
 F  fn f.
Interesantă este cealaltă afirmaţie, deoarece în general nu este adevărat că dacă fn
converge la f aproape sigur, converge şi în L1 (vezi exemplul 1.1.8). Dar la noi
există condiţia foarte tare ca fn să conveargă la o densitate de probabilitate.
Folosind egalitatea x  = 2x+ - x şi avem

16
Notaţia  = . este acceptată de majoritatea matematicienilor pentru a desemna măsura de
densitate  şi bază . Precis, sensul este ()(A) =  1A d pentru orice A  E. Alţi autori
folosesc în acelaşi scop notaţia d = d, care are avantajele ei, deoarece atunci cînd calculăm
integrala, densitatea „iese în faţă”:  fd       fd .
17
Se obişnuieşte notaţia F(x) în loc de F((-,x]). Dacă suntem atenţi, nu este nici un pericol de
confuzie: dacă A este o mulţime, F(A) înseamnă probabilitatea lui A şi dacă x e punct, F(x)
înseamnă F((-,x]).
149

 f  f n d  2  f  f n  d    f  f n d = 2  f  f n  d . Şirul (f – fn)+ tinde -a.s.
la 0 este dominat de f care este în L1. Teorema de convergenţă dominată ne spune
atunci că putem comuta limita cu integrala: limn  f  f n d =  lim | f  f n | d = 0.
n
(iii). Fn(A) – F(A) Fn – F (A)  ║Fn – F ║. Pentru a doua afirmaţie, vezi
exemplul 1.3.7 de mai jos.

Exemple de aplicare

Exemplul 5.3.3. Dacă (pn)n este un şir de probabilităţi cu proprietatea că npn 
, cu  >0, atunci repartiţiile Binomial(n,pn) converg tare la Poisson(). Într-
adevăr, putem lua  =   n măsura cardinal cu suport mulţimea numerelor
n 0
i
naturale şi densităţile fn(i) = Cni pni 1  pn ni , f(i) = . Verificaţi că fn  f.
i!

 1 1
s
Exemplul 5.3.4. Fie Fn = 1   0   n Atunci Fn  0 .
 n n

Exemplul 5.3.5. Dacă an  a şi bn  b, atunci Uniform(an,bn)  Uniform(a,b).

Exemplul 5.3.6. Mai general, familiile de repartiţii obişnuite: (Geometric(p),
Negbin(k,p), Gamma(k,), N(,2) etc) sunt continue în parametru: n   
Gamma(k,n)  s Gamma(k,); n  , n   N(n,n)  s N(,). Nu
avem decît să verificăm că densiăţile converg.

2 n 1 1
2k 2 k  1
Exemplul 5.3.7. Fie An =  ( n
 
, n ] şi Fn = 2  1An   , unde  este măsura
k 0 2 2
Lebesgue. Fie f = Uniform(0,1) = 1(0,1). Atunci ║Fn – F║ = 1 (într-adevăr,
1 dacă x  An

 
norma este egală cu  1An  1(0,1) d iar 1An  1( 0,1) x    1 dacă x  (0,1) \ An ).
0 în rest

Totuşi, Fn(A)  F(A) pentru orice mulţime boreliană A din următorul
motiv:remarcăm că Fn(A)  2F(A) pentru orice A  B (). Fie atunci C =A  B
(): Fn(A)  F(A). Familia C este un u-sistem (singurul lucru cu probleme este
să arătăm că dacă (Ak) este un şir de mulţimi disjuncte cu proprietatea că Fn(Ak)
 F(Ak), atunci şi Fn(  Ak )  F(  Ak )   Fn  Ak   F  Ak  ceea ce rezultă din
k k k k
faptul că seriile  Fn  Ak  sunt dominate de 2  F  Ak  ). Acest u-sistem conţine
k k
intervalele A = (-,x]. Într-adevăr, pentru x  0 sau x 1 funcţiile de repartiţie

150

chiar coincide: Fn(x) = F(x). Dacă 0 < x < 1 se arată imediat prin inducţie că
1
| [2 n 1 x  ]  2 n1 x |
Fn(x) = x + 2 deci 0  Fn – F  2-n.
n 1
2
Deci funcţiile de repartiţie converg uniform, (Fn - F)(A) converge la 0 pentru orice
A şi totuşi Fn nu converge tare la F.

Exemplul 5.3.8. Dacă F este o repartiţie discretă şi G este o repartiţie continuă,
atunci ║F – G║ = 2 – adică maximul posibil. În consecinţă niciodată nu se poate
aproxima în sensul tare o repartiţie continuă cu un şir de repartiţii discrete.

În multe situaţii se pune problema evaluării momentelor unei variabile
D
aleatoare aproximîndui repartiţia cu alta. Schema mentală este „Dacă Xn  X,
atunci poate că şi EXn  EX”

Este oare convergenţa tare suficientă pentru a asigura convergenţa
momentelor?
Uneori chiar aşa se întîmplă, dar în general răspunsul este negativ. Dacă
 0
n
luăm, de exemplu, Xn  Fn := 1  1 1  , X = 0 0, vedem că deşi Fn  s
 F, EXn
 
 n n
= 1 nu converge la EX = 0. Problema convergenţei momentelor este dificilă.18

Convergenţa slabă

Convergenţa tare, deşi cea mai naturală, nu răspunde satisfăcător problemelor
de statistică. Toate repartiţiile vizibile în statistică sunt repartiţii empirice, deci
sunt discrete. Exemplul 5.3.7 ne arată că nu se pot aproxima repartiţiile continui
cu repartiţii discrete. Ce puţin nu în sensul tare.
Teorema lui Glivenko ne spune că (uneori, vezi mai sus) funcţiile de
repartiţie empirice converg la adevărata funcţie de repartiţie. O idee ar fi să
decretăm că

Definiţia 5.3.9.(Definiţie intermediară) Fie (Fn)n un şir de repartiţii pe dreaptă.
Fie F o altă repartiţie. Spunem că Fn  F dacă Fn(x)  F(x) pentru orice x  .

Dar această definiţie are două neajunsuri. Amîndouă serioase.
În primul rînd, ca să fie ceva care corespunde intuiţiei, ar trebui ca, dacă xn 
1
x , atunci şi  xn să conveargă la x. Şi nu este aşa. De exemplu, dacă xn = , xn 
n

18
Cititorul poate consulta, de exemplu, Ioan Cuculescu, Teoria Probabilităţilor, Bucureşti, All,
1998, pg 281-368.
151

0, dar funcţiile de repartiţie sunt Fn(x) = 1 1 (x)  1(0,)(x) ; limita nu este o
[ , )
n
funcţie de repartiţie fiindcă nu este continuă la dreapta. Am fi vrut să conveargă
la funcţia de repartiţie a lui 0, care este 1[0,).
În al doilea rînd, ar fi preferabilă o definiţie care să se poată extinde şi la alte
spaţii măsurabile, nu numai la dreaptă. Am vrea să dăm un sens, de exemplu, şi
noţiunii de convergenţă dacă avem de a face cu repartiţii în plan sau în spaţiu.
De aceea s-a ales altă definiţie. Ea are sens pe spaţii mai generale, dar ne
mulţumim aici cu spaţiile euclidiene, care sunt cel mai bine cunoscute.

Definiţia 5.3.10. Fie (Fn)n, F repartiţii pe spaţiul euclidian (d, B(d)). Spunem
că Fn converge slab la F dacă  fdFn   fdF pentru orice funcţie continuă şi
mărginită f. 19
Notăm acest fapt prin „Fn  F”
Dacă Xn ,X sunt vectori aleatori cu repartiţiile Fn şi F, în locul notaţiei „Fn 
D
F” se foloseşte, prin abuz de limbaj, notaţia „Xn  X” care se citeşte „Xn
D
converge în repartiţie la X”. Se admite şi notaţia „Xn  F” , care se citeşte
„Xn converge în repartiţie la F”.

Proprietăţile cele mai importante ale acestei noţiuni sunt sintetizate în
următorul rezultat – Teorema Portmanteau.

Propoziţia 5.3.11. (Teorema Portmanteau)
Fie E = d, d  1, E = B(d) şi (Fn)n, F probabilităţi pe (E, E).
Atunci următoarele proprietăţi sunt echivalente
(i)  fdFn   fdF pentru orice f continuă şi mărginită
(ii)  fdFn   fdF pentru orice f uniform continuă şi mărginită
(iii) limsup Fn(C)  F(C) pentru orice mulţime închisă din E
(iv) liminf Fn (D)  F(D) pentru orice mulţime deschisă din E
(v) lim Fn(A) = F(A) pentru orice mulţime A cu frontieră F- neglijabilă (adică
F( A \ Int ( A) ) = 0!).
(vi) (doar pentru d = 1): Fn(x)  F(x)  x punct de continuitate pentru F
(vii) (doar pentru d = 1): Fn(x)  F(x)  x   unde  este o mulţime
numărabilă densă din .

Nu vom demonstra această teoremă. Unele implicaţii sunt simple, altele mai
laborioase.20

19
Mulţimea funcţiilor reale continue şi mărginite pe d se notează cu Cb(d).
20
Ioan Cuculescu, Teoria Probabilităţilor sau
http://en.wikipedia.org/wiki/Convergence_of_measures. Sunt sute de cărţi care conţin
demonstraţia.
152

Nici măcar în cazul unidimensional: este uşor de zis “verifică dacă Fn(x) converge la F(x) pe o mulţime densă”. dar e mai greu de făcut.1) ) etc.3. atunci conţine un subşir care converge a. Dacă în loc de Fn şi F punem Xn şi X obţinem următoarele D caracterizări echivalente ale faptului că Xn  X: (i) Ef(Xn)  Ef(X) pentru orice f continuă şi mărginită (ii) Ef(Xn)  Ef(X) pentru orice f uniform continuă şi mărginită (iii) limsup P(Xn C)  P(X C) pentru orice mulţime închisă din E (iv) liminf P(Xn D)  P(X D pentru orice mulţime deschisă din E (v) lim P(Xn A) = P(X A) pentru orice mulţime A cu frontieră F- neglijabilă Observaţia 5.3.12.org/wiki/Prokhorov%27s_theorem 153 . anume funcţia caracteristică.13. atunci f(Xn) converge aproape sigur la f(X). Este fenomenul cunoscut ca “escape n to infinity” sau “se pierde masă spre infinit”. la fel şi funcţiile de repartiţie pentru x Uniform(0.15.wikipedia. la X. Ce avem de făcut dacă dorim să verificăm o conjectură de tipul “Fn  F”? Nici una din reţetele din Teorema Portmanteau nu pare să funcţioneze. Nu trebuie să credem că dacă Fn sunt funcţii de repartiţie şi Fn  F. Dacă f este o funcţie continuă.14. Există un instrument care ajută în multe cazuri.3. Toate punctele teoremei de mai sus pot scrise în termini de variabile aleatoare. Remarcăm următoarea consecinţă imediată a teoremei Portmanteau: P D Corolarul 5. 21 De exemplu http://en. Convergenţa în probabilitate implică convergenţa în repartiţie. Demonstraţie P Dacă Xn  X. Dacă Xn  X. Observaţia 5.n) (adică Fn(x) = min( . pentru toate probabilităţile F din acea familie (Teorema lui Prohorov)21. atunci trebuie ca ea să fie “tight”: pentru orice  > 0 să existe un compact C cu proprietatea ca F(C) > 1 . atunci şi F este funcţie de repartiţie.Observaţia 5.X vectori aleatori. Dacă dorim să avem o familie de probabilităţi care să fie relative compactă (din orice şir să se poată extrage un subşir Cauchy).) sunt funcţii de repartiţie care converg la 0. teorema de convergenţă dominată arată că Ef(Xn)  Ef(X). Exemplele sunt nenumărate: 1[n. Fie Xn. Dacă f este şi mărginită. atunci Xn  X.s.3.

2) Funcţia caracteristică are proprietatea de a fi multiplicativă: dacă X şi Y sunt vectori independenţi. Dacă F este repartiţia unui vector aleator d-dimensional. (ii) Presupunem că (Fn)n este un şir de repartiţii cu proprietatea că şirul  Fn este convergent şi limita sa. atunci X+Y = XY . (i) Fie F şi G două repartiţii pe (d. Funcţia F: d C definită prin it ' x F(t) = e dF  x  (5. t’ este transpusul lui t deci t’x este produsul scalar dintre t şi x : t’x = t1x1 + t2x2 + .Y)) (ii). este continuă în 0.B(d)).. 22 Cu ajutorul ei însă putem arăta Propoziţia 5.Yn)  (X. Yn  Y .Definiţia 5. Dacă Fn  F şi Gn  G. acelaşi lucru în D D termeni de variabile aleatoare dacă Xn  X. . Atunci F = G (Teorema de unicitate).3. Teoria Probabilităţilor sau Lukacs.Xn independent de Yn. (Un punct x din d este un vector coloană. Characteristic functions.  continuă în D 0.3. Atunci există o repartiţie F cu proprietatea că F =  şi Fn  F.. X. în termeni de variabile aleatoare: dacă (Xn)n sunt vectori aleatori d-dimensionali independenţi şi  X n  . atunci scriem X în loc de F şi. atunci există o repartiţie F ca Xn  F.3.3.+ tdxd).16. avem Propoziţia 5. avem X(t) = Eeit’X (5. atunci FnGn  FG (sau. 154 .B(d)) cu proprietatea că F = G. Sau. atunci FnGn  FG ( în termeni de variabile D D aleatoare : dacă Xn  X.Xn independent de Yn. (i).1) se numeşte funcţia caracteristică a lui F. Ea are însă o proprietate suplimentară pe care analogul său real (funcţia generatoare de momente mX(t) = Eet’X) nu o are: aceea că domeniul său de definiţie este acelaşi indiferent de repartiţia F şi că ea caracterizează astfel. (1970).3.18. atunci Xn+Yn D  X+Y) 22 Ioan Cuculescu. D atunci (Xn. Dacă Fn  F şi Gn  G. London: Griffin. Dacă este de clasă C. E. atunci X are toate momentele finite şi ele se pot calcula prin derivări. Nu vom demonstra nici această teoremă fundamentală. Fie F o repartiţie pe (d. pe baza formulei de transport.17. Mai precis. repartiţia. Yn  Y .

1) Dacă x  1. Dacă scriem X n  n ....e. atunci probabiliitatea respectivă s-ar putea scrie p() = F(n( . Pentru n a studia mai amănunţit viteza de convergenţă. n(-))  (n(+).Xn) este repartizat uniform în cubul [0. Deci P(Sn  x) = P( X  Ax) unde Ax =x [0. găsim Fn(x) = n!  1 n  x  C 1n  x  1n  C n2 x  2n  . Întrebarea este: cum se comportă convoluţiile de multe repartiţii? Să studiem un exemplu în care se pot face calcule. din raţiuni de simetrie este 1/n! din volumul xn cubului. Legea numerelor mari spune că dacă Xn sunt variabile aleatoare i. Să zicem că Xn  U(0. scriem 155 . 5.... Aplicînd principiul includerii şi exculderii.)) + 1 – F(n(+)) Ce s-ar putea spune despre această cantitate? Se ştie că repartiţia sumei unor variabile aleatoare independente este convoluţia erepartiţiilor termenilor..1]n : x1 +.)) Dacă notăm cu Fn repartiţia sumelor Sn... Intersecţia unei familii j 1 finite de asemenea mulţimi e de aceeaşi formă. este uşor de făcut calculul: P( X  Ax) este volumul simplexului Sn(x) = x0: x1 +.i. Ca să nu avem probleme de sumare. Demonstraţia se reduce la verificarea faptului banal că FG = FG şi FG = FG. (5.  X n Xn  converge aproape sigur la adevărata medie  = EX.1). am dori să ştim cîte observaţii ne-ar trebui pentru ca această S probabilitate să fie mică.1]n. Atunci vectorul X:=(X1.d. Dacă însă x > 1. atunci trebuie scăzute din el n! volumele celor n simplexe de latură x – 1 care apar (făceţi un desen în cazul n = n 3!).4.. probabilitatea în cauză s-ar scrie n sub forma p() = P( S n  n >n) = P(Sn  (-.. adică Fn(x) = .4. atunci media empirică X 1  X 2  ..d.. q..2) Unde suma se face atîta vreme cît x – k  0.+ xn x  (5. Teorema limită centrală Am văzut că în varianta ei cea mai simplu de înţeles.. ar trebui să calculăm mărimea p() = P( X n   > ) .4.+ xn x  care. Deci Ax = Sn (x) \  A j x  cu Aj(x) = x  Sn(x): xi > 1.

Astfel obţinem sumele centrate Sn. fiindcă au aceeaşi axă de simetrie. totuşi.5) Obţinem cinci grafice care se pot compara mai bine.c = Sn . ar trebui să facem ca aceste densităţi să aibă aceeaşi axă de simetrie. 1  k k n Fn(x) =  C n  1 x  k  (5.4.c se calculează imediat după foemula evidentă Fn.4. scăzînd din ele media.3 0. 1.1 0. Derivînd (sumele sunt.7 0. Adică să centrăm variabilele aleatoare Xn.9 0.0 y 0. finite) găsim densităţile 1  k k n 1 fn(x) =  C n  1 x  k  (5. notate ad-hoc cu Fn.5 0. de clopot. Funcţiile de repatiţie centrate.3) n! k 0 unde x+ este partea pozitivă a lui x.4.2 0.4) n  1! k 0 În figura de mai jos am făcut graficele densităţilor fj cu 2  j  6.8 0. fn.4 0.c(x) = Fn(x + n) .n unde  = EXn = ½ . Se observă cum ele capătă o formă specifică.0 0 1 2 3 4 5 6 x Ca sa putem compara mai bine densităţile. 156 .c(x) = fn(x + n) (5.6 0.

Obţinem sumele centrate şi normate 12 S n  n sn = (5.6)  n care au funcţiile de repartiţie notate cu n(x) = P(sn  x) = Fn(n +  n x) (5. Ca să facem să aibă toate aceeaşi dispersie.5 0. împărţim la abaterea medie pătratică a lui Sn. 1.4. care este  n .7) şi densităţile n(x) = n’(x) =  n fn(n+ n x) (5.6 0.7 0.4.0 y 0. dispersiile tind la infinit. unde 2 = Var(Xn) = 1 .4 0.9 0.8 0.8) Mai jos am făcut graficele celor cinci densităţi centrate şi normate. Se observă cum se stabilizează.4.2 0. Nu putem să le comparăm bine.1 -3 -2 -1 0 1 2 3 x Totuşi. aşa că şi densităţile centrate vor tinde la 0. 157 .3 0.

5 1.4.4 0.9) n! Acum  =  = 1.5 y 0.3 0.0 0.0 -1.) ( x) (5. deci conform cu (1.Aplicăm formula lui Stirling.4.0 1.2 0.  ) ( n  1  n  1x ) (5. 0.8) avem n+1(x)= n  1 fn(n+1+ n  1 x) adică n+1(x) = n  1 n  1  e  n n  1x  n1 n 1x 1 ( 0. e e 2n  n  2n  n 1   n    Trecînd la limită avem  n  n 1 x   lim  n x   1 n  1  n  1  n  e   n  1  n  1x     lim   e n 1 x lim 1   e n 1x   2n  n   n 1  2  n 1   n  = lim    =   1 = 2 L 158 .5 -2. n! ≈   2n şi avem n+1(x) ≈ e n n n n  1  n  1  n  1x  n n1 n 1x = n  1  n  1  n  1x   n  1   1 n 1x .4. în care chiar putem face calcule: să zicem că Xn  Exp(1) sunt toate repartizate exponenţial standard.1 -2.5 0.5 -1. Verificaţi imediat prin inducţie că xn x fn+1(x) = e 1(0.5 x Cine este limita? Să luăm un caz particular. deci putem renunţa la n n indicator. n+1 + x n  1 devine pozitiv.5 2.0 2.10) n! Dacă n este mare.0 -0.

Cine chiar este interesat o poate găsi de exemplu. pp 190-194.. Rozanov. atunci problema locală nu are sens.1)! (Atenţie: limita unui şir de densităţi nu este obligatoriu o densitate. Ptohorov.1  (5..d. Y..4.3. conform Propoziţiei 2 5.  2 3 n  1 4n  1      Concluzie Şirul densităţilor centrate şi normate converge.. Alte demonstraţii.11)  n Afirmaţia este valabilă într-un context şi mai general. Springer 1969.1(Teorema limită centrală locală) Dacă densitatea comună a variabilelor aleatoare i. Aceasta chiar este o densitate. este 2 densitate repartiţiei noemale standard N(0. atunci densităţile n ale S n  n sumelor centrate şi normate sn = converge la densitatea repartiţiei  n x2 1  normale standard : n (x)  e 2 .(ii) S n  n s  N 0. este mărginită.. mai recente se pot găsi pe Internet.  x n  1  = . în cazul în care Xn sunt x2 1  repartizate Exp(1) la funcţia (x) = e 2 . Dezvoltăm logaritmul în serie   n 1   2 3 4 (ln(1+t) = t – t /2 + t /3 – t /4 + .  x n  1    n  1 2n  1 3n  1 n  1 4n  1  n 1 2      x2 x3 x4   = lim   x n  1     . în Y.i. Demonstraţia depăşeşte cu mult cadrul acestui manual.x2/2.   x   Logaritmăm: lnL = lim  n ln 1    x n  1  .2. 159 . Se poate demonstra un rezultat mai slab. (Xn)n. În consecinţă. Probability Theory.n](x)/n care converg la 0! ) Am verificat pe un caz particular Teorema 5. după cum ne putem convinge cu densităţile fn = 1[0. cu Google. anume dacă putem demonstra că există un n începînd de la care n este o mărginită..4. Dar dacă variabilele aleatoare Xn sunt discrete.) şi avem  n  x x2 x3 x4   lnL = lim  n  1      . din L2 ..

Fie  = EX1 şi 2 = Var(X1).2.4. Atunci X 1  X 2  . variabilele centrate şi (t) = EeitY funcţia lor caracteristică. Acum nu se mai folosec tabelele. deoarece toate softurile matematice o calculează.(Teorema Limită Centrală (TLC)) Fie (Xn)n un şir de variabile aleatoare i.EYn2 = ..  n   2 n     n  n  Atunci 2 t   t2 t2  t     t2 t2  t    limnn(t) = exp[ lim n   2 o  ]= exp    2 lim o   = e 2 ..  X n  n D  N 0. din L2. afirmaţia este că t2  X  . Ştim de la proprietăţile funcţiilor caracteristice că dacă Yn sunt din L2.Yn   t 22  t  t 2   n t  n(t) = Ee n =    = 1   o  2 . Dar (0) = 1. Fie Yn = Xn .  X n  n  1 x 2 limn   P 1  x    e dt   n  2   Observaţia 5. atunci  este derivabilă de două ori. ’(0) = EYn = 0 şi ’’(0) = .4. notată cu n: it n Y1 . t 22 Deci (t) = 1 – + o(t). Ne interesează că  e derivabilă de două t2 ori în 0: deci putem scrie (t) = (0) + t’(0)+ ’’(0) + o(t)t2 unde o(t) este o 2 funcţie continuă şi o(0) = 0.d. demonstraţia este simplă...   2n n   n    2    n      160 . Deci 2 x t 1 (x) = e 2 dt 2   Demonstraţie Dacă acceptăm teorema de convergenţă a funcţiilor caracteristice.1) se notează cu  şi este tabelată de peste 100 de ani.2.Teorema 5.. 2 Calculăm funcţia caracteristică a lui sn.i.3..1  n Scrisă explicit. Funcţia de repartiţie a repartiţiei N(0.

4.d. = pq . q. Dacă Xn    . npq 2) = N(42. 24.0.4. Prezentăm un grafic cu diferenţele dintre funcţia de repartiţie a repartiţiei Binomial(100. t2  Dar funcţia (t) = e 2 este funcţia caracteristică a repartiţiei normale standard.42) şi cea a 2 repartiţiei N(np.05. cu p =0. Maximul este maimic de 0. npq npq  npq    Se ştie că dacă npq  20. Repartiţia binomială.042. Deci S n  np a  np  a  np  P(Sn  a) = P(  ) ≈  . Daca însă luam un caz extrem.p). Exemplu de aplicare: 0 1 Exemplul 5.100] Pe axa Ox sunt valorile lui x iar pe axa Oy valorile diferenţei dintre cele două funcţii de repartiţie. aproximarea este foarte bună. Dacă n este destul de mare putem aproxima P(Sn  a) cu TLC astfel: Avem  = p. situaţia se schimba 161 .e. atunci Sn  q p Binomial(n.36 ) calculate pentru x  [0. Teorema este demonstrată.

3653754.0. ceea ce este imens. Dacă produsul np este mic. deşi n este mare.Diferenţa dintre probabilităţi poate depăşi 0.042) să ia valorile 4 sau 5 este mare : 0. atunci este preferabilă aproximarea cu repartiţia Poisson(np). Explicaţia este că acum =4.12. Ca să fie aplicabilă aproximarea normală trebuie ca toate probabilităţile P(X = k) să fie mici.2 şi probabilitatea ca X  Binomial(100. 162 .

repartizate Uniform(0. care se poate descărca de pe internet există posibilitatea simulării (şi nu numai) cel puţin a următoarelor repartiţii Repartiţia Numele ei în R Parametri beta beta . binomială binom k. k1 log-normală lnorm .1) şi se cere să se construiască o funcţie f:k   ca în aşa fel încît variabila aleatoare X = f(U1.1).p Cauchy cauchy m. F. 2 negativ binomială nbinom k. Capitolul 6 Simularea variabilelor aleatoare În dotarea calculatoarelor există de mult generatoare de numere aleatoare.... logistică logis .p normală norm . 2 1 Repartiţia logistică are funcţia de repartiţie x  .) produce o variabila aleatoare X  N(..1) şi o funcţie de repartiţie..  1 e  3 În codificarea “R”. în „R”.n gamma gamma . care simulează destul de bine un şir de variabile aleatoare repartizate Uniform(0.Uk) să aibă funcţia de repartiţie F. n. se dau k variabile aleatoare (Uj)1jk i. Formal. x=rnorm(1. 163 . Este mai rar folosită. Sau.2). Uneori se face confuzie.. geometrică geom p hipergeometrică hyper a.i. De exemplu.3 Poisson pois  1 Extragem k bile dintr-o urnă cu a bile albe şi n bile negre. Există mai multe medii de programare care fac acest lucru în cazul repartiţiilor clasice. pe baza acestui generator de numere aleatoare să se construiască variabile aleatoare avînd o repartiţie dată. Parametrul al doilea reprezintă abaterea medie pătratică şi nu varianţa.a 2  chisQ n exponentială exp  F f m.d. Să se construiască o funcţie f astfel ca funcţia de repartiţie a variabilei aleatoare X = f(U) să fie F. problema s-ar pune aşa: se dă o variabilă aleatoare UUniform(0. mediu de programare gratuit. X este numărul de bile albe. mai general. A simula o variabilă aleatoare înseamnă ca..

Cum este şi crescătoare.8413447)... pentru densitate punem d iar pentru cuantile (vezi mai jos) punem Q.b Weibull weibull k.. 4 Dacă vrem să le calculăm funcţia de repartiţie punem p.10.2419707 = ex /2 cu x = 1 şi z = -2.6) Întrebarea este cum generăm noi variabile aleatoare cu o repartiţie care nu face parte din cele simulate de mediile de programare? 6. y = 0.1.02) 2 164 .10.326348 =  -1(0.i.d. presupunem că există un interval I   astfel ca F: I  [0.4. De exemplu: x=rnorm(100. Simularea repartiţiilor pe dreaptă Algoritmul general: metoda cuantilei Cum putem folosi o variabilă U  Uniform(0.x [1] 3 2 3 3 2 2 2 2 1 3 : x este un vector cu 10 componente Hypergeometric(4. 4 Apoi se pune numărul de variabile aleatoare dorite şi parametrii repartiţiei.z=Qnorm(0.6. F(a)).4) x=rnbinom(6.0.4).1] să fie bijectivă.1).0. De exemplu x=pnorm(1.1) pentru a simula o variabilă aleatoare X cu o repartiţie dată? Să presupunem pentru început că funcţia de repartiţie a lui X este bijectivă.10.4).y=dnorm(1. Mai precis.1) va produce numerele x = 0.4) x=rhyper(10. Student t n uniformă unif a.x [1] 3 5 1 5 4 6 4 5 6 3 : x este un vector cu 10 componente repartizate Binomial(10..01. nu ar conţine intervalul (F(a-0).4 ) x=rbinom(10. Im(F).  Wilcoxon wilcox m.6. atunci imaginea sa.8413447 (căci 1 2 (1) = 0.4).0. n Pentru a genera un vector cu n componente i.x : x este un vector cu 100 de componente repartizate 2 N(10. fireşte că ar trebui ca F să fie şi continuă – dacă ar fi discontinuă într-un punct a.1).6). cu aceste repartiţii se pune în faţa numelui lor din “R” litera r.x [1] 19 8 9 25 8 19 : x este un vector cu 10 componente repartizate Negbin(10.

deducem că P(Q(U)  x) = F(x). atunci . 165 .1)   o cuantilă a sa. dacă X  Binomial (1.Aşadar  Q(U) > x  U  F(x) Trecînd la complementară. pot exista o infinitate.1.2](verificaţi: F(x) = (x+1 + (x-2)+1)/2 ).1).1][2.1. Propoziţia 6. Arătăm că U < F(x)   Q(U)  x   U  F(x) şi va fi suficient.1. există o unică cuantilă. Atunci F(Q(U) – 0 )  F(x) . Dacă. e posibil ca F să nu fie injectivă. Q(u) > Q(v) F(Q(u) – 0)  F(Q(v))  u  F(Q(u)-0)  F(Q(v))  v  u  v. Demonstraţie Observăm că orice cuantilă este o funcţie crescătoare. Acesta este algoritmul inversei funcţiei de repartiţie.1. De exemplu. Într-adevăr.2. chiar dacă repartiţia este continuă.1] o funcţie de repartiţie şi Q:(0. atunci Q(u)  Q(v) deoarece în caz contrar. Atunci F(Q(U))  F(x). Presupunem Q(U)  x. ţinînd seama de ipoteza că U  Uniform (0.1)  P(U  x) = x  x  [0. tot din definiţia cuantilei.1].2) Să presupunem acum că Q(U) > x. de exemplu.avem că  Q(U)  x  U < F(x) (6.1)..1.1]. ½ ) = Uniform(0. Fie F o funcţie de repartiţie. funcţiile de repartiţie nu sunt bijective.. dacă x  [0.2.1) În general. Dacă F este inversabilă. atunci FX este constantă pe intervalul [1. deci U  F(x). din definiţia cuantilei. q. U  F(Q(U)).3) Din (6. Observaţia fundamentală este că variabila aleatoare X = F-1(U) are exact funcţia de repartiţie F.2) şi (6. (6. pentru că atunci rezultă că P(U < F(x))  P(Q(U)  x)  P(U  F(x)) de unde. Fie U o variabilă aleatoare repartizată Uniform(0. Într-adevăr. dacă u<v .3]). Dar. cum U  Uniform(0. Dar.1. anume inversa lui F : Q = F -1 Dacă nu. Definiţia 6. avem P(X  x) = P(F -1(U)  x) = P(F(F -1(U))  F(x)) deci P(X  x) = P(U  F(x)) = F(x).1) . atunci F(x) =   1 ia doar valorile k/n cu 0  k  1.1. Ce se mai poate salva în acest caz din algoritmul anterior? Ideea este să înlocuim inversa cu cuantila.1) este o cuantilă. Fie F:  [0. De exemplu..1.. X  x  Uniform(1. Dar. dacă X  Uniform([0. O cuantilă a sa este orice funcţie reală Q = QF definită pe ( 0. Atunci X = Q(U) este o variabilă aleatoare avînd funcţia de repartiţie F. Verificaţi că orice funcţie de forma Q(u) = 1( ½ . Am demonstrat că  Q(U)  x  U  F(x) (6.1) cu proprietatea că F(Q(u)-0)  u  F(Q(u))  u. Este o n situaţie tipică pentru repartiţiile discrete.e.n). atunci F(x) = ½ pentru x  [0.d. deci U  F(x).1).1)(u) + 1 ½  cu   (0.. U  F(Q(U) – 0) .3) deducem că  U < F(x)   Q(U)  x    U  F(x).

q. F    cu a1 < a2 < a3 < . Exemplul 6. O cuantilă a sa este Q(u) =   .s3  u . s2 = p1+p2.2. unde x  0 şi q =  ln u   ln u  1 – p.1.. Dar U şi 1 – U au aceeaşi repartiţie. ... notată cu Q -.3. Dacă X  Uniform(1.1.s3 ]u . atunci cuantilele ei sunt  p1 p 2 p3 .ln(1 – u). Exemplul 6.. Cuantilele inferioară şi superioară sunt Q – (u) = 1( ½ .1.1.) la (0. Cuantila inferioară. Exemplul 6.5) sunt cuantile.d.. Deci X =  ln 1  p  este o  ln 1  p    variabilă aleatoare cu repartiţia cerută. unde s1 = p1. Demonstraţie Din definiţia supremului avem următoarele lucruri evidente F(Q –(u) – ) < u . s3 = p1 + p2 + p3 .  Q+(u) = a110.5) Propoziţia 6..5.e.1).= F -1  Q(x) = . În general. atunci F(x) = 1 – q[x]+1 .4) şi (6. deci ambele funcţii verifică definiţia cuantilei. F(Q –(u) + 0)  u şi F(Q+(u) – 0)  u .n).6.1)(u). Dacă X  Exponential(1). Funcţiile definite prin relaţiile (6. Dacă X  Negbin(1. F(Q –(u) + )  u   > 0 F(Q+(u) – )  u .1.1) ...  a1 a 2 a 3 . se defineşte prin relaţia Q –(u) = supF < u  = infF  u  (6..7. Orice altă cuantilă Q este cuprinsă între ele: Q –  Q  Q + .s1  u  a21s1. şi Q1(u)  a11(0.1.1)(u) = [2u] deci X = [2U] este o variabilă aleatoare cu repartiţia cerută.. Putem pune X = .. s2  u  a31s2 ..8. . notată cu Q + se defineşte prin Q + (u) = supF  u  = infF > u  (6..1.. deducem că F(Q –(u) – 0) u .. Dacă X  Uniform(0. dacă repartiţia F este discretă..1).s2 ]u  a31(s2 . deci Q + = Q . 166 ... F(Q+(u) + ) > u   > 0 Trecînd la limită cu   0..1.. Q+(u) = 1[½ ..4. Exemplul 6.p)..1..ln U. Uniform(0.1) atunci F(x) = ½ pentru x  [0.ln( 1 – U).4) iar cea superioară. F(Q+(u) + 0)  u.. atunci Q+(u) = 1 + [nu]  X = 1 + [nU] Exemplul 6.. Două sunt cazurile extreme care interesează în calcule: cuantilă inferioară şi cuantila superioară.1. deci putem la fel de bine să punem X = .s1]u  a21(s1 . Dar F este continuă la dreapta. atunci F(x) = 1 – e –x este chiar bijectivă de la (0.

.2.+ p3 ..u=runif(n.a. q=a[i] q} Apelarea funcţiei se face cu instrucţiunea q=cuantila(u.Deci variabila aleatoare X =  sk 1sk 1 .. Interesant este cît de simplu este de găsit locul lui u: instrucţiunea which(s >= u) produce mulţimea J(u) = i: siu căreia i se ia primul element i = min(J(u)) = Q+(u). „p” este vectorul care cuprinde probabilităţile ca să se ia aceste valori.p) Un exemplu concret: să se simuleze n =1000 variabile aleatoare avînd repartiţia 1   6 0 1 2 3 F=   10  2 1 2 1 4  n=1000.1.p) {o=order(a) #sortez pe a.i=min(v). pentru ca se poate sa nu fie in ordine F=rbind(a[o]. cuantila<-function(u.] #calculez sumele partiale s=p. folosim instrucţiunea „table(x)” care arată repartiţia empirică a unui vector x : sub fiecare valoare diferită pe care o ia vectorul se scrie numărul de apariţii a acelei valori (frecvenţa absolută).0.a..1) x=u. acum e scrisă canonic.a=c(- 6. pk  aleatoare X.for (i in 1:n) {x[i]=cuantila(u[i].1.a. Ambii vectori au lungimea k.4)/10. k 1 Iată un script în „R” care calculează cuantila unei repartiţii discrete  a1 a2 a3 . for (i in 1:length(a)){s[i]=sum(p[1:i])} #caut locul lui u v=which(s>=u). a=F[1.1. ak    .. Vectorul „o” este permutarea care trebuie făcută pentru ca numerele ai să fie puse în ordine crescătoare iar „F” este repartiţia propriu-zisă. Vectorul „s” cuprinde sumele sk = p1 + p2 +.p[o]).p)} Pentru a verifica dacă e bine.p=c(2.2.. Aici „a” este vectorul care contine valorile variabilei  p1 p2 p3 .3).0.]. sk  U  are exact repartiţia F . p=F[2. În cazul nostru avem: table(x) x -6 0 1 2 3 195 99 190 98 418 167 .

Problema este de a calcula cuantila dacă repartiţia F nu este neapărat discretă şi cu suportul format dintr-o mulţime cu număr mic de elemente.+ Xn este F1F2.. Există metode de verificare a acurateţei modelulului dat de o repartiţie : de exemplu metoda „qqplot”. F2 = Gamma(2. dacă F(x) = pF1 + qF2 cu F1 = Exp(1).. Eventual un algoritm modificat în care înlocuim funcţia Fd cu o linie poligonală care uneşte punctele de coordonate (aj. Poate fi folosit pînă la k ≈ 1000. Definiţia 6.F(aj))j .Fn. care ar fi trebuit să fie 200.5 Pentru valori relativ mici ale lungimii k a vectorilor a şi p algoritmul este satisfăcător şi rapid..1)  F(x) = 1 – (1 + qx)e-x ) nu avem formule pentru a calcula inversa F -1(u) (în cazul de mai sus ar trebui rezolvată ecuaţia 1 – (1 + qx)e-x = u .Valorile frecvenţelor absolute corespund celor teoretice.1. 0<u<1.. ar fi bine să fie folosiţi algoritmi rapizi bazaţi pe diverse le repartiţii care se pot obţine din repartiţia uniformă. 5 Chiar în “R” există instrucţiunea „qqplot”. atunci repartiţia sumei lor S=X1 + . Sigur că pierdem din precizie. F2 = Gamma(2. Observaţia este că dacă ştim să simulăm variabilele Xi. atunci simulăm mai uşor variabilele X (cu repartiţia F) şi S (cu repartiţia F1F2..1).. Înlocuim funcţia de repartiţie F cu repartiţia Fd =  a1 a2 . F (a )  F a  1  F a   1 2 1 k k 1 k  un număr mare şi aplicăm algoritmul cuantilei pentru această repartiţie. Dacă. vectorii au lungime prea mare încep să apară erori de maşină şi.. Chiar dacă avem funcţia de repartiţie F dată printr-o formulă analitică (de exemplu F(x) = pF1 + qF2 cu F1 = Exp(1). Pentru a ieşi din dilemă ar trebui să facem o discretizare a lui F. dacă se poate.. dar nu este absolut evident cum construim pe X. atunci F este o mixtură de exponenţială cu Gamma.100.9. Algoritmi speciali bazaţi pe proprietăţi ale repartiţiilor Două sunt operaţiile mai importante care se fac cu repartiţiile: mixtura şi convoluţia.+ pnFn se numeşte mixtură de F. De exemplu.. viteza lui scade. 200.. ak   unde  este   F (a ) F(a )  F a  .100.. care este o ecuaţie transcendentă). Este şi normal. Dacă Xj  Fj sunt variabile aleatoare independente.. Atunci repartiţia F = p1F1 + . De aceea. pe de altă parte. Pentru S nu avem ce comenta. fără a trece prin metoda pseudoinversei.400. 168 . Deci ese plauzibil. Fie (Fj)1jn o mulţime de repartiţii pe dreaptă şi fie (pj)1jn numere pozitive şi de sumă 1.Fn). însă.

xu=sort(xu) plot(xo.1) z<-rbind(x1.t. care ar trebui să semene cu cele adevărate t=1:5000.1) 1 2 algoritmul exact este: simulăm variabila J    .1) iar dacă J=2 simulăm X = Gamma(2.. Dacă J = 1.a.10. care foloseşte funcţia „cuantila” din paragraful anterior mixtura<-function(n.1). Pentru p = 0 avem variabile repartizate Gamma(2. După cum se vede în scriptul următor.t.1).x2<-rgamma(n..xo=sort(xo) xm=mixtura(5000.t=t/5000 xo=mixtura(5000..) } x # se simulează n variabile aleatoare  Exp(1) } Ne putem convinge că este aşa dacă încercăm mai multe variante de p.1 {a=c(1.1) # se generează o variabilă aleatoare U  Uniform(0.t.pr) # se generează variabila aleatoare J x[i]=z[j. Fie Xj  Fj cu 1  j  n şi fie J o variabilă aleatoare  1 2 .col="red").Propoziţia 6.pr=c(p.x2) # se formează cu ele o matrice z de tip 2n x=x1 # se iniţializează x for (i in 1:n) {u=runif(1.0). Scriptul următor face cîte 5000 de simulări de fiecare tip şi apoi face greficul celor trei funcţii de repartiţie empirice. simulăm X   p q Exp(1) = Gamma(1.col="blue") 169 .1) j=cuantila(u.... pentru p = ½ este o mixtură cu ponderi egale iar pentru p = 1 avem doar variabile repartizate Exp(1)..d. j 1 Demonstraţie n n n   P(X  x) = P(XJ  x) =  P X J  x.2).type="l")..1) + qGamma(2.1-p) x1<-rexp(n.1).0. lines(xu. j 1 j 1 j 1 Deci. n  independentă de (Xj)j cu repartiţia J    .1) # simulează n variabile aleatoare  Gamma(2. pn  n are repartiţia F =  p j F j .5). J  j    P X j  x PJ  j    F j x  p j q.0.1) # simulează n variabile aleatoare  Exp(1) .e. revenind la exemplul nostru cu F = pGamma(1. Atunci variabila X := XJ  p1 p2 . .lines(xm.1..i] # x = z(J. .p) # simulează n variabile aleatoare  pExp(1)+qgamma(2.2.xm=sort(xm) xu=mixtura(5000.

Dar Gamma(n.Exemplul 6. Atunci variabilele X = sin(2U)  2 ln V .) cu n număr întreg.1. funcţia caracteristică a repartiţiei N(0. Cum facem? Soluţie Variabilele Xj = (.11.1. Fie U. Putem face o aproximare bună. Y = cos(2U)  2 ln V sunt două variabile aleatoare independente repartizate  0  1 0 N(0.) = Exp()n n  ln U j 1 j exponenţiala convolutată cu ea însăşi de n ori. este adevărat. dar vrem să simulăm o variabilă aleatoare X  Gamma(n.1). cu atît mai puţin să ăi calculăm şi cuantila.1) două variabile aleatoare independente. Propoziţia 6. dar asta cere timp. Metoda Box – Muller. Deci (X. pentru că nu putem calcula exact nici măcar . este suficient să simulăm Y  N(0. Dar cum simulăm o normală standard? Algoritmul cuantilei nu ne dă decît o aproximare.Y)  N(  .   )  0  0 1  170 .V  Uniform(0. Să presupunem că nu avem acces la un software performant.2) şi nu avem decît un software de bază? Fireşte.1) şi apoi să punem X =  + Y. Deci soluţia este X    Dar dacă vrem să simulăm X  N(.1).12.lnUj)/ sunt repartizate Exp().

7) 2 2 Rezultă x + y = – 2lnu . Este evident o mare simplificare.1.1. Propoziţia 6.Demonstraţie Avem de arătat că dacă f:2   este o funcţie continuă şi mărginită.1.1. Demonstraţie 171 . fără a calcula cuantilele.d..Y) =   f x. x2  y2 1    atunci Ef(X. Y )    f (  2 ln u cos(2 ).Un < e - – 1 (6.1.1) un şir de variabile aleatoare i. Fie N = minn  1 : U1U2. Fie (Un)n  Uniform(0. Uneori ea este mai rapidă. y e 2 dxdy 2 Din formula de transport 1 1 Ef ( X . Există şi o metodă exactă de a simula repartiţia Poisson().13.9) exact ceea ce trebuia verificat.6) 0 0 Facem schimbarea de variabilă x   2 ln u cos2v .10) Atunci N  Poison().i. y   2 ln u sin 2v  (6.  2 ln u sin 2v  dudv = 2   f x. y e 2 dxdy (6.1. Prin metoda Box – Muller se generează variabile aleatoare normale folosind doar două variabile uniform repartizate. v   cos2v  2  2 ln u sin 2v  u u  2 ln u Imaginea mulţimii [0.1.1] [0. y  2 Iacobianul este  u  2 ln u = Du .1.1] prin această transformare este 2 \ {0}. deducem din relaţia (6.q.8) sin 2v    2  2 ln u cos2v  D x.e.6) devine u 2 2 x2  y2 1    1 1 0 0 f    2 ln u cos2v .  2 ln u sin( 2 ))dudv (6.d..8) că x2  y2  2 u e 2 dxdy = dudv  dudv = dxdy = dxdy deci relaţia (6. de unde x2  y2  ue 2 (6.Cum punctul {0}este o mulţime neglijabilă faţă de măsura Lebesgue în plan.

Demonstraţie Fie An.k+1 . ln U n Fie n =  şi Tn = 1 + . Să observăm că evenimentul (U(k)  x) se poate scrie sub forma An. Atunci n sunt i.d..j)0  j  n sunt disjuncte.14..12) Exemplul 6. 6q.10) avem N = min n : Tn > 1.n. Dacă avem la dispoziţie un program de sort. Am demonstrat chiar mai n! mult: că dacă punem N(t) = min n : Tn > t.n).. repartizate  Exponential().k  An. atunci variabilele aleatoare (N(t1). Dacă pentru acest lucru a fost nevoie de n variabile aleatoare. atunci declarăm că N = n -1... Se poate demonstra că el este cu creşteri independente.11)  1! 2! n  1!    nt n t Rezultă că P(Tn+1 > t) – P(Tn > t) = e . Propoziţia 6. N (tn) . Logaritmînd expresia din (6.. Densitatea sa este fk(x) = kC nk x k 1 1  x n k (6.15. N (t2) ..1. N  Poisson(1).< tn.1) independente. găsim că funcţia de repartiţie a lui (U)(k) este P(U(k)  x) = C nk x k 1  x n k + C nk 1 x k 1 1  x n k 1 +.x=u[10] 6 Procesul stochastic (N(t))t0 se numeşte procesul Poisson de intensitate ..1. Cum mulţimile (An.d.. deci  t 2t 2 n 1t n1  t P(Tn > t) = 1    . Atunci U(k)  Beta(k.1.k) = Cnk x k 1  x n k .N(tn-1) ) sunt independente..N(t1). De exemplu..n+1 – k). În statistica Bayesiană apare frecvent repartiţia Beta(m.i. Acum n = 10 + 2 – 1 = 11. Deci P(N = 0) = P(T1>1) = e- iar dacă n  1.2). atunci N(t)  Poisson(t)... 172 . în „R” secvenţa ar fi: u = runif(11). o luăm pe cea de a zecea. n+1 – k).. nu e nici o problemă. atunci P(N = n) = P(Tn  1. şi aceste repartiţii se pot simula fără a se calcula cuantilele. înmulţim un şir de variabile aleatoare uniform repartizate pînă cînd produsul lor devine mai mic decît 1/e. care este exact funcţia de repartiţie a unei variabile aleatoare Beta(k. Sortăm aceste variabile aleatoare sub forma ( U(1) < U(2) < .+ n.An.. Să simuleze o variabilă aleatoare X  Beta(10. de exemplu. Fie (Uj)1  j  n  Uniform(0..1..  e (6.u=sort(u).1. Simulăm 11 variabile uniforme şi le sortăm.... adică dacă t1 < t2 < .e. Deci dacă dorim să simulăm.k =  exact k dintre variabilele aleatoare Uj sunt mai mici decît x  Evident P(An.< U(n)). Dacă m şi n sunt numere întregi. Dar Tn  Gamma(n.1).+ C nn x n 1  x nn .. Tn+1 > 1 = P(Tn  1) – P(Tn+1  1) = P(Tn+1 > 1) – P(Tn > 1).

dacă X = 0 simulăm Y    iar dacă X = 2. atunci Y poate lua două valori. cu algoritmul cuantilei. Să presupunem că repartiţia lui X este  şi că există o familie de repartiţii pe F. Apoi avem patru variante: dacă X = -1. nu e nici o problemă: P(Y  B  X) =  PY  B | X  x 1 X  x  unde A = x  E  P(X = x) > 0). 2  1 1 Pentru a-l genera. avem (Y  X = 0)    . Y = j) = P(X = i)P(Y = j X = i). simulăm mai întîi prima componentă. Generăm pe X şi.Y)  E  F un vector aleator. x A Dar dacă X este continuă. Analog. 2  1 1 3  1 1 1  Ideea este că P(X = i.   . Atunci repartiţia vectorului Z este Q. dar sugestiv) 1  0 1 1 0 1 2 (Y  X = -1)    .2. Formal. acest lucru se poate generaliza astfel: Algoritmul general. deoarece P(YB  X = x) nu are sens. avem o problemă. repartiţia sa condiţionată de faptul că X = -1 se o scriem (abuz de notaţie. Fie Z = (X. Un mod şi mai intuitiv este să scriem Qx = FY  X = x . sau X = 1 simulăm pe Y 1  0 1 1 0 1 2 . depinzînd de valoarea lui X simulăm pe Y cu repartiţia condiţionată (Y  X = x). Algoritmul general: teorema de descompunere Ideea de bază este următoarea: orice repartiţie d-dimensională se poate scrie ca produsul dintre o probabilitate pe dreaptă şi mai multe probabilităţi de trecere. (Y  X = 1)  2  1 1 3  1 1 1  1  0 1   şi.Simularea repartiţiilor d – dimensionale 6. este mai simplu) 1  0 1 2 1  i 2i  1  i i  1 Z   8  1 1 1 1 1 1 1 1  1  1 0 1 2 Atunci X    . apoi. în sfîrşit. Dacă X este discretă. (Y  X = 2) 0. 8  2 3 2 1  0 şi 1. Avem de lămurit ce înseamnă probabilitatea condiţionată P(Y  B  X). Un mod intuitiv de a o nota este FY X . repartiţia condiţionată. să studiem următorul exemplu simplu Un punct aleator bidimensional Z = X + iY (îl scriem ca număr complex. Dacă X = -1. 173 . Familia de probabilităţi (Qx)x  E se numeşte repartiţia lui Y condiţionată de X. Aceasta este notaţia din statistică. Pentru fiecare valoare a lui X avem o altă repartiţie pentru Y. Pentru a înţelege. (Qx)x  E cu proprietatea că P(Y B  X) = QX(B). punem Y = 0.

2 Teorema de dezintegrare.F). Atunci există o probabilitate de trecere de la E la F. . y Q  X . notată cu Q în aşa fel încît P = Q Nu vom demonstra această teoremă. atunci definim E(U X) = (X)  E(U(X)) = E((X)(X))  :E   măsurabilă şi mărginită. Teoria probabilităţilor.1) Un alt mod de a scrie acelaşi lucru (de multe ori mai comod) este E[h(Y) X] =  h( y )Q ( X . mai general. cu moment de ordin 1. E[E[Z X.K. apoi se prelungeşte la indicatori de mulţimi de forma h = 1AB . Media condiţionată are trei proprietăţi importante. medie condiţionată. dacă X = constant (mod P) avem E[E[Z Y]] = E[Z].y) = f(x)g(y). Y: Ω  F. a spune că repartiţia lui (Y X) este Q îneamnă a spune că E[h(Y )X] =  h y dQ X  y  pentru orice funcţie măsurabilă h: E   (6. Editura 174 . E[h(X)Y X] = h(X)E[Y X] (funcţiile X-măsurabile se comportă precum constantele). În particular.2. familia mulţimilor C pentru care formula este adevărată este un u – sistem. E[h(Y) X] = Eh(Y). Existenţa repartiţiilor condiţionate este dată de: Teorema 6. Fie (Ω.Y) X ] =  h X . X: Ω  E două variabile aleatoare cu valori în spaţii măsurabile(E. deci această familie conţine -algebra E  F etc .2. Cum o variabilă aleatoare constantă este independentă de orice altă variabilă aleatoare.2.(X))2  E(U – h(X))2  h:   măsurabilă ca E[h(X)]2 < . 2) Relaţia (2. Se găseşte în manualele de teoria probabilităţilor. atunci E[h(Y)  X] = Eh(Y) (la independenţă nu contează condiţionarea). Fie (A) = P(AF). dy  (6. în caz că U are şi moment de ordin 2. Dacă U: Ω   este o variabilă aleatoare. Atunci definim P(Y  B X) = E(1B(Y) X). Deci.P) un spaţiu probabilizat. Tudor. Fie B  F.1) se poate prelungi la funcţii de două variabile E[h(X. Se demonstrează că media condiţionată există şi că.1. formula (6.E) şi (F. Ciucu. dy ) (6.3) Într-adevăr.2.Y]  X] = E[Z X ] (proprietatea de iterativitate).1. Dacă X şi Y sunt independente. deducem că dacă X este constantă.3) este imediată dacă h(x.Definiţia 6. C.2. ea are următoarea proprietate de optim E(U . Probabilitate condiţionată. Fie P o probabilitatea pe E F unde E = m şi F = n. E[h(X)  X] = h(X) şi. Aici h este o funcţie măsurabilă şi mărginită. de exemplu G. care se folosesc în practică: . .2.

. C  F) definită prin Q(C) =  Qx C ( x. B) este măsurabilă pentru orice B  F (ii) aplicaţia B  Q(x. atunci repartiţia lui Z este Q.2.dQx  y d x  .).p) este o probabilitate de trecere de la 1.4) ca Q(C) =   1C x.1.y)  C. E) şi (F. Dacă observăm că 1C(x.. y dQx  y  . y  =  (  f  x.3. y. (Qx)x E.p) = Binomial(n.1] la . y dQx  y )d  x  =  h x d x  unde h(x) =  f x.) = y  F (x. Teoria Probabilităţilor.)(y) = 1C(x..E) şi (F.Academiei. Bucureşti 1998. atunci putem scrie formula (2.2.5.. Avem  f x.5) Astfel obţinem o formulă de integrare faţă de probabilitatea produs.  o probabilitate pe E şi Q o probabilitate de trecere de la E la F.)d  x  (6.2.2.) la (0.. Sau se poate căuta pe internet. Important este să lămurim ce spune teorema şi să înţelegem cum se aplică.4) unde C(x. pentru a se putea face calcule.Y) un vector aleator cu valori în spaţiul măsurabil (EF. etc.y). Dacă  este repartiţia lui X şi Q este repartiţia lui Y condiţionată de X. Dissintegration Theorem. B) este o probabilitate pe F pentru orice x E Putem gîndi o probabilitate de trecere şi altfel: ca o colecţie de probabilităţi pe F.3. Definirea în acest mod a produsului este motivată de următorul rezultat care justifică algoritmul general Propoziţia 6. Demonstraţie Fie f:EF   o funcţie măsurabilă. Condiţia (i) este una tehnică. F) spaţii măsurabile.4. Q(n.1] se numeşte probabilitate de trecere de la E la F dacă (i) aplicaţia x  Q(x.2. O funcţie Q:E F  [0. 175 . EF).2. Atunci Q este o probabilitate pe (EF. Editura ALL. Cuculescu. y d  Qx.[0.F) două spaţii măsurabile.2. Bucureşti 1981 sau I.. (6.6. Exemplul 6. Fie (E. Definiţia 6. Familiile clasice de repartiţii de pe dreaptă pot fi gîndite ca fiind probabilităţi de trecere: Q = Exponential() este o probabilitate de trecere de la (0. Fie (E. Produsul dintre o probabilitate pe E şi una de trecere de la E la F se defineşte astfel: Definiţia 6. Fie Z = (X..

9) Cazul absolut continuu.dxd  d 1 f  X1 ...... x3  ........2. X n )  FX 1  F( X 3 | X 1 ... xk .dxd . X n 1 ) (6...Y) = FX F(Y  X) (6. X k 1  au densităţi. Acum presupunem că vectorul d . x2 .... xk    f Z x1 . y  .Y) este Q..... X 2 )  .. xd dxk 1dxk  2 .....Y) X] (conform cu (2.... X 2 x3   f  X1..1 . notate f  X k | X 1 . d  sunt vectori d – dimensionali.dimensional Z are densitatea fZ..Y) (proprietatea de iterativitate). deci Eh(X) = E[E[f(X.2..2. Atunci formula (6. Cum egalitatea este valabilă pentru orice f măsurabilă şi mărginită. X 3   X 1. xd dx2 dx3 .8) Există două situaţii în care aplicarea algoritmului nu pune probleme: Cazul discret z z z . Dacă folosim notaţiile statistice formulele devin mai uşor de înţeles 176 . Avantajul este că formula se poate generaliza F(X..... X 2   X 1 .....  F( X n | X1..... formula de transport spune că  h x d x  = Eh(X) .Z) = F X  F( Y | X )  F( Z | XY ) (6. Dar h(X) =  f  X ..Y) =  f x..... X 2 . Aşadar Ef(X. ... rezultă că repartiţia lui Z = (X.... Scrierea statistică a acestei propoziţii este F(X.1.. Este imediat că f  X 1 . Cum  este repartiţia lui X.Xd1 xd1 (6.. X 2   X 1 .2. Apoi punem d  k .... X 2 . x2  . X k 1  care se calculează astfel: mai întîi calculăm densităţile celor d vectori de dimensiune k  d...7) În general am avea F( X1 ..Y. xk 1 ... f X 2 | X 1  x2   f X1  X1  f  X 1 .. z j . X 2 .... X k  x1 .Xd=xd)= P X1 x1P X2 x2 | X1 x1. X 2  ....X2=x2. f X1 x1    f x1 .3).2.P Xd xd | X1 x1. pn  z j  z j .. z  Să se simuleze un vector aleator Z   1 2 3 n  unde  p1 p2 p3 .6) Principiul este „înmulţim repartiţia lui X cu repartiţia lui Y condiţionată de X”. Atunci se verifică imediat că şi repartiţiile F X k | X 1 ..8) revine la P(X1=x1.Y) X]] = Ef(X.. y d  Qx..... f X 3 | X1 . y dQX  y  = E[f(X...

] 8 16 76 [7.x3).. putem să renunţăm la teorie şi să simulăm vectorul nostru Z ca pe orice variabilă aleatoare discretă: codificăm cumva vectorul (i1.] 14 24 62 [5.. x3  f X 3 | X1  x1 . f X 2 | X 1  x1 x2    d 1 f X 1 x1  f  X 1 .. x2  Exemplul 6.. p2  . discret.X2)  Binomial(n – X1 – X2.1).n-x1. urnă în care pj este proporţia bilelor de culoare „j” !) se verifică imediat că p2 X1  Binomial(n. Se poate.p3...p1).. În cazul acesta..ik)  0.. xd dx2 dx3 .2/(1-p1).2. x2  f X1 x1    f x1 .1.0.7. Soluţie Repartiţia multinomială Multinomial (n . am avea de a face cu o variabilă aleatoare cu (100 +1)3 componente.1.2/0.ik) = p i1 p i2 .p2. Dar..N=10 x1=rbinom(N.x2=rbinom(N.... În cazul particular de mai sus. (6..p2=.] 8 25 67 [9. X 2  x1 .2. X 3  x1.7)..] 13 23 64 [6. X 2 .... dacă ţinem seama de interpretarea probabilistică a acestei repartiţii (se extrag cu revenire n bile dintr-o urnă cu bile de k culori diferite. x2 .p2). ).ik ! 1 2 Aici (i1. 0. p1. X 2  x1 ..x x1 x2 x3 [1.  pk În cazul nostru concret X1  Binomial(100.nk. etc p3  .9) iar X3 = 100 – X1 – X2.. X 2  x2 x3   .] 8 23 69 [2.] 4 32 64 [8......] 10 21 69 177 ... pkk i1!i2 !.0.] 10 21 69 [10. 0.. (X2  X1)  Binomial(100 – X1.p1=.ik) – de exemplu îl gîndim că ar fi un număr scris în baza (n+1) – şi apoi aplicăm metoda cuantilei..n.pk) este o repartiţie k – dimensională discretă definită prin densităţile discrete n! i p(i1..x=cbind(x1.. dar nu vă sfătuiesc. (X2 X1 )  Binomial(n – X1. x2 .] 5 23 72 [3. Secvenţa de instrucţiuni care simulează în „R” N = 10 asemenea vectori este n=100.x3=n-x1- x2.x2. f  X 1 .10) f  X 1 .dxd ..] 8 20 72 [4. )..1.. 0...  pk p3 (X3 X1 .p1).2. Să se simuleze un vector X repartizat Multinomial (100..

Se poate face. Să se simuleze un vector X  N(  . deci aria este (1– x2). y.e. 1 x 2  y 2  3 1  x  y2 2   Principial ar trebui să simulăm pe X1 după prima densitatea.deoarece volumul sferei este 413/ 3. 4  . Apoi.y.y. dar necesită timp şi la calculul cuantilelor se pierde mult din precizie.z)  3  x2 + y2 + z3  1 Soluţie Amintim că un vector X se numeşte repartizat uniform într-un compact din k de volum nenul dacă P(X  B) = k(B  C) / k(C).2. simulăm pe X3. cu x şi y astfel găsiţi. Integrala 4 aceasta reprezintă aria secţiunii prin sferă făcută prin punctul (x.10. 3 1  x2  y 2 deci avem f  X 1 . z dydz .0) .   )  1  3 9  178 . y   1x2  y 2 1 . Deci avem în concluzie 2 f X1  x    3 1 x2  4 2 2 2 1 x  y f X 2 | X1  x  y   1 y  1  x2  1 x 2 .0).0. Găsim X2 = y şi.z) =1C x. z  . Cu valoarea lui X1 = x astfel obţinută simulăm pe X2 după a doua. y . O definiţie alternativă este că densitatea sa fX = 1C unde  = 1/ k(C).8.d.y. 3 În cazul nostru fX(x. X 2  x. z dz f X1  x   .1  x 2  y 2 1  x 2  y 2 ]. y. 4 3 Folosim formulele (6. y    1C x. X 2  y  z    2 1  x2  1 z   1 x 2  y 2 .Exemplul 6.9. Aici k este măsura Lebesgue k – dimensională.2. 1 x 2    f X 3 | X1  x . Poate e loc şi de mai bine.) Mai întîi. care este intervalul [.2. Să se simuleze un vector X  Uniform(C) unde C este sfera tridimensională unitară de rază 1: C = (x.q.  1  4 3  Exemplul 6. secţiunea are formă de cerc cu raza r = 1  x 2 . integrala este lungimea 4 secţiunii făcute în sferă (x. deci 3  3 1 x2  f  X 1 . f X1 x   1C x. X 2   x.

deoarece formulele de calcul pentru (Xj  X1..4808525 5.Xj-1) devin tot mai complicate.] 1.  r   2  1 2  2  folosind funcţia caracteristică sau ce generatoare de momente.x2) x1 x2 [1.mu1.8586991 [6.  1 1 2 2  ).9756048 1. r = 0. dacă X  N(  1 .sig2=3.8354261 În figura alăturată vedem rezultatul a 5000 de simulări.sig1). algoritmul general nu mai este satisfăcător nici pentru simularea vectorilor aleatori normali.x2 cbind(x1.r=..2845141 [5.1186160 [4.0187472 [10.6110443 0. că 2 2  .mu2=1.] 0.mu2yx.Soluţie     2 r   În general. 2 = 3.2797160 [8.7916329 -3.4392765 [2.] -1.2264889 [7.4325336 5.2004633 5..sig1=2.] -0.6309399 -0.] -1.. În „R” este foarte simplu: mu1=1.5.5.] 3.3576312 [3. 1 = 2.1127450 -3.sig2*sqrt(1-r^2)).N=10 x1=rnorm(N. 179 .0036828 [9.] 1.12) şi (X2  X1 )  N(  2  r ( X 1  1 ) 1   În cazul nostru 1 = 2 = 1.2603470 2.] 3.] 2.mu2yx=mu2+r*x1*sig2/sig1 x2=rnorm(N.4348022 -0.   2 1  r 2  ) X1  N(1. Pentru dimensiuni mai mari.] -1. atunci se demonstrează uşor.

z)  [0.y..6.[ak.2 Fie C  A  k două compacte de măsură pozitivă şi fie (Xn)n un şir de vectori aleatori i. În cazul C = Δ3. X n  C  = n 1 n n 1 P X n  B  P X n  B  k B  / k  A k B   p 1  p  n 1 =   . de raportul dintre volumul lui C şi volumul lui A. Cel mai comod este să includem C într-un hiperparalelipiped [a1. Fie C  k o mulţime compactă de volum k(C) > 0. De exemplu. Chiar aşa şi este: după 120 de simulări. la 1  x 2 a doua e greu.1.1]3 : x + y + z  1. N  n  = n 1   P X j  Cj  n.1  y  . 180 . Atunci P(Z  B) = P(XN  B) =  P  X N  B. deci probabilitatea ca nu nimerim niciodată în C este 0.3.3. Să se simuleze un vector X  Uniform(C). Fie N = inf n : Xn  C şi Z = XN.d. La prima densitate e uşor de calculat cuantila.bk] Formal. cum ar fi simplexul C = Δ3 = (x. Atunci Z  Uniform(C).1]3 – mai bine nici nu se poate. y   61  x  y 1x  y 1  21  x  y  f X 2 | X1  x  y   11 x. evident. Atunci P(N = n) = p(1 – p)n-1.i. şi să reţinem doar acei vectori care sunt C. Demonstraţie Fie p = P(Xn  C).unde densităţile sunt uşor de calculat am avea probleme: f = 61C. putem lua A = [0. exact ce voiam. unde este comod de făcut aceasta. f X1 x   31  x 2 1(0. ne aşteptăm ca în jur de o şesime din punctele generate Uniform(A) să fie şi în C. repartizaţi Uniform(C). X 2  x. chiar şi pentru o mulţime simplă. X n  B   PPXX n BC)  PX j  Cj  n. P X n  C ) n 1 P X n  C ) k C  / k  A k C  Viteza algoritmului depinde. f X1 . Ideea este să generăm vectori aleatori unifom repartizaţi într-o mulţime mai mare. Algoritmi speciali: repartiţii uniforme Problema 6.1)(x).3. Am văzut că algoritmul general pune mari dificultăţi chiar în cazurile simple. Fie B  C o mulţime boreliană. Algoritmul acceptare / respingere. am reuşit să nimerim de 23 de ori în A.b1].. Cum raportul dintre volume este 1/6. rezultatul este următorul: Propoziţia 6.

019184817 0.397702978 0.660988999 0. dimensiunea simplexului.261076623 0.x3=runif(N).550778716 0.x2=runif(N).i.28671116 [5.x xb1 xb2 xb3 [1.] 0.180765220 0.] 0.620405543 0. Atunci vectorul Y = (Yj)1jn este repartizat Uniform(Δn) S unde Δn = x[0.] 0.21110361 [19.36632268 [12.067009293 0.085581634 0.205739238 0.442618400 0.] 0.19543799 [11.329976494 0.1]n : x1 + x2 + .77753557 [13.133237032 0.619285529 0.133509017 0.406062445 0.403672086 0.101106154 0.21707588 [17.29028897 [23.703533423 0.551778257 0.xb2.] 0..] 0. Xj Fie S suma lor şi Yj = .433682927 0.] 0.10033640 [22.070146402 0.d.439633231 0.055533753 0.N=120.001725541 0.150103106 0.145313528 0.] 0.x1=runif(N).09784523 [14.394432793 0.] 0. Din 120 de simulări era foarte probabil ca nici una să nu fie în mulţimea dorită.102202073 0.02125208 [3.+ xn  1..135284625 0.04253352 [20.xb3[i]=x3[v[i]]} x=cbind(xb1. în loc să fie 3 era 7.23718938 [9.] 0.] 0.] 0.59342688 [2.3.xb3=1:nf for (i in 1:nf) {xb1[i]=x1[v[i]].] 0.41304084 [4. atunci există algoritmi rapizi care generează vectori repartizaţi uniform acolo. atunci volumul său era 1/7! = 1/5040. 181 . Avem şi o veste bună: dacă C este un simplex.012022830 0.325553098 0.198682676 0.19468893 [10.] 0.342567456 0.3.042866380 0.] 0.] 0.135697418 0.394726553 0.14334936 [18.229001845 0. Simularea rapidă a vectorilor repartizaţi uniform într-un simplex.002924559 0.xb2[i]=x2[v[i]].458446015 0.024161682 0. Fie n+1 variabile aleatoare i.xb2=1:nf.nf=length(v) xb1=1:nf.68866607 [8.] 0.11622695 [15.] 0.067286825 0.618442961 0.] 0.] 0.06375227 Dacă însă k.s=x1+x2+x3 v=which(s<1).] 0.229641613 0.] 0.420006088 0.] 0.29779559 [6.38915822 [21.xb3).19904163 [7.04868877 [16. (Xj)1  j  n+1 repartizate Exponential(1).054411151 0. El se bazează pe următoarea descoperire Propoziţia 6.

yn 1[ 0.. dacă. în plus.) prin ea este Δn  [0.1) Şi de aici se vede ce avem de făcut pentru a simula un vector uniform repartizat acolo: simulăm vectori aleatori repartizaţi unifom în Δn...anan+1 se poate descrie întotdeauna sub forma S = a1X1 + a2X2 +….. are interiorul nevid. yn 1 n  y1.....d şi  Exponential(1).. q. y n 1  imaginea mulţimii [0. xn . yn+1 = s.c afixele celor trei puncte. yn dy1dy 2 .. ….... D y1 . 2 . Frumuseţea este că simplexul S = S(a) cu vîrfurile a1a2…. Din formula de transport...+ anXn + an+1(1 – X1 – X2 .. xn1 dx1dx2 . Jacobianul ei este  sn ... Aici s este suma x1  s s s  + . X1  X 2  X 3 182 ..) deci integrala devine Ef(Y) =  f  y1 ...4. Exemplul 6. ) s dy1dy2 .dxn1 ...dyn ds =  n s  f  y1 .dy n  s e ds ....d. În spaţiu.. De exemplu. xn 1  y1 = x1/s.Demonstraţie Fie f : n   o funcţie măsurabilă şi mărginită. Să se simuleze un vector aleator repartizat U(C) unde C este triunghiul ABC Soluţie..Xn  Δn (6... Atunci aX 1  bX 2  cX 3 X= unde Xj sunt i.. avem n x x x  Ef(Y) =  f  1 ...Xn) : (X1 .. )n 1  x1 ..3. y2 = x2/s. y 2 . Fie a..+ xn+1 Facem schimbarea de variabile D x1 .3. Avem de calculat Ef(Y) în speranţa că rezultatul va fi n!  fdn ..b.. adică exact ce doream – căci a 0 doua integrală este n!. cu condiţia ca nu cumva cele trei puncte să fie coliniare. În general o mulţime se numeşte simplex n dimensional dacă este anvelopa convexă a unei mulţimi de n+1 puncte şi....…. X2 ..e.. y 2 . orice tetraedru ABCD este simplex dacă nu cumva cele patru puncte sunt coplanare. pentru n = 2. yn s n e  s 1 n  y1 .... n e  s 1[0. orice triunghi ABC este un simplex.i.)n[0. yn = xn/s .

si de matricea de covarianţă C.i]=sqrt(valp[i])} a=vecp%*%diag%*%t(vecp) u=rnorm(k. care sunt ortogonali. Atunci folosim următorul truc: Propoziţia 6.]=normal(mu.jor=eigen(cov).   1 2 16    xx= 1:30.5.d.c) Pentru a o apela este nevoie de vectorul mu =  al mediilor. Ca să construim construim pe A scriem matricea C la forma diagonala C = ODO’ unde O este matricea vectorilor proprii. dim(xx) = c(10. Iată. de exemplu.3) şi C =  1 9 2  .C) cu  4 1  1   =(1.diag=1:kk. xx 183 .1).adică cu matricea care pe diagonală are radăcinile pătrate ale valorilor proprii şi punem A = O D O’.0. Mai există un caz în care suntem norocoşi: dacă X  N(.e.C).c)}.i.valp=jor[[1]] # valp sunt valorile proprii vecp=jor[[2]] # vecp are vectorii proprii kk=k^2.3= for (i in 1:10) {xx[i. X este normal .2.d  N(0.Ik) (adică un vector normal standard – cu toate componentele i.1)). Fie C o matrice pozitiv definită şi A o matrice simetrică cu proprietatea că A2 = C.C). Dacă avem un software care e în stare să calculeze vectorii proprii.k) for (i in 1:k) {diag[i. Iată un exemplu:simulăm 10 vectori aleatori N(.cov) {k=length(mu).dim(diag)=c(k.x=a%*%u+mu x} Funcţia se apelează prin comanda x=normal(mu. EX =  şi cov(X) = cov(AY + ) = Acov(Y)A’ = AA’ = A2. Demonstraţie Evident. înlocuim D cu D . Atunci X = AY +  este un vector repartizat N(.3. nu e nici o problemă.diag=diag-diag. Fie Y  N(0. q. D este matricea diagonală care cu valorile proprii. o funcţie în „R” exact acest lucru #simularea unei repartitii normale k-dimensionale normal<-function(mu.

5663550 1.] 0.7415051 3.85524488 [10.] 0.02604282 [4.7749180 15.01237874 [8.92561663 [5.6628614 -1.] 1.3000149 1. [.2891190 0.3323644 0.01464171 [6.82281214 184 .] 0.9394982 0.] 0.] 5.6121115 3.3] [1.7712231 -7.1] [.0869182 0.6125076 -1.] 2.8461128 10.] 0.61308129 [9.3356960 2.6627487 0.05478921 [7.4922314 0.3544057 -1.06867494 [2.] -1.8378104 7.2167368 1.2] [.1853937 12.01883329 [3.] 2.

Capitolul 7 Statistică descriptivă Introducere Statistica descriptivă este ramura statisticii ce se ocupă cu prezentarea.1. În tabelul 7. Unităţile statistice care compun o clasă Ai sunt alese pe baza unei relaţii de echivalenţă. Caracteristica este trăsătura comună unităţilor unei populaţii statistice. E={A1 . submulţimile A1 . prezentate sub forma de tabel. o populaţie statistică este o partiţie a unei mulţimi E. fiecare fotbalist este o unitate statistică şi înalţimea este caracteristica studiată.).. dacă ne referim la repartiţia componenţilor unei echipe de fotbal. după înălţime. care reprezintă caracteristica populaţiei. începând cu anul 2003.1. abatere etc. . 185 . An }. Obesrvăm astfel că aceasta valoare creşte. De exemplu. astfel. constatăm că mulţimea sportivilor formează populaţia statistică. organizarea şi interpretarea unei colectii de date. de distribuţie etc. in perioada 1998. aspectele importante ale datelor. Integrarea datelor cantitative în text are anumite avantaje.2007 (conform Institutului Naţional de Statistică). Caracteristicile pot fi calitative sau cantitative. sau prin indicatori statistici (medie. cu ajutorul statisticii matematice. 7. Prezentarea datelor statistice Analiza statistică a unui fenomen începe cu statistica formală (culegerea datelor asupra fenomenului respectiv şi înregistrarea datelor). An fiind clase. . evidenţiindu-se... grafice liniare.. Valoarea numerică a caracteristicii se numeşte variabilă aleatoare. avem informaţiile privind durata medie a vieţii în România. Descrierea acestor informaţii se poate face grafic (prin liste.1. Prin populaţie statistică (populaţie) se înţelege orice mulţime care formează obiectul unei analize statistice. Definiţia 7. .1. .). Matematic. Datele sunt apoi analizate şi interpretate. Elementele unei populaţii statistice se numesc unităţi statistice sau indivizi. mediană. dar tabelele statistice permit realizrea unor comparaţii. Caracteristicile cantitative pot fi măsurate folosind numere reale.1. după o scădere nesemnificativă.

1. Figura 7. a căror lungime simbolizează valorile variabilei statistice. Reprezentarea cu batoane foloseşte batoane verticale sau orizontale.1 Reprezentarea grafică realizată pentru studierea schimbărilor sau pentru compararea variabilelor statistice se numeşte grafic. Între batoanele consecutive se lasă. de regulă. un spaţiu de jumătate de unitate. Anul Durata medie de viata 1998 69.1.76 2006 72. Batoanele verticale se folosesc.61 Tabelul 7.01 2004 71.1. pentru caracteristici care variază în timp. 73 72 71 70 69 68 67 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 Figura 7. de obicei.24 1999 69.32 2005 71.1.18 2003 71.53 2001 71.19 2002 71.1.1 este reprezentarea cu batoane pentru datele din tabelul 7. Există mai multe astfel de reprezentări.74 2000 70.1 186 .22 2007 72.

0 45.1 67.1 2005 54.1. Diagrama cu batoane grupate furnizează o metodă de prezentare a părţilor componente ale unui întreg.1.6 2004 54.1 44.3 45. rural).4 46.4 2002 53. fără realizarea unei comparaţii cu întregul.8 2007 55.2 Anul Urban(%) Rural(%) 1960 32.2.6 45. din figura 7.9 1970 36. Dacă ne referim la datele din Tabelul 7.6 45.1.9 45. se obţine reprezentarea cu batoane orizontale pe componente.Reprezentarea cu batoane orizontale prezintă variante adaptate.1 2006 55.9 45. privind structura populatiei pe medii (urban.2.2 187 .4 2001 54.3 46.7 2003 53.7 2000 54.9 2008 55.9 63.8 54. de exemplu reprezentarea pe componente. data furnizate de Tabelul 7. 2008 2006 2004 Rural(%) 2002 Urban(%) 2000 1980 1960 0 10 20 30 40 50 60 70 80 Figura 7.0 Institutul Naţional de Statistică.2 1990 54.1.1 1980 45.2 44.

1.3 Pentru acest tabel.1. din punctul de vedere al surselor de finanţare.1. în perioada 2003-2008. 188 . în 2001.3. Graficul liniar pe porţiuni este format din segmente de dreaptă ce se obţin prin unirea perechilor de valori corespunzătoare ale unei perechi de variabile diferite.4 arată structura cheltuielilor din domeniul cercetare- dezvoltare.1. În tabelul 7. sunt prezentate datele furnizate de Institutul Naţional de Statistică privind totalul numărului de imigranţi. am realizat graficul liniar pe porţiuni din figura 7. Total imigranţi 12000 10000 8000 6000 4000 2000 0 2003 2004 2005 2006 2007 2008 Figura 7. Figura 7. în România. unghiurile la centru având măsuri egale cu procentul corespunzător din 3600. Total Anul imigranţi 2003 3267 2004 2987 2005 3704 2006 7714 2007 9575 2008 10030 Tabelul 7. Ele se exprimă ca procente din total şi sunt reprezentate prin segmente de cerc.3 Diagrama circulară arată descompunerea unui întreg în părţile sale componente.1.3.

594 1. Ne referim în continuare la cazul variabilei continue.991 1.946 1.156 1.961 0.071 1.8.42 1.452 1.091 1.831 0. ne vom referi la distribuţii şi reprezentarea lor prin diagrame şi tabele..861 0.956 1.4 O descriere precisă a seriei statistice obţinute se realizează prin construirea unui tabel al frecvenţelor.4.587 0. Media aritmetică a limitelor unei clase se numeşte 189 . marginile claselor de valori (0. 0.201 1.981 1. ne putem referi la numărul capitolelor unei cărţi..731 1.895 0.4 În continuare.858 1.1. numărul articolelor produse de o fabrică etc.671 1.1. 0.1. Definiţia 7.896 0.) din tabelul 7. Să considerăm un eşantion de 40 de angajaţi al căror salariu brut exprimat în mii lei.081 1.75 0. O variabilă statistică se numeşte discretă dacă ea nu poate lua decât valori izolate în intervalul său de variaţie.344 1..5 sunt limitele sau marginile clasei de valori.805 1.605 0.1.. Tabelul 7.82 1.5 prezintă frecvenţele pentru datele anterioare. putem da ca exemplu înălţimea unei persoane.95 .976 1. Ea se numeşte continuă dacă poate lua toate valorile posibile în intervalul său de variaţie.459 1.2. conduce la datele din tabelul 7. la începutul lunii ianuarie.989 1. în care observaţiile sunt clasificate în raport cu numărul unităţilor statistice care se află între anumite limite.492 1.354 1.141 1.221 1.591 1.1. Astfel.052 1. ora sosirii unui tren etc. Ca exemplu de variabilă discretă.904 0.1.981 0.705 1.057 Tabelul 7. Alte surse 1% Fonduri externe 8% Unităţi economice Unităţi economice Fonduri de la buget 48% Fonduri externe Fonduri de la buget Alte surse 43% Figura 7. privind salariile.972 1. Pentru cazul continuu.

95) 0.5 [1.55) 1.1) 1. Frecvenţa cumulată a unei clase este suma frecvenţelor până la clasa respectivă.25) 1.1.1.1.1. Diferenţa dintre cea mai mare şi cea mai mică margine se numeşte domeniu sau amplitudine.1.5 [1.4) 1.5.925 3 7.1.85. În cazul în care nu este precizat. Mulţimea frecvenţelor (absolute sau relative).475 5 12.7) 1.0.5 [1. fără spaţiu între acestea.5 40 100 Tabelul 7.875 4 10 4 10 [0.025 12 30 16 40 [1.325 2 5 23 57.5 28 70 [1. Histograma este o reprezentare cu batoane. iar cea relativă este raportul dintre frecvenţa absolută şi numărul total al unităţilor statistice.25. împreună cu clasele lor formează frecvenţa distribuţiei.mijlocul sau valoarea centrală a clasei.8.5 [1.4. este indicată utilizarea a 10-20 clase de valori.7. În general.175 5 12.5.4 este prezentată in figura 7. clasele fiind ordonate crescător.775 4 10 37 92.1.1. Ea prezintă marginile claselor pe axa orizontală şi frecvenţele pe cea verticală.1.625 5 12.5 33 82.5 21 52. Histograma pentru datele din tabelul 7. 190 .2) 1. prin frecvenţă se înţelege frecvenţă relativă.5 de numărul unităţilor statistice aflate între limitele unei clase.95. Frecvenţa absolută este dată Limitele Mijlocul Frecvenţa Frecvenţa Frecvenţa Frecvenţa clasei clasei absolută relativă(%) cumulată cumulată absolută relativă(%) [0.55.85) 1.1. 35 30 25 20 15 10 5 0 Figura 7.1.

4 (pe axa absciselor s-au folosit rotunjiri.875 1. În tabelul 7.1. (xm/2 +xm/2+1).475 1.2. 2 191 .6 prezintă poligonul frecvenţelor pentru datele din tabelul 7. abaterea etc.775 1.).2. singura schimbare fiind aceea ca în locul frecvenţelor apar frecvenţele cumulate.1.1). mijloacele claselor fiind reprezentate pe axa orizontală şi frecvenţele pe cea verticală. rezultând poligonul frecvenţelor. Punctele consecutive se unesc prin segmente de dreaptă. Caracteristici numerice Ne vom referi acum la descrierea informaţiilor folosind indicatori statistici.325 1. În acest sens.. clasa modală este [0.1. 35 30 25 Frecvenţa(%) 20 15 10 5 0 0. prezentăm principalii indicatori ai tendinţei centrale.) şi măsuri ale variaţiei sau împrăştierii (amplitudinea.625 1.925 Figura 7. Pentru cazul discret.5. Într-o distribuţie (ne referim la variabilă continuă). care se realizează similar cu poligonul frecvenţelor. moda este valoarea cu frecvenţa maximă.025.. marcată printr-un punct. şi media celor două valori de mijloc. iar moda este 1.1. Să considerăm o grupă formată din 20 de studenţi care susţin un test la matematică. mediana. obţinându-se rezultatele din tabelul 8.2. moda etc. există două mari categorii: măsuri ale tendinţei centrale (media.1.1. Fiecare mijloc are o frecvenţă.025 1. Să ne referim acum la o mulţime de date de selecţie (variabilă discretă). x(m+1)/2 .175 1.6 Poligonul frecvenţelor cumulate este un grafic liniar pe porţiuni. Figura 7. dacă m este par. În continuare.95. moda este 8. pentru a da doar două zecimale). Definiţia 7. Aici. clasa cu cea mai mare valoare a frecvenţei este clasa modală. Poligonul frecvenţelor este un grafic liniar pe porţiuni.. dacă m este 1 impar. 7. x m (datele de selecţie sunt ordonate crescător) este valoarea de mijloc.1.. iar mijlocul acesteia este moda variabilei. mediana unei mulţimi x 1 . x2 .

xi) şi [xj-1.5.4 este md=1.125 Definiţia 7.5.25).5 . x2 . obţinem următoarea Definiţia 7.122. se numeşte clasa medianei.2. x m se defineşte prin 192 . 14.1. Efectuând o interpolare. 20. 0.2.3.1+1.2. fi unde hi=xi-xi-1.5  Fi 1 md=xi+hi . Pentru o variabilă continuă. md mediana distribuţiei.8. valoarea medianei este dată de relaţia 0.5  0. De exemplu. Media(de selecţie) a unei mulţimi x 1 . 18.. 30 se obţine mediana (20+24)=22.1.xj) clasa modală.1. Fi-1 <0. Notând cu m numărul total de clase.5 =1..9.2.xi). 1 28. Pentru datele din tabelul 8.. clasa cu frecvenţa cea mai mică ce m are proprietatea că frecvenţa cumulată asociată este mai mare decât . iar mediana 0. media mulţimii 5.4. 2 Nota Frecvenţa Frecvenţa absolută relativă(%) 3 1 5 4 1 5 5 2 10 6 2 10 7 5 25 8 6 30 9 2 10 10 1 5 Tabelul 7.i Fi >0.2. m fiind 2 numărul total de clase.. fi frecvenţa pentru clasa [xi-1. Fi frecvenţa cumulată pentru clasa [xi-1.1 Definiţia 7. clasa mediană este [1.6. Într-o distribuţie. iar pentru 15.12 este 8.

De exemplu. 5. 7}. De exemplu. 6. atunci media distribuţiei este k  ni x*i x  i i . m i 1 Definiţia 7.3175. {4.5. fk frecvenţele lor relative. iar ni este frecvenţa lui xi . k  ni i i k n Notând fi= i . 17500. 7600..875  12  1. în lei.1. i 1 Pentru datele din tabelul 7. Considerăm un tabel al frecvenţelor cu k clase. media este 4  0. 6} au aceeaşi medie. x m* sunt mijloacele claselor. formula se rescrie k  ni xi x  i i . . 10300. ("media ponderată"). pentru centrale termice. dacă lista de preţuri.... x k sunt valorile distincte ale lui X.. 6 Dacă x 1 ... 6. 3. 11200. x2 . k  ni i i mai precis k x  f i xi * .2. rezultă x   f i xi .5. 475  5  1.. n2. x2* . 7... nk frecvenţele lor absolute şi f1.. costul mediu al unei centrale este 1 x  9 900  10 300  11 200  12 500  7 600  17 500   11500 .. 4. 5. Acesta este motivul 193 .775  3  1. m 1 x  m i 1 xi . {3.625  4  1.. 4. mulţimile {2. dar au structuri diferite. 8}. 12500.175  2  1. 5. 8. n1. este următoarea: 9900. .925 x 4  12  5  2  5  5  4  3  1. 5. 8..025  5  1. 2. 2. Se observă că media nu dă o imagine completă a datelor de selecţie sau a distribuţiei.375  5  1. Dacă x 1*. f2. 5.

având media x .8. iar ni frecvenţa lui xi .m..6 | 5  2.   m i 1 | xi  x | .. Fie o variabilă continuă cu un tabel al frecvenţelor cu k clase.m. n2. 13. Pntru o variabilă continuă..32. x2* .. 20.. atunci abaterea medie este 194 .6 |  | 20  14. Definiţia 7..m.6 |  | 13  14. x m date de selecţie având media x .6 |  | 15  14.3. x m* sunt mijloacele claselor. k  ni i i k n Notând cu fi= i frecvenţa relativă. f2.32 faţă de media 14.m. Altfel spus.2.6 . Definiţia 7.2.6 |  | 13  14. m i 1 Pentru datele din tabelul 7.  | 12  14. Pentru o variabilă discretă.1. x2 . rezultă x   f i | xi  x | . Definiţia 7. amplitudinea este diferenţa dintre limita superioară a clasei cu cele mai mari margini şi limita inferioară a clasei cu cele mai mici margini...2. nk frecvenţele lor absolute şi f1.pentru care sunt introduse măsuri ale variaţiei.. în timp ce abaterea medie are valoarea 5 1 a.  1.. . n1. 13. Abaterea medie se defineşte prin relaţia m 1 a... 15. Să considerăm următoarele date de selecţie: 12.6.2. abaterea medie este a. Dacă x 1*...  i  i .6..7. fk frecvenţele lor relative. Atunci k  ni | xi  x | a. . Fie x 1 . x k valorile distincte ale lui X. Media lor 1 este x  12  15  13  20  13  14.. x2 . Fie x 1 .. valorile de selecţie diferă în medie cu 2.. diferenţa dintre cea mai mare şi cea mai mică valoare a selecţiei se numeşte amplitudine. care să arate gradul de împrăştiere a datelor în jurul mediei.

.8 .9. Fie x 1 .  i  i . Formula pentru calculul dispersiei devine k k  xi  x   xi  x  2 2  2  i 1  i 1 . 195 .5.. în timp ce abaterea standard este   1... x2 . iar ni frecvenţa lui xi . 40 Definiţia 7.1. Dispersia se defineşte astfel m 1 2 2   m i 1 xi  x .2.   f i |xi*  x | . Fie x 1 .m. cu media x . calculăm abaterea medie şi obţinem valoarea 119. i 1 Pentru tabelul 7.  i 1 Dispersia corespunzătoare datelor din tabelul 7.m. x k valorile distincte ale lui X. x m date de selecţie cu media x .99625 .673 .2...85  2. rezultă  2  m   f i xi  x . k  ni | x*i  x | a.. k m  ni i 1 k n 2 Dacă frecvenţa relativă este fi= i ..1 este 2  1 20  1  (3  7) 2  1  (4  7) 2  2  (5  7) 2  2  (6  7) 2  5  (7  7) 2   6  (8  7) 2  2  (9  7) 2  1  (10  7) 2  2. x2 . k  ni i i adică k a.  m 1 2    m i 1  xi  x este abaterea de selecţie (empirică) standard.

1 196 .. atunci media distribuţiei este k  ni x*i  x  2 2  i i ..3.1.. nk frecvenţele lor absolute şi f1. x k* sunt mijloacele claselor..2750 Pentru datele din tabelul 7. iar 40 abaterea este   1. Nota Nota algebră geometrie 1 5 5 2 6 5 3 6 6 4 6 7 5 7 7 6 7 8 7 8 8 8 9 9 9 10 9 10 10 10 Tabelul 7. x2* . n1. 7. Conexiunea aceasta se poate prezenta sub mai multe forme..055 .5.. f2.114 . i 1 445. dispersia este  2   1. Mai jos sunt prezentate notele la algebră şi geometrie obţinute de zece studenţi. .2. cea mai simplă fiind relaţia y  f  x  . Dacă x 1*. Fie o variabilă continuă cu un tabel al frecvenţelor cu k clase. egalitate ce arată că lui x îi corespunde o valoare bine determinată a lui y..3. unde f este o funcţie de variabila x. Corelaţie. crt. Regresie Legătura dintre două sau mai multe variabile poartă numele de corelaţie. n2...10. fk frecvenţele lor relative. . k  ni i i mai precis k  f i xi*  x  2  .. Nr.Definiţia 7.

5 7. 12 10 8 6 4 2 0 0 2 4 6 8 10 12 Figura 7.3. creşterea notelor la algebră este însoţită de creţterea notelor la geometrie.5 9.8).3. Vom reorganiza datele de mai sus sub forma unui tabel cu două intrări. între aceste variabile există o corelaţie pozitivă. deci se poate afirma că avem o corelaţie liniară. Acest tablou se numeşte tablou de corelaţie.5 10 Tabelul 7. De exemplu. în general.2 Vom indica existenţa unui student ce ia note corespunzătoare unui pătrat printr-un punct situat în interiorul acestuia.2.3. Astfel. studentul cu notele 7 şi 8 se va regăsi în pătratul (7.1 şi 7. iar cele la geometrie pe cea a ordonatelor. am reprezentat grafic pe mX în raport cu x ţi pe mY în raport cu y.5 6 6. Observăm că. Punctele din interiorul tabloului de corelaţie se grupează în jurul unei diagonale a pătratului. astfel: notele la algebră sunt reprezentate pe axa absciselor.3. În figurile 7. 5 6 7 8 9 10 mY 10 9.1 197 .5 9 9 8 8 7 7.5 6 6 5 5 mX 5.

.. Pentru fixarea ideilor... . suntem interesaţi de situaţia în care vectorul V ia un   număr finit de valori.. Notând P V  v jk   p jk . Statistic.. să considerăm V(X.. bk ... 10 9 8 7 6 5 4 3 2 1 0 0 2 4 6 8 10 12 Figura 7..3.Y) un vector în plan... avem p jk  0 şi m n  p jk  1.3.. n. În figura 7. ..2 mX şi mY se numesc funcţii de regresie.3 Au loc următoarele relaţii: 198 . . . X şi Y fiind variabile aleatoare.3. bk .3. avem regresia lui y asupra lui x. .3. vecorul având componentele a j . j  1.2.. .. regresia lui x asupra lui y.3 se numeşte tabel de corelaţie. iar în figura 7. .. vij  vij a j .. j 1k 1 b1 b2 bn Y a1 p1 a2 p2 ... graficele lor se grupează în jurul primei bisectoare. În figurile de mai sus. am p m1 pm2 p mn pm X p1 p2 pn Tabelul 7. k  1.. m...1.. Tabelul 7. . . ..

 p jk  pk .  20 se notează cu 12 şi reprezintă dispersia lui X. 199 . Similar cu valorile medii pentru variabilele unidimensionale se definesc cele pentru variabilele bidimensionale. m. k  1. m . j 1k 1 care se notează.  p j  1. penrtu orice valoare a celeilalte variabile. respectiv Y  bk . condiţionată de Y  b j .  02 . k 1 j 1 n m  p k  1. este dispersia lui Y. de obicei. j  1. obţinem modul de comportare al variabilei X atunci când Y ia valoarea bj. diversele medii condiţionate referitoare la ai caracterizează modul de variaţie al variabilei X pentru Y  b j fixat. se numesc probabilităţi marginale şi reprezintă probabilitatea ca X  a j . iar bj   rămâne fix. notat  22 . Momentele centrate se definesc prin: m n   rs  E  X  m1 r Y  m2 s     a j  m1 r bk  m2 s . 11 este covarianţa variabilelor X şi Y. ele fiind coordonatele centrului de greutate. m  pij ai  Dacă notăm prin E X | Y  b j  i 1  pj valoarea medie a lui X. n. j 1k 1 Momentele centrate de ordinul al doilea au denumiri speciale în teoria probabilităţilor. b j . respectiv p k . n m  p jk  p j . Astfel. Având în vedere toate valorile ai . i  1. j 1k 1 obţinem. ca valori particulare: m n m m10   p jk a j  a j j 1k 1 j 1 m n m01    p jk bk . Dacă notăm m n mrs    p jk a rj bks . prin m1 şi respectiv m2. k 1 j 1 p j .

astfel ca   m2 X  f (b j ) | Y  b j să fie minimă. m2 fiind momentul de ordinul al doilea. Am notat prin   E  X  m1 Y  m2  coeficientul 1 E  X  m1 2 Y  m2 2 de corelaţie. i 1 j 1 şi derivând în raport cu . 200 . astfel ca E Y  X  2 să fie minimă. În general.  se obţine dreapta de regresie y  m2   2 x  m1  . Având în vedere că m n 2 2 E Y  X       pij b j  ai   . Se poate caracteriza această variaţie pintr-o relaţie X  f Y  . se încearcă o exprimare de forma Y  x   .

n  k . Variabile aleatoare discrete uniform repartizate. unde I este mulţimea numerelor întregi reprezentate în calculator. În aceste cazuri. cât şi în modelarea stochastică. în principal. orientarea spre cea de a doua metodă.. sau algoritmizarea generării unor valori numerice pe calculator. Pornind de la valorile iniţiale x1. adică secvenţe de p valori succesiv generate ocupă spaţiul de dimensiune p. În ceea ce priveşte clasificarea.x n 1  . Şirul  xn  este periodic. i  1... Metodele congruenţiale sunt cele mai utilizate. n ... Ele se bazează pe o relaţie de recurenţă de forma x n  f  x n  k . Numeroase aplicaţii au condus la axioma potrivit căreia un eşantion dă informaţii utile despre întreaga mulţime şi că. neexistând posibilitatea reală de a studia fiecare element în parte. x n 1  mod m 201 . Această simulare se poate realiza cu ajutorul unor obiecte (zar. Aceste două condiţii pot fi îndeplinite printr-o alegere adecvată a funcţiei g. 8. Calculatoarele din ce în ce mai performante au determinat. . 1. x2. apare necesitatea de a obţine informaţii relevante despre mulţimi cu număr mare de elemente. Fie X o variabilă 1 aleatoare discretă P X  i   . Capitolul 8 Teoria selecţiei Introducere Teoria selecţiei s-a dezvoltat datorită necesităţilor practice. se generează o secvenţă de numere. Acest generator este suficient de bun dacă perioada lui este mare în raport cu numărul de valori generate şi valorile generate nu sunt secvenţial corelate. în ideea ce informaţia obţinută este utilă pentru întreaga populaţie studiată.. xn şi folosind relaţia de recurenţă x n  g  x n  k . Generarea valorilor particulare ale unei variabile aleatoare Simularea unei variabile aleatoare este utilizată atât în statistică (procedee de eşantionare). În multe situaţii. Simularea acestei variabile aleatoare n utilizează o funcţie g : I k  I . ultimele construindu-se.. ruletă).. pe baza celor din prima categorie. pe măsură ce selecţia creşte ca volum... se poate examina o selecţie (eşantion) din mulţime. în general. datele obţinute sunt din ce în ce mai fidele. există generatoare de variabile aleatoare uniform repartizate şi neuniform repartizate. deoarece I este finită.

n ..1] se realizează prin generarea de valori întregi uniform repartizate pe mulţimea {0. k 1  1. i  1. O variabilă aleatoare X. Variabile aleatoare continue. Pentru k=0.1]. x  xi ...1. m-1}. Algoritmul de simulare constă în generarea unei valori u.. F ( x0 )  0 . În cele ce urmează. atunci inversa ei se defineşte ca F-1(y)={x  R F(x)  u}. Simularea unei variabile aleatoare continue uniforme pe [0.  pi  n  pi .. Fie X o variabilă aleatoare având drept funcţie de repartiţie F : R  [0. Pentru diverse repartiţii concrete.  Atunci inversa funcţiei de repartiţie se determină astfel: F 1 (u )  xi . se obţin diverşi algoritmi.  . Să considerăm o variabilă aleatoare binomială X. unde x0   . a1.  n 1 F ( x)    i  F  p k .. uniform repartizate în (0. x n 1   a1 x n 1  . xi 1  x  xi .1) după care se efectuează schimbarea de variabilă X  (b  a )Y  a . i  1..1) se generează valori din mulţimea {1.. Este comod să alegem funcţia liniară f  xn  k . (  ) u  [0. motiv pentru care m se alege cât mai mare... care se împart la m. c=0. m= 231  1 sau a=24298. ne vom referi la metoda inversării funcţiei de repartiţie. rezultând astfel o posibilitate de algoritmizare în vederea simulării variabilei. uniform repartizată pe (0. şi în determinarea indicelui i astfel încât Fi 1  u  Fi . Metoda generează valori cuprinse între 0 şi m-1. avem generatori de ordinul întâi. n .. ori de câte ori F ( x i 1 )  u  F ( xi ) . Această variabilă are funcţia de repartiţie i 1  F1  0. cu funcţia de repartiţie 202 . c=99991.. x  x n . . m=199017 sunt câteva seturi de valori adecvate.. m-1} şi prin împărţirea lor prin m-1.  a k x n  k  c.1]. Exemplul. X:  i .. Fie X o variabilă aleatoare discretă. a=16807.1).1. c fiind valori întregi. . În acest caz..b) se generează cu ajutorul unei variabile aleatoare Y. .. 1. Pentru o variabilă aleatoare uniform repartizată pe (0. 8. uniform repartizată pe (a. x  Repartiţii discrete.ak. pi  0 .unde f : I k  I .

1). Fi  ce conţine pe u. Astfel.1).1) . Astfel.1.   0 . x.. Exemplul 8.3. x  0.  i 0  1. variabila X arată la a câta încercare se obţine stema prima dată.  0. X poate fi simulată prin construirea tabelului asociat funcţiei de repartiţie şi aplicarea metodei clasice de căutare. Fi  Fi 1 Facem precizarea că aici x * reprezintă valoarea obţinută.  k F ( x )   pq k ... Exemplul 8. având funcţia de repartiţie  0. p  (0. cel mai mic număr natural pentru care n1  Np şi n2  Np sunt naturale şi se construieşte tabelul corespunzător. În prealabil se determină intervalul Fi 1 . iar  u este uniform repartizată în (0. 203 . Fie acum o variabilă aleatoare geometrică X. k  1  x  k . se utilizează algoritmul specific repartiţiilor discrete. Repartiţiile continue. x  n. rezultând astfel imediat algoritmul de simulare.t n1  n2  0. O altă posibilitate este de a simula extragerile cu revenire şi de a număra de câte ori se produce evenimentul de probabilitate p. Fie X o variabilă aleatoare exponenţială. cu funcţia de 1 repartiţie F ( x )  1  e  x .2.. În caz contrar. X poate fi simulată prin aplicarea modelului clasic de căutare sau prin simularea variabilei aleatoare cu ajutorul monedei trucate în aşa fel încât probabilitatea apariţiei valorii sa fie p. În acest sens. cu valorile t1  t 2  . Inversa lui F este F 1 (u )   ln(1  u ) . se poate utiliza forma generală a algoritmului. calculându-se u  Fi 1 x *  xi 1  ( xi  x i 1 ) . se consideră N. iar cea a stemei sa fie q. şi 1  u este uniform repartizată în (0. şi nu xi . În situaţia în care se cunoaşte expresia inversei funcţiei de repartiţie.  t n  1 . x  0. t n1 1  t n1  2  .  k i i F ( x )   C n p (1  p) n1 .1. k  1  x  k  i0  1. x  n unde p  q  1.

 a  Exemplul 8.  X 12  6 ..5.. mai precis la metoda bazată pe teorema limită centrală. pe baza faptului 1 1  1 b că inversa funcţiei F este F (u )    ln(1  u )  ..  X n  1 2. singura metodă de cercetare pentru determinarea caracteristicilor distribuţiei teoretice este metoda selecţiei (sondajele de opinie). x2.1. dacă X 1 . cu funcţia de repartiţie b F ( x )  1  e ax .1. Algoritmul de simulare se dudcce uşor. Variabile de eşantionare Fenomenele din natură. O subcolectivitate a unei colectivităţi cercetate se numeşte selecţie sau sondaj.X n  N (.6. 8. a.. xn.. Pentru o selecţie de volum n vom nota datele de selecţie cu x1. Atunci obţinem Z n  12 n 12 Pentru n  12.. Valorile obţinute pentru indivizii care intră în selecţie privind caracteristica X de numesc date de selecţie relative la caracteristica X. atunci şirul Z n       n  1 este convergent în repartiţie către Z  N (0.Exemplul 8. Dacă populaţia este infinită. b  0.. Să considerăm   şi 2 n X 1  . . Definiţia 8. Definiţia 8..1.2. xn obţinute prin n experienţe indepenente. ) .. 2. Numărul elementelor selecţiei este volumul selecţiei.  2  .. X 2 . întrucât Z n  X 1  . x2.2.. algoritmul de simulare devine simplu. Ne referim acum la simularea variabilei aleatoare normal repartizate..2. .. Acelaşi lucru se realizează şi pentru un număr finit de indivizi (controlul antidoping realizat pe un număr mic de componenţi ai unei echipe). 204 .1).1. xi se numesc valori de eşantionare. Conform n  X 1  . Generarea variabilelor  2 şi Student se bazează pe legătura lor cu repartiţia normală standard.. X n  acesteia.4 Fie X o variabilă aleatoare Weibull. iar populaţia este distribuţia teoretică. Problema care se pune este de a determina caracteristica unei populaţii formată din N indivizi. Exemplul 8. sau poate fi considerată infinită. prin prisma rezultatelor x1. studiile sociologice au consacrat metoda sondajului. .

.. x2 . Sondajul pur aleator se obţine cand unităţile statistice au aceeaşi probabilitate de a fi alese din eşantion (sunt echiprobabile)..2.. se efectuează un sondaj dirijat. x n ale 1 măsurătorilor.. Sondajul este operaţia de colectare a elementelor unui eşantion din populaţia statistică examinată. O funcţie de variabile de selecţie a cărei valoare devine cunoscută când variabilele de selecţie sunt înlocuite prin valorile de selecţie se numeşte statistică. Frecvenţa absolută ni reprezintă numărul de apariţii ale unui rezultat în cele n experimente efectuate asupra eşantionului. Datele de selecţie x1. avem un sondaj mixt. unde ni  1.. xn sunt valorile unor variabile aleatoare X1.. iar după aceea se fac extrageri aleatoare din fiecare strat).. se realizează un sondaj stratificat proporţional.5. f i  . spre exemplu: momentul din timp şi locul în care s-a produs fenomenul frecvenţa apariţiei acestuia. x2. Primul dintre acestea este x1  x 2  . Dacă se prestabileşte un principiu. Dacă din fiecare start tipic se extrage un număr de unităţi ales astfel încât raportul dintre volumul eşantionului de strat şi volumul stratului să coincidă cu raportul dintre volumul eşantionului general şi volumul total al populaţiei. n i  1..Definiţia 8. Pe parcursul întregului capitol vom avea în vedere notaţiile menţionate în definiţia anterioară. X2.. Definiţie 8.  x n . Există trei moduri în care pot fi organizate rezultatele x1 .2. sondaje stratificate (tipice) în două faze (se aleg mai întâi r straturi din cele deja existente. Cercetarea şi perfecţionarea metodelor de analiză a datelor experimentale privind un anumit fenomen depind de volumul eşantionului ales. În cazul în care populaţia examinată este împărţită în grupuri (straturi) în raport cu o caracteristică prestabilită. n fiind volumul eşantionului. Colectarea elementelor din eşantion conduce la realizarea mai multor tipuri de sondaje. n . Acestea pot fi de mai multe feluri: sondaje stratificate simple fără revenire. care se vor numi variabile de selecţie. ni frecvenţele absolute ale apariţiei 205 . . Definiţia 8...3. când elementul extras din populaţia considerată este reintrodus în colectiv înainte de efectuarea unei noi extrageri. în timp ce frecvenţa relativă f i este raportul dintre frecvenţa absolută şi volumul eşantionului. Datele pot fi ordonate după anumite criterii. Există sondaje cu revenire (bernoulliene).4. sau sondaje fără revenire. Xn . .2. Un sondaj în care volumul eşantionului nu este fixat iniţial şi prelucrarea continuă până când un anumit eveniment se realizează se numeşte sondaj secvenţial.

Datorită diversităţii mărimilor obţinute. k . k . x  l 0 . x i 1  x  xi . În această situaţie. j 1 d k fiind numărul intervalelor ( li 1 . *  i 1 Fn ( x )    f j . i  1. Este uşor de remarcat faptul că funcţia empirică de repartiţie este analogul funcţiei de repartiţie a unei variabile aleatoare discrete finite. i  1. k  1.  f i  i 1 sau prin funcţia empirică de repartiţie.  xˆ k . f i  i .  xn . k . fiecărui interval corespunzându-i un reprezentant x̂i .  f i  1. Definiţia 8.  Dacă xj reprezintă valoarea observată a variabilei Xj. şi aici sunt necesare analiza şi organizarea datelor. de lungime egală. iar d lungimea acestor intervale. n Să presupunem acum că măsurătorile pot fi grupate în k intervale de valori. cel de al doilea ar fi n x1  x2  . x  x1 . funcţia empirică de repartiţie este dată de  0. Media de selecţie (momentul de ordin 1) este definită prin relaţia n 1 Xn  n j 1 X j.6.. i  1.. Apare astfel cel de al treilea tip de serie statistică. şi anume n xˆ1  xˆ 2  . f i  i . Ea poate fi caracterizată prin  xi  n X :  . de aceea nu îi vom reaminti. i  1. i  1.. Pentru seriile din primele două categorii. k  1. iar f i sunt frecvenţele relative.. notată Fn* . Tendinţele de grupare şi împrăştiere în jurul unei tendinţe maxime se măsoară cu indicatori care se definesc similar cu cei definiţi in capitolul 8. aceasta are forma  0. n Deosebirea faţă de cel de al doilea tip constă în faptul că în serie apar reprezentanţii intervalelor. *  i 1 x  l i 1 Fn ( x)    fj  f i . l i 1  x  li . ni  1 . ni  1 .2. l i ). valoarea numerică a acestei statistici este 206 . Fie X caracteristica examinată. frecvenţele absolute asociate fiecărui interval sunt egale cu numărul de valori ale caracteristicii măsurate în intervalul respectiv. j 1 Pentru ultimul tip.valorilor xi corespunzătoare.

.  n j 1 În paragraful următor vom demonstra proprietăţi privind media de selecţie şi dispersia..100.86.2.3. n j 1 Rezultă de aici valoarea dispersiei de selecţie.85 20 1 Y 2  75  4  85  4  95  6  105  3  115  1  125  98.96. Să considerăm un eşantion de 20 de clienţi ai unui magazin alimentar.88.3. n j 1 notaţie pe care o vom folosi şi pentru valoarea momentului de selecţie de ordin r. Exemplul 8. n 1 s2  ( x j  x) 2 .112. pentru aceasta. rezultând.97. 80.4.2..1.5.2.103..5.2. n 1 r   ( x j  x)r . în intervalele 70.3. astfel.80 .6.2.101. Momentul centrat de selecţie de ordinul r este dat de relaţia n 1 r   ( X j  X )r . următoarea distribuţie  75 85 95 105 115 125  empirică Y :  .1. 20 207 .102.2. n 1 xn   n j 1 x j.4.1. Datele de selecţie sunt următoarele (în ordinea în care au fost obţinute): X : 2.76.6. vom face o grupare a datelor de selecţie corespunzătoare. Definiţia 8.121. distribuţia empirică 1 2 3 4 5 6  X :   .85. 2 4 4 6 3 1  Mediile de selecţie ale celor două caracteristici sunt: 1 X  4  1  6  2  4  3  3  4  1  5  2  6  2. rezultând.1.  4 6 4 3 1 2 În cazul lui Y. Y : 90.77.108.4.9. în acest mod.110.3.2.8.113. Ne propunem să studiem frecvenţa X cu care clienţii fac apel la serviciile magazinului de-a lungul unei săptămâni şi să cercetăm cheltuielile lunare Y în zeci de lei ale clienţilor pentru achiziţionarea de produse din magazinul respectiv. Datele de selecţie pentru caracteristica X au n  6 valori distincte.2.9.90  .7.109.

4  x  5.85) 2  2  (6  2. 5 1  . x  1.85) 2  3  (4  2. 1  . 2 * 7 F20 . . 2  x  3.   9 . Funcţiile de repartiţie de selecţie ale celor două caracteristici sunt: 0.85) 2   2.5.5) 2  6  (105  98. Pentru momentele centrate de selecţie de ordinul al doilea.5) 2  182. 5  x  6.85) 2  1  (5  2.85) 2  6  (2  2.5) 2  4  (85  98. 20  2 (Y )  1  20 j 1 yk  Y  2 1 20 2  (75  98. 10  1.5) 2  4  (95  98. X ( x)   .85) 2  4  (3  2.5) 2  3  (115  98. obţinem: 20 2 (X )  1  20 j 1 (x j  X )2  1 20  4  (1  2.3275.5) 2  1  (125  98. 3  x  4. x  6 respectiv 208 . 10 17  20 . 1  x  2.

2. 115  y  125. Repartiţii statistice bidimensionale. pentru care s-au determinat valorile x1 .. s . Momentul de selecţie de ordinul k în raport cu X şi Y este dat de relaţiile: r s r mk 0   f ij xik   f i0 xik  x. 10 * 1 F20. Y ( y )   ..   19 . i 1 j 1 i 1 s r unde f i 0   f ij şi f 0i   f ij . 0. Momentul de selecţie de ordin h în raport cu X de ordin k în raport cu Y se defineşte prin 209 . în mod evident relaţia  n i 1 j 1 ij  n . Să considerăm X şi Y caracteristici cantitative ale unei populaţii. x r .9... Ne îndreptăm acum atenţia asupra populaţiilor statistice care au două caracteristici (cantitative sau calitative). x 2 . 1  . şi sunt trecute într-un tabel de corelaţie. 2 4  5 . Frecvenţele relative f ij r s sunt n   1.  20  1. i  1... y  6. 10 3  . j  1. Fie nij frecvenţele absolute ale cazurilor pentru care X  xi şi Y  y j . 85  y  95. n fiind r s momentul selecţiei.. respectiv y1 .10. y 2 . r . i 1 j 1 f ij  n .2.. i 1 j 1 i 1 r s r m0k   f ij yik   f 0 j xik  y. j 1 i 1 Definiţia 8. 105  y  115. Definiţia 8. 95  y  105. 75  y  85. y  1. asemănător unei matrice cu r linii şi s coloane. y s .

i 1 j 1 Momentele centrate  hk se definesc în mod asemănător. (Bernoulli) Fie an numărul de apariţii ale unui eveniment A în n experimente independente şi p probabilitatea de realizare acestui eveniment în a fiecare experienţă.3. i 1 j 1 reprezintă covarianţa de selecţie. datorat lui Bernoulli. 8. aşadar E (a n )  np şi Var (a n )  np (1  p). Definiţia 8. n 2 De aici rezultă că lim P  f n  p     1. având în vedere inegalitatea lui Cebîşev: P f n1  p     P an  np  n   D( an ) P an  M (an )  n   1   n 2 2 p (1  p ) 1 . s2 fiind dispersiile de selecţie ale celor două variabile s1 s 2 individuale.11. r s 11   f ij ( xi  x)( y j  y) . n 210 . Au loc următoarele relaţii. o măsură a dependenţei celor două variabile X şi Y.3. atunci şirul ( f n ) converge în probabilitate către p. de fapt. Teorema 8. s1 .2. Legi de probabilitate ale variabilelor de eşantionare Principiul fundamental al statisticii matematice afirmă că frecvenţa experimentală de apariţie a unui eveniment converge către frecvenţa teoretică. q.e. Momentul centrat mixt de ordinul al doilea. Demonstraţie Deoarece an  nf n . în timp ce coeficientul de corelaţie este  2 2   11 .d. Dacă f n  n este frecvenţa relativă de apariţie a acestui n evenimentului. r s mhk    f ij xih y kj . Coeficientul de corelaţie reprezintă.1. an este o variabilă binomială.

3. şi Fn* funcţia de repartiţie de selecţie corespunzătoare unei selecţii bernoulliene de volum n. aşadar momentele de selecţie devin.. atunci   P lim max Fn* ( x)  F ( x )  0   1. de asemenea.2.Această teoremă permite doar evaluarea directă a probabilităţii p de producere a unui eveniment. aşadar are tot repartiţie normală. media de selecţie.  n x   Pentru demonstraţie. îndrumăm cititorul spre lucrarea [11]. Teorema 8. pentru obţinerea de informaţii globale trebuie să facem apel la teorema lui Glivenko.3. i 1 este o combinaţie liniară de variabile repartizate normal. ea putând fi apreciată doar cu ajutorul momentelor de diferite ordine ale variabilei considerate X.3.. atunci variabilele de selecţie X 1 .    i 1  i 1 i 1 211 . Dacă repartiţia teoretică a unei variabile este normală. Dacă X este o variabilă aleatoare examinată printr-o selecţie de volum n. de cele mai multe ori.. Fie F funcţia de repartiţie a statisticii X. parametrii fiind însă următorii:  k  k k M (X )  M   fi X i   M (Xi )    f i  . la rândul lor. Teorema 8. au aceeaşi repartiţie ca şi variabila iniţială X. Aceasta din urmă nu este cunoscută. de medie  şi dispersie  2 . care are momentele E ( X k ) şi dispersia Var ( X ) . Folosind k notaţiile anunţate la începutul paragrafului. Demonstraţie Variabilele de selecţie sunt independente şi normal repartizate. Teoremele de convergenţă arată condiţiile în care repartiţia statistică (empirică) tinde către cea teoretică. atunci distribuţia mediei de selecţie obţinută prin sondaj pur aleator este de asemenea normală. În această situaţie. X   fi X i . Când ne referim la o variabilă aleatoare. apare însă problema de a studia în ce măsură diversele momentele de selecţie converg către momentele teoretice. variabile aleatoare. X n sunt independente. variabile aleatoare. numite variabile de selecţie. Ele depind de eşantionul ales. Trebuie să precizăm că valorile variabilei X rezultate din măsurători sunt. aceleaşi momente şi aceeaşi dispersie. obţinută printr-un sondaj pur aleator.. X 2 .

Atunci k k variabila Y  a j X j este de asemenea normală. q. Fie X j1 . Funcţia caracteristică a lui Y arată că ea este variabilă din  2 (n. q. Au loc relaţiile: FYi ( x)  P(Yi  x )  P( X i2  x)  P( x  X i  x ). x u 2  x2 1 2 2 du şi 1 2 2 . 212 .3. Teorema 8.. mediile de selecţie.e. 2 dispersia mediei are valoarea .  0. n .6. fiind  nj    combinaţie liniară de variabile normal repartizate. k .d. X 2 . atunci Y   X i2   2 (n.d.. X n reprezintă variabile de n selecţie obţinute prin sondaj pur aleator. ... rezultă că X j  N  j . selecţii independente din populaţii normale N ( j .. este tot normal repartizată. j 1 Demonstraţie    2j  Aplicând teorema precedentă.. k . ).3. calcule asemănătoare celor din teorema anterioară conducând la determinarea parametrilor săi. n Teorema 8. În cazul unei serii statistice din primul tip descris anterior. de parametri  a j j .e.. i 1 Demonstraţie Considerăm Yi  X i2 şi X i  N (0. X jn j .d. ) . j  1.3..  2 ). j  1.5.  k  k Var ( X )  Var   fi X i   2  f i2 .e.4. Variabila Y.    i 1  i 1 Observaţia 8. ) . q. j 1 j 1 k 2 2 j respectiv  aj nj .  2 ) şi X 1 . X j 2 . i  1. Dacă X  N (0.  2j ) şi X j . rezultă Deoarece FYi ( x)   2 e fYi ( x )   2x e  x 2 că Yi   (n.

.3.8...e.... q. atunci variabilele: n 1 U n i 1  Xi  n X . sunt independente şi normal repartizate. X n t este o selecţie obţinută prin sondaj pur aleator dintr-o populaţie caracterizată de o distribuţie normală redusă. X 2 .d.. t 2 . de parametri 0 şi 1. X n t o selecţie obţinută prin sondaj pur aleator dintr-o populaţie caracterizată de o repartiţie normală redusă şi n  1i....7. t n )  E  e k 1    2  n k 1 e  1 n   R n  it x  1 x 2 n t2 n n k 1 k k 2 k dx   2  k 1 e k   e 2    X k (t k )  X k (t ). rezultă că V j sunt variabile independente. n . Demonstraţie Dacă V  (V1 ....Vn ) t . au loc relaţiile: n n  V j  V V  X A AX  X X  V j2 . k 1 k 1 Acest lucru arată că V j sunt normal redus repartizate.. Fie X   X 1 . succesiv:  i nt v  n it k x k  1 x k2   k k  1 2 dx .dx  V ( t1 . Dacă X   X 1 .. X 2 . Atunci variabilele V j   a jk X k .Teorema 8. 2 t t t t  j 1 j 1 Funcţia caracteristică a vectorului V devine. Având în vedere că funcţia caracteristică a vectorului V este chiar produsul funcţiilor caracteristice ale variabilelor componente..3. 213 ..  k 1 k 1 k 1 Variabilei V j i se asociază funcţia caracteristică următoare  it n a x    jk k  V j (t )  E  e k 1      t 2 a 2jk t2 n 2 t2 n n a 2 k 1 jk   X k (ta jk )   e 2 e e 2   X k (t ). j  n A  aij o martice ortonormală.V2 . k 1 j  1. deoarece V  AX şi matricea A este ortonormală. Teorema 8..

Atunci: X  U n  N (0. i  1.. Egalităţile n n 2 2  1 n  n  n  2 1  V j2   X i2    Xi    Xi  Xi   V   n  n  i 1  j 2 i 1  i 1  i 1   conduc la concluzia că V   2 (n  1.1 şi V   2 (n  1. k . X 2 . în care a1k  . În plus. V j  N (0.. dintr-o populaţie normal distribuită.1) . Teorema 8..d. q.  n n 2 1 2  Xi  X  V   2 i 1  X i  X          2 (n  1. Concluzia rezultă  uşor.3.1). X n ) o selecţie obţinută prin sondaj pur aleator..e. Fie X  ( X 1 . U  N 0.  i 1   Demonstraţie Xi   Notând Yi  .1).e. V2 . verificând condiţiile din teorema anterioară prin intermediul variabilelor ajutătoare abia introduse.   n  n  i 1  1 Să considerăm acum o matrice ortonormală A.d.. n n n 2 1   X i  X    2 V  X i2   Xi   n  i 1  i 1 i 1 sunt independente.1). 214 ..1) . cu parametri  şi  2 .Vn ) .  1 n  1 Var (U )  Var  X i   nVar ( X i )  1.9. q.. n. aşadar U este normal repartizată.1). cu parametrii: E (U )  0. rezultă că Yi  N (0. Demonstraţie U este o combinaţie liniară de variabile independente identic repartizate. Având în vedere teorema anterioară. şi n V  AX  (V1 .

1.... Definiţia 9. deducem n însă imediat că media lui n S2 n 1 215 . cu alte cuvinte.      .. X n  pe care o vom utiliza ca estimator al lui θ.. Aceasta arată că S 2 nu este estimator nedeplasat. x n  va fi considerat ca estimator al parametrului θ..1.. t  X 1 ... . Fie X 1 .  X n  n este un estimator nedeplasat al lui µ. n Am văzut în exemplul anterior că X este un estimator nedeplasat al mediei µ. X n  este egală cu θ pentru orice valoare posibilă a lui θ.1... .. n n Exemplul 9.. fiindcă în mod clar media variabilei aleatoare 1  X 1  . dacă dispunem de valorile x1 .. X n variabile aleatoare independente care au aceeaşi distribuţie ca şi X. Atunci 1 t  X 1 . n Un calcul algebric elementar ne convinge că media variabilei aleatoare S 2 este egală cu n  1  2 . Alegem o anumită funcţie t  X 1 .  X n  este egală cu 1   .... Pentru un n fixat.. Exemplul 9.. X n  se numeşte estimator nedeplasat al parametrului θ dacă media lui t  X 1 . ... x n obţinute experimental. notăm 1 X   X 1  .1.. X n    X 1  ..2.. .  X n2   X 2 . ...1.. numărul t  x1 . În calitate de estimator al dispersiei lui X putem alege pe 1 S 2   X 12  .3. Fie µ media lui X şi σ2 dispersia lui X. .  X n  ... Estimatori nedeplasaţi Să considerăm o variabilă aleatoare X a cărei lege de probabilitate conţine un parametru θ. ... Capitolul 9 Teoria estimaţiei 9. Fie µ media lui X.

... obţinute în urma unei selecţii de volum n.  x 2  x1  . dacă dispunem de valorile experimentale x1 ..  x n .  xn    .... deci n S2 este estimator nedeplasat pentru dispersia  2 ..2.. x0.      0 .. x n vom estima dispersia  2 prin 2 n  x 2  ... x n .. în care θ este parametrul care urmează să fie estimat...este egală cu  2 . X 1  .. Definiţia 9.. f x . .2.1.  x n   n1 e n  x1  . estimatorul de maximă verosimilitate al parametrului θ din legea exponenţială este n .  X n 216 ...2... Derivata lui L ca funcţie de θ este egală cu   x 1  . Estimatori de maximă verosimilitate Fie f  x . x n  ale lui X. .   densitatea de probabilitate a unei variabile aleatoare X. Funcţia L  x1 .. Deducem imediat că L îşi atinge maximumul pentru n   .2. Funcţia de verosimilitate este L  e  x 1 .   se numeşte funcţia de verosimilitate.. x  0 .   . Exemplul 9.. Definiţia 9.2. n 1  n  n     9. .. n 1 Cu alte cuvinte.3.    f  x1 . Să considerăm densitatea exponenţială   e  x .  x n Aşadar.  x n    1 n   . Un estimator de maximă verosimilitate este un estimator care maximizează pe L ca funcţie de θ. x1  . f  x n ..  e  x n  n e   x 1  .. Să presupunem că avem la dispoziţie valorile experimentale  x1 .

.. Să considerăm variabila X cu densitatea uniformă  1  . n . valorile experimentale x1 . ln x1  ... Să considerăm variabila aleatoare X cu densitatea 1    x  .  Funcţia de verosimilitate este L  x1 . 0  x  1 . Derivata lui L ca funcţie de θ este egală cu 1   n1 x1 . Ţinând seama de natura acestei variabile. . Exemplul 9. ....2. estimatorul de maximă verosimilitate este max X 1 . in rest .Exemplul 9.. x n .. . cu cât θ este mai mic. ln X 1  . Funcţia de verosimilitate este 1 L  x1 . i  1. cea mai mică valoare posibilă a lui  este max x1 . xn  n  1    ln x1 . x n  . 2 Funcţia de verosimilitate este 217 . Funcţia L îşi atinge maximumul pentru n     1. in rest . n Valoarea ei este cu atât mai mare. Fie X o variabilă normală cu densitatea 1 2 f x ... 0  x  .... xn  satisfac condiţia 0  xi   . Datorită condiţiilor impuse...  f x .  ln X n Exemplul 9... x n . f x .2..    .    e   x   /2 ...6. xn  .        0 .. . Prin urmare. X n .      0 . ..2.5..    1   n  x1 ..4.. ..  ln x n deci estimatorul de maximă verosimilitate este în acest caz n  1. . xn  .

deci.  2 n Se constată imediat că ea îşi atinge maximumul pentru x1  . Să considerăm o variabilă normală X cu densitatea 1 2 / 2 2 f x .2. 218 .  x 2n / 2  2 L  . n Deci. L  1 e     x 1   2  .... estimatorul de maximă verosimilitate este în acest caz 1/ 2 1 2  2   X 1  .  2  n  n Ea îşi atinge maximumul pentru 1/ 2 1      x12  ..    ex .  x n   2 / 2 ..  2 Funcţia de verosimilitate este acum e  x 1  1 1 2  .1.  X n .  x n   . Exemplul 9.. estimatorul de maximă verosimilitate este tocmai estimatorul nedeplasat despre care a fost vorba în Exemplul 9.7. deci..  x n2  n   ....  X n  n   .2.. estimatorul de maximă verosimilitate este X 1  .. n Să observăm că  coincide cu media variabilei X.

Forma generală a intervalului de încredere Fie o populaţie statistică A..1.1 . nu poate fi utilizată fără a avea o imagine şi asupra mărimii probabilistice a erorii de estimare.. X n . interval de încredere.  X 1 . variabila statistică X studiată prin intermediul unei selecţii simple de volum n.1.. X n  .. Definiţia 10. X 2 .... deşi constituie o informaţie în legătură cu acesta.. 219 . Capitolul 10 Estimarea prin interval de încredere Introducere Estimaţia punctuală a unui parametru . X n  şi h2    h2   X 1 ...1.... interval de încredere pentru dispersie şi respectiv interval de încredere pentru raportul a două dispersii. Apare astfel necesitatea estimării unui parametru prin aşa numitul.. X n ) (10.. pentru care se obţine pe baza selecţiei estimatorul   X 1 . cu nivelul de semnificaţie   0..1) susceptibil de a conţine valoarea lui  cu o probabilitate 1    ..... Pe tot parcursul capitolului va fi prezentat doar cazul când eşantionul se formează pe baza unei selecţii simple aleatoare formată prin extrageri independente. În capitolul de faţă vom prezenta forma generală a intervalului de încredere.1. interval de încredere pentru diferenţa a două medii. 10.. Se numeşte interval de încredere pentru parametrul necunoscut . având densitatea de probabilitate f   . necunoscut la nivelul unei populaţii. unde h1    h1   X 1 . X n  rezultă din legea de probabilitate dată prin f   .. intervalul (h1   X 1 . X 2 . expresia intervalului de încredere pentru medie inclusiv cazul particular al unei proporţii. X n  şi un parametru necunoscut  asociat variabilei X.. h2   X 1 .. formată prin extrageri independente.

4) a1 ( ) unde  este de obicei proporţională cu dispersia estimatorului.. X 2 . (10. Intervalul care încadrează parametrul  are proprietatea că acoperă valoarea  în 1001    din cazuri.. două valori particulare a1   şi a 2   astfel încât să aibă loc relaţia: a2 ( ) P(a1 ( )    a 2 ( ))   f ( )d 1   .05 ). astfel:  R   100  5% şi   5% .. valorile acceptate fiind de regulă peste 0.2. X n  .. Astfel intervalul de încredere se poate scrie: a 2 ( ) P(         )   f ( )d 1   (10. vom avea h1       şi h2       unde  reprezintă eroarea limită de estimare sub formă absolută. cele două limite ale intervalului mai sus menţionat pot fi determinate numeric. (10.5)  220 .1. Probabilitatea 1   şi eroarea limită constituie împreună o măsură a preciziei estimării parametrului  prin   X 1 . Dacă estimatorul  este un estimator centrat (nedeplasat).. După observarea statistică a eşantionului (selecţiei). Obţinerea celor două limite ale intervalului se realizează pornind de la faptul că pentru   X 1 ..1.. Cu cât nivelul de semnificaţie  este mai mic cu atât  are şanse mai mari de a se afla în acel interval (de regulă   0.. (10.3) a1 ( ) ...95.1.1. X n ))    h2 ( ( X 1 . Observaţia 10.3. prin urmare se scrie de forma   z    . deci E     intervalul de încredere este simetric în raport cu  .2) a1 ( ) formulă ce se poate scrie. Observaţia 10. De regulă acestea se fixează apriori.X n )))   f ( )d 1   .1. astfel: a2 ( ) P(h1 ( ( X 1 . Probabilitatea 1   este probabilitatea de garantare a intervalului.1...... X n  (sau pentru o altă variabilă aleatoare de lege de probabilitate cunoscută a cărei expresie îl conţine pe ) se pot determina pe baza legii de probabilitate cunoscute. prin artificii matematice.

urmează că n  2 X  N   . avem că variabila  n  221 ...  2 cu   IR necunoscut şi  2  0 cunoscut   este de forma ( X  z   .2. cu 1 2 n 1 2 n   P( X  z    X z   )  1  (10.Pe baza acestor parametri ai peciziei va rezulta dimensiunea eşantionului prin care se asigură precizia dorită.  X n X  1 .  2 . 10.  X n unde X  este media de selecţie corespunzătoare unui n eşantion obţinut prin extrageri aleatoare independente. extragerile fiind independente. Intervalul de încredere pentru media unei variabile X ce   urmează legea normală N  .2. Interval de încredere pentru medie Vom considera în cele ce urmează. iar z depinde de nivelul de semnificaţie stabilit şi de legea de probabilitate implicată.1 este nivelul de  semnificaţie iar z  este cuantila de ordin 1  a repartiţiei normale standard 1 2 2 dată prin funcţia de repartiţie (funcţia integrală Laplace . folosind în acest scop formula   z    în care se va vedea că dispersia estimatorului   depinde şi de volumul n al selecţiei.1.  şi mai departe. cazul când parametrul necunoscut  pe care dorim să-l estimăm prin interval de încredere este media unei variabile aleatoare.1) 1 2 n 1 2 n X 1  X 2  .Gauss)..   0. x t2 1   x   e 2 dt . Propoziţia 10.2. 2  Demonstraţie   Întrucât X  N  .X z   ) . iar media de selecţie este de forma X  X 2  ..

q. Mai departe. astfel încât  ( z 2 )   ( z1 )  1   . X  Z  n urmează legea normală standard (centrată şi redusă). În consecinţă. adică  ( z 2 )  1  . avem t2   1 z2  2 P( X  z 2     X z2 )  e dt   ( z 2 )   ( z 2 )  1   . vom găsi două numere z1 şi z 2 astfel încât: t2 X  1 z2  2 P ( z1   z2)   e dt   ( z 2 )   ( z1 )  1    2 z1 n unde  este funcţia de repartiţie a legii normale standard. 1 2 n 1 2 n 222 . ceea ce înseamnă că z 2  z  este 2 1 2  cunatila de ordin 1  . N 0. însă pentru o precizie cât mai bună a intervalului de încredere.  z2 n n 2 În acest caz se determină din relaţia  ( z 2 )   ( z 2 )  1   cu z2   ( z 2 )  1   ( z 2 ) . Laplace-Gauss. ne va interesa un interval de lungime minimă. x t2 1   x   2  e dt .e. ori acesta se obţine pentru cazul când z1   z 2 .d. prin artificii de 2  calcul folosind probabilitatea unor evenimente echivalente. prin urmare. 2 Prin urmare. se pot determina o infinitate de numere z1 şi z 2 . z1 n n 2 Pentru  fixat.05 . fiind dat un prag de semnificaţie   0. avem că: t2   1 z2  2 P( X  z 2     X  z1 )  e dt   ( z 2 )   ( z1 )  1   . a repartiţiei normale standard. ale cărei valori sunt tabelate. intervalul este dat prin formula   P( X  z    X z   )  1   .1 .

4). Soluţie Întrucât   0.2.2.3.1. x t2 1    x   e 2 dt sunt tabelate. 2  Observaţia 10. Pentru selecţii de volum mare. se poate scrie intervalul   n 1 2 de încredere ca un caz particular al formulei (10. intervalul de încredere pentru medie.1 este valabilă şi pentru cazul în care variabila X urmează o lege oarecare de probabilitate.2 2 .  . printr-un interval de încredere de 95%. necunoscută. Cu cât lungimea X a intervalul de încredere. care prezintă 1 2 x t2 ~ 1  valorile funcţiei  x   e 2 dt .2.5. z   1. 1 2 pentru 95% din cazuri. Observaţia 10. Folosind notaţia: X  z .2.05 . Valorile funcţiei de repartiţie Laplace .96  . fiecare variind de la un tip de sondaj la altul. Exemplul 10.Observaţia 10. Să presupunem că dispunem de valorile unei variabile   X  N  . caz în care z2 este 2 0 1 corespunzătoare valorii .4.2.96     55  1. respectiv nivelul de semnificaţie  sunt mai mici. adică pentru probabilitatea auxiliară 1  . x  0. 25 25 223 . 2  2 vom găsi în tabel valoarea cuantilei z 2  z  însă există şi tabele. de volum 25 şi de medie x  55 .96 şi mai departe. Determinarea efectivă a celor două limite presupune cunoaşterea expresiei matematice a estimatorului X şi a erorii medii pătratice de estimare  X . obiectivul fiind acela de a estima media la nivelul populaţiei. cu atât estimaţia parametrului necunoscut este mai bună. ( X fiind estimator nedeplasat) şi anume: P( X  X    X  X )  1   . aici fiind prezentat doar cazul unui sondaj aleator simplu cu extrageri independente. precizat în Propoziţia 10. 2 2 55  1. obţinem din Anexa 1. obţinute printr-o selecţie simplă cu extrageri independente.Gauss. datorită Teoremei limită centrală.2.

365 . intervalul (54. Soluţie Întrucât   0..5 . 7.2) n 1.  X n unde X  este media de selecţie corespunzătoare unui n eşantion obţinut prin extrageri aleatoare independente. t   3. 10.02 . 224 . Exemplul 10.6. 1 2 n X 1  X 2  .   X n  X  2 2 2 este estimaţia absolut corectă a lui n 1  2 . Propoziţia 10. 9.216 . variabila T  s urmează legea Student cu n-1 grade de n libertate.. pentru media unei  variabile X ce urmează legea normală N  . 1 2 n n 1.2. Pe baza n 1. în 95% din cazuri.  2 . obţinem din Anexa 2.55.e.1 este nivelul de semnificaţie iar t  este cuantila de ordin n 1. pornind de la următoarele date: 5.87 şi mai departe..X t   ) . n  6 . 1 2 n s s P( X  t      X t   )  1  (10. Intervalul de încredere de tip 1   . s  1.d.7.   0. 8. cu n 1. 1 2 n n 1.2. 6. atunci X    când x  N  . Procedând ca în cazul când  2 este cunoscut se obţine intervalul de încredere corespunzător.  2 cu   IR necunoscut şi  s s  2  0 necunoscut este de forma ( X  t   . q. 2 Demonstraţie Conform legilor de probabilitate ale variabilelor de eşantionare. a notei medii de repartiţie normală.1 2 selecţiei avem x  7. în 98% din cazuri..2. o variabilă ce urmează legea normală standard şi radicalul unei alte variabile de tip  2 raportată la numărul gradelor de libertate. 2 s   X 1  X    X 2  X   . Să considerăm estimarea printr-un interval de încredere de tip 98%.Prin urmare.784) va acoperi valoarea necunoscută a parametrului  . întrucât se obţine ca raport între două variabile independente.1 2  1  a repartiţiei Student cu n-1 grade de libertate.

prin urmare. q. Pentru selecţii de volum mare.365     7.d.1 este nivelul de  semnificaţie iar z  este cuantila de ordin 1  a repartiţiei normale standard.. diferenţa între valorile cuantilelor repartiţiei Student şi cele ale repartiţiei normale standard este neglijabilă. o repartiţie aproximativ normală cu media egală cu p şi abaterea medie pătratică pˆ 1  pˆ  aproximativ egală cu .2. 1 2 2 Demonstraţie Media unei variabile aleatoare ce urmează legea Bernoulli de parametru necunoscut p.1) cu  2 înlocuit de  2 .3) 1 2 n 1 2 n X 1  X 2  .9.5  3. Propoziţia 10..93 .2.1 se n obţine intervalul dorit. De asemenea este neglijabilă şi diferenţa dintre estimatorul absolut corect 2 s   X 1  X    X 2  X   .. prin urmare aplicând Propoziţia 10.  X n unde pˆ  este media de selecţie corespunzătoare unui n eşantion obţinut prin extrageri aleatoare independente.. 6 6 Prin urmare.4. se poate utiliza n formula (10.10) va acoperi valoarea necunoscută a parametrului  .. în 98% din cazuri.2. 1. conform Observaţiei 10.2..2. O astfel de medie exprimă de fapt proporţia p de indivizi dintr-o populaţie care au o anumită caracteristică şi este tratată ca media unei variabile X cu valorile 0 şi 1. intervalul de încredere de tip 1   .5  3. are pentru selecţii de volum mare.   0.   X n  X  2 2 2 .   X n  X  2 2 2 şi estimatorul n 1 2   X 1  X    X 2  X   . prin valoarea 1 notând valoarea variabilei X pentru indivizii care au această caracteristică. Pentru selecţii de volum mare. Observaţia 10.2.365  .e.87 7. pˆ  z   ) (10.87 1. 225 . intervalul (4.8. pentru media unei variabile X ce urmează legea Bernoulli de parametru necunsocut p este de forma pˆ 1  pˆ  pˆ 1  pˆ  ( pˆ  z   .

adică (0. Fie două populaţii studiate în raport cu variabila X. q.4  0. de tipul  2  2 N  2 .  2 necunoscute. 10.496). respectiv  1 .1. 1 2 2 Demonstraţie Variabila aleatoare Z  X 1  X 2   1   2  urmează legea normală 2 2 1  2  n1 n2 standard.   0. pentru prima populaţie variabila fiind de tipul N 1 .3.4  0. Fie de 2 asemenea două selecţii bazate pe extrageri independente de volume n1 şi respectiv n2 .96  p  1. intervalul de încredere pentru diferenţa celor două medii este de forma 2 2 2 2     X1  X 2  z   1  2  1   2  X 1  X 2  z   1  2 (10.1) 1 2 n1 n2 1 2 n1 n2  unde z  este cuantila de ordin 1  a repartiţiei normale standard.3. cu mediile de selecţie X 1 . Interval de încredere pentru diferenţa a două medii Vom considera în cele ce urmează problema determinării intervalelor de încredere pentru diferenţa a două medii. utilă în cazul în care dorim să avem o informaţie privind diferenţa de comportament a unei variabile. de la o populaţie la alta. Soluţie În 95% din cazuri intervalul va fi 40 0.1 . Vom determina intervalul de încredere de tip 95% pentru diferenţa mediilor unei variabile în două populaţii diferite în care se presupune 226 .10.  2 cunoscute. La un sondaj electoral. 40 din 100 de persoane chestionate s- au pronunţat în favoarea unui candidat. Exemplul 10.  2 .Exemplul 10.3. procentul favorabil candidatului va fi aproximativ între 30% şi 50%.304.0.2. X 2 .96 .2. Pentru un nivel de semnificaţie. prin 100 100 100 100 urmare în 95% din cazuri. Propoziţia 10.d. din cele două populaţii.  1 2   iar pentru a doua.e.6  1. scopul fiind determinarea unui interval de încredere de tip 95% pentru procentul de alegători favorabil acelui candidat.6 40 0.3. cu 1 .

din cele două populaţii cu mediile de selecţie X 1 .3. de medii necunoscute 1 respectiv  2 şi 2 2 dispersii cunoscute  1  2 2 .că repartiţiile variabilei sunt normale. În vederea comparării comportamentului unei variabile în două populaţii normale.3.d.4.  2  3 2 .2)  . s1 . Soluţie În 95% din cazuri intervalul va fi  4 9 4 9  (22  20)  1. Pentru un nivel de semnificaţie.  7 8 7 8   Propoziţia 10.3.   0. pentru prima populaţie variabila fiind de tipul N 1 .1 2 n1 n 2  .3. se pune problema determinării unui interval de încredere de tip 95% pentru diferenţa mediilor variabilei în cele 227 .96   . de medie.  2 necunoscute.1 2 n1 n 2  unde t  este cuantila de ordin 1  a repartiţiei Student cu   n1  n 2  2  . respectiv  1 .96    1   2  (22  20)  1. Fie două populaţii studiate în raport cu variabila X. n1  n2  2 Demonstraţie Variabila aleatoare T  X 1  X 2   1   2  urmează legea Student cu 1 1 S  n1 n2 n1  n2  2 grade de libertate. intervalul de încredere pentru diferenţa celor două medii este de forma 1 1 1 1 X1  X 2  t  S   1   2  X 1  X 2  t   S   (10.  2 .e. de tipul  2  2 2 N  2 .  1 2   iar pentru a doua. x1  22 şi respectiv. Fie de asemenea două selecţii bazate pe extrageri independente de volume n1 şi respectiv n2 . având aceeaşi dispersie. q. X 2 şi estimatorii 2 2 absolut corecţi ai dispersiilor.1 2 2 grade de libertate iar S 2  n1  1s1 2  n2  1s2 2 . Exemplul 10. pornind de la selecţiile de volum n1  7 şi respectiv n2  8 .1 . cu 1 .  2 necunoscute dar egale. s 2 . x 2  20 .

q. Soluţie În 95% din cazuri intervalul va fi    (2.975  2. respectiv s1  0.   .22 .1 2 n1 n2  unde t  este cuantila de ordin 1  a repartiţiei Student cu  grade de  . s 2 . pornind de la două seturi de date de volum 10 şi 12 cu mediile 2 2 x1  2. X 2 şi estimatorii 2 2 absolut corecţi ai dispersiilor. de tipul   2  2 N  2 .3)  .3.  2 .3. din cele două populaţii cu mediile de selecţie X 1 .1 2 n1 n2  .1 10 12  .2 şi s 2  0.1 2 10  12  2 Propoziţia 10. cu 1 . 0.1 2 2 2 s1 2 1 libertate unde  c2  1  c  iar c  . pentru prima populaţie variabila fiind de tipul N 1 . Pentru un nivel de semnificaţie.1 10 12   2 2 cu t  t 20.5.5  2)  t   S  1  1  . intervalul de încredere pentru diferenţa celor două medii este de forma 2 2 2 2 s s s s X1  X 2  t   1  2  1   2  X 1  X 2  t   1  2 (10.e.   0.1 .două populaţii.  2 necunoscute. respectiv  1 .   . n1  1 2 2  n1  1 n2  1 s1 s2  n1  1 n2  1 Demonstraţie Variabila aleatoare T  X 1  X 2   1   2  urmează legea Student cu 2 2 s1 s  2 n1 n2  grade de libertate.5  2)  t   S  1  1  1   2  (2.  2 necunoscute şi diferite.  1 2  iar pentru a doua. 2 Fie de asemenea două selecţii bazate pe extrageri independente de volume n1 şi respectiv n2 . 228 . s1 . Fie două populaţii studiate în raport cu variabila X.5 şi x 2  2 .086 şi S 2  10  1  0.22 .d.2  12  1  0.

aspecte ce vor fi prezentate în acest paragraf.   .1 10 12   2 2  cu t  determinat din Anexa 2. folosindu-se astfel formula (10.1 10 12  . pentru selecţii mari.1) în care  1 . pornind de la două seturi de date de volum 10 şi 12 cu mediile 2 2 x1  2. De asemenea. corespunzătoare celor două selecţii.  9 11 0. pentru 1   0. respectiv s1  0.2 2 1 c 2 1  c  9 relaţia   cu c  .2 şi s 2  0.3. Soluţie În 95% din cazuri intervalul va fi    (2.975 şi  determinat din  . De asemenea. 2 0. Interval de încredere pentru dispersie şi raportul a două dispersii Un alt parametru care se poate estima prin interval de încredere este dispersia (varianţa) unei variabile.5  2)  t   S  0.Exemplul 10.3 şi Propoziţia 10. Dacă volumul selecţiilor este mare.3.3.6.3. având dispersii diferite.2  0.2  0.3.4.1.22  . Propoziţia 10. 22  9 11 Observaţia 10.5  2)  t   0.7. 10. pentru dispersia unei   variabile X ce urmează legea normală N  .22 . Intervalul de încredere de tip 1   . se pune problema determinării unui interval de încredere de tip 95% pentru diferenţa mediilor variabilei în cele două populaţii.5 şi x 2  2 .3.  2 cu   IR necunoscut şi  2  0 necunoscut este de forma 229 .1 2 2 0.1) se poate utiliza şi pentru populaţii în care repartiţia variabilei nu este normală.4. se poate considera că variabilele aleatoare utilizate în Propoziţia 10. pentru a obţine estimaţii privind diferenţa a două medii este util să avem informaţii despre raportul dintre dispersiile corespunzătoare.  2 se estimează prin momentele centrate de ordin 2.22  1   2  (2. formula (10. În vederea comparării comportamentului unei variabile în două populaţii normale. după cum s-a putut observa în paragraful anterior.5 au 2 2 repartiţia normală. atunci când ele nu se cunosc.

pentru care s-a calculat s 2  2 .. de medie 0 şi repartiţie normală are o repartiţie de tip  2 cu n-1 grade de libertate. Demonstraţie Întrucât.   X n  X  2 2 2 n 1 este estimaţia absolut corectă a lui  2 pentru o selecţie de volum n.. avem că variabila  2  n  1  s 2 urmează legea  2 cu n-1 grade de libertate. prin 2  urmare pentru un nivel de semnificaţie  . 2 2 n 1. astfel   încât P  12   2   22  1   . se pune problema determinării unui interval de încredere de tip 98% pentru  2 pornind de la 5 măsurători independente presupuse ca fiind extrase dintr-o repartiţie normală.1) 2  2  n 1.4. q.1 2    2  sunt cuantilele de ordin 1  şi ale repartiţiei  2 cu n-1 grade de n 1.   0.d. 2 2 2 libertate. 2 2 unde s 2  X 1  X    X 2  X   . Exemplul 10. bazată pe extrageri independente.1 n 1. 2 2 obţinem  2   n  1  s   2 . În vederea estimării variabilităţii unui instrument de măsurare.1 2 intervalul dorit. cum o sumă de pătrate de n variabile aleatoare independente. conform legilor de probabilitate ale variabilelor de eşantionare. găsim două numere  12 şi  22 . Dacă alegem  12   2  şi  22   2  n 1.4. 230 .1 este nivelul de semnificaţie iar  2  şi n 1. de unde prin artificii de calcul. n  s2 2 n  s2    (10. n 1.e.2.1 2 2   cuantilele de ordin 1  şi ale repartiţiei  2 cu n-1 grade de libertate. rezultă 2  n 1.

Pentru un nivel de semnificaţie. Demonstraţie Cum raportul a două variabile de tip  2 este o variabilă de tip Fisher.99  4.   0. X 2 şi estimatorii 2 2 absolut corecţi ai dispersiilor. 2 s1 2 1 avem că variabila F  2 urmează legea Fisher cu n1  1 şi n2  1 grade de s2 2 2 libertate şi raţionaând ca în propoziţia anterioară.4. pentru prima populaţie variabila fiind de tipul N 1 .4.99  13.Soluţie 5 2 52 În 98% din cazuri intervalul va fi 2 2  2 . 231 .n2 1.4. Fie de 2 2 asemenea două selecţii bazate pe extrageri independente de volume n1 şi respectiv n2 . intervalul de încredere pentru raportul celor două dispersii va fi 2 2 2 1 s1  1 s1  2  12   2 (10. 0. Fie două populaţii studiate în raport cu variabila X.  2 . Propoziţia 10. s1 .01  0.28 şi  42. 2 2 2 repartiţiei Fisher-Snedecor cu n1  1 şi n2  1 grade de libertate.d.1 2 n1 1.4.  2 necunoscute.e. s 2 . din cele două populaţii cu mediile de selecţie X 1 .n2 1. cu valorile tabelate ale legii 2.3. pornind de la două seturi de date fiecare de volum 10 şi 12 cu 2 2 s1  0. n2 1.  1 2 iar pentru a doua.01  42. n2 1. de tipul    2  N  2 .2 şi s 2  0. 297 rezultă din Anexa 3.1 . q.1 n1 1.22 . 0. Exemplul 10. 2 2   unde f  şi f  sunt cuantilele de ordin 1  şi ale n1 1. unde  4. În vederea comparării comportamentului unei variabile în două populaţii normale. se obţine intervalul dorit. cu 1 .  2 necunoscute.2) f  s2 2 f  s2 n1 1. se pune mai întâi problema determinării unui interval de încredere de tip 95% pentru raportul dispersiilor în cele două populaţii. 0. 0. respectiv  1 .

975 0.11.22  2 f 9.11.0.59 determinat din Anexa 4.975 232 .Soluţie 2 1 0.278 .11.11.0. f 9.025   0. f 9.025 0.22 cu f 9. 2  1 1 0. 0. 0. 2 În 95% din cazuri intervalul este   2   .975  3. cu valorile tabelate ale legii Fisher 1 şi f 9.0.11.

11. Având la dispoziţie măsurătorile care rezultă în urma testărilor. teoria statistică a deciziilor ne permite să măsuram gradul de risc asociat unei decizii în termenii unor probabilităţi obiective. şi uneori.). Când avem la dispoziţie rezultatele numerice ale unor experimente. De fiecare dată ne asumăm riscul ca decizia să fie greşită. actionăm pe baza unor probabilităţi subiective. Prin urmare.05. statisticienii firmei F pot comunica managerului că probabilitatea ca decizia să fie greşită este mai mică decât. Decizii „empirice” În viaţa de zi cu zi suntem nevoiţi să luăm decizii – importante sau mai puţin importante. Decizii statistice Firma de automobile F trebuie să cumpere o mare cantitate de anvelope şi are de ales între mărcile A1 şi A2. sau poate lua în considerare parametrii suplimentari. Tinând seama de toţi factorii implicaţi. există riscul ca decizia să fie greşită. culegem în mod empiric câteva informaţii (distanţa până la cel mai apropiat vehicul. Dacă probabilitatea ca decizia să fie greşită este prea mare. managerul poate decide că riscul este acceptabil. Când traversăm strada printr-un loc nepermis. Când decidem să traversăm strada printr-un loc nepermis. şi deci gradul de risc este apreciat în mod subiectiv. apoi luăm decizia de a traversa. firma decide că anvelopele A1 sunt superioare. decizia chiar este greşită. care – prin forţa lucrurilor – este mic în raport cu numărul mare de anvelope care vor fi cumpărate. Înainte de a lua o decizie. Poate fi „măsurat” acest risc? Triumful teoriei statistice a deciziilor constă tocmai în posibilitatea de a măsura gradul de risc în termenii unor probabilităţi obiective.2. Capitolul 11 Teoria deciziei 11. să zicem. firma testează n anvelope de tip A1 şi n anvelope de tip A2. Această decizie se bazează pe testarea unui număr n de anvelope.1. etc. viteza cu care se apropie de noi. Prelucrând statistic rezultatele numerice ale măsurătorilor. 0. la fiecare pas. 233 . managerul poate cere teste suplimentare.

11. 234 . 11. Ipoteza care urmează să fie testată se notează cu H0. vom prezenta anumite metode de a calcula astfel de probabilităţi obiective şi – implicit – de a aprecia gradul de risc asociat unei decizii. decizia noastră nu este infailibilă: ea poate fi eronată. notată cu H1. Metode de acest tip vor fi aplicate la testarea şirurilor binare cu scopul de a decide dacă sunt aleatoare. binomială. În cele ce urmează. Putem formula. Tipuri de erori Să presupunem că H0 este adevărată. În acest caz se spune ca am comis o eroare de tip I. Este necesar să formulăm şi ipoteză alternativă. În spaţiul valorilor pe care le poate lua X vom izola o submulţime numită zona critică a testului. prin ipoteză statistică înţelegem o ipoteză asupra unui fenomen aleator. putem formula ipoteze asupra valorilor numerice ale parametrilor care intervin în structura legii respective de probabilitate.3. Dacă. H0 este ipoteza că un anumit parametru p.5. Poisson etc. cu alte cuvinte. Dacă valoarea numerică a lui X furnizată de experiment aparţine zonei critice. valoarea lui X obţinută în urma experimentului aparţine zonei critice. Teste statistice Un test statistic se bazează pe un experiment în urma căruia. de exemplu. H1 poate fi pur şi simplu ipoteza că H0 este falsă. dar că – în ciuda acestui fapt – datorită factorilor aleatori. în caz contrar. ipoteza asupra naturii distribuţiei unei variabile aleatoare: normală. Întrucât rezultatul experimentului este influenţat de factori aleatori. Ipoteze statistice Într-o accepţiune largă. dacă natura distribuţiei este precizată. atunci H1 poate fi ipoteza că p are o alta valoare numerică p1. putem deduce valoarea numerică a unei statistici X. 11. acceptăm H0 şi respinge H1. sub ipoteza H0. Noi vom decide să respingem ipoteza H0. Alt exemplu ar putea fi ipoteza H1: p≠p1. Sau. Un test statistic are menirea de a recomanda acceptarea ipotezei H0 (şi deci respingerea lui H1) sau respingerea lui H0 (şi deci acceptarea lui H1).4. dar această decizie va fi evident greşită. are o valoare numerică p0. vom decide că respingem ipoteza H0 şi acceptăm ipoteza H1. de exemplu.

6. Aceste consideraţii sunt exemplificate în următorul exemplu. Avem   P  x  K | H 0 este adevarata   P  x  K |    0  Întrucât distribuţia de probabilitate este complet specificată.05 şi aplicăm testul de 1000 de ori. de exemplu. α=0. probabilitatea de mai sus poate fi calculată. 11. parametrul θ nu mai este specificat. Acum   P x  K |    0  . Dacă. Desigur că dorim să proiectăm teste pentru care probabilităţile de eroare α şi β să fie mici. Probabilitatea de a comite o eroare de tip II se notează cu β. Atunci   P x  K | H 0 este falsa   P x  K | H1 este adevarata  P  x  K |   1  Din nou distribuţia de probabilitate este complet specificată. Fie H1 : θ= θ1. valoarea lui X în urma experimentului se plasează în afara zonei critice. aşa că se fixează doar nivelul de semnificaţie α. aceasta se întâmplă când. Fie H1 : θ≠ θ0. De data aceasta. Cealaltă eroare posibilă este de a accepta ipoteza H0 când în realitate ea este falsă. Considerăm o anumită distribuţie de probabilitate a cărei formă o cunoaştem. În anumite situaţii. deci calculul lui β este dificil sau chiar imposibil. În cazuri complexe – printre care şi testarea şirurilor binare – calculul lui β este dificil sau chiar imposibil. în aproximativ 50 de cazuri vom respinge în mod eronat ipoteza H0 . şi fie K zona critică a testului. dar în structura căreia intra un parametru necunoscut θ. ii. În acest caz avem de a face cu o eroare de tip II. deşi H0 este falsă. Fie H0 : θ= θ0 . se caută minimizarea sumei α + β. i. deci probabilitatea β poate fi şi ea calculată. 235 . În alte cazuri se fixează nivelul de semnificaţie α şi se caută testul pentru care β să fie minimă. Nivel de semnificaţie Probabilitatea de a comite o eroare de tip I se notează cu α şi se numeşte nivel de semnificaţie al testului.

cu alte cuvinte. vom presupune că se face o singură observaţie asupra variabilei X. Aşadar. unde θ este un parametru care depinde de natura materialului radioactiv. Pentru θ=1. Aceasta înseamnă că: Dacă x > 1. Avem   P  x  1 | H 0 adevarata   P  x  1 |   2 . Din anumite considerente teoretice sau experimentale. Pentru θ=2. Dacă 0 < x ≤ 1.e..13 . el ştie că θ poate lua fie valoarea 1.11. densitatea de probabilitate este f t   2 e 2 t . vom accepta ipoteza H0 şi vom respinge ipoteza H1. t  0 f t     0 .   P 0  x  1 | H 1 adevarata   P 0  x  1 |   1 . probabilitatea de a comite o eroare de tipul I (i. densitatea de probabilitate este 236 . +). intuiţia fizicianului favorizează valoarea 2. Alegem drept zonă critică a testului intervalul (1. Aşadar se testează ipoteza: H0 :   2 în prezenţa ipotezei alternative: H1 :   1 . se măsoară lungimea unui singur interval de timp dintre două scintilaţii consecutive ale contorului Geiger. Să calculăm nivelul de semnificaţie al testului.13. Pentru simplitatea exprimării. Notăm cu x valoarea măsurată a lui X. vom respinge ipoteza H0 şi vom accepta ipoteza H1. Un exemplu Notăm cu X timpul dintre două semnalizări succesive ale unui contor Geiger. desigur că în practică testarea se va baza pe mai multe astfel de observaţii.7. de a respinge în mod eronat ipoteza H0) este egală cu 0. Din studiul dezintegrării radioactive se ştie că variabila aleatoare X are densitatea exponenţială:  e  t . Să calculăm acum probabilitatea de a comite o eroare de tipul II (adică de a accepta eronat ipoteza H0. in rest . Un fizician doreşte să testeze valoarea lui θ pentru un anumit material radioactiv. fie valoarea 2. ceea ce este totuna cu a respinge eronat ipoteza H1 ). t  0 şi deci    2t   1 f t  dt  2 1 e dt  0.

Pentru θ=1 avem graficul de mai jos: 237 . Este utilă o interpretare geometrică a faptelor de mai sus. dar aceasta se explică prin faptul că testul nostru se bazează pe o singura observaţie. Zona critică este intervalul (1. Probabilitatea ca observaţia x să aparţină zonei critice este egală cu aria suprafeţei delimitate de grafic şi axa deasupra zonei critice. probabilitatea unei erori de tipul II este mare. +) de pe axa Ox. t  0 . Nivelul de semnificaţie α este egal cu această arie. Pentru θ=2. şi atunci avem Desigur. f t   e  t . graficul densităţii de probabilitate este schiţat în figura de mai jos.

cu acelaşi nivel de semnificaţie. prin urmare. probabilitatea unei erori de tipul II va fi  t   P  x  a |   1  0.a). testul anterior.1]. Constatăm acum că probabilitatea β este mai mare decât în situaţia precedentă. Interpretarea geometrică în cazul al doilea se deduce din următoarele grafice. 238 . bazat pe zona critică . iar probabilitatea β este egală cu aria delimitată de grafic şi axa deasupra zonei necritice. dar în care regiunea critică să fie un interval de forma (0.93 .07. În aceste condiţii. este superior.13 . Aceasta înseamnă să determinăm numărul a>0 astfel încât P 0  x  a |  2   0. Să construim acum alt test.07 e dt  0. Condiţia de mai sus se transcrie în forma echivalentă: de unde se poate deduce a=0. Zona necritică este intervalul (0.

va creşte valoarea lui β. Nivelul de semnificaţie α este egal cu aria suprafeţei situate deasupra zonei critice Graficul corespunde valorii θ=2. Să reluăm ipotezele: H 0 :  2 . Alegem drept zona critică a testului un interval de forma unde 239 . 11. Relaţia dintre probabilităţile α şi β În fiecare situaţie concretă este important să ştim care dintre cele două erori posibile ar produce cele mai mari prejudicii. H 1 :  1 . t  0 f t     0 . Acest fapt poate fi ilustrat geometric în condiţiile exemplului din secţiunea anterioară.8. Probabilitatea β este egală cu aria suprafeţei situate deasupra zonei necritice Graficul este trasat pentru valoarea θ=1. şi invers. Intuitiv este clar că dacă se micşorează valoarea lui α. şi să minimalizăm probabilitatea de a comite acea eroare. t  0 . referitoare la parametrul O din densitatea de probabilitate  e   t .

la dreapta lui c. a-l micşora pe β înseamnă a muta punctul c spre stânga. α= 0. dintre testele cu acest nivel α se caută unul pentru care β să fie cât mai mic cu putinţă. Invers. Intuitiv este clar că dacă numărul de observaţii pe care se bazează testul creşte. sau α= 0. A micşora pe α înseamnă a muta punctul c spre dreapta. atunci β scade. Puterea unui test Să considerăm din nou densitatea de probabilitate  e   t .05. graficul densităţii de probabilitate este trasat în figura de mai sus. apoi. O practică des întâlnită în situaţii concrete este aceea de a fixa un anumit nivel de semnificaţie ( de obicei α= 0.001). Pentru θ=1. Nivelul de semnificaţie α coincide cu aria de sub grafic. însă un număr sporit de observaţii poate angaja costuri suplimentare considerabile.9. Este clar că alegerea lui c determină valorile lui α şi β. În această figură este trasat graficul densităţii pentru θ=2. la stânga lui c. 240 . t  0 .01. t  0 f t     0 . evident că aşa îl vom mări pe β. 11. ceea ce îl măreşte pe α. probabilitatea β coincide cu aria suprafeţei de sub grafic.

probabilitatea ca noi să acceptăm în mod eronat ca valoare a parametrului numărul 2. Considerăm drept zonă critică intervalul . funcţia de putere P(θ) descrie probabilitatea ca să aparţină zonei critice.5. în particular. valoarea eronată 2 este respinsă cu probabilitatea 0. va fi egală cu 1  e  . Această funcţie descrie probabilitatea ca testul să respingă ipoteza H0 atunci când ea este eronată. În general.13. În cazul exemplului de mai sus avem: P    1  e   .61. ipoteza alternativă H1 nu mai specifică o valoare cunoscută a lui θ. 2 . Pentru fiecare valoare θ a parametrului. sau puterea testului. aşa încât nu mai putem indica o valoare numerică a probabilităţii β. 241 . Într-adevăr    este probabilitatea ca să aparţină zonei necritice când valoarea parametrului este θ 1  t     0 e dt   e  t |10  1  e  . când adevărata valoare este θ. funcţia p    1     se numeşte funcţia de putere a testului. P(2) = 0. Vom testa ipoteza H 0 :  2 . în prezenta ipotezei alternative H 1 :  2 .13. Dacă θ = 1. care va înlocui ipoteza alternativă θ=1 considerată anterior. Aşadar.37. aceeaşi valoare eronată 2 este respinsă cu probabilitate 0. putem însă determina expresia lui β ca funcţie de variabila   0. iar dacă θ =0. ceea ce înseamnă ca nivelul de semnificaţie este α=0. graficul acestei funcţii este schiţat mai jos. De data aceasta.

Încă un exemplu Ni se dă o monedă şi ni se cere să decidem dacă este sau nu trucată.p va fi probabilitatea de a obţine faţa B). H1 : Testul va consta din a arunca moneda de 100 de ori. Media lui X va fi np = 50. iar dispersia npq = 25. ipotezele H0 şi H1 sunt de natură calitativă.11. 35 40 45 50 55 60 65 Vom determina zona critică în aşa fel încât nivelul de semnificaţie să fie 0. dacă notăm cu p probabilitatea de a obţine faţa A la o aruncare a monedei ( şi deci q = 1 .05. Atunci putem scrie: H0 : . Să notăm prin X numărul de apariţii ale feţei A în cele 100 de aruncări. X este o variabilă aleatoare repartizată binomial cu parametrii şi . Aproximând distribuţia binomială printr-o distribuţie normală cu media 50 şi dispersia 25. Avem de testat ipoteza H0 : moneda nu este trucată în prezenţa ipotezei alternative H1 : moneda este trucată Astfel formulate.10. le putem transcrie sub o formă cantitativă. Sub ipoteza H0. Folosind tabele pentru legea normală deducem 242 . numerică. densitatea lui X va fi aproximativ cea schiţată in figura următoare.

Să presupunem acum că în realitate p = 0.05. nu există suspiciuni (la nivelul de semnificaţie 0. 2. moneda este trucată.98. Probabilitatea ca această concluzie să fie greşită este mai mică decât 0. În practică şirurile binare sunt produse de generatoare.05) că moneda ar fi trucată.60].5 cu probabilitatea 0. Atunci distribuţia reală a lui X va fi aproximativ normală cu media 70 şi dispersia 21. Acest experiment ideal este neconvenabil pentru scopuri practice. şi ele urmează să fie testate din punct de vedere al caracterului aleator. dar noi nu ştim asta. 11. Testarea şirurilor binare Avem în vedere şiruri finite (numite şi secvenţe) formate cu simbolurile 0 şi 1. Înseamnă că zona necritică va fi intervalul [40. Aruncările sunt independente unele de altele şi rezultatele aruncărilor până la un anumit moment nu influenţează în nici un fel rezultatele aruncărilor viitoare. Testarea statistică a şirurilor binare Să considerăm un şir binar care urmează să fie testat.7. Dacă faţa A apare de un număr de ori cuprins între 40 şi 60.11. Un astfel de şir aleator poate fi interpretat ca rezultat al aruncărilor unei monede netrucate având feţele notate cu 0 şi 1.3 testul nostru va respinge ipoteza greşită p=0.12. Atunci probabilitatea β pentru testul nostru va fi Folosind funcţia de putere. 11. Vom formula ipoteza H0 : şirul dat este aleator şi ipoteza alternativă H1 : şirul dat nu este aleator. calculate în mod similar. avem Alte valori ale funcţiei de putere. 243 . iar cea critică exteriorul acestui interval. dacă p=0. sunt Cu alte cuvinte. Dacă faţa A apare de un număr de ori mai mic decât 40 sau mai mare decât 60. Aşadar testul nostru poate fi rezumat astfel: 1.

O eroare de tip II înseamnă în cazul de faţă să acceptăm drept aleator un şir produs de un generator imperfect. cu alte cuvinte. în mod eronat.05.83. Dacă acceptăm ipoteza H0. Este deci important să alegem nivelul de semnificaţie α adecvat problemei concrete pe care o avem de rezolvat. Folosind tabele pentru legea normală fixăm un prag xα astfel încât Zona critică a testului va fi  . dacă α=0. În mod curent se consideră că o valoare prea mică a lui α măreşte riscul unei erori de tip II.05. Valoarea x a statisticii X pentru şirul dat se compară cu valoarea aşteptată de la un şir aleator. aparţine zonei critice. Pragul xα se determină (folosind tabele pentru legea ) din condiţia Zona critică a testului va fi Dacă valoarea x a lui X. adică probabilitatea de a comite o eroare de tip I.1). Dacă valoarea x a lui X. se alege de multe ori α= 0.    . Dacă . nu sunt suspiciuni că şirul ar fi nealeator.05. fie valori foarte mari pentru şirurile nealeatoare. a. adică şirul va fi considerat nealeator. aparţine zonei critice. De obicei se aleg statistici care pot fi calculate în mod eficient şi care urmează o lege normală sau .01. De exemplu. atunci xα=12.025. Probabilitatea β de a comite o astfel de eroare depinde de natura imperfecţiunii generatorului. b. com accepta ipoteza H0. Să presupunem acum că statistica X este distribuită cu γ grade de libertate. şi este dificil de estimat în practică. ipoteza H0 va fi respinsă la nivel de semnificaţie α. calculată pentru şirul considerat. Fiecare test se bazează pe o statistică X a cărei valoare numerică se calculează pornind de la şirul considerat. cu alte cuvinte măreşte riscul de a accepta drept aleatoare şiruri produse de un generator imperfect. şi că ia fie valori foarte mici.96.001 şi 0.025. atunci xα = 1. un risc mare ca testul să declare drept nealeatoare şiruri care au fost produse în mod aleator. ipoteza H0 este respinsă la nivelul de semnificaţie α. O valoare mare a lui α indică un risc mare ca testul să respingă ipoteza H0 când ea este în realitate adevărată. În practică se foloseşte un nivel de semnificaţie α cuprins între 0. dacă γ=5 şi α=0. 244 . şirul este considerat nealeator. Să presupunem că statistica X cu care lucrăm este distribuită N(0.  x    x . cu alte cuvinte. De exemplu. şi că ia valori foarte mari pentru şirurile nealeatoare. nu sunt suspiciuni (la nivel de semnificaţie α) că şirul ar fi produs de un generator imperfect. calculată pentru şirul testat. probabilitatea ca un ir aleator să fie respins ca nealeator este de 0. Alegem un nivel de semnificaţie α. probabilitatea ca un şir aleator să fie declarat. ca nealeator este de 0.

Examinând figura de mai sus deducem că urmatoarele afirmaţii sunt echivalente. Aşadar şirul testat va fi respins ca nealeator (la nivelul de semnificaşie α) dacă şi numai dacă P-valoarea calculată pentru el este mai mică decât α.13. Vom prezenta această noţiune în cadrul exemplelor (a) şi (b) de mai sus. Probabilitatea se numeşte P-valoare. fie x valoarea numerică a lui X pentru şirul testat.11. ci se preferă folosirea aşa-numitei P- valori. a. În condiţiile acestui exemplu. 1) X aparţine zonei critice 2) 3) 4) Din echivalenţa condiţiilor (1) şi (4) deducem că ipoteza H0 va fi respinsă dacă şi numai dacă P-valoarea este mai mică decât α. Probabilitatea P  X  x  se numeşte P-valoare. Noţiunea de P-valoare Uneori nu se lucrează cu pragul xα. Fie x valoarea numerică a lui X pentru şirul testat. 245 . b. descrise în secţiunea precedentă.

xα x Examinând această figură conchidem că următoarele afirmaţii sunt echivalente: 1) x aparţine zonei critice 2) x > xα 3) 4) Echivalenţa condiţiilor (1) şi (4) arată că ipoteza H0 va fi respinsă la nivelul de semnificaţie α dacă şi numai dacă P-valoarea este mai mică decât α. şirul testat va fi respins ca nealeator dacă şi numai dacă P-valoarea calculată pentru el este mai mică decât α. 246 .

adică unde z>0. k = 0. Notăm Atunci X este repartizată aproximativ N(0. 2.14. 10 şiruri ca fiind nealeatoare. Sub ipoteza H0. vom determina pragul xα din relaţia 247 . iar nivelul nostru de încredere în corectitudinea acestei decizii este 99%.n. în rezumat. Un şir cu P-valoarea mai mică decât 0. adică . Fixând nivelul de semnificaţie α.01 va fi declarat nealeator. tot acolo am văzut ce fel de consideraţii pot fi făcute în legătură cu probabilitatea β (de a accepta ca aleator un şir care de fapt nu este aleator) şi în legătură cu puterea testului. la nivelul de semnificaţie α=0. În cazul specific al şirurilor binare. Iată. având de testat un şir dat. Dacă pentru un şir dat P-valoarea este mai mică decât 0. O astfel de testare a fost descrisă anterior. unul singur ca fiind nealeator. Formulăm ipoteza H0 : şirul este aleatoriu Statistica Sn va indica numărul de apariţii ale cifrei 1. ne putem imagina că el a apărut ca rezultat al aruncărilor unei monede. şi rămâne să testăm dacă moneda este netrucată. două concluzii. 1. Considerăm un şir binar de lungime n. în media. 11.001. şirul va fi declarat nealeator.…. iar probabilitatea ca această decizie să fie greşită este 0. un test cu nivelul de semnificaţie α=0. în medie. Prin urmare. metoda respectivă de testare poate fi descrisă astfel.05.001.1. Din 1000 de şiruri aleatoare.001. cu parametrii n şi .2. din 1000 de şiruri produse aleator. Dacă testul a fost proiectat pentru nivelul de semnificaţie α=0.01 va respinge. el va respinge. Sn este repartizată binomial. Un exemplu: statistică repartizată normal Am observat deja mai sus că aruncând o monedă netrucată generăm un şir binar aleator.1).

deci 248 . acceptăm ipoteza că şirul este aleator.96.05 = 1. să notăm cu x valoarea numerică a lui X: Atunci P-valoarea asociată şirului va fi Cu scop ilustrativ.58. De exemplu. să considerăm exemplul şirului binar 1011010101 Să fixăm nivelul de semnificaţie α = 0. Pentru un şir dat. De altfel putem calcula şi P-valoarea pentru acest şir. x0. iar x0. ea este Să considerăm acum şirul binar 1111011111 Avem n=10.01.58. Sn=9. Sn=6.01 = 2. deci Întrucât 0 < x < xα. Avem n=10. ceea ce determină pragul xα = 2.

Considerăm un şir binar de lungime n = MN. iar dispersia În aceste condiţii variabila aleatoare este repartizată aproximativ cu N grade de libertate. Media lui Mi este . altfel spus. dar este respins de testul cu nivelul de semnificaţie 0. Atunci putem scrie 249 .01. Alt exemplu: statistică repartizată χ2 Fie M şi N numere naturale fixate.05. densitatea ei de probabilitate este funcţia Este comod să notăm cu frecvenţa relativă a cifrei 1 in blocul i. Notăm cu Mi numărul de cifre 1 în blocul i.15. pe care îl împărţim in N blocuri consecutive de lungime M. Mi este o variabilă aleatoare binomială cu parametrii M şi ½ . altfel spus. P-valoarea calculată pentru acest şir este şirul trece (aproape la limită) testul cu nivelul de semnificaţie 0. 11. Sub ipoteza H0 : şirul este aleator.

815. deci şirul este considerat aleator la nivelele de semnificaţie 0. Aceeaşi concluzie se obţine comparând valoarea x=1 cu pragurile x0.01 şi 0. Cu scop ilustrativ. aşa cum se arată în exemplul de mai sus. Această variabilă aleatoare cu N grade de libertate poate fi folosită la testarea şirului. şi considerăm blocurile 011.01 = 11.341 şi x0. 001. să considerăm şirul 011001101 Alegem M=3. Acum putem calcula valoarea x a variabilei X: Lucrăm cu 3 grade de libertate. 101 Cu notaţiile anterioare.80. 250 . din tabele găsim că P-valoarea şirului este 0. N=3.05 = 7.05.

i se asociază o repartiţie de valori a variabilei Y. realizările variabilei Y. X şi o alta Y. unei singure valori. apoi se va fundamenta modelul liniar multiplu. (12. incluzând particularităţile modelului liniar simplu. D fiind mulţimea valorilor variabilei X. este necesară studierea posibilei corelaţii existente între cele două variabile. Capitolul 12 Analiza regresiei Introducere Analiza de regresie îşi are originile în nenumăratele probleme practice. în studiul a două sau mai multe fenomene. estimarea coeficienţilor modelului prin metoda celor mai mici pătrate. care apar atunci când dorim să înţelegem şi să cuantificăm aspectul cauză-efect. x  D . x  D . de modelul de regresie simplă 251 . Y este o variabilă aleatoare cu distribuţia de probabilitate depinzând de x. a variabilei X. de medie f  x  . legătura funcţională. x  D . Pentru a vedea cum afectează valorile lui X.1) Ţinând cont de caracteristicile valorii medii condiţionate. Un exemplu clasic este acela care studiază înălţimea unei persoane. Dacă pentru fiecare valoare.1. precum şi aspecte privind previziunea pe baza modelului de regresie.1. inferenţa asupra modelului în ipotezele Gauss-Markov. prezentându-se principalele tipuri de modele de regresie. o legătură directă între Y şi X va fi dată atunci. definită cu ajutorul valorii medii condiţionate. vom numi funcţie de regresie a lui Y pe X. că fiecare element al unei populaţii statistice posedă o caracteristică numerică. Vom vedea în cele ce urmează câteva generalităţi ale problemei regresiei. a lui X . x. care conţin ca şi caz particular. aferent dependenţei totale. Definiţia 12. Principala noţiune cu care operează acest capitol este noţiunea de model de regresie. în funcţie de cea a tatălui. de natură diversă.1. În cazul legăturilor statistice. f  x   E Y x . Modele de regresie Să considerăm. funcţia f  x  . spre exemplu.1. 12.

pentru a explica în totalitate..  i  IR .  i poate cuprinde pe lângă erorile de specificare şi erori de observare. Y  f X    . că funcţia f are o anumită formă atunci vorbim de regresia parametrică. Vom considera în cele ce urmează. în unul statistic. funcţia de regresie f. sau măcar să estimăm. Din punct de vedere al punctului de plecare. deosebim regresia parametrică şi regresia neparametrică. Deşi X 1 . regresori). X p sunt considerate variabile deterministe.  .. Y (variabilă endogenă).minimă şi are semnificaţia de eroare de specificare. ale variabilei X... în cazul în care valorile variabilei Y şi eventual. predictori.. yi .. fenomenul cuantificat de Y.. X 1 ...  2 . pentru variabila efect.. X 2 .1.. X p . Desigur. este necesar să determinăm. X 2 .  1 .1. (12. i  1. care reprezintă de fapt. Modelul de regresie multiplă este modelul de forma Y  f  X 1 .. pentru un model de regresie simplă. Y împrumută de la  . ci doar cele aleatoare. E bine de ştiut faptul că. (12. Astfel. pentru variabilele X şi Y şi se obţine modelul observaţional y i  f  xi    i . caracterul aleator. cea din urmă nefiind obiectivul acestui capitol. i  1. în urma unor măsurători... X p   f X 1 .2) unde  satisface condiţiile E    0 şi Var   . (12. X 2 . eroare datorată faptului că variabila/variabilele luate în considerare nu sunt singure suficiente. Definiţia 12..4) se numeşte model de regresie parametrică. în procesul de estimare a funcţiei de regresie f.3) unde  reprezintă o variabilă aleatoare. Modelul de regresie în care funcţia este de forma f X 1 ..1. fiind cel care transformă modelul matematic.1.1. Dacă în determinarea funcţiei de regresie se pleacă de la ideea (desigur pe cât posibil fundamentată). o selecţie de volum n. pentru care E    0 şi V   mică. q . strict funcţional.. aşa cum se întâmplă şi în practică. se porneşte de la datele xi . i  1. spre exemplu. n . 252 .. n ... X 2 . X p . pe baza unor date de selecţie.. Odată specificat un model de regresie. q .. termenul eroare. X 2 . posibil afectate de mici erori.2.. se presupune că în modelul de regresie nu intră erorile sistematice. ne sunt puse la dispoziţie. mai multe variabile cauză (variabile exogene. X p    ..3. Definiţia 12.

X k k 1 2 . 2 .. modelele neliniare liniarizabile. p . dacă funcţia f este liniară în variabilele X 1 ... f (mai bine zis a estimatorului căutat). vectorul  şi implicit f. Astfel de modele pot fi liniarizate prin substituţiile.  . multe dintre modelele neliniare şi chiar neparametrice... Modelele de regresie parametrică pot depinde. 1 . q   B  IR q . X p .. cum ar fi criteriul celor mai mici pătrate.. făcând apel la caracteristicile acestora. din date. X p . în analiza regresională.. p     k X k . X 2 . excepţie făcând un număr finit de parametri necunoscuţi.. ţin de un domeniu important în analiza regresională şi anume.1. regresia liniară... va fi o curbă care ajustează. X 2 . Vom spune că avem o regresie liniară.  este cunoscută. o parte dintre acestea fiind şi modelele liniare în parametri.. modelul în care funcţia de regresie este de forma q f X . 253 . X p  . se observă că un model de regresie parametrică presupune cunoscută forma funcţiei de regresie.. Există însă o grupă de modele neliniare.....6) k 1 adică este presupusă liniară.1... Reprezentarea grafică a estimatorului funcţiei f.1. cu    1 .5.1.. Plecând de la definiţie. X p adică asupra funcţiei de regresie facem presupunerea că are forma p f X 1 . care pot fi tratate tot prin intermediul tehnicilor regresiei liniare şi anume.. Evident. Folosind metode de estimare adecvate bazate pe minimizarea erorii din model. Tehnicile de estimare punctuală şi inferenţială.. Definiţia 12. revine la estimarea lui  . în raport cu parametrii  1 .. prin specificarea modelului. Definiţia 12.. (12.. Modelele liniare sunt cele mai simple şi mai utilizate modele. 1 . obţinut prin astfel de metode.... din mulţimea de curbe permise.4. X 1 2 .5) k 1 Orice altă formă a funcţiei f presupune regresie neliniară. într-o manieră liniară sau neliniară. de parametri. cel mai bine datele.. q      X ... într-un model de regresie parametrică. e posibil să se estimeze. Forma liniară a funcţiei de regresie şi metoda celor mai mici pătrate utilizată în scopul estimării parametrilor sunt cele mai des întâlnite. 2 . Se numeşte model de regresie liniarizabil în parametri. estimarea lui f. utilizate în determinarea modelului liniar. (12. adică  f   f .. dacă f .

 0 . cum ar fi logaritmarea.. cum ar fi metoda iterativă Gauss . 1 . B   log f  X . atunci când modelul este liniarizabil. dat de funcţia f  X . 254 . cu funcţia de regresie  1 f  X . pot fi tratate. în care f X . dar liniarizabile în urma unor operaţii. substituţie.. dat prin f  X .. sistemul care derivă din criteriul celor mai mici pătrate fiind neliniar. Modelele neliniarizabile ţin exclusiv de regresia neliniară. Pentru modelele neliniare. modelul Y   0   1 X  2   . adică acelea în care se presupune că funcţia de regresie este liniară în parametri. k  1. Este deja bine cunoscută formularea. B)  A  X  B .1. B  log  2 . bazate în special pe metode iterative. se preferă mai întâi liniarizarea lui. q. Există însă şi alte modele neliniare. Tot din grupa X X modelelor neliniare. q    0   1 X  . X 2 . Modelele neliniare în parametri. fac parte şi modelele care se reduc la modelul liniar. care nu pot fi liniarizate. ţin de regresia liniară. Aplicarea regresiei liniare pe modelul transformat are avantajul că estimatorii se bucură de proprietăţi mai bune şi dezavantajul că modelul obţinut este doar o aproximare a celui iniţial (a se vedea cazul modelului exponenţial.. X p   Z k . 0 . în care erorile intră aditiv în modelul iniţial). dificultăţi de rezolvare. se obţine doar o aproximare rezonabilă a modelului iniţial. liniarizabil prin substituţia  Z . A. cum ar fi de exemplu. 1 .   q X q (12. pe avantajele obţinute din liniaritate..7) şi din care pentru q=1 derivă modelul de regresie liniară simplă. A.8) Un astfel de model este şi modelul hiperbolic.  1    0   1 X . 1 . În cazul modelelor care nu pot fi liniarizate. dar liniarizabile. cât şi cu cele ale regresiei neliniare. deoarece studiul lor se face cu tehnicile acesteia. se întâmpină de cele mai multe ori. se aplică tehnici ale regresiei neliniare. (12. 1 .. deşi în acest fel. în urma mai multor operaţii: logaritmare.1. atât cu tehnici ale regresiei liniare. care se liniarizează prin logaritmarea log f  X . obţinându- se modelul liniar dat prin F ( X ..  2  şi A  log  1 ..  k  X 1 .Newton.. care va duce la un sistem liniar de ecuaţii normale şi nu aplicarea directă a criteriului. liniarizabile prin substituţie. motiv pentru care.  2   log  1  X  log  2 şi substituţiile F  X . Un X exemplu este modelul exponenţial.  1 .  2    1  2 . un exemplu fiind modelul de regresie polinomială. că modelele neliniare.. regresie în care tehnicile nu mai pot fi fundamentate. etc.  2    1   2 .

..1) k 1 Problema regresiei liniare constă în studiul comportării variabilei Y. şi pentru erorile  i . între variabila Y şi variabilele X 1 . x 2 p  y    y1 ..... n  p .3) Pentru datele de selecţie corespunzătoare lui „i”..2. ne ocupăm de aspecte privind ajustarea modelului liniar. notaţiile matriceale :     1 .1) devine modelul observaţional (cu datele observate). p .. Pentru parametrii  k ... forma observaţională/matriceală şi forma ajustată a modelului liniar.. Se numeşte model regresional liniar multiplu. în raport cu factorii X 1 ..    x xn 2 . X p ... Estimarea coeficienţilor de regresie se face pe baza unei selecţii de volum n. X 2 .... p şi a termenului aleator.. (12.. Modelul liniar. x1 p     x 21 x 22 .2.1).. modelul (12.  n   IR n . matricea x se numeşte matrice de design. X p . Pentru datele de selecţie (şi atunci când este cazul pentru variabilele de selecţie).2..2. y n   IR .  . k  1.4) k 1 255 . n . p y i    k xik   i .     1 . i  1. . .  2 . y 2 .. corespunzătoare datelor de selecţie..1.. Acest studiu revine la evaluarea parametrilor (coeficienţilor) de regresie.. x p    n ... (12.12...  2 . X 2 .. X 2 . x  x1 . (12.. vom folosi următoarele notaţii:  x11 x12 .2. Estimarea parametrilor modelului prin metoda celor mai mici pătrate În acest paragraf. modelul p Y   k X k   .2.. (12. vom folosi de asemenea..  2 ..2) . precum şi condiţia care garantează existenţa soluţiei ajustării de cele mai mici pătrate..2.. x np   n1 În cazul în care analistul are control asupra alegerii variabilelor.  1 .. Sunt amintite forma teoretică. Definiţia 12........2. . X 1 .. p   IR p .. în ipoteza (12. X p .

În vederea estimării lui  .2. (12.5). xik . x. de existenţa inversei matricei x x . Se numeşte model liniar. este de dorit să fie mică. a 2 . k  1. p . e2 . n . depinde aşadar. este x xa  x y (12. i  1.2. la care revine condiţia de minim.. modelul y  xa  e . (12. Sistemul de ecuaţii.2.  şi  sunt cele din notaţiile (12. a p   IR p realizează minimul expresiei (12.6). Obţinerea estimatorilor de cele mai mici pătrate a.9) 256 .2. n.2.. Notaţiile a şi e desemnează estimatori punctuali ai lui  şi  .3. atunci când y i . doar asupra ajustării prin criteriul celor mai mici pătrate.5) în care y . iar ee . y  x   .2.. i  1. n . i  1.7).. Ne vom opri aici. (12. e n   IR n  este valoarea minimă obţinută. ataşat modelului (12..2.2) şi (12.8) şi se numeşte sistemul de ecuaţii normale (Gauss). (12. Teorema 12..7) unde a   a1 .ceea ce. ajustat prin criteriul celor mai mici pătrate. duce la forma matriceală a modelului liniar observaţional. pentru coeficienţii de regresie necunoscuţi  . se ajustează modelul (12.. atunci soluţia ajustării prin criteriul celor mai mici pătrate este dată de formula 1 a   x x  x y .6) i 1 Definiţia 12. desemnează variabilele de selecţie şi estimaţii punctuale (valori nenule)..2.2.3). k  1. Dacă rang  x   p . care revine la condiţia rang  x x   p . care dă condiţii de existenţă (unică) a estimatorilor de cele mai mici pătrate (a se vedea de exemplu [30]).2. care aşa cum am subliniat încă din paragraful introductiv al acestui capitol.2. care constă în minimizarea expresiei n      i2 . atunci când prin y i . i  1.2.2. printr-o condiţie de minim asupra erorii. cu e  e1 . înţelegem date de selecţie. n. n . pentru i  1. p . xik . Se cunoaşte următorul rezultat.

11) p 1 a p  y   a k xk .. (12.. Se numeşte model liniar cu termen constant. adică ~  z  Pz  z  z ...2. x p1   M n. modelul poate fi scris în forma modelului liniar oarecare.. p 1   IR p 1 . Notăm cu ~z . matricea de influenţă în modelul liniar fiind de 1 forma H  x  x x  x  . matricea H care transformă valoarea y.  0   1 . a 2 . ajustarea prin metoda celor mai mici pătrate are soluţia unică dată de  a0  a1 . a p 1   ~ x 0 ~ x0  ~ x 0 ~ 1 y. Fie matricea de centrare. câteva noţiuni utilizate şi în teoria modelelor de regresie oarecare.    0 . p 1 . y  x0 0  u p   .3 are loc şi în cazul modelului liniar cu termen constant.. Condiţia rang  x   p revine la independenţa liniară a vectorilor x1 . valoarea e  y  yˆ   I  H  y . vectorul n  centrat corespunzător lui z  IR n . yˆ  Hy . Definiţia 12... Amintim în continuare. P  I  uu  .  p  . Se numeşte valoare ajustată a lui y (în modelul liniar). va arăta atunci astfel.. este modelul liniar cu termen constant. u   1.. Se numeşte matrice de influenţă a modelului. x 2 . media de selecţie. y  x   . Dacă notăm x   x0 : u . z  z . Dacă rang  x   p şi x   x 0 : u  . Un caz particular al modelului liniar.. valoarea yˆ    yˆ1 . un model liniar în care una dintre variabile este înlocuită de constanta 1. 1 Teorema 12. yˆ 2 ..2..2... scris pe baza datelor de selecţie în forma matriceală...2..4.5...10)  cu notaţiile  p  IR . x0  x1 .6. Definiţia 12.  2 ... O teoremă similară cu Teorema 12. x p .2.. care face mai uşor trecerea la modelul liniar simplu (cu o singură variabilă exogenă)... adică. în valoarea ajustată ŷ .1  IR n . Modelul observaţional. definită de yˆ  xa ... cu 1 2 n  z . k 1 257 . (12.. Se numeşte reziduu. z  z .2. yˆ n   IR n .

3. avem x 258 .1.5.2.8. prin urmare.8.2. prin centrarea vectorilor de pe coloană. xi .85.1. obţinem y  0. cov x.8. Se va considera un eşantion de 15 zile.9. n . -0. 0. se consideră p  2 .2.7. Teoria economică privind gestiunea portofoliului susţine că rentabilitatea unei acţiuni este influenţată de modificarea indicelui general al bursei. 2. 18. -17. 4. (12. cu valorile: Y(%): -2. xik . 0. 3.11) dau reprezentarea estimatorilor a şi b.8.5. y  reprezintă covarianţa între x şi y. 5. Pornind de la această idee.4. 2 S  36 . 0.4.2. conform formulelor de calcul pentru a şi b . X.9. 2. y i  xi     i .2.6.8.2. i  1. 0.8 X(%): -0. S x2  x  2 i x i 1 (12. Exemplul 12.13) b  y  ax . se pune problema determinării estimatorilor de cele mai mici pătrate pentru coeficienţii unui model liniar simplu care să descrie corelaţia dintre rata rentabilităţii unor acţiuni. Soluţie Pe baza eşantionului. 7.unde ~ x0 este matricea obţinută din matricea x0 . varianţa lui x.1. 1.4. 1.12) care cu ajutorul datelor de selecţie se scrie.5.2. 1.  .32 . ([17])).2. 0. 3. x  2. În acest caz. y i . 1. obţinem modelul de regresie liniară simplă. n  x i 1 i   x yi  y  cov x. notează mediile de selecţie corespunzătoare valorilor y i respectiv. -2. Observaţia 12. y   41 .5. 0. unde cov x.6. 5.0. 16.8. Y  X     . -13. ai coeficienţilor  şi  şi anume. Dacă în Definiţia 12.  i . adică de evoluţia pieţei în general (modelul de piaţă Sharp-Markowitz. 1.9. n. 3. y  a n  .   IR . 0.7. iar S x2 .0. Y şi rata rentabilităţii pieţei. i  1. iar y şi x k .5. 0.9.2. relaţiile (12.

.Vom începe prin a preciza ipotezele clasice în care se lucrează într-un model liniar.   0.  j   0.3. i  j.6) Condiţiile puse asupra erorii se transferă asupra variabilei aleatoare.4) Condiţia (12. În continuare.   N  .3.3.85   2.13 şi b  0.  259 . 12. se păstrează notaţiile referitoare la forma teoretică. precum şi intervalele de încredere privind coeficienţii şi de asemenea.  E     . calităţile estimatorilor în aceste ipoteze. ipoteze care. duc la bune proprietăţi ale estimatorilor.1) Var    E       2 I .5) cov i . (12. câteva din testele cunoscute. referitoare la coeficienţi. i.3.  2 I ..3.3. n . 2 I  . Inferenţe asupra estimatorilor unui model liniar În acest paragraful tratăm aspectul probabilist al regresiei. j  1.Markov.2)  N (12. cercetând calităţile estimatorilor de cele mai mici pătrate. n ..2) se poate scrie şi sub forma relaţiilor Var  i    2 . deşi nu neapărat de neînlocuit. adică avem  y  N x .3. 41 41 a  1.32  1. i  1. Sunt amintite ipotezele clasice. Modelul liniar clasic Gauss .76  1. Aceste ipoteze se referă la distribuţia erorilor şi anume. calităţi obţinute sub anumite ipoteze de natură probabilistă. forma matriceală şi forma ajustată a modelului. pe tot parcursul acestui capitol.13  X   .76 şi modelul ajustat este 36 36 Y  1. (12.0.3) sau altfel spus.3.. precum şi condiţia rang  x   p . (12. câteva statistici utile în inferenţa asupra coeficienţilor. (12. (12. făcute asupra erorii.0   IR n .

numindu-se modelul liniar Gauss-Markov.i. al lui  . vom sublinia faptul că y . În ipotezele Gauss-Markov. Dacă la ipotezele Gauss-Markov. În ipotezele Gauss-Markov. n  p i 1 n p (12. are varianţa mai mare decât varianţa lui a. 260 ..3).. nedeplasat pentru  şi liniar în observaţiile lui y.3.3.3. al lui  .. se adaugă şi ipoteza normalităţii (12. un model cu erori normale ((12. model cu erori necorelate.5)) sau prescurtat i. a şi e sunt vectori aleatori.3.4.5). Teorema 12. obţinute sub ipotezele (12.3. De asemenea. x p  .3.3. a. modelul se numeşte homoscedastic.Definiţia 12.3. Var a k   Var a~k . independente ((12. Datorită ipotezei (12.3. În plus. E a    şi 1 are varianţa Var a    2  x x  . x 2 .6). Teorema 12.3.. Înainte de a aminti principalele rezultate.  .7) 1 S  s  x x  2 sunt estimatori nedeplasaţi pentru  2 .3.3. respectiv Var a  .3.6)) şi identic distribuite ((12.. ii)Estimatorul a. unde H este matricea de influenţă a modelului. cu privire la calitatea estimatorilor de cele mai mici pătrate. pentru  şi  .1) şi (12. Pentru eroarea care satisface aceste ipoteze se foloseşte şi denumirea de zgomot alb. din matricea variabilelor de selecţie. în sensul că. iii)Estimatorul a al lui  este optimal. k  1. x p . H matricea de influenţă ataşată modelului.4).d. p . x1 . Var  yˆ    2 H . cele trei ipoteze fiind apelate ca ipotezele liniarităţii modelului.3)). este liniar în observaţiile lui y.2) sunt cunoscute şi sub denumirea de ipoteze Gauss-Markov.3. modelul liniar sub aceste ipoteze...2. deşi acestea nu ţin neapărat de un model liniar. au loc şi următoarele proprietăţi: Propoziţia 12. unde Q  I  H . Un model clasic (liniar sau nu) este de fapt. este nedeplasat. adică oricare alt estimator a~ .3.1) şi (12. atunci modelul liniar este cunoscut şi sub denumirea de model liniar clasic. estimatorii 1 n 2 1 s2   ei  e e . sunt vectori determinişti.3. a şi e.. x 2 . au loc următoarele afirmaţii: i)Estimatorul de cele mai mici pătrate. în timp ce  este un vector determinist şi de asemenea. x  x1 . avem: i)Estimatorul e al lui  este de varianţă Var e    2 Q . Ipotezele (12.1. În ipotezele Gauss-Markov. iar datorită ipotezei (12.

 Propoziţia 12. supus ipotezelor clasice (12. unde : 1 n 2 1 n p 2 S y2 / x   ei  e e  s . Oricare ar fi   IR p .3. fie de asemenea. S y2/ x . în ipoteza normalităţii. atunci ca este estimator optimal pentru c . se pot stabili şi următoarele proprietăţi.3... de verosimilitate maximă. de medie  şi matrice de varianţă.- (12. care sunt transformări liniare ale lui y.  2 I .     1 . p . respectiv de regresie de verosimilitate maximă. Mai mult. Dacă   N  . 1 s   x x   Aceste proprietăţi se bazează pe următorul rezultat din teoria probabilităţilor ([30]): Lema 12.3. Într-un model liniar.   0. Atunci când se cunoaşte legea de probabilitate a variabilei y (prin intermediul legii erorilor). în clasa estimatorilor nedeplasaţi.. ataşată ipotezelor Gauss-Markov.   i 1  a     iii)Fie U  . e    .ii)Dacă c  M q.   IR p ..  iii)Estimatorii a şi e sunt necorelaţi.5. putem vorbi şi despre estimatori de verosimilitate maximă. de cele mai mici pătrate.8) n i 1 n n De asemenea.0   IR n .i.d.3. adică cova.  2  x x  2  1 .7. Într-un model liniar clasic (cu erori normale şi i. 261 . atunci avem  i)Estimatorii a şi s sunt independenţi şi a  N  .6.. care urmează legea normală. în timp ce estimatorul de verosimilitate maximă. matricele Q  M n. Propoziţia 12.  2 I .4)). estimatorul lui  .. 2 n s 1 ii) 2  n  p  2  2 e 2 i  2 n  p  .. estimatorul obţinut prin metoda celor mai mici pătrate este un estimator eficient pentru  . U şi s 2 1    x x   sunt independente şi U  N 0.0. Ipoteza normalităţii erorilor aduce noi proprietăţi ale estimatorilor. Q   Q .4). Fie vectorul   IR n . coincide cu estimatorul lui  . pentru  2 este nedeplasat.. n ( IR) . (12.  a    T  T n  p . care furnizează statistici ce se vor dovedi utile în inferenţa estimatorilor.3.1 . p   IR p .3.

1 n  p . n ( IR ) . (12. Statisticile amintite în Propoziţia 12. pentru început. ak   k Tk  . Atunci când  este necunoscut. fixat.. din Propoziţia 12.1 2 2 grade de libertate.3... Interval de încredere pentru coeficienţi Dacă în statistica T din Propoziţia 12.9) sk unde s k2 este produsul dintre s 2 şi elementul al k-lea.3. cu n  p grade de libertate.3. care rezultă pentru un nivel de semnificaţie  . r  rang Q  .  Q  2 r  .. se poate da şi un interval de încredere pentur varianţă. Atunci. Ne vom referi. se poate construi un interval de încredere pentru coeficienţi.6. al matricei xx 1 .1  2  Desigur. în tot restul paragrafului. a unei variabile Student. în cazul în care  este cunoscut. 2 1 L  N şi vectorul aleator L ..3. LQ   . 1 Q2  Q . Pot fi de asemenea elaborate regiuni de încredere.3. la inferenţa prin intervale de încredere.11) n  p . Începând de aici.iii.6 iii.0  IR p . de forma   P a k  s k  t    k  ak  sk  t     1  .0. vom presupune adevărate ipotezele modelului liniar clasic. pe lângă estimaţia punctuală s. se particularizează     k  0. (12. pentru x  IR n şi   IR p . Pe baza acesteia.. nu mai este nevoie de operaţia de studentizare şi atunci.. diagonal. se poate folosi statistica U. pot servi la realizarea inferenţei asupra estimatorilor de cele mai mici pătrate.10) n  p .1. se obţine statistica Student. regiuni pe care nu le vom aminti aici. cu n  p n  p . împreună cu variabila aleatoare 2  Q . din relaţia   P Tk  t    1  . L  M n..3.1  2 2   unde t  este cuantila de ordin 1  . 262 .  (12.6. sunt  independenţi.

(12.9). fixat. respectiv .3. din Propoziţia 12. ale unei n  p .13) n p .Interval de încredere pentru varianţă Pe baza statisticii 2 . n  p . cu n  p n  p . vom prezenta un al doilea aspect al inferenţei asupra estimatorilor şi anume. cu n  p grade de libertate. cu n  p grade de libertate. determinate astfel încât pentru un nivel de semnificaţie  . se poate construi un interval de încredere pentru  2 .12)       n  p .1  2 2  În ultima parte a acestui paragraf.ii. Testul T pentru coeficienţii unui model liniar Ipotezele acestui test sunt ipoteza nulă.   P Tk  t   H0   1  .1 2 263 .6. ceilalţi coeficienţi fiind în afara ipotezelor.3. a statisticii Tk .3.1 2 n p . cu n  p grade de libertate.1 2 2 grade de libertate aşa încât. precizată în formula (12.  rezultă cuantila t  . să aibă loc relaţia   P 2   2  2    1 . Tk .3. H 0 :  k   k0  şi alternativa ei. a unei variabile Student.  2 2    unde 2  şi 2  sunt cuantilele de ordin 1  . (12. de forma    s2 s2  P n  p  2   2  n  p  2   1  . n  p . 2 2 2 2 variabile  . Pentru nivelul de semnificaţie  . dacă t k  t  . pe baza datelor de sk selecţie şi se respinge ipoteza nulă. de ordin 1  .1 n p.1  2  a k   k0  Se calculează valoarea t k  . H 1 :  k   k0  . n  p . testările de ipoteze asupra coeficienţilor. Testul se fundamentează pe o statistică de tip Student.

Lema 12. (12. q ( IR ) ..  n  . 264 . 1 x0  xA  M n.14) rang Q0   rang Q  rang Q  urmează legea de probabilitate Fisher-Snedecor. dacă matricea X din lemă este matricea datelor de selecţie dintr-un model liniar. H 0 :  1  . Testul F al egalităţii între q coeficienţi Se testează ipoteza nulă. cu   N  . A  M p. în modelul redus (obţinut în ipoteza H 0 ). asupra coeficienţilor unui model liniar. În cazul formulării unei ipoteze H 0 .8.15) Se observă că. Un caz particular al acestui test este cel al semnificaţiei coeficientului  k . atunci avem Q  I  H . pe care le vom prezenta. Dacă se notează Q  I  x x x  x  şi 1 Q0  I  x0  x0 x 0  x 0 . p ( IR) . se determină valoarea f  f q 1.. test bazat pe ipotezele H 0 :  k  0 şi H 1 :  k  0 . Pentru un nivel fixat  . Fie vectorul aleator     1 .3. notaţiile S 02 şi S12 reprezintă suma pătratelor reziduurilor.. q ( IR) . se bazează pe o statistică de tip Fisher-Snedecor. ce urmează legea normală. a unei statistici Fisher-Snedecor.3. 2 I  şi fie matricele x  M n. atunci statistica  Q0   Q  Q F (12. Următoarele două teste clasice.1 . unde H este matricea de influenţă. cu rang Q0   rang Q  şi rang Q  grade de libertate. 2 2 Mai mult. respectiv suma pătratelor reziduurilor.. S 02   Q0 şi S12   Q . cu alternativa. q  p . furnizată de următorul rezultat din teoria probabilităţilor ([19]). cu q  1 şi n  p grade de libertate.   q . în modelul complet (obţinut în ipoteza H 1 ). ipoteză în cadrul căreia matricea datelor de selecţie devine de forma X 0 din lemă. H 1 : ” H 0  falsă”. Vom nota pe tot parcursul acestui paragraf.n  p.. vom avea S 02  e0  e0 e0 şi S12  e  ee . astfel încât.3..

8.. intervalele de încredere de tip 95% pentru coeficienţii modelului estimaţi în Exemplul 12.336) pentru a şi (-3. vor fi (0.086. pe lângă determinarea unui mecanism. H 0 :  1  . 1.2. H 1 : ” H 0 -falsă”. Exemplul 12. în acest paragraf. care să copieze comportamentul dependenţei studiate şi acela de a putea previziona. atunci când specificarea modelului de regresie din care se obţine. Soluţie Aplicând formula (12.8.9.3. ne propunem să determinăm intervalele de încredere de tip 95% pentru coeficienţii modelului liniar simplu. O astfel de previziune primeşte credit. unde f c   este q 1 S12 o valoare calculată a statisticii F din Lema 12. deşi. pentru o valoare y 0 . Elaborarea unui model de regresie are ca scop.n  p. Reluând datele din Exemplul 12. este corectă.4. astfel încât. 12. Testul F al semnificaţiei a q coeficienţi Se testează ipoteza nulă. cu q şi n  p grade de libertate.9156. dacă f c  f . ([5]). calculată pe baza datelor de selecţie.8. Vom discuta pe rând.10). Pentru un nivel fixat  . pe baza datelor de selecţie. în special asupra erorii.1 . x p . unde f c   este q S12 o valoare a statisticii F din Lema 12. Astfel..3.. n  p S 02  S12 Ipoteza nulă se va respinge. se determină o valoare f  f q.3. adică de a obţine o estimaţie cât mai bună.. q  p cu alternativa. a unei statistici Fisher-Snedecor. este necesar să ne asigurăm că ipotezele făcute asupra modelului. P F  f H 0   1   . P F  f H 0   1   .3. înainte de a realiza previziuni asupra variabilei endogene y.. marea parte a aspectelor şi statisticilor considerate aici sunt valabile şi în cazul altor modele. -0. corespunzătoare unor noi date pentru variabilele x1 . dacă f c  f .4451) pentru b.2.   q  0. să amintim principalele aspecte care ţin de previziunea şi analiza rezultatelor unei regresii liniare. Previziunea şi analiza rezultatelor unei regresii liniare Ne propunem. în acest 265 .8.. x 2 . sunt valide. n  p S 02  S12 Ipoteza nulă se va respinge.

pentru a 266 . De asemenea. n . unde vor fi analizate în mod asemănător. pentru verificarea lor se determină modelul. atunci când n   . precizate în Definiţia 12. Verificarea normalităţii erorilor se poate face prin teste de concordanţă. pentru obţinerea unor estimatori ce urmează legea normală. pentru a nu compromite din start modelul. Mai precis. Ipoteza normalităţii. X p şi desigur. converge la legea normală. atunci când n este mare. se reprezintă reziduurile şi se calculează coeficienţii de asimetrie şi boltire ai lui Fisher. X 1 . n  dacă se respinge ipoteza normalităţii erorilor. vom aminti câteva statistici care se folosesc pentru a analiza calitatea ajustării datelor.2. avem că estimatorul de cele mai mici pătrate a. către o variabilă normală. relativ la ei ..paragraf. independente şi identic distribuite). se calculează reziduurile ei . Ambele teste se bazează pe compararea frecvenţelor cumulate empirice. de aceea le putem întâlni şi la alte modele.4 şi se analizează aceste reziduuri. al lui  . Ipoteza normalităţii Ipoteza   N este necesară pentru obţinerea unor estimatori eficienţi ai coeficienţilor şi de asemenea. absenţa corelaţiei între variabilele exogene (absenţa multicoliniarităţii). i  1. atunci când n este mare. la care se adaugă ipoteza necorelaţiei între erori şi variabilele exogene. estimatori pentru erorile  i . n  Var a  . deşi necesară. vom aminti tehnicile de verificare a lor. nu vom mai relua aici această ipoteză. Vom analiza în continuare ipotezele rămase. se introduce factorul de normalizare n şi se obţine că. sub denumirea de ipoteze ale liniarităţii modelului. X 2 . precum şi intervalul de încredere pentru previziune. se încearcă satisfacerea acestei condiţii. Pentru eşantioane mici. cu frecvenţele teoretice. Ţinând cont de aceste două aspecte. Verificarea ultimei ipoteze ţine de tehnici ale corelaţiei.. Deoarece aceste ipoteze se referă la erorile din model. prin model. nu este crucială atunci când volumul eşantionului este mare. n . se întâlnesc de fapt. de unde a  N  . deşi au denumirea de ipoteze ale liniarităţii.. corespunzătoare legii normale. ipotezele clasice. Nevalidarea acestei ipoteze duce la erori mari în model de aceea.Var a  . ipotezele respective. atunci când n este mic. deşi  nu urmează legea normală. E bine de specificat că. presupunând că ele constituie de fapt. Controlul ipotezelor liniarităţii modelului În literatură. sunt de fapt presupuneri care nu au legătură cu caracterul liniar al modelului. care fac obiectul acestui capitol.. n a    converge asimptotic. fie prin testul Kolmogorov-Smirnow (vezi [23]). N 0. fie prin intermediul testului lui Massey (vezi [15]). în cadrul unui model liniar. Teorema centrală limită (vezi [23]) ne asigură că. definite în paragraful anterior (erori normale de medie zero. i  1. precum şi posibilităţile de corectare a situaţiilor în care ipotezele nu sunt valide.

Conform Propoziţiei 12. ei ti   T n  p  1 . faptul că erorile din model nu sunt erori sistematice. Se numeşte reziduu studentizat. Verificarea acestei ipoteze se poate realiza prin analiza grafică a reziduurilor sau prin analiza (grafică sau numerică) a intervalelor de încredere. în pachetul de programe Matlab. reziduurile sunt în general corelate şi varianţele lor depind de locaţia punctelor. precum şi în intervalele de încredere referitoare la erori. T n  p  . (12. Această ipoteză arată de asemenea. nedeplasaţi.i. noţiunea de reziduu studentizat. pentru media erorii.4. Pentru prezentarea intervalelor de încredere pentru media erorii. aşa încât reziduurile rămase să se apropie mai mult de valori normale şi se va reface modelul doar cu noile observaţii. Astfel. Ipoteza zgomotului alb Presupunerea E    0 este necesară în obţinerea de estimatori a. expresia ei ti  . (12.3. În [29].7). definită în formula (12. se defineşte reziduul studentizat sub forma: Definiţia 12. În literatura de specialitate. adică E a    . fiind necesar ca valorile acestora să oscileze în jurul dreptei de ecuaţie. se foloseşte următorul reziduu studentizat.1. utilă în testele de ipoteze. este necesară studentizarea reziduurilor. y  0 .4.aprecia mărimea deviaţiei de la normalitate. utilizat şi în statistică. Astfel. iar s este eroarea standard a estimaţiei.4.4.1) s 1  hi care înainte de eşantionare este o variabilă aleatoare ce urmează legea Student. se întâlnesc de asemenea şi alte forme ale reziduurilor studentizate. într-o scalare care implică obţinerea aceleiaşi varianţe pentru reziduuri. Se vor elimina acele observaţii pentru care reziduurile sunt foarte mari. Elementul hi este elementul diagonal al matricei de influenţă H. se reprezintă grafic reziduurile. proces care constă în acest caz.3. vom aminti mai întâi. În vederea obţinerii unei statistici Student.2) s i  1  hi unde 267 .

obţinut prin omiterea datei a i-a. atunci estimatorul a va fi doar asimptotic nedeplasat. asigură obţinerea de estimatori optimali. Definiţia 12.4.3) n  p  1 n  p  11  hi  este estimatorul varianţei erorilor  2 . are valori cuprinse între –1 şi 1 şi se va calcula cu formula 268 . În cazul respingerii ipotezei de zgomot alb asupra erorii. i  1.4. este mic ([15]). p . Aceste intervale pot fi reprezentate printr-un grafic cu bare.4) n  p 1. precizat prin limitele sale. parametrul cov X . respingere făcută pentru pragul de semnificaţie  . X şi Y. între două variabile aleatoare. (12. a variabilei Student.4.3).5)  X  Y  X  Y Coeficientul de corelaţie liniară simplă Pearson.1 2  unde t  este cuantila de ordin 1  .4. Y    . Numim coeficient de corelaţie liniară simplă (Bravais- Pearson). 2 2 e ei2 s  i    (12. Intervalele de încredere care nu-l includ pe 0 sunt echivalente cu respingerea ipotezei că E    0 . fiind astfel.1 2 2 grade de libertate.4) nu-l conţine pe 0. Ipoteza necorelaţiei erorilor cu variabilele exogene Ipoteza inexistenţei unei corelaţii între eroare şi câte o variabilă exogenă X k . (12.2. S-a constatat că deplasarea asimptotică obţinută pentru a este mică. se elimină acest neajuns. Acelaşi program foloseşte următorul interval de încredere pentru media erorii. între  şi X k . n 1  p . Dacă există corelaţie între acestea. atunci când coeficientul de corelaţie liniară simplă. ei  t  s i  1  hi . definiţia coeficientului de corelaţie liniară simplă.4. împreună cu reziduurile ei . k  1. cu n  p  1 n  p 1. prin metoda celor mai mici pătrate. Y  E  XY   E  X   E Y  r X . de selecţie. Amintim aici. numărul gradelor de libertate din model. n . iar s  i  este cel din (12. prin scoaterea din model a acelor observaţii pentru care intervalul de încredere (12.4.

corelaţia între variabila reziduală şi variabila exogenă X k se poate testa printr-un test de corelaţie. Atunci când corelaţia este mare. (12.4.. Într-un model heteroscedastic avem. iar dacă X. De asemenea.7) 1  rˆ 2 urmează legea Student. Aceleaşi informaţii se pot obţine. nu sunt liniar corelate. n  x i   x yi  y  rˆ x. mare şi e de preferat încercarea unui alt model. nu este îndeplinită.. este acelaşi. foarte rar satisfăcută în practică. cu n-2 grade de libertate. V  i    2 . prin urmare.4. 269 .. n . ipoteză care presupune necorelaţia. deplasarea asimptotică a estimatorului va fi de asemenea. Condiţia V  i    i2 . modelul se numeşte heteroscedastic. Într-un astfel de caz.  fiind pragul de semnificaţie al testului. p . În cazul în care valoarea calculată a statisticii (12. analizând graficul în care reziduurile sunt reprezentate în funcţie de valorile observate ale variabilei X k .Y sunt normale şi r  0 . Aşadar. variabilele sunt liniar corelate. creşte şi eroarea medie de estimare. În cazul în care r se apropie de 0. cu n  2 grade de libertate. însă influenţează varianţa acestuia. existenţa acesteia ducând la concluzia că există corelaţie. i  1. bazat pe ipoteza H 0 : r  X k .7) depăşeşte cuantila de ordin  . se cunoaşte că statistica rˆ 2 T  n  2  (12. Graficul respectiv nu trebuie să dea impresia vreunei tendinţe. Ipoteza homoscedasticităţii modelului În cazul în care condiţia de homoscedasticitate (erori identic distribuite).    0 . eroarea V a  a estimatorului creşte. a unei variabile Student. se respinge ipoteza H 0 . adică atunci când ordinul de mărime al variabilelor. pentru diverse observaţii. numai atunci când lipseşte corelaţia între  i2 şi x ki . rezultă că intensitatea influenţei variabilelor exogene asupra celei endogene diferă de la o observaţie la alta. Această condiţie este însă..  22 . y   i 1 .4. Astfel. variabilele sunt independente.6) n n  x   y  2 2 i x i y i 1 i 1 Dacă r se apropie de 1. în general dacă modelul este heteroscedastic. n2 nu afectează nedeplasarea estimatorului a de cele mai mici pătrate. i  1. sau   V    diag  12 . V a   0 .

Pentru corectarea heteroscedasticităţii se utilizeză în general. se scalează modelul astfel. i  1. cum ar fi testul lui Bartlet (vezi [15]). bazat pe legea 2 .  j   0. j  1. Cazul când reziduul t i este mare generează îndoieli asupra faptului că reziduul are aceeaşi varianţă ca şi celelalte. precizate în formula (12. n . n . rescalarea modelului. dacă V  i    i2  x12i x 22i . Pentru testarea homoscedasticităţii. n .2). i  j . n . Pentru n mare (după [29]). V  i    . i  1. se cunosc mai multe metode. i  1. reziduul studentizat t i trebuie să fie cuprins între –2 şi 2.  x1i x 2i  Ipoteza independenţei erorilor Această ipoteză revine la V     2 I sau cov i . i. ceea ce duce la nesiguranţa ipotezei V  i2    2 . pentru un model de forma y i  a1 x1i  a 2 x 2i   i . Una dintre ele apelează la un test de comparare a mai multor dispersii. Ipoteza H 0 de egalitate a dispersiilor se va respinge. 270 . De asemenea. Spre exemplu. dacă valoarea calculată a statisticii aferente testului depăşeşte cuantila corespunzătoare unui anumit prag de semnificaţie şi legii 2 . yi 1 1   a1  a2  i x1i x 2i x 2i x1i x1i x 2i    şi atunci. Se compară t i calculat cu valoarea critică a distribuţiei.4. se poate face un test de ipoteză bazat pe reziduuri.

Autocorelaţia erorilor presupune cov i .. Altfel spus. se poate folosi. Autocorelaţia erorilor se regăseşte în principal. În cazul în care se depistează o autocorelaţie. folosind metoda celor mai mici pătrate generalizate ([30]). dar nu şi în obţinerea estimatorilor nedeplasaţi. Un alt aspect în analiza rezultatelor regresiei ţine de calitatea ajustării. se cercetează comportarea empirică a reziduurilor e1 . trebuie ca valoarea lui d să fie în jurul lui 2.. autocorelaţia erorilor poate apărea în modelele statistice. atât metoda bazată pe analiza graficului reziduurilor.4. la analiza reziduurilor. nu trebuie să fie numai pozitive sau numai negative.   0 (proces autoregresiv de ordin I). După [15]. se poate realiza şi numeric. din cauza proastei specificări. 271 . care nu trebuie să dea impresia unei tendinţe. analiză care aşa cum s- a văzut în prima parte a acestui paragraf.3. influenţa erorii unei perioade asupra alteia devine plauzibilă. en . Metodele grafice (folosite în special în cazul unui singur predictor) se referă. ele trebuie să fie împrăştiate aleatoriu în jurul axei absciselor. crescător sau descrescător. se corectează calitatea estimatorilor. Odată validate sau corectate ipotezele liniarităţii modelului. Pentru validarea ipotezei de independenţă a erorilor. cât şi un test de corelare. 4 .8) 2 e i 1 i Pentru a admite ipoteza necorelării. Din punct de vedere cantitativ. calităţile discutate în paragraful 12. în raport cu variabila endogenă Y.. doar dacă rezultatele observării au fost aranjate în prealabil.  j   0. Ipoteza de independenţă este necesară în obţinerea estimatorilor de varianţă minimă (optimali). Calitatea ajustării Pentru a analiza calitatea ajustării se pot folosi. Din punct de vedere grafic.. avem asigurate pentru estimatorii de cele mai mici pătrate. Statistica aferentă testului este n 2  e i  ei 1  d i2 n  0. în cazul modelelor dinamice (serii de timp). Metodele numerice utilizate în analiza calităţii ajustării se bazează pe interpretarea câtorva statistici. reziduurile nu trebuie să aibă pentru mai multe observaţii consecutive aceeaşi comportare. prin metoda celor mai mici pătrate. Într-un astfel de model. în mare parte. (12. i  j . Pentru necorelaţie. atât metode numerice. spre exemplu. care verifică ipotezele H 0 :  i necorelate şi H 1 :  i   i 1  u i . se poate folosi testul Durbin-Watson (vezi [29]). cât şi metode grafice.

272 . liniare sau nu). fără a comporta o tendinţă. Un reziduu prea mare poate indica o valoare aberantă.4. se cunoaşte statistica 2 n  e  PRESS    i  . în raport cu norul statistic. valoarea ajustată(prezisă) pentru y i (definită în formula (2. studiul reziduurilor poate fi folosit şi în cadrul altor modele de regresie. valoarea y i  yˆ i  .3. vom numi reziduu prezis. Astfel. se va prefera aceea în care reziduurile sunt aleator împrăştiate în jurul lui zero. în cazul în care ea ar rămâne în model. Influenţa observaţiilor Am văzut cum poate fi eliminată o observaţie aberantă. Dacă notăm cu yˆ i  .4. duc la previziuni suspecte. În acelaşi sens. testul fundamentat pe reziduurile studentizate şi pe statistica (12. Influenţa observaţiilor asupra estimatorilor este dată de distanţa lui Cook. în vederea reperării observaţiilor aberante(outlieri). Un alt criteriu care să desemneze valorile aberante ar fi cel bazat pe intervalul de încredere (12.9) i 1  1  hi  O valoare mică a statisticii indică o putere mare de prezicere. Astfel.4. Să vedem acum care ar fi influenţa unei astfel de observaţii.Analiza reziduurilor Pe lângă verificarea ipotezelor liniarităţii. 1  hi aşadar observaţiile pentru care hi e mare şi/sau reziduurile sunt mari (observaţii aberante).4. căci y i  yˆ i  va fi mult diferit de zero.1. se poate face şi comparaţia curbelor ajustate. de exemplu.4. Ca o măsură a puterii de prezicere a modelului. se poate arăta că ei y i  yˆ i   .1) sau (12.10). pentru o bună prezicere. În prima parte a paragrafului. trebuie eliminată influenţa observaţiilor aberante ( ei mare) sau cele care au hi mare. care se obţine atunci când este omisă observaţia a i-a. Reziduul pentru care intervalul nu conţine valoarea zero indică o valoare aberantă. Pentru eliminarea observaţiilor aberante. dar o valoare aberantă nu are neapărat reziduul mare.4). s-a văzut deja instrumentarul folosit în analiza reziduurilor. (12. dintre mai multe ajustări (în regresii cu un singur predictor. Definiţia 12. Conform cu [29]. se poate folosi.2).

(12. Y  ..11) ai  i 1  unde r este coeficientul de corelaţie liniară simplă. Y   sup r   ai X i . y   sup rˆ  ai xi . (12.10) ps 2 p 1  hi ps 2 Aici.4. definit în formula (12.. y  şi este dat de  p  rˆx1 . vom aminti mai întâi definiţia acestuia. yˆ i   xai  . y  . atunci rˆx1 . x 2 .. Coeficientul de corelaţie liniară multiplă. se obţine valoarea absolută a coeficientului de corelaţie liniară simplă. Definiţia 12. se va nota cu rˆx1 . X 2 .. parametrul  p  r  X 1 .. dacă Di  1 .12) ai  i 1  În cazul particular când p  1 .)... y  .3.4..4.. se demonstrează că. y   rˆ yˆ . x p .4. de selecţie (eşantionare).4. Se numeşte coeficient de corelaţie liniară multiplă. atunci când intervalele de încredere (12.... sunt mai restrânse. X p .4..10). Analiza estimaţiilor obţinute Estimatorul a este determinat cu mai multă acurateţe. x 2 . În [30]. (12. O observaţie se consideră a avea o influenţă anormală.4.. iar celelalte elemente au aceeaşi semnificaţie ca în paragraful 12.2. dintr-un model de regresie liniară cu termen constant. x p . x p .13) 273 .3. În continuare. ai  este estimatorul obţinut prin eliminarea observaţiei i. pentru coeficienţi. vom prezenta câteva statistici care pot fi folosite pentru evaluarea şi de asemenea.. dacă ŷ este valoarea ajustată a lui y (precizată în Definiţia 12. compararea mai multor modele.. x 2 . (12. Coeficientul de corelaţie multiplă Pentru a putea face legătura între acest coeficient şi coeficientul de corelaţie liniară multiplă.5). a  a   x x a  a   2 i i 1 h yˆ  yˆ i  Di   ei2 i  .4.

(12..14) y y sau într-o altă formulare 2 2 yˆ  y y  yˆ rˆ x1 .  0 oarecare. rˆ 2 n  p F  (12.. 1  rˆyz2 1  rˆxz2 formulă ce poate fi extinsă şi în cazul regresiei multiple. x 2 ..4. se foloseşte statistica de tip Fisher Snedecor.4. x 2 . În plus. k  1.. ipoteze ce infirmă regresia liniară. cu p  1 şi n  p grade de libertate. y   1 .. y   2 2  1 2 . pentru care corelaţia cu variabila endogenă este maximală.4. care este echivalentă de fapt... (12. X p .. atât variabila y. Are loc relaţia 0  rˆx1 . X 2 .. Pentru a elimina influenţa acestei de-a treia variabile. z  .. x p .4.. y .... y   . 274 .. cu ipoteza  k  0. x 2 . cât şi variabila x. chiar dacă rˆ  1 şi valoarea reală r este semnificativă H 1 : r  0 . se poate demonstra că yˆ  y rˆx1 . dacă valoarea calculată a statisticii (12. că coeficientul de corelaţie liniară multiplă reprezintă proporţia în care variaţia lui Y este explicată prin regresia liniară pe X 1 . aceste situaţii cu privire la r̂ şi r pot apărea. o valoare apropiată de unu fiind o posibilă acoperire a faptului. ca urmare a unei corelaţii paralele pe care. Ipoteza nulă se va respinge.. se poate calcula un coeficient de corelaţie parţială. r  0 . în cazul regresiei simple.15) y y y y Se poate afirma atunci. x p . rˆ 2 x1 . cu termen constant. că modelul liniar este potrivit pentru a explica variabila Y. x p . acest lucru nu indică neapărat o corelaţie reală.. x 2 .. x p . p. Pentru a realiza inferenţa asupra estimatorului r̂ .. Spre exemplu.. o poate avea cu o a treia variabilă. cu formula rˆyx  rˆyz  rˆxz rˆyx.Altfel spus. metoda celor mai mici pătrate determină acea combinaţie liniară între variabilele exogene. Totuşi.16) depăşeşte cuantila corespunzătoare legii Fisher-Snedecor şi pragului de semnificaţie  .16) 1  rˆ 2 p  1 şi se emite ipoteza nulă.

parametrul definit prin S R2 R2y . prin modelul considerat. prezentat mai sus. valoarea calculată a statisticii F şi p –valoarea asociată acestei statistici. Testul bazat pe r 2 . în Matlab.4. T i 1 (12. precum şi testul T asupra fiecărui coeficient în parte.13). se pot folosi testele F de semnificaţie asupra unui subansamblu al coeficienţilor. Deoarece r̂ . 275 . Un test pentru ansamblul coeficienţilor se poate face şi pentru modelul de regresie liniară fără termen constant. nu vom putea vorbi de aceste elemente. atât pentru modelul liniar fără termen constant. în cazul unui model de regresie liniară oarecare. test folosit în analiza rezultatelor regresiei. adică probabilitatea critică. este unul de semnificaţie al coeficienţilor de regresie în ansamblul lor şi în acelaşi timp(prin r̂ ).n  p Fcalculata  . teste prezentate în paragraful 12. i 1 iar ŷ este valoarea ajustată (prezisă) a lui y.4. Numim coeficient de corelaţie (determinaţie) multiplă (oarecare). s-a definit doar pentru ŷ rezultat din modelul liniar cu termen constant.19) n 2 S R2    y i  yˆ i  . sumă de pătrate totală. c  1  F p 1.  prag de semnificaţie. dat prin (12. cât şi pentru un model de regresie oarecare. se respinge ipoteza H 0 . Definiţia 12. ps Totuşi. (12.5.4. sumă de pătrate reziduală (indusă de reziduuri). Pentru modelul de regresie liniară fără termen constant. folosind statistica de tip Fisher-Snedecor. se poate defini o caracteristică asemănătoare cu r. Spre exemplu.18) S T2 unde n 2 2   S   y i  y . caracteristică pe care o vom numi coeficient de corelaţie multiplă(oarecare).3. se întoarce ca şi informaţie de regresie. al semnificaţiei regresiei liniare cu termen constant. (12.4. yˆ   1  . cu p şi n  p grade de libertate (vezi [29]): . 1 F 2 a    x x a    .4.17) Dacă c   .

Totuşi. r̂ 2 .23) 276 . ŷ . R 2 coincide cu coeficientul de corelaţie liniară multiplă. coeficientul de corelaţie multiplă se calculează cu formula n 2  y i  yˆ i  S2  S2 y  y  y  yˆ 2 2 R2  1 i 1 n  T 2 R  2 . că R 2 bazat pe scări diferite nu sunt comparabile. y  se poate compara cu R 2  yˆ z . dacă z  g  y  . Această observaţie se referă la cazul când pentru ajustare e necesară o transformare.4. 2 2 2 yy  y  yˆ  yˆ  y (12. Această mărime se poate folosi pentru a compara mai multe ajustări diferite şi poate fi calculată.4.20). valoarea ajustată a lui y. Am preferat să-l numim aici coeficient de corelaţie multiplă (oarecare). valoarea ajustată a lui z. doar sub denumirea de R-pătrat. (12. dar nu cu R z . (12.4. valoarea maximă fiind 1. Într-adevăr. y  .4. Acest lucru se poate vizualiza şi grafic. O valoare mare a lui R 2 va indica o mai bună apropiere a modelului faţă de date.20) ST  y  2 i y y y i 1 Mărimea R 2 reprezintă o măsură a calităţii ajustării datelor. ŷ . din formula (12.15).22) sau încă. se observă că R 2 poate lua şi valori negative. Aşadar. deoarece atunci când ŷ provine dintr-un model de regresie liniară cu termen constant. Stapleton atrage atenţia. pentru modelul cu un singur regresor.4. din regresia lui y pe x. 2 S T2  S R2  yˆ  y (sumă indusă de model). Acest parametru este cunoscut în literatura de specialitate. yˆ z  g 1  zˆ  . prin modelul de regresie oarecare. R 2  yˆ . ẑ . pentru modelul liniar cu termen constant are loc regula de adunare a varianţelor (ANOVA). zˆ  .21) i 1 i 1 i 1 sau altfel. De exemplu. în [30]. pentru orice model de regresie. chiar şi pentru cele neparametrice. din modelul liniar al lui z pe x. în urma căreia rezultă valoarea ajustată(prezisă). Din formula (12. n n n  y   y   2 2 2 i y i  yˆ i    yˆ i  y (12.4.

neprecizând forma corelaţiei. implică faptul că în model s-a inclus o nouă variabilă. în care un model  ST  explică bine datele. precizează proporţia. în timp ce r̂ 2 nu poate. este rădăcina pătrată a erorii medii pătratice. această regulă nu are loc.24) Astfel. Astfel. care coincide cu R 2 şi cu r̂ 2 (a se vedea [29]). Totuşi R 2 şi r̂ 2 au aceeaşi  S T2  S R2  semnificaţie şi anume. 277 . în proporţie de 97%. R fiind un criteriu bun pentru modele cu un număr diferit de parametri.15) nu este valabilă pentru R 2 şi deci. Statistica S R2 este cunoscută şi sub denumirea de sumă de pătrate datorată erorilor şi măsoară abaterea totală a variabilei Y. factorul n  p corectează modificarea artificială a lui R 2 . O valoare apropiată de zero indică o bună ajustare. Definiţia 12. V Y  X   0 . o valoare apropiată de 1 a lui R va 2 arăta o bună ajustare. numită şi eroare standard a regresiei. de aceea prima parte a formulei (12. În general.4.  (12. se foloseşte o variantă ajustată a sa. Necesitatea acestei ajustări rezidă în faptul că R 2 nu este un criteriu absolut al calităţii ajustării. Spre exemplu.4. o valoare de 0. în cazul când se compară două modele cu un număr diferit de parametrii. Ca şi în cazul lui R 2 . Pe lângă R 2 .3. Statistica s.4. de la model.4. În general. numai că r̂ 2 se referă strict la modelul liniar cu termen constant. Se numeşte coeficient de corelaţie ajustat. dacă p creşte în regresia liniară. ceea ce face ca S R2 să scadă şi implicit. parametrul n 1 2 R  1 n p  1  R2 . prin intermediul unui anumit model de regresie.19) şi s din formula (12. O valoare a lui s apropiată de 0 indică o bună ajustare. Alte statistici care măsoară numeric calitatea ajustării (pe lângă R 2 şi 2 R ) sunt S R2 din formula (12. raportul de corelaţie arată proporţia în care factorul X explică variabila Y . tot ca şi măsură a calităţii ajustării. Toate aceste statistici pot fi definite şi pentru alte modele decât cele liniare. întâlnită sub notaţia MSE sau RMS (media pătratelor erorilor). pentru regresia V X  liniară simplă. odată 2 cu modificarea lui p. R 2  r̂ 2 . că modelul din care rezultă ŷ acoperă variabilitatea observaţiilor. spre exemplu.6.7). O mărime asemănătoare cu R 2 este şi raportul de determinaţie(corelaţie). diferenţă confirmată şi de faptul că în general.  2  . în timp ce coeficientul de corelaţie arată proporţia în care factorul X (unidimensional) explică variabila Y. R să crească artificial. R 2 poate lua valori negative (mai precis pentru modele fără termen constant).97 a lui R 2 ne arată.

x 02 . date fiind valorile x 01 .. două tipuri de erori în estimarea previziunii. Folosim notaţia yˆ 0  x 0 a .26) pentru a desemna previziunea punctuală şi dăm în continuare.  a p x 0 p  e0  x 0 a  e0 . Sigur. ne interesează problema previziunii. intervalul de încredere pentru y 0  x0   0 (previziune)... Apar aşadar. 278 . pentru o nouă observaţie... Vom considera aici doar intervale nesimultane.. ale variabilelor X 1 .. atunci eroarea este mai mică şi se reduce la eroarea indusă de  .  2 I .4. se iau în calcul. Intervale de încredere pentru previziune Pe lângă intervalele de încredere pentru previziune. x0 ). respectiv pentru f  x0   E Y X  x 0   x 0 (medie). a variabilei Y. (12.4. pentru a le putea compara. în cazul în care dorim să estimăm media E Y X  x 0   f  x0   x 0 . Avem y 0   1 x01  . vom prezenta aici şi intervale de încredere pentru medie (pentru funcţia de regresie f). cu care valoarea y 0 intră în model.25) sau folosind modelul ajustat prin cele mai mici pătrate. în literatura de specialitate. X p . x0 p .   N  . iar alta se datorează erorii cu care s- a estimat  ...   p x0 p   0  x0   0 (12. Cazul regresiei liniare (fără termen constant)   Presupunem că modelul y  x   ... atât intervale simultane (pentru x oarecare). De asemenea. cât şi intervale nesimultane (pentru o singură valoare specificată. a fost validat şi că ne interesează estimaţii asupra unei noi valori. Una se datorează noii erori  0 .. y 0  a1 x 01  . X 2 . y 0 . Odată stabilit şi validat modelul de regresie. adică ne interesează să previzionăm o valoare a lui y(necunoscută).

1  2 2  (12. pentru acelaşi  . În cazul regresiei liniare simple. curbele de la intervalul pentru medie. respectiv o coloană de 1 (a se vedea [29]. s-ar vedea că intervalele de încredere pentru previziuni includ punctele. acurateţea previziunii fiind cu atât mai bună.  şi t au semnificaţia precizată deja în acest capitol. În cazul modelului liniar cu termen constant.4. Se observă că intervalul pentru previziune este mai larg. Intervalele 279 .1 n  p .1 n  p . încadrează dreapta de regresie. x. care vor conţine şi un 1.4. diferă doar forma lui x0 şi x. care la rândul lor. curbele corespunzătoare încadrând. când funcţia ajustată şi intervalele pot fi vizualizate grafic. intervalele sunt aceleaşi.4. s.27) Interval de încredere pentru medie:  1 1  P yˆ 0  st  x 0  x x  x0  f  x 0   yˆ 0  st  x 0  x x  x0   1   . cu cât intervalul este mai mic. datorită erorii suplimentare care intervine prin  0 . n  p .1  2 2  (12. n  p .1 Avem aşadar şi vizualizarea faptului că intervalul de previziune este mai larg.28) În ambele intervale. [30]). avem următoarea situaţie: y y=ax+b medie previziune x Figura 12.Interval de încredere pentru previziune:   P yˆ 0  st   1  1  x 0  x x  x 0  y 0  y 0  st ˆ   1   1  x0  x x  x0   1   . Ca orice interval de încredere şi intervalele de previziune pot fi instrumente în evaluarea calităţii regresiei. Dacă pe grafic ar fi vizualizate şi datele.

27) duce la intervalul de încredere de tip 95% pentru previziune. Reluând datele din Exemplul 12. 280 . în loc de distribuţia Student. avem y 2  1.2.simultane sunt asemănătoare celor nesimultane. în timp ce o evaluare a formulei (12.76  1.8. (-4.5 . Soluţie Calculând previziunea punctuală obţinută pe baza modelului din Exemplul 12. 5.42.39).8.4.13  2  0.2.7. ne propunem să estimăm punctual şi prin interval de încredere de tip 95% rata rentabilităţii acţiunilor respective corespunzătoare unei rate a pieţei de 2%. Exemplul 12.4. diferenţa fiind că se utilizează distribuţia Fisher-Snedecor.

Xt. necunoscînd valoarea adevărată a lui . Statistică Bayesiană Un asigurator are un contract care se derulează pe mai mulţi ani. În statistica parametrică clasică se presupune că repartiţia FX aparţine unei clase de repartiţii depinzînd de un parametru necunoscut   E. Parametrul   E se numeşte factor de risc. de cheltuieli de regie precum şi de alte lucruri ce nu ţin de obiectul studiului nostru. X. media EX se numeşte premiul brut sau prima brută. 281 .1. Pentru a merge mai departe ar trebui găsit adevăratul . Acesta este punctul de vedere al statisticii parametrice. O problemă oarecum mai abordabilă ar suna astfel: în teoria asigurărilor.X2. şi anume cea Bayesiană. clientul este un risc. avem un spaţiu probabilizat pe care avem definit un vector de observaţii X =(X1. Caz în care s-ar pune problema estimării lui . Sumele de bani plătite clienţilor au fost X1. e ca şi cum factorul de risc  ar fi la rândul lui o variabilă aleatoare. La acesta se mai adaugă diverse sume care ar trebui să ţină seama de profit. putem crede că X  Poisson() sau X  Binomial(n. am putea privi atunci experienţa acumulată X =(X1. Capitolul 13 Statistică Bayesiană şi noţiuni de teoria credibilităţii 13. Problema ar fi : cum am putea modifica prima de asigurare h(X) în aşa fel ca să ţin seama de experienţa anilor trecuţi? Nefiind precis formulată. cu un anume risc asumat . În primul caz am avea o familie depinzînd de un singur parametru. sau X  Exp(a).Xt) şi o variabilă aleatoare  cu valori în E . Ideea de bază în abordarea bayesiană este că .p) !) . iar în al doilea de una depinzînd de doi parametri (căci  = (n.Xt) ca o selecţie de volum t dintr-o populaţie F. Ea se foloseşte dacă dispunem de multe date. De exemplu. Dacă suntem dispuşi să credem că  nu se modifică la rîndul lui în timp. aceasta NU este o problemă matematică.….…. O vom nota cu .…. am putea încerca să găsim intervale de încredere pentru . În acest capitol vom folosi însă o altă abordare. Ţinînd seama de această experienţă. Problema de bază este găsirea repartiţiei „adevărate” a lui X. care ar fi cel mai bun principiu de calcul al primei de asigurare pentru anul t+1? Pentru asigurator. Formal.p). Dacă  ar fi unidimensional.

..1) iar X  Binomial(n. Aceasta este în definitiv repartiţia condiţionată a lui X ştiind că  = .1 . Desigur că apar unele probleme tehnice: va trebui ca spaţiul parametrilor E să fie organizat ca un spaţiu măsurabil (E. De obicei aceasta nu este o problemă. Amintim că cele două operaţii se definesc astfel UQ(C) =  Q . Deci U (B)= P(  B).2). Modelul este de fapt o probabilitate de trecere de la mulţimea E a parametrilor la mulţimea t a rezultatelor.1) Def UQ(B)  UQ(EB) =  Q .E). repartiţia lui X este U(0. În limbaj matematic.)t unde n este presupus cunoscut. Cum afectează variabila aleatoare N(1) repartiţia iniţială a lui ? Exemplul 13.). atunci P(X1=1.t – S + 1) (13.)t. Aceasta se numeşte repartiţia apriori a factorului de risc . Pe scurt o abordare Bayesiană înseamnă o repartiţie apriori a parametrului şi un model. etc.   U(0. repartiţia apriori este repartiţia iniţială a lui . Dacă parametrul  ia valoarea  .1.Cnxt  x1 (1  ) n x1 .1.). E =   (0.1) în al doilea. B dU  (13.Xt = xt) = Cnx1 . De exemplu. Mai explicit.1. Ideea este să obţinem din experienţă o ajustare a repartiţiei apriori.1. Acesta se numeşte modelul.2) avem 1 P(X = ) =  S(1-)t-Sd = (S + 1. În Exemplul 13. Deci pentru fiecare   E . La repartiţia normală N(.)t..1)Q unde Q() = Binomial(1...).…. în cazurile clasice.) = 1j  t j = 1 iar (0. la binomială este 0.3) 0 282 . Atunci P(X1=x1. În cele ce urmează ea va fi notată cu U. Atunci ştim de la capitolul privind simularea variabilelor aleatoare că repartiţia vectorului (..)(1-p)(0. Q() este o repartiţie pe t. o credinţă. în cazul repartiţiei Poisson sau exponenţiale E = 0. Xt = t) ar trebui să fie p(1. Deci din (13. Putem avea o idee despre repartiţia factorului de risc.1.C nxt  S (1  ) nt S unde S = S(x) = x1 + … + xt .1.X) este UQ iar repartiţia lui X este UQ.1) iar X  Binomial(1. xt (1  ) n xt = C nx1 C nx2 .) = 1j  t j = 0 = t – N(1.)) în primele două cazuri sau cu P(N)B(0.) unde (1.2) Exemplul 13. C dU   C  E  t măsurabilă (13. modelul este următorul: dacă adevărata valoare a lui  ar fi  = p  0.1 care se organizează în mod natural ca spaţii măsurabile cu -algebra mulţimilor boreliene B(0. numită repartiţia aposteriori a parametrului .1.1.2. Să presupunem că   U(0.1. atunci repartiţia selecţiei noastre X ar trebui să fie Q().…. O generalizare.

U = u. În plus. Din punct de vedere probabilistic Q* reprezintă repartiţia lui  condiţionată de eşantionul X . În anumite condiţii. Propoziţia 13. presupunem că (i). X  () cu f.1. (ii).4) 0 Rezumînd cele de mai sus putem concluziona : într-un model Bayesian U este marginala pe spaţiul parametrilor a repartiţiei UQ a vectorului (.7)  q(.X (.. Sensul ar fi că U1(x. 283 . De asemenea.  este la rîndul lui un spaţiu standard Borel. teorema de dezintegrare o putem aplica şi marginalei a doua. suficient de largi pentru statistică. Q() = q() unde  este o măsură  .A) = P(  A  X = x). (t  1)! În Exemplul 13.Cnxt S (1 )ntS d = Cnx1 Cnx2 .1.x)u() (13. Dacă. Funcţia  este funcţia   m  1 n  1 m!n! a lui Euler .1.1. Atunci se poate calcula repartiţia aposteriori a lui .6) q(. Rezultă că P(X = ) =   ( m  1)  (n  1)  ( m  n  1)! S!(t  S ))! .1. presupunem că şi repartiţia observaţiei X condiţionată de  =  este absolut continuă faţă o altă măsură -finită ..) = (13.)este definit în Exemplul 13. admite o densitate faţă de o măsură -finită .(o probabilitate de trecere de la E la t) iar a doua marginală. X)-1 = f.)t deci 1 P(X = x) =  Cnx1 Cnx2 . X) format din parametrul aleatoriu  şi selecţia X. Deci modelul este că.1.unde   Z2t iar S = (1..1.5) -1 P  X = fX   unde fX (x) =  q (.1)Q unde Q() = Binomial(n.x) d() (13.X (. U1 este repartiţia aposteriori a parametrului  după observaţia X. Să presupunem că repartiţia parametrului .3. deci U . dacă parametrul  ar lua valoarea .x) = q(.2 diferenţa este că X este U(0. O notaţie mai sugestivă pentru q() este cea folosită în statistică: fX   = . există formule de calcul a repartiţiei aposteriori U1. x )u () U1(x) = q*(x)  unde q*(x. cea de pe t este UQ – repartiţia selecţiei X. (adică o probabilitate pe (Et)) modelul Q() este repartiţia selecţiei condiţionată de valoarea pe care o ia parametrul..n+1) = = .Cnxt (S+1. În jargonul Bayesian. aşa cum se întîmplă în aplicaţii. de data aceasta de la t la E astfel încît U = U1(UQ) .x)u()d() =  f . (m+1.finită pe t Atunci P  (. Presupunem că E este o mulţime boreliană dintr-un spaţiu euclidian. nt -S+1) (13. x )u () d() Notaţii standard. unde  este o măsură -finită pe E. adică admite o densitate q faţă de  . Deci există o altă probabilitate de trecere U1 .1.

 d (13. dar  = Card(Znt). . f.1)() S!(t  S )! .9) densitatea aposteriori a lui  dată de rezultatul x este f .C nxt .X (. parametrul nostru 284 . X  x.x)u()d() = (S+1.1. fX (x) = n n (vezi (1.1.X) este f.  = Card(Z2t) este măsura cardinal pe Z2t. pp 236. Interpretarea: în urma unei experiment în care au apărut M de „1” şi N de „0” şi în care apriori nu aveam nici o idee preconceputa asupra lui p credinţa noastră asupra parametrului  ar trebui să fie dată de densitatea aposteriori u1() = M+1. X iar densitatea parametrului  în ipoteza că că X = x este f  X = x . Atunci .8) densitatea lui X este fX ( x) =  f .t-S+1) . de exemplu. Dar dacă aveam o idee preconcepută? De exemplu.1.1.1. fX = x () = S(1-)nt-S deci repartiţia aposteriori a ( S  1. în Gheorghiţă Zbăganu. nt-S+1) Observaţie 13. dacă am fi crezut că p = ? Atunci statistica Bayesiană nu ne-ar fi de nici un folos. u() = 1. Să presupunem că noi avem o credinţă apriori că .1.  = U(0.t-S+1) = (t  1)! (t  1)! S . Continuare la exemplele 13. x) = fX   = (x)f() (13.N+1 ().1...X (. nt  S  1) parametrului  este Beta(S+1.x) = C(x) S(1-)t-S1(0. x  f  X = x() = (13.1. Reformulînd cu aceste notaţii standard avem densitatea lui (.1. fX   =  (x)= C(x) S(1-)t-S cu C(x) = C nx1 C nx2 .1)() C x1 C x2 . fX (x) =  q (. Bucureşti. . u sunt aceiaşi.10) ( nt  1)CntS 1 . f. Cu notaţiile standardizate de mai sus avem La exemplul 13.1.1).2.x) = S(1-)t-S1(0.C nxt .1 şi 13. densitatea modelului este fX   =  (x) = S(1-)t-S cu S =1j  t xj = 1= x1 +…+ xt . La exemplul 13.4.2: E. f  X = x() =  (1-)t-S S!(t  S )! Recunoaştem aici că repartiţia aposteriori a parametrului  este o repartiţie Beta(S+1. Editura Universităţii 2004.1: E = 0. X) faţă de τ este f. X .atunci densitatea lui X faţă de  ar trebui să fie fX   = .10) f X x  Demontraţia se poate găsi.X (. Atunci densitatea comună a vectorului (.. Metode matematice în teoria şi actuariat..

 = Card(E) . De exemplu Xr pot fi piesele rebutate dintr-un lot de N piese.) este o n 1 densitate .1.n  0. f(n.1) Deci E = N0. )pS(1-p)tn-S Repartiţia lui X este o mixtură de binomiale.va lua  = 1(0.  = (N.13) n  x* ( nt  1 ) C ntS 285 .1. El ştie că Xr  Binomial(N..1. nici pe . Un asigurator are în perspectivă un contract format din riscuri repartizate binomial.….. vom continua a crede că =1! O explicaţie este că experienţa niciodata nu creează noi posibilităţi explicative.5.X (.1.1. Mai ştie că în decursul derulării contractului aceşti parametri nu se schimbă.12) unde M(x) este media aritmetică a primelor t observaţii.  = (n. Putem scrie f. deci fX = x (1) = 1.p) (x) = nC(x . are la dispoziţie un istoric al numărului de rebuturi X1. Ceea ce înseamnă că indiferent ce ne spune experienţa. dar nu ştie nici pe N .1. Pentru a avea o idee ce primă de asigurare să ceară.C nxt (acesta este modelul propriu zis!) f.1) atunci fX (x) =   n ) iar din (13.. ) =C(x.x)u()d() =   n C(x .…. n)  (p)ptM(x)(1.11) M ( x) i  (1  i ) t M ( x ) pi i 1 În cazul particular în care n = 1 (deci credem orbeşte că  = 1) atunci suma de la numitorul din (13.11) coincide cu numărătorul. Experienţa anterioară îl face să creadă că că N şi  sunt independente şi că N    n  n iar    unde :0..xt).p)t(N-M(x)) dp (13.. Observînd că n  x*  C(x.   are repartiţia    1 2 n  .x) = (p)nC(x .  = CardN.X (. cel mult poate anula unele din ele – sau să le facă mai neverosimile. .x) = jM(x)(1-j)t-M(x))pj iar M ( x) j (1   j ) t  M ( x ) p j fX = x (j) = n (13.. f..1.p).  = Card(Z2t).  n stocastică cu n linii şi 2t coloane: Q(j. )ptM(x)(1-p)t(n .…. tM(x) = x1 + … + xt . Dacă nu are nici o idee despre p.1..) . Exemplu 13.n) = 0 şi înlocuind. Atunci Q ar fi devenit o matrice p  1 p 2 ..lucru destul de neverosimil .   . (repartiţia apriori) fX =(n. u(j) = pj.n) = C nx1 C nx2 .X (.. ). Fie x* = max (x1. C nx t  n x1 x2 n (dacă   U(0. . Cu notaţiile din Propoziţia 13.p) = n(p) .x) = jM(x)(1-j)t-M(x) . obţinem din că  1 fX (x) =  q (.x) = n(p)C(x ..1.1  0.13)  n  x* 0 C C .M(x)) (13. )pS(1-p)tn-S cu C(x .3 am avea E =1.Xn..

14) tM ( x ) t ( k  M ( x ))   C ( x. în anumite ipoteze. Avem  () f X | ( x )u ()d() E(()X= x) = (13.p) =  C x1 C x2 .p) = 0.15)  f X | ( x )u ()d() Să presupunem că variabilele aleatoare Xr sunt toate identic repartizate pentru fiecare valoare posibilă a factorului de risc  .1.17) Este mai puţin evident că. Ceea ce ne interesează în actuariat este mărimea E(()X) notată cu g(X) . Fie () = E(Xr) (13. n) p tM ( x ) (1  p ) t ( n M ( x )) fX = x (n.1.1.. variabila aleatoare E(()X) se numeşte în limbaj bayesian estimatorul Bayesian cu cele mai mici pătrate al lui (). atunci din (13. k ) p k  x* k (1  p) ( p)dp  n C ( x. Dacă :E   este o funcţie măsurabilă.6.16) Aceasta este cea mai bună aproximare pe care o putem face pentru Xr în sensul celor mai mici pătrate. evidentă datorită formulei de transport: Propoziţia 13.1.1. (13.. ( p) n C ( x.p) =  (13.1) atunci fX = x (n. Sensul precis este că dintre toate funcţiile () cu care am dori să aproximăm pe Xr în spaţiul L2. În cele ce urmează nu vom modifica notaţia: () va avea mereu aceeaşi semnificaţie.1. g(X) este şi cea mai bună aproximare pe care o putem face asupra premiului brut de asigurare viitor (adică 286 .7. Nu o să considerăm posibil ca N să ia valori mai mici decât x*! Definiţia 13. pentru care nu avem nevoie de multă ştiinţă de carte: dacă n  x*.1. n) p S (1  p ) tnS (dacă   U(0.3 are drept corolar o formulă de calcul pentru E(()X). cea pentru care distanţa este minimă este (). fX = x (n.Ckxt  k  x* k k k ( kt  1)CntS Observăm ceva de bun simţ. Propoziţia 13.1.17).

….11..1. să zicem că (X. nu rezultă că sunt independente. De exemplu.   U(0. Fie X şi Y două variabile aleatoare condiţionat independente de .1..Xt = xt) = P(X1 = x1).)(j) – rezultă că () = n.  sunt discrete.1. Dacă X şi Y sunt condiţionat independente. Produsul este 1/16 şi nu 1/8. Într-adevăr. nt+1-S .1 şi 13. Două variabile aleatoare X şi Y se numesc condiţionat independente faţă de  dacă P(X  A.1. Atunci E(Xt+1  X1.1.+1).1. Cum Xr sunt binomiale condiţionat de  (adică P(Xr = j) = Binomial(n. Principial. Y = 0) = [P(X = 0. O ipoteză destul de optimistă.Xt) = E(()X1. Altfel nu puteam să spunem că P(X1 = x1. Y = 0  = 0) + P(X = 0.X) = E(f(Y)) (13.1.2 – deci şi în exemplul 13.19) unde în loc de Y avem Xt+1 iar în loc de X avem vectorul X = (Xr)1rt .Y.1.pentru Xt+1 ) ţinînd seama de modelul nostru bayesian şi de experienţa acumulată. Y  B   ) = P(X  A)P(Y  B   ) pentru orice A şi B mulţimi boreliene. Presupunem că observaţiile Xr sunt condiţionat independente fiind dat .1.5 am presupus tacit că observaţiile (Xi)1  i  t sunt condiţionat independente.….. Y = j  ) = E(P(X = i )P(Y = j ))  E[P(X = i )]E[P(Y = j )]. În exemplele 13.1 – cunoaştem această repartiţie: este S+1. Exemplul 13. Y = 0  = 1)]/2 = [ ½ + 0]/2 = 1/8 iar P(Y = 0) = P(X = 0) = [P(X = 0   = 0) + P(X = 0   = 1)]/2 = (½ + 0)/2 = ¼ . Atunci P(X = i .1. Atunci P(X = 0. Atunci g(X) = E(nX) = m nE(X) .1).10. Atunci avem E(f(Y). Demonstraţie Este de fapt relaţia (13. În Exemplul 13..9.Y  )  U(.P(Xt = xt). să spunem că X. Y = j) = E(P(X = i . Propoziţia 13. Dar media unei variabile aleatoare Y  m.. g(X) se poate calcula. dacă ştim repartiţia lui  condiţionată de X . Definiţia 13.. X.1.18) În consecinţă E(f(Y)X) = E(E(f(Y))X) (13.n este de unde obţinem mn estimatorul bayesian pentru Xt+1 (premiul brut) ca fiind 287 .19) Corolarul 13.Xt) = g(X).8.

+1)(xt) 1(0.x2)  … (xt-1.+1)(x1) 1(. u() = 1(0.12. nt  2 Observaţia 13.b) este mijlocul intervalului (a+b)/2 . Exemplul 13. q.13. Deci E = 0.+1) Presupunem de asemenea că ele sunt condiţionat independente dacă se ştie .d.+1)(x2)… 1(. În concluzie 288 .+1)t (acesta este modelul propriu zis!) f.21) (căci am acceptat că   U(0. adică e mai bine să ne bazăm pe experienţă.e. Coeficientul z ne arată ponderea experienţei.1. Dacă t este mic. Dacă t  .1.x*)  (0. n( S  1) g(X) = (13.1.1)() (repartiţia apriori) Q() = U(. x* = x1x2…xt fX (x) = (A(x)) = ((x*1) – (x*-1)+)+ fX = x () = 1A(x)/fX(x) . z  1.1) = (x*-1.1. Se pune întrebarea : nu cumva mereu g(X) este cuprins între m şi M ? Vom da un exemplu că nu este aşa.xt)  (0. în cazul nostru a =  şi b = +1!) deci g(X) = E(X) + ½ = ((x*1) + (x*-1)+)/2 + ½ (căci şi repartiţia lui  condiţionată de X este tot uniformă! ) .1)).1) unde x* = x1x2…xt . atunci este bine de luat în calcul şi modelul nostru teoretic.1.20) sub forma g(X) = zM + (1-z)m (13. Cu aceste pregătiri putem scrie (1. Să presupunem că   U(0.1.X (.x) = 1(.  = .1.x1)  (x2-1.d.1)() = 1A(x)() unde A(x) = (x1-1.1.22) nt unde z = .21) este foarte atractivă: este simplă şi admite o interpretare intuitivă: cel mai bine este să prezicem viitorul sub forma unei mixturi între ideile noastre anterioare ( = m) şi experienţă ( = M).1) şi că variabilele aleatoare Xr sunt repartizate U(. deci repartiţia lui  condiţionată de X este U(A(x)) Apoi () = E(Xr) =  + ½ (media unei uniforme pe (a.20) nt  2 Să notăm cu M = S/t media aritmetică a observaţiilor ( se ştie că M este un estimator nedeplasat şi eficient pentru EXr în ipoteza că variabilele sunt i. Relaţia (13. Vom nota de asemenea în mod consecvent m = EXr = E(E(Xr)) = E(n) = n/2 (13.i. ceea ce nu este cazul!).

cu notaţiile din paragraful anterior.4  g(x) = (1 + 1. Se poate ca g(X) să nu fie între m şi M: de exemplu. Istoria plăţilor până în prezent (momentul t) este X.….9)/3 = 1.B1)….1) adică P(X1  B1. Vom numi contract un vector (.2.2.X) unde P-1 = U şi X = (X1.9) atunci M = (1.K . 1. dacă nu facem unele ipoteze suplimentare.45. variabilele aleatoare (Xr)1  r  t sunt independente şi identic repartizate. Le vom nota cu (). Ca de obicei..11) că E(Xt+1  X1.1. Modelul de credibilitate Bűhlmann Fie X o selecţie de volum t .Xt) = E(()X1.9)/2 = 1. Vom face ipoteza că pentru fiecare valoare a factorului de risc  .  x*  1  2 daca x*  1  *  x  x* g(X) =  daca x*  1  x * .1.2.t. x = (1.…. Scrisă precis. Atunci şi variabilele r() vor coincide.1.23)  *2  x 1 daca x*  1  2 Pe de altă parte m = EX1 = E() = ½ + ½ = 1. 1.1+ 1.2.Bt)  Br  B().…. ea devie Q( )  F ( ) t (13.P) atunci 289 .Xt) = g(X) Aceasta este ipoteza independenţei condiţionate. dacă t = 3. Bănuim că repartiţia acestei variabile depinde de un factor de risc.….Xt) reprezintă variabile aleatoare din L2 interpretate fiind ca o istorie a plăţilor făcute de asigurator la momentele de timp 1.2) Am văzut că semnificaţia lui g(X) (estimatorul Bayesian exact) este următoarea : dacă notăm cu L mulţimea funcţiilor h: t   care sunt măsurabile şi au proprietatea că h(X)  L2(.2. nu vom putea spune nimic în acest sens.….2.  asupra căruia avem o credinţă – adică o repartiţie apriori U = u   Definiţia 13.1. (13. 1  r  t reprezintă suma pe care asiguratorul a plătit-o în anul r. Fie r() = E(Xr ) Ceea ce ne interesează este să dăm o predicţie asupra plăţii viitoare Xt+1 .F(. Variabila aleatoare Xr . Ştim (Corolar 1. 1  r  t (13.2 + 1. 13.Xt  Bt ) = P(X1  B1)…P(Xt  Bt) = F(.

6) De data aceasta problema este simplă. Buhlmann a avut ideea să facă un compromis: să caute funcţia h afină care să minimizeze membrul drept din (13.2. cu m = EXr = E().… .ct( Xt.8) Dar variabilele aleatoare Xr .c) = minim (13.7) (am derivat sub integrală.11) Gradientul ei este 290 .… . Media lor se va nota.2. are optim unic.7) EXr cu m rezultă c0 = m(1.2.m ))2 (13.ctXt). ║Xt+1 – g(X)║2 = min  ║Xt+1 – h(X)║2  h  L  (13.ctXt) = 0 (13.ctXt)2 (13. sunt şi identic repartizate. c ca h(c0. Cu alte cuvinte să caute h de forma h(x) = c0 + c.3) adică E(Xt+1 – g(X))2 = min  E(Xt+1 – h(X))2  h  L  (13. Înlocuind în (13.… .m) – c2(X2 –m) .c2 .4).… . Rezultă c0 = E(Xt+1 – c1X1 – c2X2 .10) Să notăm cu Yr variabilele aleatoare centrate Yr = Xr – m.2. x astfel ca E(Xt+1 – h(X))2 să fie minim.4) Cu alte cuvinte g minimizează distanţa pătratică între Xt+1 şi h(X). Derivăm h după c0 şi punem condiţia ca derivata să se anuleze.… .2.2. deoarece putem aplica criteriul lui Lebesgue de dominare: variabilele noastre sunt în L2.ct) (13.5) Problema de optimizat devine: Găsiţi c0. Să considerăm funcţia :t   dată de h(c0.2.2. Problema este că în cele mai multe modele realiste g este necalculabil.ct Yt)2 (13.2.2. Fiind strict convexă. Este vorba de a găsi minimul unei forme pătratice convexe. c) = E(Xt+1 – c0 – c1X1 – c2X2 .2. (13.5) găsim că avem de optimizat funcţia (c) = E(Xt+1 – m – c1( X1.2.c1. fiind condiţionat identic repartizate. Găsim -2E(Xt+1 – c0 – c1X1 – c2X2 . ca şi în primul capitol.9) Înlocuind în (13.… . Atunci funcţia (convexă!) de optimizat devine (c) = E(Yt+1 – c1 Y1 – c2Y2 .

Dacă însă r = j atunci E(YrYj) = E(Yr2) = E(E(Yr2)) = E(E(Xr-m)2)) = E(E(Xr-E(Xr)+(E(Xr) .rs2  j.14) Dar E(Yj) = E(Xj-m) = E(Xj) – m = () – m = () . atunci estimatorul liniar optim h(X) are forma h(X)=(1-z)m+ zM unde 291 .2. urmează că a c1 = c2 = … = ct = .17) ta  s 2 Concluzia finală este Teorema 13. dacă j  r variabilele aleatoare Yj şi Yr sunt condiţionat independente deci E(YrYj) = E(E(YrYj)) = E(E(Yr)E(Yj)) (13. (13. notaţia este corectă .2.15) Vom nota Var () cu a.m)2)) = E(E(Xr- ()2)) + 2E(Xr-()()-m) + E(() .….i.15) Înlocuind în (13.2.13) Pe de altă parte.12) găsim sistemul t c j (a + j.ct Yt)))1  r  t. În concluzie E(YjYr) = a + j.E() de unde r  j  E(YjYr) = Var () (13. Altfel ar fi trebuit să punem sr în loc de s.rs2) = a (13.2.r  1. Dacă variabilelele aleatoare (Xr)r  1 sunt din L2 şi i.2. condiţionat de  .2.d. Am notat E(Var(Xr)) cu s2.2. Grad  (c ) = (-2E(Yr(Yt+1 – c1 Y1 – c2Y2 .16) j 1 care se rezolvă foarte simplu. (13. Cum variabilele aleatoare Xr sunt identic repartizate. Adunînd toate ecuaţiile rezultă (ta + s2)(c1 + … + ct) ta = ta de unde suma coeficienţilor S = c1 + … + ct = .2.… . Cum sistemul se mai ta  s 2 scrie crs2 + aS = a .m)2) = E(Var(Xr)) + 2E(Xr- ())()-m) + Var () = s2 + 0 + a = a + s2.m)2)) = E(E(Xr-())+(() .2.2.12) Ecuaţia Grad  (c) = 0 devine t c j 1 j E(YrYj) = E(YrYt+1) (1.t (13.

…. C (.23) 292 .18) ta  s Definiţia 13. probabilitatea apriori cu densitatea U= u şi notăm E(Xr) cu (). s2 = E(Var(Xr)) (13. M = (X1 + … + Xt)/t. Se presupune că funcţia q() este derivabilă.) iar C(.Xt  Bt ) = Q(.2.2. deoarece depinde de trei parametri neobservabili: a 2 = Var (). m = E() şi s = E(Var(Xr)).21) unde se subînţelege că spaţiul parametrilor E = [0. Densitatea fX= se numeşte familie exponenţială dacă este de forma fX = (x) = p(x)e-x/q() (13. Uneori se poate întîmpla să coincidă ca h(X) să coincidă cu g(X) – adică estimatorul liniar optim să fie chiar estimatorul bayesian optim.Q(.. 1  r  t .2.B1)….Q() are densitatea fX= .2. s2 = E(Var(X1)) at  s (13.20) Tot demersul de pînă acum ar fi inutil dacă nu ar exista cazuri întîlnite în statistică care estimatorul Buhlman h(X) ar coincide cu g(X) . a = Var ().Xt) şi modelul Bayesian -P(X1  B1.….) este o constantă de normare. p( xt ) S fX = (x) = e unde S = x1 + … + xt (13.3 Numărul z se numeşte coeficientul de credibilitate al lui Buhlmann.). atunci g(X) = E(()X) =  () f X   ( X )u ()d() = E(Xt+1X) (13.22) q t () Să presupunem că densitatea apriori u a variabilei aleatoare  este de forma q()  e  u() = unde .2. În acest caz densitatea vectorului X este p ( x1 ) p( x2 ). El nu este o statistică ..19) f X   ( X )u ()d() iar estimatorul Buhlman este h(X) = Mz + (1-z)m cu at m = EXr. z = 2 . unde cele două chiar coincid.2. at z= 2 .Bt)  Br  B(). ) (13. Dăm acum o generalizare a exemplului 1. a = Var (). Definiţia 13.2.4.  [0.. Pe scurt: dacă avem observaţiile X = (X1.2.

r)1rt. Mai mult.2.24)  f X  y ( x )u ( y )d( y ) adică este de acelaşi tip ca şi densitatea apriori. sunt independenţi şi acceptăm la fiecare din ei acelaşi model Q. Ideea lui Buhlman a fost de a se apela la mai multe contracte independente de acelaşi tip..2. Dacă vectorii Xj = (Xj. sˆ 2j = r 1 = r 1 (13. ŝ 2 şi â definiţi mai jos sunt estimatori consistenţi pentru m.22) şi u(0) = u() = 0 atunci g şi h . Acum este o problemă de statistică obişnuită: căutăm trei estimatori nedeplasaţi pentru aceste cantităţi. densitatea apriori este de forma (1. În aceste condiţii densitatea aposteriori este f X  ( x )u () fX = x ()= = A(.r  tM 2j 1 ŝ 2 =  sˆ 2 j .r  M j ) 2 X 2 j .2. Se punem acum problema de a estima pe baza datelor de observaţie X cei trei parametri m. Var(Mj) = a + .19) coincid.2.2.De asemenea vedem că nu contează aşa de mult t (= istoricul ) cît contează k – numărul de contracte independente.x)e-(+S) / qt+() (13.2.2. 293 . Un răspuns este următorul: Propoziţia 13. cînd aceste varianţe tind la 0 o dată cu creşterea numărului de observaţii.21). (13.18) şi (13. s2 şi a 1 k M0 = M j (13. ŝ 2 şi â sunt estimatori nedeplasaţi pentru s2. Aici măsura  este măsura cardinal pe mulţimea numerelor naturale.27) k 1 t Prin Mj am notat mediile de selecţie ale vectorilor Xj. Var(M0) = (13.28) k t k Apare o evidentă deosebire faţă de cazul i. t .2. Un caz particular este dacă modelul este Poisson: repartiţia Poisson este de forma (13.26) k j 1 t 1 t 1 k  (M j  M 0 )2 j 1 sˆ 2 â = .2. Spunem că familia aceasta de densităţi este o familie conjugată. atunci M0.d.6.25) k j 1 t t k  ( X j ..i. a şi s2.2.5. Dacă modelul bayesian este familie exponenţială.. Varianţele sunt 1 s2 Var ( M j ) Var( ŝ 2 ) = Var ( sˆ12 ) . definiţi prin (13. Propoziţia 13.2.

În general estimatorul ẑ nu este nedeplasat. aˆt Corolarul 13. atunci X EX E X  Y se poate calcula. Observaţia 13.7. Dacă X şi Y sunt independente.i. în mod evident. este diferit de EX  EY . atunci egalitatea este adevărată! Ambele valori coincid.d. Ca amuzament. căci nu avem X EX motive să credem că o formulă de tipul E = ar putea fi adevărată. Variabila aleatoare ẑ = este un estimator pentru 2 aˆ t  sˆ coeficientul de credibilitate z care este consistent în k : adică k    ẑ  z .2. dacă X şi Y sunt i. X  Y EX  EY chiar în ipoteze restrictive. cu ½ ! 294 . de exemplu.2.8.

1971 11.. Statistică descriptivă. Teoria probabilităţilor şi statistică matematică.. New York-Berlin. Inferenţa statistică. 2000 18. 1994 4. 2004 9.... Statistică inferenţială. Craiu V. Editura Didactică şi Pedagogică. Editura Aeternitas. Ed. Craiu V.. Ciucu G... Elemente de teoria probabilităţilor şi statistică matematică. 2009 7. Bucureşti. Alba Iulia. Second edition..... Căbulea L. Presa Universitară Clujeană. Introducere în teoria probabilităţilor şi statistică matematică... Ediţia a II-a. Editura Tehnică. Căbulea L. Buiga A. Beganu G. Ciucu G. Universitatea „Babeş- Bolyai”. John Wiley. Bucureşti. teorie si aplicaţii. Florea I. Testing Statistical Hypotheses. Elemente de teoria probabilităţilor şi statistică matematică. 1998 17. Metode statistice aplicate în industria textilă. Jaradat M. Culegere de probleme. 1963 10...L.. Editura Didactică şi Pedagogică. Aldea M. Editura Tehnică. Hoel P. Ciucu G. New York. Statistică matematică. Curs şi culegere de probleme. Florea I.. Sâmboan G. Bucureşti. Bucureşti 2004 3... Universitatea „Babeş-Bolyai” Cluj – Napoca. Ciucu G. Parpucea I. Editura Universităţii din Oradea. Săcuiu I. Craiu V. Modele de regresie bazate pe funcţii spline. Cluj-Napoca.. Cojocaru N. Blaga P. Bărbosu D. 2001 5..1971 19. 1962 14. 2007 6.. Presa Universitară Clujeană. Statistică descriptivă. Baia Mare. Clocotici V. 1998 2.. Bucureşti. Teoria probabilităţilor şi statistică matematică. Aproximare în probabilităţi şi statistică. Editura Continental. Ciucu G. 2003 8. Bucureşti. Dobra D. Cluj-Napoca. 1986 15. 1967 13. Bibliografie 1. Lazăr D. (coordonator). Buiga A. Breaz N.. Editura Tehnică. Blaga P. Alba Iulia. Risoprint. Breaz N. Zelina I.G. Introduction to Mathematical Statistics. Editura Meteor Press. Econometrie. 2003 16. teorie şi aplicaţii. Culegere de probleme de teoria probabilităţilor.. Springer. Editura CUB PRESS 22.. Calculul probabilităţilor...... Florea I. 1974 12.. Calculul probabilităţilor şi statistică matematică. 1997 295 . Parpucea I. Editura Didactică şi Pedagogică. Alba Iulia. Lehman E. Editura Didactica.

Editura Albatros.. Paris... 2000 25. Sâmboan A. Trandafir R. Micu N.. 1979 35. Probleme de teoria probabilităţilor.. 1972 28. Matematici speciale.. Probabilités. Stoka M. Casa de editură-Transilvania Press. Bucureşti.. New York-Chichester-Brisbane. Casa de Editură Venus. vol. Bucureşti. Editura Didactică şi Pedagogică. Cluj – Napoca 2003 24.. Editura Fair Partners. Random Processes and Estimation Theory for Engineers. Trâmbiţaş R.. Mihoc Gh. Şabac I. Linear Statistical Models.. Presa Universitară Clujeană. Zbăganu Gh. Calculul probabilităţilor şi statistică matematică. 1971 26. Stark H. et all. Luca-Tudorache R.. Teoria probabilităţilor. Editura Universităţii. Editura Tehnică. Mihoc I.... Prentice Hall. vol. Teodorescu T. Gh.. 21. Pitea A. Bucureşti. 1983 33. Bucureşti.. Nicolescu L. Moon T.I. Editions Technip. Bucureşti. vol. 1990 30. Bucureşti. Culegere de probleme de teoria probabilităţilor şi statistică matematică. Iaşi. Editura Didactică şi Pedagogică. Teoria măsurii şi a probabilităţilor. Probleme de analiză matematică. Reischer C. Editura Didactică şi Pedagogică. Teoria probabilităţilor şi statistică matematică. II. Introducere în teoria probabilităţilor.C. Matematică pentru ingineri. Editura Didactică şi Pedagogică. Iaşi. Mathematical Methods and Algorithms for Signal Processing.20. 1980 23. Postolache M. Bucureşti. Stirling W.. Luca-Tudorache R. Basic Concepts of Probability and Statistics. Cluj-Napoca. 2007 27. 1986 32. J. Sâmboan G. Editura Tehnopress. 1998 37. Matematici speciale. Gh. Editura Didactică şi Pedagogică. Metode statistice. 2000 36. II. Universitatea „Babeş-Bolyai”. Zbăganu Gh.W. Şabac I.. analyse des données et statistique. Bucureşti.. Calcul integral... 2004 296 . Reischer C. John Wiley & Sons. Saporta G.. Metode matematice în teoria riscului şi actuariat. 1965 34.. Stapleton J. 2007 22...I. 1967 29. Editura Universităţii.H. Probability. Fătu C.. II. 1995 31. Woods J.K. Prentice Hall. 2006..

ANEXE 297 .

9726 0.5636 0.9830 0.9649 0.9664 0.9957 0.9875 0.9838 0.9495 0.7486 0.9332 0.9896 0.01 0.6736 0.9971 0.9 0.9265 0.9857 2.9977 0.9131 0.9474 0.8133 0.9693 0.9808 0.8186 0.6368 0.6808 0.9798 0.6293 0.9911 0.7290 0.6772 0.6591 0.8997 0.9861 0.9986 .9943 0.9938 0.5596 0.8 0.9934 0.9834 0.9713 0.9535 0.9032 0.9884 0.9968 0.9975 0.5910 0.7324 0.0 0.9948 0.5438 0.9980 0.7389 0.5793 0.1 0.9394 0.7422 0.9357 0.9979 0.9826 0.9525 0.4 0.9931 0.9974 0.9582 0.7224 0.08 0.9608 0.9981 0.7939 0.7549 0.9406 0.6 0.7357 0.9878 0.9177 1.6179 0.6700 0.7823 0.9099 0.5 0.6 0.7454 0.9890 2.09 0.7517 0.9985 0.5987 0.9936 2.9236 0.9932 0.9738 0.9960 0.07 0.9306 0.9147 0.8729 0.9756 0.9964 2.9671 0.9977 0.8849 0.7995 0.9192 0.5948 0.9946 0.9906 0.0 0.9982 0.9082 0.8599 0.7580 0.9966 0.5557 0.9850 0.5714 0.3 0.8770 0.4 0.8577 0.8554 0.9554 0.7764 0.5080 0.1 0.8212 0.8438 0.7734 0.9418 0.02 0.9985 0.6064 0.9706 1.9901 0.9 0.9846 0.8621 1.9772 0.5160 0.03 0.9779 0.8888 0.9599 0.8980 0.8389 1.9918 0.9441 1.8830 1.8315 0.9952 2.5753 0.7704 0.8159 0.9222 0.9616 0.7 0.7157 0.9783 0.6026 0.06 0.9881 0.9719 0.9505 0.9904 0.8264 0.8051 0.8810 0.9916 2.9940 0.9973 0.9066 0.9463 0.Gauss u 0.9922 0.6879 0.5871 0.04 0.7 0.05 0.4 0.9887 0.5 0.7642 0.1 0.6443 0.9641 0.6844 0.9319 1.7054 0.5000 0.8749 0.9821 0.2 0.6480 0.9452 0.8708 0.9564 0.8907 0.5199 0.5478 0.8531 0.8461 0.8643 0.5319 0.9953 0.8962 0.8365 0.8238 0.8078 0.6628 0.9484 0.9 0.9049 0.7257 0.9962 0.8869 0.8944 0.8340 0.9761 0.6950 0.8665 0.9370 0.9983 0.9345 0.9925 0.00 0.5359 0.9854 0.9750 0.9972 0.5 0.9929 0.9982 0.8508 0.0 0.5517 0.9974 2.8485 0.9913 0.9207 0.8 0.9793 0.2 0.7019 0.9788 0.9545 1.8023 0.9678 0.7 0.9909 0.9941 0.7910 0.8790 0.9984 0.9625 0.9292 0.8686 0.8 0.7088 0.9976 0.9955 0.9633 1.5279 0.9945 0.7611 0.9591 0.9984 0.9965 0.3 0.6554 0.9959 0.9767 2.5832 0.9986 0.9963 0.8289 0.9686 0.9868 0.7967 0.9978 0.6915 0.9115 0.9842 0.9382 0.9573 0.6517 0.9803 0.8106 0.9812 0.5040 0.7794 0.5675 0.9429 0.9656 0.6255 0.9015 1.6 0.2 0.9732 0.7881 0.3 0.9969 0.9949 0.7123 0.9864 0.9744 0.9893 0.9515 0.9956 0.6217 0.9981 2.6406 0.9951 0.9970 0.8925 0.9979 0. Anexa 1 Valorile funcţiei Laplace .7673 0.9699 0.9871 0.9927 0.5120 0.9162 0.6141 0.5398 0.6331 0.7190 0.9817 2.6664 0.9251 0.6103 0.6985 0.9961 0.7852 0.9279 0.9898 0.9920 0.9967 0.8413 0.5239 0.

727 1.289 1.042 2.457 2.704 80 0.440 1.776 3.015 2.624 2.807 24 0.120 2.533 2.056 2.796 2.689 1.638 2.753 2.250 10 0.000 2.341 1.397 1.314 1.078 6.686 1.160 2.145 2.692 1.697 2.228 2.896 3.681 1.313 1.319 1.706 1.048 2.764 3.695 9.819 23 0.995 1 1.925 3 0.684 1.052 2.415 1.479 2.821 63.086 2.131 2.110 2.485 2.372 1.684 1.699 2.860 2.306 1.576 .330 1.179 2.674 1.262 2.328 1.093 2.782 2.980 2.687 1.311 1.756 30 0.474 4.353 3.363 1.528 2.583 2.718 3.746 2.350 1.701 2.080 2.697 1.045 2.686 1.316 1.132 2.685 1.960 2.310 1.741 1.476 2.812 2.321 1.356 1.355 9 0.365 4.571 3.833 2.703 1.500 2.677 1.920 4.658 1.169 11 0.703 2.700 1.055 13 0.821 3.99 0.358 2.943 2.617 n>120 0.303 1.683 1.765 1.679 1.282 1.032 6 0.95 0.683 1.714 2.660 120 0.650 3.492 2.724 40 0.684 2.729 2.688 1.473 2.711 1.683 1.707 7 0.438 2.325 1. 0.060 2.447 3.771 28 0.064 2.684 1.074 2.390 2.750 35 0.291 1.069 2.779 27 0.333 1.567 2.101 2.318 1.201 2.895 2.878 19 0.671 2.541 5.000 3.708 2.685 1.921 17 0.467 2.106 12 0.602 2.681 1.423 2.763 29 0.306 2.365 2.326 2.816 1.734 2.314 12.75 0.725 2.182 4.947 16 0.345 1.771 2.383 1.688 1.518 2.706 31.021 2.030 2.977 15 0.706 2.761 2.711 2.012 14 0.508 2.841 4 0.886 2.645 1.657 2 0.998 3.787 26 0.691 1.462 2.604 5 0.717 2.831 22 0.315 1.740 2.721 2.694 1.323 1.303 6.845 21 0.499 8 0.552 2.690 1.690 2.681 3.695 1.861 20 0. Anexa 2 Cuantilele repartiţiei Student grade\prob.797 25 0.539 2.718 1.898 18 0.143 3.90 0.975 0.337 1.

1 14.92 19.831 1.26 7.8 59.02 14.2 46.25 3.91 10.6 44. 0.3 26.58 17.55 21.7 13.69 14 4.11 36.14 32.17 38. Anexa 3 Cuantilele repartiţiei  2 grade\prob.216 0.70 3.34 4 0.81 22.000 0.56 45.94 37.072 0.31 26 11.15 1.005 0.9 18.1 41.26 43.64 24 9.3 16.19 20 7.91 7.0 18.26 10.43 8.73 3.57 4.82 4.80 19 6.70 6.975 0.8 15.05 0.48 11.04 30.90 10.96 9.79 21.7 27.38 37.9 45.95 0.7 60 35.01 8.96 28 12.64 9.64 12.54 26.04 19.89 10.66 33.2 33.6 16.87 31.5 37.2 57.07 4.0 12.00 17 5.1 11.6 30.103 0.09 42.004 0.65 2.16 2.89 7.81 33.8 15.11 5.4 13.8 46.88 41.7 19.8 53.24 1.59 30.56 3.83 12.0 50.2 24.711 1.99 28.5 40.20 10.26 9.81 7 0.554 0.23 6.21 11 2.05 3.2 11.2 46.3 40 20.89 35 17.29 23 9.1 0.0 16.14 5.9 0.24 29.64 2.297 0.1 83.020 0.60 40.24 11.5 13.60 5.1 51.17 2.23 9.6 13.67 21.0 17.81 6.81 9.8 40.01 0.2 37.207 0.4 .44 28.4 16.67 10.5 48.1 49.051 0.211 4.000 0.99 18.5 23.20 36.34 44.68 16.3 88.21 3 0.30 28.64 27 11.14 15 4.07 3.6 15.93 22 8.27 19.65 40.84 7.06 23.87 16.49 13.9 12.61 9.20 30.58 16 5.09 2.38 9.77 39.36 24.60 5.8 15.03 23.2 12.09 9 1.39 10.71 3.5 11.1 14.9 24.98 25 10.59 30 13.07 16.55 22.01 5.41 39.17 14.56 38.31 23.584 6.3 14.3 34.41 18 6.77 47.57 5.77 27.5 43.676 0.94 4.92 41.9 36.5 20.92 36.3 11.5 20.001 0.60 3.4 79.6 16.65 27.47 8 1.18 2.63 6.28 5 0.5 24.63 2 0.56 8.9 12.47 34.51 17.26 7.41 31.7 49.115 0.5 38.99 1 0.36 15.66 5.02 6.78 9.11 43.484 0.34 1.0 21.84 5.57 7.01 35.412 0.4 26.8 55.09 6 0.57 21 8.07 12.67 35.40 5.63 8.1 29.872 1.59 10.41 7.8 18.8 15.5 74.25 7.73 2.5 29.31 25.99 7.2 18.00 27.72 12 3.59 14.22 13 3.66 10 2.57 4.4 17.33 4.61 32.6 22.29 35.28 29 13.3 63.8 32.85 32.08 24.54 11.68 26.1 14.06 7.2 13.9 14.5 13.2 18.31 20.26 8.69 2.352 0.3 16.23 6.8 12.74 40.4 42.35 11.5 20.30 18.41 34.86 25.025 0.989 1.24 1.7 22.03 8.1 13.010 0.016 2.

22 3.07 7.80 5.00 99.95 5.04 4 0.35 4.03 2.72 4.48 4.51 5.76 3.26 6.96 2.32 4.975 8.74 3.99 10.33 99.85 6.34 3.5 39.26 8.4 16.80 0.25 19.73 3.00 19.98 15.89 3.18 6.00 2.49 3.85 12 0.98 9.95 5.59 1.20 4.13 9.17 99.53 4.19 5.99 12.95 10.975 38.4 199.07 10 0.7 27.12 3.95 4.05 4.16 19.49 99.91 27.94 5.975 6.71 3.56 5.95 11 0.95 5.99 10.975 8.12 4.84 3.99 5.99 6.82 5.98 0.64 5.76 0.89 8.30 99.99 9.975 6.32 5.23 5.59 4.84 0.58 3.51 19.28 4.43 0.69 15.24 4.28 4.65 7.5 8.975 6.48 3.5 0.76 7.98 6.86 3.21 4.33 3.975 6.41 5.86 4.14 3.56 8.99 4052 4999 5403 5625 5764 5859 5930 5981 0.76 4.26 6.84 29.6 9.77 13 0.67 5.55 9.54 4.20 3.06 0.25 10.72 5.52 5.10 4.3 39.94 8.74 4.97 3.45 7.47 0.05 4.95 4.95 18.79 3.84 3.975 10.00 3.25 9.73 7 0.95 4.10 0.48 3.49 0.47 4.50 0.12 30.74 0.9 14.95 161.39 4.63 3.62 4.14 .71 5.46 28.26 13.21 15.09 3.2 10.85 2.39 10.03 0.70 14 0.99 16.33 19.61 5.04 4.44 4.975 7.16 6.4 39.75 8.67 3.38 3.43 7.19 6.57 6.85 3 0.20 18.20 6.88 4.3 39.06 4.09 6.975 6.20 5.Snedecor Gr2\Gr1 Prob.87 3.70 5.89 4.97 10.45 7.29 0.07 8.32 4.975 17.07 3.54 5.10 0.82 5 0.77 3.41 3.79 5.94 6.6 14.47 4.23 9 0.24 27.67 10.95 4.26 3.60 6.99 6.01 2.00 16.81 3.71 28.99 9.26 4.75 3. Anexa 4 Cuantilele repartiţiei Fisher .41 4.78 9.06 5.10 3.01 6.07 9.86 6.30 19.14 4.27 12.25 99.5 216 225 230 234 237 239 1 0.61 5.82 4.93 5.20 9.22 5.92 2.99 8.2 39.975 7.11 3.15 6 0.98 3.18 3.48 3.33 6.28 4.89 3.07 4.95 5.53 4.97 4.56 6.99 12.96 4.26 3.29 3.29 5.42 5. 1 2 3 4 5 6 7 8 0.41 5.37 2 0.30 0.65 4.221 4.39 6.37 6.28 9.0 8.60 9.60 0.0 39.70 4.99 11.71 6.69 3.47 8.63 6.35 19.12 3.39 7.1 15.85 7.83 4.90 0.02 6.99 5.46 4.50 3.99 98.15 8.83 2.24 3.30 4.7 14.60 3.99 34.65 7.60 3.86 4.08 4.2 39.975 648 800 864 900 922 937 948 957 0.88 3.12 4.39 0.07 6.59 6.95 6.55 5.46 4.10 0.36 0.26 8.89 5.63 4.04 7.99 9.88 3.66 0.95 5.66 3.99 4.91 2.61 3.74 5.99 5.06 5.44 8 0.39 5.82 4.35 4.12 9.51 0.975 12.37 3.76 2.36 9.95 17.95 3.95 4.4 14.52 15.55 8.04 3.01 8.91 9.21 5.0 14.99 21.55 5.06 11.59 3.4 0.0 15.85 0.36 3.50 3.07 3.15 6.70 5.42 6.95 4.46 4.11 2.35 99.

48 3.05 2.68 6.20 4.84 0.93 3.4 0.71 2.4 99.50 4.87 2.98 4.73 3.69 8.79 0.4 39.01 3.975 6.97 2.94 3.61 2.20 2.90 3.4 19.38 3.88 5.87 0.95 6.4 19.975 5.85 2.89 5.4 0.17 3.82 5.40 22 0.99 7.76 4.63 2.96 0.56 4.12 4.22 3.99 2.89 0.95 4.52 3.59 3.95 4.44 3.02 5.67 4.69 3 0.84 3.04 3.45 3.66 2.4 19.71 3.50 3.86 5.96 5.81 2.15 3.05 2.92 4.71 0.78 4.84 3.67 3.9 26.62 2.72 4.34 3. 0.74 8.99 3.93 5.1 27.975 5.04 4. 9 10 11 12 13 14 15 16 0.5 14.91 0.99 14.25 4.85 4.76 4.13 3.84 2.56 3.70 3.35 3.975 5.45 0.33 3.01 3.80 3.99 27.4 2 0.20 4.90 2.77 4.10 3.61 4.99 8.29 3.36 Anexa 4 (continuare) Gr2\Gr1 Prob.7 14.4 99.95 4.2 0.64 15 0.93 2.73 8.44 3.54 2.40 6.49 3.95 19.99 8.45 20 0.975 5.93 2.59 16 0.58 3.59 3.4 14.94 4.29 7.51 2.55 17 0.50 3.70 8.51 2.95 8.87 5.4 99.44 2.4 14.94 3.76 3.91 5.42 4.11 5.60 2.44 4.99 7.18 5.66 8.12 0.54 3.38 3.35 3.22 3.95 4.1 27.41 0.80 2.01 0.82 2.4 99.84 4 0.75 3.26 3.78 2.94 5.99 99.28 3.36 5.49 3.74 2.95 4.975 6.01 5.75 4.55 2.4 14.08 3.3 27.68 2.3 14.4 39.975 6.70 2.95 5.49 2.71 8.4 14.99 8.3 14.72 3.31 3.66 4.9 26.15 2.23 5.42 3.78 0.66 2.51 18 0.64 2.2 14.77 2.05 2.29 4.975 8.77 3.37 4.95 3.42 3.18 4.79 4.72 4.22 3.29 3.72 4.64 0.99 7.03 2.4 19.28 3.25 3.68 3.2 14.95 4.16 2.63 0.16 3.99 8.975 5.3 14.51 0.38 3.53 6.55 3.56 0.4 39.975 5.10 2.48 19 0.66 2.32 3.4 99.53 2.74 2.42 2.975 14.4 19.46 2.37 23 0.99 8.90 3.975 39.66 3.2 .41 3.57 2.13 2.4 39.30 3.82 4.75 8.86 3.41 3.1 27.02 2.95 4.90 8.975 5.58 4.43 4.87 4.4 39.01 2.79 8.82 3.09 2.44 3.41 3.18 3.10 3.40 3.78 3.46 3.01 2.81 0.4 19.4 19.71 2.4 99.69 4.8 0.47 3.22 3.90 2.81 8.3 14.79 8.42 21 0.84 8.38 3.87 4.51 3.17 3.54 3.4 39.09 4.32 3.36 24 0.0 26.95 4.24 3.06 0.10 3.87 3.4 39.63 3.99 8.64 3.01 2.5 14.51 3.90 2.10 5.62 4.56 3.00 0.58 2.03 3.14 4.83 4.95 4.72 8.26 3.34 4.76 8.00 5.06 2.79 2.29 3.4 99.99 8.95 4.87 2.61 3.01 4.07 2.20 0.3 14.32 4.89 4.96 2.

65 2.36 3.93 2.95 2.24 3.79 2.38 15 0.71 4.28 2.37 3.10 4.82 2.30 5.58 3.72 3.18 5.63 4.67 2.96 4.27 3.38 2.56 4.54 4.11 5.33 2.975 2.55 3.92 2.42 2.72 7.51 3.46 2.79 7.94 3.79 2.63 2.31 2.55 3.31 2.03 3.95 2.62 3.58 2.01 2.77 2.14 3.69 2.28 3.22 3.37 5.46 2.12 0.32 3.31 2.03 3.31 3.10 3.19 0.40 2.15 0.60 3.05 2.77 9.70 3.16 4.66 2.70 2.975 3.20 2.84 2.94 4.70 11 0.71 4.57 2.51 2.60 2.35 3.99 3.66 7.72 2.76 4.62 6.68 3.99 2.66 4.2 10.77 3.77 2.60 5 0.82 3.16 4.29 2.76 2.975 3.37 0.52 0.85 2.86 3.99 6.35 2.42 2.21 3.15 3.95 4.44 3.20 4.64 4.95 3.56 7.95 2.95 2.61 5.57 2.13 4.62 2.37 2.41 2.68 2.68 4.67 3.1 9.08 3.01 2.27 0.18 3.43 3.31 3.52 3.22 4.52 3.59 3.93 2.72 9.05 3.29 2.73 3.87 3.99 3.59 0.90 2.46 3.72 2.42 2.99 3.70 0.99 4.34 4.50 3.72 2.25 0.27 17 0.25 2.56 5.80 3.59 3.49 2.77 4.74 2.86 2.50 0.23 2.24 4.91 5.61 3.60 7.01 2.46 6.83 3.80 3.975 4.21 0.53 3.10 4.94 2.80 2.49 0.46 5.90 0.52 3.72 6. 0.60 4.85 2.975 2.975 4.52 5.64 2.05 3.19 3.39 4.48 2.65 4.57 6.48 2.96 3.27 2.975 2.31 6.95 4.01 3.82 9.53 3.67 4.65 2.95 2.85 2.89 7.20 8 0.39 3.12 3.02 2.62 3.25 18 0.975 3.68 3.99 4.05 5.47 3.99 5.96 3.95 2.73 5.75 3.95 2.30 4.975 3.49 7 0.62 4.25 4.21 3.99 4.86 2.78 0.06 4.84 0.51 2.91 2.46 4.73 2.03 0.81 5.26 2.95 2.99 4.98 3.52 0.19 4.41 6.96 2.67 5.60 12 0.89 2.76 2.39 3.78 3.20 3.88 2.44 14 0.36 4.48 0.22 2.95 2.60 3.26 5.05 .60 2.71 2.40 3.92 0.83 10 0.10 4.27 0.29 3.37 3.39 2.35 5.95 2.51 3.98 2.32 3.975 3.66 3.53 2.64 3.975 3.35 3.55 0.98 2.23 3.82 2.28 3.81 2.40 2.975 5.09 3.23 3.75 2.68 0.45 3.03 4.98 7.80 3.99 3.45 2.18 3.99 7.31 3.98 2.41 3.41 5.75 2.62 2.35 2.78 3.33 16 0.07 3.15 3.29 4.82 2.89 9.99 4.40 4.97 0.30 4.37 3.72 2.53 2.15 3.41 0.03 3.08 0.26 3.975 6.54 2.66 3.43 6.54 6.96 9.45 2.43 3.95 2.99 3.51 13 0.34 2.92 2.05 3.49 2.77 4.60 4.72 2.09 3.89 2.94 3.46 3.92 6 0.60 2.47 6.975 3.21 19 0.10 4.99 5.95 3.49 6.99 9 0.52 6.54 2.82 4.62 6.62 0.18 3.95 3.89 2.67 2.30 3.28 2.33 3.52 5.46 2.82 2.19 20 0.36 3.91 3.99 3.68 6.55 3.79 2.68 2.74 0.89 3.38 2.12 3.76 0.06 3.57 3.55 2.36 6.00 3.85 4.99 10.27 5.69 3.43 3.975 4.34 2.95 3.25 3.35 2.87 2.64 0.64 2.52 3.54 0.02 3.00 4.13 3.57 4.37 2.87 2.41 2.33 5.24 3.975 2.56 3.30 0.74 4.70 4.63 4.05 4.91 3.59 2.86 3.96 3.24 3.

95 2.97 2.13 2.50 2.95 2.53 2.17 3.94 0.99 0.26 3.64 2.65 2.70 2.22 2.54 2.13 2.03 2.17 2.95 2.53 2.60 2.34 2.11 2.89 2.975 2.18 2.99 3.99 3. 0.99 3.11 23 0.26 2.24 3.31 3.17 3.23 2.73 2.28 2.56 2.85 .27 2.57 2.53 2.21 3.64 2.18 2.47 2.41 0.69 2.18 2.18 3.302 2.62 2.67 2.76 2.20 2.975 2.56 2.13 22 0.26 3.20 2.98 2.35 3.975 2.73 2.07 3.60 2.09 24 0.15 2.50 2.40 3.30 2.21 2.32 2.80 2.03 2.99 3.12 3.12 3.47 2.70 2.25 2.37 2.98 2.68 2.25 2.975 2.30 2.44 0.23 2.09 3.02 2.93 2.47 0.95 2.30 3.44 2.32 2.15 2.15 2.89 0.93 2.50 2.14 3.51 0.07 .20 2.16 21 0.07 3.