Universitatea "Al.

I. Cuza" Ia³i

Facultatea de Matematic 

Statistic  prin

Matlab

- Note de curs -

[Iulian Stoleriu]

ii

Contents

1 Introducere în Statistic 
1.1 1.2 1.3 1.4 Scurt istoric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modelare Statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Organizarea si descrierea datelor Reprezentari grace 1.4.1 1.4.2 1.4.3 1.4.4 1.4.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3
3 5 8 12 12 13 14 15 16

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Reprezentare prin puncte

Reprezentarea stem-and-leaf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprezentarea cu bare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Histograme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprezentare prin sectoare de disc (pie chart) . . . . . . . . . . . . . . . . . . .

2 Elemente de Teoria probabilit µilor
2.1 2.2 2.3 2.4 Experienµe aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Deniµia axiomatic  a probabilit µii . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17
17 18 20 22

Câmp de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Câmp de probabilitate geometric  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii

2.5 2.6 2.7 2.8 2.9

Probabilit µi condiµionate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Caracteristici funcµionale ale variabilelor aleatoare . . . . . . . . . . . . . . . . . . . .

23 23 25 28 31 31 32 33 36 38 42 44 45 49 52

Caracteristici numerice ale variabilelor aleatoare . . . . . . . . . . . . . . . . . . . . . . Inegalit µi între momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.10 Standardizarea unei variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11 Corelatia si coecientul de corelatie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.12 Independenµa variabilelor aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.13 Exemple de repartiµii discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.14 Exemple de repartiµii continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.15 Transform ri funcµionale de variabile aleatoare . . . . . . . . . . . . . . . . . . . . . .

2.16 Tipuri de convergenµ  a sirurilor de variabile aleatoare . . . . . . . . . . . . . . . . . . 2.17 Teoreme limit  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18 Exercitii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.19 Exercitii propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 Experienµe aleatoare în Matlab
3.1 3.2 Scurta introducere în

53
53 57 57 58 58 59 61 62

Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Generarea de numere (pseudo-)aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 Generarea de numere uniform repartizate intr-un interval, U(0, 1) . . . . . . . . Generarea de numere repartizate normal, N (µ, σ) . . . . . . . . . . . . . . . .

Generarea de numere aleatoare de o repartitie data . . . . . . . . . . . . . . . . Metoda functiei de repartitie inverse (Hincin-Smirnov) . . . . . . . . . . . . . . Generarea de numere aleatoare intregi . . . . . . . . . . . . . . . . . . . . . . .

3.3

Repartitii uzuale in

Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iv

. . . . . . 4 Elemente de Statistic  descriptiv  4. . . . . . . . . . . . . . . . . . .3 5. . . . . . . . . . . . Integrarea folosind metoda Monte Carlo . . . . . . . . Selecµii în 91 91 93 98 Matlab . . . . . . . . . .4 Masuri descriptive ale datelor negrupate . . . . . . .5 3. . . . . . . .6 3. . . . . . . . . . . . .7 Alte comenzi utile în Matlab . . . . . . . .4 5. . . . . . . . . . . . . . . . . . . . . . .10 Justicari grace ale teoremei limita centrala . . . . . . . . . . . . . . . . .2 4. . . . . . . . . . . . . . . . . . . . . . . . . Exercitii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . Exercitii propuse . . . . . . . . . . . .9 Probabilit µi geometrice .2 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Masuri descriptive ale datelor grupate . . . . . . . . 3. . . . . . . . . . Selectii aleatoare dintr-o colectivitate normala . . . . . . . . . . . . . . . . . . . . . . . . . .7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 3. . . . . . . . .11 Exercitii propuse .1 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercitii propuse . 81 81 86 88 90 5 Noµiuni de teoria selecµiei 5. . . . . .1 3. . . . . . . . . Exemple de statistici . . . . . . . . .5 5. . . . . . . . . . . . . .3. . . . . . . . 63 64 65 67 67 69 70 71 77 80 Metoda Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Simularea arunc rii unui zar . . . . . .7. . . . . . . . . . . . . . . . . . . . . . 6 Noµiuni de teoria estimaµiei v 113 . . . . . . . . . . . . . . . . .8 3. . . . . . . . Simularea arunc rii unei monede . . . . . . . . . . . . .2 Matlab . . . . . .3 4. . . . . . . . . . . . . . . Repartitii probabilistice in Matlab . . . . . . 3. . . . 108 109 112 Exerciµii rezolvate . . . . . . . . . . . . . . . . . . . . 3. . . Experimente aleatoare în 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 Introducere . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . 113 120 122 124 125 127 128 132 134 135 135 136 137 140 Interval de incredere pentru selectii mari . . . . . . . . . . . .6. Metoda momentelor (K. . . . . . . . . . . . . . . . . . . . . cand dispersia este cunoscuta . .6. . . . . . .7 6. . . . . .6. . . . . . . . . . . . . . . Interval de încredere pentru diferenta mediilor . . . . . . . . . . . . . . . . . . . . . . . . . 6. . . . . . . . . .4 7. Testarea tipului de date din observatii . . . . . . . . . . . . . . . . 6. . . . . . . . .1 7. . . . . . . . .6. 7 Vericarea ipotezelor statistice 7. . . . . . . . . . . . . . . 6. . .2 6. . . . . . . . . . . . . . . . cand dispersia este necunoscuta . .2 6. . . . . . . . . . . Metoda celor mai mici p trate . . Metoda verosimilit µii maxime (maximum likelihood estimator) . Interval de încredere pentru medie. . .6. . . . . . . . . . . . .7 Interval de încredere pentru medie. . . . .1 6. . . . . . . Metoda minimului lui χ2 . . . . . . . . . . . . . . . . . . Etapele unei testari parametrice . . . . . . . . . .6. . Interval de încredere dispersie. . . . . . . . . . . Testul cel mai puternic . . . . . . . . . . . . . . . . . . . . .3 6. . . . . . . . . . . . . . . . . .1 6. . . . . . . .4 6. . . . . . . . . . . . . . . . . . . . . . Interval de încredere dispersie. . . . . . . . .3 6. . . .6 Punerea problemei . . . .4 6. . . . . . . . . . . . . . . . . . . . .5 6. . . . . . . 141 144 146 152 Paradox cu intervale de încredere . . . . . . . .5 6. . . . . . . . . . . . . . . . . . . .9 Tabel cu intervale de incredere Functii de estimatie in Matlab . .3 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Punerea problemei . . 6. . . . . . . . . . . vi 155 155 160 161 162 163 . .10 Exercitii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . cand media este cunoscuta . . . . . . . Interval de încredere pentru raportul dispersiilor . . . . . . . . . . . .2 7. . . . . . . . .6 6. . . . Pearson) . . . . . . . . . . . . . . .6. . . . . . . . . . . . . . . . . . . . . . . .6. . . . . . . . .8 6. . . . . Tipuri de teste statistice . . . . . . . . cand media este necunoscuta . . . . . Metoda cu intervale de încredere . . . . . . . . . . . . . . . . . . . . . . . . .11 Exercitii propuse . . . .

. . . . . . . .10 Testul raportului verosimilitatilor . .6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Testul Z in 165 165 168 Matlab . . . . . . . . 174 179 Testul χ2 pentru dispersie . . . . . .6. . .8 Exercitii propuse . . .6. . . 7. . . . . . .6. . . .7. . . . . . . . . . . . .7 7. . 7. . . . . . . 180 180 182 Testul F pentru raportului dispersiilor . Testul Z pentru dou  selecµii . .6. . . . . . . . . . . . . . Testul t in Matlab . . . . . . . . . . . . . . .9 Testul Z pentru o selecµie . . . . . . . . . .7. . . . . . . . .6. . . . .2 7. . . . . . 169 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 184 184 189 194 Teste de concordanta . . . . . . . . .6. . . .1 7. . . . . . . . . . . . . . . . . . . . .6. . . . . . . . . . . . . . . . . . . . . vii . . . . . . . . . . . . .4 7. 7. . . .6. . 170 173 Testul t pentru o selecµie Testul t pentru dou  selecµii . . . . . . . . .6 Teste parametrice . . . . . . . . . . . . . . . . . .7 Matlab . . . . . . . . . .5 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 7. . . .8 7. . . . . .2 Testul χ2 de concordanµ  . . . . . . . . . Testul χ2 in Matlab . .6. . . . . . . . . .3 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Testul de concordanta Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . .11 Tabel cu teste parametrice in 7. 7. . . . . . . . . . . . . . . . .7. .6 7. . . . . . .6. . . . . 7. . . . . . .

viii .

1 4. . . . . . . . . .List of Figures 1. . . . . . . . . . . .1 1.4 Reprezentarea cu puncte. . . . . . . . . . . .2 Cuantila de ordin α. . Vericare graca a teoremei limita centrala (varianta cu functiile de repartitie) . . . . . . . . Simularea jocului de darts.9 Reprezentarea cu histograme a datelor uniforme. . . . . . . . . . . . . . . . . . . . . . . Reprezentarile cu bare orizontale.1 3. . . . . . . . . . . . . . . . . .miscare aleatoare (brownian ). . . . . . . . . . . . . . . . . . . . . . . . Suma cumulata . . . . . Generare de numere aleatoare prin metoda functiei inverse. . . . . . . . . 4. . . . . . . . . . . 85 Functia de repartitie empirica si functia de repartitie teoretica pentru distributia normala. . . . . . . . . p = 0. . . . . . Reprezentarea cu histograme a datelor normale. . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . Reprezentarea pe disc a frecventelor relative ale notelor din tabelul cu note . . . . p) si P(np) pentru n = 100. . . . . . . . . . 13 14 15 16 Reprezentarile cu bare sau histograme. . . . . . . . . . .3 1. . . . . . . . .4 3. . . . .2 3. . . . .2 1. . 58 59 61 68 71 74 77 78 79 Simularea arunc rii unei monede corecte (a) ³i a unui zar corect (b) . . . . . . . . . . . .15 . . . . . . . . B(n. . . . 87 ix . . .6 3. . . . .8 3. 0. . . . . . . . . . . . . . . . . . .3 3. .5) . . . . . . . . .5 3. . . . . . . . . . . .7 3. . . Reprezentarea functiilor de probabilitate si de repartitie pentru B(10. . . . . . . . . . . .

. .3 7. . . . . . .3 Reprezentare pentru numarul de accidente. . . . . . . . . . . . . . . . . . . . . . . . Regiune critica pentru test unilateral dreapta. . . . Reprezentarea normala a datelor. . . . . . . . .1 6. . . . . . . . . . . . . . . . . . . . . 132 143 50 de realizari ale intervalului de incredere pentru µ . . . . . . . . . . . . . . .2 7. . . . . . . . . . . . . .4. . . . . . . . . . . . . . . . . . .4 160 161 161 164 Regiune critica pentru test bilateral. . . .2 Intervalul de incredere pentru Exercitiu 6. . .27. . . . . . Regiune critica pentru test unilateral stanga. . . . . 89 6. . . . . . . . . . . . . . . . . . . . . x . . . . . . . . . . . . . . . . . . . . . . .1 7. . . . . . . 7.

. . . . . . . . . . . . . . . . . . . . . . . . . . Teste pentru egalitatea a doua medii. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Functii 88 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabel cu note. 4. . . . . .2 Repartitii uzuale in Funcµii Matlab . . . .4 Tabel cu frecvente pentru date discrete.4 7. . . . . . . . . . . . . . . . . . . . . xi 159 159 160 172 174 177 . . . . . . . . . . . Decizii posibile. . . . . . 3. . . . . . . 62 64 Matlab utile . . . . . . . . . . . . . . . . . . . . . . . . .1 1. . . . . . . . . . . . . . . . . . . . . . .2 7. . . . 140 144 7. . . . . . . . . .6 Posibilitati decizionale. . . . . . . . . . . . . . . . . . . . . . . . . . Estimatori punctuali uzuali pentru parametri. Tabel . . . . . . . . . . .1 7. Matlab specice pentru masuri descriptive. . . . . 10 11 12 13 Tabel cu frecvente pentru date continue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . stem-and-leaf reprezentand punctajele studentilor. .1 6. Erori decizionale. . . . . . . . . Teste pentru valoarea medie a unei colectivitati. . . .3 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 7. . . .3 7. . . . . . . . . .2 Tabel cu intervale de incredere. . . . . . . . . . . . . . . . .1 3. . . . . . . . . . . . . . . .List of Tables 1. . . . . . . . . . . . . . . . . . . . . . . . . Tabel cu frecvente pentru rata somajului. . . . . . . . . . . . . . . . .2 1. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . Tabel cu teste parametrice. . . . .25). . . . .15 Frecventa inaltimii barbatilor dintr-o anumita regiune. . . . . . Teste pentru raportul dispersiilor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 7. . . . . 1 . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . .14 Probabilitati de asteptare in statia de tramvai. . . . . . .13 Timpi de asteptare in statia de tramvai. 7. . . . . . . . . . . . . .9 Teste pentru dispersie.11 Tabel cu numarul de goluri pe meci la FIFA WC 2006. 180 182 183 185 188 188 191 192 193 194 7. . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . .7 7. . . . . . . . . . . . .16 Distributia copiilor intr-o familie cu 4 copii. . . . .12 Tablou de distributie pentru P(2. . . . . . . . . .7. . . . . . . . .10 Tabel cu numarul de puncte obtinute la aruncarea zarului. . . .

2 .

în vederea explic rii unor fenomene reale.Chapter 1 Introducere în Statistic  1. ne-am dori sa putem descrie aceste fenomene cu ajutorul variabilelor aleatoare. Aria de aplicabilitate a Statisticii este foarte mare: ³tiinµe exacte sau sociale. oamenii au anumite intuitii despre realitatea ce ne inconjoara. colectarea si unicarea tuturor datelor intr-un timp record nu este o masura deloc practica. dar scopul este de a oferi o aproximare cat mai dela si cu costuri limitate. din nevoile guvernelor de a colecta date despre populaµiile 3 . Plecând de la colecµiile de date obµinute dintr-o colectivitate. umanistic  sau afaceri. De regula. Statistica introduce metode de predicµie iprognoz  pentru descrierea ³i analiza propriet µilor întregii colectivit µi. de aceea ne-am dori sa construim un model matematic ce sa ne conrme intuitia. In ambele probleme mentionate. daca intr-o anumita zona a tarii rata somajului este ridicata. Un alt gen de problema: ardem de nerabdare sa aam cine va  noul presedinte. De aceea. realitatea nu poate  complet descrisa de un astfel de model. Statistica ap rut în secolul al XVIII . observatiile si culegerea de date au devenit prima treapta spre întelegerea fenomenului studiat. Chestionarea tuturor persoanelor ce au votat. de organizarea ³i interpretarea lor. este de asteptat ca in acea zona calitatea vietii persoanelor de acolo sa nu e la standarde ridicate. Totusi. De exemplu.lea.1 Scurt istoric Statistica este o ramur  a ³tiinµelor ce se preocup  de procesul de colectare de date ³i informaµii. erori care tin de intamplare. ne-am dori sa m cat mai precisi in evaluarea legaturii dintre rata somajului si calitatea vietii. In ambele situatii mentionate apar erori in aproximare. pe care le doresc a  conrmate intr-un mod cat mai exact. imediat ce sectiile de votare au inchis portile (exit-pole). De cele mai multe ori.

sau pentru a studia efectele înc lzirii globale. • în Biologie. În 1749. • în “tiinµele educaµiei. pentru corelarea cererii cu oferta. sau numai elevii dintr-o ³coal . sau totalitatea produselor agricole cultivate . pentru a verica daca un anumit partid politic mai are sprijinul populaµiei. în secolul al XIX-lea. • în Meteorologie. pentru a prognoza vremea într-un anumit µinut pentru o perioada de timp. • etc. • în psihologie. • în Medicin . pentru testarea unor noi medicamente sau vaccinuri. este nevoie de a identica mai întâi care este colectivitatea asupra c reia se dore³te studiul. cuvântului statistic  i³i are originile în expresia latin  statisticum collegium (însemnând consiliul statului) ³i cuvântul italian statista. Aceast  colectivitate (sau populaµie) poate  populaµia unei µ ri. pentru studiul rentabilit µii unor noi produse introduse pe piaµ . Din punct de vedere etimologic. • în “tiinµele sociale. în vederea stabilirii gradului de corelaµie între timiditate ³i singur tate. • în Politologie. • în Economie. ce utilizeaz  aparatul matematic. Mai târziu. Sir John Sinclair a extrapolat termenul la colecµii ³i clasic ri de date. pentru a studia care culturi sunt mai potrivite pentru a  cultivate pe un anumit teren arabil. Metodele statistice sunt ast zi aplicate într-o gam  larg  de discipline: • în Agricultur . germanul Gottfried Achenwall a introdus termenul de Statistik. pentru a g si cel mai ecient mod de lucru pentru elevi sau pentru a studia impactul unor teste naµionale asupra diverselor caregorii de persoane ce lucreaz  în înv µ mânt. pentru clasicarea din punct de vedere ³tiinµic a unor specii de plante sau pentru selectarea unor noi specii. Datorit  originii sale.4 pe care le reprezentau sau de a studia mersul economiei locale. desemnat pentru a analiza datele referitoare la stat. sau pentru a analiza cum se schimb  standardele de viaµ . Statistica este considerat  de unii ca ind o ³tiinµ  de sine st t toare. în vederea unei mai bune administr ri. de exemplu. pentru a studia impactul crizei economice asupra unor anumite clase sociale. Pentru a analiza diverse probleme folosind metode statistice. însemnând om de stat sau politician. ³i nu este privit  ca o subramur  a Matematicii.

cum ar : Algebra liniara. studiind doar o parte din ea. În contul Statisticii interenµiale putem trece luarea de decizii asupra unor ipoteze statistice. In general. mediana. θ) + eroare de aproximare. descrierea leg turii între diverse caracteristici etc. Modurile de colectare a datele pot  diverse: putem face un sondaj de opinie. încât s  putem trage concluzii foarte precise despre anumite tr s turi ale întregii colectivit µi. bare.g. Aceast  descriere a tras turilor unei colectivit cti poate  f cut  aât numeric (media. Exist  o ramur  a statisticii ce se ocup  cu descrierea acestei colecµii de date. histograme etc). care trage concluzii despre caracteristici ale întregii colectivit µi. se nume³te Statistic  inferenµial .1) . Analiza matematica. Statistica Matematic  este o subramur  a Matematicii ce se preocup  de baza teoretic  abstract  a Statisticii. daca este vreo corelatie intre numarul de ore de lumina pe zi si depresie).2 Modelare Statistica De obicei. datele culese pot  procesate într-un anumit fel. cautand sa extraga informatii si sa le interpreteze din datele culese pe cale experimentala. Dac  se dore³te studiul unei tr s turi comune a tuturor membrilor colectivit µii. 1. sau prin simpla observare a caracteristicilor. (1. punctul de plecare este o problema din viata reala. e. cât ³i grac (prin puncte. Aceast  ramur  a Statisticii. Este nevoie de o metoda bine stabilita de colectare a datelor si sa construim un model statistic potrivit pentru analiza acestora. dar si notiuni din alte ramuri ale Matematicii. estimarea caracteristicilor numerice ale unor tr s turi comune întregii colectivit µi. daca un anumit medicament este relevant pentru boala pentru care a fost creat. numit  Statistic  descriptiv . quantile. de aceea este mult mai practic de a strânge date doar despre o submulµime a întregii populaµii ³i de a c uta metode eciente de a extrapola aceste observaµii la toat  colectivitatea. care partid are o sustinere mai buna din partea populatiei unei tari. descrierea gradului de corelare între diverse tipuri de date. este de multe ori aproape imposibil de a observa aceast  tr s tur  la ecare membru în parte. sau toate bunurile produse într-o uzin . Aceasta utilizeaza Teoria probabilitatilor.. trebuie sa decidem ce date avem nevoie sa colectam. pentru a putea da un raspuns la intrebarea ridicata si cum le putem colecta. tendinµe etc). date culese de noi pot  potrivite intr-un model statistic prin care Data observata = f (x. Apoi. sau prin experiment. De asemenea.Introducere în Statistic  5 într-un anumit µinut. dispersia.

Numit o recens mânt. Altfel. parametrii ind astfel caracter- istici numerice ale colectivitatii. Daca extragerea se face la intamplare. in cazul in care volumul colectivitatii este mare sau foarte mare (e. atunci putem presupune ca selectia efectuata este repetata. De aceea. care poate  determinat sau nedeterminat. Aceasta poate  nita sau innita. atunci spunem ca am facut o din selectia aleasa se va numi volumul selectie intamplatoare. daca volumul intregii populatii statistic este mult mai mare decat cel al esantionului extras. Selectia nerepetata nu prezinta interes daca volumul colectivitatii este nit. O selectie (sau esantion) este o colectivitate partiala de elemente extrase (la intamplare sau nu) din colectivitatea generala. unei populatii statistice este o anumita proprietate urmarita la indivizii ei Volumul unei colectivitati statistice este dat de numarul indivizilor ce o constituie. atat din punctul de vedere al timpului necesar.g. insa aceasta s-ar putea dovedi o munca extrem de costisitoare. La randul lor. Denim o populatie (colectivitate) statistica o multime de elemente ce poseda o trasatura comuna. Numarul indivizilor selectiei. Modelul astfel creat este testat. si eventual revizuit. chiar daca in mod . in scopul cercetarii lor din punctul de vedere al unei caracteristici. cat si din punctul de vedere al depozitarii datelor culese. deoarece in acest caz probabilitatea ca un alt individ sa e ales intr-o extragere nu este aceeasi pentru toti indivizii colectivitatii. Pe de alta parte. x este vectorul ce contine variabilele masurate si θ e un parametru. Caracteristicile pot depinde de unul sau mai multi parametri. Daca se face o enumerare sau o listare a ecarui element component al unei a populatii statistice. Selectia ar trebui selectie repetata (sau cu repetitie) o selectie selectie in urma careia individul ales a fost reintrodus din nou in colectivitate. este foarte intemeiata alegerea unei selectii de date din intreaga populatie si sa urmarim ca pe baza datelor selectate sa putem trage o concluzie in ceea ce priveste variabila colectivitatii.. Caracteristica (variabila) itative (nemasurabile sau in procesul prelucrarii statistice. variabilele cantitative pot  discrete (numarul de sosiri ale unui tramvai in statie) sau continue (timpul de asteptare intre doua sosiri ale tramvaiului in statie). avem o nerepetata.6 unde f este o functie ce verica anumite proprietati. colectivitatea este populatia cu drept de vot a unei tari si caracteristica urmarita este candidatul votat la alegerile prezidentiale). reala sau imaginara. atunci spunem ca am facut un sa e reprezentativa pentru populatia din care face parte. Suntem interesati in a masura una sau mai multe variabile relative la o populatie. Caracteristicile pot : cantitative (masurabile sau variabile) si cal- atribute). astfel incat sa se potriveasca intr-o masura cat mai precisa datelor culese. deoarece unele date culese au caracter stochastic (nu sunt deterministe). Termenul de eroare apare deseori in pratica. Elementele ce constituie o colectivitate statistica se vor numi unitati statistice sau indivizi.

• selectie sistematica. • selectia de tip experienta. nivelul de precizie al informatiilor etc. in functie de urmatorii factori: disponibilitatea informatiilor necesare. iar alegerea se face la intamplare din ecare categorie. • si altele. costul operatiunii. in anumite cazuri. aleg din ecare judt un anumit numar de persoane. • selectie simpla de un volum dat.. primul numar ind ales la intamplare (simplu) dintre primele 10 din lista). care este un esantion straticat construit prin selectarea de selectii din anumite straturi (nu din toate). Alegerea ar poate facuta si in functie de marimea ecarui grup ce compune colectivitatea totala (e. proportional cu numarul de persoane din ecare judet).. in care populatia este separata in categorii.. Se aplica doar pentru colectivitati omogene din punctul de vedere al trasarurii studiate. in general. care tine cont de elementul temporal in selectie. prin care toti indivizii ce compun populatia au aceeasi sansa de a  alesi. ce presupune aranjarea populatiei studiate dupa o anumita schema ordonata si selectand apoi elementele la intervale regulate. Spre exemplu. Mai jos prezentam cateva metode de selectie. fara repetitie. unul foarte mic comparativ cu volumul populatiei cu drept de vot) se face. (e. (care este un caz particular de selectie straticata) care se construieste prin selectarea unui numar de elemente din ecare strat dupa o anumita cota sau proportional cu marimea subgrupului din care face parte. daca dorim sa facem o prognoza a cine va  noul presedinte la alegerile din toamna.g. Acest tip de selectie face ca ecare grup ce compune populatia sa poata  reprezentat in selectie.g. • selectie ciorchine. in vederea aplicarii testelor statistice. esantionul ales (de altfel. (e.g. Aceasta metoda mininimizeaza riscul de a  partinitor sau favorabil unuia dintre indivizi.Introducere în Statistic  7 practic ea este peretata. dar il putem considera a  o selectie repetata. alegerea a ecarui al 10-lea numar dintr-o carte de telefon. Aceasta metoda are neajunsul ca. Dintre selectiile nerepetate amintim: . diversi timpi de pe o encefalograma). nu reecta componenta intregii populatii. • selectie straticata. Selectiile aleatoare se pot realiza prin diverse metode. • selectie cota.

Datele inainte de prelucrare. .8 • selectie de convenienta: de exemplu. de aceea se urmareste a se grupa datele. In cazul din exemplu.3 Organizarea si descrierea datelor Presupunem ca avem o colectivitate statistica. sau date continue. daca aceasta caracteristica este continua (o variabila aleatoare de tip continuu). colectivitatea este multimea tuturor studentilor dintr-o universitate inrolati intr-un anumit timp. Primul pas in analiza datelor proaspat culese este de a le ordona si reprezenta grac. se numesc zilnic. este: date negrupate. de ecare gen. specicat 871 822 729 794 523 972 768 758 583 893 598 743 761 858 948 598 912 893 697 867 877 649 738 744 798 812 793 688 589 615 731 De cele mai multe ori. Asadar putem selecta proportional cu numarul persoanelor din ecare rasa.g.. De exemplu. este util sa grupam datele dupa numele candidatilor. • selectie de cota: selectia ar trebui sa e o copie a intregii populatii. Aceste date poti  date discrete. daca sunt obtinute in urma observarii unei caracteristici discrete (o variabila aleatoare discreta). intr-o scara mult mai mica).. adica exact asa cum au fost culese. • si altele. dar la o scara mult mai mica. (e. Imaginati-va ca enumeram toate voturile unei selectii intamplatoare de 15000 de votanti. pentru o mai usoara gestionare. • selectie de judecata: cine face selectia decide cine ramane sau nu in selectie. dar si de a calcula anumite caracteristici numerice pentru acestea. origine etnica etc) (e. Mai degraba. datele vor  cantitative si discrete. Vom numi informatiile obtinute in urma observatiei valorilor acestei caracteristici. abia iesiti de la vot. dupa cum caracteristica (sau variabila) observata este calitativa sau. numarul de apeluri la 112 in luna Iulie. cantitativa. Datele pot  date sau calitative cantitative. precizand numarul de voturi ce l-a primit ecare. 1. iar caracteristica este numarul de credite obtinute de studenti in decursul acelui an). enumerarea tuturor datelor culese este dicil de realizat. alegem dintre persoanele care trec prin fata universitatii. careia i se urmareste o anumita caracteristica.g. respectiv. persoanele din Parlament ar trebui sa e o copie reprezentativa a persoanelor intregii tari.

In tabelul 1.g. . Observaµia 1.1 O gluma povestita de matematicianul ungur György Pólya. Un individ suferind merge la medic. este totusi consolat de doctor cu vestea cea buna: "Dar dumneavoastra ati venit la mine si asta va face tare norocos". suma tuturor frecventelor relative este egala cu 1. despre cum NU ar trebui interpretata frecventa relativa. . si se va numi a lui X .. respectiv. . draga domnule pacient. frecvente sau frecvente relative. O frecventa relativa se obtine prin impartirea frecventei absolute a unei categorii la suma tuturor frecventelor din tabel. continua optimist doctorul. "Am avut deja noua pacienti ce au avut aceeasi boala si toti au murit. adica frecventa absoluta.Introducere în Statistic  9 Gruparea datelor Datele prezentate sub forma de distributie (tabel) de frecvente se numesc date grupate. 2. . sunt prezentate notele studentilor din anul al III-lea la examenul de Statistica.. xn }) si au valorile distincte x1 ." . ii spune pacientului: "Of. Elementele unui tabel sunt. . x2 ." Pacientul. . doar unul scapa. Astfel. . (i = 1.1) sau intr-un tablou de frecvente.. Suferiti de o boala groaznica. continue. r ≤ n. Mai intai va aduc la cunostinta vestea proasta. . .. ..  xr   fr unde fi este frecventa aparitiei valorii xi . . dupa cum caracteristicile studiate sunt variabile aleatoare discrete sau. din zece pacienti ce contracteaza aceasta boala. deja in culmea disperarii. balansand dezamagit capul. Datele de se- lectie obtinute pot  date discrete sau date continue. atunci ele pot  grupate intr-un asa-numit tabel de frecvente (vezi exemplul din Figura 1. Statistic vorbind.. am o veste foarte proasta si una buna. Medicul il examineaza indelung si. distributia empirica de selectie Aceste frecvente pot  absolute sau de relative. Un tabel de frecvente (sau o distributie de frecvente) contine toate categoriile ce sunt observate din datele colectate si numarul de elemente ce apartine ecarei categorii in parte.1. x2 . daca nu e cu b nat. . . Acesta este exemplu de tabel ce reprezenta o caracteristica discreta. r ). xr .. de regula: valori pentru variabile. dupa cum urmeaza:   x1 data :  f1 x2 f2 . {x1 . (1) Daca datele de selectie sunt discrete (e. asa ca veti supravietui.

46 1.  [ar−1 .30 4.67 3.99 0..30 4.75 1.44% 8.33 2.94 3.51 3.19 1.34 4.03 0.48 2.33 5.95 0.10 nota 2 3 4 5 6 7 8 9 10 Total frecventa 2 4 8 15 18 17 15 7 4 90 frecventa relativa 2.79 1.01 2.26 0.08 2.53 4.74 3.16 4. a1 ) data :  f1 [a1 .58 5.41 5.77 2.67 2.00% 18.41 3.89% 16.64 2.. atunci se obisnuieste sa se faca o grupare a datelor de selectie in clase.65 1.98 0.2): .55 3.32 3.50 4...49 0.40 2.79 3.67 0.04 5.35 3.50 0.88 5.22 5.95 5.12 reprezentand timpi (in min.36 4.91 1. fr sau sub forma unui tabel de distributie (vezi tabelul 1.78 2.51 5.67% 20.12 3.12 4.08 3.85 3.97 0.55 1.55 2.36 1.64 1. Putem grupa datele de tip continuu intr-un tablou de distributie de forma:   [a0 .76 1.35 1. .77 3.14 2.71 2.69 5.98 4.92 4.89 3.32 5.31 3.1: Tabel cu frecvente pentru date discrete.44% 100% Table 1.89 1.83 4.10 4. (2) Daca X este de tip continuu. a2 ) f2 .92 2. ni se dau urmatoarele date: 1.70 5.22% 4.06 3.14 2.80 0.13 3.44 1.87 0.14 2.63 1. De exemplu.40 3.58 5.88 4.64 4.28 0.02 2. ar )  .20 2.88 1.55 5.67% 7.08 4.41 1.48 2.86 5.95 0.78 2.78% 4.75 2.89% 16.68 2.sec) de asteptare pentru primii 100 de clienti care au asteptat la un ghiseu pana au fost serviti.76 0.74 4.

[35. [ar−1 . .3. . 1)  14 [1.. 6)  . ai ). De exemplu. . putem grupa datele de tip continuu de mai sus in tablou de distributie:   [0. . 4) 18 [4. Frecventa cumulata a unei clase este suma . Invers (avem tabelul sau tabloul de repartitie si vrem sa enumeram datele) nu este posibil decat in cazul unei caracteristici de tip discret. 35). 2 r • fi este frecventa aparitiei valorilor din [ai−1 . . 65). a2 ) . . 45). 55). . xr   fr • xi = ai−1 + ai este elementul de mijloc al clasei [ai−1 .3.2: Tabel cu frecvente pentru date continue. a1 ) [a1 .Introducere în Statistic  11 clasa frecventa valoare medie [a0 . [55.. valorile de mijloc sunt scrise in coloana cu varsta medie. nu am putea sti cu exactitate varsta exacta a persoanelor care au fost selectionate pentru studiu. ar ) fr xr Table 1. Vom numi valoare de mijloc pentru o clasa. frecventelor tuturor claselor cu valori mai mici. 25). daca ne sunt data o insiruire de date ale unei caracteristici discrete sau continue. i=1 fi = n. Observam ca acest tabel are 5 clase: [18. 14 Uneori. r)). . [25. ai ). f1 f2 . . 2. 5) 16  [5. daca ni se da tabelul 1. ce reprezinta rata somajului intr-o anumita regiune a tarii pe categorii de varste. Asadar. atunci le putem grupa imdiat in tabele sau tablouri de frecvente. (i = 1. tabelul de distributie pentru o caracteristica de tip continuu mai poate  scris si sub forma:   x1 data :  f1 unde  x2 f2 . x1 x2 . Asadar. . In cazul tabelului 1.. 2) 17 [2. valoarea obtinuta prin media valorilor extreme ale clasei. . 3) 21 [3.. [45.

12

varsta

frecventa 34 76 124 87 64 385

frecventa relativa 8.83% 19.74% 32.21% 22.60% 16.62% 100%

frecventa cumulata 8.83% 28.57% 60.78% 83.38% 100.00% -

varsta medie 21.5 30 40 50 60 -

[18, 25) [25, 35) [35, 45) [45, 55) [55, 65)
Total

Table 1.3: Tabel cu frecvente pentru rata somajului.

Vom numi o

serie de timp (sau serie dinamica ori cronologica) un tablou de forma
  x1 data :  t1 x2 t2 ... ...  xn  , tn

unde valorile xi sunt variabile de raspuns, iar ti momente de timp (e.g., seria de raspunsuri pe care le citeste un electrocardiograf).

1.4 Reprezentari grace
Un tabel de frecvente sau o distributie de frecvente (absolute sau relative) sunt de cele mai multe ori baza unor reprezentari grace, pentru o mai buna vizualizare a datelor. Aceste reprezentari pot  facute in diferite moduri, dintre care amintim pe cele mai uzuale.

1.4.1

Reprezentare prin puncte

Este folosita pentru selectii de dimensiuni mici. Sunt reprezentate puncte asezate unul peste celalalt, reprezentand numarul de aparitii ale unei valori pentru caracteristica data. Un astfel de grac este reprezentat in Figura 1.1.

Introducere în Statistic 

13

0.6

0.4

0.2

0

5

6

7

8

9

10

Figure 1.1: Reprezentarea cu puncte.

1.4.2

Reprezentarea stem-and-leaf

Sa presupunem ca urmatoarele date sunt punctajele (din 100 de puncte) obtinute de cei 20 de elevi ai unei grupe la o testare semestriala.

50 55 59 61 62 64 68 68 73 75 77 77 77 79 81 85 96 86 92 96
Tabelul 1.4 reprezinta aceste date sub forma

stem-and-leaf (ramura-frunza).

Se observa ca acest tabel

arata atat cum sunt repartizate datele, cat si forma repartitiei lor (a se privi gracul ca avand pe OY drept axa absciselor si OX pe cea a ordonatelor). Asadar, 7|5 semnica un punctaj de 75. steam leaf

9 8 7 6 5
Table 1.4: Tabel

26 1566 357779 12488 059

stem-and-leaf reprezentand punctajele studentilor.

14

1.4.3

Reprezentarea cu bare

Este utila pentru reprezentarea variabilelor discrete cu un numar mic de valori diferite. Barele sunt dreptunghiuri ce reprezinta frecventele si nu sunt unite intre ele. Fiecare dreptunghi reprezinta o singura valoare. In Figura 1.21 sunt reprezentate datele din tabelul cu note. Comenzile MATLAB uzuale pentru reprezentarea cu bare sunt:

bar(X, Y ); barh(X, Y ); bar(X, w);

deseneaza vectorul Y vs. vectorul X deseneaza pe orizontale vectorul Y vs. vectorul X deseneaza vectorul X vs. 1:N (N este lungimea lui X ); w = latimea barelor.

De exemplu, comanda care produce primul grac din Figura 1.2 este:

bar([2:10], [2 4 8 15 18 17 15 7 4], 0.5)

Figure 1.2: Reprezentarile cu bare sau histograme.

Comanda

Matlab urmatoare produce gracul din Figura 1.3, corespunzator datelor din tabelul 1.4:

barh(5:9,[3 5 6 4 2],.5)

Introducere în Statistic 

15

1.4.4

Histograme

O

histograma

este o forma pictoriala a unui tabel de frecvente, foarte utila pentru selectii mari de

date de tip continuu. E un set de dreptunghiuri, ale caror numar este numarul de clase, latime este intervalul clasei, iar inaltimea este asa incat aria ecarui dreptunghi reprezinta frecventa, asa incat aria totala a tuturor dreptunghiurilor este egala cu numarul total de observatii. De exemplu, histograma asociata tabelului cu varstele somerilor este cea reprezentata in Figura 1.22 . Comenzile MATLAB uzuale pentru crearea histogramelor sunt:

hist(X, n); hist(X, Y );

unde X este un vector, n este numarul de histograme deseneaza distributia vectorului X , cu numarul de histograme dat de lungimea vectorului Y .

Figure 1.3: Reprezentarile cu bare orizontale.

De exemplu, codul care produce gracul al doilea din Figura 1.2 este:

X = [7*rand(34,1)+18; 10*rand(76,1)+25; 10*rand(124,1) + 35; ... 10*rand(87,1)+45; 10*rand(64,1)+55]; % genereaza un vector X ca in tabelul 1.3 hist(X,5); axis([15 70 0 130]) % deseneaza 5 histograme % fixeaza axele

16

1.4.5

Reprezentare prin sectoare de disc (pie chart)

Se poate desena distributia unei caracteristici folosind sectoare de disc, ecare sector de disc reprezentand cate o frecventa relativa. Aceasta varianta este utila in special la reprezentarea datelor calitative. Comanda MATLAB pentru un produce Figura 1.4 este:

pie chart pentru un vector X

este pie(X). De exemplu, comanda care

T = [10 11.11 15.56 25.55 22.22 15.56]; pie(T,{'Nota 5','Nota 6', 'Nota 7', 'Nota 8', 'Nota 9','Nota 10'})

10%

16%

11%

Nota 5 Nota 6 Nota 7 Nota 8 Nota 9 Nota 10

22% 16%

26%

Figure 1.4: Reprezentarea pe disc a frecventelor relative ale notelor din tabelul cu note

Chapter

2

Elemente de Teoria probabilit µilor
2.1 Experienµe aleatoare
Numim

experienta aleatoare (sau experiment aleator) orice act cu rezultat incert, care poate  repetat experimentul determinist,
sem-

in anumite conditii date. Opusul notiunii de experiment aleator este

nicand un experiment ale carui rzultate sunt complet determinate de conditiile in care acesta se desfasoara. Rezultatul unui experiment aleator depinde de anumite circumstante intamplatoare ce pot aparea. Exemple de experiente aleatoare: jocurile de noroc, aruncarea zarului, observarea duratei de viata a unui individ, observarea vremii de a doua zi, observarea numarului de apeluri telefonice receptionate de o centrala telefonica intr-un timp dat. Aplicarea experientei asupra unei colectivitati date se numeste

proba.

Rezultatul potential al unei experiente aleatoare se numeste

eveniment aleator.

De

exemplu: aparitia unei duble (6, 6) la aruncarea a doua zaruri, extragerea unei bile albe dintr-o urna. Se numeste

caz favorabil pentru evenimentul aleator un caz in care respectivul eveniment se realizeaza. eveniment elementar. multimea tuturor evenimentelor elementare.
Un element

Un eveniment aleator poate avea mai multe cazuri favorabile. Un eveniment aleator cu un singur caz favorabil se numeste

Fie Ω o mulµime nevid , pe care o vom numi al lui Ω il vom nota cu ω . Vom numi oricarei experiente aleatoare.

evenimentul sigur,

acel eveniment care se poate realiza in urma

Evenimentul imposibil

este acel eveniment ce nu se realizeaza in nicio

proba. Evenimentele aleatoare le vom nota cu A, B, C, . . . . Prin Ac vom nota evenimentul complementar lui A, care se realizeaza atunci cand A nu se realizeaza. Avem: Ac = Ω \ A. Pentru a putea cuantica sansele de realizare a unui eveniment aleator, s-a introdus notiunea de 17

prob-

18

abilitate.

Probabilitatea poate  denita in 3 moduri diferite: denitia clasica, denitia statistica sau

denitia axiomatica (Kolmogorov).

In ce priveste

probabilitatea clasica, aceasta este denita doar pentru cazul in care experienta aleatoare

are un numar nit de cazuri egal posibile. In acest caz, probabilitatea de realizare a unui eveniment este raportul dintre numarul cazurilor favorabile realizarii evenimentului si numarul cazurilor egal posibile ale experimentului aleator.

Probabilitatea statistica

exprima probabilitatea cu ajutorul frecventelor de realizare a unui eveniment

intr-un numar mare de experimente aleatoare realizate in aceleasi conditii. Sa consideram o experienta aleatoare (e.g., aruncarea unui zar) al carei rezultat posibil este evenimentul aleator A (e.g., aparitia fetei cu 6 puncte). Aceste experiment aleator il putem efectua de N ori in conditii identice (spunem ca efctuam N probe ale experimentului), astfel incat rezultatul unei probe sa nu inuenteze rezultatul alteia (probe Sa notam cu νN frecventa absoluta de realizare νN a lui A in cele N probe independente. Raportul se va numi frecventa relativa. Notam cu fN acest N raport, ce are urmatoarele proprietati:

independente).

(a) (b) (c) (d)

0 ≤ fN ≤ 1; fN (Ω) = 1; fN (Ac ) = 1 − fN (A), ∀A; fN (A B) = fN (A) + fN (B), daca A B = ∅.

Mai mult, exista lim fN (A) si aceasta este denita ca ind probabilitatea de realizare a evenimenN →∞

tului A, notata P (A). Asadar, in cazul denitiei statistice a probabilitatii, aceasta este limita sirului frecventelor relative de producere a respectivului eveniment cand numarul de probe tinde la innit (vezi teorema lui Bernoulli din cursul urmator). In cele ce urmeaza, vom deni notiunea de probabilitate din punct de vedere axiomatic. Aceasta axiomatica a fost introduse de matematicianul rus A. N. Kolmogorov (1929) si are la baza teoria masurii.

2.2 Deniµia axiomatic  a probabilit µii
Reamintim, Ω este o multime abstracta, nevida.

3) Dac  E e un spaµiu topologic. (5) Dac  Ω e o mulµime nevid  ³i F este o σ−algebr  pe Ω. (b) din deniµia anterioar  sunt satisf cute ³i. F) se nume³te spaµiu m surabil. b]. (4) Ω = R ³i F = {(a.1 (a) ∅ ∈ F . σ -algebra generat  de familia mulµimilor deschise din E .6 O funcµie P : (Ω. σ(F) = A⊃F A. Numim algebr  sau câmp o colecµie F (Ac = Ω \ A) (b) dac  A ∈ F .3 Numim σ−algebr  sau σ−câmp (sau ∞ corp borelian) o colecµie F de submulµimi ale lui Ω astfel încât (a). atunci n=1 An ∈ F. vom numi σ -algebr  Borel. B ∈ F. F) → R. ∅} este o algebr . atunci i=1 Ai ∈ F.e. atunci B(Rd ) (sau B d ) este σ -algebra generat  de cuburile deschise din Rd . A ⊂ R} este o σ−algebr . atunci perechea (Ω. (2) F = {Ω. avem (c') dac  (An )n∈N ∈ F. ∀A. n ∈ F. Numim σ−algebr  generat  de F cea mai mic  σ−algebr  ce conµine F . A B = ∅. −∞ ≤ a < b < ∞} este o algebr .Elemente in Teoria probabilit µilor 19 de submulµimi ale lui Ω astfel încât: Deniµia 2. dar nu ³i σ−algebr . de fapt.5 Fie F o colecµie de submulµimi ale lui Ω. ∅} este o algebr . Ac .2 (c) implic  n (c') dac  (Ai )i=1. Deniµia 2. F = {A. i. (3) Dac  A ∈ Ω. . (c) dac  A. care asociaza oricarui eveniment A ∈ F numarul real P (A). notat  B(E).1) Deniµia 2. (2. B∈F Propoziµia 2.4 (1) Ω = R ³i F = {A.2) Observaµia 2. O not m prin σ(F) ³i este. în plus. B ∈ F . (inchidere la reuniune numarabila) (2. O mulµime A ∈ Bd se nume³te mulµime borelian . Deniµia 2. Dac  E = Rd . cu proprietatile: (a) (b) (c) P (A) ≥ 0. (2. ∀A ∈ F. atunci A (inchidere la complementariere) (inchidere la reuniune nita). Ω. atunci Ac ∈ F. P (A B) = P (A) + P (B). P (Ω) = 1. cea mai mic  σ -algebr  ce conµine deschi³ii lui E .

iar (Ω. iar tripletul (Ω. F = P(Ω) ³i A ∈ Ω. Atunci P (A) = card A card Ω (2.7 Daca in locul conditiei (c) avem: (c) dac  (An )n∈N ∈ F disjuncte dou  câte dou  (Ai Aj = ∅.e.3 Câmp de probabilitate Principalul concept al teoriei probabilit µilor este spaµiu probabilistic sau câmp de probabilitate. ∀i = j ) ³i P ( n∈N An ) ∈ F . F.5) dene³te o m sur  de probabilitate pe F (probabilitatea in sens clasic). atunci spunem ca P deneste o masura pe spatiul masurabil (Ω. (2) In cazul in care conditia (b) din denitia probabilitatii lipseste. P ) se va numi camp borelian de probabilitate. Kolmogorov.4) P( n∈N An ) = n∈N P (An ). F ). cu urmatoarele proprietati: (i) Ω este o mulµime abstract  (mulµimea tuturor evenimentelor elementare ale unui experiment stochastic). N. cu excepµia unei mulµimi A pentru care P (A) = 0.s. (aproape sigur) dac  are loc întotdeauna.8 (1) Fie Ω o mulµime cu n elemente. P ). Aceasta este denitia axiomatica data de A. P (Ω) = 1. F. P ). Un camp de evenimente (Ω. atunci (2. P ) se va numi spatiu cu masura. (σ − aditivitate) atunci P se va numi probabilitate σ− aditiva pe corpul borelian (Ω. (ii) F ⊂ P (Ω) este o σ -algebr . F. cand ne vom referi la camp de probabilitate. Observaµia 2. 2. In cele ce urmeaza. Observaµia 2. F. O astfel de multime se va numi multime P -nula. i. Spunem c  o proprietate are O probabil- itate este astfel un caz particular al notiunii de masura.20 se numeste probabilitate. in cazul in care masura intregului spatiu este loc a. F). F) inzestrat cu o probabilitate P se numeste camp de probabilitate in sens Kolmogorov si il vom nota cu (Ω. vom intelege un triplet (Ω. sunt îndeplinite urm toarele condiµii: .

Atunci: . În caz de egalitate vom spune c  ³irul (An )n∈N are limit  ³i vom n→∞ n→∞ scrie n→∞ lim An = lim inf An = lim sup An . . Teorema 2. A2 . mulµime P -nul . o vom numi sub-σ -algebr  a lui F .7) Observaµia 2. denim ∞ ∞ lim inf An = n→∞ n=1 m≥n Am ³i lim sup An = n→∞ n=1 m≥n Am .s. (iii) ∀A ∈ F . atunci A se va numi (v) Daca P (A) = 1. An Am = ∅. cu A − σ -algebr .e. (σ2 ) A ∈ F =⇒ Ac ∈ F .Elemente in Teoria probabilit µilor (σ1 ) Ω ∈ F . lim inf An ⊆ lim sup An . (2.10 (Borel-Cantelli) Fie (An )n∈N ∈ Ω. (P3 ) ∀(An )n∈N . evenimentul sigur. P (A) ≥ 0. ltrare pe F . (Ft )t≥0 ).6) În general.9 Din punct de vedere euristic. (σ3 ) ∀(An )n∈N ∈ F =⇒ n∈N 21 An ∈ F . n→∞ n→∞ (2. . sau spunem ca A se realizeaz  aproape sigur(a. . lim inf An reprezinta evenimentul care se realizeaza cand n→∞ n→∞ toate An se realizeaza. iar (Ft )t≥0 este o ltrare pe F. mai putin un numar nit. Pe de alta parte. lim sup An inseamna realizarea unei innitati de evenimente din sirul A1 . F. (P2 ) ∀A ∈ F . atunci A este O familie (Ft )t≥0 cresc toare de sub-σ−algebre ale lui F se nume³te Denim o baz  stochastic  ca ind un qvadruplu (Ω. P. Dat ind un ³ir (An )n∈N in Ω. un sir de evenimente. F.). Terminologie: (i) Elementele lui F se numesc evenimente iar ω ∈ Ω sunt elemente de prob . (iii) P : F → R e o funcµie satisf cînd condiµiile: (P1 ) P (Ω) = 1. avem P ( n∈N An ) = n∈N P (An ). unde (Ω. (ii) O mulµime A ⊂ F . probabilitatea lui A. P ) este un cîmp de probabilitate complet în raport cu P (i. ∀n = m. F conµine mulµimile P −nule). P (A) se va numi (iv) Dac  P (A) = 0. .

b] este mulµimea cazurilor favorabile. astfel ca s  nu existe puncte sau porµiuni privilegiate. masura ([a. far  ca el sa e evenimentul imposibil . Se poate observa analogia cu experienµa alegerii dintr-un num r de cazuri egal posibile. b]. 2. b] este dependent  de lungimea acelui subinterval ³i nu de poziµia sa în interiorul lui [a. În mod cu totul analog. b]. probabilitatea similar  este raportul a dou  volume. d] ⊂ [a. atunci P lim sup An n→∞ = 0.4 Câmp de probabilitate geometric  S  presupunem c  am dispune de un procedeu prin care putem alege la întâmplare un punct dintr-un interval [a. În plus. d]) d−c = . . dac  se ia la întâmplare un punct dintr-un domeniu planar D . aria D În trei dimensiuni. atunci probabilitatea ca punctul ales sa cad  în [c. întrez rim posibilitatea teoretic  ca un eveniment sa aib  probabilitatea nul .e. d] este P (A) = masura ([c. Dac  am folosi de mai multe ori procedeul pentru a alege un num r mare de puncte. atunci probabilitatea ca punctul ales aleator dintr-un interval sa coincid  cu un punct dinainte stabilit este zero ³i. nu vor exista puncte în vecinatatea c rora punctul ales sa cad  mai des. b]) b−a În particular. oricare ar  dou  subintervale de aceea³i lungime. vom presupune c  acest procedeu ne asigur  c  nu exist  porµiuni privilegiate ale intervalului [a. Dac  [a. ori de câte ori e ales. (ii) Daca n=1 P (An ) = ∞ si evenimentele {An }n sunt independente. b]. i. De aici reiese c  probabilitatea ca un punct sa cad  într-un subinterval al lui [a. atunci P lim sup An n→∞ = 1.22 ∞ (i) Daca n=1 ∞ P (An ) < ∞. acestea vor  repartizate aproximativ uniform in [a. atunci probabilitatea ca punctul sa cad  în subdomeniul D ⊂ D este aria D . daca x ∈ (c. b] e mulµimea cazurilor egal posibile ³i [c. Este chiar proporµional  cu lungimea subintervalului. astfel. d). b]. i.e. este la fel de probabil ca punctul sa cad  într-unul dintre intervale ca ³i celalalt.

10) (c) Dac  B1 . Denim probabilitatea evenimentului A condiµionat  de realizarea evenimentului B . . P (B1 B2 ··· Bn ) = P (B1 ) · PB1 (B2 ) · . . In viata de zi cu zi intalnim numeroase astfel de functii. ζ si altele. ∀i ∈ I . ∀i ∈ I.11) 2. B ∈ F . timpul de asteptare a unei persoane intr-o statie de autobuz pana la sosirea acestuia etc.9) (b) (formula lui Bayes) În condiµiile de la (a) ³i. η.a. F.. O funcµie X : (Ω. X −1 (B) ∈ F . prin: PB (A) = P (A B) .11 PB (A) camp de probabilitate. P (B) (2. atunci: ··· Bn−1 (Bn ). F. iar tripletul (Ω. Z ) sau ξ. e. Fie (Ω. (I ⊂ N) o partiµie a lui Ω. numerele ce apar la extragerea loto. Atunci P (A) = i∈I P (Bi ) · PBi (A).5 Probabilit µi condiµionate Fie spaµiul probabilistic (Ω. numarul clientilor deserviti la un anumit ghiseu intr-o anumita perioada.12 (a) (formula probabilit µilor totale) Fie (Bi )i∈I . B2 .12) pentru orice B ∈ E. Bn ∈ F . (2.) dac  (2. ∀A ∈ F. . Y. E) se nume³te variabil  aleatoare (v. PB ) este un Propoziµia 2.6 Variabile aleatoare Euristic. Variabilele aleatoare le vom nota cu litere de la sfarsitul alfabetului (X. F. F. în plus. P ) → (E. astfel denit  va  o probabilitate pe F . .Elemente in Teoria probabilit µilor 23 2. . avem: PA (Bi ) = P (Bi ) · PBi (A) P (Bj ) · PBJ (A) j∈I .g. notat  P (A|B) sau PB (A).8) Observaµia 2. P ) un cîmp de probabilitate ³i (E. P (A) > 0. P ) ³i A. cu P (B) > 0. (2. o variabila aleatoare este o functie cu valori intamplatoare. · PB1 (2. E) un spaµiu m surabil. astfel încît P (B1 B2 ··· Bn ) > 0. astfel încît P (Bi ) > 0. .

Denim σ−algebra generat  de familia {Xi .a. P ) → (E.a. not (2. − (E.a.a.a. atunci X este vector aleator (sau v. F. real . numarul de sosiri ale unui tramvai intr-o statie intr-un anumit interval. O v. E). Fie Xi : (Ω. in general. atunci X este o variabil  aleatoare real . discrete: numarul fetei aparut la aruncarea unui zar.a. În particular. pentru ca X : (Ω. ∀ω ∈ Ω. pretul unui activ nanciar intr-o perioada bine determinata. Variabilele aleatoare pot lua o multime cel mult numarabila de valori (si le numim v. cea mai mic  σ−algebr  pentru care Xi . E) ≡ (Rn×m . x]. ∀ω ∈ Ω. notat  σ(Xi .a. (2.a. spunem ca X este o funcµie F−masurabil ). B(R)). J ⊂ N. {ω ∈ Ω | X(ω) ≤ x} ∈ F.a. Din clasa v.13) {X ∈ B} = {ω ∈ Ω | X(ω) ∈ B} Dac  X : (Ω. B(Rd )).e. i ∈ I).a. Vom utiliza notatiile {X ≤ x} = {ω ∈ Ω | X(ω) ≤ x} si. Dac  (Xn )n∈N este un ³ir de v. − (E.a.. (i ∈ I) o familie de v. atunci X este o matrice aleatoare.) d-dimensional( ). denumit  σ−algebr  generat  de v. X .a. E) ≡ (Rd . B(Rn×m ).14) . Astfel. Exemple de v. reala este sucient ca ∀x ∈ R. B ∈ Bd } este o σ−algebr . F. dac : − (E. reale astfel încît Xk (ω) → X(ω). i ∈ I . multime continua de valori (un interval nita sau innit din R). i ∈ N}. atunci X este tot o v. discret  X se poate scrie sub forma X(ω) = i∈J xi χAi (ω).. atunci not F(X) = {X −1 (B). de tip continuu amintim: timpul de asteptare la un ghiseu pana la servire.. F. P ) → Rd este o v. σ(X) este cea mai mic  sub−σ−algebr  a lui F a³a încît X în raport cu care X este m surabil . E) ≡ (R. P ) → R sa e o v. si le vom numi (v. Deoarece multimile {(−∞. discrete) sau o de tip continuu). x ∈ R} genereaza B(R). sunt m surabile. numarul de erori aparute pana la primul succes etc.24 (i.

unei o v.a. ∀i = j . f (x) dx = 1 PX (B) = B (c) Funcµia f se nume³te f (x) dx.a. ce reprezinta numarul de puncte ce apare la aruncarea unui zar ideal este:   2 3 4 5 6   1  .15) X: . pi n unde pi = P (X = xi ).Elemente in Teoria probabilit µilor n 25 Aici χA este funcµia indicatoare a mulµimii A. discrete i se atribuie urmatorul tablou de repartitie:    xi  (2.a. tabloul de repartitie pentru v. ∀B ∈ B.s.7 Caracteristici funcµionale ale variabilelor aleatoare Repartiµia Repartiµia lui X este o m sur  de probabilitate pe Bd . (2.16) PX (B) = k∈J P (Ak )δxk (B). a. densitatea de repartiµie a lui X . X reala se nume³te de tip continuu dac  ∃f : Rd → R m surabil  Borel ce îndepline³te condiµiile: (a) (b) R f (x) ≥ 0.17) . PX : Bd → [0. vom deni cele mai importante caracteristici functionale si numerice ale unei variabile aleatoare X : (Ω. iar Ak = X −1 ({xk }). Ai Aj = ∅. In continuare. 1/6 1/6 1/6 1/6 1/6 1/6 O v. Uneori. dat  prin PX (B) = P (X ∈ B). B(R)). i=1 pi = 1. F. i ∈ J ⊂ N.a. 1]. 2. ∀B ∈ F. P ) → (R. Repartiµia unei v. discrete este astfel: (2. Observam cu usurinta ca i=1 Ai = Ω. Spre exemplu.

dat  prin F (x) = P (X ≤ x). . x]). Xd ) : (Ω.15). Propriet µi ale funcµiei de repartiµie: este cresc toare (F (x) ≤ F (y). (2. X2 . 1]. (2.a reale X o funcµie F : R → [0. x]. F. x2 . . y x • • • x→−∞ lim F (x) = 0 ³i lim F (x) = 1.18) Daca X este o variabila aleatoare continua si f este densitatea sa de repartitie. Termenul in engleza pentru functia de repartitie este cumulative distribution function. . . avem de calculat evenimentul P (X > x). x ∈ R. dat  prin F ((x1 .19) Observaµia 2. .26 unde δa (B) =   1. X2 ≤ x2 . pentru un x ∈ R dat. Uneori. Numim functia Fc : R → [0. adica este repartitia multimii (−∞.    0.13 F (x). . cu tabloul de repartitie dat de (2. dac  a ∈ B în rest Funcµia de repartiµie (sau functia cumulata) Numim funcµie de repartiµie atasata v. . este continu  la dreapta ( lim F (y) = F (x). P ) → Rd este un vector aleator. F (x) = PX ((−∞. 1]. atunci functia de repartitie se deneste ca ind F : Rd → [0. Daca X = (X1 . y ∈ R. ∀x ∈ R. xi ≤x} pi . Astfel. ∀x ∈ R). . ∀x. 1]. functia sa de repartitia intr-un punct x este: F (x) = {i. xd )) = P (X1 ≤ x1 . data prin F( x) = P (X > x) = 1 − functie de repartitie complementara. . . x ≤ y ). Xd ≤ xd ). . atunci functia de repartitie este data de formula: x F (x) = −∞ f (t) dt. . x→∞ In cazul unei variabile aleatoare discrete. .

(i2 = −1). probability distribution function) pentru o variabila aleatoare discreta este similara densitatii de repartitie pentru o variabila aleatoare continua. Numim funcµie o funcµie f : R → R. Ai ∈ F. proprietatile pe care le satisface functia de probabilitate sunt: f (xi ) ≥ 0. a ∈ R. a ∈ R.a reale X φX (t) = k∈J o funcµie φX : R → C. i=1 . daca X = k∈J xk χAk . daca X = variabila aleatoare continua. ¯ Funcµia de probabilitate (sau de frecvenµ ) Fie X o variabila aleatoare discreta. J ⊂ N. dat  prin: ei t xk pk . φX (−t) = φX (t). i este numarul imaginar. φa X (t) = φX (a t). zj ∈ C avem i. ∀t ∈ R. n f (xi ) = 1. unde pi = P (Ai ).Elemente in Teoria probabilit µilor 27 Funcµia caracteristic  Numim funcµie caracteristic  atasata v. Propriet µi ale funcµiei caracteristice: • • • • • • |φX (t)| = 1. ∀t ∈ R. ∀t ∈ R. Functia de probabilitate (en. Aici. φa X+b (t) = φX (a t)eibt .. Intr-adevar. denit  prin de probabilitate (de frecventa) atasata variabilei aleatoare discrete X f (xi ) = pi . φX : R → C este uniform continu . n ∀ti . X(ω) = i∈J xi χAi (ω). j=1 φX (ti − tj )zi zj ≥ 0. ∀t ∈ R. (X = discreta) φX (t) = R ei t x f (x) dx. ∀ω ∈ Ω. tj ∈ R. ∀i ∈ J. i ∈ J. ∀zi .

Pas 2: încît Dac  X : Ω → R ³i X ≥ 0. Denim E(X) = lim E(Xn ).20) Deniµia 2. simpl  X denim media (notat  cu E(X)) astfel: n E(X) = not Ω X(ω) dP (ω) = i=1 xi P (Ai ). 0} = (−X)+ (ω).21) Observaµia 2. X(ω) = se deneste ca ind: i∈J Deniµia 2. atunci exista un sir Xn : Ω → R. (2.vezi repartitia Cauchy). de tip discret. (daca aceasta integrala exista). de tip continuu admit medie . Denitia mediei poate  data intr-un cadru mult mai general. X cu X(ω) = i=1 xi χAi (ω) se nume³te v. constructia mediei unei v.a.a. reale. atunci (nu toate v.a. X − (ω) = max{−X(ω). ∀ω ∈ Ω ³i n→∞ lim Xn (ω) = X(ω).28 2.a. Pentru v.8 Caracteristici numerice ale variabilelor aleatoare 1. atunci media aceste v. Atunci X = X + − X − .a. J ⊂ N.a.a... 0}.14 xi χAi (ω).a. n Pas 1: O v. cu densitatea de repartitie f : R → R. .16 Lebesque. ∀ω ∈ Ω. folosind integrala Aceasta integrala este generalizarea integralei Riemann. daca exista (!) se deneste astfel: E(X) = R xf (x)dx. simpl . (n ∈ N) de v. de tip continuu. media acestei v.a. Media Daca X este o v. Sumarizam mai jos.a. unde X + (ω) = max{X(ω). n→∞ Pas 3: Fie X : Ω → R o v. gradual si fara demonstratiile aferente. (2. simple astfel 0 ≤ X1 (ω) ≤ · · · ≤ Xn (ω) ≤ X(ω). E(X) = i∈J xi P (Ai ).a.15 Daca X este o v.

. Aceasta este dispersia variabilei aleatoare. daca g : R → R este functia identica. Dac  X = X1 + iX2 : Ω → C. cu densitatea de repartitie f si o funcµie m surabil  g : Rd → E(g(X)) = g(x)f (x) dx. E(Xd ))T . Avem nevoie de o alta masura. cu media E(X) = m. ∀i ∈ J.a. complexe X prin E(X) = E(X1 ) + iE(X2 ). . Asadar. X2 . E(X2 ). atunci E(X) = 0. J ⊂ N. unde pi = P (Ai ). nu putem masura gradul de impreastiere a valorilor lui X in jurul mediei sale doar calculand X − E(X).Elemente in Teoria probabilit µilor În acest caz denim 29 media lui X .a. Relatia anterioara se mai numeste si formula de transport pentru integrala. denim media v. deoarece integrala abstracta pe multimea Ω este "transportata" intr-o integrala Riemann pe R. E(X) = E(X + ) − E(X − ). 2) Dispersia (sau varianµa) si abaterea standard: Daca X este o variabila aleatoare si X = X − E(X) (numita abaterea lui X de la media sa). (2. X = (X1 . discreta. ori de cîte ori ambele medii exist  ³i sunt nite. ori de cîte ori m car una dintre E(X + ) ³i E(X − ) este nit . Deniµia 2. atunci spunem c  X este o v.22) . si astfel redescoperim denitia mediei unei v. . Propoziµia 2. . Xd )T : Ω → Rd . . atunci denim media lui X prin E(X) = (E(X1 ).a. .17 R. ∀ω ∈ Ω.a. Rd In particular. X(ω) = i∈J xi χAi (ω). atunci: E(X) = Ω X(ω) dP (ω) = R xf (x) dx. . Atunci Fie X : Ω → Rd o v. de tip continuu din Denitia 2. denim dispersia lui X ca ind: D2 (X) = i∈J (xi − m)2 pi .a. . Cînd ambele sunt nite. integrabil .18 Daca X este o v.15. Dac  X este un vector aleator.

denim momentele: αk (X) = E(X k ) = i∈J xk pi i |xi |k pi i∈J (momente iniµiale de ordin k). Denim dispersia lui X (sau varianµa lui X ) cantitatea D2 (X) = E[(X − m)2 ] = R (x − m)2 f (x) dx. (2. de tip continuu pentru care media poate  denita (∃ E(X) = m ∈ R). √ 3) Momente xi χAi (ω).19 Fie X : Ω → R o v. X de tip continuu ce admite medie m = E(X) < ∞.a. (momente iniµiale centrate de ordin k). X(ω) = cu E(X) = m si pi = P (Ai ).23) Notaµiile consacrate pentru dispersie sunt D 2 (X) sau σ 2 . X de tip discret. (momente absolute centrate de ordin k). denim momentele: αk (X) = E(X k ) = R xk f (x) dx = Ω X k dP |X|k dP Ω (momente iniµiale de ordin k). i ∈ J . βk (X) = E(|X|k ) = µk (X) = E((X − m)k ) = i∈J (xi − m)k pi |xi − m|k pi i∈J γk (X) = E(|X − m| ) = k Pentru o v. γk (X) = E(|X − m|k ) = R |x − m|k f (x) dx = . βk (X) = E(|X|k ) = R |x|k f (x) dx = µk (X) = E((X − m)k ) = R (x − m)k f (x) dx = Ω (X − m)k dP |X − m|k dP Ω (momente iniµiale centrate). Observaµia 2. (momente absolute de ordin k). J ⊂ N. Abaterea standard este cantitatea σ = σ 2 .a. (momente absolute centrate). (momente absolute de ordin k).30 Deniµia 2. ∀ω ∈ Ω.a.20 Dispersia scrisa ca integrala abstracta (vezi propozitia anterioara) este: σ2 = Ω (X(ω) − m)2 dP (ω). i∈J Pentru o v.

r −1 + s−1 = 1. ∀r. 9 sau P ({m − 3σ < X < m + 3σ}) ≥ (2. (M inkowski) (e) Fie g : R → R convex . k2 (2.9 Inegalit µi între momente (a) βr (X + Y ) ≤ cr (βr (X) + βr (Y )). (d) (E|X + Y |r )1/r ≤ (E|X|r )1/r + (E|Y |r )1/r . pentru p = 2 si X e inlocuit cu variabila aleatoare (X − m). ap (M arkov) În particular. ∀0 ≤ r ≤ s.Elemente in Teoria probabilit µilor 31 2. atunci avem: P ({|X| ≥ a}) ≤ βp (X) .26) semnicand ca o mare parte din valorile posibile pentru X se aa in intervalul [m − 3σ. p ∈ N∗ . obµinem: P ({|X − m| ≥ a}) ≤ Daca in inegalitatea lui Cebîsev luam σ2 . 2. . atunci obtinem: 1 . a2 (Cebsev) (2. unde k ∈ N. obtinem inegalitatea celor 3σ : P ({|X − m| ≥ 3σ}) ≤ 1 ≈ 0.24) = kσ .25) P ({|X − m| ≥ kσ}) ≤ sau. (b) (βr (X))1/r ≤ (βs (Y ))1/s . s > 1. echivalent: P ({|X − m| < kσ}) ≥ 1 − In cazul particular k = 3. unde cr = 1 pentru r ∈ (0. 1] ³i cr = 2r−1 pentru r > 1. (H ölder). 9 8 .1. (Lyapunov) (c) E|XY | ≤ (E|X|r )1/r (E|Y |s )1/s . (m = E(X)). de medie m si dispersie σ 2 . (Jensen) (f) Dac  a > 0. k2 1 .10 Standardizarea unei variabile aleatoare Fie variabila aleatoare X . Atunci avem g(E(X)) ≤ E(g(X)). m + 3σ].

28) Observaµia 2.11 Corelatia si coecientul de corelatie 2 2 Fie X.a. Y ) = 0. (2.a.24 Se numeste coecientul de corelatie al v. σX σY covarianta variabilelor standardizate Deniµia 2.21 normata).22 Media E[(X − mX )(Y − mY )] se numeste corelatia (sau covarianta) v. Deniµia 2. Calculand dispersia sumei X + Y . (2. obtinem: D2 (X + Y ) = E[(X + Y − (mX + mY )2 )] = E[(X − mX )2 ] + E[(Y − mY )2 ] + 2E[(X − mX )(Y − mY )] = D2 (X) + D2 (Y ) + 2E[(X − mX )(Y − mY )].a. Notam astfel: ρ(X. cu mediile. D2 (X) = 1. Variabila aleatoare X = X −m se numeste variabila aleatoare standardizata (sau σ Proprietatile variabilei aleatoare standardizate: E(X) = 0. mX . avem: D2 (X + Y ) = D2 (X) + D2 (Y ) + 2 cov(X.27) Daca X si Y sunt v. mY si dispersiile σX . respectiv.32 Deniµia 2. Y ).23 (a) Continuand sirul anterior de egalitati. Y ) = 0. Y v. atunci cov(X. Observaµia 2. respectiv.25 (a) Daca X si Y sunt independente (vezi sectiunea urmatoare). Y ) σX σY . Y ) = E[(X − mX )(Y − mY )] = E(XY ) − mX mY . Y ). independente (realizarile lui X nu depind de realizarile lui Y ). X si Y si o notam cu cov(X. atunci ρ(X. 2 2 Presupunem acum ca σX si σY sunt nite si nenule. Reciproca nu este intotdeauna adevarata. Y ) = cov(X. X si Y X si Y . (b) (c) cov(X. Fie X = X − mX Y − mY si Y = . .a. σY . 2. Y ) = cov(x.

. . pentru orice X si Y .12 Independenµa variabilelor aleatoare Conceptul de independenµ  a v. Y ) =   +1. 2. echivalent cu (2. Y ) ≤ 1. (2. avem P (Ai Aj ) = P (Ai ) · P (Aj )). daca a < 0. (2.31) (ii) Spunem ca evenimentele A1 . · P (Aik ). (2. . . Ai si Aj .30) are loc. .32) . daca a > 0. 2. . An sunt independente doua cate doua dac  pentru oricare doua evenimente. B ∈ F se numesc independente (stochastic) daca relatia (2. .27 (i) Evenimentele A1 .    −1. adica probabilitatea conditionata P (A| B) = P (A). A2 . din aceasta multime.Elemente in Teoria probabilit µilor 33 (b) (c) − 1 ≤ ρ(X. . F.30) Deoarece in relatia (2. i2 . P (B) Putem rescrie ultima egalitate sub forma simetrica: P (A B) = P (A) · P (B). . P ) un cîmp de probabilitate. . . sau a evenimentelor este foarte important din punctul de vedere al calculului probabilit µilor evenimentelor compuse din evenimente mai simple. . . b ∈ R). . An se numesc independente in ansamblu dac  pentru ecare submulµime {i1 . Daca Y = aX + b (a. este preferabil sa denim independenta a doua evenimente arbitrare astfel: Doua evenimente. . n} avem P (Ai1 Ai1 ··· Aik ) = P (Ai1 ) · P (Ai2 ) · .29) P (A B) = P (A). Deniµia 2.30) nu mai este nevoie de conditie suplimentara pentru P (B).26 Fie (Ω.a. . A ∈ F un eveniment arbitrar si B un eveni- ment pentru care P (B) > 0. A2 . atunci ρ(x. . ik } a mulµimii {1. Evenimentele A si B sunt independente daca probabilitatea lui A este independenta de realizarea evenimentului B . Deniµia 2. . A.

(I ⊂ N).34) Deniµia 2. pentru orice J ⊂ I. cu Mi ⊂ F . . sunt independente (in ansamblu) dac  oricare dac  σ−corpurile generate de Xi . (I ⊂ N). (I ⊂ N). se numesc independente dac  (2. este indeplinita conditia P( j∈J Aj ) = j∈J P (Aj ). (2. Bk ∈ F. J−nit .30 (2) (1) Spunem ca v. Sa exemplicam considerand urmatoarea experienta. (Xi )i∈I : (Ω. evenimentele (Ai )i∈I ⊂ F. iar C evenimentul ca "doar la o moneda din cele doua a aparut fata cu stema". . formeaz  o familie de σ−corpuri independente. Observaµia 2. Se observa cu usurinta ca evenimentele A. acestea sunt independente in sensul denitiei de la (1). B si C sunt independente doua cate doua. independenta doua cate doua nu implica independenta celor trei evenimente in ansamblu. .33) P( j∈J Aj ) = j∈J P (Aj ).28 Independenta doua cate doua a evenimentelor nu implica independenta in ansamblu.a. Asadar.a.29 ca acestea sunt Dac  {Mi . 4 P (A 1 B) = P (A) · P (B) = . (Xi )i∈I : (Ω.34 iii În general. i ∈ I ⊂ N}. 8 Deniµia 2. B2 . Observaµia 2. deoarece: P (A 1 C) = P (A) · P (C) = . Consideram aruncarea a doua monede ideale.31 Denitia variabilelor aleatoare independente (in ansamblu) este echivalenta cu: Pentru orice k ≥ 2 si orice alegere a multimilor boreliene B1 . atunci spunem independente (stochastic) dac  pentru orice submultime nita J ⊂ I ³i pentru orice alegere de evenimente Aj ∈ Mj . 4 P (B 1 C) = P (B) · P (C) = . 4 Totodata. Spunem ca v. F) → R. este o familie de σ−corpuri. fapt observat si din relatia 0 = P (A B 1 C) = P (A) · P (B) · P (C) = . . F) → R. mai observam ca oricare doua dintre ele determina in mod unic pe al treilea. B evenimentul ca "fata ce apare la a doua moneda este stema". sunt independente doua cate doua ar  doua variabile aleatoare din aceasta familie. {σ(Xi )}i∈I . Fie A evenimentul ca "fata ce apare la prima moneda este stema". avem: .

· P (Xk ∈ Bk ). X2 . independente stochastic. i = 1. . . F) → R. v. sunt din multimea {1. ∀x1 . φ(X1 . 2. t2 .a. ∀k = 1. 2. {X1 .a. . cu alte cuvinte.33 Consider m familia de v. . 5. Xn ∈ Bn ) = P (X1 ∈ B1 ) · P (X2 ∈ B2 ) · . .35) P (X1 ∈ B1 .. Xn sunt v. . .36) Doua dintre dintre cele mai importante proprietati ale v. ∀t = (t1 . .a. . . . n. . . respectiv. . reale. Avem: P {X1 = i} {X2 = j} = P ({X1 = i.. . x2 . Xi : (Ω. Teorema 2. . 6}.32 Sa consideram aruncarea unui zar.Elemente in Teoria probabilit µilor 35 (2. . X2 . ∀i. . 4. . i = 1. . Xi : Ω → {1. Xn }. . . · FXn (xn ). . X2 . · Xn |) < ∞ si: E(X1 · X2 · . . . 5. 3. . n. Aruncam zarul de doua ori si notam cu X1 . 5. atunci E(|X1 · X2 · . valorile acestor v. Asadar. · φXn (tn ). 3. F(X1 . 6}. . Xn sunt v. 4. ce reprezinta numarul de puncte aparute la ecare aruncare. . . .. X2 = j}) = 1 36 = P ({X1 = i}) · P ({X2 = j}). . evenimentele {X1 ∈ B1 }. 2. . · E(Xn ). Xk ∈ Bk ) = P (X1 ∈ B1 ) · P (X2 ∈ B2 ) · . independente. . aceasta insemnand ca variabilele aleatoare X1 si X2 sunt independente stochastic (aruncarile au fost efectuate independent una de cealalta). X2 .. ∀Bi .a. .. . . X2 . .a. . . Xn ) (t) = φX1 (t1 ) · φX2 (t2 ) · . x2 . 3.34 Daca X1 .a. xn ) = FX1 (x1 ) · FX2 (x2 ) · . sau. 2. . xn ∈ R. . (2. independente sunt urmatoarele: Teorema 2. X2 ∈ B2 . Exemplu 2.. . . . 4. tn ) ∈ Rn . · Xn ) = E(X1 ) · E(X2 ) · . P (X1 ∈ B1 . . · P (Xn ∈ Bn ). . X2 . Urm toarele armaµii sunt echivalente: (i) (ii) (iii) (iv) X1 . . (2. 6}. . Xn ) (x1 .. . .37) . .. Evident. 2. . astfel incat E(|Xk |) < ∞. . {X2 ∈ B2 }. {Xk ∈ Bk } sunt independente in ansamblu. X2 ∈ B2 . . j ∈ {1.

. 2. . B(1. p): Scriem X ∼ B(n. . U(n) (unid) Scriem ca X ∼ U(n). cu ajutorul caruia aceasta repartitie (1) Repartiµia uniforma discreta. + D2 (Xn ). n}. . + Xn ) < ∞ si: D2 (X1 + X2 + . p) (bino) Scriem X ∼ B(1. X = 1 (succes) sau X = 0 (insucces).35 Daca X1 . n}. . D2 (X) = p(1 − p). P (0) = 1 − p. reale. . . . Bernoulli. . astfel incat D2 (Xk ) < ∞. + Xn ) = D2 (X1 ) + D2 (X2 ) + . . de tip Bernoulli poate lua doar dou  valori. . independente. n.13 Exemple de repartiµii discrete In dreptul ecarei repartitii. cu probabilit µile P (1) = p. V. . . n+1 2 . k P (X = k) = Cn pk (1 − p)n−k . n. in paranteza. p) (schema bilei revenite) cu probabilitatile (bino) (n > 0. X2 . ∀k = 1. dac  valorile lui X sunt {0. E(X) = p. 1 . Xn sunt v. B(n. . .38) 2. daca valorile lui X sunt {1. atunci D 2 (X1 + X2 + . 1)). 1. . . . . p ∈ (0. . (2. . . 1. . Exemplu: numarul de puncte care apar la aruncarea unui zar ideal este o valoare aleatoare repartizata (1) Repartiµia Bernoulli. .36 Teorema 2. (2) Repartiµia binomial . apare numele este apelata. 2. cu probabilitatile P (X = k) = E(X) = U(6).a. n k = 1.a. . Matlab.a. D2 (X) = n2 −1 12 . . . . p). . Exemplu: aruncarea unei monede ideale poate  modelata ca ind o v. n. 2. . k = 0. .

b) (hyge) X ∼ H(n. a+b−1 n (Nu mai putem scrie egalitate intre tic). n − b) ≤ k ≤ min(a. a. spunem c  X ∼ P(λ) (legea evenimentelor rare) dac  X ia valori naturale. ∀k ∈ N. atunci X = n Xk ∼ B(n. Geo(p): (geo) Valorile sale reprezinta numarul de insuccese avute pân  la obµinerea primului succes. a. b > 0) dac  P (X = k) = k n−k Ca Cb . a. Dac  (Xk )k=1. a.Elemente in Teoria probabilit µilor 37 E(X) = np. k! (5) Repartiµia geometric . k=1 (3) Repartiµia hipergeometric . p. Pentru un λ > 0. P(λ): (poiss) Valorile sale reprezinta numarul evenimentelor spontane (cu intensitatea λ) realizate intr-un anumit interval de timp. H(n. cu probabilitatile P (X = k) = p(1 − p)k . D2 (X) = np(1 − p). D2 (X) si i=0 D2 (Xi ). cu probabilitatile P (X = k) = e−k E(X) = λ. D2 (x) = λ. b) (schema bilei nerevenite) (n. p) ³i (Xk )k independente stochastic.n ∼ B(1. cu p = a+b (dependente stochastic). D2 (X) = np(1 − p) i=0 a+b−n . . n). b). ∀k ce satisface max(0. unde p ≥ 0.n ∼ B(1. ∀k ∈ N. n Ca+b Observaµie: n a Dac  (Xk )k=0. 1)) dac  X ia valori in N. i=1 n E(Xi ) = np. stiind probabilitatea de obtinere a unui succes. atunci X= EX = Xi ∼ H(n. X ∼ Geo(p). n). (p ∈ (0. λk . p). deoarece (Xi )i nu sunt independente stochas- (4) Repartiµia Poisson.

U(a. Pentru m ≥ 1. E(X) = m(1 − p) m(1 − p) .a. σ) = √ e− 2σ2 . p p2 2. .38 E(X) = 1−p 1−p . m + 2. µ. p ∈ (0. p) (nbin) Valorile sale reprezinta numarul de insuccese obtinute inainte de a se realiza succesul de rang m. 1). X ∼ U(a. cu probabilitatile m−1 P (X = k) = Cm+k−1 pm (1 − p)k . BN (m. dac  X are densitatea: (x−µ)2 1 f (x. σ 2π . m + 1. altfel. D2 (X) = . In cazul particular m = 1. D2 (X) = . b) (a < b) dac  funcµia sa de densitate este f (x. obtinem repartitia geometrica. dac  x ∈ (a. ∀k ≥ m. . 2 12 (2) Repartiµia normal . atunci variabila aleatoare Y = X + 1 reprezinta asteptarea pana (6) Repartiµia binomial  cu exponent negativ. N (µ. b) =    1 b−a . D2 (X) = . p ≥ 0. a. x ∈ R. .36 la primul succes. σ). Daca X ∼ Geo(p). p) dac  X ia valorile {m.   0 E(X) = a+b (b − a)2 . b) . }. b) (unif) V. σ) (norm) Spunem c  X ∼ N (µ. p p2 Observaµia 2.14 Exemple de repartiµii continue (1) Repartiµia uniform . spunem ca X ∼ BN (m.

39) În acest caz spunem c  X este repartiµia normal  standard. Ea e denit  prin: e− y2 2 dy. σ 2 = 1 densitatea de repartiµie devine: x2 1 f (x) = √ e− 2 . X ∼ exp(λ) (λ > 0) dac  are densitatea de repartiµie    λe−λx . σ 2 ) este dat  prin F (x) = Θ( (3) Repartiµia log-normal  logN (µ. σ) =    xσ 1 √ e− 2π (ln x−µ)2 2σ 2 . 1). exp(λ) (exp) Valorile sale sunt timpi realizati intre doua valori spontane repartizate P(λ). dac  x > 0 . atunci Z= X−µ σ ∼ N (0. x ∈ R. (4) Repartiµia exponenµial .. µ. (2.a.41) Este utila in Matematicile Financiare. funcµia de repartiµie a lui X ∼ N (µ. Se mai nume³te ³i repartiµia gaussian . σ). dac  x ≥ 0   0 . Y ∼ logN (µ. În mod similar. reprezentand o distributie de preturi viitoare pentru un activ nanciare. Pentru o v.a. λ) = . σ).40) În consecinµ . avînd densitatea de repartiµie f (x. σ (logn) (2.Elemente in Teoria probabilit µilor 39 E(X) = µ ³i D2 (X) = σ 2 . dac  X ∼ N (µ. 1). D2 (X) = e2µ+σ (eσ − 1). Dac  Z ∼ N (0. dac  x < 0 f (x. σ) daca ln Y ∼ N (µ. În cazul µ = 0. N (0. atunci Y = eX este o v. 1) funcµia de repartiµie este tabelat  ³i are o notaµie special . σ) x−µ ). atunci X = σZ + µ ∼ N (µ. dac  xleq0   0 2 Media ³i dispersia sunt date de E(X) = eµ+σ /2 . σ). Dac  X ∼ N (µ. nenegativ . σ). 2 A³adar. 2π (2. 1 Θ(x) = √ 2π x −∞ Θ(x).

λ λ Repartiµia exponenµial  are proprietatea a³a-numitei lipsa de memorie. E(X) = a a . λ) (wbl) Aceasta repartitie este asemanatoare cu repartitia exponentiala (aceasta obtinandu-se in cazul particular k = 1) si poate modela repartitia marimii particulelor. Este unica distribuµie continu  cu aceast  proprietate. ∀x. λ) (k > 0. λ λ (i) Γ(1.e.a. λ) = .: P ({X > x + y}|{X > y}) = P ({X > x}).a. λ). dac  x ≥ 0 . ∞ Γ : (0. λ) =     λa a−1 −λx e . k. X ∼ W bl(k. daca densitatea sa de repartitie este: f (x.n ∼ exp(λ) sunt independente stochastic. λ > 0. Observaµia 2. ∞). i. X ∼ Γ(a. (6) Repartiµia Weibull. aceasta repartitie se apropie de functia lui Dirac. {Xk }k=1. Γ(a. daca x ≤ 0. a. atunci suma lor k=1 Xk ∼ Γ(n. y ≥ 0. dac  x < 0   0 . λ) (gam) O v. λ > 0) dac  are densitatea de repartiµie    k λ x k x k−1 −( λ ) e λ f (x.(Vericati!) (5) Repartiµia Gamma.4. unde Γ este functia lui Euler. Distribuµia geometric  satisface o variant  discret  a acestei propriet µi. λ). distributia Weibull este asemanatoare cu cea normala.40 E(X) = 1 1 ³i D 2 (X) = 2 . a. ∞) → (0. Γ(a) x daca x > 0. D2 (X) = 2 . Γ(a) = 0 xa−1 e−x dx. W bl(k. Cand k = 3. Cand k → ∞.   0. λ) ≡ exp(λ).37 n (ii) Daca v.

S. repartitia Γ( n . . D2 (X) = . n. 1) pentru k = 1. (9) Repartiµia Fisher.a. atunci (vezi Propozitia 5.   0. x > 0. . unde Γ este functia lui Euler. x ≤ 0. 2. n x daca x > 0.a. n−2 (f) x2 1+ n − n+1 2 . . D2 (χ2 ) = 2n. . D2 (X) = n . de fapt. n) = √ nπ Γ n 2 E(X) = 0. n grade de libertate) daca densitatea de repartitie este:  m  ( m ) 2 Γ( m+n ) m −1  n 2  x2 1+ Γ( m )Γ( n ) 2 2 f (x) =   0 E(X) = n 2n2 (n + m − 2) . . t(n) (t) Spunem ca X ∼ t(n) (cu n grade de libertate) daca densitatea de repartitie este: Γ n+1 2 f (x. Gosset). (8) Repartiµia Student (W. X ∼ χ2 (n) (se citeste repartitia hi-patrat cu n grade de libertate) daca densitatea sa de repartitie este: f (x.30): 2 2 2 X1 + X2 + · · · + Xn ∼ χ2 (n). χ2 (n) O v. x ∈ R. n) =     1 n Γ( n )2 2 2 x 2 −1 e− 2 . n) Spunem ca X ∼ F(m. n) (cu m. E(χ2 ) = n. 2 ). k (chi2) (7) Repartiµia χ2 .Elemente in Teoria probabilit µilor 41 E(X) = λΓ 1 + 1 . n−2 m(n − 2)2 (n − 4) m n x − m+n 2 . .38 (b) (a) 1 Repartitia χ2 (n) este. F(m. Observaµia 2. daca x ≤ 0. 2 Daca v. independente Xk ∼ N (0.

fX (x). Daca fX (x) este densitatea de rapartitie a unei variabile aleatoare X . X(ω) ∈ DY } Atunci.42 (10) Repartiµia Cauchy. a = 0. C(λ. µ) daca densitatea de repartitie este: f (x.39 Consideram functia g(x) = ax + b. not FY (y) = P (X ∈ DY ).15 Transform ri funcµionale de variabile aleatoare Functii de o variabila aleatoare Presupunem ca X este o variabila aleatoare continua. µ) (fara corespondent in MATLAB) Spunem ca X ∼ C(λ. Dorim sa gasim densitatea de repartitie pentru g(X). g(x) ≤ y}. 2. Putem scrie: {Y ≤ y} = {g(X) ≤ y} = {ω ∈ Ω. Fie g(x) este o functie masurabila (Borel). λ. (2. Sa notam cu DY = {x ∈ R.42) Daca g(x) este bijectiva si x = h(y) = g −1 (y). Atunci Y = g(X) deneste o alta variabila aleatoare. . π[(x − µ)2 + λ2 ] x ∈ R. Notam cu FX (x) functia sa de repartitie. atunci densitatea de repartitie a lui Y este data de: fY (y) = fX (h(y)) dh(y) . = DY not fX (x) dx. dy (2. ( = {X ∈ DY }). µ) = NU admite medie si dispersie!!! λ . careia i se cunoaste densitatea de repartitie.43) Exemplu 2. atunci densitatea de repartitie a variabilei aleatoare Y = g(X) este fY (y) = 1 fX |a| y−b a .

ce are densitatea de repartitie f (x1 . X2 ).44) Urmatoarea propozitie determima care este densitatea de repartitie a unei functii de un vector aleator ce are densitatea de repartitie cunoscuta. y) dy si. g : D1 ⊂ W (Ω) → R. diferenta sau catul a doua variabile aleatoare. de tip continuu. sunt: f (x) = R h(x. produsul. bijctiva. D(y1 .42 (repartitia raportului a doua variabile aleatoare) Fie vectorul aleator (X1 .40 Fie vectorul aleator V = (X1 . P ). Exemplu 2. x2 ) . respectiv. (D1 . y) este densitatea de repartitie a vectorului bidimensional V = (X. cu densitatea de repartitie necunoscuta g(x). Fie functia τ : D1 → D2 . Astfel. Y variabile aleatoare reale denite pe campul de probabilitate (Ω. Daca f (x) este densitatea de repartitie a lui X si g(y) este densitatea de repartitie a lui Y . (2. Y sunt independente stochastic. respectiv Y . y2 ). y2 ))|J|.Elemente in Teoria probabilit µilor 43 Functii de doua variabile aleatoare: Fie X. y2 ) Observaµia 2. y) dx.45) x1 = τ1 (y1 . y2 ). f : D2 ⊂ V (Ω) → R si e vectorul aleator W = (Y1 . . y2 ) = f (τ1 (y1 . atunci vectorul bidimensional V = (X. Y ). cu densitatea de repartitie cunoscuta. atunci densitatile de repartitie a lui X .  1 1 2   y2 = x2 . y) = f (x)g(y). X2 ) : Ω → R2 . x2 ) si e transformarea:   y = x /x . Invers. de clasa C 1 . Y2 ) : Ω → R2 . Propoziµia 2. Y ) are densitatea de repartitie h(x. unde (2. F. y2 ). de tip continuu. D2 -deschisi). g(y) = R h(x. x2 = τ2 (y1 . f (x). Atunci are loc: g(y1 . daca h(x. τ2 (y1 . iar X. aceste formule au ca aplicatii determinarea formulei densitatii de repartitie pentru suma.41 Putem apoi determina si densitatile de repartitie marginale pentru Y1 si Y2 . |J| = D(x1 .

Lr n→∞ Ω echivalent cu n→∞ R lim |xn − x|r f (x)dx = 0.16 Tipuri de convergenµ  a sirurilor de variabile aleatoare Fix m (Ω. Xn converge aproape sigur la X (notat Xn −→ X ) dac  P ( lim Xn = X) = 1. F. n→∞ (2) Xn converge in probabilitate la X (notat Xn −→ X ). X : Ω → R o variabila aleatoare cu media m si dispersia σ 2 nite. (4) Xn converge in repartitie la X (notat −→ X. 2 ∞ f X1 (u) = X2 f (u v. ∀ω ∈ Ω0 . continu  ³i m rginit . si aam densitatea de repartitie a catului X1 . lim P ({ω : |Xn (ω) − X(ω)| ≥ }) = 0. y ).44 Transformarea inversa este:   x = y · y = τ (y . X Avem |J| = |y1 |. dac  lim |Xn (ω) − X(ω)|r dP (ω) = 0. n→∞ prob (3) Xn converge in medie de ordin r la X (notat Xn −→ X ). P (Ω0 ) = 1.43 (1) Spunem ca: a. Deniµia 2. sau Xn ⇒ X ) dac  lim E(g(Xn )) = E(g(X)). v) |u| dv. −∞ 2.  1 1 2 1 1 2   x2 = y2 = τ2 (y1 . dac  ∀ > 0. P ) un cîmp de probabilitate ³i Xn . astfel încît lim Xn (ω) = X(ω). ∀g : Rd → R. y2 ).s. rep n→∞ . n→∞ echivalent cu relatia ∃ Ω0 ∈ F.

Desi avem de-a face cu un sir de functii cu ce iau valori intamplatoare. prob (d) Urm toarele tipuri de convergenµ  sunt echivalente: în repartiµie. P ) → R. . în funcµie de repartiµie ³i în funcµie caracteristic . introducem notiunea de variabile aleatoare identic repartizate. . 2.Elemente in Teoria probabilit µilor (5) 45 Xn converge la X în sensul funcµiei de repartiµie dac  lim FXn (x) = FX (x).a. F. .a. . . . Xn . suma unui numar sucient de mare de variabile aleatoare isi pierde caracterul aleator. F. Ne-am dori ca acest sir sa detina aceeasi informatie (din punct de vedere probabilistic) ca si X . (2. prob Xn −→ X implic  Xn −→ X (din inegalitatea lui Markov). . In acest scop.. Deniµia 2. ce inregistreaza rezultatele posibile a unui anumit experiment aleator. ∀x punct de continuitate pentru FX . . in plus. ∀x ∈ R.45 Variabilele aleatoare X1 . atunci putem privi acest sir de v.a. .a.17 Teoreme limit  Fie (Ω.44 (legaturi intre diverse tipuri de convergenta) (a) (b) Lr Xn −→ X implic  Xn −→ X. . F. se numesc identic repartizate daca functiile corespunzatoare de repartitie satisfac sirul de egalitati: FX1 (x) = FX2 (x) = . ∀t ∈ Rd . Putem modela repetitia acestui experiment prin introducerea unui ³ir de v.46) Daca. P ) → R o v. P ) un camp de probabilitate si X : (Ω. ca un model pentru repetari independente ale experimentului in aceleasi conditii. .s. . n→∞ (6) Xn converge la X în sensul funcµiei caracteristice dac  lim φXn (t) = φX (t). din sirul de mai sus sunt independente stochastic. X2 . n→∞ Teorema 2. prob a. (c) Xn −→ X implic  Xn ⇒ X. presupunem ca v. = FXn (x) = . . (Xn )n∈N : (Ω.

(Xn )n∈N∗ satisfac condiµiile: (i) toate Xn admit momente absolute de ordin 2 (i.a.46 (Cebîsev) Dac  v. Demonstraµie. sirul frecventelor relative converge a. β2 (Xn ) < ∞). avem: n→∞ lim P νN −p < N = 1.47 anterioara devine: In plus.s. n→∞ n2 lim atunci Sn − E(Sn ) prob −→ 0. . pentru orice > 0. cu o probabilitate foarte mare. potrivit normalizat . probabilitatea evenimentului cercetat este egala cu frecventa relativa.s. la probabilitatea p. −→ 0).e. n (n → ∞) Sn . atunci putem arma ca. daca se efectueaza o selectie de volum mare N si se obtin νN cazuri favorabile. Teorema 2. Daca νN este numarul de realizari ale lui A din cele N experiente atunci. −→ 0.. teorema ne spune ca. a. Asta inseamna ca. daca Xn sunt identic repartizate. n Astfel. (2. (ii) 1 2 D (Sn ) = 0..s. Se fac N experiente independente.48 Teorema lui Bernoulli) Sa consideram o experienta in care probabilitatea de realizare a unui eveniment A este P (A) = p.46 n Teoremele limit  clasice descriu comportarea asimptotic  a sumei Sn = Spunem ca sirul (Xn )n urmeaza k=1 Xk . atunci concluzia Sn prob −→ m. 2 n2 Observaµia 2. media aritmetica a unui numar sucient de mare de astfel de variabile alatoare ia valori in vecinatatea lui m. desi variabilele aleatoare independente pot lua valori departate de mediile lor. P( Conform inegalitatii lui Cebîsev aplicate variabilei aleatoare Sn −E n Sn n ≥ ≤ 1 2 D2 Sn n = 1 1 2 D (Sn ) → 0. (respectiv. legea slaba (respectiv. n n Teorema 2. avem: n cand n → ∞. ∀n ∈ N. cu E(Xn ) = m. tare) a numerelor mari daca: (n → ∞) Sn − E(Sn ) prob Sn − E(Sn ) a.47) Cu alte cuvinte.

astfel incat Xi =   1. n ≥ 1. Aplicand inegalitatea lui Cebîsev variabilei aleatoare νN . adica: 1 n n Xk −→ m. ∀n ∈ N∗ . Vom asocia ecarei experiente i o variabila aleatoare Xi . sunt variabile aleatoare ce admit momente absolute de ordin 1.s (n → ∞). cu m ³i σ 2 nite.Elemente in Teoria probabilit µilor 47 Demonstraµie. ≥1− p(1 − p) .48) Observaµia 2. k=1 a. p).a.49 (Hincin) (legea slab  a numerelor mari) Dac  Xn . E(νN ) = N p. p). sunt independente doua cate doua si identic repartizate. Observam ca Xi ∼ B(1. obtinem: N ≥1− D2 νN N 2 P echivalent cu νN νN −E N N νN −p < N < . deoarece experimentele sunt independente. (Xn )n∈N sunt independente ³i identic repartizate. . pentru n → ∞. daca experienta i evenimentul A nu s-a realizat.    0.a. N 2 Teorema 2. atunci: σ n 1 √ n Xk − nm k=1 ⇒ Y ∼ N (0. (Xn )n∈N∗ . 1). i=1 D2 (νN ) = N p(1 − p). P de unde concluzia dorita. (2. independente. sunt identic repartizate si E(|X1 |) < ∞. Teorema 2. Fie E(Xn ) = m.50 (Kolmogorov) (legea tare a numerelor mari) Fie sirul de v. daca in experienta i evenimentul A s-a realizat.52 (TLC) (teorema limit  central ) Dac  v.51 Concluzia legii slabe a numerelor mari se mai poate scrie si sub forma: P n→∞ lim X1 + X2 + · · · + Xn =m n = 1. Atunci sirul (Xn )n satisface legea tare a numerelor mari. avem: n Xi = νN ∼ B(n. atunci sirul (Xn )n urmeaza legea slaba a numerelor mari. Teorema 2. Atunci.

pentru n → ∞.48 Observaµia 2. avînd orice tip de repartitii (atît timp cît variaµia lor e nit ). pentru n sucient de mare. atunci TLC devine 1 √ n n Xk ⇒ Y ∼ N (0. aproximarea ar putea  buna si pentru un numar n mai mic de 30.a. . un sir de v. p) si e Sn = . . de repartitie N (0. X2 . atunci un numar n astfel incat n > 30 ar  sucicient pentru aproximarea cu repartitia normala desi.a.53 (a) Teorema TLC ne spune ca. Se pune problema: de Moivre-Laplace de Cat de mare ar trebui sa e n. Teorema 2.a. k=1 (c) TLC ne permite s  aproxim m sume de v.a. k=1 Atunci. .Laplace) Fie X1 .a. . convergenµa din teorema limit  central  este echivalent  cu n→∞ lim P (Zn ≤ x) = Θ(x). o egalitate. 1). Un exemplu ar  aproximarea repartiµiei normale cu repartiµia binomial  cînd numarul de încercari e foarte mare (vezi teorema lui mai jos). normal . mai putem spune ca distributia v. Daca {Xk }k nu sunt normal repartizate. identic repartizate. √ ). daca avem un sir de v. independente stochastic si identic repartizate. 1). atunci teorema aproximarea sumei standardizate cu o variabila normala este. sau n→∞ lim P a≤ Sn − nm √ ≤b σ n 1 =√ 2π b a e−x dx = Θ(b) − Θ(a).54 (de Moivre . ind adevarata pentru orice n ∈ N∗ . σ 2 = 1. pentru ca teorema limita centrala sa e aplicabila? Daca variabilele aleatoare {Xk }k sunt deja normal repartizate. cu o v.50) unde Θ(x) este denita in (2. 2 (2. (d) Legea tare a numerelor mari e foarte util  în metode de simulare tip Monte Carlo. de fapt. Xn . independente stochastic. atunci. in practica. X = (b) Notam cu Sn − nm √ σ n n k=1 n (2. . suma standardizata.49) 1 n σ Xk este aproximativ normal  N (m. Sau. . Sn = este o v. daca repartitia lui Xk este simetrica.51) (b) Daca m = 0. .40). (2.a. n Zn = not σ n 1 √ Xk − nm . ∀x ∈ R. identic repartizate B(1.

Termenul 1 din (2. o varianta imbunatatita: 1 Φ npq k − np √ npq . respectiv. • aceasta aproximare poate  imbunatatita daca aplicam factori de corectie. k + 1 − np √2 npq unde Φ si Θ sunt denite in (2. avem: lim P Sn − np a≤ √ ≤b npq 1 =√ 2π b a n→∞ e−x dx.53) P (X = k) = P (k − = P = Θ 1 1 <X <k+ ) 2 2 1 k − 1 − np k + 2 − np X − np < √ < √2 √ npq npq npq −Θ k − 1 − np √2 npq . • aproximarea este una sucient de buna daca np > 5 si n(1 − p) > 5. . atunci o variabila aleatoare bi- nomiala poate  aproximata cu una normala.55 Asadar.40).Elemente in Teoria probabilit µilor 49 X1 + X2 + · · · + Xn . Astfel putem scrie: P (X = k) = √ sau. iar X este variabila aleatoare ce reprezinta numarul de fete cu stema aparute. cu media np si dispersia npq . tinand cont ca E(Sn ) = np si D2 (Sn ) = npq. daca parametrul n este sucient de mare. Mai putem scrie si: P (X ≤ k) = Θ k + 1 − np √2 npq . (2.56 O moneda ideala este aruncata de 100 de ori. Atunci. Observaµia 2.18 Exercitii rezolvate Exerciµiu 2.51). Demonstratia rezulta imediat din (2. pentru orice −∞ < a < b < ∞.54) 2. In practica. (2. 2 (q = 1 − p) (2.54) este folosit ca o valoare 2 de ajustare cand se face aproximarea unei variabile aleatoare discrete cu una continua.52) Demonstraµie.39) si (2.

in magazin sa intre cel putin 200 de clienti? Calculati aceasta probabilitate in doua moduri: folosind functia de repartitie Poisson si folosind aproximarea cu repartitia normala. Exerciµiu 2. Insa X este o variabila aleatoare distribuita B(100.5)100−k = 0. 10 10 (b) P2 = P ( k=1 Xk ≥ 200) = 1 − P ( k=1 Xk < 199) = 1 − F Xk (199) = 0. Folositi aproximarea cu o variabila aleatoare normala.  (a) P1 = P (X ≥ 15) = 1 − P (X < 14) = 1 − FX (14) = 0. Daca aproximam rezultatul folosind formula (2. sa se determine care este probabilitatea ca intr-o anumita ora sa intre in magazin cel putin 15 clienti? (b) Care este probabilitatea ca.5).5094. obtinem: P (45 ≤ X ≤ 55) ≈ Θ 55 + 1 − 50 √2 25 −Θ 45 − 1 − 50 √2 25 = 0.7287.8951.5)52 · (0.0737.5 · 0. . 0. obtinem: P =√ 1 Φ 100 · 0. aceste probabilitati pot  calculate folosind codul din Exercitiul 3.7287.54). P (45 ≤ X ≤ 55) = P (X ≤ 55) − P (X < 45) = FX (55) − FX (44) 55 = k=45 k C100 · (0.5)48 = 0.5)k · (0. asadar rezultatul exact este: 52 P = C100 · (0. Cu varianta imbunatatita. obtinem: P =Θ 52 + 1 − 50 √2 25 −Θ 1 52 − 2 − 50 √ 25 ≈ 0.0735. (b) Notam cu FX functia de repartitie pentru variabila aleatoare binomiala X . √ In Matlab.5 √ 52 − 50 100 · 0.  (a) Avem de calculat P = P (X = 52). intr-o anumita zi de lucru (de 10 ore).50 • (a) Care este probabilitatea de a obtine exact 52 de steme? • (b) Sa se calculeze P (45 ≤ X ≤ 55). Atunci.0736.5 ≈ 0. Stiind ca numarul clientilor pe ora este o variabila aleatoare repartizata Poisson.57 (a) In magazinul de la coltul strazii intra in medie 20 de clienti pe ora. Daca folosim aproximarea cu repartitia normala.5 · 0.11 din capitolul urmator.

16 din capitolul urmator.Elemente in Teoria probabilit µilor 10 51 unde k=1 Xk ∼ P(200). . gasim ca 199 + 0.5 − 200 √ 200 −0. Aproximand cu repartitia normala. In Matlab.5141.5 √ 200 P2 = 1 − Θ =1−Θ = 0. aceste probabilitati pot  calculate folosind codul din Exercitiul 3.

8 Exerciµiu 2.6 Exerciµiu 2.1 Exerciµiu 2.9 Exerciµiu 2.2 Exerciµiu 2.52 2.3 Exerciµiu 2.19 Exercitii propuse Exerciµiu 2.10 .7 Exerciµiu 2.4 Exerciµiu 2.5 Exerciµiu 2.

La programele deja existente in Matlab-ului este usurinta cu care Matlab. dezvoltând aplicatii specice domeniului în care lucreaza. hi-patrat). Poisson. cat si a pachetelor de functii (toolbox) de care ati putea  interesati. Matlab este un software standard în mediile universitare. puteti urmari o demonstratie a principalelor facilitati din Matlab.Chapter 3 Matlab Matlab Matlab-ul este Experienµe aleatoare în 3. Structural. matematici aplicate in diverse domenii etc. amintim Statistics Toolbox. Acestea sunt colectii extinse de functii de programare de la o versiune la alta. binomiala. pentru a rezolva probleme din domenii variate. Prezentam mai jos o scurta introducere in Matlab a principalelor functii si comenzi folosite in aceasta lucrare. 53 . matematici nanciare. identicarea sistemelor. care este o colectie de functii folosite pentru analiza. calculul statistic. diverse repartitii probabilistice (beta. puteti consulta un manual de utilizare. în jurul caruia sunt construite toolbox-urile. precum si în domeniul cercetarii si rezolvarii practice a problemelor legate de procesarea semnalelor. modelarea si simularea datelor. prelucrarea datelor experimentale. Matlab-ul este realizat sub forma unui nucleu de baza. Elementul de baza cu care opereaza matricea (MATrix LABoratory). Cea mai importanta caracteristica a poate  extins. numite Toolbox-uri. cu interpretor propriu. dedicat calculului numeric si reprezentarilor grace în domeniul stiintei si ingineriei. Matlab (siere M) care dezvolta mediul duri. tastand demo. De asemenea. utilizatorul poate adauga propriile sale coMatlab-ul include aplicatii specice. generarea numerelor aleatoare. Dintre acestea. Pentru o tratare mai detaliata. Contine: analiza gracelor (GUI).1 Scurta introducere în MATLAB este un pachet de programe de înalta performanta.

Valoarea unei variabile poate : o constanta.2720 • Variabilele sunt denite cu ajutorul operatorului de atribuire. to MAX(SIZE(X)) for non-empty arrays and 0 for empty ones. introducand la linia de comanda >> a = sqrt((sqrt(5)+1)/2) Matlab deneste o variabila de memorie a. . De asemenea. • Pentru a gasi informatii imediate despre vreo functie predenita. • Comenzile Matlab pot  scrise in siere cu extensia . folosirea comenzii lookfor este recomandata. VARARGOUT Variable length output argument list. De exemplu. Un sier-M consta dintr-o succesiune de instructiuni. acestea pot  vizualizate sau evaluate imediat. Matlab poate  folosit ca pe un mediu computational interactiv. =. De exemplu. caz in care ecare linie este prelucrata imediat.54 analiza regresionala. descrieri statistice.m. >> help length aseaza urmatoarele: LENGTH Length of vector. VARARGIN Variable length input argument list. Altfel. See also numel. si pot  utilizate fara a declara de ce tip sunt. O linie de • Matlab este un mediu computational orientat pe lucru cu vectori si matrice. De exemplu. LENGTH Length of vector. Odata introduse expresiile. It is equivalent LENGTH(X) returns the length of vector X. comanda help va vine in ajutor. • Comanda help poate  utilizata doar daca se cunoaste exact numele functiei. un sir de caractere. careia ii atribuie valoarea a = 1. lookfor length si gasim: NAMELENGTHMAX Maximum length of MATLAB function or variable name. ce urmeaza apoi a  compilate. cu posibilitatea apelarii altor siere-M precum si a apelarii recursive. poate reiesi din calculul unei expresii sau al unei functii.

Functia eye(n) deneste matricea unitate de ordin n.3. Matlab permite denirea unor functii foarte complicate prin scrierea unui cod. • Denirea matricelor se poate face prin introducerea explicita a elementelor sale sau prin instructiuni si functii. De exemplu. 9. O alta varianta de a deni un vector este v = linspace(x1. atunci avem varianta utilizarii comenzii inline. adica v este un vector linie cu n componente.Experienµe aleatoare în Matlab 55 cod v = [1. adica v = [1.n). • Functia Matlab ones(m.5.x2.5. La denirea explicita. 5. trebuie tinut cont de urmatoarele: elementele matricei sunt cuprinse intre paranteze drepte ([ ]). denim functia f (x. comanda >> A = [1 2 3. π) prin >> f(7.3.7. Spre exemplu. la intervale egale intre x1 si x2.y) = exp(5*x). Functia zeros(m. 5.n) deneste o matrice zero m × n.5827 • Un program Matlab poate  scris sub forma sierelor script sau a sierelor de tip functie. 4. • Dupa cum vom vedea mai jos. Aceasta poate  realizata si folosind comanda v = 1:2:9 adica aseaza numerele de la 1 la 9. liniile se separa prin semnul punct-virgula. 7.*sin(3*y) Putem apoi calcula f (7.9] (sau v = [1 3 5 7 9]) deneste un vector linie ce are componentele 1. 3. cu pasul 2.pi) 0. Aceste tipuri de siere permit crearea unor .j) sau A(:.j) (elementele de coloana j ) sau A(i.7.:) (elementele de linia i).9]. Ambele tipuri de siere sunt scrise in format ASCII. avand toate componentele egale cu 1. Pentru un vector coloana. 6] deneste matricea A = 1 4 2 5 3 6 • Apelul elementelor unei matrice se poate face prin comenzile A(i. y) = e5x sin 3y : >> f = inline('exp(5*x).*sin(3*y)') f = Inline function: f(x. folosim punct-virgula intre elemente.n) deneste o matrice m × n. Daca functia ce o avem de denit este una simpla. elementele unei linii trebuie separate prin spatii libere sau virgule.

56 noi functii, care le pot completa pe cele deja existente. Un sier

script

este un sier extern care

contine o secvena de comenzi MATLAB. Prin apelarea numelui sierului, se executa secventa

Matlab continuta in acesta. Dupa executia completa a unui sier script, variabilele cu care
acesta a operat raman in zona de memorie a aplicatiei. Fisierele script sunt folosite pentru rezolvarea unor probleme care cer comenzi succesive atat de lungi, incat ar putea deveni greoaie pentru lucrul in mod interactiv, adica in modul linie de comanda.

Fisierele functie
Matlab creaza cadrul propice extinderii functiilor sale, prin posibilitatea crearii de noi siere. Astfel,
daca prima linie a sierului .m contine cuvantul function, atunci sierul respectiv este declarat ca ind sier functie. Variabilele denite si manipulate in interiorul sierului functie sunt localizate la nivelul acesteia. Prin urmare, la terminarea executiei unei functii, in memoria calculatorului nu raman decat variabilele de iesire ale acesteia. Forma generala a primei linii a unui sier este:

function[param_iesire] = nume_functie(param_intrare)
unde:

• function este este cuvantul care declara sierul ca sier functie; • nume_functie este numele functiei, care este totuna cu numele sub care se salveaza sierul; • param_iesire sunt parametrii de iesire; • param_intrare sunt parametrii de intrare.

Comenzile si functiile care sunt utilizate de noua functie sunt înregistrate intr-un sier cu extensia .m.

Exerciµiu 3.1

Fisierul medie.m calculeaza media aritmetica a sumei patratelor componentelor unui

vector X (alternativ, aceast lucru poate  realizat prin comanda mean(X.^2)):

function m2 = medie(X) n = length(X); m2 = sum(X.^2)/n;

Experienµe aleatoare în Matlab

57

3.2 Generarea de numere (pseudo-)aleatoare
Numerele generate de asadar el vor 

Matlab sunt rezultatul compilarii unui program deja existent in Matlab,
Putem face abstractie de modul programat de generare ale acestor

pseudo-aleatoare.

numere, si sa consideram ca acestea sunt numere aleatoare.

3.2.1

Generarea de numere uniform repartizate intr-un interval, U(0, 1)

Functia rand
• Functia rand genereaza un numar aleator repartizat uniform in [0, 1].
De exemplu, comanda X = (rand < 0.5); simuleaza aruncarea unei monede ideale. Mai putem spune ca numarul X astfel generat este un numar aleator repartizat B(1, 0.5).

• De asemenea, numarul
Y = sum(rand(10,1) < 0.5) urmeaza repartitia B(10, 0.5) (simularea a 10 aruncari ale unei monede ideale).

• rand(m, n) genereaza o matrice aleatoare cu m × n componente repartizate U(0, 1). • Comanda a + (b − a) ∗ rand genereaza un numar pseudo-aleator repartizat uniform in [a, b].

!

Printr-o generare de numere aleatoare uniform distribuite în intervalul (a, b) înµelegem numere

aleatoare care au aceea³i ³ans  de a  oriunde în (a, b), ³i nu numere la intervale egale.

Figura 3.1 reprezinta cu histograme date uniform distribuite in intervalul [−2, 3], produse de comanda

Matlab:
hist(5*rand(1e4,1)-2,100)

58

Figure 3.1: Reprezentarea cu histograme a datelor uniforme.

3.2.2

Generarea de numere repartizate normal, N (µ, σ)

Functia randn
• Functia randn genereaza un numar aleator repartizat normal N (0, 1). • randn(m, n) genereaza o matrice aleatoare cu m × n componente repartizate N (0, 1). • Comanda m + σ ∗ randn genereaza un numar aleator repartizat normal N (m, σ). De exemplu,
codul urmator produce Figura 3.2:

x = 0:0.05:10; y = 5 + 1.1*randn(1e5,1); hist(y,x) %% date distribuite N(5,1.1)

3.2.3

Generarea de numere aleatoare de o repartitie data

Comenzile

Matlab
legernd(<param>, m, n)

Experienµe aleatoare în Matlab

59

250

200

150

100

50

0

0

2

4

6

8

10

Figure 3.2: Reprezentarea cu histograme a datelor normale.

si

random('lege', <param>, m, n).
Oricare dintre cele doua comenzi genereaza o matrice aleatoare, cu m linii si n coloane, avand componente numere aleatoare ce urmeaza repartitia lege. In loc de lege putem scrie oricare dintre expresiile din tabelul din Figura 3.1. De exemplu,

normrnd (5, 0.2, 100, 10);
genereaza o matrice aleatoare cu 100 × 10 componente repartizate N (5, 0.2).

random ('poiss',0.01, 200, 50);
genereaza o matrice aleatoare cu 200 × 50 componente repartizate P oiss(0.01).

3.2.4

Metoda functiei de repartitie inverse (Hincin-Smirnov)
Fie X este o variabila aleatoare de o repartitie data, pentru care functia sa de repar-

Propoziµia 3.2

titie, F (x), este continua si strict crescatoate, in orice punct in care aceasta nu este 0 sau 1. Fie U

u ∈ (0. . Un } sunt variabile aleatoare independentic stochastic si identic repartizate U(0. . Notez cu FY functia de repartitie pentru Y . 100. . F −1 (un )} formeaza o selectie intamplatoare de numere repartizat exp(λ). . . In Figura 3. atunci {F −1 (U1 ). U2 .60 o variabila aleatoare repartizata U(0. . Avem succesiv: FY (x) = P (Y ≤ x) = P (F −1 (U ) ≤ x) = P (U ≤ F (x)) = F (x). cealalta generata de functia Matlab predenita exprnd.1)). . . . % functia expsel. ∀x ∈ [0. Functia Matlab care genereaza gura este prezentata mai jos. F −1 (u2 ). .3 Fie X o variabila aleatoare ca in propozitia precedenta. un } sunt numere aleatoare uniform repartizate in [0. . Demonstraµie. 1]. 1] si F −1 este:    −λ ln(1 − u) . F −1 (u) = Atunci. F −1 (U2 ). 1). hold on Z = sort(exprnd(lambda. Apelarea functiei se face prin tastarea in fereastra de lucru in function expsel(lambda) Y = sort(-lambda*log(1-rand(100.m % generez 100 de numere si le ordonez % desenez selectia si retin figura % generez 100 de numere cu exprnd . . 1). altfel. Aratam ca FY este tocmai functia de repartitie a lui X .1))). F −1 (Un )} formeaza o selectie intamplatoare de numere ce urmeaza repartitia lui X . . u2 . . Daca {U1 . Exerciµiu 3.4 Fie variabila aleatoare X ∼ exp(λ). Putem astfel conclude ca: Propoziµia 3. .3 am reprezentat grac o doua selectii de volum 100 de numere aleatoare repartizate exp(5). avem ca {F −1 (u1 ). una generata prin metoda functiei de repartitie inverse. plot(Y). daca {u1 . 1). 1].   0 . . pentru care stim ca functia sa de repartitie este F : R −→ [0. Matlab a comezii expsel(5). variabila aleatoare Y = F −1 (U ) urmeaza aceeasi repartitie ca si X . Atunci.

1)). round. Diferenta dintre cele doua functii este ca floor(x) face rotunjirea la numarul intreg aat la stanga lui x.2. Astfel. comenzile floor(11*rand(20.1)). De exemplu. ceil(11*rand(20.3: Generare de numere aleatoare prin metoda functiei inverse. functia floor(x) este partea intreaga a lui x. Functiile round(x) si fix(x) rotunjesc numarul real x la cel mai apropiat numar intreg. pe cand ceil(x) face rotunjirea la numarul intreg aat la dreapta lui x.'generare cu exprnd') Figure 3. genereaza ecare cate 20 de numere intregi intre 0 si 10. ceil. fix Sunt functii folosite pentru generarea de numere aleatoare intregi. in directia lui .'r*') % desenez Z cu rosu legend('metoda functiei inverse'.Experienµe aleatoare în Matlab 61 plot(Z. distribuite uniform discret. 3.5 Generarea de numere aleatoare intregi Functiile floor.

λ) beta: repartitia β(m. in directia lui zero.3 Repartitii uzuale in repartitii probabilistice discrete Matlab repartitii probabilistice continue norm: repartitia normala N (µ. a. 3. b) unif: repartitia uniforma continua U(a. σ) chi2: repartitia χ2 (n) t: repartitia student t(n) f: repartitia F(m. p) poiss: repartitia Poisson P(λ) unid: repartitia uniforma discreta U(n) geo: repartitia geometrica Geo(p) hyge: repartitia hipergeometrica H(n. b) exp: repartitia exponentiala exp(λ) gam: repartitia gamma Γ(a.62 ±∞. p) nbin: repartitia binomiala negativa BN (n. σ) bino: repartitia binomiala B(n.1: Repartitii uzuale in Matlab . n) logn: repartitia lognormala logN (µ. respectiv. n) Table 3.

4 Alte comenzi utile în Matlab help rand lookfor normal X=[2 4 6 5 2 7 10] X=[3. vector linie cu 7 elemente. determinantul matricei A. din 2 in 2.01.Experienµe aleatoare în Matlab 63 3. ridica toate componentele vectorului X la puterea a doua. n × n. functia eroare. cu toate elementele 1. dimensiunea matricei A. coloana a 7-a a matricei A. matrice 3 × 3. matrice m × n zero. realizeaza maximum dintre componentele lu X . ordoneaza componentele lui X in ordine crescatoare.0 . 6 5 8 11. combin ri de n luate cate k. realizeaza minimum dintre componentele lui X . scoate primele 20 de linii ale lui A. cauta intrarile in Matlab pentru normal. 3 6 9 12] size(A) det(A) inv(A) A' A(:. calculeaza exponentiala ex . e. calculeaza logaritmul natural ln(x). 3π] cu diviziunea 0. transpusa matricei A.77] X = -10:2:10 length(X) t=0:0. vector coloana cu 5 elemente. 1. vector ce contine numerele intregi de la −10 la 10.n) B = zeros(m. produsul a doi vectori. produsul cumulativ al elementelor vectorului X . deneste o diviziune a [0.n) I = eye(n) A = [3/2 1 3 10.7) A(1:20. suma cumulat  a elementelor vectorului X .1) nchoosek(n. inversa matricei A. lungimea vectorului X . .5 . matrice unitate. 6.01:3*pi X. 105 .k) 1e5 exp(1) help specic pentru functia rand. calculeaza radicalul ordinului doi dintr-un numar.^2 X. n! A e matrice m × n.*Y cumsum(X) cumprod(X) min(X) max(X) sort(X) erf(X) exp(x) log(x) sqrt(x) factorial(n) A = ones(m.

'*m') plot(t.'-') plot3(X.64 plot(X(1:5). Se poate aplica atât problemelor cu deterministe. modelarea si simularea datelor si contine: generarea de numere aleatoare.z) semilogx si semilogy hold on clf clear all title('Graficul functiei') find deseneaza primele 5 componente ale lui X .5 Metoda Monte Carlo Metoda Monte Carlo este o metod  de simulare statistic . adauga titlu gurii. analiza regresionala. retine gracul pentru a realiza o noua gura. resp. deseneaza o functie scara. 3. În 1946.X. Stanislaw Ulam (polonez n scut în Lvov) a devenit primul matematician care a dat un nume acestui procedeu. cât ³i celor probabilistice ³i este folositoare în obµinerea de soluµii numerice pentru probleme care sunt prea dicile în a  rezolvate analitic. cu * magenta. distributii. sterge toate variabilele denite. Este o metod  folosit  de secole. reprezentarea prin histograme. gaseste indicii elementelor nenule ale unui vector. reprezentarea prin bare. teste statistice. Nicolas Metropolis a adus contribuµii importante metodei. analiza graca interactiva (GUI). deseneaza un grac in 3-D.2: Funcµii Matlab utile Matlab-ul include aplicatii specice. deseneaza gracul lui X versus t.Y. De asemenea. . ordonata.Z) stairs(X) bar(X) sau barh(X) hist(X) hist3(x. numite Toolbox-uri. dar a c p tat statutul de metod  numeric  din anii 1940. Table 3. reprezentarea prin histograme 3-D. ce produce soluµii aproximative pentru o mare varietate de probleme matematice prin efectuarea de experimenµe statistice pe un computer. Acestea sunt colectii extinse de functii Matlab (siere-m) care dezvolta mediul de programare de la o versiune la alta pentru a rezolva probleme din domenii variate. logaritmeaza valorile de pe abscisa. în special datorit  jocului de rulet  (ruleta = un generator simplu de numere aleatoare). sterge gura. Statistics Toolbox reprezinta o colectie de functii folosite pentru analiza.. unde se practic  foarte mult jocurile de noroc. cu linie continua. iar numele vine de la cazinoul Monte Carlo din principatul Monaco. descrieri statistice.y.

[a. 3. adic  P (A) f (N ) N Aceast  metod  nu e foarte ecient . b] [a.Experienµe aleatoare în Matlab 65 Are la baz  generarea de numere aleatoare convenabile ³i observarea faptului c  o parte dintre acestea veric  o proprietate sau anumite propriet µi. unde c < inf f ³i d > sup f . pentru a evalua numeric integrala. Facem urm toarea experienµ  aleatoare: alegem în mod uniform (comanda în rand ne ofer  aceasta posibilitate Matlab) un punct din interiorul dreptunghiului ³i test m dac  acest punct se a  sub gracul lui f (x). Evalu m integrala folosindu-ne de calculul probabilit µii evenimentului A. Repet m experienµa de un num r N (mare) de ori ³i contabiliz m num rul de apariµii f (N ) ale punctului sub grac. I = (b − a)E(f ).i. b) a. Dac  dorim aplicarea metodei MC. deoarece N trebuie sa e. orice metod  care are la baza generarea de numere aleatoare în vederea determin rii rezultatului unui calcul este numit  o metod  Monte Carlo. Orice eveniment zic care poate  v zut ca un proces stochastic este un candidat în a  modelat prin methoda MC. . probabilitatea c utat  va  aproximat  de frecvenµa relativ  a realiz rii evenimentului. într-adev r. (3. foarte mare pentru a avea o precizie bun . atunci avem de ales una din urm toarele variante: (1) Încadr m gracul funcµiei f într-un dreptunghi D = [a. însa este foarte util  în cazul în care integrala este dicil (sau imposibil) de evaluat. Aceast  metoda devine mai ecient  decât alte metode de aproximare când dimensiunea spaµiului e mare.6 Integrarea folosind metoda Monte Carlo S  spunem c  dorim s  folosim metode Monte Carlo pentru evaluarea integralei b I= a f (x) dx. Pentru un num r mare de experienµe.1) În general. b] c  un punct ales la întamplare în interiorul dreptunghiului D s  se ae sub gracul funcµiei f (x). În general. b] × [c. (2) Din teorema de medie avem ca exista un numar E(f ) ∈ (a. d]. metoda Monte Carlo nu este prima alegere.

b). g = exp(-x.a. unde V ⊂ Rn .   0 Funcµia h(x) denit  mai sus este densitatea de repartiµie a unei v.a.^2). altfel. k=1 (3.66 Putem evalua E(f ) prin E(f ) 1 N N f (xk ). k=1 (3. s  se evalueze integrala 5 I= −2 e−x dx 2  x = 7*rand(1e6. (3. Deci aproximarea integralei este: I (3) Putem rescrie integrala în forma b−a N N f (xk ).5) I unde Xk sunt v. 5) 2 % g(x) = e−x 106 % media i=1 g(xi ) . V Exerciµiu 3. b]. X ∼ U[a. . Folosind legea slab  a numerelor mari.4) se rescrie I = (b − a)E(f (X)). putem aproxima I prin: (3.1)-2.2) unde xk sunt numere aleatoare uniform distribuite în intervalul (a. daca x ∈ [a. k=1 (3. distribuite U[a. I = mean(g) % genereaza 106 numere aleatoare U(−2. iar relaµia (3. b].3) b I = (b − a) a f (x)h(x) dx.5 Utilizând metoda Monte Carlo.6) Putem generaliza metoda pentru a calcula integrale de tipul f (x) dx. b−a N N f (Xk ). b].4) unde f (x) =    1 b−a .

simularea Putem simula diverse experiente aleatoare folosind comenzile din aruncarii unei monede ideale sau a unui zar ideal.7183 √ 3.  estimate = mean(exp(rand(10^6.e. in cazul in care o urna are bile albe si negre in numar egal si extragem o bila la intamplare) • De asemenea. numarul Y = sum (rand(10. 0.2525 √ Exerciµiu 3. De exemplu.7 Experimente aleatoare în Matlab Matlab. . 0.7. 3.5).1))+1) % e ≈ 2.5) (simularea a 10 aruncari ale unei monede ideale). Pentru aceasta vom utiliza functia rand ce genereaza un numar (pseudo-)aleator uniform in intervalul [0. 67 estimate = mean(exp(-((7*rand(10^6.1)-2). Vom mai spunem ca numarul X astfel generat este un numar aleator repartizat B(1. restrâns.Experienµe aleatoare în Matlab sau.5) (similar cu schema bilei revenite. 1] (i. orice punct din acest interval are aceeasi sansa de a apare la rularea comenzii. simuleaza aruncarea unei monede ideale.1 Simularea arunc rii unei monede • Comanda X = (rand < 0.^2))) % I ≈ 0..5) urmeaza repartitia B(10. (e = I + 1).6 Evaluând integrala 1 I= 0 ex dx prin metoda Monte Carlo s  se estimeze valoarea num rului transcendent e.1)<0.

se poate simula si aruncarea unei monede masluite.5 0. semilogx(1:N. 'm:'). Fn. Sn = cumsum(V).N]. produce gracul din Figura 3. De asemenea.g. V = (x < p). x = 1:N. moneda(1e5. 'b-'. .5).4: Simularea arunc rii unei monede corecte (a) ³i a unui zar corect (b) Fisierul moneda. daca alegem ca parametrul p al functiei sa e diferit de 0.[p. atunci cand probabilitatea de a obtine fata cu stema este p./Ar.5 1/4 1/6 0 0 10 1 10 10 aruncari 2 3 10 4 10 5 10 1 10 10 aruncari 2 3 10 4 10 5 Figure 3. e.p). axis([0 N 0 1]). Fn = Sn.m % aruncam moneda % valoarea de adevar a lui (x<p) % suma cumulata % vectorul nr de aruncari % frecventa relativa a stemei % reprezinta grafic Fn % axele % numele figurii % numele axelor moneda 1 1 5/6 3/4 probabilitatea probabilitatea zar 0.5. Sa se determine probabilitatea ca la aruncarea monedei s  obµinem fata cu stema si sa deseneze o gura care sa justice grac convergenta sirului frecventelor relative la aceasta probabilitate.68 Exerciµiu 3.7 S  se scrie o functie MATLAB care sa simuleze aruncarea repetata a unei monede corecte. p]. function moneda(N. O rulare a functiei.0.4(a). x = rand(1. N). [1.ylabel('probabilitatea') % functia moneda. title('moneda') xlabel('aruncari').m simuleaza aruncarea unei monede de un numar N de ori.

3 ). subplot(1.g. ). 5 sau 6 puncte. Exerciµiu 3. aparitia unei fete cu 1. e. Z1 = (u < 3/6 & u > 2/6). axis([0 n 0 1]).2).2 Simularea arunc rii unui zar La aruncarea unui zar ideal. 2. n). vom alege (comanda rand) un numar "la intamplare" din intervalul [0. daca dorim sa simulam in Matlab aparitia fetei cu 3 puncte la aruncarea unui zar ideal. Vom vedea mai tarziu (vezi metoda Monte Carlo) ca alegerea acestor intervale cu capete inchise. . ( ./(1:n). putem simplica aceasta comanda si scrie (rand < 1/6). Sa se determine probabilitatea ca la aruncarea zarului s  obµinem faµa cu trei puncte si sa deseneze o gura care sa justice grac convergenta sirului frecventelor relative la aceasta probabilitate (vezi Figura 3. ( .8 S  se simuleze în MATLAB aruncarea repetata a unui zar corect.1/6]. % axele % numele figurii dice(1e5) produce gracul din Figura 3. deschise sau mixte nu are efect practic asupra calculului probabilitatii dorite. 1) . respectiv. Acum. si anume. Pentru a simula acest experiment. ). 1] formeaza multimea tuturor cazurilor posibile si impartim intervalul [0. ). avem 6 cazuri posibile. Ca o observatie. freq = cumsum(Z1). ( . ( . comanda 6 6 Matlab (rand < 3/6 & rand > 2/6) simuleaza aruncarea unui zar ideal.ylabel('probabilitatea') Fisierul dice. u = rand(1. 6 6 6 6 6 6 6 6 6 6 corespunzatoare. celor sase fete. n]. [1/6. 4. ). sa zicem in ordinea crescatoare a punctelor de pe ele. O rulare a functiei. ( . title('zar') xlabel('aruncari').2. 1 1 2 2 3 3 4 4 5 5 ).Experienµe aleatoare în Matlab 69 3.4(b)). Asadar. freq. [1. modicam in mod convenabil problema.m % probabilitatea aparitiei fetei ∴ % aparitia fetei ∴ % frecventa relativa % activeaza fereastra din stanga semilogx(1:n.m simuleaza aruncarea unui zar corect de un numar N de ori. 'm:'). 1] si vericam daca acesta se aa in intervalul ( 2 . deoarece cele 6 fete sunt identice.4(b). function dice(N). 'b-'. 3. 1] in 6 subintervale de lungimi egale: (0.7. Vom considera ca punctele din intervalul [0. % functia dice.

s  zicem c  acest num r este νN .9 (aproximarea lui π folosind jocul de darts ) În ce const  jocul? S  presupunem c  suntem la nivelul încep tor. y = rand(N. spre o tabl  p trat  din lemn.70 3.1).y.2*pi. A³adar.intepaturi % cerc in polar function Pi = Buffon(N) theta = linspace(0. adic  lim n→∞ νN . P (A) = aria perete = π . S  presupunem c  sunteµi un juc tor slab de darts (asta implic  faptul c  orice punct de pe tabl  are aceea³i ³ans  de a  µintit). Dac  s geata se înnge în interiorul discului atunci aµi câ³tigat un punct. ea se înnge în tabl . Avem de aruncat o s geat  ascuµit . ce poate penetra cu u³urinµ  lemnul. Metoda care a stat la baza aproxim rii lui π este o metoda Monte Carlo.^2 + (y-. approxpi =4*Prob. (3. În cazul în care num rul de arunc ri N e foarte mare.nu câ³tigaµi nimic. S  not m cu A evenimentul ca s geata s  se înng  chiar în interiorul discului.y) . Repet m jocul de un num r N de ori ³i contabiliz m la sfâr³it num rul de puncte acumulate.X.'r-'). este bine aproximat  de limita ³irului frecvenµelor relative.N). a carei suport teoretic este prezentat in paragraful . putem aproxima π prin 4 π 4 νN N (pentru N 1).' aruncari. dac  nu . plot(x.Y. title([int2str(N). num2str(approxpi)]). P (A). X = 1/2+1/2*cos(theta).8 Probabilit µi geometrice Exerciµiu 3. % deseneaza cercul si punctele % numarul de succese % frecventa relativa % aproximarea lui pi % deseneaza axele \pi \approx '. N aria disc Pe de alt  parte. Y = 1/2+1/2*sin(theta). % numar de aruncari % genereaza vectorul theta % (x. Se cere s  se aproximeze valoarea lui π pe baza jocului de mai sus ³i s  se scrie un program în Matlab care s  simuleze experimentul. Cu alte cuvinte. axis([0 1 0 1]). x = rand(N.1).5). dar nu a³a de slab încât s  nu nimeriµi tabla. S = sum((x-. în interiorul c ruia se a  desenat un cerc circumscris p tratului.5). Prob = S/N.'b+'. presupunem c  de ecare data când aruncaµi s geata. .^2 <= 1/4).7) Functia Matlab care aproximeaza pe π este prezentata mai jos. atunci probabilitatea evenimentului A.

Astfel. <param>). sau LEGEcdf(x. se introduce cu comanda icdf.Experienµe aleatoare în Matlab 71 Figure 3. In comenzile de mai sus. <param>). ne genereaza Figura 3. Functiile de probabilitate. <param>). astfel: cdf('LEGE'. x este un scalar sau vector pentru care se calculeaza f (x) sau F (x).5. x. x.1. astfel: pdf('LEGE'. f (x) (pentru variabile aleatoare discrete).9 Repartitii probabilistice in Matlab sau LEGEpdf(x. <param>). y. f (x) (pentru variabile aleatoare continue). LEGE poate  oricare dintre legile de repartitie din tabelul 3. <param>) Functia de repartitie. <param>) sau LEGEinv(y. o simpla rulare a functiei. Buffon(2000). 3. astfel: icdf('LEGE'. a unei variabile aleatoare se poate introduce in MATLAB cu ajutorul comenzii cdf.5: Simularea jocului de darts. se introduc in MATLAB cu ajutorul comenzii pdf. si densitatea de repartitie. y este un scalar sau vector pentru care . F (x). Inversa functiei de repartitie pentru repartitii continue. F −1 (y).

daca X ∼ B(10. relatia matematica P (X ≤ x) = F (x) o putem scrie astfel in Matlab: cdf('numele repartitiei lui X'. x = m ∈ Z. . θ ind parametrul repartitiei. • (a) Care este probabilitatea de a obtine exact 52 de steme? • (b) Sa se calculeze P (45 ≤ X ≤ 55). Daca X este de tip discret. unde [x] este partea intreaga a lui x. atunci corespondentul in Matlab este tot (3. daca X ∼ N (5. θ) functia sa de repartitie. Observaµia 3. 4. De exemplu.θ). 0.3). atunci P (X < x) =   P (X ≤ [x])  . De exemplu. (3. 0.x.3) = 0. 10.8).11 O moneda ideala este aruncata de 100 de ori.8) Problema poate aparea la evaluarea in Matlab a probabilitatii P (X < x). x nu e intreg   P (X ≤ m − 1) . 2). Exerciµiu 3. 2). 4. atunci P (X < 4) = cdf('norm'. atunci P (X < 5) = P (X ≤ 4) = cdf('bino'.10 Fie X o variabila aleatoare si F (x. iar X este variabila aleatoare ce reprez- inta numarul de fete cu stema aparute. Daca repartitia considerata este una continua. Pentru un x ∈ R. 5. Folositi aproximarea cu o variabila aleatoare normala.8497.72 se calculeaza F −1 (y) iar <param> este un scalar sau un vector ce reprezinta parametrul (parametrii) repartitiei considerate. deoarece in acest caz P (X ≤ x) = P (X < x) + P (X = x) = P (X < x).

0.12 Cineva a inregistrat zilnic timpul intre doua sosiri succesive ale tramvaiului intr-o anumita statie.normcdf(-5. Se stie ca acest timp este distribuit exponential. bar (x. FP).15.3.52)*(0. n .0.100.p).p). Stim ca T ∼ exp(λ).Experienµe aleatoare în Matlab Codul 73 Matlab urmator calculeaza probabilitatile cerute. calculate analitic in Exercitiul 2. x.13 nomiale.5 0 0.5)) reprezinta grac (vezi Figura 3.cdf('exp'. aati care sunt sansele ca ea sa astepte cel putin 15 minute pana vine urmatorul tramvai.  este: Notam cu T timpul de asteptare in statie intre doua sosiri succesive ale tramvaiului si cu FT functia sa de repartitie.binocdf(44. Daca o persoana a ajuns in statie exact cand tramvaiul pleca.24% sanse. in medie. √ Exerciµiu 3. 20) = 0.4724.5/5) . plot(x.5 n+0. avem de calculat P (T ≥ 15).5)^48 P1 = 1/5*normpdf(2/5) P1 = normcdf(2.5/5) . Urmatoarea functie Matlab (prin comanda fF(10.normcdf(1. FP=pdf('bino'. subplot(1.5) . ceea ce implica 47.5/5) % solutia exacta % solutia aproximativa 1 % solutia aproximativa 2 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ P2 = binocdf(55.5) P2 = normcdf(5. P1 = nchoosek(100. care P (T ≥ 15) = 1 − P (T < 15) = 1 − FT (15).2). unde λ = 20. Asadar.32]) title('Functia de probabilitate') subplot(1. x=0:n.1).56 din capi- tolul precedent. FP.6) functia de probabilitate (prin puncte si bare) si functia de repartitie ale legii de probabilitate bi- function fF(n.100.5 0 0.3. si a gasit ca. axis ([-0.5/5) % solutia exacta % solutia aproximativa Exerciµiu 3.32]) title('Functia de probabilitate') .5 n+0.0. '*') axis([-0. aceste este de 20 de minute. si aceasta este 1 .5)^52*(0.

Y = X − 175 .3.a.1. sa se determine dispersia lui X . σ de unde − 5 = icdf('norm'. 1).75 0. Exerciµiu 3. 0.a.2 0. σ Deoarece X ∼ N (175. Se stie ca P (X ≤ 170) = 0. asadar σ 2 ≈ 15.3).1) = −1.3 0.1. continua ce reprezinta inaltimea (in cm) barbatilor dintr-o tara.p).6: Reprezentarea functiilor de probabilitate si de repartitie pentru B(10.3.1 0.1 0. .28. subplot(1. Inaltimea usii de la vestiarul echipei este de 2 metri.2 0.91. σ √ de unde σ ≈ 3.  Fie v. X repartizata normal. cu deviatia standard 5 cm.1. x.0.14 Sa presupunem ca X este o v. Stiind ca X este normal distribuita.74 FR=cdf('bino'.axis ([0 n 0 1]) Functia de probabilitate 0. stairs(x.a. Din conditia P (X ≤ 170) = 0.5) Exerciµiu 3. gasim ca Y ∼ N (0.3 Functia de probabilitate 1 Functia de repartitie 0.25 0 0 5 10 0 0 2 4 6 8 10 0 0 5 10 Figure 3. σ).15 Presupunem ca inaltimea unei persoane este o v. obtinem: 5 P (Y ≤ − ) = 0. Media de inaltime a jucatorilor unei echipe de baschet masculin este 195 cm. cu media m = 175. n .0.5 0.1. FR) title('Functia de repartitie').

 (a) Probabilitatea ca jucatorii sa e "prea inalti" este: P1 = P (X > 200) = 1 − P (x ≤ 200) = 1 − FX (200) ≈ 0. (Presupunem ca se apleaca doar daca inaltimea lor este mai mare de 2m). X = 1.200).5/sqrt(200)) √ Exerciµiu 3.20). in magazin sa intre cel putin 200 de clienti? Calculati aceasta probabilitate in doua moduri: folosind functia de repartitie Poisson si folosind aproximarea cu repartitia normala.84.poisscdf(14. (b) Sa se determine probabilitatea ca inaltimile jucatorilor sa e intre 190 cm si 210 cm.16 (a) In magazinul de la coltul strazii intra in medie 20 de clienti pe ora. (p ∈ (0.5) √ Exerciµiu 3. in Exercitiul 2.normcdf(200. Prezentam aici Matlab pentru calculul probabilitatilor cerute. sa se determine care este probabilitatea ca intr-o anumita ora sa intre in magazin cel putin 15 clienti? (b) Care este probabilitatea ca. 195. cu P (X = −1) = 1 − p.normcdf(190. P2 = 1 .normcdf(-0.poisscdf(199.  codul Solutiile analitice au fost prezentate in capitolul anterior. 195.17 (a) Simulati in MATLAB o variabila aleatoare discreta X ce poate lua doar doua valori. P2 = 1 .57.1587. 195. cu P (X = 1) = p si X = −1. 1)).5))*100 P2 = normcdf(210. sau. (b) Calculam P2 = P (190 < X < 210) = FX (210) − FX (190) ≈ 0. Stiind ca numarul clientilor pe ora este o variabila aleatoare repartizata Poisson.87%. P1 = 1 .Experienµe aleatoare în Matlab 75 (a) Determinati procentul dintre jucatorii echipei care sunt prea inalti pentru a trece de aceasta usa fara sa se aplece. intr-o anumita zi de lucru (de 10 ore). Procentul cautat este r = P1 · 100 ≈ 15.5) . . P1 = 1 .

u = rand(N. Asadar. S(u < 0. comanda MATLAB (rand < p) ne aseaza valoarea de adevar a propozitiei rand < p.a. MATLAB aseaza 1 daca rand < p (probabilitatea ca aceasta sa se intample este p) si aseaza 0 daca rand > p (probabilitatea evenimentului este 1 − p). % introduc probabilitatea p % variabila aleatoare X (b) Procedam astfel: mai intai initializez un vector ce are toate componentele egale cu −1. Arunc o moneda de N ori. Care este probabilitatea de a obtine aceasta fata din cel mult 3 aruncari? . Pentru a contabiliza numarul de zerouri ale vectorului Castig. '*') Z=length(find(Castig == 0)) % numar de repetitii ale jocului % un vector cu toate componentele egale cu -1 % un vector cu N numere U(0. S  se reprezinte v. Atunci. plot(1:N. pentru a simula variabila aleatoare Bernoulli ceruta folosim codul: p = input('p = '). care reprezint  câ³tigul S(n) cumulat la ecare aruncare.  (a) Stabilim un p ∈ [0. s  se contabilizeze de câte ori s-a întors balanµa la 0. 1). Prin urmare. Cu comanda rand. Castig. iar dac  apare banul. generam un numar aleator dupa repartitia U(0.7). calculam lungimea vectorului ce are drept componente rangurile pentru care vctorul Castig este 0. X = 2*(rand < p)-1. S = -1*ones(N. Castig = cumsum(S).18 Sa se simuleze in MATLAB o variabila aleatoare ale carei valori reprezinta numarul de esecuri avute pana la aparitia pentru prima oara a fetei cu 3 puncte la aruncarea unui zar ideal.1). 1) % aruncare favorabila => schimb componenta -1 cu 1 % suma cumulata la fiecare moment % deseneaza graficul % numarul de componente nule √ Exerciµiu 3.1). atunci pentru aruncarea (componenta) respectiva schimbam valoarea −1 (pierdere) in +1 (castig). La nal. De asemenea.5) = 1. pierdem 1 RON . 1]. fac suma cumulata la ecare pas si o reprezint grac (vezi gura 3.76 (b) Consideram urm torul joc: se arunc  o moned  corect  de N ori ³i dac  apare stema câ³tig m 1 RON . Codul MATLAB este urmatorul: N = input('N = '). Daca apare evenimentul favorabil.

7: Suma cumulata . Aceasta urmeaza repartitia Geo(1/6).8 aminteste de clopotul lui Gauss. justicand grac cum ca functiile de probabilitate pentru binomiala (albastru) si Poisson (rosu) tind la densitatea de repartitie .miscare aleatoare (brownian ). Aceasta este o demonstratie graca a urmatoarei convergente: k lim Cn pk q n−k = n→∞ p→0 e−λ λk .Experienµe aleatoare în Matlab 200 77 150 100 S(n) 50 0 −50 −100 0 1 2 3 4 5 aruncari 6 7 8 9 10 x 10 4 Figure 3. Observam ca pentru un numar n sucient de mare. atunci cand numarul de extrageri in schema binomiala este un numar mare. X = geornd(1/6) P = geocdf(2.9) λ=np Vericati aceasta limita folosing metode analitice! Mai mult. k! (3.8 am reprezentat grac (cu bare) functiile de probabilitate pentru repartitiile binomiala si Poisson.19 In Figura 3.10 Justicari grace ale teoremei limita centrala Exerciµiu 3. Probabilitatea de a obtine fata asteptata din cel mult 3 aruncari este totuna cu probabilitatea de a obtine cel mult 2 esecuri pana la aparitia acestei fete.1/6) √ 3.  Fie X v.a. cautata. forma gracului din Figura 3. cele doua grace se suprapun.

1).3 si patru valori ale lui n. fB=binopdf(x. p = input('p=').12 0. am reprezintat cu albastru functia de repartitie pentru Sn (Sn ∼ B(n.fP']) Exerciµiu 3. n ∈ {20. bar(x'. iar cu linie rosie. p)). cand n este sucient de mare (pentru n = 10000 se suprapun gracele).10000].lambda). p = 0. functia de repartitie pentru o variabila aleatoare repartizata N (0.02 0 0 5 10 15 20 25 30 Figure 3.50. 10000}.n. n = input('n='). b=fix(lambda+3*sqrt(lambda)). %% a si b sunt valorile din problema celor 3 sigma x=a:b.3.p). Codul MATLAB ce genereaza gracul din Figura 3. 200.04 0.9. pentru n = 0.06 0. lambda = n*p.200.78 0.[fB'. observam cum gracul functiei de repartitie pentru Sn se apropie de gracul functiei de repartitie pentru N (0. for i=1:4 % reseteaza var.1 0. 1). clf.9 este: clear all. 50. de memorie si figura .15 pentru repartitia normala. fP=poisspdf(x. a=fix(lambda-3*sqrt(lambda)).20 In Figura 3. Din cele cele 4 grace. p) si P(np) pentru n = 100. p = 0.8: B(n. n = [20.08 0.

title(['n = '.05]) end % functia de repartitie pentru N (0. p) n = 20 1 0. 0. f = cdf('bino'.6 0.normcdf(x.4 0.i).f.8 0.4 0.4 0.4 0.6 0.'r').9: Vericare graca a teoremei limita centrala (varianta cu functiile de repartitie) . stairs(x. 1).05 4.2 0 −4 −2 0 2 4 1 0. p).2.6 0. 1) % functia de repartitie pentru B(n.num2str(n(i))]) axis([-4.8 0. n(i). subplot(2.8 0.2 0 −4 −2 n = 50 0 2 4 n = 200 1 0.8 0. y = n(i)*p + x*sqrt(n(i)*p*(1-p)). plot(x.'b').2 0 −4 −2 n = 10000 0 2 4 Figure 3.01:4.05 -0.2 0 −4 −2 0 2 4 1 0.Experienµe aleatoare în Matlab 79 x = -4:0.05 1.6 0. hold on. y.

7 Exerciµiu 3.9 Exerciµiu 3. .4 Exerciµiu 3. .5 Exerciµiu 3.6 Exerciµiu 3. 49}.11 Exercitii propuse Exerciµiu 3. 2.10 .2 Exerciµiu 3.80 3.8 Exerciµiu 3.1 {1.3 Exerciµiu 3. Generati in Matlab un set de 6 numere aleatoare alese (uniform discret) din multimea Exerciµiu 3. . .

ce are functia de repartitie F . Asupra acestei caracteristici. . 4. i = 1. in urma carora culegem un set de date statistice.1 Masuri descriptive ale datelor negrupate Consideram un set de date statistice negrupate (de volum n). ce corespund celor n observatii asupra variabilei X . . . facem n observatii. x2 . In continuare. . Pentru o selectie {x1 . i=1 ca ind media (empirica) de selectie. . denim: n x= ¯ 1 n xi . xn }. x1 . x2 . n). Daca {x1 . . vom deni cele mai importante masuri descriptive pentru aceste date. xn (xi ∈ R. . x2 . . Dupa cum am vazut mai inainte.Chapter 4 Elemente de Statistic  descriptiv  Sa consideram o populatie statistica de volum N si o caracteristica a ei. (1) Valoarea medie empirica Aceasta este o masura a tendintei centrale a datelor. . . . . . . datele statistice pot  negrupate (asa cum au fost culese in urma observarilor) si grupate (descrise prin tabele de frecvente). X . xN } sunt toate cele N observatii (recens mânt) 81 . . 2 .

¯ i=1 Vom vedea mai tarziu ca alegerea lui s2 in dauna lui s2 este mai potrivita intr-un anume sens. cantitatea di = xi − x se numeste deviatia fata de medie. x2 . . nu este necesar sa avem toate valorile {x1 . . si vom putea folosi x ca un estimator pentru µ. x2 . ¯ Pentru ecare i. Ambele ∗ valori. denim dispersia (empirica) de selectie: s2 ∗ 1 = n−1 n (xi − x) ¯ i=1 2 1 = [ n−1 n x2 − n(¯)2 ] . Pentru o selectie {x1 . .1 Cantitatea s = n 2 n (xi − x)2 este tot o masura a dispersiei (empirice) de selectie.82 asupra caracteristicii populatiei. denim deviatia standard (empirica) de selectie: s∗ = 1 n−1 n (xi − x)2 . . xn }. atunci marimea µ= se numeste 1 N N xi i=1 media (empirica a) populatiei. . . . ∗ (3) Deviatia standard empirica Este tot o masura a imprastierii datelor in jurul valorii medii. pentru a estima media µ a intregii populatii statistice. deoarece n (xi − x) = 0. s2 si s2 . i=1 (2) Dispersia empirica Aceasta este o masura a imprastierii datelor in jurul valorii medii. x i i=1 Pentru intreaga populatie de volum N . Pentru o selectie {x1 . x2 . . . dispersia populatiei este denita prin masura 1 σ = N 2 N (xi − µ)2 . ci doar o selectie a ei. . σ 2 . Aceasta nu poate  denita ca o masura a gradului de imprastiere a datelor. xN }. . i=1 1 Observaµia 4. . Vom vedea mai tarziu ca. pot  folosite ca estimatori ai dispersiei populatiei. xn }. ¯ i=1 .

scorul Z este: x−x ¯ . Pentru o selectie {x1 . dedesubtul sau deasupra mediei de selectie te situezi?)  Calculam scorul Z ..8 deviatii standard deasupra mediei de selectie. . Sa presupunem ca pentru aceste note avem media de selectie x = 7.7 √ (5) Covarianta empirica Daca avem n perechi de observatii.45.2 Testam media notelor obtinute de studentii din ultimul an al unei universitati. scorul Z este denit astfel: z= Pentru o populatie. x. (x1 .50 − 7. le are sub sau deasupra mediei.24 si deviatia standard s = 0. . s∗ z= x−µ .e. Avem: z= x−x 8. (xn . . . y2 ). cate deviatii standard. x2 . . Media ta este 8. 83 deviatia standard a populatiei este denita prin masura σ= 1 N N (xi − µ)2 . i=1 (4) Scorul Z Este numarul deviatiilor standard pe care o anumita observatie. (x2 . raportat la mediile colegilor tai? (i. . σ Exerciµiu 4. . denim covarianta empirica de se- lectie: 1 covsel = n−1 n (xi − x)(yi − y ). xn }. Care iti este pozitia mediei tale. y1 ). ¯ ¯ i=1 Covarianta empirica pentru intreaga populatie este: covpop = 1 N N (xi − µx )(yi − µy ). σ 0.Elemente de Statistic  descriptiv  Pentru intreaga populatie de volum N .7. s. yn ). i=1 .24 = = 1.

ce masoara locatia unei anumite observatii fata de restul datelor. valoarea xα este acel numar real pentru care aria hasurata este chiar α.1) F (xα ) = P (X ≤ xα ) = α. µ3 .1. daca exista o solutie a acestei ecuatiei F (x) = α. γ1 < 0. σx σy (7) Coecientul de asimetrie. atunci asimetrie la dreapta. (9) Cuantila de ordin α Deniµia 4. kurtosis). Pentru K < 0. skewness). σ4 Este o masura a boltirii distributiei (al patrulea moment standardizat). In cazul in care X este o variabila aleatoare discreta. Termenul (−3) apare pentru ca indicele kurtosis al distributiei normale sa e egal cu 0. este al treilea moment standardizat. (en. coecient de corelatie pentru populatie. atunci γ1 = 0. sx sy coecient de corelatie de selectie. Daca γ1 > 0. atunci exisita o innitate de solutii: intervalul . σ3 (8) Excesul (coecientul de aplatizare sau boltire) (en. atunci (4. Insa.1) nu poate  asigurata pentru orice α. γ1 = Daca avem o repartitie simetrica. K= µ4 − 3. in vecinatatea modului. Un indice K > 0 semnica faptul ca. Asa cum se poate observa din Figura 4. avem asimetrie la stanga. covpop .84 (6) Coecientul de corelatie empiric r= r= covsel .3 Se numeste cuantila de ordin α valoarea xα astfel incat: (4.4 Cuantilele sunt masuri de pozitie.. curba densitatii de repartitie are o boltire (ascutire) mai mare decat clopotul lui Gauss. Observaµia 4.. in acea vecinatate curba densitatii de repartitie este mai plata decat curba lui Gauss.

decile (α = j/10. • cuartila inferioara este x0. i = 1.75 − x0. 10).) . cuartile (α = i/4. 100). l = 1.g. x0. 1000). • cuartila superioara este x0. promile (α = l/1000. la aruncarea unui zar toate cele sase fete au aceeasi probabilitate de aparitie. astfel incat P (X ≤ x0. k = 1. (10) Modul (valoarea cea mai probabila a caracteristicii) Este acea valoare x∗ pentru care f (x∗ ) este maxim. O repartitie poate avea mai multe module (e. • mediana: Presupunem ca observatiile sunt ordonate. daca n = impar. deci toate sunt module. percentile (α = k/100. x1 < x2 < · · · < xn . daca n = par.Elemente de Statistic  descriptiv  ce separa doua valori posibile. i = 1.1: Cuantila de ordin α. Pentru aceasta ordine. 85 Figure 4.25 .75 ) = 3/4.5 ) = 1/4. • distanta intercuartilica.25 .5 =   x  (n+1)/2 .75 . astfel incat P (X ≤ x0. denim valoarea mediana: x0.. 4). Cazuri particulare de cuantile: mediana (α = 1/2).   (xn/2 + xn/2+1 )/2.

x2 . Fn (x). . Demonstraµie. . Notez cu F (x) functia de repartitie a lui X . Se fac n repetitii ale acestui eveniment si frecventa relativa a realizarii evenimentului A este νn card{i. xn }. {x1 . . . i=1 media de selectie. n n Astfel.2) Propozitia de mai jos arata ca functia de repartitie empirica aproximeaza functia de repartitie teoretica (vezi Figura 4. denita prin ∗ Fn (x) = card{i. Atunci: ∗ Fn (x) −→ F (x).2 Masuri descriptive ale datelor grupate Consideram un set de date statistice grupate (de volum n). Datele grupate sunt in genul celor prezentate in Figurile 1. prob ∀x ∈ R.cu i=1 fi = n. ∗ functia Fn : R −→ R. xi ≤ x} ∗ = = Fn (x). . . . denim: n xf = ¯ 1 n xi fi . . {f1 . xn }.48. . cand n → ∞. . . . x2 . concluzia propozitiei este o consecinta imediata a Teoremei lui Bernoulli 2.1 si 1. Pentru o selectie cu valorile de mijloc {x1 . 4. (media ponderata) .86 (11) Functia de repartitie empirica Se numeste functie de repartitie empirica asociata unei variabile aleatoare X si unei selectii {x1 . . ce corespund celor n observatii asupra variabilei X . Propoziµia 4. xn } si frecventele absolute corespunzatoare. . n f2 . (4. x2 .3.5 Fie Ω o colectivitate statistica si X o caracteristica studiata. . fn }. xi ≤ x} n . construim functia de ∗ repartitie empirica.2). Pentru o selectie de valori ale lui X . . Notez cu A evenimentul {X ≤ x} si cu p = P (A).

. s2 ∗ 1 = n−1 n i=1 1 fi (xi − xf ) = ¯ n−1 2 n x2 fi − n x2 ¯f i i=1 . obtinem datele (empirice): {x1 . ∗ deviatia standard empirica. xn } (in grame). In MATLAB.Elemente de Statistic  descriptiv  87 Figure 4. Pentru a putea obtine aceasta aproximare. dispersia empirica. . . Calculam media masei acestora si obtinem: 1 x= n n xi . Spunem astfel ca am facut o selectie de volum n din multimea painilor produse in acea zi. intr-adevar. Dorim sa decidem daca. Aceasta masina de paine ar trebui sa fabrice paini care sa aiba in medie m = 400 de grame. x2 . Pentru a testa daca masina respectiva indeplineste norma de gramaj. La brutaria din colt a fost adusa o masina noua de fabricat paine. ar  de asteptat ca acest x sa aproximeze (intr-un anumit sens) masa medie (teoretica) a painilor produse de aceasta masina. am avea nevoie de .6 Sa consideram urmatoarea problema. in scopul de a le cantari. In urma cantaririi celor n paini. masina este setata la parametrii potriviti. s∗ = s2 . i=1 Intuitiv. functiile specice pentru aceste masuri sunt: Observaµia 4. am pus deoparte (la intamplare) n paini produse intr-o zi lucratoare. .2: Functia de repartitie empirica si functia de repartitie teoretica pentru distributia normala.

min(x) skewness(x) kurtosis(x) prctile(x. valoarea mediana a lui x. skewness pentru elementele lui x. kurtosis pentru elementele lui x. adica. Table 4. Acest cadru il vom construi mai jos. deviatia standard si dispersia valorilor lui x. Mai mult. coecientul de corelatie pentru valorile lui x si y . covarianta dintre x si y . pth percentilele lui x. Acestea sunt.88 mean(x) harmmean(x) quantile(x. am dori sa m convinsi ca aceasta aproximare nu depinde de esantionul de paini ales. in decurs de un an (52 de saptamani). modul lui x.p) cdfplot(x) cov(x.y) corrcoef(x. cuantila de ordin α. reprezinta grac functia de repartitie empirica a lui x.75 − x0. maximum si minimum pentru elementele lui x. var(x) range(x) mode(x) max(x).alpha) iqr(x) median(x) std(x).25 . x0.3 Exercitii rezolvate Exerciµiu 4. daca am  ales alte paini si facut media maselor lor.7 O companie de asigurari a inregistrat numarul de accidente pe luna ce au avut loc intr-un anumit sat. in ordine: . un criteriu care sa ne spuna ca x ≈ m.y) LEGEstat(<param>) media valorilor elementelor lui x.1: Functii Matlab specice pentru masuri descriptive. am  obtinut din nou o valoarea foarte apropiata de m. range-ul lui x. Pentru a construi un astfel de criteriu. media armonica a elementelor lui x. distanta intercuantilica. 4. avem nevoie de un cadru teoretic mai abstract pentru modelarea datelor statistice. aseaza media si dispersia pentru LEGE(<param>).

4*ones(10. 4. 1. 4. 4. cdfplot(Y) √ Figure 4.  Y = [zeros(7. 2. (d) Gasiti si reprezentati grac (cdfplot) functia de repartitie empirica a numarului de accidente. 3.9. 3.Elemente de Statistic  descriptiv  89 1. (a) Sa se scrie un tabel de frecvente care sa contina numarul de accidente. 3. 0. 3. 3. 0. 4. 3. 1. 2. 1. (c) Reprezentati prin bare rezultatele din tabelul de frecvente. 2. 2.1). mediana si deviatia standard empirica.2*ones(14. s = std(Y).2).1)].1). 4. 0.ones(9. 4. 2.10]) subplot(1. 2. 2. 1.[7.1). 1.2.1). 3. 0. 2. 2. (b) Gasiti media empirica.12. Me = median(Y). . 4. 1. 0. 2. 3. 1.3: Reprezentare pentru numarul de accidente. frecventele absolute si cele relative. 2. 3. subplot(1. 3. 4.3*ones(12.2. 0. 3.1). 3. 2. 0. 2.14. 1. m = mean(Y). 4. 2. bar(0:4. 4.

1 Exerciµiu 4.3 Exerciµiu 4.4 Exercitii propuse Exerciµiu 4.7 Exerciµiu 4.2 Exerciµiu 4.4 Exerciµiu 4.5 Exerciµiu 4.8 Exerciµiu 4.90 4.10 .6 Exerciµiu 4.9 Exerciµiu 4.

1 indivizi Numim colectivitate statistica (sau populatie) o multime nevida Ω de elemente care este cercetata din punct de vedere a uneia sau mai multor caracteristici. Consideram o populatie (colectivitate statistica) Ω.1 Introducere Deniµia 5. prin inferenta. Deniµia 5. Aceasta caracteristica este o anumita proprietate urmarita la indivizii ei in procesul prelucrarii statistice si o vom asimila cu o variabila aleatoare denita pe Ω.e. este necesar de un numar reprezentativ de selectii repetate din colectivitatea Ω.Chapter 5 Noµiuni de teoria selecµiei 5. Numarul elementelor selectiei poarta numele de nerepetate. card(Ω)) il vom numi (sau volumul colectivitatii volumul populatiei). in caz contrar avem o 91 .. Studiem populatia Ω din punctul de vedere al unei caracteristici a sale. volumul selectiei (sondajului). volumul colec- se reintroduce in colectivitate. Problema esentiala a statisticii matematice este de a stabilii legea de probabilitate pe care o urmeaza caracteristica X . Daca populatia este nita. Elementele colectivitatii le vom numi (sau unitati statistice). O selectie se numeste Selectiile pot  repetate sau repetata (sau bernoulliana) daca dupa examinarea individului acesta selectie nerepetata. In practica. Pentru a gasi aceasta lege (repartitie). Vom nota cu ω o unitate statistica. pe care le vom studia si vom gasi apoi.2 Vom numi selectie (sau sondaj) o subcolectivitate a colectivitatii cercetate Ω. atunci numarul n al unitatilor statistice ce o compun (i. X . o lege care sa reprezinte variabila X .

cuplul (Ω(n) . n). Vom nota cu Ln = Y (Ω(n) ) ⊂ Rn . Xi (ω (n) ) = X(ωi ). este echivalent cu a considera o singura selectie dintr-o populatie de genul "Ω multiplicat de n ori". Pentru un ω (n) xat. produs cartezian de n ori. astfel incat: Y : Ω(n) → R. Selectiile pe care le vom considera in continuare sunt numai selectii repetate din colectivitatea statistica. . ∀i = 1. unde F este un corp borelian de parti ale lui Ω. xn ). Xi : Ω(n) → R. ∀i = 1. Construim astfel: Ω(n) = Ω × Ω × · · · × Ω. . Vom numi vector de selectie repetata de volum n. componentele vectorului Y (ω (n) ) se numesc valori de selectie repetata de volum n. Y (ω (n) ) = (X1 (ω (n) ). cu functia de repartitie comuna FX (se verica usor ca FXi = FX . ω2 . Dorim acum sa introducem un cadru matematic abstract pentru aceste selectii repetate. . numita selectie repetata de volum n. n sunt independente) si sunt identic repartizate. F (n) ) se va numi spatiul selectiilor repetate de volum n. Un element al lui Ω(n) va  ω (n) = (ω1 . vectorul Y . Consideram spatiul masurabil (Ω. si-l vom numi spatiul valorilor de selectie repetata de volum n. Vom numi Xi . . . ωn ). i = 1. In aceste cazuri. . n. . . . . x = (x1 . Fie variabilele aleatoare Astfel. ideea este urmatoarea: a efectua n sondaje repetate dintr-o multime Ω.92 tivitatii Ω este mult mai mare decat volumul selectiei. Elementele lui Ln le vom nota prin (xi = Xi (ω (n) ). . . variabile aleatoare de selectie repetata de volum n. n). 2. i = 1. Dorim sa denim matematic o selectie repetata de volum n. Acestea sunt variabile aleatoare denite pe (Ω(n) . x2 . . pentru ω (n) xat. . . Xn (ω (n) )). F (n) = F × F × · · · × F. selectia nerepetata poate  considerata ca ind selectie repetata. . F (n) ). . Caracteristica X urmarita poate  reprezentata de o variabila aleatoare denita pe (Ω. Euristic. n. F). X2 (ω (n) ). sunt independente stochastic (deoarece {X(ωi )}i=1. F).

5. Xn ). densitate de repartitie teoretica si functie . .3 statistica (sau functie de selectie) variabila aleatoare Sn (X) = g(X1 . ∀B ∈ B(R). Sn (x) = g(x1 . X2 . De cele mai multe ori. Este indispensabila in conditiile in care volumul selectiei este redus. respectiv. unde g este o functie g : Rn → R masurabila (i. n. F) o colectivitate statistica si X o caracteristica cercetata a sa. Valoarea numerica S(X. . x2 . statistica se noteaza cu una dintre urmatoarele: Sn (X). . g −1 (B) ∈ B(Rn )). ω (n) ). Observaµia 5. . Xn ). X2 .Teoria selecµiei 93 Vom numi Deniµia 5.2 Exemple de statistici Fie (Ω. . • ca o statistica test pentru vericarea ipotezelor statistice. . n). . din care a provenit esantionul ω (n) . Teoria probabilitatilor ne ofera procedee de determinare atat a repartitiei exacte a lui Sn (X).e.4 Asadar. n ≤ 30. cat si a repartitiei asimptotice a lui Sn (X). o functie de selectie (statistica) este utilizata in urmatoarele cazuri: • in probleme de estimare punctuala a parametrilor. Notatii: In literatura. iar utilizarea acesteia conduce la rezultate bune doar pentru n > 30. . Prin intermeniul statisticilor putem trage concluzii despre populatia Ω. xn ) se numeste valoarea functiei de selectie pentru un ω (n) xat. . o statistica este o functie de variabilele aleatoare de selectie. Repartitia asimptotica este repartitia limita a Sn (X) cand n → ∞. S(X1 . Sa notam cu f (x) si F (x) densitatea de repartitie. • in obtinerea intervalelor de incredere pentru un parametru necunoscut. . S(X. Acestea pot  cunoscute sau necunosctute a priori si le vom numi functii teoretice (respectiv. Repartitia exacta este cea ce poate  determinata pentru orice volum al selectiei. functia de repartitie pentru X . .. .

adica prin extragerea unor selectii de date din colectivitate. xn } valorile de selectie corespunzatoare variabilelor aleatoare de selectie {X1 .4) Pentru simplitatea formulelor. si le vom numi medie teoretica si dispersie teoretica. Xn }.2) (5. . 1 n n a.3) Xi −→ E(X). Daca se cunoaste f (x). i = 1. n.22 precizeaza care este repartitia mediei de selectie pentru variabile aleatoare de selectie dintr-o colectivitate normala.6 E(X) = E(X). vom cauta sa le determina prin inferenta. Cu ajutorul acestora. i=1 ω (n) ∈ Ω(n) . .24 precizeaza care este repartitia asimptotica a mediei de selectie pentru variabile de selectie intr-o colectivitate oarecare. n (5. de acum inainte vom face abstractie de dependenta de ω (n) in formule. atunci putem determina µ = E(X) si σ 2 = D 2 (X). variabilele aleatoare de selectie. X2 . care se va subintelege. calculand caracteristicile respective pentru selectiile considerate si apoi extrapoland (in anumite conditii si dupa anumite criterii) la intreaga colectivitate.94 de repartitie teoretica). (2) Propozitia 5.4) sub forma restransa: 1 X= n n Xi . (5. Media de selectie (mean) Deniµia 5. statistica X(ω (n) 1 )= n n Xi (ω (n) ). . cand n → ∞. . D2 (X) = D2 (X) . x2 . . Atunci valoarea mediei de selectie pentru un ω (n) xat este: x= 1 n n xi i=1 (media de selectie empirica).s. Sa consideram ω (n) o selectie repetata de volum n din colectivitatea data si Xi . i=1 Observaµia 5. putem construi diverse functii de selectie. daca acestea exista. . iar Propozitia 5. .5 Numim medie de selectie (repetata de volum n).7 (1) In capitolele urmatoare vom scrie relatia (5. Propriet µi 5. sa notam cu {x1 .1) Pentru un ω (n) xat. . . a priori In cazul in care una sau mai multe caracteristici teoretice corespunzatoare lui X nu ne sunt cunoscute. i=1 (5.

X2 . . avem: E(αk (X1 . i=1 Valoarea momentului de selectie de ordin k pentru un ω (n) xat este: 1 µk (x1 . . . Xn ) = n n Xik . statistica 1 αk (X1 . k ∈ N∗ . . X2 .11 Pentru oricare k xat. . E([X − µ]k ) = µk (X).9 Pentru oricare k xat. . avem: α1 (X1 . statistica µk (X1 . . Xn ) = X. X2 . . E(X k ) = αk (X). X2 . . .s. .Teoria selecµiei 95 Momente de selectie Deniµia 5. (momente centrate teoretice pentru X) (Xi − X)k i=1 −→ µk (X). xn ) = n n [xi − x]k i=1 (moment de selectie centrat empiric de ordin k).s. . cand n → ∞. . n (momente initiale teoretice pentru X) Xik −→ αk (X). . . Xn )) 1 n n = a. D2 (X k ) . . In cazul particular k = 1. xn ) = 1 n n xk i i=1 (moment de selectie empiric de ordin k). . . X2 . Propriet µi 5. x2 . k ∈ N∗ . Xn )) D2 (αk (X1 . cand n → ∞. . .8 Numim moment de selectie (repetata de volum n) de ordin k. . .10 Numim moment de selectie centrat de ordin k. Xn ) = 1 n n [Xi − X]k . . X2 . . avem: E(µk (X1 . . . . x2 . . . i=1 Valoarea momentului de selectie de ordin k pentru un ω (n) xat este: αk (x1 . Xn )) 1 n n = = a. . (k ∈ N∗ ). . . Propriet µi 5. . i=1 Momente de selectie centrate Deniµia 5.

28 precizeaza care este repartitia acestei statistici. iar valoarea acesteia pentru un ω (n) xat este: 1 d (x) = n 2 n [xi − x]2 i=1 (dispersie de selectie empirica).13 Dispersiile de selectie verica urmatoarele relatii: E(d2 (X)) = n−1 2 D (X).6) d2 (X) −→ D2 (X). i=1 dispersie de selectie modicata. . statistica d2 (X1 . .12 Numim dispersie de selectie (repetata de volum n). atunci dispersia de 1 d (X) = n 2 [Xi − µ]2 . . n prob E(d2 (X)) = D2 (X) ∗ (5. iar valoarea ei pentru un ω (n) n xat este: d2 (x) ∗ 1 = n−1 [xi − x]2 i=1 (dispersie de selectie empirica). i=1 Propozitia 5. . in locul lui d2 (X) se utilizeaza statistica d2 (X). . . primele doua relatii arata ca sta- tistica d2 (X) este un estimator nedeplasat pentru dispersia teoretica. Xn ) = µ2 (X1 . X2 . Motivatia pentru considerarea statisticii d2 (X) este data de proprietatile din Propozitia urmatoare: ∗ Propriet µi 5. o vom nota cu d2 (X).96 Dispersie de selectie (var) Deniµia 5. pe cand d2 (X) este estimator ∗ deplasat.14 (i) Dupa cum vom vedea in capitolul urmator. ∗ Observaµia 5. Xn ). .5) (5. (ii) Daca media teoretica a colectivitatii este cunoscuta selectie d2 (X) devine: n a priori. De cele mai multe ori. X2 . denita prin: ∗ d2 (X) ∗ Aceasta se mai numeste si 1 = n−1 n [Xi − X]2 . Pentru simplitate. . . E(X) = µ ∈ R. cand n → ∞.

n ∗ In Statistica. functia ∗ Fn : R × Ω(n) → R. unde n(x) = card {i. ∗ Pentru un x ∈ R xat. este functia de repartitie empirica denita in 4. . ω (n) ) ∈ R × Ω(n) . Xi (ω (n) ) ≤ x} reprezinta numarul de elemente din selectie mai mici sau egale cu x. unde χA este functia indicatoare a multimii A. ∀x ∈ R. Fn (ω (n) ) este o variabila aleatoare distribuita binomial B(n.Teoria selecµiei 97 (cdfplot) Functia de repartitie de selectie Deniµia 5. Propriet µi 5. . x] (Xi ). xi ≤ x} n . amintim doar cateva dintre ele. (i. Mai jos.s. 1 [F (x)(1 − F (x))]..  Rezultatul este o consecinta directa a legii tari a numerelor mari. ∗ D2 (Fn (x)) = ∀x ∈ R. x xat in R. exista o serie de criterii care permit sa se aprecieze apropierea lui Fn (x) de F (x).16 Functia de repartitie de selectie satisface urmatoarele relatii: ∗ E(Fn (x)) = F (x). . ∗ Fn (x. F (x)). −→ n→∞ a.15 Fie X1 . n ∀ (x.e. i=1 ∀ x ∈ R. Fn (x) ia valorile: ∗ Fn (x) = card {i.17 Functia de repartitie de selectie satisface convergenta ∗ Fn (x) − − F (x). ∗ Pentru ecare ω (n) ∈ Ω(n) xat. √ . Relatia din denitie poate  scrisa si sub forma: ∗ Fn (x) 1 = n n χ(−∞. Propriet µi 5.2). Numim func- tie de repartitie de selectie (repetata de volum n). ω (n) ) = n(x) . . X2 . Xn variabile aleatoare de selectie repetata de volum n.

x > 0. atunci lucram doar populatii normale. cu probabilitatea 1. Mai jos prezentam cateva rezultate mai importante referitoare la selectia dintr-o colectivitate gaussiana. X urmeaza o repartitie normala (gaussiana). daca volumul populatiei este mic (n ≤ 30).18 Functia de repartitie de selectie satisface convergenta √ ∗ n(Fn (x) − F (x)) ∼ N ( 0.98 Propriet µi 5. 2. iar pentru n > 30 putem considera orice tip de repartitie pntru colectivitate. ce urmeaza a  studiata din punct de vedere statistic. . In cele mai multe cazuri practice. √  Rezultatul este o consecinta directa a Propozitiei 5. care are functia de repartitie teo- ∗ retica F si e functia de repartitie de selectie Fn . ∀i = {1. adica: ∗ sup |Fn (x) − F (x)| − − 0. n}. De regula. F (x) functia sa de repartitie si Fn (x) func- ∗ tia de repartitie empirica corespunzatoare unei selectii de volum n. O vom utiliza mai tarziu in Teoria deciziei (testul Kolmogorov). Propoziµia 5. atunci statistica X satisface: X∼N σ µ. Xn } variabile aleatoare de selectie repetata de volum n. .20 (Kolmogorov) Fie caracteristica X de tip continuu. x∈R atunci avem: n→∞ lim P ( n · dn < x) = K(x) = √ ∞ (−1)k e−2 k k=−∞ 2 x2 . Atunci Fn (x) converge uniform la F (x).21 Functia K denita prin (5. . (n ∈ N∗ ) . . (5. √ n . . Daca notam cu ∗ dn = sup |Fn (x) − F (x)|.7) se numeste functia lui Kolmogorov si are valorile tabelate. . F (x)(1 − F (x)) ). σ). . Teorema 5.3 Selectii aleatoare dintr-o colectivitate normala Sa consideram Ω o colectivitate statistica si X o caracteristica a sa. 5. X2 .22 (repartitia mediei de selectie pentru o selectie gaussiana) Daca Xi ∼ N (µ.19 (Glivenko-Cantelli) Fie X ∗ o caracteristica. Fie {X1 . −→ x∈R n→∞ Teorema 5.16 si a Teoremei limita centrala. x xat in R. .7) Observaµia 5.

√n ). statistica X satisface: X∼N σ µ. n}. σ adica X urmeaza legea de repartitie N (µ. i=1 i=1 . √ n Propoziµia 5. atunci Z= X −µ σ ∼ N (0. i ai µi . σ) functia Demonstraµie. . . atunci pentru un volum n sucient de mare. n} sunt variabile aleatoare de selectie. 2. . ∀i = {1. ercitiu!] Acest rezultat este o consecinta imediata a concluziei teoremei limita centrala.24 (repartitia mediei de selectie pentru o selectie oarecare) Daca {X1 . . .8) φaX (t) = φX (at). 2.36) si tinand cont de relatia 1 2 t2 . Propoziµia 5. σ). σi ) sunt variabile aleatoare independente stochastic si ai ∈ R. (5. (n > 30) Demonstraµie. obtinem ca functia caracteristica a lui X este: n φX (t) = k=1 ei µ n − t σ 2 t2 2 n2 = e iµt− 1 2 σ √ n 2 t2 . atunci variabila aleatoare ξ = i=1 ai ξi satisface proprietatea: n  ξ∼N n  2 a2 σi  . . [Ex- Observaµia 5. Pentru o variabila aleatoare N (µ.26 Daca ξi ∼ N (µi . caracteristica este: φ(t) = ei µ t− 2 σ Din relatia (2. O consecinta directa a acestei propozitii este urmatoarea: Propoziµia 5. . . atunci concluzia Propozitiei 5. 1). ce urmeaza o repartitie data.23 ramane valabila si in cazul in care avem o selectie repetata de volum n dintr-o colectivitate statistica nu neaparat gaussiana. .25 Daca n este sucient de mare. √ n . n i = {1. . X2 .23 Daca Xi ∼ N (µ.Teoria selecµiei 99 Vom folosi metoda functiei caracteristice. Xn } variabile aleatoare de selectie repetata de volum n. . .

Urmatoarea propozitie este un caz particular al Propozitiei 5. Sa presupunem ca avem doua populatii statistice normale. Aplicand acum Propozitia 5.100 Demonstraµie. . Aplicam rezultatul Propozitiei 5. σi ). . . ce urmeaza a  studiata. i=1 i=1  2 σi  . . σ2 ).29 (1) Concluzia propozitiei anterioare se mai poate scrie astfel: Z= (2) (ξ1 − ξ2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 ∼ N (0. √ ni . a2 i ni Demonstraµie. ξ2 mediile de selectie corespunzatoare selectiilor alese. Notam cu ξ1 si. ξ1 si ξ2 . pe care o vom nota cu ξi . iar a1 = 1. Deoarece ξi ∼ N (µi . n}. 2. . . Atunci statistica Y = a1 ξ1 + a2 ξ2 + . iar ξ este o caracteristica comuna a celor doua populatii. ξ2 . Pentru ecare caracteristica ξi consideram cate o selectie repetata de volum ni . . [Exercitiu!] i = Propoziµia 5. . + an ξn satisface proprietatea:  Y ∼N n n a i µi . a2 = −1. ξn }. . populatiile statistice sa e . n1 n2 Demonstraµie. obtinem concluzia dorita. satisface: ξi ∼ N σi µi . din Propozitia 5.22 obtinem ca media de selectie corespunza- toare. σ1 ) si o selectie de volum n2 dintro colectivitate N (µ2 . .  2 2 σ1 σ2  + . σi ) variabile aleatoare independente stochastic si ai ∈ R.26 variabilelor aleatoare independente {ξ1 .27 Fie ξi ∼ N (µi . respectiv. ξi . cele doua selectii ind alese independent una de cealalta.28 (repartitia diferentei mediilor de selectie pentru colectivitati gaussiene) Consideram o selectie de volum n1 dintr-o populatie normala N (µ1 . Ω1 si Ω2 . 1).27. Atunci statistica  ξ1 − ξ2 ∼ N µ1 − µ2 . Observaµia 5.27 pentru cazul particular in care avem doar doua variabile aleatoare. Demonstratia este bazata pe metoda functiei caracteristice. {1. Propoziµia 5. (De exemplu.

2. avem nevoie de functia caracteristica pentru X 2 . y ≤ 0. respectiv. Avem:   0  .39) cu µ = 0. unde X ∼ N (0. Sa notam cu ξ1 . data de relatia (2. i = {1. . spre exemplu. = Functia caracteristica pentru X 2 va :  1 √ √  √  2 y [f ( y) + f (− y)] . (Adica. . y − 2 e− 2 dy 1 y = (1 − 2it) −1 2 . (i. Atunci variabila aleatoare n H = i=1 2 2 Xk ∼ χ2 (n).30 Fie {X1 . y ∞ 0 φX 2 (t) = E ei t X 2 1 =√ 2π . 1). . . y ≤ 0.Teoria selecµiei 101 multimea pieselor produse de doua strunguri intr-o zi de lucru. ξ2 mediile de selectie corespunzatoare. iar caracteristica comuna sa e masa lor).. de volume n1 . Demonstraµie. de unde g(y) = G (y) =   0  . n}. in vericarea ipotezei ca masele medii ale pieselor produse de cele doua strunguri coincid (vezi capitolul Teoria deciziei). Sa mai presupunem ca deviatiile standard ale caracteristicilor considerata sunt cunoscute. Aceasta ne va  deosebit de utila. astfel incat Xi ∼ N (0. folosim metoda functiei caracteristice. Pentru aceasta. 1). y > 0. vom selecta n1 dintre piesele produse de strungul intai si n2 piese produse de cel de-al doilea strung). Xn } variabile aleatoare independente stochastic. X2 . Notam cu G(y) functia de repartitie pentru X 2 si cu g(y) densitatea sa de repartitie. Pentru a demonstra propozitia. Propoziµia 5. y > 0. Sa notam cu f (x) functia densitate de repartitie pentru X . n2 . . . y ≤ 0. respectiv. 2 G(y) = P (X ≤ y) =   P (−√y ≤ X ≤ √y) .e. consideram cate o selectie repetata. Propozitia anterioara precizeaza care este repartitia diferentei standardizate ale celor doua medii de selectie. deviatiile sunt date deja in cartea tehnica a celor doua strunguri) Pentru ecare dintre cele doua colectivitati..  1 √ √  f ( y) . .   0  . . y > 0.

. astfel incat Xi ∼ N (µ. .36) si obtinem: φH 2 (t) = E(e n it n i=1 n 2 Xi )= i=1 E eitXi n 2 = i=1 φX 2 (t) = (1 − 2it)− 2 . ∀i = 1. cu X ∼ χ2 (n) si X + Y ∼ χ2 (n + m). Demonstraµie. Atunci variabila aleatoare H2 = 1 σ2 n (Xi − µ)2 ∼ χ2 (n). χ2 (n). Pentru ecare i = {1. . . . putem aplica relatia (2. i = {1. X2 . folosind faptul ca φX (t) · φY (t) = φX+Y (t).a. .102 Deoarece variabilele aleatoare {Xi }i sunt independente stochastic. n. Xn } variabile aleatoare independente stochastic. . O consecinta imediata a acestei propozitii este ca.32 (repartitia dispersiei de selectie cand media colectivitatii este cunoscuta) Fie {X1 . Yn } si obtinem concluzia dorita. n}. ∀t ∈ R. consider variabilele aleatoare Yi = Xi − µ .23.30 pentru variabilele aleatoare {Y1 . Lema 5. . 1). Aplicam rezultatul propozitiei 5. .31 χ2 (1). Propoziµia 5. σ Conform Propozitiei 5. . Y2 . atunci X 2 ∼ Urmatoarea propozitie este tot o consecinta directa a Propozitiei 5. . 2. Demonstratia se bazeaza pe metoda functiei caracteristice.30. daca X ∼ N (0. . σ). avem Yi ∼ N (0. . 2. . atunci Y ∼ χ2 (m). n}.33 Daca X si Y sunt variabile aleatoare independente stochastic. i=1 Demonstraµie. 1). . i si aceasta este functia caracteristica pentru o v. Observaµia 5. . .

atunci statistica T = X Y n ∼ t (n). statisticile X si n−1 d2 (X) sunt independente stochastic. Utilizand faptul ca X si n−1 d2 (X) sunt independente stochastic. 1).9) este o variabila aleatoare repartizata χ2 (n). . Facem apel acum la Lema 5. 2 σ (5. cu X ∼ N (0. observam ca membrul stang al egalitatii (5.35 se poate rescrie astfel: n−1 2 d (X) ∼ χ2 (n − 1). 1 σ2 n (Xi − X)2 + i=1 n (X − µ)2 σ2 (5.31.37 Daca X si Y sunt variabile aleatoare independente stochastic.32. Xn } variabile aleatoare de selectie repetata de volum n.11) Lema 5.10) unde: Zi = Xi − µ ∼ N (0. σ) caracteristica unei populatii statistice si e {X1 . Putem scrie: 1 σ2 n (Xi − µ)2 i=1 = sau. .35 Fie X ∼ N (µ. . concluzionam ca al doilea termen din membrul drept este repartizat χ2 (1). Folosind Observatia 5. 1) σ si Z= X −µ σ √ n ∼ N (0. σ2 ∗ unde d2 (X) este dispersia de selectie.Teoria selecµiei 103 Fie X caracteristica unei colectivitati statistice.9) n Zi2 i=1 = n−1 2 2 d∗ (X) + Z .36 Concluzia propozitiei 5. Atunci. X2 . . i=1 Demonstraµie. Utilizand Propozitia 5. gasim ca variabilele ∗ σ2 2 aleatoare Z si n−1 d2 (X) sunt independente stochastic. si ajungem ∗ σ2 la concluzia propozitiei.34 si d2 (X) dispersia de selectie repetata. Atunci statistica 1 χ = 2 σ 2 n (Xi − X)2 ∼ χ2 (n − 1).33. 1) si Y ∼ χ2 (n). . ∗ ∗ σ2 Propoziµia 5. Observaµia 5. X media de selectie repetata de volum n Lema 5. ∗ (5.

v) dv Γ n+1 2 √ nπ Γ n 2 t2 1+ n − n+1 2 = . Y . Xn } sunt variabile aleatoare de selectie repetata de volum n. . .38 Daca {X1 . ∞). ∗ (t(n − 1) este repartitia Student cu (n − 1) grade de libertate. adica tocmai densitatea de repartitie a unei variabile aleatoare t(n). n (t. ∞). y ≤ 0. Din independenta. n in vectorul (T. Fie f (x) si g(y) densitatile de repartitie pentru X . Y ). . τ:   t = √ x  y   v = y. x ∈ R. X2 . n x2 +y (x.40): v 2 −1 e− 2 (1+ n ) k(t. gasim ca densitatea de repartitie a vectorului (X. respectiv. d∗ (X) √ n−1 d2 (X) ). Propoziµia 5. σ) a unei colectivitati statistice. . atunci statistica t= X −µ ∼ t(n − 1). k1 (t) = 0 k(t. . v) ∈ R × (0. ce urmeaza repartitia unei caracteristici X ∼ N (µ. 2 2 πΓ n 2 Consideram o transformare a acestui vector. t ∈ R. y) = f (x)g(y) = n+1 √ . Avem: x2 1 f (x) = √ e− 2 .104 Demonstraµie. y > 0. Densitatea de repartitie a acestui vector este (vezi Propozitia 2. v) = n+1 √ 2 2 πΓ n 2 Densitatea de repartitie marginala pentru T este: ∞ n v t2 v . Y ) este: y 2 −1 e− 2 h(x. 2π   y n −1 e− y   2n n 2 2 2 Γ( 2 ) g(y) =   0 . iar d∗ (X) = . y) ∈ R × (0.

Concluzia rezulta prin aplicarea Propozitiei 5. X1 . Xn } sunt independente stochastic.41 (repartitia diferentei mediilor de selectie cand dispersiile sunt necunoscute.42 abila aleatoare Daca X ∼ χ2 (m) si Y ∼ χ2 (n) sunt variabile aleatoare independente.37.Teoria selecµiei 105 Aplicam lema anterioara pentru variabilele aleatoare Demonstraµie. . σ1 ) si o selectie de volum n2 dintro colectivitate N (µ2 .. σ2 ∗ Observaµia 5. atunci vari- F = n X ∼ F(m. n). Atunci statistica ∗1 ∗2 T = (ξ1 − ξ2 ) − (µ1 − µ2 ) (n1 − 1)d2 ∗1 + (n2 − 1)d2 ∗2 n1 + n2 − 2 1 1 n1 + n2 ∼ t (n1 + n2 − 2). in problema testarii mediei teo- retice cand dispersia teoretica este necunoscuta a priori. . Notam cu ξ1 . egale) Consideram o selectie de volum n1 dintr-o populatie normala N (µ1 . atunci variabila aleatoare T = X0 2 2 2 X1 +X2 + . Propoziµia 5. m Y .39 Aceasta propozitie va  folosita in teoria deciziei.38: Propoziµia 5. σ2 ).40 Daca variabilele aleatoare {X0 . d2 mediile de selectie si dispersiile de selectie corespunzatoare selectiilor alese. X= X −µ σ √ n ∼ N (0.. +Xn n ∼ t (n). . Demonstraµie. identic repartizate N (0. .30 si Lemei 5. ξ2 si d2 . Propoziµia 5. 1) si Y = n−1 2 d (X) ∼ χ2 (n − 1). 1). Demonstraµie. Urmatoarea propozitie este un caz particular al Propozitiei 5. cele doua selectii ind alese independent una de cealalta.

Y ) este: m n x+y 2 h(x. Densitatea de repartitie a acestui vector este (vezi Propozitia 2. Demonstraµie. v) = u 2 −1 v 2 m+n 2 m m+n −1 2 e− 2 (1+ n n 2 v m u) Γ m 2 . . . .43 Daca {X1 . Din independenta celor doua variabile aleatoare. Consideram o transformare a acestui vector. x ≤ 0. ∞) × (0. . y) ∈ (0. adica tocmai densitatea de repartitie a unei variabile aleatoare F(m. Y ).42. gasim ca densitatea de repartitie a vectorului (X. Xm+n } sunt variabile aleatoare independente. Propoziµia 5. ∞). ∞) × (0. y > 0. n). y) = f (x)g(y) = x 2 −1 y 2 −1 e− 2 m+n 2 Γ m 2 Γ n 2 . Γ Densitatea de repartitie marginala pentru F este: ∞ k1 (u) = = 0 m n k(u. respectiv. . v) dv Γ m+n m m 2 u 2 −1 1 + u m n n Γ 2 Γ 2 m 2 − m+n 2 . Fie f (x) si g(y) densitatile de repartitie pentru X si. identic reparti- zate N (0. . X2 . n). 1). y ≤ 0. . . atunci variabila aleatoare F = 2 2 2 X1 + X2 + . (t. v) ∈ (0. + Xm+n ∼ F(m. (x. Demonstratia rezulta imediat prin aplicarea rezultatelor propozitiilor 5. .30 si 5. .106 Demonstraµie. u > 0.40): m n m 2 k(u. in vectorul (F. . + Xm n 2 2 2 m Xm+1 + Xm+2 + . τ:    t = n x m y   v = y. Avem:   x m −1 e− x  2  m m2 2 2 Γ( 2 ) f (x) =   0   y n −1 e− y 2  2n  2 2 Γ( n ) 2 g(y) =   0 . ∞). . x > 0. Y .

32 si 5. n 1 − 1 χ2 2 n2 χ2 = 1 1 2 σ1 n1 (X1 i − X1 )2 .43. n1 si {X2 i }i=1. i=1 χ2 = 2 1 n2 n2 (X2 j − µ2 )2 ∼ χ(n2 ). 5.Teoria selecµiei 107 Propoziµia 5. si consideram d2 (X1 ) ∗1 si d2 (X2 ) dispersiile de selectie corespunzatoare celor doua selectii repetate. avem ca χ2 ∼ χ(n1 − 1). n2 . i=1 χ2 = 2 1 2 σ2 (X2 j − X2 )2 . ce urmeaza repartitia variabilelor aleatoare X1 . Atunci statistica ∗2 F = 2 σ2 d2 ∗1 ∼ F(n1 − 1. σ2 ) caracteristicile a doua populatii statistice.45 (repartitia raportului dispersiilor pentru colectivitati gaussiene) Suntem in conditiile Propozitiei 5. Din ecare populatie extragem cate o selectie repetata. X2 . cu mentiunea ca mediile teoretice µ1 si µ2 sunt cunoscute a priori. respectiv. Demonstratia este similara cu cea de mai inainte.44 (repartitia raportului dispersiilor pentru colectivitati gaussiene) Fie X1 ∼ N (µ1 . σ1 ) si X2 ∼ N (µ2 . 2 d2 σ1 ∗2 Demonstraµie. j=1 {X1 i }i=1. respectiv. j=1 Demonstraµie. Se folosesc rezultatele Propozitiilor [Exercitiu!] . n2 .44. de volume n1 . 1 χ2 ∼ χ(n2 − 1). Folosind concluzia Propozitiei 5. n2 sunt variabile de selectie repetata de volume n1 .43. n2 − 1). Ω1 si Ω2 . Rescriem F in forma echivalenta: F = unde n 2 − 1 χ2 1 . 2 σ1 d2 2 χ2 = 1 1 n1 n1 (X1 i − µ1 )2 ∼ χ(n1 ).35. Atunci F1 = unde d2 si d2 sunt date de: 1 2 2 σ2 d2 1 ∼ F(n1 . Propoziµia 5. X1 si X2 sunt mediile de selectie corespunzatoare. respectiv. 2 Concluzia acestei propozitii urmeaza in urma aplicarii rezultatului Propozitiei 5. n2 ).

Pentru aceasta. am generat astfel 50 de variabile aleatoare de selectie de volum 50.12) si (5. . n) (5.50) genereaza o matrice patratica.13) introduse în Capitolul 1. (5. careia ii precizam cele 50 de valori ale sale obtinute la o observatie. n).6. Astfel. corespunzand celor 50 de variabile aleatoare de selectie. 6). ce urmeaza repartitia N (100. Putem privi aceasta matrice aleatoare astfel: ecare coloana a sa corespunde unei variabile aleatoare de selectie de volum 50. < param >. de dimensiune 50. Asadar. m. 50.13). n. In total. putem genera variabile aleatoare de selectie de un volum dat. avem 50 de coloane.4 Selecµii în Utilizand functiile Matlab legernd(< param >.100. comanda random('norm'. m.12) si random( lege . va trebui ca m = n in (5.108 5.

Asadar. procentul de rebuturi este r = P2 · 100% ≈ 0.65/ 1000) (vezi Propozitia √ 5.02.5 Exerciµii rezolvate Exerciµiu 5. µX = 100. 0. adica aproximativ 2 rebuturi la 1000 de batoane.22). σX ≈ 0. stim ca media de selectie X urmeaza repartitia N (100. . In vederea vericarii parametrilor masinii.46 Sa consideram ca masa medie a unor batoane de ciocolata produse de o masina este o caracteristica X ∼ N (100.n).65). 0.Teoria selecµiei 109 5.65. X = normrnd(mu. acestea pot  calculate astfel: % n = volumul selectiei % am generat selectia de volum n mu = 100.  Din teorie. Probabilitatea P1 = P (98 < X < 102) este P1 = P (X < 102) − P (X ≥ 98) = FX (102) − FX (98) ≈ 1. • Un baton este declarata rebut daca masa sa medie este sub 98 de grame sau peste 102 de grame. Calculati procentul de rebuturi avute. √ In Matlab.2091%. n=1000. X . • Calculati P (98 < X < 102). sigma = 0. • Calculati masa medie si deviatia standard ale mediei de selectie. de unde. n. dintre sutele de mii de batoane produse in acea zi s-au ales la intamplare 1000 dintre acestea. sigma. Probabilitatea de a avea un rebut este: P2 = P {X < 98} {X > 102} = P (X < 98) + P (X > 102) = FX (98) + 1 − FX (102).

de 90000 pe saptamana. S = sigma/sqrt(n).7e3/sqrt(52)) N = 52*90000 = 4 680 000 % probabilitatea % nr. mu. (x si s) (b) Painile care au masa sub 380g sau peste 420g nu sunt conforme cu standardul CTC. de tranzactii √ Exerciµiu 5. % Xbar = media de selectie % media si deviatia standard P1 = normcdf(102. Sa se gaseasca proportia de paini care nu respecta standardul masei. unde P este probabilitatea ca painile sa nu e in conformitate cu standardul CTC este: P = P ({X < 380} {X > 420}) = P (X ≤ 380) + 1 − P (X ≤ 420) = FX (380) + 1 − FX (420). m = mean(Xbar). unde FX este functia de repartitie pentru X .110 Xbar = mean(X).  (b) Numarul de rebuturi este r = P · 100. Matlab scriem astfel: P = normcdf(9. cu deviatia standard 7000. s = std(Xbar). iar X∼N In 7000 95000. Sa presupunem ca urmarim numarul tranzactiilor bursiere intr-un an intreg (52 de saptamani). √ 52 . Exerciµiu 5. s-au cantarit la intamplare 50 dintre franzelele produse de respectiva masina intr-o zi. in medie.9e4. P2 = normcdf(98.5e4. mu.mu.mu.47 Numarul tranzactiilor la bursa din New York este. Pentru a controla daca masina respecta standardele cantitative. S) . (a) Folosind Matlab. Notam cu X media de selectie pentru numarul tranzactiilor bursiere pe intregul an urmarit. .normdf(98.normcdf(102. sa se genereze o astfel de selectie aleatoare si sa se determine media de selectie empirica si deviatia standard empirica pentru aceasta selectie. Calculati care este probabilitatea evenimentului {X < 95000}. Cate tranzactii s-au facut (in medie) in acel an?  P = P (X < 95000) = F (95000).48 Masa (in grame) a unui anumit tip de franzele produse de o masina intr-o brutarie este o variabila aleatoare N (400. rebut = P2*100.sigma).sigma) + 1 . S). 10).

10)+1-normcdf(420. Se cere sa sa determine probabilitatea P (X) < 0. 9 18 D2 (X) = E(X 2 ) − (E(X))2 = R x2 f (x) dx − Asadar. 2/3.10. √ 3 18 · 100 .49 In vederea studierii unei caracteristici X ce are densitatea de repartitie f (x) =    2 x. unde X este media de selectie. 3 1 4 = .5% √ Exerciµiu 5. m = mean(X).Teoria selecµiei 111 X = normrnd(400. repartitia mediei de selectie X este X∼N 2 1 √ . Ea este: P (X < 0.400.   0 ∈(0. nenegativa si 1 f (x) dx = R 0 2 x dx = 1.2398.65. Avem: 1 E(X) = R x f (x) dx = 0 2 2 x2 dx = .400. s-a efectuat o selectie repetata de volum n = 100. 1). 1). Putem acum calcula probabilitatea ceruta. 1/(30*sqrt(2))) = 0. 50. √ . adica este masurabila. avem nevoie de E(X) si D 2 (X).1).65.10))*100 %%% = 4.65) = FX (0.  Se observa cu usurinta ca f (x) indeplineste conditiile unei functii de repartitie.65) = normcdf(0. Pentru a calcula probabilitatea ceruta. % selectia intamplatoare r = (normcdf(380. x ∈ (0. s = std(X).

6 Exercitii propuse Exerciµiu 5.6 Exerciµiu 5.3 Exerciµiu 5.9 .8 Exerciµiu 5.1 Exerciµiu 5.112 5.7 Exerciµiu 5.2 Exerciµiu 5.4 Exerciµiu 5.5 Exerciµiu 5.

. unde θ este un parametru necunoscut. f este functia de probabilitate daca variabila aleatoare X este de tip discret. Mai sus. In acest capitol. Daca functia de probabilitate (densitatea de repartitie) este deja cunoscuta. in primul caz de mai sus nu avem nimic de estimat. daca este o variabila aleatoare de tip continuu. Functia de probabilitate (respectiv densitatea de repartitie) a caracteristicii poate  • complet specicata.1 Punerea problemei Sa presupunem ca ni se da un set de observatii aleatoare {x1 . θ). se pune problema sa estimam valoarea parametrilor de care aceasta depinde. . caz in care se poate pune problema de a  estimata. ne vom ocupa de estimarea parametrilor Sa presupunem ca avem caracteristica X care urmeaza repartitia obtinuta din functia de probabilitate (sau densitate de repartitie) f (x. . X ∼ P(λ) sau X ∼ N (µ. 1). x2 . dar cu parametru(i) necunoscut(i). De exemplu. σ). X ∼ U(0. 113 . dar cel putin unul dintre parametrii sai este necunoscut a priori.Chapter 6 Noµiuni de teoria estimaµiei 6. ai carui componente sunt parametrii repartitiei lui X . acest paramtru poate  un vector (θ ∈ Θ ⊂ Rp ). de exemplu. . In general. • specicata. • necunoscuta. xn } asupra unei caracteristici X a unei populatii statistice. In mod evident. iar f este densitatea de repartitie a lui X . Vom spune astfel estimare parametrica. ca avem o problema de unei repartitii date.

. X2 . ˆ (2) O statistica θ este un estimator nedeplasat (en. Xn } variabile aleatoare de selectie repetata de volum n. xn ) se numeste estimatie a lui θ. Asadar.114 Scopul teoria estimatiei este de a evalua parametrii de care depinde f . atunci θ(x1 . X2 . .. n [Exercitiu!] ˆ (3) Daca {x1 . biased estimator) pentru θ ˆ E(θ) = θ. deplasarea ind b(s2 . o estimatie pentru un parametru necunoscut este valoarea estimatorului pentru selectia . σ 2 ) = − σ2 .1 (1) Se numeste functie de estimatie (punctuala) sau estimator al lui θ . folosind datele de selectie si bazandu-ne pe rezultatele teoretice prezentate in capitolele anterioare. x2 . Xn ). x2 . b(θ. . . θ) = E(θ) − θ. In acest caz. ne-am dori sa stim in ce sens si cat de bine este aceasta aproximatie. . . . . Deniµia 6.2 (1) Dispersia de selectie modicata d2 (X) = ∗ 1 n−1 n [Xi − X]2 i=1 este un estimator nedeplasat pentru dispersia teoretica D 2 (X). daca ˆ Altfel. spunem ca θ este un estimator deplasat pentru θ. . iar deplasarea (distorsiunea) se deneste astfel: ˆ ˆ b(θ. . cu ajutorul careia dorim sa il aproximam pe θ . . iar dispersia de selectie d2 (X) = 1 n n [Xi − X]2 i=1 este un estimator deplasat pentru D 2 (X). o functie de selectie (statistica) ˆ ˆ θ = θ(X1 . ˆ ˆ Astfel. . . xn } sunt date observate. . Exerciµiu 6. Presupunem totodata ca X admite medie si notam cu µ = E(X) si σ 2 = D 2 (X). ce urmeaza repartitia lui X . . Fie {X1 . . θ) este o masura a erorii pe care o facem in estimarea lui θ prin θ .

Teoria estimaµiei 115 ˆ observata. θ) < MSE(θ2 .UMVUE) daca pentru orice θ ∈ Θ si orice alt ˆ estimator nedeplasat pentru θ . θ ∈ Θ. Vom spune ca un estimator ˆ ˆ ˆ θ1 este mai ecient decat hte2 daca MSE(θ1 . vom nota atat estimatorul cat si estimatia cu θ si vom face diferenta intre ele prin precizarea variabilelor de care depind. x2 . . θ))2 . relative eciency) a lui θ1 in raport cu θ2 . . Uniformly Minimum Variance Unbiased Estimate . θ) = E ˆ θ−θ 2 . ˆ ˆ (5) Fie θ1 si θ2 doi estimatori pentru θ .. estimatie consistenta . θ) pentru macar un θ . avem ˆ ˆ D2 (θ) ≤ D2 (θ∗ ). ˆ (6) Un estimator θ pentru θ. . ˆ (7) Estimatorul θ pentru θ este un estimator consistent daca cand n −→ ∞. . θ) se numeste ecienta ˆ ˆ relativa (en. θ) pentru toate valorile posibile ale lui θ ∈ Θ ˆ ˆ si MSE(θ1 . xn ). θ) ≤ MSE(θ2 . Observaµia 6. . Atunci. θ ∗ . Xn ) −→ θ. θ(x1 .3 E Putem scrie: ˆ θ−θ 2 = E ˆ ˆ ˆ θ − E(θ) + E(θ) − θ0 2 ˆ = D2 (θ) + 2E ˆ ˆ θ − θ] · [E(θ) − θ +E ˆ E(θ) − θ 2 ˆ ˆ = D2 (θ) + (b(θ. θ) ˆ MSE(θ2 .. se numeste pentru θ . ˆ Asadar. X2 . . . MSE pentru un estimator nedeplasat este D 2 (θ). mean squared error) cantitatea ˆ MSE(θ. ˆ In acest caz. . valoarea numerica a estimatorului. se numeste estimator nedeplasat uniform de dispersie minima (en. Prin abuz de notatie. (4) Numim ˆ eroare in medie patratica a unui estimator θ pentru θ (en. prob ˆ θ(X1 .. valoarea ˆ MSE(θ1 .

atunci estimatorul este consistent. se numeste pentru θ .4 Statistica d2 (X) este un estimator absolut corect pentru σ 2 = D 2 (X).5 Demonstraµie. n→∞ n→∞ ˆ In acest caz.116 ˆ (8) Estimatorul θ pentru θ este un estimator absolut corect daca (i) (ii) ˆ E(θ) = θ. . . xn ). Utilizam inegalitatea lui Cebâsev in forma: ˆ D2 (θ) ˆ P ({|θ − θ| < }) ≥ 1 − . n n(n − 1) 2 cand n → ∞. . estimatie absolut corecta ˆ (9) Estimatorul θ pentru θ este un estimator corect daca (i) (ii) ˆ lim E(θ) = θ. valoarea numerica a estimatorului. dar nu absolut corect. 2 ˆ Tinand cont ca lim D 2 (θ) = 0 obtinem concluzia dorita. ˆ Daca θ este un estimator absolut corect pentru θ . pentru D2 (X). . valoarea numerica a estimatorului. θ(x1 . ˆ In acest caz. . estimatie corecta pentru Exerciµiu 6. [Exercitiu!] Propoziµia 6. . . xn ). x2 . Avem: E(d2 (X)) = E ∗ si 1 n−1 n [Xi − X]2 i=1 = D2 (X) D2 (d2 (X)) = ∗ µ4 n−3 2 − µ → 0. n→∞ ˆ lim D2 (θ) = 0. ˆ lim D2 (θ) = 0. ∀ > 0. . θ(x1 . x2 . iar statistica ∗ d2 (X) este un estimator corect. . n→∞ (6. se numeste θ.1) Demonstraµie.

3) . -1. 2. -0.3709. (10) Numim cantitate de informatie relativa la parametrul θ continuta in selectia corespunzatoare de volum n (informatie Fisher) expresia: In (θ) = n · E ∂ ln f (X. atunci ar  resc ca "cel mai bun estimator" sa e cel de dispersie minima. .0357.4 iar X Asadar.2090. este X . -0. -0. 0. un estimator absolut corect pentru θ . θ 2 nu este.6 ˆ ˆ Fie θ un estimator pentru θ .1948. . -1.0030 0. In (θ) (6.0831. 2. cu θ ∈ (a. ∂f ˆ ˆ Fie θ = θ(X1 . Xn ).1).027. 1.7431. θ). -0. . -0.2230.4352.8 (Rao-Cramer) Consider caracteristica X cu functia de probabilitate f (x. θ) ∂θ 2 .3056 0. pentru parametrul λ din repartitia P oisson P(λ) exista urmatorii estimatori: X si d2 (X). -2. -2. (pentru selectia data. 1) si avem urmatoarele 20 de observatii asupra lui X : 0. sa presupunem ca X ∼ N (0. X = 0. ∗ Se pune problema: Cum alegem pe cel mai bun estimator si pe ce criteriu? Daca utilizam inegalitatea lui Cebâsev in forma (6. -0.2) Teorema 6.0718. -0.5944 1. -1. De exemplu.0312. 0. 1. b) si pentru care exista ∂θ .1802. Observaµia 6.2857.6057. . Patratul acestui estimator.0521). pentru selectia data avem ca X 2 ≈ 1. µX = 0. Un estimator absolut corect pentru µX 2 este X 2 . Atunci. -0. Variabila aleatoare X 2 urmeaza repartitia χ2 (1) si are media µX 2 = 1 (vezi repartitia χ2 ).4334. (6. -0.3558.Teoria estimaµiei 117 Observaµia 6.3277. 0. ˆ D2 (θ) ≥ 1 .0381. 1.5570. -0. Pe de alta parte. .7 Pentru un anumit parametru pot exista mai multi estimatori absolut corecti.8678.3320.9344. X2 .6286. Un estimator absolut corect pentru media teoretica a lui X . in general X 2 = X 2 2 = 0.0587.5350.7359.1214. in general. 1.3617. De exemplu. -2. 0. estimatorul pentru θ 2 .

valoarea: ˆ e(θ) = −1 In (θ) .9 Media de selectie X pentru o selectie dintr-o colectivitate normala este un estimator ecient pentru media teoretica E(X). . k = 1. p). functie de verosimilitate. (6. θ) = g(x)h(θ(x).4) ˆ (12) Un estimator absolut corect θ pentru θ se numeste ˆ estimator ecient daca e(θ) = 1. adica ˆ D2 (θ) = In (θ). . θ). θ) ∂θ 2 . functia L(x1 .10 [Exercitiu!] (14) Se numeste Orice estimator ecient pentru un parametru θ este si estimator sucient pentru θ . ˆ D2 (θ) (6. n si n ˆ θ = nX = i=1 Xi numarul de succese in n incercari. . xn . Xn . θ) = k=1 f (Xk . statistica n L(X1 . . X2 . Pentru Xk = xk . [Exercitiu!] estimator sucient (exhaustiv) daca functia de prob- ˆ (13) Un estimator corect θ pentru θ se numeste abilitate (densitate de repartitie) se poate scrie in forma: ˆ f (x.5) unde h : R → R+ si g : Rn → R+ este masurabila si nu depinde de θ . . . i = 1. Xn .6) Exemplu 6. . . Xn ). Functiile g si h nu sunt unice. θ). . Exerciµiu 6. Putem scrie informatia Fisher in functie de verosimilitate astfel: In (θ) = E ∂ ln L(X1 .11 Fie Xi ∼ B(1. Observaµia 6. θ) este densitatea de repartitie pentru vectorul aleator V = (X1 . . (6. .118 (11) Numim ˆ ecienta unui estimator absolut corect θ pentru θ. n. . . x2 . . X2 . X2 . . . .

02 7 (i) o estimatie absolut corecta pentru masa medie a tabletelor produse. (ii) o estimatie corecta si una absolut corecta pentru dispersia valorilor masei fata de medie. ˆ ˆ ˆ unde g(x) ≡ 1 si h(θ(x). • metoda celor mai mici patrate. p). • metoda momentelor. • metoda minimului lui χ2 . . • metoda intervalelor de incredere. Pentru a se realiza acest control s-a efectuat o selectie de 50 tablete si s-a obtinut ca masa X al ciocolatelor are urmatoarele dimensiuni (in grame): Masa Frecventa Sa se determine: 99.Teoria estimaµiei 119 ˆ Sa se arate ca θ este un estimator sucient pentru p.01 11 100. Metode de estimare punctuala a parametrilor: • metoda verosimilitatii maxime.00 13 100. p) = pxi (1 − p)1−xi i=1 n n xi = p i=1 n− (1 − p) xi i=1 ˆ = g(x) · h(θ(x).99 10 100.  Avem succesiv: n f (x.98 9 99. √ Exerciµiu 6. p) = pθ(x) (1 − p)n−θ(x) .12 La un control de calitate se verica masa tabletelor de ciocolata produse de o anumita masina.

Xn ). . X2 . . n L(X1 . θ) = k=1 f (Xk .120 6. . ∂θk care este echivalent cu urmatorul sistem: k = 1. pentru care se obtine maximumul functiei de verosimilitate. θ) (unde θ = (θ1 . . Daca ∂θ aceasta exista. Xn } variabilele aleatoare de selectie repetata de volum n. ∂θk k = 1. . . σ 2π . x2 . (2) Valoarea unei astfel de statistici pentru un ω (n) xat se numeste estimatie pentru θ .8) Exerciµiu 6. X2 . (6. . . x ∈ R. σ) este (x−µ)2 1 f (x. care are functia de probabilitate f (x. θp ) sunt parametri necunoscuti). . Xn . x1 . . . . Legea de probabilitate pentru X ∼ N (µ. . . . σ). 2. xn . θ) = 0. X2 .13 (1) Numim estimator de verosimilitate maxima pentru θ statistica ˆ ˆ θ = θ(X1 . . ∂L sa existe pentru ca estimatorul de verosimilitate maxima sa e calculat. Xn . σ) = √ e− 2σ2 .2 Metoda verosimilit µii maxime (maximum likelihood estimator) Fie caracteristica X studiata. . . (6. . p. X2 . X2 . . .7) ∂ ln L(X1 . . Dorim sa gasim estimatori (estimatii) punctuale ale parametrilor necunoscuti prin alta metoda decat metoda de mai sus. Deniµia 6. . . θ) = ∂θk n i=1 ∂ ln f (Xi . . . . adica alegem o selectie de date. . θ). Efectuam n observatii asupra caracteristicii. Xn . . θ2 . θ) = 0. . . µ. .15  Estimati prin metoda verosimilitatii maxime parametrii unei caracteristici X ∼ N (µ. de verosimilitate maxima Observaµia 6. 2. p. . . . Fie {X1 . . atunci acest estimator se obtine ca asolutie a sistemului de ecuatii: ∂L(X1 .14 Nu este necesar ca Aceasta metoda estimeaza "valoarea cea mai verosimila" pentru parametrul θ .

ln L(X1 . σ) = =   ∂µ∂σ  −2 σ3 n − 2 σ n 2 − 3 σ n σ2 n  (Xk − µ) n k=1 (Xk − µ) k=1 3 1− nσ 2  (Xk − µ)2 k=1   . 2n  − 2 σ ˆ care este o matrice negativ denita. µ. Mai intai.Teoria estimaµiei Alegem o selectie repetata de volum n. . X2 . σ) = ln − 1 2σ 2 n (Xk − µ)2 . σ ). X2 . . . Pentru aceasta. µ. µ. calculam matricea hessiana. k=1 Asadar. avem de rezolvat sistemul:   ∂L 1     ∂µ = σ 2 n (Xk − µ) = 0. . matricea hessiana calculata pentru valorile obtinute trebuie sa e negativ denita. Parametrii caracteristicii X sunt θ = (µ.9) Vericam acum daca valorile gasite sunt valori de maxim. σ ) = µ ˆ ∂µ∂σ 0  0  . n . σ) n = Astfel. k=1 σ= ˆ 1 n n (Xk − X)2 = d(X). Xn . 1 n e σ n (2π) 2 1 n σ n (2π) 2 − k=1 (Xk − µ)2 2σ 2 . . σ) = k=1 f (Xk . k=1 (6. pentru a gasi estimatorii de verosimilitate maxima pentru µ si σ . pe care o vom nota (XK )k=1. . σ ) − λ I2 ) = 0. k=1 Se observa cu usurinta ca solutia sistemului ce convine (tinem cont ca σ > 0) este µ= ˆ 1 n n Xk = X.   Acum calculam H(ˆ. deoarece valorile sale proprii. adica radacinile polinomului caracteristic det(H(ˆ. µ ˆ n ∂2L  − σ2 =  ˆ H(ˆ. σ2 ˆ . k=1 n  ∂L n 1     ∂σ = − σ + σ 3 (Xk − µ)2 = 0. Aceasta este:    ∂2L H(µ. σ) si functia de verosimilitate asociata selectiei este 121 L(X1 . . µ ˆ sunt λ1 = − n <0 σ2 ˆ si λ2 = − 2n < 0. . Xn .

unde αk (X1 . Metoda momentelor consta in estimarea parametrilor necunoscuti din conditiile ca momentele initiale de selectie sa e egale cu momentele initiale teoretice respective.3 Metoda momentelor (K. . Dorim sa gasim estimatori (estimatii) punctuale ale parametrilor necunoscuti. . . . . Pentru aceasta. Xn ). . X2 . . . . X2 . X2 . k = 1. . . . . X2 .17 Numim estimator (punctual) pentru θ obtinut prin metoda momentelor solutia ˆ ˆ ˆ ˆ ˆ ˆ θ = (θ1 . (6. Pearson) In anumite cazuri. . (aici θk = θk (X1 . ci doar corect. α2 (X1 . X2 . θp ) sunt parametri necunoscuti) ce admite momente pana la ordinul p (adica. . adica alegem o selectie de date. . Xn ) = α1 (X).16 De remarcat faptul ca estimatorul pntru σ obtinut prin metoda verosimilitatii maxime nu este unul absolut corect. . i=1 . Aceasta inseamna ca avem de rezolvat un sistem de ecuatii in care necunoscutele sunt parametrii ce urmeaza a  estimati. . . αp = E(X p ) < ∞). estimatorii µ si σ obtinuti prin metoda verosimilitatii maxime sunt ˆ ˆ µ=X si σ = d(X). p). . X2 . 6. Xn ) = α2 (X). repartitia Γ(a. Xn ) = αp (X). θ2 . . . Deniµia 6. Xn } variabilele aleatoare de selectie repetata de volum n. λ) Fie caracteristica X care are functia de probabilitate f (x. . . θp ). . . θ2 . θ) (unde θ = (θ1 . . . . xn . . a sistemului: α1 (X1 . x2 . x1 . ale lui X . Fie {X1 . . . efectuam observatii asupra caracteristicii.122 Deci. . . X2 . . este dicil de calculat valorile critice pentru functia de verosimilitate. .10) αp (X1 . α1 (X1 . √ Observaµia 6. . . . De exemplu. . Xn ) = 1 n n Xik . . Xn ) sunt momentele de selectie de ordin k pentru X . . .

avem de gasit solutia (ˆ. unde n n (6. . x2 . 12 a2 + ab + b2 .Teoria estimaµiei si αk (X) sunt momentele teoretice pentru X (care depind de θ ).11).18 Aceasta metoda este fundamentata teoretic pe faptul ca momentele de selectie sunt estimatori absolut corecti pentru momentele teoretice corespunzatoare. 2. . . atunci E(X) = de unde a+b . p). Sa se determine prin metoda momentelor estimatori pentru capetele intervalului. Xn ) = E(X) α2 (X1 .11) α1 = 1 n Xi . . unde a < b sunt numere reale.19 Fie X ∼ U(a. i=1 α2 = 1 n Xi2 . repartitia Cauchy). . 1 . cu θk = ˆ θk (x1 . Exerciµiu 6. b) caracteristica unei populatii. 1 ˆ = α1 + b √ 3 α2 − α2 .10) se scrie astfel in acest caz: α1 (X1 . estimatie ˆ ˆ ˆ ˆ ˆ (punctuala) pentru θ va  o realizare a estimatorului θ = (θ1 . . 3 E(X 2 ) = D2 (X) + [E(X)]2 = Sistemul (6. . 1 Aceasta este: a = α1 − ˆ √ 3 α2 − α2 . b). adica: 123 αk = E(X k ). . . X2 . . Observaµia 6. Metoda nu poate  aplicata repartitiilor care nu admit medie (e. . O k = 1. θ2 . . . . i=1 Inlocuind in relatiile (6. xn ).g. 2 D2 (X) = (b − a)2 . X2 . Xn ) = E(X 2 ). . θp ).  Daca X ∼ U(a. . k = 1. ˆ a urmatorului sistem: a b) a + b = 2 α1 a · b = 4 α2 − 3 α2 . . . p.. . .

13) cov ( i . 2. cand variabilele aleatoare Yi . n. . n. θ2 . 1 X= n n Xi i=1 si s= 1 n n (Xi − X)2 . adica n n 2 i i=1  Yi − p 2 xij θj  . ˆ=X+ b √ 3 s. θp ) vectorul ce contine parametrii necunoscuti si Yi depind de acestia dupa urmatorul sistem: p Yi = j=1 xij θj + i . (6. .4 Metoda celor mai mici p trate Este o metoda de estimare a parametrilor in cazul modelelor liniare. Metoda celor mai mici patrate consta in determinarea parametrilor θi astfel incat suma patratelor erorilor sa e minima. depind liniar de parametrii necunoscuti. despre care presupunem ca: E( i ) = 0 D2 ( i ) = σ2 .12) sau. . obtinem estimatorii pentru a si. n. (6. ∀i = j. . Variabilele aleatoare i sunt erori. . scris sub forma matriceala: Y =X·θ+ . . respectiv.124 Facand calculele si tinand cont ca α1 X . min θ = min θ i=1 j=1 . i=1 Estimatiile punctuale pentru a si b sunt: a = ˆ 1 n 1 n n xi − i=1 n 3 n 3 n n (xi − x)2 i=1 n ˆ = b xi + i=1 (xi − x)2 i=1 √ 6. i = 1. i = 1. X = (xij ) ∈ Rm×p . j ) = 0. . 2. . . i = 1. . Fie θ = (θ1 . b: a=X− ˆ unde √ 3 s. . .

. . θ2 . un estimator θ = (θ1 . . . . Notam cu σ 2 = D 2 (X). n. Exerciµiu 6. . 2. . . Estimatorul prin metoda celor mai mici patrate pentru media teoretica µ este solutia problemei de minimizare n min µ i=1 (Xi − µ)2 . i=1 ˆ 1 θ= n n Xi . ce are legea de probabilitate data de f (x. . .13). . . . X2 . Solutia problemei (6. . unde θ = (θ1 .14) si este µ = X . j=1 n p n xik xij θj = i=1 j=1 i=1 xik Yi . . ˆ de unde gasim ca estimatorul θ este −1 ˆ θ = (X · X) · X · Y. p. 2. θp ) prin metoda celor mai mici patrate este solutia sistemului: ∂ ∂θj echivalent. .20 Fie X o caracteristica ce admite medie. j = 1. .15) cu i satisfacand conditiile (6. . (6. θ). p. . i=1 √ 6. . n i=1  Yi − p 2 xij θj  = 0. . . i = 1. Fie X1 . µ = E(X) si consideram variabilele aleatoare de selectie repetata de volum n. (6. k = 1.Teoria estimaµiei 125 ˆ ˆ ˆ ˆ Astfel. Xn variabilele . X1 . ˆ  Putem scrie Xi = µ + i . . . X2 .14) este solutia ecuatiei ∂ ∂µ adica n (Xi − µ)2 = 0. . Xn .5 Metoda minimului lui χ2 Consideram caracteristica X ce urmeaza a  studiata. . θp ) ∈ Θ ⊂ Rp sunt parametri necunoscuti. θ2 . . 2. . Ultimul sistem poate  scris sub forma matriceala: X · X · θ = X · Y.

. in clase. Se observa cu usurinta ca i = 1. . ∀i = j. k pi (θ) = 1. . 2. N2 . Notam cu pi (θ) = P (n) (Ai ).126 ˆ aleatoare de selectie repetata de volum n. Observaµia 6.21 pi (θ). 2. i. k Ω(n) = i=1 Ai . k. i = 1. k ). Oi Oj = ∅. Atunci. k. Vectorul aleator N = (N1 . k . astfel: k X(Ω) = i=1 Oi . . . Nk ) urmeaza o repartitie multinomiala de parametri Deniµia 6. . Descompunem multimea valorilor lui X .e. . Propoziµia 6.22 ˆ Statistica θ se numeste estimator obtinut prin metoda minimului lui χ2 pentru θ daca ˆ θ este solutie a problemei de minim k min i=1 [Ni − n · pi (θ)]2 n · pi (θ) .23 Statistica k i=1 [Ni − n · pi (θ)]2 ∼ χ2 (k − p − 1). Ni sunt variabilele aleatoare de selectie corespunzatoare lui ni (i = 1.. X(ωi ) ∈ Oi }. i=1 Mai facem urmatoarele notatii: ni este frecventa absoluta a evenimentului Ai in orice selectie repetata de volum n. Construiesc evenimentele Ai = {ω (n) ∈ Ω(n) . i = 1. . n · pi (θ) . Ai Aj = ∅. . Pentru a obtine un estimator θ pentru θ procedam dupa cum urmeaza. X(Ω). . probabilitatea ca un individ luat la intamplare sa apartina clasei Oi . . . ∀i = j.

cu θ parametru necunoscut. capetele intervalului (aleator) de incredere vor  functii de valorile de selectie. . 1 − α. .05). . α = 0. x2 .25 urmeaza: Pentru a determina un interval de incredere. X2 . ce urmeaza repartitia lui X . xn ). Sa consideram o selectie repetate de volum n. . . . . xn ) se numeste valoare a intervalului de incredere pentru θ. . . θ(x1 . sa gasim valoarea reala a lui θ . . . ˆ Estimatia punctuala nu ne precizeaza cat de aproape se gaseste estimatia θ(x1 . Valoarea α se numeste Observaµia 6. Dorim sa gasim un interval aleator care sa acopere cu o probabilitate mare (e..99) valoarea posibila a parametrului necunoscut.g. . x2 . pentru datele observate. .02 sau 0. Xn ) sunt statistici.Teoria estimaµiei 127 6. X2 . Pentru a estima valoarea reala a lui θ . De exemplu. . x2 . .95. cu o probabilitate destul de mare.g. . Xn . De exemplu.n. Ideal ar  daca aceasta informatie ar  prezentata sub forma: masa medie este 500g±10g. . media de selectie) care sa ne indice ca aceasta este de 500 de grame. x2 . ˆ Dupa cum am vazut anterior. 0.24 Fie α ∈ (0. Putem obtine astfel de informatii daca vom construi un interval in care. obtinand selectia: x1 .. unde θ(X1 . . X1 . Xn ) si θ(X1 . xn . x2 . 1). . astfel incat P (θ < θ < θ) = 1 − α. .01. x1 . . Pentru o observatie ω (n) xata. . . . atunci putem gasi un estimator punctual (e. . θ). efectuam n observatii. intervalul (6. . daca dorim sa estimam masa medie a unor produse alimentare fabricate de o anumita masina. xn . xn ) fata de valoarea reala a parametrului θ .98 sau 0.. nivel de semnicatie sau probabilitate de risc.6 Metoda cu intervale de încredere Sa consideram o caracteristica X a carei lege de probabilitate este data de f (x. putem gasi o estimatie punctuala a parametrului. . . Deniµia 6. x2 . . . . . un interval aleator (θ. foarte apropiat de 0 (de exemplu. . X2 . xn ). 0.16) θ(x1 . θ). Numim condence interval) pentru parametrul θ cu probabilitatea de incredere interval de incredere (e. . θ(x1 . . metoda de lucru este dupa cum . 0. .

Vom cauta in continuare intervale de incredere pentru parametrii unor caracteristici normale. Pentru a construi un interval de incredere pentru media teoretica µ.05). care sa urmeze o lege cunoscuta si independenta de θ .23). cand dispersia este cunoscuta Fie X ∼ N (µ. Desi sansele 99% sau 99.6.01 sau 0. 6. ceea ce inseamna o diferenta foarte mare generata de o diferenta initiala foarte mica. Intervalul de incredere variaza de la o selectie la alta. Daca sansa de realizare in ecare zi ar  fost de 99. . efectuam o selectie repetata de volum n si xam nivelul de incredere 1 − α ≈ 1.g. sunt cazuri in care ecare sutime conteaza.1 Interval de încredere pentru medie.99365 ≈ 2.99% par a  foarte apropiate si a da rezultate asemanatoare.16). 1). Alegem urmatoarea statistica: Z= X −µ σ ∼ N (0.02 sau 0.42%. unde µ este necunoscut si σ este cunoscut. . Se determina apoi valorile s1 si s2 (care depind de α). α = 0. . z2 ) astfel incat P (z1 < Z < z2 ) = Θ(z2 ) − Θ(z1 ) = 1 − α. . Cu cat α este mai mic (de regula. cu atat sansa (care este (1 − α) · 100%) ca valoarea reala a parametrului θ sa se gaseasca in intervalul gasit este mai mare. sansa ca acest eveniment sa se realizeze in ecare zi a anului in tot decursului acestui an este de 0.18) Putem determina un interval numeric (z1 . Sa notam cu g(s) aceasta repartitie. X2 .17) Cum statistica S depinde de θ . astfel incat s2 P (s1 < S < s2 ) = s1 g(s) ds = 1 − α. θ) ce satisface (6. 1) √ n (conform Propozitiei 5. σ) caracteristica uneo populatii statistice. Daca ni se dau conditii suplimentare (e.. independent de celelalte zile.19) .55%. atunci putem obtine intervale innite la un capat si nite la celalalt capat. atunci rezultatul ar  fost ≈ 96. convenabil aleasa. din (6. xarea unui capat). α ∈ (0. De exemplu. in orice zi a anului. Xn . sa presupunem ca intr-un an calendaristic un eveniment are sansa de 99% de a se realiza.128 se va considera functie de selectie S(X1 . Atunci.99%. θ). (6.17) obtinem un interval aleator (θ. (6. Intervalul de incredere pentru valoarea reala a unui parametru nu este unic. (6.

2 n σ X + z1− α √ 2 n . 1 Θ(x) = √ 2π x −∞ e− y2 2 dy.20) De indata ce intervalul (z1 . Distingem trei cazuri: (1) Daca nu se cunoaste o alta informatie suplimentara despre µ. µ) = σ σ X − z2 √ . z2 ). 2 si intervalul de incredere pentru media teoretica µ cand σ este cunoscut este: (µ. X − z1 √ n n . atunci alegem (z1 . z2 ) de forma (−∞. Inlocuind in (6. √ n echivalent cu P σ σ X − z 2 √ < µ < X − z1 √ n n = 1 − α. 2 z2 = z1− α . z2 ) este determinat. z1 = −z1− α . de unde: Θ(z2 ) − Θ(−z2 ) = 1 − α. putem scrie: P (z1 < X −µ σ < z2 ) = 1 − α. atunci in (6.21) (2) Daca pentru media teoretica nu se precizeaza o limita superioara. de unde intervalul de incredere pentru µ cu nivelul de semnicatie (1 − α) este (µ. z2 ) ca ind interval de lungime minima pentru α xat. Tinand cont ca Θ(−z) = 1 − Θ(z). Aceasta se obtine cand z1 = −z2 (vezi Observatia 6. si anume z1− α . Mai ramane de stabilit cum determinam valorile z1 si z2 . 2 2 Asadar. =0 .Teoria estimaµiei unde Θ : R+ → R+ este 129 functia lui Laplace.26). (6.19) obtinem: P (−∞ < Z < z2 ) = Θ(z2 ) − Θ(−∞) = 1 − α. 2 de unde gasim pe z2 ca ind cuantila de ordin 1 − α . ultima relatie se reduce la Θ(z2 ) = 1 − α .19) aleg intervalul aleator (z1 . µ) = σ X − z1− α √ . (6.

atunci in (6.   Pentru a o rezolva. n cu solutiile z1 = z2 (ce nu convine) si z1 = −z2 . Observaµia 6. Acestea sunt solutiile sistemului:   ∂L   =0 ∂z1  ∂L   = 0. z1 (6. ∂z2 adica   σ  − √ − λg(z1 ) = 0  n  σ    √ − λg(z1 ) = 0. µ) = −∞. λ). intervalul de incredere este: (−∞.19) aleg intervalul aleator (z1 . avem de rezolvat problema:    min  z1 σ √ (z2 n − z1 )  z2  g(z) dz = 1 − α. z2 . (3) Daca pentru media teoretica nu se precizeaza o limita inferioara. n ∞ . ∞). ∞) = σ X − z1−α √ . unde aceasta σ l = √ (z2 − z1 ). σ X + z1−α √ n . z2 ) de forma (z1 . Fie functia σ L(z1 . n Pentru a gasi acest interval. . In acest caz. In acest caz. intervalul de incredere este: (µ.26 lungime este In cazul (1) de mai sus.22) Dorim sa aam z1 si z2 ce realizeaza min L(z1 . =1 de unde z1 = zα = −z1−α . z2 . λ) = √ (z2 − z1 ) + λ · n z2 g(z) dz = 1 − α .130 de unde z2 = z1−α .19) obtinem: P (z1 < Z < ∞) = Θ(∞) −Θ(z1 ) = 1 − α. Inlocuind in (6. folosim metoda multiplicatorilor lui Lagrange. am ales intervalul aleator de lungime minima.

n=30. A se compara rezultatul din acest exercitiu cu cel din Exercitiile 6.28 Exista functii predenite in Matlab ce furnizeaza estimatori punctuali si interMatlab vale de incredere.478). . √ Observaµia 6. Obtinem astfel o selectie repetata. x=[257 249 251 251 252 251 251 249 248 248 251 253 248 245 251 .0.m2)=(%6.29 (estimare a intervalului de incredere cand σ nu este cunoscut) sau 6.659.33 (intervale furnizate de functii predenite).%6. este practic imposibil sa umplem ecare cupa cu exact 250g de inghetata. m2 = mean(x)+z*sigma/sqrt(n)..1). %% afiseaza intervalul dupa modul dorit Ruland codul. se aleg la intamplare 30 de inghetate si se cantareste continutul ecareia. x2 .m2). cu masa necunoscuta si dispersia cunoscuta. . σ = 3g. Desigur. 2 n σ x + z1− α √ 2 n .Teoria estimaµiei 131 O masina de inghetata umple cupe cu inghetata. x1 . Presupunem ca masa continutului din cupa este o variabila aleatoare repartizata normal.3f. z = icdf('norm'. µ) = Urmatorul cod σ x − z1− α √ .3f)\n'. fprintf('(m1. µ) = (248. X = 250.99.0667.1-alpha/2. cu nivelul de condenta 0.01.27 sa aiba masa de µ = 250g. sigma=3. alpha = 0. 248 256 247 250 247 251 247 252 248 253 251 247 253 244 253]. obtinem intervalul de incredere pentru µ cand σ este cunoscut: (µ.  Dupa cum am vazut mai sus. . %% cuantila de ordin 1-alpha/2 pentru normala %% capetele intervalului m1 = mean(x)-z*sigma/sqrt(n).m1. 251. Matlab furnizeaza un interval de incredere bazat pe datele de selectie observate. Se doreste ca inghetata din cupe Exerciµiu 6. Pentru a verica daca masina este ajustata bine. Se cere sa se gaseasca un interval de incredere pentru µ. .. . x30 dupa cum urmeaza: 257 248 249 256 251 247 251 250 252 247 251 251 249 251 247 252 248 248 248 253 251 251 253 247 248 253 245 244 251 253 Se stie ca un estimator absolut corect pentru masa medie este media de selectie. un interval de incredere pentru µ este: (µ.

atunci el va trebui estimat. n−1 √ 2 n . data prin d∗ (X) = 1 n−1 n (Xi − X)2 .27. d∗ (X) √ n (conform Propozitiei 5. Stim deja ca o estimatie absolut corecta pentru σ este statistica d∗ (X).24) . i=1 Pentru a estima media teoretica necunoscuta µ printr-un interval de incredere. 2 n d∗ (X) X + t1− α . alegem statistica T = X −µ ∼ t(n − 1). gasim intervalul de incredere in functie de cele trei cazuri amintite mai sus: (1) Daca nu se cunoaste o alta informatie suplimentara despre µ. (6.2 Interval de încredere pentru medie. Daca acesta este necunoscut.23) In mod analog cu cazul precedent.1: Intervalul de incredere pentru Exercitiu 6. mai putin faptul ca σ este cunoscut.38). µ) = d∗ (X) X − t1− α .6.132 Figure 6. atunci intervalul de incredere pentru media teoretica µ cand σ este necunoscut este: (µ. (6. cand dispersia este necunoscuta Ne aam in conditiile din sectiunea precedenta. 6. n−1 √ .

27 (estimare a intervalului de incredere cand σ este cunoscut) sau Exercitiul 6. alpha = 0. √ Observaµia 6.27. obtinem intervalul de incredere pentru µ cand σ este cunoscut: (µ. un interval de incredere pentru µ este: (µ.33 (intervale furnizate de functii Matlab predenite). Exerciµiu 6. Matlab furnizeaza un interval de incredere bazat pe datele de selectie observate. 2 n d∗ (X) x + t1− α . (3) Daca pentru media teoretica nu se precizeaza o limita inferioara. %% afiseaza intervalul dupa modul dorit Ruland codul. fprintf('(m1. dev = std(X). 251. m2 = mean(x)+t*dev/sqrt(n). d∗ (X) X − tα.3f)\n'.. n−1 √ n . n ∞ . µ) = −∞. t = icdf('t'.3f. (ii) Cand n este mare.m2).Teoria estimaµiei 133 (2) Daca pentru media teoretica nu se precizeaza o limita superioara.  Dupa cum am vazut mai sus. n−1 √ . atunci intervalul de incredere este: (µ. 248 256 247 250 247 251 247 252 248 253 251 247 253 244 253]. atunci va  o diferenta mica intre valorile z1− α si t1− α . n−1 .m1. µ) = (248.01. n−1 √ 2 n . in cazul in care abaterea standard σ nu mai este cunoscut. n−1 √ . Aici.1-alpha/2. n=30.%6.m2)=(%6. 2 2 .30 (1) A se compara rezultatul din acest exercitiu cu cel din Exercitiile 6. atunci intervalul de incredere este: (−∞.n-1). %% deviatia standard de selectie %% cuantila de ordin 1-alpha/2 pentru t(n-1) %% capetele intervalului m1 = mean(x)-t*dev/sqrt(n).561). prin tα.572. µ) = Urmatorul cod d∗ (X) x − t1− α . ∞) = d∗ (X) X − t1−α. n−1 am notat cuantila de ordin α pentru repartitia t cu (n − 1) grade de libertate. x=[257 249 251 251 252 251 251 249 248 248 251 253 248 245 251 ..29 Sa se gaseasca un interval de incredere pentru masa medie din Exercitiul 6.

in urmatoarele trei cazuri: 2 2 • dispersiile σ1 si σ2 sunt cunoscute a priori. In acest scop.134 6.25) n1 + 2 σ2 n2 Intervalul de incredere pentru diferenta mediilor este:  X1 − X2 − z1− α 2 2 σ1 σ2 + 2. Pentru a gasi un interval de incredere pentru diferenta mediilor. (6. Pentru a gasi un interval de incredere pentru diferenta mediilor.27). + n1 n2 2 2 • dispersiile σ1 = σ2 = σ 2 si necunoscute. n2 . N (µ1 .3 Interval de încredere pentru diferenta mediilor Fie X1 si X2 caracteristicile a doua populatii normale. Pentru a gasi un interval de incredere pentru diferenta mediilor.26) d2 (X1 ) = ∗ (X1k − X1 )2 . notata prin (X1k )k=1. σ1 ). aleg statistica Z= (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 ∼ N (0. alegem statistica (vezi Propozitia 5. i=1 2 2 • dispersiile σ1 = σ2 . (6. 1 n2 − 1 (6. 1). alegem statistica T = (X1 − X2 ) − (µ1 − µ2 ) d2 (X1 ) ∗ n1 + d2 (X2 ) ∗ n2 ∼ t(N ).6.28) .27) unde N= d2 (X1 ) d2 (X2 ) ∗ + ∗ n1 n2 d2 (X1 ) ∗ n1 2 2 1 + n1 − 1 d2 (X2 ) ∗ n2 2 − 2.41): T = unde (X1 − X2 ) − (µ1 − µ2 ) (n1 − 1)d2 (X1 ) ∗ 1 n1 − 1 + (n2 − n1 1)d2 (X2 ) ∗ n1 + n2 − 2 1 1 n1 + n2 ∼ t (n1 + n2 − 2). respectiv. vom specica doar statisticile care stau la baza gasirii intervalului. N (µ1 . si din a doua populatie alegem o selectie repetata de volum n2 . n1 . σ1 ).40). si d2 (X2 ) = ∗ i=1 1 n2 − 1 n2 (X2k − X2 )2 . pentru care nu se cunosc mediile teoretice. Fixam pragul de semnicatie α. (conform Propozitiei 5. ce urmeaza repartitia lui X1 . Alegem din prima populatie o selectie repetata de volum n1 . ce urmeaza repartitia lui X2 . (utilizand Propozitia 5. notata prin (X2k )k=1. necunoscute. n1 n2 X1 − X2 + z1− α 2  2 2 σ1 σ2  . (6.

X2 .32). (6. χ2 n α. Dorim sa estimam dispersia prin construirea unui interval de incredere.5 Interval de încredere dispersie.6. Fixam pragul de semnicatie α. Xn ce urmeaza repartitia lui X . X reprezinta timpul de producere a unei reactii chimice. X2 . . . σ) o caracteristica a unei populatii studiate. Xn ce . (6. gasim ca intervalul de incredere pentru σ 2 este: (1) nu avem informatii suplimentare despre dispersie: (σ 2 . 6. (6.4 Interval de încredere dispersie. . Dorim sa estimam dispersia prin construirea unui interval de incredere. σ) o caracteristica a unei populatii studiate. . cand media este necunoscuta Fie X ∼ N (µ. +∞ . α. χ2 α . . De exemplu.29) (2) ni se spune ca dispersia este nemarginita superior: (σ 2 . 2 2 1 σ2 unde aici Gn (x) reprezinta functia de repartitie teoretica pentru repartitia χ2 cu n grad de libertate.6. n 1− 2 n d2 (X) χ2 . In functie de faptul daca avem sau nu informatii suplimentare despre dispersie (analog ca in sectiunea 6. . . pentru care cunoastem media teoretica µ dar nu si dispersia σ 2 .30) (3) ni se spune ca dispersia este nemarginita inferior: (σ 2 . σ 2 ) = n d2 (X) . .31) unde prin χ2 n am notat cuantila de ordin α pentru repartitia χ2 cu n grade de libertate. cand media este cunoscuta Fie X ∼ N (µ. Intervalul de incredere pentru dispersie se construieste cu ajutorul statisticii n 2 1 d (X) = 2 2 σ σ n (Xi − µ)2 ∼ χ2 (n). pentru care nu cunoastem media sau dispersia. . σ 2 ) = n d2 (X) . Alegem o selectie repetata X1 .1). i=1 (conform Propozitiei 5. Alegem o selectie repetata X1 . n α 2 . Determin intervalul aleator din conditia: P χ2 < 1 n 2 d (X) < χ2 = Gn (χ2 ) − Gn (χ2 ) = 1 − α.Teoria estimaµiei 135 6. σ 2 ) = −∞.6. n d2 (X) χ2 n 1−α.

pentru care nu se cunosc mediile si dispersiile teoretice. n−1 α 2 . Determin intervalul aleator din conditia: P χ2 < 1 n−1 2 d (X) < χ2 2 σ2 ∗ = Gn−1 (χ2 ) − Gn−1 (χ2 ) = 1 − α.33) (3) ni se spune ca dispersia este nemarginita inferior: (σ 2 .6. 2 1 unde Gn−1 (x) reprezinta functia de repartitie teoretica pentru repartitia χ2 cu (n−1) grad de libertate. (n − 1)d2 (X) ∗ χ2 n−1 1−α.32) unde prin χ2 n−1 am notat cuantila de ordin α pentru repartitia χ2 cu (n − 1) grade de libertate. (6. n−1 1− 2 (n − 1)d2 (X) ∗ χ2 . gasim ca intervalul de incredere pentru σ 2 este: (1) nu avem informatii suplimentare despre dispersie: (σ 2 . χ2 n−1 α.6. n2 − 1). 2 σ1 / 2 σ2 consideram statistica F = 2 σ2 d2 ∗1 ∼ F(n1 − 1. respectiv. +∞ . α. σ 2 ) = −∞.35) . 2 σ1 d2 ∗2 (conform Propozitiei 5. Fixam pragul de semnicatie α.6 Interval de încredere pentru raportul dispersiilor Fie X1 si X2 caracteristicile a doua populatii normale. Fixam pragul de semnicatie α. σ 2 ) = (n − 1)d2 (X) ∗ . χ2 α . Intervalul de incredere pentru dispersie se construieste cu ajutorul statisticii n−1 2 1 d∗ (X) = 2 2 σ σ n (Xi − X)2 ∼ χ2 (n − 1). N (µ1 . (6. Pentru a gasi un interval de incredere pentru raportul dispersiilor. si din a doua populatie alegem o selectie repetata de volum n2 ce urmeaza repartitia lui X2 .34) 6. (6. Alegem din prima populatie o selectie repetata de volum n1 ce urmeaza repartitia lui X1 . (6. . σ2 ). σ 2 ) = (n − 1)d2 (X) ∗ .35).136 urmeaza repartitia lui X . σ1 ).44).1). N (µ2 . i=1 (conform Propozitiei 5. In functie de faptul daca avem sau nu informatii suplimentare despre dispersie (analog ca in sectiunea 6. (2) ni se spune ca dispersia este nemarginita superior: (σ 2 .

α 2 si f2 = fn1 −1. (Xk )k=1. θ) legea sa de repartitie.Teoria estimaµiei Determinam apoi un interval aleator (f1 . n2 −1. de volum n (n > 30) relativa la caracteristica X . m. 1). 2.6. m) grade de libertate. (6. f2 ) astfel incat 137 P (f1 < F < f2 ) = Fn1 −1. n2 −1. Atunci. . Utilizand Teorema limita centrala. Propoziµia 6. Sa notam cu f (x. 1). . unde θ este un parametru real necunoscut. n2 −1 (f1 ) = 1 − α. n). 1− α . Aleg: f1 = fn1 −1. m este functia de repartitie pentru repartitia F isher cu (n. 2 d2 ∗2 d2 ∗1 fn1 −1. n2 −1. 2 2 Intervalul de incredere pentru raportul dispersiilor. pentru un n sucient de mare. 2 unde fn.37) Demonstraµie. (6. urmeaza ca si vari- abilele aleatoare (Yk )k sunt independente stochastic si identic repartizate. n2 −1 (f2 ) − Fn1 −1. α reprezinta cuantila de ordin α pentru repartitia F isher cu (n. . θ) . k=1 cand n → ∞. σ1 /σ2 este: d2 ∗1 fn1 −1.31 Presupunem ca variabilele aleatoare Yk = not ∂ ln f (Xk . Deoarece (Xk )k sunt independente stochastic si identic repartizate.7 Interval de incredere pentru selectii mari Sa presupunem acum ca trasatura X studiata la o populatie statistica nu este de tip normal.36) 6. 1− α 2 d2 ∗2 . statistica 1 √ d n n Yk ∼ N (0. . ∀k = 1. n2 −1. k = 1. α . ∂θ admit dispersie (adica. putem scrie: 1 √ d n n Yk − E(Yk ) k=1 ∼ N (0. unde Fn. exista d2 = D2 (Yk ). m) grade de libertate. n . . n. vom considera o selectie repetata. Pentru a-l estima printr-un interval de incredere.

. 1). 2. ∂θ λ 1 E(Xk ) − 1 = 0. θ) dx ∂θ R ∂ (1) = 0. λ) = e−λ Yk sunt date de: Yk = Evident. . Xn ). astfel incat: 2 2 P 1 −z < √ d n n Yk < z k=1 = 1 − α. λx . Xn )). k = 1. θ) ∂θ ∂ ln f (x. D2 (Yk ) = 1 2 1 D (Xk ) = . n . λ E(Yk ) = Calculam dispersia lui Yk . Gasim astfel ca statistica λ 1 √ d n n Yk = √ k=1 1 nλ n Xk − λ k=1 = n X −λ λ ∼ N (0. cu nivelul de semnicatie α. . . . 2 λ λ 1 de unde d = √ . Exerciµiu 6. Dorim sa determinam un interval de incredere pentru parametrul λ. putem gasi un interval de incredere pentru parametrul θ . 2. z) = (−z1− α .a. . X2 . n ≥ 30. X2 . Stim ca E(X) = x! D2 (X) = λ. Mai intai cautam un interval aleator (−z. ∂ ln f (Xk . . x ∈ N.138 Dar E(Yk ) = E = R ∂ ln f (Xk . ˆ ˆ (θ1 (X1 . . . . . . . k = 1. θ) 1 = Xk − 1. de unde gasim intervalul de incredere pentru valoarea lui θ . n. θ) f (x. . ∂θ Daca xam un nivel de incredere α. variabilele aleatoare  Legea de probabilitate pentru X este data de f (x. n. .32 Fie X ∼ P(λ) o caracteristica a unei populatii. Consideram (Xk )k=1. z1− α ). Atunci. θ) dx ∂θ = = de unde rezulta concluzia propozitiei. . θ2 (X1 . de selectie de volum n. v. . ∂ f (x.

Deci. P (λ1 < λ < λ2 ) = 1 − α. unde λ1 si λ2 sunt solutiile ecuatiei: λ2 − (2 x + s2 )λ + x2 = 0.Teoria estimaµiei 139 Putem astfel construi un interval de incredere pentru λ. intervalul de incredere este (λ1 . n . Utilizand aceasta statistica. vom cauta un z astfel incat sa avem: P sau. −z < n X −λ <s λ = Θ(z) − Θ(−z) = 1 − α. λ2 ).

N 2 n d2 (X) χ2 . χ2 α . X1 − X2 + z1− α 2 2 σ1 n1 + 2 σ2   n2 µ 1 − µ2 necunoscuti 2 2 σ1 = σ2 X1 − X2 − t1− α . χ2 α . . n−1 α 2 2 σ1 2 /σ2 necunoscuti µ1 . σ 2 2 σ1 X − tα. 2 d2 ∗2 d2 ∗1 fn1 −1. n−1 d∗ (X) √ . n X + t1− α . n +∞ −∞. Parametru Alti parametri Interval de incredere cu nivelul de semnicatie α σ √ . n−1 1− 2 (n − 1)d2 (X) ∗ χ2 . n1 n2 n d2 (X) . la un nivel de semnicatie α. n σ √ n X − z1− α 2 σ2 µ cunoscut X + z1− α 2 X − z1−α σ √ .140 6. X + z1−α σ √ n X − t1− α . n 1− 2 X1 − X2 + t1− α . µ 2 d2 ∗1 fn1 −1. 1− α 2 d2 ∗2 Table 6. n +∞ −∞. n2 −1. N 2 d2 d2 ∗1 + ∗2 .  µ 1 − µ2 cunoscuti 2 2 σ1 . n−1 2 d∗ (X) √ n X − t1−α.7 Tabel cu intervale de incredere Intervale de incredere pentru parametrii repartitiei normale. n2 −1. n α 2  d2 d2  ∗1 + ∗2 n1 n2 σ2 cunoscut µ σ2 necunoscut µ (n − 1)d2 (X) ∗ . n−1 2 σ2 d∗ (X) √ n X1 − X2 − z1− α 2  n1 + n2 . n−1 2 σ2 µ necunoscut d∗ (X) √ .1: Tabel cu intervale de incredere. α .

'val_1'..1.10*rand(124. Valoarea implicita in Matlab este α = 0.Teoria estimaµiei 6.'distribution'. pCI] = mle(X. • nume_i/val_i sunt perechi optionale de argumente/valori.10*rand(64. dintre care amintim:  alpha reprezinta nivelul de condenta pentru intervalul de incredere. O estimare a parametrilor µ si σ prin metoda verosimilitatii maxime este X=[7*rand(34.10*rand(76. Aceastea sunt reprezentate prin bare in Figura 1.3.9716 12.  ntrials (utilizata doar pentru repartitia binomiala. pCI este variabila de memorie pentru intervalul (intervalele) de incredere ce va  estimat.10*rand(87..'nume_2'.'val_2'. distribution este parte din formatul comenzii iar lege poate  oricare dintre legile din tabelul 3.005.1)+35..8 Functii de estimatie in Matlab 141 Estimarea parametrilor prin metoda verosimilitatii maxime poate  realizata in functia mle. pCI] = mle(X) fara a mai preciza legea de distributie. sa luam drept obiect de lucru datele din tabelul 1. atunci putem folosi comanda simplicata: [p. De exemplu. X este un vector ce contine datele ce urmeaza a  analizate.1)+25.'lege'.'nume_1'. Daca urmarim sa estimam parametrii unei caracteristici gaussiene. pCI] = mle(X) si obtinem estimarile: p = 41.) unde: • • • • p este parametrul (sau parametrii) (sau vectorul de parametri) ce urmeaza a  estimat punctual.1)+45.1)+55] [p.1)+18. reprezinta numarul de repetitii ale experimentului.22 . Formatul general al functiei este: Matlab folosind [p.0228 % estimari punctuale pentru µ si σ .

01) Observam ca valorile furnizate pentru intervalul de incredere pentru µ. X reprezinta observatiile si alpha este nivelul de condenta. Exerciµiu 6. expfit etc).s.561 s = 2.9547 % intervale de incredere unde. in locul cuvantului LEGE punem o lege de probabilitate ca in tabelul 3.142 pCI = 40.4159 Observaµia 6. din nou. sunt exact aceleasi ca cele obtinute in Exercitiul 6. Estimari punctuale si cu intervale de incredere mai putem obtine si utilizand functia LEGEfit(X. si anume: estimatii punctiale pentru µ si σ si interval de incredere pentru ambele.29.alpha) unde.33 cuta a Suntem. adica [m. m = 250.29). cu mentiunea ca dispersia nu este cunosDorim sa obtinem o extimatie printr-un interval de incredere pentru priori (vezi Exercitiul 6.34 Sa presupunem acum ca facem 50 de selectii repetate de volum 30 (adica alegem in 50 de zile o selectie de 30 de inghetate) si aam intervalele de incredere (toate cu nivelul de condenta .0667 mCI = 248.2439 12. prima coloana reprezinta estimarea punctuala si un interval de incredere pentru µ.27.2111 4. binofit.sCI]=normfit(X. in cadrul Exercitiului 6. (Exemple: normfit.7653 43. iar a doua coloana estimarea punctuala si un interval de incredere pentru σ . obtinem chiar mai mult decat ne propunem.1779 11.9704 sCI = 2.0. poissfit. Folosind functia de mai sus. µ cand σ nu este cunoscuta.572 251.mCI.1. (mCI). Ruland functia.

Teoria estimaµiei 143 α = 0. Figura 6. deoarece probabilitatea cu care valoarea estimata este acoperita de intervalul de incredere este P µ < µ < µ = 1 − α = 0.2 reprezinta grac cele 50 de intervale.01) pentru masa medie a continutului. in cazul de fata de 1%. se poate intampla ca un interval de incredere generat sa nu contina valoarea pe care acesta ar trebui sa o estimeaze. Aceasta nu contrazice teoria.2: 50 de realizari ale intervalului de incredere pentru µ Dupa cum se observa din gura. . Figure 6. deci exista sanse de a gresi in estimare.99.

2 Asadar. utilizand Teorema Borel-Cantelli .9 Paradox cu intervale de încredere Sa presupunem ca X ∼ N (µ. pentru orice n xat din N∗ . am gasit ca un interval de incredere pentru media µ. cuantila corespunzatoare este z1− α ≈ 2.1. (6. probabilitatea evenimentului An = este 1 − α = 0. deducem ca n=1 P (An ) = ∞. λ) Estimator uzual p= ˆ X n Functia Matlab csbinpar cspoipar csexpar csgampar 2 ˆ λ=X 1 ˆ λ= X a= ˆ X 1 n n 2 Xk − X k=1 2 ˆ λ= X 1 n n 2 Xk − X k=1 2 normala N (µ.01. Pentru acest α. 2. In Sectiunea 6. µ) = σ X − z1− α √ . 2 n σ X + z1− α √ 2 n . {Xk }k=1.99 ≈ 1.144 Repartitia binomiala B(n. p) Poisson B(λ) exponentiala exp(λ) Gamma Γ(a.99. cand dispersia σ 2 este cunoscuta. Atunci.2: Estimatori punctuali uzuali pentru parametri. σ) µ=X ˆ σ = d∗ (X) ˆ mean var Table 6. n o selectie repetata efectuata asupra lui X si X media de selectie.58 2. este dat de: (µ. 6.38) Sa xam σ = 1 si sa consideram nivelul de semnicatie este α = 0. ∞ Deoarece P (An ) = 0.58.6.58 X− √ < µ < X+ √ n n Sa consideram evenimentele An . σ) este o caracteristica a unei populatii statistice. pentru ecare n ∈ N∗ .

obtinem ca 145  P lim sup An n→∞ ∞  Am  = 1. (6.39) .58 X− √ < µ < X+ √ n n sa aiba loc pentru orice n ∈ N∗ este 0. probabilitatea ca inegalitatea 2. adica: ∞ P n=1 An = 0.Teoria estimaµiei (Teorema 2.58 2.10). =P n=1 m≥n Pe de alta parte.

146 6. Dar. ˆ 2 ∂θ x . metoda momentelor sau metoda verosimilitatii maxime). θ) n |θ=θ = − 2 < 0. k=1 Se verica apoi ca ∂ 2 ln L(x. Functia de verosimilitate este: n Metoda verosimilitatii maxime: n L(x.35 Se considera caracteristica X ce are densitatea de repartitie f (x. la alegere. θ) ∂θ = 0 implica ˆ 1 θ= n n xk = x. (i) Gasiti un estimator pentru parametrul necunoscut θ > 0 (folosind. estimatorul pentru θ este n ˆ θ=X= k=1 Xk . θ) =  1 −x  e θ . anume θ .a. (Xk )k − variabilele aleatoare de selectie). (ii) Calculati media si dispersia estimatorului. Este estimatorul deplasat? √ (i) (a) Metoda momentelor: Deoarece avem doar un parametru. X este: E(X) = R x f (x) dx = 1 θ ∞ 0 x e− θ dx = − 0 x ∞ x e− θ x ∞ dx = 0 e− θ dx = θ. θ) = k=1 1 − xk e θ θ 1 − xk θ 1 1 k=1 = ne = n e−n x/θ .  θ   0. θ) ∂ = ∂θ ∂θ Ecuatia ∂ ln L(x. x ≤ 0. θ θ ∂ ln L(x.10 Exercitii rezolvate Exerciµiu 6. metoda momentelor revine la: X = E(X). x Asadar. x > 0. media v. (unde. θ θ −n ln θ − 1 x θ =− n n + 2 x.

ma- surat in secunde. h1 = icdf('chi2'.89. (i) Sa se determine un interval de incredere pentru σ 2 si unul pentru σ . cu nivelul de semnicatie α = 0.99. h2 = icdf('chi2'. 4.3f)\n'. 3.23.20.92. de unde E(X) = θ.%6. Obtinem valorile: interval de incredere pt dispersie: (S1. s1 = sqrt(S1). 4. cu valorile de selectie 4. (ii) Avem: ˆ E(θ) = E(X) = E(X) = θ. 3. 4.3f)'.05.23. 3. θ Fie X o caracteristica ce reprezinta timpul de producere a unei reactii chimice. ˆ D2 (θ) = D2 (X) = =⇒ estimator nedeplasat. folosim formula (6.32). 4.091.20]. 3. µ = 4. 1 2 θ2 D (X) = 2 . 4.05. 0. D2 (X) = θ2 .s2). fprintf(' int.  (i) Deoarece media nu este cunoscuta si nu avem alta informatie despre dispersie.85. 3. n = 11. s2 = sqrt(S2). θ este punct de maxim si X este estimator de verosimilitate maxima pentru θ . 4. cu nivelul de semnicatie α = 0.S2). s2 = var(x).Teoria estimaµiei 147 ˆ si astfel.89.n-1).%6. 3. 4. 2 n n √ Observatie: Exerciµiu 6. S1 = (n-1)*s2/h1.008.05.98.05.01. (ii) Se cunoaste timpul mediu de reactie.052) interval de incredere pt deviatia standard: (s1. 4.229) Putem verica rezultatele folosind functia Matlab normfit.21.36 X ∼ exp( 1 ).92.n-1).85. 4. 3.98. S2 = (n-1)*s2/h2. Codul Matlab este urmatorul: x = [4.S1.S2) = (%6. de incredere pt dispersie: (S1.s2) = (%6. 3.1-alpha/2.S2) = ( 0. σ 2 ).21. Consideram o selectie repetata de volum n = 11.03. fprintf('int. 4. alpha = 0. Presupunem ca X ∼ N (m.3f. de incredere pt deviatia standard: (s1.alpha/2.3f. Comanda .05.s1. 3.01. Sa se determine un interval de incredere pentru σ 2 si unul pentru σ .s2) = ( 0.99.03. 0. 3.

s1. h2 = icdf('chi2'.89. S2 = n*s2/h2.23. 4.37 Ana dactilograaza un articol de 60 de pagini.3f.99. fprintf('int. .S2).0. S1 = n*s2/h1.148 [m.S2)=( 0. La recitirea articolului.1204 sigma = 0. intervalul de incredere este dat de (6.%6. s1 = sqrt(S1).s2) = (%6.3f)\n'.muCI.n). 4.^2)/11. Codul Matlab pentru calculul acestui interval este: x = [4.03.n).1305 sigmaCI = 0.98.9451 4. Ruland codul.sigmaCI]=normfit(x.05) returneaza estimatiile punctuale pentru µ si σ si intervale de incredere pentru acestea: m = 4.S2) = (%6. (1) Sa se estimeze numarul mediu de greseli facute de Ana pe ecare pagina dactilograata.85. fprintf(' int. n = 11.s2)=( 0.20]. s2 = sum((x-4).008. 3. alpha = 0.S1.21. 3.0327 mCI = 3. 0. de incredere pt dispersie: (S1. 3.1-alpha/2.218) √ Exerciµiu 6. 4.3f)\n'. (ii) Deoarece media µ este cunoscuta.2290 Se observa ca valorile furnizate de aceasta functie pentru sigmaCI sunt cele gasite anterior. 3. 4.3f.01.091. 0.sigma. de incredere pt deviatia standard: (s1. obtinem rezultatele cerute: interval de incredere pt dispersie: (S1.s2).29).%6.0912 0. h1 = icdf('chi2'. 4.05. 3.048) interval de incredere pt deviatia standard: (s1.92. s2 = sqrt(S2).alpha/2.05. Ana a de- scoperit pe ecare pagina de articol urmatoarele numere de greseli: 7 8 8 6 7 4 5 7 7 9 4 10 10 11 10 4 6 6 4 6 7 8 5 9 5 4 12 8 6 8 6 13 5 4 8 7 5 6 6 6 9 7 6 7 14 5 8 8 12 5 8 16 4 4 9 3 3 5 6 10 Sa presupunem ca numarul de greseli aparute pe ecare pagina dactilograata de Ana este o variabila aleatoare repartizata P oisson.

independente stochastic si identic repartizate. 280 unde F (x) este functia de repartitie pentru k=1 Xk .'distribution'. presupunand ca ar lucra in exact aceleasi conditii si cu aceeasi indemanare.0.1000 nCI = 5. Ana va avea mai putin de 2000 de greseli pentru toata cartea?  Sa presupunem ca Y este vectorul ce are drept componente numerele din enunt.9024 Asadar.nCI] = mle(Y. Estimam parametrul repartitiei P oisson folosind comanda mle din lema este urmatorul Matlab. 280. atunci 280 Xk ∼ P(280 · n). repartizata P(280 · n). Atunci. variabilele aleatoare ale caror valori reprezinta numarul de greseli de dactilograe facute pe ecare pagina a cartii (respectiv). Ruland codul.'exp'. (3) Cu ce probabilitate. adica a unei v. k=1 deoarece Xk sunt v.8130 8. pentru toata cartea va face in medie N = 7 · 280 = 1960 greseli. Daca notam cu Xk . k = 1. Codul ce rezolva prob- [n. Daca X este variabila aleatoare ale carei valori reprezinta numarul de greseli aparute la o pagina dactilograata si X ∼ P(n). Probabilitatea este 280 P = P( k=1 Xk ≤ 2000) = F (2000).'alpha'. % estimarea punctuala a lui n % intervalul de incredere . sa convenim ca Ana face in medie n = 7 greseli pentru ecare pagina dactilograata. obtinem rezultatele: % pentru (1) n = 7.a.a. atunci E(X) = D 2 (X) = n.1) N = 280*n.Teoria estimaµiei 149 (2) Sa se estimeze numarul mediu de greseli facute de Ana la dactilograerea unei carti de 280 de pagini.

deoarece E(X) = E(X) Asadar.'alpha'. k=1 Matlab astfel: [p.39 Sa presupunem ca aruncam o moneda despre care nu stim daca este sau nu corecta (adica. D2 (X) = p(1 − p). (1) Repartitia lui X este Bernoulli. (2) Sa se gaseasca estimatii punctuale si intervale incredere pentru p. valoarea x = (2) Utilizand functiile si D 2 (X) = n p(1 − p) − − → 0.'bino'. Observaµia 6. adica var(Y) in Matlab.05) .pCI] = mle(Y. Exerciµiu 6.38 Deoarece E(X) = D 2 (X) = n. B(1. Fie X variabila aleatoare ce reprezinta numarul de aparitii ale fetei cu stema la aruncarea repetata a unei monede. inseamna ca numarul n putea  estimat in acest caz si cu media valorilor lui Y . p). −− n→∞ n2 xk = 0.5125. 0 daca nu a aparut): 0 1 0 0 1 0 1 1 0 1 0 0 1 0 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 1 1 0 1 0 1 1 0 1 0 1 0 1 0 0 0 1 1 0 0 1 0 1 1 0 1 1 0 0 0 1 1 0 1 0 1 1 0 1 1 1 0 0 0 1 0 1 0 (1) Sa se gaseasca un estimator absolut corect pentru p si a se studieze ecienta acestuia. Notam cu p probabilitatea evenimentului ca la o singura aruncare a monedei apare stema. probabilitatea de aparitie a fetei cu stema nu este neaparat 0. adica Y (mean(Y) in Matlab) sau cu dispersia empirica pentru Y .1.5).N) adica P ≈ 0. folosind functiile mle si binofit din Matlab. Consideram variabilele de selectie repetata de volum. pentru selectia data. Realizam 80 de aruncari ale acelei monede si obtinem valorile (1 inseamna ca fata cu stema a aparut. (Xk )k=1 n . Un estimator absolut corect pentru medie este X .  E(X) = p.82.0.150 Probabilitatea este: P = poisscdf(2000. Astfel.'ntrials'.'distribution'.

Teoria estimaµiei cu rezultatul: 151 p = 0.0. [p.length(Y).05) cu rezultatul: p = 0.5125 pCI = 0. folosind comanda binofit.3981 0.6259 sau.pCI]=binofit(sum(Y).3981 0.5125 pCI = 0.6259 √ .

k=1 Avem ca n n D2 (ˆ) = E µ k=1 wk (Xk − µ) = σ2 k=1 2 wk . B(n.6 Aratati ca n · (1 − X) este un estimator sucient pentru parametrul b din repartitia Bernoulli.7 Aratati ca informatia Fisher I1 (µ) pentru o caracteristica N (µ.2 Exerciµiu 6.4 Sa se arate ca media de selectie X constituie un estimator absolut corect si ecient al parametrului λ din repartitia Poisson P(λ). momentul de selectie centrat de ordin 2 este estimator absolut corect pentru dispersia teoretica D 2 (X).3 Aratati ca momentul de selectie de ordin k este estimator absolut corect pentru αk (X). Exerciµiu 6.11 Exercitii propuse Exerciµiu 6.) . Exerciµiu 6.152 6.40. cantitatea de informatie creste cu descresterea lui σ . Exerciµiu 6.1 Consideram statistica n µ= ˆ k=1 wk Xk . Exerciµiu 6. σ) este I1 (µ) = 1 . Aratati ca n·X este un estimator sucient pentru parametrul λ din repartitia P oisson. (6. Aratati ca momentul de selectie centrat de ordin k este estimator absolut corect pentru µk (X).40) Daca dorim ca µ sa e estimator nedeplasat pentru µ. In particular. Exerciµiu 6. Aratati ca X este UMVUE in clasa tuturor estimatorilor liniari de forma 6. atunci imediat obtinem ˆ n wk = 1. σ2 (deci.5 P(λ). p).

8 B(n. p).11 Estimati prin metoda momentelor parametrii unei caracteristici X ∼ N (µ. Exerciµiu 6. Exerciµiu 6. .9 Fie selectia 871 822 729 794 523 972 768 758 583 893 598 743 761 858 948 598 912 893 697 867 877 649 738 744 798 812 793 688 589 615 731 Sa se estimeze absolut corect dispersia populatiei din care provine aceasta selectie.Teoria estimaµiei 153 Estimati prin metoda verosimilitatii maxime parametrul p al unei caracteristici X ∼ Exerciµiu 6. σ).10 Exerciµiu 6.

154 .

Aceste teste permit ca. o ipoteza de genul X ∼ Normala. utilizand datele experimentale culese. Deniµia 7. De exemplu. aceasta functie poate  specicata (adica ii cunoastem forma.1 (2) O ipoteza (1) Numim ipoteza statistica o presupunere relativa la valorile parametrilor ce apar in legea de probabilitate a caracteristicii studiate sau chiar referitoare la tipul legii caracteristicii. Presupunem ca X este caracteristica studiata a unei populatii statistice. caz in care putem face anumite ipoteze asupra acestui parametru. θ). Testele prezentate mai jos au la baza notiuni din teoria probabilitatilor. Dupa cum precizam in capitolul anterior.1 Punerea problemei In acest capitol sunt incluse cateva notiuni introductive si procedee generale ce tin de decizii statistice. si ca legea sa de probabilitate este data de f (x. θ). 155 Daca .Chapter 7 Vericarea ipotezelor statistice 7. plecand de la un anumit sau anumite seturi de date culese experimental sa se poate valida anumite estimari de parametri ai unei repartitii sau chiar prezicerea formei legilor de repartitie ale caracteristicilor considerate. caz in care putem face ipoteze asupra formei sale. Sa presupunem ca (xk )k=1. unde θ ∈ Θ ⊂ Rp . (3) Numim ipoteza parametrica o presupunere facuta asupra valorii parametrilor unei repartitii. dar nu si parametrul θ ). Testarea ipotezelor statistice este o metoda prin care se iau decizii statistice. θ) este necunoscuta. n sunt datele observate relativ la caracteristica X . sau f (x. neparametrica este o presupunere relativa la forma functionala a lui f (x.

In general. avem o ipoteza parametrica compusa. (H1 ) µ = 250 grame.27. si nu datorita faptului ca diferenta este mare. in Exemplul 6. Altfel. in cazul in care nu exista suciente evidente care sa sugereze contrariul. 0.02. . Cel mai bun exemplu de ipoteza nula este urmatoarea: "presupus nevinovat. O ipoteza alternativa este orice alta ipoteza admisibila cu care poate  confruntata ipoteza nula. 0. de fapt. A 0 A1 = ∅ (H0 ) iar θ ∈ A0 este ipoteza nula. nu sunt motive de respingere a ei) (i) (ii) (6) In Statistica. De exemplu. avem de-a face cu o (4) O ipoteza parametrica simpla. aceasta este adevarata. α = 0. (H1 ) (5) A θ ∈ A1 este ipoteza alternativa. pana se gasesc dovezi care sa dovedeasca altfel". ipoteza nula este ceea ce doresti sa crezi.156 multimea la care se presupune ca apartine parametrul necunoscut este formata dintr-un singur element. ipoteza nula a priori este acea ipoteza pe care o intuim a  cea mai apropiata de realitate si o pre- supunem a  adevarata. In general. pentru teste parametrice consideram θ ∈ A = A0 si spunem ca A1 .05 etc. un rezultat se numeste semnicant din punct de vedere statistic daca este improbabil diferenta semnicativa daca exista su- ca el sa se  realizat datorita sansei. Cu alte cuvinte. Intre doua valori exista o ciente dovezi statistice pentru a dovedi diferenta.01. Numim nivel de semnicatie probabilitatea de a respinge ipoteza nula cand. putem presupune ca ipoteza (parametrica) nula este (H0 ) iar o ipoteza alternativa (bilaterala) poate  µ = 250 grame. testa o ipoteza statistica inseamna a lua una dintre deciziile: ipoteza nula se respinge ipoteza nula se admite (sau.

. . . . putem avea doua cazuri: (i) (ii) (x1 . xn ) ∈ U. ceea ce implica faptul ca (H0 ) este acceptata (pana la o alta testare). . . x2 . iar riscul de genul al (II)-lea este mai grav decat riscul de genul (I) daca vericam concentratia unui medicament. . In general. . x2 . . In urma unor astfel de decizii pot aparea doua tipuri de erori: • eroarea de speta (I) (riscul furnizorului sau false positive) − este eroarea care se poate comite respingand o ipoteza (in realitate) adevarata. Se mai numeste si aceaste erori este nivelul de semnicatie. θ). . . o submultime U ⊂ R se numeste regiune critica cu un nivel de semnicatie α ∈ (0. xn ) se numeste statistica test sau criteriu. x2 . x2 . . atunci valoarea c se numeste valoare critica iat S(x1 . . . xn ) ≥ c}. Matem- atic. . . xn ) ∈ U | H0 admis). 1) daca P ((x1 . Construirea unui test statistic revine la construirea unei astfel de multimi critice. . x2 . xn ) valori de selectie de volum n. . β = P ((x1 . . Probabilitatea α = P ((x1 . xn ) ∈ U | H0 admis) = α. x2 . . Fie X o caracteristica ce are legea de probabilitate f (x. Probabilitatea aceaste erori este Se mai numeste si risc de genul al (II)-lea. xn ) ∈ U | H1 admis). . riscul de genul (I) este mai grav decat riscul de genul al (II)-lea daca vericam calitatea unui articol de imbracaminte. xn ) ∈ Rn | S(x1 .Teoria deciziei Vom numi 157 regiune critica multimea tuturor valorilor care cauzeaza respingerea ipotezei nule. . . . x2 . adica: risc de genul (I). . xn ) ∈ U. • eroarea de speta a (II)-a (riscul beneciarului sau false negative) − este eroarea care se poate comite acceptand o ipoteza (in realitate) falsa. . . Folosind datele observate si U determinat ca mai sus. . . . . . . θ ∈ Θ ⊂ R si (x1 . ceea ce implica faptul ca (H0 ) este respinsa (adica (H1 ) este acceptata). . (x1 . . . x2 . Daca putem scrie regiunea critica sub forma U = {(x1 . x2 . .

158

Deniµia 7.2

Vom numi

puterea unui test probabilitatea respingerii unei ipoteze false (sau, probabili-

tiatea de a nu comite eroarea de speta a II-a). Notam prin

π = 1 − β = P ((x1 , x2 , . . . , xn ) ∈ U | H0 − fals) .

(7.1)

Deniµia 7.3

Denumim

valoare P (e.n.,

P-value) probabilitatea de a obtine un rezultat cel putin la

fel de extrem ca cel observat, presupunand ca ipoteza nula este adevarata. Valoarea P este cea mai mica valoare a nivelului de semnicatie α pentru care ipoteza (H0 ) va trebui sa e respinsa, bazandu-ne pe observatiile culese. De exemplu, daca valoarea P este Pv = 0.04 atunci, bazandu-ne pe observatiile culese, vom respinge ipoteza (H0 ) la un nivel de semnicatie α = 0.05 sau α = 0.1, dar nu o putem respinge la un nivel de semnicatie α = 0.02. Mai multe valori P pot  obtinute pentru un test statistic. Asadar, decizia poate  facuta prin observarea valorii P : daca aceasta este mai mica decat nivelul de semnicatie α, atunci ipoteza nula este respinsa, iar daca P −value este mai mare decat α, atunci ipoteza nula nu poate  respinsa. Cu cat valoarea P este mai mica, cu atat mai semnicativ este rezultatul testului.

Exerciµiu 7.4

Un exemplu simplu de test este testul de sarcina. Acest test este, de fapt, o procedura

statistica ce ne da dreptul sa decidem daca exista sau nu suciente evidente sa concluzionam ca o sarcina este prezenta. Ipoteza nula ar  lipsa sarcinii. Majoritatea oamenilor in acest caz vor cadea de acord cum ca un

false negative este mai grav decat un false positive.

Exerciµiu 7.5

Sa presupunem ca suntem intr-o sala de judecata si ca judecatorul trebuie sa decida

daca un inculpat este sau nu vinovat. Are astfel de testat urmatoarele ipoteze:

   (H0 )   (H1 )

inculpatul este nevinovat; inculpatul este vinovat.

Posibilele stari (asupra carora nu avem control) sunt: [1] [2]
inculpatul este nevinovat (H0 este adevarata si H1 este falsa); inculpatul este vinovat (H0 este falsa si H1 este adevarata)

Teoria deciziei

159

Deciziile posibile (asupra carora avem control − putem lua o decizie corecta sau una falsa) sunt: [i] H0 [ii] H0
se respinge (dovezi suciente pentru a incrimina inculpatul); nu se respinge (dovezi insuciente pentru a incrimina inculpatul);

In realitate, avem urmatoarele posibilitati, sumarizate in tabelul 7.1:

Situatie reala Decizii Respinge H0 Accepta H0

H0 - adevarata
[1]&[i] [1]&[ii]

H0 - falsa
[2]&[i] [2]&[ii]

Table 7.1: Posibilitati decizionale.

Traducerile in romaneste ale acestora se gasesc in tabelul 7.2.

Situatie reala Decizii Respinge H0 Accepta H0

H0 - adevarata
inchide o persoana nevinovata elibereaza o persoana nevinovata

H0 - falsa
inchide o persoana vinovata elibereaza o persoana vinovata

Table 7.2: Decizii posibile.

Erorile posibile ce pot aparea sunt cele din tabelul 7.3.

160

Situatie reala Decizii Respinge H0 Accepta H0

H0 - adevarata α
judecata corecta

H0 - falsa
judecata corecta

β

Table 7.3: Erori decizionale.

7.2 Tipuri de teste statistice
Tipul unui test statistic este determinat de ipoteza alternativa (H1 ). Avem astfel:

• test unilateral stanga, atunci cand ipoteza alternativa este de tipul (H1 ) : θ < θ0 ;

Figure 7.1: Regiune critica pentru test unilateral stanga.

• test bilateral, atunci cand ipoteza alternativa este de tipul (H1 ) : θ = θ0 ; • test unilateral dreapta, atunci cand ipoteza alternativa este de tipul (H1 ) : θ > θ0 ;

Asadar, pentru a construi un test statistic vom avea nevoi de o regiune critica. Pentru a construi aceasta regiune critica vom utiliza metoda intervalelor de incredere. Daca valoarea observata se aa in regiunea critica (adica in afara intervalului de incredere), atunci respingem ipoteza nula.

Teoria deciziei

161

Figure 7.2: Regiune critica pentru test bilateral.

Figure 7.3: Regiune critica pentru test unilateral dreapta.

7.3 Etapele unei testari parametrice
• Colectam o selectie intamplatoare x1 , x2 , . . . , xn . Fie (X1 , X2 , . . . , Xn ) variabile aleatoare de
selectie;

• Alegem o statistica (criteriu) S(X1 , X2 , . . . , Xn ) care, dupa acceptarea ipotezei (H0 ), aceasta
are o repartitie cunoscuta, independenta de parametrul testat;

• Alegem un prag de semnicatie 1 − α ≈ 1; • Gasim regiunea critica U , care este complementara intervalului de incredere;

4 Testul cel mai puternic Sa presupunem ca X este caracteristica unei colectivitati statistice ce urmeaza o lege de probabilitate f (x. . si avem de testat ipoteza nula (H0 ) vs. atunci ipoteza nula.7 Nu intotdeauna exista un cel mai puternic test. Lema Neyman-Pearson ne confera un cel mai bun test. (adica. vs. (H0 ). (H0 ). θ). • Luam decizia:   Daca S0 ∈ U . πU ∗ ≥ πU . Deniµia 7. 7. la nivelul de semnicatie α. xn ) ∈ U ∗ | (H0 ) se admite) = α.162 • Calculam valoarea statisticii S(X1 . .6 Se spune ca testul bazat pe regiunea critica U ∗ este cel mai puternic test in raport cu toate testele bazate pe regiunea critica U . se respinge. . . . daca sunt indeplinite urmatoarele conditii: (a) (b) P ((x1 . X2 . atunci ipoteza nula. Observaµia 7. . ipoteza alternativa (H1 ). dintre toate testele de nivel de semnicatie α xat. Daca S0 ∈ U . In cazul ipotezelor simple. . Notam aceasta valoare cu S0 . cel mai puternit test este cel pentru care puterea testului este maxima). Lema 7. se admite (mai bine zis. In cazul general. cu probabilitatea de risc α.8 (Neyman-Pearson) Presupunem ca avem de testat ipoteza nula (H0 ) de mai sus. Xn ) pentru selectia considerata. . Regiunea U ∗ se numeste regiunea critica cea mai buna. nu se poate construi un astfel de criteriu. x2 . ipoteza alternativa (H1 ) : θ = θ1 . nu avem motive sa o respingem si o admitem pana la efectuarea eventuala a unui test mai puternic). .

n Utilizand Lema Neyman-Pearson. . n 1 L(x1 . De asemenea. σ1 ) S(x) = = L(x. . x2 . xn . θ1 ) . unde µ este cunoscut. . Exerciµiu 7.5 Testarea tipului de date din observatii Pentru a putea efectua un test statistic in mod corect. x2 . . θ0 ) Atunci regiunea U denita prin U = {x ∈ Rn | S(x) ≥ c}. Pentru anumite teste statistice (e. xn . x2 . Dorim sa testam ipoteza nula: (H0 ) : versus ipoteza alternativa simpla σ = σ0 (H1 ) : Functia de verosimilitate asociata selectiei este: σ = σ1 . . then S(x) este o functie crescatoare de n i=1 (xi − µ)2 .9 Fie x1 . vom respinge ipoteza (H0 ) daca i=1 (xi − µ)2 este sucient de mare. cel mai puternit test este bazat pe o regiune ce depinde de n i=1 (xi − µ)2 .. cu c astfel incat P (x ∈ U | (H0 ) − adevarata) = α. σ) = n e n (2π) 2 σ Calculand S(x). n L(x. obtinem: − 1 2σ 2 (xk − µ)2 k=1 . . Notam cu L(x. este necesar sa stim care este tipul (tipurile) de date pe care le avem la dispoziti. σ). xn valori de selectie pentru o caracteristica X ∼ N (µ.Teoria deciziei 163 la nivelul de semnicatie α. . . θ) = L(x1 . Asadar. . testul Z sau testul t. . observam ca daca σ1 > σ0 . . 7. . datele . L(x. θ) functia de verosimilitate si e S(x) = L(x. σ0 ) σ0 σ1 n −1 2 e 1 1 2 − σ2 σ1 0 (xk − µ)2 k=1 .g. este cea mai buna regiune critica la nivelul de semnicatie α.

normplot(X) Y = exprnd(5. subplot(1. De aceea. Functia chi2gof determina in urma unui test χ2 daca datele observate sunt normal repartizate.1).4: Reprezentarea normala a datelor. Observam ca primul grac este aproape liniar. pe cand al doilea nu este. Daca aceste date sunt selectate dintr-o repartitie normala. De multe ori. atunci acest grac va  liniar. De exemplu.2).4. chiar si ipoteza ca datele sa e normal repartizate trebuie vericata. Putem astfel sa concluzionam ca datele date de X sunt normal repartizate (fapt conrmat si de modul cum le-am generat). Gracele sunt cele din Figura 7.200. iar datele din Y nu sunt normal repartizate.164 testate trebuie sa e normal distribuite si independente.1). In Matlab sunt deja implementate unele functii ce testeaza daca datele sunt normal repartizate. atunci va  un grac curbat.1). la un . Scopul acestei functii este de a determina grac daca datele din observate sunt normal distribuite. subplot(1. normplot(Y) Figure 7. sa reprezentem cu normplot vectorii X si Y de mai jos. Functia normplot(X) reprezinta grac datele din vectorul X versus o repartitie normala. Vom discuta mai pe larg aceste teste de concordanta in sectiunea 7.2.200.2. se pune problema realizarii unei legaturi intre functia de repartitia empirica si cea teoretica (teste de concordanta). X = normrnd(100.7. daca nu.2.

Denim regiunea critica pentru ipoteza nula (relativ la valorile statisticii Z ) ca ind acea regiune care . adica: (7. √ n (7. . Dorim sa vericam ipoteza nula (H0 ) : vs. atunci Z ∼ N (0. Pentru a efectua acest test. Gasim ca acest interval este intervalul de incredere obtinut in Sectiunea 6. daca nu putem respinge ipoteza ca datele observate sunt normal distribuite. 2 z1− α .6 Teste parametrice 7. Astfel. obtinem h = 0.2) Daca ipoteza (H0 ) se admite.6. 7. 1). Aplicand testul pentru X si Y de mai sus. . Cautam un interval (z1 . .23). consideram statistica (vezi 6. Presupunem ca avem deja culese datele de selectie (observatiile) asupra lui X : x1 . 1).Teoria deciziei nivel de semnicatie α = 0.1) Z= X −µ σ .6.3) −z1− α .1. respectiv. x2 . h = 1.6. z2 ) astfel incat P (z1 < Z < z2 ) = 1 − α.1 Testul Z pentru o selecµie Testul Z bilateral Fie caracteristica X ce urmeaza legea normala N (µ. σ) cu µ necunoscut si σ > 0 cunoscut. . sau h = 0. ipoteza alternativa µ = µ0 (H1 ) : µ = µ0 . daca datele nu sunt normal repartizate. cu probabilitatea de risc α. comanda 165 h = chi2gof(x) ne va furniza rezultatul h = 1. xn . 2 unde zα este cuantila de ordin α pentru repartitia N (0.05. (conform Propozitiei 5.

atunci respingem (H0 ) (exista suciente 2 Etapele testul Z bilateral (1) (2) Se dau: {x1 .166 respinge ipoteza (H0 ) daca media µ apartine acelui interval. |z| > z1− α }. atunci (H0 ) este admisa (nu poate  respinsa). x2 . atunci admitem (H0 ) (pentru ca nu sunt 2 suciente dovezi sa o respingem). atunci (H0 ) este respinsa (adica (H1 ) este admisa). Stim ca un interval de incredere pentru µ va contine valoarea reala µ0 cu o probabilitate destul de mare. 1 unde u = n n z ∈ −z1− α . Este de asteptat ca regiunea critica sa e complementara acestui interval. µ0 . xn }. . 1 − α. Astfel. (i) |z0 | < z1− α . adica U = z ∈ R. 2 (7. (echivalent. z1− α 2 2 = {z. 2 Testul Z unilateral . Decizia nala se face astfel: • daca z0 ∈ −z1− α . z1− α . (echivalent. 2 (ii) |z0 | ≥ z1− α .4) uk . 2 z1− α . . . • daca z0 ∈ −z1− α . α. σ. z0 ∈ U ). 2 z0 = (4) Daca: x − µ0 σ √ n . . 2 n Notam cu z0 valoarea statisticii Z pentru observatia considerata. z0 ∈ U ). U este acea regiune in care: k=1 σ X > µ0 + z1− α √ 2 n si σ X < µ0 − z1− α √ . Determinam valoarea z1− α astfel incat 2 Φ z1− α 2 (3) Calculez valoarea = z1− α . 2 dovezi sa o respingem).

o regiune critica pentru ipoteza nula (ceea ce semnica o regiune in care.5) P (z ∈ U) = P (−∞ < Z < z1−α ) = Φ(z1−α ) = 1 − α. daca volumul selectiei observate este n ≥ 30. bilateral sau unilateral. daca ne aam. (unilateral dreapta) Pentru a realiza testele. x − µ0 σ √ n Observaµia 7. daca avem ipoteza alternativa (H1 )d . adica: U = (−∞. In mod similar. µ > µ0 . Daca ipoteza nula este vericata vs. avem nevoie de denirea unor regiuni critice corespunzatoare.10 Testul Z . ipoteza alternativa µ = µ0 (H1 )s : sau ipoteza alternativa µ < µ0 . Intr-adevar. Acestea vor  chiar intervalele de incredere pentru conditiile din ipotezele alternative (obtinute in Sectiunea 6. (unilateral stanga) (H1 )d : cu probabilitatea de risc α. testarea este (in ambele cazuri): (7. poate  aplicat cu succes si pentru populatii non-normale. ∈ U . dorim sa vericam ipoteza nula 167 (H0 ) : vs. Cu alte cuvinte. ipoteza alternativa (H1 )s . atunci respingem (H0 ).Teoria deciziei In conditiile din sectiunea anterioara. atunci alegem regiunea critica: U = (−z1−α . atunci regiunea critica va  regiunea acelor posibile valori ale statisticii Z pentru care (H1 )s se realizeaza cu probabilitatea 1 − α ≈ 1. z1−α ). +∞). atunci admitem (H0 ).6. La fel ca mai sus. .6) • daca z0 = • daca z0 = x − µ0 σ √ n ∈ U . atunci respingem ipoteza nula la pragul de semnicatie α) este o regiune in care realizarea ipotezei alternative este favorizata.1). se observa cu usurinta ca: (7.

Alegem din prima populatie o selectie repetata de volum n1 . x2 2 . ce urmeaza repartitia lui X1 . . Fie z = (conform Propozitiei 5. α. . {x2 1 . N (µ1 . x1 2 . .2 Testul Z pentru dou  selecµii Fie X1 si X2 caracteristicile (independente) a doua populatii normale. µ0 . x2 n2 }. atunci (vezi (6. . . . • Daca valoarea statisticii Z pentru selectiile date nu se aa in U . iar din a doua populatie alegem o selectie repetata de volum n2 . pentru care nu se cunosc mediile teoretice. . Regiunea critica pentru ipoteza nula. x2 2 . x2 n2 }. . 1). (7. z1− α 2 2 . σ2 ). . x1 2 .6.7) Daca (H0 ) este admisa (adica admitem ca µ1 = µ2 ). . .27)): Z ∼ N (0.168 7. . n1 . atunci admitem (H0 ). . respectiv.28). 2 . alegem statistica µ1 = µ2 . • Daca valoarea statisticii Z pentru selectiile date se aa in U . ipoteza alternativa µ1 = µ2 (H1 ) : Pentru a testa aceasta ipoteza. . Determinam valoarea z1− α astfel incat. Fie (X1i )i=1. . Fixam pragul de semnicatie α. z ∈ −z1− α . x1 = {x1 1 . atunci respingem (H0 ). Dorim sa testam ipoteza nula ca mediile sunt egale (H0 ) : vs. functia lui Laplace. (7. ce urmeaza repartitia lui X2 . exprimata in valori ale statisticii Z este: U = z. Etapele testul Z pentru doua selecµii (1) (2) Se dau: {x1 1 . x1 n1 }. x2 = {x2 1 . σ1 ). Z= (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 σ2 + 2 n1 n2 . x1 n1 }. n2 variabilele aleatoare de selectie corespunzatoare ecarei selectii. N (µ2 .8) (u1 − u2 ) 2 σ1 n1 + 2 σ2 n2 . 2 Φ z1− α 2 = z1− α . . (X2j )j=1.

prezentat mai jos. .alpha. • ci este un interval de incredere pentru µ. 2 (ii) |z0 | ≥ z1− α . • m0 = µ0 . daca h = 0. valoarea testata. (4) Daca: (i) |z0 | < z1− α .6.11 (1) In cazul in care σ1 . 2 Observaµia 7. p. atunci utilizam testul t pentru doua selectii. • zval este valoarea statisticii Z pentru observatia considerata. continand observatiile culese.m0.5. se admite. Daca h = 1. de-alungul ecarei coloane a lui X.tail) unde: • h este rezultatul testului. atunci µ1 = µ2 .3 Testul Z in Matlab Matlab utilizand comanda Testul Z pentru o selectie poate  simulat in [h.Teoria deciziei (3) Calculez valoarea 169 z0 = x1 − x2 2 σ1 n1 + 2 σ2 n2 . atunci ipoteza nula se respinge. • sigma este deviatia standard teoretica a lui X . (2) Regiunile critice pentru testele unilaterale sunt prezentate in tabelul 7. a priori cunoscuta. • alpha este nivelul de semnicatie. 7. ci. pana la un test mai puternic). atunci mai multe teste Z sunt efectuate. zval] = ztest(X. atunci ipoteza nula nu poate  respinsa pe baza observatiilor facute (adica. • p este valoarea P (P − value). • X este un vector sau o matrice. σ2 sunt necunoscute.sigma. Daca X este matrice. la nivelul de semnicatie α. atunci µ1 = µ2 .

. ipoteza alternativa µ = µ0 (H1 ) : µ = µ0 . dupa preferinte.tail) ne va furniza doar rezultatul testului. (conform Propozitiei 5.12 (1) Pentru efectuarea testului. (2) Nu exista o functie in Matlab care sa efectueze testul Z pentru doua selectii. fara a asa alte variabile. Observaµia 7. se subantelege implicit). Cautam un interval (t1 .6.6. xn .  'left'.38).1) T = X −µ . atunci T ∼ t(n − 1). Consideram datele de selectie (observatiile) asupra lui X : x1 . σ) cu µ necunoscut si σ > 0 necunoscut. 7. Putem asa doar 3.9) Daca ipoteza (H0 ) se admite (adica µ ia valoarea µ0 ).sigma. . nu este neaparat necesar sa asam toate cele 4 variabile din membrul stang. . cu probabilitatea de risc α. (7. . consideram statistica (vezi 6. pentru un test bilateral (poate sa nu e specicata. Pentru a efectua acest test. pentru un test unilateral dreapta (µ > µ0 ).  'right'.10) . comanda h = ztest(X. 2.alpha. pentru un test unilateral stanga (µ < µ0 ).170 • tail poate  unul dintre urmatoarele siruri de caractere:  'both'.m0.4 Testul t pentru o selecµie Fie caracteristica X ce urmeaza legea normala N (µ. Vrem sa vericam ipoteza nula (H0 ) : vs. t2 ) astfel incat P (t1 < T < t2 ) = 1 − α. x2 . d∗ (X) √ n (7. sau o variabila. dar doar in ordinea precizata. De exemplu.

n reprezinta cuantila de ordin α pentru repartitia t(n). 2 Testul t unilateral In conditiile de mai sus.2. x2 . . Regiunea critica este complementara intervalului de incredere. Fn−1 t1− α . Determinam valoarea t1− α . . n−1 . n−1 (echivalent. 2 (ii) |t0 | ≥ t1− α . aici. . atunci respingem (H0 ). n−1 . 2 2 • daca t0 = x − µ0 d∗ (X) √ n Etapele testul t bilateral (1) (2) Se dau: {x1 . atunci (H0 ) este respinsa (adica (H1 ) este admisa). . t0 ∈ U ). n−1 (echivalent. xn }. adica: 171 −t1− α . atunci admitem (H0 ). 2 2 (3) Calculez valoarea t0 = x − µ0 d∗ (X) √ n . Decizia: • daca t0 = x − µ0 d∗ (X) √ n ∈ −t1− α . d∗ (X) = 1 n−1 n (xi − x)2 . n−1 . t1− α . 2 2 ∈ −t1− α . n−1 . n−1 . n−1 . (unilateral stanga) .Teoria deciziei si gasim ca acest interval este intervalul de incredere obtinut in Sectiunea 6. dorim sa vericam ipoteza nula (H0 ) : vs. atunci (H0 ) este admisa (nu poate  respinsa). n−1 . k=1 (4) Daca: (i) |t0 | < t1− α .6. 2 µ0 . ipoteza alternativa µ = µ0 (H1 )s : µ < µ0 . α. t1− α . t0 ∈ U ). n−1 = t1− α . 2 2 unde tα. n−1 astfel incat functia de repartitie pentru t(n − 1). t1− α .

4: Teste pentru valoarea medie a unei colectivitati. atunci admitem (H0 ). adica este acel interval ce contine doar valori ale statisticii T ce vor duce la respingerea ipotezei nule si acceptarea ipotezei altrnative. Regiunea critica pentru ipoteza nula va trebui sa e multimea valorilor favorabile realizarii ipotezei alternative. daca alegem ipoteza alternativa (H1 )s . +∞ 2 (−∞. avem nevoie de regiuni critice corespunzatoare. atunci respingem (H0 ).12) • daca t0 = x − µ0 d∗ (X) √ n ∈ U . +∞) Table 7. n−1 . µ > µ0 . t1−α. n−1 . −t1− α . La fel ca mai sus. n−1 ). . atunci regiunea critica pentru ipoteza nula va  multimea valorilor favorabile realizarii ipotezei alternative (H1 )s . +∞) −∞. (unilateral dreapta) Pentru a realiza testele. t1−α. n−1 2 t1− α . +∞). • daca t0 = x − µ0 d∗ (X) √ n ∈ U . n−1 . z1−α ) (−z1−α . Asadar. n−1 ) (−t1−α. Daca alegem ipoteza alternativa (H1 )d .172 sau ipoteza alternativa (H1 )d : cu probabilitatea de risc α. Alti parametri (H0 ) : (H1 ) µ = µ0 Regiunea critica Tipul testului Testul Z bilateral Testul Z unilateral stanga Testul Z unilateral dreapta Testul t bilateral Testul t unilateral stanga Testul t unilateral dreapta σ cunoscut µ = µ0 µ < µ0 µ > µ0 −∞.11) U = (tα. −z1− α 2 z1− α . adica intervalul: U = (−∞. testarea este (in ambele cazuri): (7. +∞ 2 σ necunoscut µ = µ0 µ < µ0 µ > µ0 (−∞. atunci regiunea critica pentru ipoteza nula va : (7.

. . . . x1 = {x1 1 . x1 2 .5 Testul t pentru dou  selecµii Fie X1 si X2 caracteristicile (independente) a doua populatii normale. iar din a doua populatie alegem o selectie repetata de volum n2 . µ0 . atunci (vezi relatia (6. x2 = {x2 1 .27)): T ∼ t(N ). .Teoria deciziei 173 7. . x1 2 . alegem statistica T = (X1 − X2 ) − (µ1 − µ2 ) d2 d2 ∗1 + ∗2 n1 n2 . ce urmeaza repartitia lui X1 . ipoteza alternativa µ1 = µ2 (H1 ) : µ1 = µ 2 . Pentru a testa aceasta ipoteza. n2 variabilele aleatoare de selectie corespunzatoare ecarei selectii. Sa presupunem ca σ1 = σ2 sunt necunoscute. Fie (X1i )i=1. {x2 1 . x1 n1 }. Regiunea critica este complementara intervalului de incredere pentru diferenta mediilor. . . N (µ2 . x2 n2 }. . .13) Daca (H0 ) este admisa (adica admitem ca µ1 = µ2 ). .28). respectiv. ce urmeaza repartitia lui X2 . . . Fixam pragul de semnicatie α. σ2 ). t1− α . N astfel incat functia de repartitie pentru t(N ). (X2j )j=1. x1 n1 }. N . . N . Dorim sa testam ipoteza nula ca mediile sunt egale (H0 ) : vs. . adica: U = R \ −t1− α . x2 2 . N (µ1 . . σ1 ).14) cu N ca in relatia (6. Alegem din prima populatie o selectie repetata de volum n1 . 2 2 Etapele testul t pentru dou  selecµii (1) (2) Se dau: {x1 1 . (7. 2 2 (3) Calculez valoarea t0 = x1 − x2 d2 ∗1 n1 + d2 ∗2 n2 . N . x2 n2 }. pentru care nu se cunosc mediile teoretice. N = t1− α . . α. x2 2 .6. n1 . (7. 2 FN t1− α . Determinam valoarea t1− α .

26).6 Testul t in Matlab Matlab utilizand comanda generala Pentru o selecµie Testul t poate  simulat in [h. atunci se utilizeaza testul Z pentru diferenta mediilor.174 (4) Daca: (i) |t0 | < t1− α . stats] = ttest(X.5: Teste pentru egalitatea a doua medii. cu diferenta ca statistica ce se considera este data de (6.alpha. care urmeaza pasii testului t pentru diferenta mediilor. 2 (ii) |t0 | ≥ t1− α . N 2 σ1 n1 2 σ1 n1 + + 2 σ2 n2 Testul Z bilateral Testul Z unilateral stanga Testul Z unilateral dreapta Testul t bilateral Testul t unilateral stanga Testul t unilateral dreapta 2 σ2 n2 2 σ2 n2 2 σ1 n1 + σ1 = σ2 necunoscute µ1 = µ2 µ1 < µ2 µ1 > µ2 d2 (X1 ) ∗ n1 d2 (X1 ) ∗ n1 + d2 (X2 ) ∗ n2 + d2 (X2 ) ∗ n2 d2 (X2 ) ∗ n2 d2 (X1 ) ∗ n1 + Table 7. N X1 − X2 > −t1−α. N 2 X1 − X2 < t1−α. N .13 (1) In cazul in care σ1 = σ2 si necunoscute. dupa acceptarea ipotezei nule. ci. N . urmeaza repartitia N (µ. atunci µ1 = µ2 . 7.6.25) care.6. Alti parametri (H0 ) : (H1 ) µ1 = µ2 Regiunea critica Tipul testului σ1 . p. m0. (2) In cazul in care dispersiile sunt cunoscute. p. atunci µ1 = µ2 . cu ajutorul careia construim regiunea critica si apoi decidem care ipoteza se respinge. • variabila stats inmagazineaza urmatoarele date: .3). atunci utilizam statistica data de (6. σ).tail) unde: • h.m0. σ 2 cunoscute µ1 = µ2 µ1 < µ2 µ1 > µ2 |X1 − X2 | > z1− α 2 X1 − X2 < z1−α X1 − X2 > −z1−α |X1 − X2 | > t1− α . alpha. 2 Observaµia 7. tail sunt la fel ca in functia ztest (Sectiunea 7. ci.

Daca {X1 . Rescriem ipotezele (H0 ) si (H1 ) astfel: (H0 ) : (H1 ) : µ = 0.5). adica sansele ecarei fete de a apare la orice aruncare sunt 50% − 50%. cautam sa testam ipoteza nula zarul este corect (H0 ) : vs.Teoria deciziei 175 pentru observatia considerata. Valoarea acestei statistici pentru selectia data este: t0 = x−µ d∗ (X) √ n = 1. atunci alegem statistica T = X −µ d∗ (X) √ n . . zarul este m sluit. atunci µ este xat. . .8207. daca apare fata cu stema si X = 0. Deoarece n = 100 > 30.numarul gradelor de libertate ale testului.este valoarea statisticii T  df . Daca ipoteza (H0 ) se admite. X2 .  Fie X variabila aleatoare ce reprezinta fata ce apare la o singura aruncare a monedei. si statistica T ∼ t(n − 1). Teoretic. Sa spunem ca X = 1.  tstat .14 Dorim sa testam daca o anumita moneda este corecta. putem utiliza testul t pentru o selectie. µ = 0.5. ipoteza alternativa (H1 ) : la un prag de semnicatie α = 0. Aruncam moneda in caza de 100 de ori si obtinem fata cu stema de exact 59 de ori. daca apare fata cu banul. Exerciµiu 7.5. Pe baza acestei experiente.deviatia standard de selectie. . de unde E(X) = D 2 (X) = 0.5 µ = 0. 0. .  sd . Xn } sunt variabilele aleatoare de selectie.5. X ∼ B(1. Prin ipoteza. ni se da o selectie de volum n = 100 si scriem observatiile facute intr-un vector x ce contine 59 de valori 1 si 41 de valori 0.05.

4943 Observaµia 7.1). ipoteza nula ar  fost respinsa. Pentru dou  selecµii . dupa cum urmeaza: [h.'both') si obtinem h = 0 p = 0.5. obtinem rezultatul: moneda este corecta In loc sa folosim codul de mai sus.6881 stats = tstat: 1. adica moneda ar  catalogata masluita.mu)/(std(x)/sqrt(n)). ci. x = [ones(59.0717. mu = 0. n−1 = t0.4919 0.0717 ci = 0. stats] = ttest(X.15 (1) Deoarece P −valoarea este p = 0. if (abs(t0) < tc) disp('moneda este corecta') else disp('moneda este masluita') end % cuantila Ruland codul. (2) Daca dintre cele 100 de observari aveam o aparitie in plus a stemei. p. alpha = 0.5. Codul Matlab pentru calculul analitic de mai sus este urmatorul: n=100. t0 = (mean(x) .9842. n−1 . am putea folosi functia ttest din Matlab. zeros(41. n-1).1)].0. si decidem ca ipoteza (H0 ) este admisa 2 2 (nu poate  respinsa la nivelul de semnicatie α). rezulta ca |t0 | < t1− α . 99 = 1.05. tc = tinv(1-alpha/2.08.0.05. atunci ipoteza nula ar  respinsa. deducem ca la un prag de semnicatie α = 0.975.8207 df: 99 sd: 0.176 Din t1− α .

(ii) Sa se testeze (cu α = 0.05. (in medie.6. de-alungul ecarei coloane. p. Exerciµiu 7. Pentru a verica modul cum s-au prezentat studentii la acest examen in doi ani consecutivi. atunci mai multe teste Z sunt efectuate. M F 09 la examenul de Statistica Aplicata. alpha si tail sunt la fel ca in Sectiunea 7. studentii sunt la fel de buni) . • X si Y sunt vectori sau o matrice. la nivelul de semnicatie α = 0.3.Teoria deciziei Testul t pentru egalitatea a doua medii poate  simulat in 177 Matlab utilizand comanda [h. p. Presupunem ca X1 ∼ N (µ1 . cu σ1 = σ2 . continand observatiile culese. σ2 ). necunoscute a priori. σ1 ) si X2 ∼ N (µ2 . respectiv.16 Caracteristicile X1 si X2 reprezinta notele obtinute de studentii de la Master M F 08. ci. (ii) Gasiti un interval de incredere pentru diferenta mediilor.6: Tabel cu note. Conducerea universitatii recomanda ca aceste note sa urmeze repartitia normala si examinatorul se conformeaza dorintei de sus. Am gasit urmatoarele distributii de frecvente ale notelor: Frecventa absoluta Grupa M F 08 Grupa M F 09 Nota obtinuta 5 6 7 8 9 10 3 4 9 7 2 0 Table 7. selectam aleator notele a 25 de studenti din prima grupa si 30 de note din a doua grupa. Daca ele sunt matrice. ci] = ttest2(X. 5 6 8 6 3 2 (i) Vericati daca ambele seturi de date provin dintr-o repartitie normala.01) ipoteza nula (H0 ) : µ1 = µ2 .Y.tail) unde • h.alpha.

m1 = mean(u)-mean(v)-t*sqrt(d1/n1+d2/n2).p.ci.8864 Inf stats = tstat: -0.%6.7*ones(8.1).9*ones(3.v.1).1).1)] v = [5*ones(5. k = chi2gof(v).1)  x1 − x2 − t1− α . studentii au note din ce in ce mai mari)  (ii) (i) h = chi2gof(u).'both') si este: (-0.6*ones(6. N = (d1/n1+d2/n2)^2/((d1/n1)^2/(n1-1)+(d2/n2)^2/(n2-1))-2.N). 0.7*ones(9. se calculeaza intervalul de incredere (vezi Tabelul 6.9*ones(2.10*ones(2.178 versus ipoteza alternativa (H1 ) : µ1 < µ2 .01.7455.1). m2 = mean(u)-mean(v)+t*sqrt(d1/n1+d2/n2). fprintf('(m1.1).0. (in medie.1).m2). alpha = 0.6*ones(4.p.1).05.1)].v.'right') In urma rularii codului. (iii) [h.m2)=(%6. N 2 d2 ∗1 n1 + d2 ∗2 n2 .stats]=ttest2(u. Un interval de incredere la acest nivel de semnicatie se obtine apeland functia Matlab [h. n2=30.3234 √ .1).ci. obtinem: h = 0 p = 0. d1 = var(u).stats] = ttest2(u.1).m1.0. d2 = var(v).05.0744 df: 53 sd: 1.8*ones(6. t = tinv(1-alpha/2. N 2 d2 ∗1 n1 + d2  ∗2 n2  Codul Matlab: n1=25.3f. u = [5*ones(3.5295 ci = -0. x1 − x2 + t1− α .3f)\n'.6922) Altfel.8*ones(7.

dupa caz. atunci χ2 ∼ χ2 (n − 1). χ2 α . si ipotezele alternative unilaterale (H1 )s : 2 σ 2 < σ0 si (H1 )d : 2 σ 2 > σ0 . Vrem sa vericam ipoteza nula (H0 ) : vs. σ 2 = σ0 ). Regiunea critica U va  complementara acestui intervalul de incredere. x2 . Intervalului de incredere pentru σ 2 (obtinut in Sectiunea 6. n−1 . χ2 α . +∞ α. χ2 n−1 1−α. .. n−1 . . χ2 n−1 .. 0 1− 2 2 2 α • daca χ2 ∈ χ2 .6.6.e. n−1 . Atunci. χ2 . Pentru a efectua acest test. α.17 Se pot considera. σ 2 = σ0 ).35). consideram statistica (vezi Sectiunea 6.5) χ2 = n−1 2 d (X).6.7. σ2 ∗ (7. (conform Propozitiei (5. regula de decizie este urmatoarea: 0 2 α • daca χ2 ∈ χ2 . . χ2 α . ipoteza alternativa 2 σ 2 = σ0 (H1 ) : 2 σ 2 = σ0 . +∞ 1− 2 −∞. dupa acceptarea ipotezei (H0 ) (adica σ 2 ia valoarea σ0 ). .e. Sa notam prin χ2 valoarea statisticii χ2 pentru selectia data. atunci admitem (H0 ) (i.15) 2 care. Regiunile critice (pe baza carora se pot face decizii) pentru acestea se gasesc in Tabelul 7. 0 1− 2 2 Observaµia 7. n−1 . σ) cu µ si σ > 0 necunoscute. n−1 . 2 σ 2 = σ0 (H0 ) : (H1 ) µ necunoscut 2 σ 2 = σ0 2 σ 2 < σ0 2 σ 2 > σ0 2 Regiunea critica Tipul testului Testul χ2 bilateral Testul χ2 unilateral stanga Testul χ2 unilateral dreapta −∞. atunci respingem (H0 ) (i.5) este α χ2 . cu probabilitatea de risc α. n−1 α χ2 α .Teoria deciziei 179 7. . n−1 . 1− 2 2 unde χ2 n−1 este cuantila de ordin α pentru repartitia χ2 (n). Consideram datele de selectie (observatiile) asupra lui X : x1 . n−1 .7 Testul χ2 pentru dispersie Fie caracteristica X ce urmeaza legea normala N (µ. xn .

var. Sa se testeze (cu α = 0. 7. tail sunt la fel ca in functia ttest (Sectiunea 7.  √ 7. Alegem din prima populatie o selectie repetata de volum n1 . (H1 ) : σ 2 = 0. alpha. Exerciµiu 7.9 Testul F pentru raportului dispersiilor Fie X1 si X2 caracteristicile (independente) a doua populatii normale. • var este valoarea testata a dispersiei. x2 n2 }.50 10.1 Se cerceteaza caracteristica X. . stats. ce urmeaza repartitia lui X2 . σ2 ). ci.6. . . σ1 ).alpha. stats] = vartest(X. iar din a doua populatie alegem o selectie repetata de volum n2 .8 Testul χ2 in Matlab Matlab utilizand comanda Testul χ2 poate  simulat in [h. . Stim ca X urmeaza legea normala N (µ.6). .6.003. Alegem o selectie de volum n = 11.01) ipoteza nula (H0 ) : versus ipoteza alternativa σ 2 = 0. . ce urmeaza repartitia lui X1 . x1 2 . ce reprezinta diametrul pieselor (in mm) produse de un strung.7: Teste pentru dispersie. .tail) unde: • h.60 10. σ). ci. N (µ2 . m0. x1 = {x1 1 . si obtinem distributia empirica:  2 3 5 1   10.003. p.180 Table 7. x2 2 .55 10. N (µ1 .6. n1 . respectiv. p. pentru care nu se cunosc mediile teoretice. x1 n1 }. . x2 = {x2 1 . Fie (X1i )i=1.65   . .

n2 −1 = 1 − α 2 2 Extremitatile intervalului se determina din relatiile Fn1 −1. σ1 = σ2 ). atunci respingem (H0 ) (i. n1 −1.i. f1− α . n1 −1. . atunci admitem (H0 ) (i. n2 variabilele aleatoare de selectie corespunzatoare ecarei selectii. Avem: F0 = Regula de decizie este: 2 σ2 d2 (x1 ) ∗ . n2 − 1) Intervalul de incredere pentru raportul dispersiilor este (repartitia Fisher).18 Se pot considera. n2 −1 2 P f α . n2 − 1)). 2 σ1 d2 (x2 ) ∗ • daca F0 ∈ f α . σ1 = σ2 ). n2 −1 f1− α . n2 −1 f α . 2 2 Observaµia 7. F = 2 2 Daca (H0 ) este admisa (adica σ1 = σ2 ). n2 −1 ≤ F ≤ f1− α . si ipotezele alternative unilaterale (H1 )s : 2 2 σ1 < σ2 . Fixam pragul de semnicatie α. n2 −1 este cuantila de ordin α pentru repartitia Fisher F(n1 − 1. n1 −1. n2 −1 . n1 −1. si (H1 )d : 2 2 σ1 > σ2 . Regiunea critica U este complementara intervalului de incredere pentru raportul dispersiilor. 2 σ1 d2 (X2 ) ∗ (7. Dorim sa testam ipoteza nula ca dispersiile sunt egale (H0 ) : vs. n2 −1 . n2 −1 . n1 −1. atunci: 2 σ2 d2 (X1 ) ∗ . ipoteza alternativa 2 2 σ1 = σ2 (H1 ) : Pentru a testa aceasta ipoteza. n1 −1. dupa caz. n1 −1. f1− α .16) F ∼ F(n1 − 1. n1 −1. 2 (fα. 2 si se determina a. n2 −1 = 1 − 2 α .e.17) f α .. Notam prin F0 valoarea lui F pentru observatiile date. 2 2 • daca F0 ∈ f α ..e. f1− α .8. n2 −1 . n1 −1.Teoria deciziei 181 (X2j )j=1. (7. Regiunile critice (pe baza carora se pot face decizii) pentru acestea se gasesc in Tabelul 7. n1 −1. n2 −1 . x1 si x2 . n1 −1. n2 −1 = 2 α 2 si Fn1 −1. alegem statistica 2 2 σ1 = σ2 .

. X2 . vs. n2 −1 .a. likelihood-ratio test) este un test statistic ce va decide intre doua ipoteze. ipoteze.8: Teste pentru raportul dispersiilor. θ) = θ∈A0 sup L(X1 . n2 −1 ) (−f1−α. Construim statistica: De notat ca distributia f (x. X2 . f α .tail) Testul raportului dispersiilor poate  simulat in unde variabilele sunt la fel ca in functia ttest2 (Sectiunea 7. .6). θ). n1 −1. +∞ 2 (−∞. .Y. p. . . X2 . cu θ parametru necunoscut si e A0 ⊂ A multimi masurabile. Xn . . n2 −1 2 f1− α . θ) este complet specicata in ambele sup L(X1 .6. . ci. .alpha. Testul F în Matlab Matlab utilizand comanda [h. . .182 (H0 ) : (H1 ) µ1 . Dorim sa testam ipoteza nula (H0 ) : θ ∈ A0 . . n1 −1. . . . θ) Λ = Λ(X1 . stats] = vartest2(X.10 Testul raportului verosimilitatilor Testul raportului verosimilitatilor (en. Xn v. de selectie. ipoteza alternativa (H1 ) : θ ∈ A \ A0 . θ) θ∈A . Sa presupunem ca X este caracteristica unei colectivitati statistice ce urmeaza o lege de probabilitate f (x. n1 −1. µ 2 necunoscute 2 2 σ1 = σ2 2 2 σ1 < σ2 2 2 σ1 > σ2 2 2 σ1 = σ2 Regiunea critica Tipul testului Testul F bilateral Testul F unilateral stanga Testul F unilateral dreapta −∞. +∞) Table 7. n2 −1 . . Consideram o selectie repetata de volum n asupra caracteristicii X si e X1 .6. 7. bazandu-se pe raportul verosimilitatilor. . la un nivel de semnicatie α. f1−α. . Xn . Xn . . n1 −1. X2 .

X2 ∼ N (µ. atunci ipoteza (H0 ) se respinge. raportul verosimilitatilor este mare daca ipoteza nula este mai buna decat ipoteza alternativa iar testul raportului verosimilitatilor respinge ipoteza nula daca Λ depaseste o anumita valoare. sau X oarecare (n ≥ 30) d2 (X2 ) ∗ n2 ttest (X1 − X2 ) − (µ1 − µ2 ) d2 (X1 ) ∗ n1 ∼ t(N ) Test pt µ1 − µ2 . 1). σ). cand σ1 . sau X oarecare (n ≥ 30) Test pt σ1 /σ2 . Λ ∈ (0. X2 ∼ N (µ. 1) X ∼ N (µ. cand σ1 = σ2 necunoscute + X1 . Sub forma de aici. . σ2 cunoscute (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 X1 . σ). nu poate  respinsa la acest nuvel de semnicatie). 7. (Valoarea λα reprezinta cuantila de ordin α pentru statistica Λ. σ).6. σ). sau X oarecare (n ≥ 30) ∼ N (0. cand σ necunoscut − X −µ d∗ (X) √ n ∼ t(n − 1) X ∼ N (µ. 1) Test pt µ1 − µ2 . Uneori.11 Tabel cu teste parametrice in Matlab Descriere Test pentru µ. µ1 . Denim regiunea critica U astfel incat P (Λ ≤ λα . atunci ipoteza (H0 ) se admite (sau. X2 ∼ N (µ. independente vartest2 Table 7.9: Tabel cu teste parametrice. H0 − admis) = α. independente Test pentru σ 2 . forma de mai sus pentru Λ este fractia inversata. µ2 − necunoscute vartest X1 . σ). n2 −1 2 σ1 d2 ∗2 X ∼ N (µ. σ). • Daca λ > λα . independente Test pentru µ. cand µ necunoscut ttest2 n−1 2 d (X) ∼ χ2 (n − 1) σ2 ∗ 2 σ2 d2 ∗1 ∼ Fn1 −1.) Regula de decizie este urmatoarea: • Daca λ < λα .Teoria deciziei 183 Evident. cand σ cunoscut Funcµia Nume test testul Z (o selecµie) testul Z (2 selecµii) testul t (o selecµie) testul t (2 selecµii) testul χ2 (o selecµie) testul F (2 selecµii) Statistica Matlab ztest Z= X −µ σ √ n ∼ N (0.

unde pi este probabilitatea unei observatii de a apartine clasei i si p0 sunt valori specicate. Se aplica la vericarea normalitatii. pentru ca testul sa e concludent. Oi Oj = ∅. Evident. θ). a caracterului Weibull etc. astfel: k X(Ω) = i=1 Oi . Testul mai este numit si testul χ2 al lui Pearson sau testul χ2 al celei mai bune potriviri (en. a exponentialitatii. unde θ ∈ Θ ⊂ R este un parametru. atunci se vor cumula doua sau mai multe clase. atunci ele vor trebui estimate mai intai (vezi cazul parametric de mai jos). ∀i = j. Cazul neparametric Consideram caracteristica X ce urmeaza a  studiata. a caracterului Poisson. astfel incat in noua clasa sa e respectata conditia. notat aici tot cu k ). . iar numarul k trebuie modicat corespunzator (il inlocuim cu noul numar. i • Alegem statistica k χ2 = i=1 (ni − n · pi )2 . 2. n · pi (7. θ).7 Teste de concordanta 7. ce are legea de probabilitate data de f (x. In cazul in care numarul de aparitii intr-o anumita clasa nu depaseste 5.1 Testul χ2 de concordanµ  Acest test de concordanta poate  utilizat ca un criteriu de vericare a ipotezei potrivit careia un ansamblu de observatii urmeaza o repartitie data. k).18) . Se testeaza concordanta legii empirice cu legea teoretica f (x. k Se inregistreaza numerele ni de observatii ce apartin ecarei clase Oi . Se doreste ca ni ≥ 5.7. • Formulam ipoteza nula (H0 ) : pi = p0 . In acest caz. . goodness of t test).184 7. i=1 ni = n. trebuie tinut cont de modicarea numarului de clase. . Etapele testului χ2 de concordanta sunt: • Descompunem multimea observatiilor asupra lui X (adica. X(Ω)) in clase. .. Daca i p0 nu sunt cunoscute. i (i = 1.

6 (i = 1. 2 unde χ2 1−α. • Daca ne aam in regiunea critica. Clasele sunt i. • Alegem nivelul de semnicatie α.19 Se arunca un zar de 60 de ori si se obtin rezultatele din Tabelul 7.02. Ipoteza nula 1 (H0 ) : pi = . . Uneori.) Statistica χ2 urmeaza repartitia χ2 (k − 1). 2. .Teoria deciziei 185 (Valorile ni reprezinta numarul de valori observate in clasa i iar n pi este numarul estimat de valori ale repartitiei cercetate ce ar cadea in clasa i. Faµa Frecvenµa absoluta 1 2 3 4 5 6 15 7 4 11 6 17 Table 7. Exerciµiu 7. cazul neparametric. Altfel. • Alegem regiunea critica pentru χ2 ca ind regiunea pentru care valoarea acestei statistici pentru observatiile date satisface χ2 > χ2 0 1−α. ecare dintre termenii (ni −n·pi )2 n·pi poate  privit ca ind o eroare relativa de aproximare a valorilor asteptate ale repartitiei cu valorile observate.10. Sa se decida. k−1 este cuantila de ordin 1 − α pentru repartitia χ (k − 1. nu sunt dovezi statistice suciente sa se respinga. daca zarul este corect sau fals. i = 1. 6. atunci ipoteza nula (H0 ) se respinge la nivelul de semnicatie α. 6). la nivelul de semnicatie α = 0. foarte apropiat de zero. . . de regula. . k−1 .10: Tabel cu numarul de puncte obtinute la aruncarea zarului.  este Aplicam testul χ2 de concordanta. statistica χ = χ2 se numeste discrepanta. Astfel.

Regiunea critica este: U = (χ2 5 . ceea ce determina acceptarea ipotezei nule (adica zarul este corect) la acest nivel. . Deoarece χ2 se aa in regiunea critica. chi2 = sum((f-60*p).02. 5 = 15. Calculez valoarea statisticii χ2 data de (7. . √ Observaµia 7. f = [15. .3882. k). . H=(chi2 > val) Cazul parametric a priori Acest caz apare atunci cand probabilitatile pi nu sunt cunoscute si trebuie estimate. ˆ (i = 1.98. cu deosebirea ca statistica χ2 data prin (7.11.6. (se pierd p grade de . . . unde θ = (θ1 .01. . x = 1:6. p = 1/6*ones(1. 2.^2).02. .6.k-1)./(60*p)). ipoteza nula se respinge la nivelul de semnicatie α = 0.17].0863. Codul Matlab: k=6. +∞) = (13. +∞). Folosim obsrvatiile culese asupra lui X sa aproximam acesti parametri (de exemplu. 2. θ). prin metoda verosimilitatii maxime). Odata ˆ parametrii estimati. Repartitia statisticii χ2 data de (7. 6 (j ∈ {1.186 cu ipoteza alternativa: 1 (H1 ) : Exista un j.18) este χ2 cu k − 1 = 5 grade de libertate. unde pi este probabilitatea unei observatii de a apartine clasei i si pi sunt valorile estimate. θp ) ∈ Θ ⊂ Rp sunt parametri necunoscuti. . 0. Sa presupunem ca legea de probabilitate a lui X de mai sus este f (x. 6}). θ2 .18) urmeaza repartitia χ2 cu (k − p − 1) grade de libertate.20 Daca nivelul de semnicatie este ales α = 0. val = chi2inv(1-alpha. cu pj = . etapele testului in cazul parametric sunt cele de mai sus. .7.4. . Fiecare estimare ne va costa un grad de libertate. Ipoteza nula va  aici: (H0 ) : pi = pi . 0 asadar zarul este fals. atunci χ2 0.18) pentru observatiile date: χ2 = 0 (15 − 10)2 (7 − 10)2 (4 − 10)2 (11 − 10)2 (6 − 10)2 (17 − 10)2 + + + + + 10 10 10 10 10 10 = 13. alpha = 0.99.6). .

Teoria deciziei libertate din cauza folosirii observatiilor date pentru estimarea celor p parametri necunoscuti). θp ). k−p−1 este cuantila de ordin 1 − α pentru repartitia χ2 cu (k − p − 1). X :   ni ˆ ˆ ˆ ˆ ˆ ˆ • Se calculeaza pi = F (ai . vs. altfel o respingem. 2. Avem astfel de testat ipoteza nula: (H0 ) ˆ X urmeaza o lege Poisson P(λ). θp . . ipoteza alternativa (H1 ) ˆ X nu urmeaza o lege Poisson P(λ). . . . ˆ k n ni = n. θ2 . 4. i=1. n pi ˆ • Daca χ2 < χ2 0 1−α. θ1 . X ia una dintre valorile {0. Exerciµiu 7. ˆ ˆ ˆ F (x. . 6}. 5. . χ2 1−α. θ2 . . .21 La campionatul mondial de fotbal din 2006 au fost jucate in total 64 de meciuri. atunci acceptam (H0 ). θp ). . . ˆ ˆ ˆ • Determinam estimarile de verosimilitate maxima θ1 . i=1  xi  • Determinam distributia empirica de selectie (tabloul de frecvente). . . θ1 . . 187 Etapele aplicarii testului χ2 de concordanta (parametric) • Se dau α. x1 . k−p−1 . unde χ1−α. Fie X variabila ce reprezinta numarul de goluri inscrise pe meci. . numarul de goluri inscrise intr-un meci avand tabelul de distributie 7. θp ) − F (ai−1 .11. x2 . Atunci. 2 • Determinam intervalul (0. In totat au fost inscrise 144 de goluri. cu frecventele respective din tabel. 3. θ1 . . 1. . .  Aplicam testul χ2 neparametric. k−p−1) . θ2 . . deci numarul de goluri pe meci este estimat de media de goluri pe meci. .   .25. Determinati (folosind un nivel de semnicatie α = 0. ˆ λ=x= 144 64 = 2. . θ2 . . n • Se calculeaza χ2 = 0 i=1 (ni − n pi )2 ˆ .05) daca numarul de goluri pe meci urmeaza o distributie Poisson. xn .

188 Nr.0274 0.9926 ≈ 5. p2 = 0. N.7514 4.7456 15.1126 0.0747 12. p4 = 0. p1 = 0.12: Tablou de distributie pentru P(2.25).2668.2668 0.1054.2333 0.11: Tabel cu numarul de goluri pe meci la FIFA WC 2006.0780.0501 0.0506 0.2415 1. . numerele n pi nu depasesc 5. atunci multimea tuturor valorilor sale este multimea numerelor naturale. daca X este o variabila aleatoare Poisson.1775 17. le stergem din tabel si le unim intr-o singura clasa.3124 0. ˆ atunci pi = pi (λ) si tabloul de distributie a valorilor variabilei este: Deoarece pentru ultimele doua Clasa ni 8 13 18 11 10 2 2 4 pi 0. de goluri pe meci Nr.2547 1. cu n pi = 4.1054 0.2001.25).2371. p≥5 = 0. in care X ≥ 5.1126.9926 n1 − n pi n pi 0.1973 0 1 2 3 4 5 ≥6 ≥5 Table 7. Din punct de vedere teoretic.0857 − − 0.2371 0.0780 n pi 6.2001 0. Daca admitem ipoteza (H0 ) (adica X ∼ P(2. Ipoteza nula (H0 ) se poate rescrie astfel: (H0 ) : p0 = 0. clase din tabelul 7. p3 = 0. X = 5 si X ≥ 5.8060 7. de meciuri 0 1 2 3 4 5 6 8 13 18 11 10 2 2 Table 7.2034 3.12.

4877.0747)2 (11 − 12. Testul KolmogorovSmirnov cu doua selectii este unul dintre cele mai utile teste de contingenta pentru compararea a doua selectii. sau distanta intre doua functii de repartitie empirice.Teoria deciziei Ipoteza alternativa este 189 (H1 ) ipoteza (H0 ) nu este adevarata. In ecare caz. Regiunea critica pentru χ este intervalul (χ2 4 . Testul Kolmogorov-Smirnov este bazat pe rezultatul Teoremei 5.. unde prin Oi am notat valorile observate si prin Ei valorile asteptate. Calculam acum valoarea statisticii 7. urmeaza ca ipoteza nula (H0 ) nu poate  respinsa la nivelul de 0. 7.1775 17. In acest caz. semnicatie α. 1). Putem deni astfel reziduurile standardizate: ri = Oi − n pi n pi (1 − pi ) = Oi − Ei Ei (1 − pi ) .8060 (10 − 7.1775)2 (18 − 17.8060)2 + + + + . repartitiile considerate in ipoteza nula sunt repartitii de tip continuu.95. atunci ri ∼ N (0. este rezonabil sa armam ca numarul de goluri marcate urmeaza o repartitie Poisson.2034)2 (4 − 4.7456 15.95. . Daca ipoteza nula ar  adevarata.7.7456)2 (13 − 15. +∞). reziduuri standardizate mai mari ca 2 sunt semne pentru numere observate extreme. 6.1336.20. 0 0. Deoarece χ2 < χ2 4 . 7. De fapt.95.22 Daca ipoteza nula este respinsa.0747 12. este interesant de observat care valori sunt extreme. √ Observaµia 7. 4 = 9.18 pentru observatiile date: χ2 = 0 + (8 − 6. Asadar.2034 4. In general.9926 Deoarece avem 6 clase si am estimat parametrul λ numarul gradelor de libertate este 6 − 1 − 1 = 4. cauzand respingerea ipotezei nule. este cuanticat distanta dintre functia de repartitie empirica a selectiei si functia de repartitie pentru repartitia testata.2 Testul de concordanta Kolmogorov-Smirnov Acest test este un test de contingenta utilizat in compararea unor observatii date cu o repartitie cunoscuta (testul K-S cu o selectie) sau in compararea a doua selectii (testul K-S pentru doua selectii).. 2 Cuantila de referinta (valoarea critica) este χ2 0.9926)2 + = 2. atunci motivul poate  acela ca unele valori ale valorilor asteptate au deviat prea mult de la valorile asteptate.

Kolmogorov a gasit ca (vezi relatia (5. de unde alegem dα. n dn > λ1−α. n (cuantila de ordin 1 − α pentru functia lui Kolmogorov). atunci admitem ipoteza (H0 ). F (x) si tabloul de frecvente X :   ni • Calculam λ1−α. atunci respingem ipoteza (H0 ). sa consideram regiunea critica (acolo unde (H0 ) nu are loc) ca ind acea regiune unde P (dn > dα. X . Este resc. Etapele aplicarii testului lui Kolmogorov-Smirnov pentru o selectie:   . Studiind functia empirica de repartitie a acestui set de date. n | (H0 ) − adevarata) = 1 − α. i=1. cautam sa stabilim ipoteza nula. atunci diferentele dn nu vor depasi anumite valori. avem ca: P (dn ≤ dα. n | (H0 ) − adevarata) = 1 − P (dn > dα. n ) = 1 − α. Sa presupunem ca ne sunt date un set de date statistice si urmarim sa stabilim repartitia acestor date. n . Principiul de decizie este urmatorul: • Daca dn satisface inegalitatea • Daca dn satisface inegalitatea √ √ n dn < λ1−α. n ni = n. ce are functia de repartitie teoretica F (x). cu i=1  xi  • Se dau α.190 Testul K-S pentru o selectie Acest test este mai puternic decat testul χ2 . unde α este nivelul de semnicatie. unde K(λ) = k=−∞ este functia lui Kolmogorov (tabelata). sucient de mare. n . asadar. Mai intai. n = λ1−α. in cazul in care ipotezele testului sunt satisfacute. dα. n | (H0 ) − adevarata) = α. Dar. de exemplu: (H0 ) repartitia empirica a setului de date urmeaza o repartitie data. Daca ipoteza (H0 ) este adevarata.7)) ∗ distanta dn = sup |Fn (x) − F (x)| satisface relatia x∈R n→∞ ∞ √ lim P ( n dn < λ) = K(λ). n . pentru orice n xat. versus ipoteza alternativa (H1 ) care arma ca ipoteza (H0 ) nu este adevarata. n . n astfel incat K(λ1−α.

Se cere sa se cerceteze (α = 0.13: Timpi de asteptare in statia de tramvai.23 Intr-o anumita zi de lucru. ai ] | F = F0 ) = F0 (ai . . λ) − F0 (ai−1 . pana trece ultimul tramvai). Fie X caracteristica ce reprezinta numarul de minute asteptate in statie. . . 2 191 • Daca dn satisface inegalitatea √ n dn < λ1−α. n ai−1 +ai . Functia de verosimilitate pentru exp(λ) este n n L(x1 . ipoteza alternativa F (x) ∼ F0 (x) = 1 − e−λ x . λ) = k=1 λe−λ x −λ xi n i=1 =λ e = λn e−λ n x Punctele critice pentru L(λ) sunt date de ecuatia ∂ ln L ∂ 1 ˆ = 0 =⇒ (n ln λ − λ n x) =⇒ λ = . urmarim timpii de asteptare intr-o statie de tramvai. calculez probabilitatile pi (0) ˆ ˆ = P (X ∈ (ai−1 . x > 0 = (H1 ) ipoteza (H0 ) este falsa. . Pentru i = 1. Deoarece parametrul λ este necunoscut. atunci admitem ipoteza (H0 ). . x2 .Teoria deciziei ∗ • Se calculeaza dn = sup |Fn (ai ) − F (ai )|. Avem de testat ipoteza nula (H0 ) vs. Exerciµiu 7. va trebui estimat pe baza selectiei date. Rezultatele observatiilor sunt sumarizate in Tabelul 7. pana la incheierea zilei de lucru (adica. altfel o respingem.5) daca timpii de asteptare sunt repartizati exponential Durata 0−2 35 2−5 25 5 − 10 17 10 − 15 14 15 − 20 6 20 − 30 3 ni Table 7. 2.  Solutia 1 Folosim testul χ2 de concordanta. xn . pana soseste tramvaiul.13. xi = i=1. . prin metoda verosimilitatii maxime. ∂λ2 λ=λ ˆ de unde concluzionam ca λ este punct de maxim pentru functia de verosimilitate. . . parametric. ∂λ ∂λ x Se observa cu usurinta ca ∂ 2 ln L | ˆ = −n x2 < 0. λ) . 6. n .

cu nivelul de semnicatie α = 0.2).15)-F(l.1887.1). 2] 0.1e6)-F(l. 15] 0. 14. p6 = F(l.14.2861 (5.10). l = 1/mean(x). de asemenea.20). ipoteza (H0 ) nu poate  respinsa la acest nivel de semnicatie.244 (10.192 Durata (0. if (chi2 < cuant) disp('ipoteza (H0) se admite').2917 (2. p = [p1. p3.10)-F(l. Se cere sa se verice normalitatea lui X a) utilizand testul de concordanta χ2 .1).05. cuant = chi2inv(0. k χ2 = 0 i=1 (ni − n pi )2 n pi (0) (0) = 1. p2 = F(l.1). chi2 = (n-100*p). Numarul gradelor de libertate este k − p − 1 = 4. p4.24 (de vericare a normalitatii) Se considera caracteristica X ce reprezinta inaltimea barbatilor (in centimetri) dintr-o anumita regiune a unei tari.20)-F(l. 3]. S-a facut o selectie de volum n = 200.5*ones(14. p5. 17. Completam tabelul de frecvente.15.1)].95..95. 6. Codul este urmatorul: Matlab x = [ones(35.103 (15. p6]. 17.0435 (20. else disp('ipoteza (H0) se respinge'). .12.5).. 5] 0.95.p5 = F(l.2)-F(l. Deoarece χ2 < χ2 0 0.25*ones(3. n = [35.^2/(100*p). p4 = F(l.2. 10] 0. Tabelul 7.1).. F = inline('1-exp(-l*t)'). 25.4).15).5*ones(17. end Solutia 2 Folosim testul Kolmogorov-Smirnov . 4 .5*ones(25. % estimatorul % functia de repartitie p3 = F(l. p2.. p1 = F(l.0).5*ones(6. 4 = 9. iar datele de selectie au fost grupate in Tabelul 7.1).7..4877 si. +∞) 0. 20] 0.5)-F(l.14: Probabilitati de asteptare in statia de tramvai. Calculam valoarea χ2 0.0318 pi (0) Table 7. √ Exerciµiu 7.

alpha.. cu nivelul de semnicatie α = 0.. ksstat.05.. [ h. +∞] ni 12 23 31 43 35 27 17 9 3 Table 7. p.name2. 165] (165. 170] (170.val2. 200] (200.stats] = chi2gof(X.Teoria deciziei b) utilizand testul de concordanta Kolmogorov-Smirnov. 180] (180. 195] (195. type) .15: Frecventa inaltimii barbatilor dintr-o anumita regiune. Teste de concordanµ  în Matlab Am vazut deja ca functia chi2gof(x) testeaza (folosind testul χ2 ) daca vectorul x provine dintr-o repartitie normala.p.val1. 175] (175. cu media si dispersia estimate folosind x. 190] (190.name1. 185] (185. cv] = kstest(x. F. 193 Clasa (−∞.) [h.

125) [125. stiind ca abaterea standard este 35 RON . 100) [100. 175) [175. 150) [150. Rezultatele sunt cele din Tabelul 7. in cazul in care abaterea standard nu este cunoscuta a priori.2 Intr-un oras A. 250) [250. 412 din 1800 declara acelasi lucru. (i) Sa se verice. am obtinut datele (repartitia de frecvente):  6 11 13 18 20 14 11 7   [50.16: Distributia copiilor intr-o familie cu 4 copii. de a apare la nastere a un baiat este aceeasi cu cea de a apare o fata. Exerciµiu 7. Sa se testeze daca proportia de locuitori care nu detin un computer este aceeasi în ambele orase. Exerciµiu 7. 200) [200.16. B . Testati ipoteza ca in ecare familie probabilitatea Numar de copii Frecventa 4 fete 3 fete si un baiat 2 fete si 2 baieti o fata si 3 baieti 38 138 213 141 34 4 baieti Table 7. . 300)   . Intr-un alt oras. ipoteza ca media acestor cheltuieli lunare pentru o singura familie este de 140 RON . 325 de locuitori din 1500 interogati declara ca nu detin un computer. 75) [75.194 7.3 Intr-un spital s-a inregistrat de-alungul timpului sexul copiilor a 564 mame care au cate 4 copii. (α = 0. In urma unui sondaj la care au participat 100 de familii.8 Exercitii propuse Exerciµiu 7.05) Facem presupunerea ca numarul cetatenilor dintr-un oras ce nu detin nu computer are o repartitie uniforma continua.4 Caracteristica X reprezinta cheltuielile lunare pentru convorbirile telefonice ale unei familii. (ii) Sa se verice aceeasi ipoteza.02. cu nivelul de semnicatie α = 0.

ISBN: 0130085073. 1994. 2002. Statistics. Cluj-Napoca. ISBN: 0534404731. Presa universitara clujeana. prin Matlab. 2004. Bucuresti. 2007. 4th Introduction to Mathematical Statistics. 1997. Duxbury Press. Kenneth N. Universitatea A. McKean. Brasov. Micu. Bucuresti. DeVore. 2000. Costache Moineagu.Computer Applications. Statistica. . [2] Virgil Craiu. 1976. W. [7] Gheorghe Mihoc. 6th edition. ISBN: 0393929728 [5] Robert V. Inc.Cuza. [8] Elena Nenciu. . Modern Mathematical Statistics with Applications (with CD- ROM). Norton & Company. Ia³i. Teoria probabilitatilor si statistica matematica. Allen Craig. Iasi. 2006..I. Teoria probabilitatilor cu exemple si probleme. 1980.Bibliography [1] Petru Blaga. [3] Jay L. tice Hall. Pren- Mic  enciclopedie de statistic . Robert Pisani. Probabilitati si Statistica matematica . [6] Marius Iosifescu. Joseph W. 1 . [4] David Freedman. Editura Fundatiei "Romania de Maine". Editura stiintica si enciclopedica. Emiliana Ursianu. Vladimir Trebici. Roger Purves. Ghid de utilizare MATLAB. Hogg. W. Berk. [10] Dan Stefanoiu. Lectii de statistica matematica. edition. N. 1985. Bucuresti. Editura Transilvania. [9] Octavian Petru³.

Sign up to vote on this title
UsefulNot useful