You are on page 1of 69

1

PROBABILITĂŢI ŞI STATISTICĂ

Eugen Păltănea

Universitatea Transilvania din Braşov


2018
2
Cuprins

0.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1.1 Date istorice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1.2 Descrierea cursului . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1.3 Principiile de bază. Limbaj . . . . . . . . . . . . . . . . . . . . . . 5

1 Spaţii măsurabile. Câmpuri de probabilitate. Scheme clasice de proba-


bilitate 7
1.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Corpuri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Spaţii măsurabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Funcţii măsurabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Câmpuri de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Evenimente independente, evenimente condiţionate . . . . . . . . . . . . . 13
1.7 Scheme clasice de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.9 Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Variabile aleatoare. Caracteristici numerice 23


2.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Funcţia de repartiţie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Variabile aleatoare discrete. Exemple clasice . . . . . . . . . . . . . . . . . 26
2.5 Variabile aleatoare de tip continuu. Exemple clasice . . . . . . . . . . . . . 27
2.6 Media. Medii de ordin superior . . . . . . . . . . . . . . . . . . . . . . . . 30
2.7 Dispersia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.8 Corelaţia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.9 Funcţia caracteristică . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.10 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.11 Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3 Convergenţa şirurilor de variabile aleatoare 41


3.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Inegalităţi fundamentale ı̂n teoria probabilităţilor . . . . . . . . . . . . . . 41
3.3 Tipuri de convergenţă. Relaţii . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4 Legile numerelor mari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.5 Teorema limită centrală . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.7 Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3
4

4 Elemente de statistică matematică 51


4.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2 Noţiuni de bază . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3 Estimatori. Proprietăţi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4 Estimatori bayesieni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6 Noţiuni de statistică descriptivă . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6.1 Concepte de bază . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6.2 Tipuri de distribuţii statistice empirice. Tabele statistice. Reprezentări
grafice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.6.3 Indicatori statistici . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.6.4 Calculul indicatorilor statistici ai distribuţiei variabilei X
(Exemplul 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.6.5 Calculul indicatorilor statistici ai distribuţiei variabilei Y
(Exemplul 2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.6.6 Compararea a două distribuţii empirice . . . . . . . . . . . . . . . . 65
4.6.7 Corelaţia şi coeficientul de corelaţie . . . . . . . . . . . . . . . . . . 65
4.6.8 Metoda coreraţiei rangurilor . . . . . . . . . . . . . . . . . . . . . . 66
4.7 Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5

0.1 Introducere
0.1.1 Date istorice
Teoria probabilităţilor1 şi statistica matematică studiază fenomenele aleatoare, ı̂n scopul
predicţiei şanselor de realizare a unor rezultate aşteptate. Studiul se bazează pe modelare
matematică şi raţionamente deductive.
Bazele teoriei probabilităţilor şi statisticii (studiului matematic al ”hazardului”) au fost
puse ı̂n secolele XVI-XVII. Astfel, Gerolamo Cardano scria ı̂n 1526 prima carte dedicată
unor concepte probabiliste: Liber de ludo aleae (”Cartea jocurilor de noroc”), publicată
ı̂n 1663. Contribuţii majore la punerea bazelor teoriei probabilităţilor au avut matemati-
cienii francezi Blaise Pascal şi Pierre de Fermat (ı̂nceputul sec. al XVII-lea). În 1657,
Cristiaan Huygens publica lucrarea De ratiociniis in ludo aleae (”Asupra raţionamentelor
ı̂n jocurile de noroc”). Doctrina probabilităţilor se conturează ı̂n sec. al XVIII-lea prin
lucrările fundementale Ars conjectandi, publicată ı̂n 1713 de Jacob Bernoulli şi The Doc-
trine of Chances, publicată ı̂n 1718 de Abraham de Moivre. Un secol mai târziu, Pierre
Simon Laplace publică lucrarea Théorie analytique des probabilitées, ı̂n care evidenţiază
legea erorilor (convergenţa la legea normală). Teoria modernă a probabilităţilor (incluzând
formalizarea axiomatică) este datorată ı̂n bună măsură matematicianului rus Andrei Niko-
laevici Kolmogorov, autorul cărţii Foundation of the Theory of Probability, publicată ı̂n
1950. Printre lucrările de referinţă ı̂n domeniu ale secolului XX trebuiesc amintite The
Theory of Stochastic Processes (D.R Cox, H.D. Miller, 1965), An Introduction to Proba-
bility Theory (W. Feller, 1968) şi Probability and Measure (P. Billingsley, 1979). In ul-
timii 60 de ani, studiul proceselor aleatoare cunoaşte o dezvoltare şi diversificare teoretică
exponenţială, dar şi un câmp foarte larg de aplicabilitate.
Şcoala românească de probabilităţi se remarcă prin numeroase contribuţii originale.
Bazele acestei şcoli se datorează ı̂n principal matematicienilor C. T. Ionescu-Tulcea, Ghe-
orghe Mihoc, Octav Onicescu, Ion Cuculescu, Marius Iosifescu şi Constantin Tudor.

0.1.2 Descrierea cursului


Prezentul curs reprezintă o introducere ı̂n teoria probabilităţilor şi statisticii matematice.
Sunt descrise şi caracterizate concepte de bază ale domeniului: câmpuri de probabilitate,
variabile aleatoare şi convergenţa şirurilor de variabile aleatoare, eşantioane, estimatori
statistici etc. Pentru studiul acestor noţiuni sunt necesare cunoştinţe elementare de analiză
matematică şi teoria măsurii. Cunoştinţele teoretice sunt exemplificate şi aplicate ı̂n prob-
leme şi lucrări de laborator, menite să familiarizeze cursantul cu raţionamentele specifice
domeniului şi cu utilizarea unor softuri informatice.

0.1.3 Principiile de bază. Limbaj


Teoria probabilităţilor analizează şansele de realizare a unor evenimente ı̂n urma unei
experienţe şi este fundamentată pe următoarele trei principii:

1. Fiecărui eveniment rezultat ı̂n urma unei experienţe i se atribuie un număr real din
intervalul [0, 1] numit probabilitatea evenimentului.
1
Etimologie: probabilitas (lat.) = credibilitate
6

2. Oricare două evenimente contrare au suma probabilităţilor egală cu 1.

3. Probabilitatea de realizare simultană a două evenimente este egală cu produsul dinte


probabilitatea realizării unuia dintre evenimente şi probabilitatea realizării celuilalt
eveniment, condiţionată de realizarea primului eveniment.

In formalizarea matematică, evenimentele care pot rezulta ı̂n urma efectuării unei experienţe
reprezintă submulţimi ale unei mulţimi Ω (interpretată ca ”evenimentul sigur”). Aceste
evenimente au o probabilitate de apariţie (şansă de realizare). Matematic, probabilitatea
este o măsură finită, definită pe mulţimea evenimentelor. Astfel, limbajului probabilistic
ı̂i corespunde limbajul mulţimilor.
Următoarea schemă evidenţiază dualitatea de limbaj (relativ la o anumită experienţă):

• evenimentul sigur = mulţimea totală (de referinţă): Ω;

• evenimentul imposibil = mulţimea vidă: ∅;

• evemiment = submulţime a mulţimii totale: A ⊂ Ω;

• realizarea unui eveniment asigură realizarea unui alt eveniment (implicaţia eveni-
mentelor) = incluziunea mulţimilor: A ⊂ B;

• evenimentul contrar (unui eveniment) = complementara unei submulţimi a mulţimii


totale: Ac = Ω \ A;

• evenimentul realizării a cel puţin unuia dintre două evenimente (disjuncţia eveni-
mentelor) = reuniunea mulţimilor: A ∪ B;

• evenimentul realizării simultane a două evenimente (conjuncţia evenimentelor) =


intersecţia mulţimilor: A ∩ B;
Capitolul 1

Spaţii măsurabile. Câmpuri de


probabilitate. Scheme clasice de
probabilitate

1.1 Introducere
Vom defini şi caracteriza ı̂n continuare noţiunea de spaţiu măsurabil (câmp de evenimente)
şi funcţiile măsurabile, definite ı̂ntre spaţii măsurabile. Noţiunile respective modelează
matematic rezultatele posibile ale unei experienţe (evenimentele posibile) şi corespondenţele
specifice asociate unor experienţe. Astfel, definim noţiunile: corp, σ-corp, borelianul unui
spaţiu topologic, spaţiu măsurabil, funcţie măsurabilă şi evidenţiem proprietăţile lor de
bază. Se introduce noţiunea de câmp de probabilitate şi se pregăteşte definirea conceptu-
lui de variabilă aleatoare. Sunt evidenţiate proprietăţile probabilităţii, definită ca măsură
finită pe spaţiul evenimentelor (σ-corpul evenimentelor). Este discutată independenţa
evenimentelor şi noţiunea de probabilitate condiţionată. Exemplele elementare de câmpuri
de probabilitate discrete sunt particularizate ı̂n modelele clasice (scheme de probabilitate),
adaptate studiului unor fenomene aleatoare.

1.2 Corpuri
Noţiune de corp (de mulţimi) reprezintă cadrul minimal de modelare matematică a setului
evenimentelor posibile rezultate ı̂n urma unei experienţe cu rezultate aleatoare.

Definiţia 1.2.1. Fie Ω o mulţime nevidă. O familie nevidă C de submulţimi ale lui Ω
(C ⊂ P(Ω)) se numeşte corp a lui Ω dacă satisface proprietăţile:

C1 . Ac ∈ C, ∀ A ∈ C;

C2 . A ∪ B ∈ C, ∀ A, B ∈ C.

Definiţia de mai sus are o serie de consecinţe imediate.

Propoziţia 1.2.1. Fie C un corp a lui Ω. Au loc proprietăţile următoare:

C3 . ∪ni=1 Ai ∈ C, ∀ Ai ∈ C, i = 1, n, n ≥ 2;

7
8

C4 . ∩ni=1 Ai ∈ C, ∀ Ai ∈ C, i = 1, n, n ≥ 2;

C5 . ∅, Ω ∈ C;

C6 . A \ B ∈ C, ∀ A, B ∈ C.

Demonstraţie. C3 se verifică prin inducţie. C4 rezultă din următoarea relaţie (De Mor-
gan): ∩ni=1 Ai = (∪ni=1 Aci )c şi proprietăţile C1 şi C3 . Pentru C5 , considerăm A ∈ C; avem
Ω = A ∪ Ac ∈ C şi ∅ = A ∩ Ac ∈ C. C6 se obţine din relaţia: A \ B = A ∩ B c şi C4 .

Vom considera ı̂n continuare intersecţii de corpuri ale unei mulţimi fixate.

Propoziţia 1.2.2. O intersecţie de corpuri ale unei mulţimi date este un corp al acelei
mulţimi.

Demonstraţie. Fie {Ci : i ∈ I} o familie de corpuri ale mulţimii Ω. Notăm C =


∩i∈I Ci ⊂ P(Ω). Evident, Ω ∈ C (cf. P3 ), deci C 6= ∅. Dacă A ∈ C, atunci A ∈ Ci , ∀ i ∈ I,
de unde Ac ∈ Ci , ∀ i ∈ I (cf. C1 ), deci Ac ∈ C. Similar se verifică A ∪ B ∈ C, ∀ A, B ∈ C.
Rezultă că C este un corp a lui Ω.

Rezultatul de mai sus este util ı̂n studiul corpurilor generate de familii de părţi ale
multimii totale considerate.

Definiţia 1.2.2. Fie Ω 6= ∅ şi M ⊂ P(Ω), M 6= ∅. Fie P = {C − corp a lui Ω | M ⊂ C}.


Atunci mulţimea
\
C(M) = C
C∈P

se numeşte corpul generat de M.

Vom observa la C(M) este cel mai mic corp a lui Ω care include familia de părţi M a
lui Ω. Ne vom referi acum la cazul corpurilor finite.

Propoziţia 1.2.3. Fie Ω 6= ∅.

1. Dacă M ⊂ P(Ω), M 6= ∅, este o mulţime finită, atunci corpul C(M) este finit.

2. Dacă C este un corp finit a lui Ω, atunci există o partiţie finită ∆ = {A1 , A2 , · · · , An }
a lui Ω astfel ca
C = {∪i∈I Ai : I ⊂ {1, 2, · · · , n}}.

Demonstraţie.
1. Fie mulţimile finite Mc = {Ac : A ∈ M}, M1 = M ∪ Mc , M2 = {∩A∈H A : H ⊂ M1 }
şi M3 = {∪A∈G : G ⊂ M2 }. Atunci C(M) = M3 , deci este finit.
2. Partiţia ∆ este formată din mulţimile nevide A ∈ C, având proprietatea următoare
B ⊂ A ⇒ B = A sau B = ∅, ∀ B ∈ C.
9

1.3 Spaţii măsurabile


Noţiunea de corp (de mulţimi), definită ı̂n paragraful enterior, va fi extinsă ı̂n cele ce
urmează la cea de σ − corp. Aceasta va permite introducerea noţiunii de spaţiu măsurabil
(câmp de evenimente).

Definiţia 1.3.1. Fie Ω o mulţime nevidă. O mulţime nevidă F ⊂ Ω se numeşte σ − corp


a lui Ω dacă satisface următoarele condiţii:

σ1 . Ac ∈ F, ∀ A ∈ F;

σ2 . dacă An ∈ F, ∀n ∈ N∗ atunci ∪∞
n=1 An ∈ F.

Perechea (Ω, F) se numeşte spaţiu măsurabil sau câmp de evenimente.

Vom observa că orice σ − corp F a lui Ω este un corp a lui Ω. Astfel, pentru A, B ∈ F
considerăm şirul (An )n≥1 definit prin A1 = A şi An = B, ∀ n ≥ 1. Conform σ1 , avem
A ∪ B = ∪∞ n=1 An ∈ F. Deducem că σ-corpul F este corp. Ca urmare, proprietăţile C3 − C6
rămân valabile ı̂ntr-un σ-corp. Alte proprietăţi sunt descrise ı̂n propoziţia următoare.

Propoziţia 1.3.1. Fie (Ω, F) un spaţiu măsurabil. Au loc următoarele proprietăţi:

σ3 . An ∈ F, ∀n ∈ N∗ n=1 An ∈ F;
⇒ ∩∞

σ4 . An ∈ F, ∀n ∈ N∗ ⇒ lim supn→∞ An ∈ F, lim inf n→∞ An ∈ F,


unde lim supn→∞ An = ∩∞ ∞ ∞ ∞
n=1 ∪k=n Ak şi lim inf n→∞ An = ∪n=1 ∩k=n Ak .

Demonstraţie. σ3 . Conform relaţiilor lui De Morgan şi Definiţiei 1.3.1, avem: ∩∞


n=1 An =
(∪∞ c c
n=1 An ) ∈ F.
σ4 . Se aplică σ2 şi P5 .

Remarcăm că familiile F1 = P(Ω) şi F2 = {∅, Ω} reprezintă σ-corpuri (deci şi corpuri)
elementare ale lui Ω.

Intersecţia unor σ-corpuri ale unei mulţimi este de asemenea un σ-corp al mulţimii
respective, demonstraţia fiind similară celei din Propoziţia 1.2.2.

Propoziţia 1.3.2. Dacă Fi , i ∈ I, reprezintă o familie oarecare de σ−corpuri ale mulţimii


Ω, atunci ∩i∈I Fi reprezintă de asemenea un corp al mulţimii Ω.

Proprietatea de mai sus permite definirea noţiunii de σ-corp generat de o mulţime de


părţi (submulţimi) ale unei mulţimi Ω.

Definiţia 1.3.2. Fie Ω o mulţime nevidă şi M ⊂ P(Ω). Intersecţia tuturor σ − corpurilor
lui Ω care includ mulţimea M se numeşte σ − corpul generat de M şi se notează B(M).

Mulţimea B(M) este cel mai mic σ-corp a lui Ω care include pe M. Un caz particular
foarte important este cel ı̂n care mulţimea M este o topologie pe spaţiul Ω.
10

Definiţia 1.3.3. Fie (Ω, O) un spaţiu topologic, unde O reprezintă topologia lui Ω (familia
mulţimilor deschise). Atunci σ − corpul generat de mulţimea O se numeşte borelianul
spaţiului topologic (Ω, O) şi se notează (atunci când nu este pericol de confuzie) prin BΩ .

Topologia OR a mulţimii numerelor reale R este familia reuniunilor cel mult numărabile
de intervale deschise disjuncte. Se poate demonstra că borelianul BR al spaţiului topologic
(R, OR ) conţine toate tipurile de intervale şi reuniunile cel mult numărabile ale acestora.
Reciproc, BR coincide cu σ - corpul generat de oricare tip de intervale reale.

1.4 Funcţii măsurabile


Descriem ı̂n continuare funcţiile ”specifice” spaţiilor măsurabile.

Definiţia 1.4.1. Fie (Ω, F) şi (Ω0 , F0 ) o pereche de spaţii măsurabile (câmpuri de eveni-
mente). O funcţie f : Ω → Ω0 se numeşte funcţie măsurabilă dacă

f −1 (A) ∈ F, ∀ A ∈ F0 ,

unde f −1 (A) = {ω ∈ Ω | f (ω ∈ A}.

În particular, dacă Ω0 = R şi F0 = BR , funcţia f se va numi funcţie reală măsurabilă.


De remarcat faptul că, pentru o funcţie reală măsurabilă f : Ω → R, avem:

• {f ≤ a} := f −1 ((−∞, a]) ∈ F, ∀ a ∈ R

• {f > a} := f −1 ((a, ∞)) ∈ F, ∀ a ∈ R

• {a ≤ f ≤ b} := f −1 ([a, b]) ∈ F, ∀ a, b ∈ R, a < b.

Conservarea măsurabilităţii prin operaţii algebrice este stabilită de propoziţia următoare.

Propoziţia 1.4.1. Fie (Ω, F) un spaţiu măsurabil. Dacă f, g : Ω → R sunt funcţii reale
măsurabile şi a ∈ R atunci funcţiile reale f +a, af, |f |, f +g, f g, min{f, g} şi max{f, g}
sunt măsurabile.

Funcţiie continue sunt măsurabile. Astfel, are loc:

Propoziţia 1.4.2. Dacă (Ω, BΩ ) este un spaţiu măsurabil, cu BΩ reprezentând borelianul


definit de o topologie pe Ω, iar f : Ω → R este o funcţie continuă, atunci f este o funcţie
reală măsurabilă.

Noţiunea de funcţie reală măsurabilă serveşte definirii noţiunii de variabilă aleatoare.


11

1.5 Câmpuri de probabilitate


Noţiunea de câmp de probabilitate este fundamentală ı̂n teoria probabilităţilor. Un câmp
de probabilitate este un spaţiu măsurabil dotat cu o măsură finită numită ”probabilitate”.

Definiţia 1.5.1. Fie (Ω, F) un spaţiu măsurabil, cu σ − corpul F denumit ”mulţimea


evenimentelor”. O funcţie P : F → R se numeşte probabilitate dacă satisface următoarele
axiome:

P1. P(A) ≥ 0, ∀ A ∈ F;

P2. P(Ω) = 1;

P3. Pentru oricare şir de evenimente (An )n∈N∗ , cu An ∩Am = ∅, ∀ n 6= m, are loc relaţia

X
P (∪∞
n=1 An ) = P(An ).
n=1

Tripletul (Ω, F, P) se numeşte câmp de probabilitate.

Ultima proprietate a definiţiei de mai sus se referă la şiruri de evenimente. În contin-
uare, ne vom referi la şirurile monotone de evenimente şi limitele de şiruri de evenimente.

Definiţia 1.5.2. Fie (An )n∈N∗ un şir de evenimente din câmpul de probabilitate (Ω, F, P).

1. Şirul (An )n∈N∗ se numeşte monoton crescător dacă An ⊂ An+1 , ∀ n ≥ 1. Fie


A = ∪∞ n=1 An ∈ F. Notăm limn→∞ An = A şi A ↑ A.

2. Şirul (An )n∈N∗ se numeşte monoton descrescător dacă An+1 ⊂ An , ∀ n ≥ 1. Fie


A = ∩∞ n=1 An ∈ F. Notăm limn→∞ An = A şi A ↓ A.

3. Limita superioară a şirului (An )n∈N∗ se defineşte prin

n=1 ∪k=n Ak ∈ F.
lim sup An = ∩∞ ∞
n→∞

4. Limita inferioară a şirului (An )n∈N∗ se defineşte prin

n=1 ∩k=n Ak ∈ F.
lim inf An = ∪∞ ∞
n→∞

Probabilitatea are o serie de proprietăţi fundamentale care decurg din Definiţia 1.5.1.
Aceste proprietăţi caracterizează ı̂n fapt o măsură finită.

Propoziţia 1.5.1. Fie (Ω, F, P) un câmp de probabilitate. Au loc următoarele proprietăţi

P4. P(∅) = 0;

P5. P(A ∪ B) = P(A) + P(B), ∀ A, B ∈ F, A ∩ B = ∅;

P6. P(Ac ) = 1 − P(A), ∀ A ∈ F;


12

P7. P(A \ B) = P(A) − P(B), ∀ A, B ∈ F, B ⊂ A;

P8. P(A) ≤ P(B), ∀ A, B ∈ F, A ⊂ B;

P9. P(A) ∈ [0, 1], ∀ A ∈ F;

P10. (Formula lui Poincaré)


n
X X
P(∪ni=1 Ai ) = (−1)k+1 P(∩kj=1 Aij );
k=1 1≤i1 <i2 <···<ik ≤n

P11. Dacă (An )n≥1 este un şir monoton (crescător sau descrescător) de evenimente, cu
limn→∞ An = A, atunci limn→∞ P(An ) = P(A).

P12. Pentru oricare şir de evenimente (An )n∈N∗ avem



X
P (∪∞
n=1 An ) ≤ P(An ).
n=1

Demonstraţie.
P4. Presupunem, prin absurd, că P(∅) = p > 0. Considerăm şirul An = ∅, n ∈ N∗ .

Conform [P 3], P(∅) = P(∪∞
P
n=1 (An ) = n=1 P(An ) = ∞. Contradicţie.
P5. Alegem şirul An = ∅, n ≥ 3, A1 = A şi A2 = B şi aplicăm [P 3], [P 4].
P6. Relaţia rezultă din Ac ∪ A = Ω şi proprietăţile [P 2], [P 5].
P7. Se obţine din A = B ∪ (A \ B) şi [P 5].
P8. Rezultă din proprietatea anterioară, [P 7].
P9. Consecinţă a proprietăţilor [P 1], [P 2] şi [P 8].
P10. Formula se demonstrează prin inducţie matematică.
P11. Presupunem An ↓ ∅. P Avem A1 = ∪∞ n=1 (An \ An+1 ), cu (AiP
\ Ai+1 ) ∩ (Aj \ Aj+1 ) =
∅, ∀ iP6= j. Atunci P(A1 ) = n=1 P (An \ An+1 ). Rezultă limn→∞ ∞

k=n P (Ak \ Ak+1 ) = 0.
∞ ∞
Dar k=n P (Ak \ Ak+1 ) = P (∪n=1 (An \ An+1 )) = P(An ). Deci limn→∞ P(An ) = 0 =
P(∅).
Presupunem An ↓ A. Atunci (An \ A) ↓ ∅, de unde limn→∞ P(An \ A) = 0 şi obţinem
limn→∞ P(An ) = P(A).
Presupunem An ↑ A. Atunci Acn ↓ Ac . Rezultă limn→∞ P(Acn ) = P(Ac ), de unde obţinem
limn→∞ P(An ) = P(A).
P12. Definim şirul de evenimente (Bn )n≥1 , B1 = A1 , Bn = An \ ∪n−1

k=1 Ak ⊂ An , ∀ n > 1.
Avem ∪nk=1 Bk = ∪nk=1 Ak , ∀ n ≥ 1 şi Bi ∩ Bj = ∅, ∀ i 6= j. Ca urmare, conform
proprietăţilor [P 3] şi [P 8], avem

X ∞
X
P (∪∞
n=1 An ) = P (∪∞
n=1 Bn ) = P(Bn ) ≤ P(An ),
n=1 n=1

ceea ce trebuia demonstrat.


13

1.6 Evenimente independente, evenimente condiţionate


Un fenomen important studiat de teoria probabilităţilor este cel al dependenţei (respectiv
independenţei) evenimentelor.

Definiţia 1.6.1. Fie (Ω, F, P) un câmp de probabilitate. Considerăm un eveniment A ∈ F,


cu P(A) > 0. Pentru oricare eveniment B ∈ F numim probabilitatea lui B condiţionată
de (realizarea evenimentului) A mărimea:

P(B ∩ A)
P(B|A) := .
P(A)

Evenimentele A şi B se numesc evenimente independente dacă P(B|A) = P(B), adică


P(A ∩ B) = P(A) · P(B). Mai general, G ⊂ F se numeşte familie de evenimente indepen-
dente dacă pentru oricare evenimente distincte A1 , A2 , · · · , An ∈ G avem
n
Y
P (∩ni=1 Ai ) = P(Ai ).
i=1

Se constată astfel că două evenimente sunt independente dacă probabilitatea realizării
unuia dintre acestea nu este influienţată de realizarea celuilalt. Se arată cu uşurinţă că
evenimentele contrare ale unor evenimente independente sunt de asemenea independente.
Pe de altă parte, conceptul de evenimente condiţionate permite considerarea sistemelor
complete de evenimente.

Definiţia 1.6.2. Evenimentele Ai , i ∈ I, unde I este o mulţime cel mult numărabilă


de indici, formează un sistem complet de evenimente ı̂n câmpul de probabilitate (Ω, F, P)
dacă:

1. Ai ∩ Aj = ∅, ∀ i 6= j

2. ∪i∈I Ai = Ω

3. P(Ai ) > 0, ∀ i ∈ I

Propoziţia 1.6.1. Fie (Ω, F, P) un câmp de probabilitate, iar Ai , i ∈ I, un sistem complet


de evenimente. Dacă A este un eveniment cu probabilitate nenulă, atunci loc:

1. Formula probabilităţii totale


X
P(A) = P(A|Ai )P(Ai )
i∈I

2. Formula lui Bayes

P(A|Ak )P(Ak )
P(Ak |A) = P , ∀ k ∈ I.
i∈I P(A|Ai )P(Ai )
14

Demonstraţie.
1. Avem
A = A ∩ Ω = A ∩ (∪i∈I Ai ) = ∪i∈I (A ∩ Ai ) .
Deoarece evenimentele A ∩ Ai , i ∈ I sunt incompatibile două câte două, obţinem
X X
P(A) = P (A ∩ Ai ) = P (A|Ai ) P (Ai ) ,
i∈I i∈I

deci formula probabilităţii totale este demonstrată.


2. Fie k ∈ I. Conform Definiţiei 1.6.1 şi formulei probabilităţii totale, obţinem

P(A ∩ Ak ) P(A|Ak )P(Ak )


P(Ak |A) = =P ,
P(A) i∈I P(A|Ai )P(Ai )

deci formula lui Bayes este demonstrată.

1.7 Scheme clasice de probabilitate


Prezentăm ı̂n continuare modelele de bază de cm̂puri de probabilitate (discrete).

1. Câmpul lui Laplace.


Spaţiul Ω este considerat o mulţime finită, iar σ − corpul F este considerat mulţimea
P(Ω) (mulţimea submulţimilor lui Ω). Probabilitatea unui eveniment A ⊂ Ω se
defineşte prin:
|A|
P(A) = ,
|Ω|
unde |M | reprezintă numărul elementelor unei mulţimi finite M . Elementele lui Ω
determină evenimentele elementare, echiprobabile. Astfel, pentru ω ∈ Ω, avem

1
P({ω}) = ,
n
unde n = |Ω|.

2. Câmp discret de evenimente.


Considerăm Ω = {ωi : i ∈ I}, unde mulţimea de indici I este cel mult numărabilă.
Definim F = P(Ω). Considerăm
P o măsură de probabilitate (pi )i∈I pe mulţimea Ω,
unde pi ≥ 0, ∀ i ∈ I şi i∈ I pi = 1. Probabilitatea unui eveniment A = {ωj : j ∈ J},
cu J ⊂ I, se defineşte prin
X
P(A) = pj .
j∈J

Modelele de mai sus se materializează concret ı̂n scheme de probabilitate. Este vorba
exemple cu un grad mare de generalitate şi utilizare frecventă ı̂n calculul probabilităţilor.
Prezentăm ı̂n continuare cele mai cunoscute scheme de probabilitate.
15

1. Schema lui Bernoulli.


Este un exemplu de câmp Laplace. Schema modelează următoarea experienţă:
O urnă conţine c bile, dintre care a sunt albe şi b sunt negre (a+b=c). Se extrage
o bilă, i se ı̂nregistrează culoarea, iar apoi se reintroduce ı̂n urnă. Se repetă această
experienţă de n ori. Se studiază probabilitatea evenimentului Ak|n al apariţiei bilei
albe de k ori ı̂n cele n extrageri
 (cu repunerea bilei ı̂n urnă).
Notăm Pk|n = P Ak|n probabilitatea evenimentului menţionat. Un raţionament
elementar ne conduce la formula de calcul

Pk|n = Cnk pk q n−k , k = 0, 1, · · · , n,

unde p = a/c este probabilitatea apariţiei unei bile la o extragere, iar q = b/c = 1 − p
este probabilitatea evenimentului contrar (apariţia unei bile negre).
Modelul este echivalent cu repetarea unei experienţe (ı̂n condiţii identice) de n ori
şi studiul probabilităţii realizării unui anumit eveniment de k ori (din totalul de n
experienţe).
Remarcăm
n
X n
X n
X
Cnk pk q n−k = (q + p)n = 1,

P Ak|n = Pk|n =
k=0 k=0 k=0

deci evenimentele Ak|n , k = 0, 1, · · · , n, reprezintă un sistem complet.

2. Schema multinomială.
Este o extindere a schemei lui Bernoulli.
Se consideră o urnă conţinând bile de s culori, câte ai bile din culoarea i ∈ {1, 2, · · · , s}.
Notăm
ai
pi = Ps
j=1 aj

probabilitatea extragerii unei bile de culoarea i ∈ {1, 2, · · · , s}. Se fac n extrageri, cu


repunerea bilei ı̂n urnă după fiecare extragere. Fie
Ps(ki )i=1,s un vector de dimensiune
s, cu componente naturale, având proprietatea i=1 ki = n. Notăm

P(ki )i=1,s |n

probabilitatea evenimentului A(ki )i=1,s |n de extragere a exact ki bile de culoarea i,


unde i = 1, 2, · · · , s, din totalul de n bile extrase. Se constată că
 
n
P(ki )i=1,s |n = pk11 pk22 · · · pks s ,
k1 , k2 , · · · , ks
unde  
n n!
=
k1 , k2 , · · · , ks k1 !k2 ! · · · ks !
reprezintă combinările multinomiale de n luate câte k1 , k2 , · · · , ks .
Avem
 
X X n
P(ki )i=1,s |n = pk11 pk22 · · · pks s =
Ps Ps k1 , k2 , · · · , ks
(ki )∈Ns ; i=1 ki =n (ki )∈Ns ; i=1 ki =n
16

= (p1 + p2 + · · · + ps )n = 1,
deci A(ki )i=1,s |n , cu (ki ) ∈ Ns , astfel ca si=1 ki = n, formează un sistem complet de
P
evenimente.
3. Schema lui Poisson.
Reprezintă o generalizare a schemei lui Bernoulli. Se consideră n urne cu bile albe şi
negre, dar ı̂n proporţii diferite. Fie pi probabilitatea extragerii unei bile albe din urna
i. Probabilitatea extragerii unei bile negre din urna i va fi qi = 1−pi , i = 1, 2, · · · , n.
Se extrage câte o bilă din fiecare urnă. Se analizează probabilitatea evenimentului
Ak|n de a obţine exact k bile albe din cele n extrase. Notăm Nn = {1, 2, · · · , n}.
Avem  X Y Y
Pk|n = P Ak|n = pi qj .
I⊂Nn ; |I|=k i∈I j∈Nn \I
k
Observăm că Pk|n reprezintă coeficientul lui x al polinomului
f (x) = (p1 x + q1 ) (p2 x + q2 ) · · · (pn x + qn ) .
Evident,
n
X
Pk|n = f (1) = 1,
k=0
deci evenimentele Ak|n , k = 0, 1, · · · , n, reprezintă un sistem complet.
4. Schema geometrică.
Schema este un exemplu de câmp discret de evenimente. Astfel, se repetă continuu o
experienţă, ı̂n condiţii identice, urmărindu-se de fiecare dată realizarea unui anumit
eveniment A. Fie P(A) = p. Considerăm momentul ı̂n care evenimentul A se
realizează pentru prima dată. Fie n ∈ N∗ . Probabilitatea ca evenimentul A să se
realizeze pentru prima dată ı̂n cea de a n-a experienţă este
pn = pq n−1 ,
unde q = 1 − p. Avem
∞ ∞ ∞
X X
n−1
X p
pn = pq =p qk = = 1.
n=1 n=1 k=0
1−q

5. Schema hipergeometrică.
Se consideră o urnă cu N bile, dintre care a bile sunt albe iar restul de b bile sunt
negre (a + b = N ). Se extrag n bile (fără a le repune ı̂n urmă după fiecare extragere).
Notăm pk|n probabilitatea evenimentului Ak|n de a avea exact k bile albe ı̂ntre cele
n bile extrase. Presupunem n ≤ N, k ≤ a şi n − k ≤ b. Atunci
Cak Cbn−k
pk|n = .
CNn
Conform unei formule combinatoriale binecunoscute, obţinem
min{a,n} min{a,n}
X X Cak Cbn−k
pk|n = = 1,
CNn
k=max{0,n−b} k=max{0,n−b}
17

deci Ak|n , max{0, n − b} ≤ k ≤ min{a, n}, formează un sistem complet de eveni-


mente.

6. Schema hipergeometrică generalizată.


Se consideră o urnă cu P N bile de s culori. Fie ai numărul de bile de culoarea i, i =
1, 2, · · · , s. Avem deci Psi=1 ai = N . Se extrag, fără repunere, n bile. Considerăm
vectorul (ki ) ∈ Ns , cu si=1 ki = n, astfel ı̂ncât ki ≤ ai , i = 1, 2, · · · , s. Atunci
probabilitatea extragerii a ki bile din culoarea i, pentru fiecare i ∈ {1, 2, · · · , s}, este

Cak11 Cak22 · · · Cakss


p(ki ) = .
CNn
18

1.8 Rezumat
În teoria probabilităţilor, evenimentele rezultate ı̂n urma unei experienţe sunt interpretate
ca o familie de submulţimi ale evenimentului sigur, mulţimea Ω. Mulţimea evenimentelor
formează un σ − corp (borelian).
O mulţime nevidă F ⊂ Ω se numeşte σ − corp a lui Ω daca satisface următoarele
condiţii:
σ1 . Ac ∈ F, ∀ A ∈ F;

n=1 An ∈ F.
σ2 . dacă An ∈ F, ∀n ∈ N∗ atunci ∪∞
Perechea (Ω, F) se numeşte spaţiu măsurabil sau câmp de evenimente.
Borelianul lui Ω = R, notat BR este σ −corpul generat de mulţimile deschise (topologia
lui R), adică cel mai mic σ − corp a lui R care include mulţimile deschise. BR conţine
toate tipurile de intervale şi este generat de oricare tip de intervale reale.
Fie (Ω, F) şi (Ω0 , F0 ) o pereche de spaţii măsurabile (câmpuri de evenimente). O funcţie
f : Ω → Ω0 se numeşte funcţie măsurabilă dacă

f −1 (A) ∈ F, ∀ A ∈ F0 ,

unde f −1 (A) = {ω ∈ Ω | f (ω ∈ A}.


În particular, dacă Ω0 = R şi F0 = BR , funcţia f se va numi funcţie reală măsurabilă.
Pentru o funcţie reală măsurabilă f : Ω → R, avem:
• {f ≤ a} := f −1 ((−∞, a]) ∈ F, ∀ a ∈ R

• {f > a} := f −1 ((a, ∞)) ∈ F, ∀ a ∈ R

• {a ≤ f ≤ b} := f −1 ([a, b]) ∈ F, ∀ a, b ∈ R, a < b.

Dacă f, g : Ω → R sunt funcţii reale măsurabile şi a ∈ R atunci funcţiile reale f +


a, af, |f |, f + g, f g, min{f, g} şi max{f, g} sunt măsurabile.
Fie (Ω, F) un spaţiu măsurabil, cu σ − corpul F denumit ”mulţimea evenimentelor”.
O funcţie P : F → R se numeşte probabilitate dacă satisface următoarele axiome:
P1. P(A) ≥ 0, ∀ A ∈ F;

P2. P(Ω) = 1;

P3. Pentru oricare şir de evenimente (An )n∈N∗ , cu An ∩ Am = ∅, ∀ n 6= m, are loc relaţia

X
P (∪∞
n=1 An ) = P(An ).
n=1

Tripletul (Ω, F, P) se numeşte câmp de probabilitate.


Probabilitatea are proprietăţile:
P4. P(∅) = 0;

P5. P(A ∪ B) = P(A) + P(B), ∀ A, B ∈ F, A ∩ B = ∅;


19

P6. P(Ac ) = 1 − P(A), ∀ A ∈ F;


P7. P(A \ B) = P(A) − P(B), ∀ A, B ∈ F, B ⊂ A;
P8. P(A) ≤ P(B), ∀ A, B ∈ F, A ⊂ B;
P9. P(A) ∈ [0, 1], ∀ A ∈ F;
P10. (Formula lui Poincaré)
n
X X
P(∪ni=1 Ai ) = (−1)k+1 P(∩kj=1 Aij );
k=1 1≤i1 <i2 <···<ik ≤n

P11. Dacă (An )n≥1 este un şir monoton (crescător sau descrescător) de evenimente, cu
limn→∞ An = A, atunci limn→∞ P(An ) = P(A).
P12. Pentru oricare şir de evenimente (An )n∈N∗ avem

X
P (∪∞
n=1 An ) ≤ P(An ).
n=1

Considerăm un eveniment A ∈ F, cu P(A) > 0. Pentru oricare eveniment B ∈ F,


numim probabilitatea lui B condiţionată de (realizarea evenimentului) A mărimea:
P(B ∩ A)
P(B|A) := .
P(A)
Evenimentele A şi B se numesc independente dacă P(B|A) = P(B), adică P(A ∩ B) =
P(A)P(B).
Mai general, G ⊂ F se numeşte familie de evenimente independente dacă pentru oricare
evenimente distincte A1 , A2 , · · · , An ∈ G avem
n
Y
P (∩ni=1 Ai ) = P(Ai ).
i=1

Astfel, două evenimente sunt independente dacă probabilitatea realizării unuia dintre aces-
tea nu este influienţată de realizarea celuilalt.
Evenimentele Ai , i ∈ I, unde I este o mulţime cel mult numr̆abilă de indici, formează
un sistem complet de evenimente ı̂n câmpul de probabilitate (Ω, F, P) dacă:
1. Ai ∩ Aj = ∅, ∀ i 6= j
2. ∪i∈I Ai = Ω
3. P(Ai ) > 0, ∀ i ∈ I
Dacă A este un eveniment cu probabilitate nenulă (neneglijabil), atunci loc:
1. Formula probabilităţii totale
X
P(A) = P(A|Ai )P(Ai )
i∈I
20

2. Formula lui Bayes


P(A|Ak )P(Ak )
P(Ak |A) = P , ∀ k ∈ I.
i∈I P(A|Ai )P(Ai )

Modelele de bază de cm̂puri de probabilitate discrete:


1. Câmpul lui Laplace.
Spaţiul Ω este considerat o mulţime finită, iar σ − corpul F este considerat mulţimea
P(Ω) (mulţimea submulţimilor lui Ω). Probabilitatea unui eveniment A ⊂ Ω se
defineşte prin:
|A|
P(A) = ,
|Ω|
unde |M | reprezintănumărul elementelor unei mulţimi finite M . Elementele lui Ω
determină evenimentele elementare, echiprobabile. Astfel, pentru ω ∈ Ω, avem
1
P({ω}) = ,
n
unde n = |Ω|.

2. Câmp discret de evenimente.


Considerăm Ω = {ωi : i ∈ I}, unde mulţimea de indici I este cel mult numărabilă.
Definim F = P(Ω). Considerăm
P o măsură de probabilitate (pi )i∈I pe mulţimea Ω,
unde pi ≥ 0, ∀ i ∈ I şi i∈ I pi = 1. Probabilitatea unui eveniment A = {ωj : j ∈ J},
cu J ⊂ I, se defineşte prin X
P(A) = pj .
j∈J

Schemele de probabilitate reprezintă modele/exemple cu un grad mare de generalitate


ı̂n calculul probabilităţilor.
1. Schema lui Bernoulli.
Este un exemplu de câmp Laplace. Schema modelează următoarea experienţă:
O urnă conţine c bile, dintre care a sunt albe şi b sunt negre (a+b=c). Se extrage
o bilă, i se ı̂nregistrează culoarea, iar apoi se reintroduce ı̂n urnă. Se repetă această
experienţă de n ori. Se studiază probabilitatea evenimentului Ak|n al apariţiei bilei
albe de k ori din cele n extrageri (cu repunerea bilei ı̂n urnă).
Notăm Pk|n = P Ak|n probabilitatea evenimentului menţionat. Avem

Pk|n = Cnk pk q n−k , k = 0, 1, · · · , n,

unde p = a/c este probabilitatea apariţiei unei bile la o extragere, iar q = b/c = 1 − p
este probabilitatea evenimentului contrar (apariţia unei bile negre).

2. Schema multinomială.
Este o extindere a schemei lui Bernoulli.
Se consideră o urnă conţinând bile de s culori, câte ai bile din culoarea i ∈ {1, 2, · · · , s}.
Notăm
ai
pi = Ps
j=1 aj
21

probabilitatea extragerii unei bile de culoarea i ∈ {1, 2, · · · , s}. Se fac n extrageri, cu


Ps(ki )i=1,s un vector de dimensiune
repunerea bilei ı̂n urnă după fiecare extragere. Fie
s, cu componente naturale, având proprietatea i=1 ki = n. Notăm

P(ki )i=1,s |n

probabilitatea evenimentului A(ki )i=1,s |n de extragere a exact ki bile de culoarea i,


unde i = 1, 2, · · · , s, din totalul de n bile extrase. Avem
 
n
P(ki )i=1,s |n = pk11 pk22 · · · pks s ,
k1 , k2 , · · · , ks
unde  
n n!
=
k1 , k2 , · · · , ks k1 !k2 ! · · · ks !
reprezintă combinările multinomiale de n luate câte k1 , k2 , · · · , ks .
3. Schema lui Poisson.
Reprezintă o generalizare a schemei lui Bernoulli. Se consideră n urne cu bile albe şi
negre, dar ı̂n proporţii diferite. Fie pi probabilitatea extragerii unei bile albe din urna
i. Probabilitatea extragerii unei bile negre din urna i va fi qi = 1−pi , i = 1, 2, · · · , n.
Se extrage câte o bilă din fiecare urnă. Se analizează probabilitatea evenimentului
Ak|n de a obţine exact k bile albe din cele n extrase. Notăm Nn = {1, 2, · · · , n}.
Avem  X Y Y
Pk|n = P Ak|n = pi qj .
I⊂Nn ; |I|=k i∈I j∈Nn \I

Observăm că Pk|n reprezintă coeficientul lui xk al polinomului

f (x) = (p1 x + q1 ) (p2 x + q2 ) · · · (pn x + qn ) .

4. Schema geometrică.
Schema este un exemplu de câmp discret de evenimente. Astfel, se repetă continuu o
experienţă, ı̂n condiţii identice, urmărindu-se de fiecare dată realizarea unui anumit
eveniment A. Fie P(A) = p. Considerăm momentul ı̂n care evenimentul A se
realizează pentru prima dată. Fie n ∈ N∗ . Probabilitatea ca evenimentul A să se
realizeze pentru prima dată ı̂n cea de a n-a experienţă este

pn = pq n−1 ,

unde q = 1 − p.
5. Schema hipergeometrică.
Se consideră o urnă cu N bile, dintre care a bile sunt albe iar restul de b bile sunt
negre (a + b = N ). Se extrag n bile (fără a le repune ı̂n urmă după fiecare extragere).
Notăm pk|n probabilitatea evenimentului Ak|n de a avea exact k bile albe ı̂ntre cele
n bile extrase. Presupunem n ≤ N, k ≤ a şi n − k ≤ b. Atunci
Cak Cbn−k
pk|n = .
CNn
22

1.9 Test
1. Definiţi noţiunea de evenimente condiţionate. Enunţati şi demonstraţi formula prob-
abilităţii totale.

2. Aplicaţi formula lui Poincaré pentru n evenimente independente, echiprobabile, de


probabilitate p ∈ (0, 1).

3. Fie (Ω, F, P) un câmp de probabilitate şi evenimentele A, B ∈ F. Ştiind că P(A) =


1/5, P(B) = 3/5 şi P(A ∩ B) = 1/10, să se calculeze probabilităţile:

(a) P(A ∪ B);


(b) P(A ∩ B);
(c) P(A|B) = PB (A).

4. Un sportiv trage la o ţintă cu 5 puşti diferite, cu probabilităţile respective de ochire:


p1 = 0, 8, p2 = 0, 7, p3 = 0, 4, p4 = 0, 9 şi p5 = 0, 5. Să se calculeze:

(a) probabilitatea ca ţinta să fie nimerită de exact 3 ori;


(b) probabilitatea ca ţinta să nimerită cel puţin o data.

5. Un portar apără o lovitură de la 11 metri cu probabilitatea p = 0, 3. La finalul unui


meci, se execută 5 lovituri de la 11 metri.

(a) Care este probabilitatea ca portarul respectiv să apere exact 2 lovituri?
(b) Care este cel mai probabil număr de goluri primite?

6. Care este probabilitatea de a nimeri exact doua numere la jocul Loto 6 din 49, dacă
se joacă o singură variantă?

7. Un baschetbalist execută aruncări de la distanţă la un panou de baschet, până la


prima reuşită. Ştiind că şansa de reuşită a fiecărei aruncări este de 20%, să se
determine probabilitatea ca sportivul să ı̂nscrie primul coş din a patra aruncare.
Care este cel mai probabil număr de aruncări până la prima reuşită?
Capitolul 2

Variabile aleatoare. Caracteristici


numerice

2.1 Introducere
2.2 Variabile aleatoare
Variabilele aleatoare se interpretează ca o ”enumerare” a rezultatelor (măsurabile) potenţiale
ale unui anumit experiment. Fiecare din aceste rezultate posibile are o probabilitate de re-
alizare. Definiţia de mai jos formalizează matematic un experiment cu rezultate aleatoare,
predictibile.

Definiţia 2.2.1. Fie (Ω, F, P) un câmp de probabilitate. O funcţie măsurabilă reală


X : Ω → R se numeşte variabilă aleatoare (reală).
Conform definiţiei, pentru o variabilă aleatoare X definită pe câmpul de probabilitate
(Ω, F, P), avem
{X ∈ I} ∈ F,
pentru orice interval real I. In particular,
{X ∈ (−∞, a]} = {X ≤ a} ∈ F, ∀ a ∈ R.
Probabilităţile evenimentelor descrise mai sus oferă o informaţie fundamentală privind
variabila aleatoare. În fapt, cunoaşterea probabilităţile evenimentelor {X ≤ a}, a ∈ R,
oferă o informaţie precisă privind distribuţia valorilor variabilei aleatore X. În secţiunea
următoare, va fi introdusă şi caracterizată funcţia de repartiţie a a unei variabile aleatoare,
construită pe baza probabilităţilor menţionate.
O mulţime finită de variabile aleatoare definite pe acelaşi câmp de probabilitate va
determina un vector aleator. Mai precis, avem următoarea definiţie.
Definiţia 2.2.2. Fie d > 1 un număr ı̂ntreg şi (Ω, F, P) un câmp de probabilitate. Con-
siderăm borelianul BRd spaţiului Rd (σ − corpul generat de topologia lui Rd ). O funcţie
X : Ω → Rd , (F, BRd ) măsurabilă, se numeşte vector aleator.
Fie Xi , i = 1, 2, · · · , d, componentele scalare ale funcţiei X, deci X = (X1 , X2 , · · · , Xd ).
Conform definiţiei de mai sus,
{X1 ≤ a1 , X2 ≤ a2 , · · · , Xd ≤ ad } ∈ F, ∀ (a1 , a2 , · · · , ad ) ∈ Rd .

23
24

2.3 Funcţia de repartiţie


Distribuţia valorilor unei variabile aleatoare reale este caracterizată prin noţiunea de
funcţie de repartiţie. De regulă, câmpul de probabilitate pe care este definită variabila
aleatoare nu este menţionat ı̂n mod explicit.
Definiţia 2.3.1. Fie (Ω, F, P) un câmp de probabilitate şi X : Ω → R o variabilă aleatoare.
Funcţia reală F : R → [0, 1], definită prin
F (x) = P{X ≤ x} = P({ω ∈ Ω : X(ω) ≤ x}), x ∈ R,
se numeşte funcţia de repartiţie a variabilei aleatoare X.
Propoziţia următoare grupează proprietăţile de bază ale unei funcţii de repartiţie.

Propoziţia 2.3.1. Fie F : R → [0, 1] funcţia de repartiţie a unei variabilei aleatoare X.


Au loc următoarele proprietăţi cu caracter general.
1. F este monoton crescătoare pe R;
2. F este continuă la dreapta pe mulţimea R (F (x + 0) := lim F (t) = F (x), ∀ x ∈ R);
t↓x

3. lim F (x) = 0; lim F (x) = 1;


x→−∞ x→∞

4. F (x − 0) := lim F (t) = P{X < x}, ∀ x ∈ R;


t↑x

5. P{X = x} = F (x) − F (x − 0), ∀ x ∈ R;


6. P{a < X ≤ b} = F (b) − F (a), ∀ a, b ∈ R, cu a < b;
7. P{X > x} = 1 − F (x), ∀ x ∈ R.
Demonstraţie. Fie (Ω, F, P) un câmpul de probabilitate pe care este definităvariabila
aleatoare X.
1. Fie x1 , x2 ∈ R, cu x1 < x2 . Avem {X ≤ x1 } ⊂ {X ≤ x2 }, de unde P{X ≤ x1 } ≤
P{X ≤ x2 }, sau F (x1 ) ≤ F (x2 ).
2. Fiind monoton crescătoare pe R, funcţia F admite limite laterale finite pe R. Mai
precis, pentru x ∈ R, limita la stânga ı̂n x este F (x − 0) = supt<x F (t), iar limita la
dreapta ı̂n x este F (x + 0) = inf t>x F (t). Evident,
F (x − 0) ≤ F (x) ≤ F (x + 0), ∀ x ∈ R.
Fixăm x ∈ R, arbitrar. Notăm An = X ≤ x + n1 ∈ F, N ∈ N∗ . Fie A = {X ≤ x}. Avem


A = ∩∞ n=1 An şi An ↓ A. Conform Propoziţiei 1.5.1,


 avem limn→∞ P(An ) = P(A). Dar,
P(A) = F (x) şi limn→∞ P(An ) = limn→∞ F x + n1 = F (x+0). Obţinem F (x+0) = F (x),
deci F este continuă la dreapta ı̂n x.
3. Conform monotoniei, F admite limite finite la ∞ şi −∞. Astfel, lim F (x) =
x→−∞
inf F (x) ≥ 0 şi lim F (x) = sup F (x) ≤ 1. Fie Bn = {X ≤ −n}, Cn {X ≤ n}, n ∈ N∗ .
x∈R x→∞ x∈R
Avem Bn ↓ ∅, respectiv Cn ↑ Ω. Ca urmare,
lim F (x) = lim F (−n) = lim P(Bn ) = P(∅) = 0,
x→−∞ n→∞ n→∞
25

respectiv
lim F (x) = lim F (n) = lim P(Cn ) = P(Ω) = 1.
x→∞ n→∞ n→∞

4. Fie x ∈ R, arbitrar, fixat. Conform proprietăţilor unei funcţii monoton crescătoare şi
Propoziţiei 1.5.1, avem
   
1 1
F (x − 0) = lim F (t) = lim F x − = lim P X ≤ x − = P{X < x}.
t↑x n→∞ n n→∞ n

5. Pentru x ∈ R, avem

P{X = x} = P({X ≤ x} \ {X < x}) = P{X ≤ x} − P{X < x} = F (x) − F (x − 0).

6. Fie a, b ∈ R, a < b. Avem {a < X ≤ b} = {X ≤ b} \ {X ≤ a} şi {X ≤ a} ⊂ {X ≤ b}.


Atunci, conform Propoziţiei 1.5.1,

P{a < X ≤ b} = P{X ≤ b} − P{X ≤ a} = F (b) − F (a).

7. Fie x ∈ R. Avem P{X > x} = P{X ≤ x}c = 1 − P{X ≤ x} = 1 − F (x).

Din propoziţia de mai sus rezultă că, dacă F este continuă ı̂n x0 ∈ R, atunci P{X =
x0 } = 0. Menţionăm că, reciproc, orice funcţie F : R → [0, 1] care satisface proprietăţile
1-3 din Propoziţia 2.3.1 este funcţia de repartiţie a unei anumite variabile aleatoare. Două
sau mai multe variabile aleatore care admit o funcţie de repartiţie comună vor fi denumite
identic distribuite.
De asemenea, putem defini funcţia de repartiţie a unui vector aleator, având proprietăţi
generale apropiate de cele ale funcţiei de repartiţie a unei variabile aleatoare.

Definiţia 2.3.2. Fie X = (X1 , X2 , · · · , Xd ) un vector aleator. Definim funcţia sa de


repartiţie prin F : Rd → [0, 1],

F (x1 , x2 , · · · , xd ) = P{X1 ≤ x1 , X2 ≤ x2 , · · · , Xd ≤ xd }, (x1 , x2 , · · · , xd ) ∈ Rd .

.
O noţiune importantă este independenţa variabilelor aleatoare, definită mai jos.

Definiţia 2.3.3. Variabilele aleatoare Xi , i ∈ I, definite pe un câmp de probabilitate


(Ω, F, P), se numesc independente dacă, pentru oricare oricare indici distincţi i1 , i2 , · · · , in
din mulţimea I şi oricare A1 , A2 , · · · , An ∈ BR are loc

P{Xi1 ∈ A1 , Xi2 ∈ A2 , · · · , Xin ∈ An } = P{Xi1 ∈ A1 }P{Xi2 ∈ A2 } · · · P{Xin ∈ An }.

În particular, dacă variabilele aleatoare X1 , X2 , · · · , Xn , având, respectiv, funcţiile de


repartiţie F1 , F2 , · · · , Fn , sunt independente, atunci

P{X1 ≤ a1 , X2 ≤ a2 , · · · , Xn ≤ an } = F1 (a1 )F2 (a2 ) · · · Fn (an ), ∀ a1 , a2 , · · · , an ∈ R.

Are loc următorul rezultat de bază privind suma a două variabile aleatoare indepen-
dente.
26

Propoziţia 2.3.2. Fie variabilele aleatoare independente X şi Y, având funcţiile de repartiţie
F şi respectiv G. Atunci funcţia de repartiţie a variabilei aleatoare Z = X + Y este
H = F ∗ G, unde Z ∞
(F ∗ G)(x) = F (x − t)dG(t), ∀ x ∈ R.
−∞

Variabilele aleatoare cu valori ı̂ntr-o mulţime cel mult numărabilă se numesc discrete.
Variabilele aleatoare cu funcţia de repartiţie derivabilă, cu derivata continuă, se numesc
continue. In secţiunea următoare vom discuta aceste tipuri particulare, dar deosebit de
importante, de variabile aleatoare. Vom ilustra cele două tipuri de variabile aleatoare
(discrete şi continue) prin exemple clasice, semnificative.

2.4 Variabile aleatoare discrete. Exemple clasice


În continuare, definim, caracterizăm şi exemplificăm variabilele aleatoare de tip discret.

Definiţia 2.4.1. Fie (Ω, F, P) un câmp de probabilitate şi X : Ω → R o variabilă aleatoare.


X se numeşte variabilă aleatoare discretă dacă mulţimea X(Ω) este cel mult numărabilă.

Fie X(Ω) = {xi , i ∈ I} ⊂ R, unde I este o mulţime de indici cel mult numărabilă.
Notăm Ai = {X = xi } ∈ F, i ∈ I. Remarcăm că familia de evenimente {Ai , i ∈ I}
reprezintă o partiţie a spaţiului Ω.
Pentru A ∈ F, notăm prin cA : Ω → R funcţia caracteriatică a mulţimii A, definită
prin 
1, ω ∈ A
cA (ω) = .
0, ω ∈ Ω \ A = Ac
Este elementar de verificat faptul că funcţia caracteristică a unui eveniment este o variabilă
aleatoare. Are loc următoarea reprezentare a variabilei aleatoare discrete X:
X
X= x i cA i .
i∈I
P
Notuăm pi = P(Ai ), i ∈ I. Avem pi ≥ 0, ∀ i ∈ I şi i∈I pi = 1.
Distribuţia variabilei aleatoare X se reprezintă convenţional astfel:
 
xi
X: .
pi i∈I

Fie variabilele aleatoare discrete, independente, X şi Y , cu distribuţiile


   
xi yj
X: , Y : .
pi i∈I p0j j∈J

Atunci variabila aleatoare X + Y va avea distribuţia


 
xi + y j
X +Y : .
pi p0j (i,j)∈I×J

Exemplul 2.4.1. Variabile aleatoare Bernoulli.


27

O variabilă aleatoare Bernoulli X ia doar două valori: valoarea 1, cu probabilitatea


p ∈ (0, 1) şi valoarea 0, cu probabilitatea q = 1 − p. Distribuţia lui X se reprezintă astfel:
 
0 1
X: .
q p

Notăm X ∼ Bin(1, p).

Exemplul 2.4.2. Variabile aleatoare binomiale.

O variabilă aleatoare binomială X, de parametrii n ∈ N∗ şi p ∈ (0, 1) ia valorile


k ∈ {0, 1, · · · , n} cu probabilităţile pk = Cnk pk q n−k . Distribuţia lui X se reprezintă astfel:
 
0 1 2 ··· n
X: .
Cn0 q n Cn1 pq n−1 Cn2 p2 q n−2 · · · Cnn pn

Variabila aleatoare binomială indică numărul de realizări ale unui eveniment având prob-
abilitatea p ı̂n n experienţe identice, independente (schema binomială - Bernoulli). Notăm
X ∼ Bin(n, p).
Este important de remarcat că o variabilă aleatoare binomială de parametrii (n, p) este
suma a n variabile aleatoare Bernoulli independente, identic distribuite (de parametru p).

Exemplul 2.4.3. Variabile aleatoare Poisson.


λn −λ
O variabilă aleatoare Poisson de parametru λ ia valoarea n cu probabilitatea n!
e ,
pentru n ∈ N, având deci distribuţia:
 
n
X: λn −λ .
n!
e n∈N

Notăm X ∼ P oiss(λ).

Exemplul 2.4.4. Variabile aleatoare geometrice.

O variabilă aleatoare geometrică X de parametru p ia valoarea n cu probabilitatea


pq n−1 , pentru n ∈ N∗ , unde q = 1 − p. X are distribuţia:
 
n
X: .
pq n−1 n∈N∗

Notăm X ∼ Geom(p). Variabila X indică numărul de experienţe, independente, identice,


necesar realizării (apariţiei) unui eveniment care are probabilitatea p de realizare ı̂n cadrul
fiecărei experienţe (schema geometrică).

2.5 Variabile aleatoare de tip continuu. Exemple cla-


sice
Un tip important de variabile aleatoare sunt cele de tip continuu.
28

Definiţia 2.5.1. Fie (Ω, F, P) un câmp de probabilitate şi X : Ω → R o variabilă aleatoare


având funcţia de repartiţie F : R → [0, 1], F (x) = P{X ≤ x}. X se numeşte variabilă
aleatoare de tip continuu dacă există o funcţie continuă f : R → [0, ∞) cu proprietatea
Z x
F (x) = f (t) dt, ∀ x ∈ R.
−∞

Funcţia f se numeşte funcţia de densitate (sau densitatea de probabilitate) a variabilei


aleatoare X.

Proprietăţile densităţii unei variabile aleatoare reale sunt evidenţite ı̂n propoziţia de
mai jos.

Propoziţia 2.5.1. Fie f : R → [0, ∞) funcţia de densitate asociată unei variabile


aleatoare de tip continuu X : Ω → R. Notăm F : R → [0, 1] funcţia sa de repartiţie.
Atunci:

1. F este de clasă C1 pe R, cu F 0 (x) = f (x), ∀ x ∈ R;


R
2. R f (t) dt = 1;

3. P{X = x} = 0, ∀ x ∈ R;
Rb
4. P{a ≤ X ≤ b} = a f (t) dt, ∀ [a, b] ⊂ R.

Demonstraţie.
1. Conform definiţiei, F este o primitivă a lui f pe R.
R Rx
2. R f (t) dt = lim f (t) dt = lim F (x) = 1.
x→∞ −∞ x→∞
3. F este continuă pe R, deci P{X = x} = F (x) − F (x − 0) = 0, ∀ x ∈ R.
4. P{a ≤ X ≤ b} = P{X ≤ b} − P{X < a} = P{X ≤ b} − P{X ≤ a} = F (b) − F (a) =
Rb
= a f (t) dt, ∀ [a, b] ⊂ R.

Fie variabilele aleatoare continue, independente, X şi Y , cu densităţiile f, g : R → [0, 1].


Din Propoziţia 2.3.2 se deduce că variabila aleatoare X + Y are densitatea f ∗ g, unde
Z
f ∗ g : R → [0, ∞), (f ∗ g)(x) = f (x − t)g(t) dt, ∀ x ∈ R,
R

este convoluţia densităţilor f şi g.


Vom prezenta ı̂n continuare câteva exemple clasice de reparţiţii continue.

Exemplul 2.5.1. Distribuţia normală.

Este cel mai important exemplu de distribuţie de tip continuu. Astfel, spunem că o
variabilă aleatoare reală X are o repartiţie normală (gaussiană) de parametrii 0 şi 1 dacă
are funcţia de densitate:
1 t2
ϕ(t) = √ e− 2 , ∀ t ∈ R.

29

Variabila normală (standard) X admite funcţie de repartiţie:


Z x
1 t2
Φ(x) = √ e− 2 dt, ∀ x ∈ R.
2π −∞
Notăm X ∼ N (0, 1). Distribuţia normală standard este legea limită universală, conform
Teoremei limită centrală.

Generalizare. X ∈ N (µ, σ 2 ), unde µ ∈ R, σ > 0, dacă admite densitatea de probabili-


tate
1 (t−µ)2
ϕ(t) = √ e− 2σ2 , ∀ t ∈ R.
σ 2π
Exemplul 2.5.2. Distribuţia exponenţială.

Variabila aleatoare X are o distribuţie exponenţială de parametru λ > 0, notat prin


X ∼ Exp(λ), dacă ia valori ı̂n intervalul [0, ∞) (deci este o variabilă aleatoare pozitivă) şi
admite funcţia de repartiţie

F (x) = 1 − e−λx , ∀ x ≥ 0.

Distribuţia exponenţială este fundamentală ı̂n teoria fiabilităţii, caracterizând modelele de


tip Markov.

Exemplul 2.5.3. Distribuţia Gama.

Variabila aleatoare X are o distribuţie Gama de parametrii α, β > 0, notat prin X ∼


Gama(α, β), dacă ia valori ı̂n intervalul (0, ∞) şi admite funcţia de densitate
x
xα−1 e− β
f (x) = α , ∀ x > 0,
β Γ(α)

unde Z ∞
Γ(α) = xα−1 e−x dx
0
este funcţia lui Euler de prima speţă.
În statistică, distribuţia de tip Gam(n/2, 2), cu n ∈ N∗ , notată prin χ2n , are o importanţă
majoră.

Exemplul 2.5.4. Distribuţia Beta.

Variabila aleatoare X are o distribuţie Beta de parametrii α, β > 0, notat prin X ∼


Beta(α, β), dacă ia valori ı̂n intervalul (0, 1) şi admite funcţia de densitate

xα−1 (1 − x)β−1
f (x) = , ∀ x ∈ (0, 1),
B(α, β)

unde Z 1
Γ(α)Γ(β)
B(α, β) = xα−1 (1 − x)β−1 dx =
0 Γ(α + β)
este funcţia lui Euler de a doua speţă.
30

2.6 Media. Medii de ordin superior


Pentru o variabilă aleatoare reală, media şi dispersia reprezintă cele mai importante car-
acteristici numerice. Astfel, media unei variabile aleatoare (dacă există) indicăcea mai
aşteptată valoare a variabilei aleatoare.
Definiţia 2.6.1. Fie (Ω, F, P) un câmp de probabilitate şi X : Ω → R o variabilă aleatoare
având funcţia de repartiţie F : R → [0, 1]. Mărimea:
Z ∞
E(X) := x dF (x)
−∞

se numeşte media lui X. Media este definită ı̂n ipoteza că integrala de tip Stieltjes-Riemann
de mai sus este convergentă.
Calculul mediei se explicitează astfel:
 
xi
1. pentru o variabilă aleatoare X de tip discret, cu distribuţia X : , media
pi i∈I
devine X
E(X) = xi p i ;
i∈I

2. pentru o variabilă aleatoare X de tip continuu, cu funcţia de densitate f : R →


[0, ∞), media devine Z ∞
E(X) := xf (x) dx.
−∞

Următoarea propoziţie stabileşte proprietăţie de bază ale mediei variabilelor aleatoare.


Propoziţia 2.6.1. Fie X şi Y două variabile aleatoare cu medie finită.
1. E(aX) = aE(X), ∀ a ∈ R;

2. E(X + Y ) = E(X) + E(Y );

3. dacă X şi Y sunt independente, atunci E(XY ) = E(X)E(Y ).


Demonstraţie. Vom trata doar cazul discret. Presupunem că X şi Y au distribuţiile
   
xi yj
X: , Y : ,
pi i∈I p0j j∈J

unde I şi J sunt mulţimi de indici cel mult numărabile.


1. Pentru a ∈ R, avem:
X X
E(aX) = (axi )pi = a xi pi = aE(X).
i∈I i∈I

2. Fie Aij = {X = xi , Y = yj } şi pij = P(Aij ), (i, j) ∈ I × J. Atunci


X X
pij = P(Aij ) = P(∪j∈J Aij ) = P{X = xi } = pi , ∀ i ∈ I,
j∈J j∈J
31

respectiv X X
pij = P(Aij ) = P(∪i∈I Aij ) = P{Y = yj } = p0j , ∀ j ∈ J.
i∈I i∈I

Deaoarece X + Y are distribuţia


 
xi + y j
X +Y : ,
pij (i,j)∈I×J

obţinem
! !
X X X X X
E(X + Y ) = (xi + yj )pij = xi pij + yj pij
(i,j)∈I×J i∈I j∈J j∈J i∈I
X X
= (xi pi ) + (yj p0j ) = E(X) + E(Y ).
i∈I j∈J

3. Dacă X şi Y sunt independente, atunci pij = pi p0j , ∀ (i, j) ∈ I × J. Rezultă


X X
E(XY ) = (xi yj )pij = (xi pi )(yj p0j )
(i,j)∈I×J (i,j)∈I×J
X X
= (xi pi ) (yj p0j ) = E(X)E(Y ).
i∈I j∈J

Astfel, proprietăţile mediei sunt demonstrate ı̂n cazul discret.

Fie X : Ω → R o variabilă aleatoare iar ϕ : R → R o funcţie reală măsurabilă (ı̂n


particular, ϕ continuă). Funcţia compusă ϕ(X) := ϕ ◦ X : Ω → R este de asemenea o
variabilă aleatoare definită pe Ω. Dacă X admite funcţia de repartiţie F , atunci
Z ∞
E(ϕ(X)) = ϕ(x) dF (x),
−∞

ı̂n ipoteza că integrala este convergentă. În particular, ı̂n cazul când ϕ este o funcţie putere
sau modului unei funcţii putere, obţinem mediile de ordin superior, respectiv mediile
absolute de ordin superior.
Definiţia 2.6.2. Fie (Ω, F, P) un câmp de probabilitate şi X : Ω → R o variabilă aleatoare.
1. Media de ordin k ∈ N∗ a variabilei aleatoare X se defineşte prin
Z ∞
k
xk dF (x),

E X =
−∞

dacă integrala este convergentă.


2. Media absolută de ordin k ∈ N∗ a variabilei aleatoare X se defineşte prin
Z ∞
k
|x|k dF (x),

E |X| =
−∞

k k
dacă integrala este convergentă. Notăm
 cu L = L (Ω) mulţimea variabilelor aleatoare
k
X : Ω → R cu proprietatea E |X| < ∞.
32

Menţionăm că mulţimea de funcţii Lk (Ω) este un spaţiu


 vectorial normat ı̂n raport cu
1/k
norma de ordinul k, definită prin kXkk = E |X| , X ∈ Lk (Ω). Din inegalitatea lui
k

Lyapunov (Teorema 3.2.4) se obţine

Lk+1 (Ω) ⊂ Lk (Ω), k ∈ N∗ .

Deducen că, pentru n ∈ N∗ , o variabilă aleatoare X ∈ Ln (Ω) are medie finită de ordinele
k = 1, · · · , n.

Exemplul 2.6.1. Mediile unor distribuţii clasice.

1. Distribuţia Bernoulli: X ∼ Bin(1, p) ⇒ E(X) = p.

2. Distribuţia binomială: X ∼ Bin(n, p) ⇒ E(X) = np.

3. Distribuţia Poisson: X ∼ P oiss(λ) ⇒ E(X) = λ.

4. Distribuţia geometrică: X ∼ Geom(p) ⇒ E(X) = 1/p.

5. Distribuţia normală: X ∼ N (µ, σ 2 ) ⇒ E(X) = µ.

6. Distribuţia exponenţială: X ∼ Exp(λ) ⇒ E(X) = 1/λ.

2.7 Dispersia
Dispersia unei variabile aleatoare (din spaţiul L2 ) este un indicator al gradului de ı̂mprăştiere
a valorilor sale ı̂n jurul mediei.

Definiţia 2.7.1. Fie X ∈ L2 (Ω), cu E(X) = µ. Mărimea:


Z ∞
(x − µ)2 dF (x) = E (X − E(X))2
 
V (X) =
−∞

se numeşte dispersia lui X. Mărimea


p
σ(X) = V (X)

se numeşte abaterea medie pătratică a variabilei aleatoare X.

Dispersia are următoarele proprietăţi elementare.

Propoziţia 2.7.1. Fie X, Y ∈ L2 (Ω).

1. V (X) ≥ 0;

2. V (X) = E(X 2 ) − E2 (X) (formula de calcul a dispersiei);

3. V (aX) = a2 V (X), ∀ a ∈ R;

4. dacă X şi Y sunt v.a. independente, atunci V (X + Y ) = V (X) + V (Y ).


33

Demonstraţie. Proprietăţile 1 şi 3 sunt evidente. Fie µ = E(X) şi η = E(Y ). Formula
de calcul a dispersiei se obţine astfel:

V (X) = E (X − µ)2 = E X 2 − 2µX + µ2 = E X 2 − 2µE(X) + µ2 = E X 2 − µ2 .


    

Conform Propoziţiei 2.6.1 şi formulei demonstrate avem:

V (X + Y ) = E (X + Y )2 − [E(X + Y )]2 = E X 2 + 2XY + Y 2 − (µ + η)2


  

= E X 2 +E Y 2 +2µη −µ2 −2µη −η 2 = E X 2 − µ2 + E Y 2 − η 2 = V (X)+V (Y ).


       

Exemplul 2.7.1. Dispersiile unor distribuţii clasice.

1. Distribuţia Bernoulli: X ∼ Bin(1, p) ⇒ V (X) = pq.

2. Distribuţia binomială: X ∼ Bin(n, p) ⇒ V (X) = npq.

3. Distribuţia Poisson: X ∼ P oiss(λ) ⇒ V (X) = λ.

4. Distribuţia geometrică: X ∼ Geom(p) ⇒ V (X) = q/p2 .

5. Distribuţia normală: X ∼ N (µ, σ 2 ) ⇒ V (X) = σ 2 .

2.8 Corelaţia
Corelaţia a două variabile aleatoare este un indicator al tipului de dependenţă al acestora.

Definiţia 2.8.1. Fie X, Y ∈ L2 (Ω). Corelaţia variabilelor aleatoare X şi Y se defineşte


prin:
λ(X, Y ) = E{[X − E(X)][Y − E(Y )]}.
Mărimea
λ(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
se numeşte coeficientul de corelaţie al variabilelor aleatoare X şi Y .

Propoziţia următoare stabileşte formula de calcul a corelaţiei şi o proprietate a coefi-


cientului de corelaţie.

Propoziţia 2.8.1. Cu notaţiile anterioare, avem:

1. λ(X, Y ) = E(XY ) − E(X)E(Y );

2. dacă X şi Y sunt independente, atunci λ(X, Y ) = 0;

3. ρ(X, Y ) ∈ [−1, 1].


34

Demonstraţie.
1. Avem

λ(X, Y ) = E (XY − µY − ηX + µη) = E(XY ) − µE(Y ) − ηE(X) + µη = E(XY ) − µη.

2. Din inegalitatea
E [t(X − µ) + (Y − η)]2 ≥ 0, ∀ t ∈ R,


sau
V (X)t2 + 2λ(X, Y )t + V (Y ) ≥ 0, ∀ t ∈ R,
obţinem
∆ := 4 λ2 (X, Y ) − V (X)V (Y ) ≤ 0.


Rezultă |ρ(X, Y )| ≤ 1.

2.9 Funcţia caracteristică


Funcţia caracteristică asociată unei variabile aleatoare reprezintă un instrument matematic
important. Pentru variabilele aleatoare de tip continuu, funcţia caracteristică reprezintă
transformata Fourier a funcţiei de densitate. Transformarea integrală Fourier este impor-
tantă ı̂n calculul operaţional.
Definiţia 2.9.1. Fie X o variabilă aleatoare având funcţia de repartiţie F . Funcţia ϕX :
R → C , definită prin
Z ∞
itX
eitx dF (x), t ∈ R,

ϕX (t) = E e =
−∞

se numeşte functia caracteristică a variabilei aleatoare X.


Fie X o variabilă aleatoare de tip continuu, cu densitatea de probabilitate f . În acest
caz, functia sa caracteristică se reprezintă astfel
Z ∞
ϕX (t) = eitx f (x)dx, t ∈ R,
−∞

adică ϕX reprezintă transformata Fourier a funcţiei f .


Dacă X este o variabilă aleatoare discretă, cu distribuţia
 
xk
X: ,
pk k∈I

atunci funcţia sa caracteristică se calculează astfel


X
ϕX (t) = eitxk pk .
k∈I

Prezentăm ı̂n continuare principalele proprietăţi ale funcţiei caracteristice.


Teorema 2.9.1. Fie X o variabilă aleatoare având funcţia de reaprtiţie F şi funcţia car-
acteristică ϕX : R → C. Au loc următoarele proprietăţi:
35

1. ϕX (0) = 1;

2. ϕ(−t) = ϕX (t), ∀ t ∈ R;

3. |ϕX (t)| ≤ 1, ∀ t ∈ R;

4. ϕaX+b (t) = eibt ϕX (at), ∀ t ∈ R, ∀ a, b ∈ R;

5. ϕX este uniform continuă (deci şi continuă) pe R;

6. dacă X ∈ Ln (Ω), atunci ϕX este derivabilă de ordinul n, cu


Z ∞
(n) n
ϕX (t) = i xn eitx dF (x), t ∈ R;
−∞

7. dacă X ∈ ∩∞ n
n=1 L (Ω), atunci ϕX este dezvoltabilă ı̂n serie Taylor ı̂n jurul originii:


X tn (n)
ϕX (t) = ϕX (0),
n=0
n!

(n)
cu ϕX (0) = in E (X n ) , n ∈ N.

Demonstraţie.
1. ϕX (0) = E (e0 ) = E(1) =1. 
ϕX (−t) = E e−itX = E eitX = ϕX (t), ∀ t ∈ R.

2.
R R
∞ itx ∞ R∞
3. |ϕX (t)| = −∞ e dF (x) ≤ −∞ |eitx | dF (x) = −∞ 1dF (x) = 1, ∀ t ∈ R.

R∞ R∞
4. Fie a, b ∈ R. ϕaX+b (t) = −∞ eit(ax+b) dF (x) = eibt −∞ ei(at)x dF (x)eibt ϕX (at).
5. Fie t ∈ R şi h > 0. Avem
Z ∞
itx ihx

|ϕX (t + h) − ϕX (t)| = e e − 1 dF (x)
−∞

∞ ∞
Z Z
itx ihx  hx
≤ e e − 1 dF (x) = 2 sin dF (x).
−∞ −∞
2
R∞
dF (x) ≤ ∞ dF (x) = 1, deducem că există a > 0 astfel ca

Fie ε > 0. Cum −∞ sin hx
R
2 −∞

Z
hx
sin dF (x) < ε/4.
(−∞,−a]∪[a,∞)
2

Apoi, pentru h < ε/2a, avem


Z Z Z a
hx
2 sin 2 dF (x) ≤ h |x| dF (x) ≤ ha dF (x) ≤ ha < ε/2.

[−a,a] [−a,a] −a

Rezultă  ε
|ϕX (t + h) − ϕX (t)| < ε, ∀ h ∈ 0, .
2a
36

Ca urmare, ϕX este uniform continuă pe R.


6. Se aplică teorema de derivare a integralelor improprii cu parametru.
7. Conform formulei anterioare, avem
Z ∞
(n) n
ϕX (0) = i xn e0 dF (x) = in E (X n ) .
−∞

Atunci, dezvoltând ı̂n serie Taylor exponenţiala, obţinem


Z ∞ Z ∞X ∞ ∞ ∞
itx (itx)n X tn n n
X tn (n)
ϕX (t) = e dF (x) = dF (x) = [i E (X )] = ϕ (0),
−∞ −∞ n=0 n! n=0
n! n=0
n! X

pentru oricare t ∈ R. 2
Teorema 2.9.2. (Teorema multiplicării) Dacă X1 , X2 , · · · , Xn sunt variabile aleatoare
independente, atunci
ϕX1 +X2 +···+Xn = ϕX1 ϕX2 · · · ϕXn .
Demonstraţie. Media produsului unui număr finit de variabile aleatoare independente
este egală cu produsul mediilor acestor variabile aleatoare. Atunci
n
! n n
 Pn  Y Y  Y
ϕ k=1 Xk (t) = E e
Pn it k=1 Xk
=E eitXk
= E e itXk
= ϕXk (t), t ∈ R. 2
k=1 k=1 k=1

Teorema 2.9.3. (Teorema de unicitate) Fie X o variabilă aleatoare cu funcţia de repartiţie


F şi funcţia caracteristică ϕX . Atunci
1.
c
e−itx1 − e−itx2
Z
1
F (x2 ) − F (x1 ) = P {x1 < X ≤ x2 } = lim ϕX (t) dt, ∀ x1 < x2 ;
π c→∞ −c it

2. c
e−ity − e−itx
Z
1
F (x) = lim lim ϕX (t) dt, ∀ x ∈ R.
2π y→−∞ c→∞ −c it
Demonstraţie. Se aplică transformarea Fourier inversă. 2
Exemplul 2.9.1. Funcţiile caracteristice ale unor distribuţii clasice.
1. Distribuţia Bernoulli: X ∼ Bin(1, p) ⇒ ϕX (t) = 1 + p (eit − 1) , t ∈ R.
n
2. Distribuţia binomială: X ∼ Bin(n, p) ⇒ ϕX (t) = [1 + p (eit − 1)] , t ∈ R.

3. Distribuţia Poisson: X ∼ P oiss(λ) ⇒ ϕX (t) = eλ(e ) , t ∈ R.


it −1

peit
4. Distribuţia geometrică: X ∼ Geom(p) ⇒ ϕX (t) = peit −eit +1
, t ∈ R.
t2 σ 2
5. Distribuţia normală: X ∼ N (µ, σ 2 ) ⇒ ϕX (t) = eiµt− 2 , t ∈ R.
λ
6. Distribuţia exponenţială: X ∼ Exp(λ) ⇒ ϕX (t) = λ−it
, t ∈ R.
37

2.10 Rezumat
Variabilele aleatoare se interpretează ca o ”enumerare” a rezultatelor (măsurabile) potenţiale
ale unui anumit experiment. Fiecare din aceste rezultate posibile are o probabilitate de
realizare.
Fie (Ω, F, P) un câmp de probabilitate. O funcţie măsurabilă reală X : Ω → R se
numeşte variabilă aleatoare. Conform definiţiei, {X ∈ I} ∈ F pentru orice interval real I.
In particular, {X ∈ (−∞, a]} = {X ≤ a} ∈ F, ∀ a ∈ R.
O funcţie X : Ω → Rd , (F, BRd ) măsurabilă, se numeşte vector aleator. Fie Xi , i =
1, 2, · · · , d, componentele scalare ale funcţiei X, deci X = (X1 , X2 , · · · , Xd ). Atunci
{X1 ≤ a1 , X2 ≤ a2 , · · · , Xd ≤ ad } ∈ F, ∀ (a1 , a2 , · · · , ad ) ∈ Rd .
Fie X : Ω → R o variabilă aleatoare. Funcţia reală F : R → [0, 1], definită prin
F (x) = P{X ≤ x} = P({ω ∈ Ω|X(ω) ≤ x}), x ∈ R,
se numeşte funcţia de repartiţie a variabilei aleatoare X.
Funcţia de repartiţie are următoarele proprietăţi:
1. F este monoton crescătoare pe R;
2. F este continuă la dreapta pe mulţimea R (F (x + 0) := lim F (t) = F (x), ∀ x ∈ R);
t↓x

3. lim F (x) = 0; lim F (x) = 1;


x→−∞ x→∞

4. F (x − 0) := lim F (t) = P{X < x}, ∀ x ∈ R;


t↑x

5. P{X = x} = F (x) − F (x − 0), ∀ x ∈ R;


6. P{a < X ≤ b} = F (b) − F (a), ∀ a, b ∈ R, cu a < b;
7. P{X > x} = 1 − F (x), ∀ x ∈ R.
Variabilele aleatoare Xi , i ∈ I, se numesc independente dacă, pentru oricare oricare
indici distincţi i1 , i2 , · · · , in din mulţimea I şi oricare A1 , A2 , · · · , An ∈ BR are loc
P{Xi1 ∈ A1 , Xi2 ∈ A2 , · · · , Xin ∈ An } = P{Xi1 ∈ A1 }P{Xi2 ∈ A2 } · · · P{Xin ∈ An }.
X se numeşte variabilă aleatoare discretă dacă mulţimea X(Ω) este cel mult numărabilă.
Fie X(Ω) = {xi , i ∈ I} ⊂ R, unde I este o mulţime deP indici cel mult numărabilă. Notăm
pi = P{X = xi }, i ∈ I. Avem pi ≥ 0, ∀ i ∈ I şi i∈I pi = 1. Distribuţia variabilei
aleatoare X se reprezintă prin:  
xi
X: .
pi i∈I
Variabila aleatoare X se numeşte de tip continuu dacă există o funcţie continuă f :
R → [0, ∞) cu proprietatea
Z x
F (x) = f (t) dt, ∀ x ∈ R.
−∞

Funcţia f se numeşte densitatea de probabilitate a variabilei aleatoare X (sau funcţia de


densitate a v.a. X).
Densitatea de probabilitate are proprietăţile:
38

1. F este de clasă C1 pe R, cu F 0 (x) = f (x), ∀ x ∈ R;


R
2. R f (t) dt = 1;
3. P{X = x} = 0, ∀ x ∈ R;
Rb
4. P{a ≤ X ≤ b} = a f (t) dt, ∀ [a, b] ⊂ R.
Fie X : Ω → R o variabilă aleatoare având funcţia de repartiţie F : R → [0, 1].
Mărimea: Z ∞
E(X) := x dF (x)
−∞
se numeşte media lui X. Media este definită ı̂n ipoteza că integrala de tip Stieltjes-Riemann
de mai sus este convergentă. Explicităm mai jos calculul mediei ı̂n cazul variabilelor de
tip discret şi de tip continuu.
1. Pentru o variabilă aleatoare X de tip discret, care ia valorile xi cu probabilităţile pi ,
pentru i ∈ I, avem: X
E(X) = xi p i .
i∈I

2. Pentru o variabilă aleatoare X de tip continuu, cu funcţia de densitate f : R →


[0, ∞), avem: Z ∞
E(X) := xf (x) dx.
−∞

Media are următoarele proprietăţi:


1. E(aX) = aE(X), ∀ a ∈ R;
2. E(X + Y ) = E(X) + E(Y );
3. dacă X şi Y sunt independente, atunci E(XY ) = E(X)E(Y ).
Dacă X admite funcţia de repartiţie F , iar ϕ este o fucţie reală măsurabilă, atunci
Z ∞
E(ϕ(X)) = ϕ(x) dF (x),
−∞

ı̂n ipoteza că integrala este convergentă.


Definim:
1. media de ordin k ∈ N∗ a variabilei aleatoare X :
Z ∞
k
xk dx,

E X =
−∞

dacă integrala este convergentă.


2. media absolută de ordin k ∈ N∗ a variabilei aleatoare X :
Z ∞
k
|x|k dx,

E |X| =
−∞

dacă integrala este convergentă. Notăm Lk = Lk (Ω) mulţimea variabilelor aleatoare


(definite pe Ω) cu medie absolută finită de ordinul k.
39

• Mărimea:
Z ∞
V (X) = (x − µ))2 dF (x) = E(X − E(X))2 = E(X 2 ) − E2 (X)
−∞

se numeşte dispersia lui X.

• Mărimea p
σ(X) = V (X)
se numeşte abaterea medie pătratică a variabilei aleatoare X.

Dispersia are următoarele proprietăţi:

1. V (X) ≥ 0;

2. V (X) = E(X 2 ) − [E(X)]2 (formula de calcul a dispersiei);

3. V (aX) = a2 V (X), ∀ a ∈ R;

4. dacă X şi Y sunt v.a. independente, atunci V (X + Y ) = V (X) + V (Y ).

Corelaţia a două variabile aleatoare este un indicator al tipului de dependenţă al aces-


tora. Astfel, corelaţia variabilelor aleatoare X şi Y se defineşte prin:

λ(X, Y ) = E{[X − E(X)][Y − E(Y )]}.

Mărimea
λ(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
se numeşte coeficientul de corelaţie al variabilelor aleatoare X şi Y . Formula de calcul a
corelaţiei λ(X, Y ) = E(XY ) − E(X)E(Y ).
Dacă X şi Y sunt v.a. independente, atunci λ(X, Y ) = 0;
Avem ρ(X, Y ) ∈ [−1, 1].
Fie X o variabilă aleatoare având funcţia de repartiţie F . Funcţia ϕX : R → C ,
definită prin Z ∞
itX
eitx dF (x), t ∈ R,

ϕX (t) = E e =
−∞

se numeşte functia caracteristică a variabilei aleatoare X.


Dacă X este o variabilă aleatoare de tip continuu, cu densitatea de probabilitate f ,
atunci Z ∞
ϕX (t) = eitx f (x)dx, t ∈ R.
−∞

Dacă X este o variabilă aleatoare discretă, cu distribuţia


 
xk
X: ,
pk k∈I

eitxk pk .
P
atunci ϕX (t) = k∈I
40

2.11 Test
1. Definiţi funcţia de repartiţie a unei variabile aleatoare şi descrieţi proprietăţile aces-
teia. Discutaţi cazul variabilelor aleatoare independente.
2. Calculaţi media, dispersia şi funcţia caracteristică pentru o variabilă aleatoare:
(a) Poisson;
(b) exponenţială;
(c) geometrică.
3. Variabila aleatoare X are distribuţia discretă:
 
1 2 3
X: ,
p1 p2 p3
7
unde p1 , p2 , p3 > 0, cu p1 + p2 + p3 = 1. Ştiind că X are media E(X) = 4
şi dispersia
V (X) = 1116
, să se determine probabilităţile p1 , p2 , p3 .
4. Să se determine constantele reale a şi b astfel ca funcţia F (x) = a + b arctg x, x ∈ R,
să fie funcţia de repartiţie a unei variabile aleatoare X şi apoi să se calculeze E(X 2 ).
5. Fie funcţia f : R → R,
√ a

1−x2
, x ∈ (−1, 1)
f (x) = .
0, x ∈ (−∞, −1] ∪ [1, ∞)
(a) Să se determine a > 0 astfel ı̂ncât f să reprezinte densitatea de probabilitate a
unei variabile aleatoare X.
(b) Să se determine media E(X) şi dispersia V (X) a variabilei aleatoare X.
(c) Să se calculeze P |X| ≤ 21 .


6. Timpul de aşteptare ı̂ntr-o staţie de autobuz este o variabilă aleatoare cu funcţia de


repartiţie 

 0, x < 0;
 x/2, 0 ≤ x < 1;


F (x) = 1/2, 1 ≤ x < 2;
x/4, 2 ≤ x < 4;




1, x ≥ 4.

Să se determine:
(a) probabilitatea ca o persoană să aştepte ı̂n staţie mai mult de 3 minute;
(b) probabilitatea ca o persoană să mai aştepte ı̂n staţie cel puţin de 2 minute,
după ce a aşteptat 1 minut.
7. Să se calculeze funcţia caracteristică a variabilei aleatoare X cu densitatea de prob-
abilitate: (
0,  |x| ≥ 2;
f (x) = 1 |x| .
2
1 − 2 , |x| < 2
Capitolul 3

Convergenţa şirurilor de variabile


aleatoare

3.1 Introducere
Studiul convergenţa şirurilor de variabilelor aleatoare, ı̂n accepţiuni specifice teoriei prob-
abilităţilor, evidenţiază fenomene asimptotice utile. Un şir de variabile aleatoare poate
converge la o variabilă aleatoare (distribuţie limită) ı̂n sens ”tare” sau ı̂n sens ”slab”.
Convergenţa frecvenţei de realizare a unui eveniment, ı̂ntr-un şir de experienţe identice
şi independente, la probabilitatea acelui eveniment este asigurată de Legea numerelor
mari. Legea slabă a numerelor mari se deduce din inegalitatea lui Cebı̂şev. Teorema
limită centrală, considerat cel mai important rezultat al teoriei probabilităţilor, stabileşte
convergenţa la legea normală a distribuţiei normalizate a sumelor parţiale ale unui şir de
variabile aleatoare independente şi identic distribuite. Rezultatele asimptotice menţionate
au o importanţă majoră ı̂n statistica matematică.

3.2 Inegalităţi fundamentale ı̂n teoria probabilităţilor


Următoarele inegalităţi elementare joacă un rol fundamental ı̂n teoria probabilităţilor.

Teorema 3.2.1. (Inegalitatea lui Markov) Fie X ∈ Ln (Ω), unde n ∈ N∗ . Atunci

E (|X|n )
P{|X| > a} ≤ , ∀ a > 0.
an

Demonstraţie. Fie F funcţia de repartiţie a variabilei aleatoare X ∈ Ln (Ω). Pentru


a > 0, avem
Z Z Z
n n n n
E (|X| ) = |x| dF (x) + |x| dF (x) ≥ a 1 dF (x)
[−a,a] (−∞,−a]∪[a,∞) (−∞,−a]∪[a,∞)

= an [F (−a) + 1 − F (a)] ≥ an P{|X| > a},


de unde concluzia.

41
42

Teorema 3.2.2. (Inegalitatea lui Cebı̂şev (Chebyshev)) Fie X ∈ L2 (Ω), având media
E(X) = µ şi dispersia V (X) = σ 2 . Atunci

σ2
P{|X − µ| > a} ≤ , ∀ a > 0.
a2
Demonstraţie. Aplicăm inegalitatea lui Markov variabilei aleatoare Z = X − µ, pentru
n = 2.
Inegalitatea lui Cebı̂şev se utilizează la demonstrarea legii slabe a numerelor mari.
1 1
Teorema 3.2.3. (Inegalitatea lui Hölder) Fie p, q > 1 astfel ca + = 1. Pentru două
p q
variabile aleatoare X şi Y are loc inegalitatea
1 1
E(|XY |) ≤ [E (|X|p )] p · [E (|Y |q )] q .

În particular, pentru Y = 1, avem


1
E(|X|) ≤ [E (|X|p )] p , ∀ p > 1.

Pentru p = 2, obţinem inegalitatea lui Cauchy-Buniakovski:


p
E(|X|) ≤ E (X 2 ).

Inegalitatea de mai sus exprimă faptul că dispersia variabilei aleatoare X ∈ L2 (Ω) este
pozitivă. Astfel,

V (X) = E X 2 − [E(X)]2 ≥ E X 2 − [E(|X|)]2 ≥ 0.


 

Teorema 3.2.4. (Inegalitatea lui Lyapunov) Fie X o variabilă aleatoare şi r, s ∈ N∗ , cu


r < s. Are loc inegalitatea
1 1
[E (|X|r )] r ≤ [E (|X|s )] s .
1 1
Demonstraţie. Fie p = s/r > 1 şi q = p/(p − 1) > 1. Avem + = 1. Atunci, conform
p q
inegalităţii lui Hölder, obţinem
1 1 1
[E (|X|r )] r ≤ [E (|X|pr )] rp = [E (|X|s )] s . 2

Consecinţă. Ln (Ω) ⊂ Ln+1 (Ω), ∀ n ∈ N∗ .

3.3 Tipuri de convergenţă. Relaţii


Vom defini convergenţa şirurilor de variabile aleatoare, ı̂n diverse accepţiuni. Studiul
comportării asimptotice a şirurilor de variabile aleatoare reprezintă o preocupare majoră
a teoriei probabilităţilor.
Definiţia 3.3.1. Fie X o variabilă aleatoare şi (Xn )n≥1 un şir de variabile aleatoare defi-
nite pe câmpul de probabilitate (Ω, F, P). Fie F funcţia de repartiţie a variabilei aleatoare
X, iar Fn funcţia de repartiţie a variabilei aleatoare Xn , n ≥ 1. Definim următoarele
tipuri de convergenţă ale şirului (Xn )n≥1 către limita X:
43

1. şirul (Xn )n≥1 converge ı̂n distribuţie (repartiţie) la X, notat prin


d
Xn → X,

dacă lim Fn (x0 ) = F (x0 ), pentru orice punct de continuitate x0 ∈ R al funcţiei F ;


n→∞

2. şirul (Xn )n≥1 converge ı̂n probabilitate la X, notat prin


p
Xn → X,

dacă lim P {|Xn − X| > ε} = 0, ∀ ε > 0;


n→∞

3. şirul (Xn )n≥1 converge aproape sigur la X, notat prin


a.s.
Xn → X,

dacă P {Xn → X} = 1;

4. şirul (Xn )n≥1 converge ı̂n spaţiul Lk (Ω) la X, unde k ∈ N∗ , notat prin
Lk
Xn → X,
 
dacă lim E |Xn − X|k = 0.
n→∞

Convergenţele ”ı̂n distribuţie” şi ”ı̂n probabilitate” sunt convergenţe slabe, ı̂n timp ce
convergenţele ”aproape sigură” şi ”ı̂n spaţiul Lk (Ω)” sunt convergenţe tari. Această clasifi-
care formală este susţinută de următoarea teoremă de ierarhizare a tipurilor de convergenţă
definite anterior.
Teorema 3.3.1. Fie X o variabilă aleatoare şi (Xn )n≥1 un şir de variabile aleatoare
definite pe câmpul de probabilitate (Ω, F, P). Au loc implicaţiile
1.
p d
Xn → X =⇒ Xn → X;

2.
a.s. p
Xn → X =⇒ Xn → X;

3.
Lk p
Xn → X =⇒ Xn → X.

Implicaţiile reciproce sunt false.


Demonstraţie.
p
1. Presupunem Xn → X. Fie x0 ∈ R un punct de continuitate al funcţiei F . Considerăm
ε > 0, arbitrar. Deoarece, pentru n ≥ 1, avem

{X ≤ x0 − ε} \ {|Xn − X| > ε} ⊂ {X ≤ x0 − ε} \ {X < Xn − ε} ⊂ {Xn ≤ x0 } ,

obţinem

F (x0 − ε) − P {|Xn − X| > ε} ≤ P ({X ≤ x0 − ε} \ {|Xn − X| > ε}) ≤ Fn (x0 ) .


44

Pe baza ipotezei, lim P {|Xn − X| > ε} = 0. Atunci


n→∞

F (x0 − ε) ≤ lim inf Fn (x0 ) . (3.1)


n→∞

Apoi, pentru n ≥ 1, avem

{Xn ≤ x0 } \ {|Xn − X| > ε} ⊂ {Xn ≤ x0 } \ {Xn < X − ε} ⊂ {X ≤ x0 + ε} ,

de unde

Fn (x0 ) − P {|Xn − X| > ε} ≤ P ({Xn ≤ x0 } \ {|Xn − X| > ε}) ≤ F (x0 + ε) .

Pe baza ipotezei, rezultă


lim sup Fn (x0 ) ≤ F (x0 + ε) . (3.2)
n→∞
d
Din (3.1), (3.2) şi continuitatea lui F ı̂n x0 , obţinem lim Fn (x0 ) = F (x0 ). Deci Xn → X.
n→∞
a.s.
2. Presupunem Xn → X. Avem

ω ∈ {Xn → X} ⇔ ∀ ε > 0, ∃ n ≥ 1, ∀ k ≥ n : |Xn (ω) − X(ω)| < ε.

Conform ipotezei, rezultă

P ∪∞ ∞


n=1 p=0 {|X n+p − X| < ε} = 1, ∀ ε > 0,

de unde
lim P ∩∞

p=0 {|Xn+p − X| < ε} = 1, ∀ ε > 0.
n→∞

Cum ∩∞
p=0 {|Xn+p − X| < ε} ⊂ {|Xn − X| < ε}, vom deduce

lim P{|Xn − X| < ε} = 1, ∀ ε > 0,


n→∞

sau, trecând la evenimentele contrare,

lim P{|Xn − X| ≥ ε} = 0, ∀ ε > 0.


n→∞

p
Rezultă Xn → X.
3. Implicaţia rezultă din inegalitatea lui Markov. Astfel, pentru oricare ε > 0, avem

E |Xn − X|k
P{|Xn − X| > ε} ≤ → 0, pentru n → ∞.
εk
2

3.4 Legile numerelor mari


Legea numerelor mari reflectă următoare proprietate: frecvenţa de apariţie a unui eveni-
ment ı̂ntr-un şir de experienţe identice, independente, tinde către probabilitatea de realizare
a evenimentului ı̂n fiecare experienţă. Proprietatea a fost descrisă pentru prima dată la
45

sfârşitul sec. al XVI-lea de matematicianul italian Gerolamo Cardano (1501-1576). For-


malizarea matematică (pentru variabile aleatoare binare) ca o lege a numerelor mari i
se datorează lui Jacob Bernoulli (publicată ı̂n lucrarea Ars conjectandi, 1713). În 1837,
S.D. Poisson a descris-o sub numele de ”la Loi des grands nombres”. Contribuţii impor-
tante la demonstrarea riguroasă şi extinderea rezultatului sunt datorate lui Chebyshev
(demonstrarea legii slabe a numerelor mari, 1837), Markov, Borel (demonstrarea legii tari
a numerelor mari, 1909), Cantelli, Kolmogorov şi Khinchin.
Formalizarea Bernoulli a fenomenului observat de Cardano este următoarea. Să con-
siderăm că, ı̂ntr-o experienţă, un anumit eveniment A se produce cu probabilitatea p =
P(A). Fie şirul (Xn )n≥1 de variabile aleatoare Bernoulli, independente şi identic distribuite
(iid), asociate şirului de experienţe considerat, având distribuţia comună
 
0 1
Xn : , n ∈ N∗ .
q p

Notăm Sn = X1 +X2 +· · ·+Xn care indică numărul de apariţii (realizări) ale evenimentului
A ı̂n n experienţe. Frecvenţa de realizare a evenimentului A este deci Sn /n. Fenomenul
descris de legea numerelor mari este prin urmare

Sn
→ p = E(X1 ).
n
Conergenţa frecvenţei de apariţie a evenimentului la probabilitatea sa se poate realiza ı̂n
sensul unui tip de convergenţă slab (lege slabă a numerelor mari) sau ı̂n sensul unui tip de
convergenţă tare (lege tare a numerelor mari). Rezultatul este extins la variabile aleatoare
cu medie şi dispersie finite.

Teorema 3.4.1. (Legea slabă a numerelor mari)


Fie (Xn )n≥1 un şir de variabile aleatoare independente şi identic distribuite (iid), cu
E(X1 ) = µ şi V (X1 ) = σ 2 . Notăm Sn = X1 + X2 + · · · + Xn , n ∈ N∗ . Atunci are
loc convergenţa ı̂n probabilitate
Sn p
→ µ.
n
Demonstraţie. Vom interpreta µ = E(Xn ), n ∈ N∗ , ca P o variabilă aleatoare constantă,
n
care
Pn ia valoarea µ2 cu probabilitatea 1. Avem E(Sn ) = k=1 E(Xk ) = nµ şi V (Sn ) =
k=1 V (X k ) = nσ . Fie ε > 0, arbitrar. Conform inegalităţii lui Chebyshev,

σ2
 
Sn V (Sn )
P − µ > ε = P {|Sn − E(Sn )| > nε} ≤ 2 2 = 2 .

n nε nε

Rezultă  
Sn
lim P − µ > ε = 0.

n→∞ n
Cum ε > 0 este arbitrar, obţinem concluzia.
Menţinăm că legea slabă a numerelor poate fi formulată pentru şiruri de variabile aleatoare
independente (dar neidentic distribuite) cu dispersii uniform marginite (Chebyshev), re-
spectiv pentru siruri de variabile de v.a. cu proprietatea V (Sn )/n2 → 0 (Markov).
Prezentăm (fără) demonstraţie şi o versiune a legii tari a numerelor mari.
46

Teorema 3.4.2. (Legea tare a numerelor mari)


Fie (Xn )n≥1 un şir de variabile aleatoare independente şi identic distribuite (iid), din
spaţiul L4 (E(|X1 |4 ) < ∞) cu E(X1 ) = µ. Fie Sn = X1 + X2 + · · · + Xn , n ∈ N∗ . Atunci
Sn a.s.
→ µ.
n

3.5 Teorema limită centrală


Teorema limită centrală, ı̂n versiunea clasică, stabileşte că sumele parţiale ”normalizate”
ale unui şir de variabile aleatoare iid, cu dispersie finită, tind ı̂n distribuţie către legea
normală (gaussiană). Rezultatul admite numeroase extinderi relativ la şiruri de variabile
aleatoare heterogene, neindependente, supuse unor anumite condiţii. De asemenea, rezul-
tatul se extinde la şiruri de vectori aleatori.
Prima versiune a acestei teoreme a fost formulată de Abraham de Moivre (1733) pentru
variabile aleatoare de tip Bernoulli, cu p = 1/2). Pierre-Simon Laplace generalizează
rezultatul ı̂n lucrarea Theorie Analytique des Probabilités (1812), constatând apropierea
distribuţiei binomiale de distribuţia normală. În 1901, matematicianul rus Aleksandr
Lyapunov a definit ı̂n termeni generali şi a demonstrat riguros teorema limită centrală.
Teorema limită centrală este considerată rezultatul principal al teoriei probabilităţilor.
Enunţăm pentru ı̂nceput rezultatul datorat lui de Moivre şi Laplace relativ la şiruri iid
de v. a. Bernoulli.
Teorema 3.5.1. (Teorema de Moivre-Laplace) Fie (Xn )n≥1 un şir de variabile aleatoare
Bernoulli independente şi identic distribuite (iid), de parametru p, având
Pn media comună

p şi dispersia comună pq (unde q=1-p). Pentru n ∈ N , notăm Sn = k=1 Xk şi
 
k − np
In = √ , k = 0, 1, · · · , n .
npq
Atunci, pentru oricare interval [a, b] ⊂ R, are loc:
  !
p S n − np x2
lim sup 2πnpq · P √ = x − e− 2 = 0
n→∞ x∈I ∩[a,b]
n
npq

Demonstraţia se bazează pe aproximarea factorialului dată de formula lui Stirling


√  n n
n! = 2nπ eθn ,
e
1
unde 0 < θn < 12n , n ≥ 1. Din Teorema de Moivre-Laplace se deduce o versiune
particulară a Teoremei limită centrală. Enunţul clasic general al acestei teoreme este
prezentat ı̂n continuare.
Teorema 3.5.2. (Teorema limită centrală) Fie (Xn )n≥1 un şir de variabile aleatoare in-
dependente şi identic distribuite (iid), cu E(X1 ) = µ şi V (X1 ) = σ 2 . Considerăm şirul de
variabile aleatoare Sn = X1 + X2 + · · · + Xn , n ∈ N∗ . Atunci:
1.   Z b
Sn − nµ 1 x2
lim P a ≤ √ ≤b = √ e− 2 , ∀ a, b ∈ R, a < b;
n→∞ σ n 2π a
47

2. (versiunea Lindeberg-Lévy) Are loc următoarea convergenţa ı̂n distribuţie către o


variabilă aleatoare gaussiană:
√  
n Sn d
− µ → X,
σ n

unde X ∼ N (0, 1).

Demonstraţie. (schiţă)
Considerăm şirul de v. a. iid Yn = Xnσ−µ , n ≥ 1, de medie comună 0 şi dispersie comună 1.
Atunci, conform Teoremei 2.9.1, 7, funcţia caracteriatică a variabilelor aleatoare Yn este
de forma
t2
ϕYn (t) = 1 − + 0 t2 , t → 0.

2
Fie Pn
Yk Sn − nµ
Zn = k=1 √ = √ , n ≥ 1.
n σ n
Pe baza proprietăţilor funcţiei caracteristice (Teorema 2.9.1), obţinem
n   2 n
t2
 
t t n→∞ t2
ϕZn (t) = ϕY1 √ = 1− +0 → e− 2 .
n 2n n
t2
Dar, pentru X ∈ N (0, 1), avem ϕX (t) = e− 2 , t ∈ R (a se vedea Exemplul 3.10.1). Con-
d
form teoremei de unicitate (Teorema 2.9.2) se obţine Zn → X. Astfel, teorema limită
centrală este demonstrată.
48

3.6 Rezumat
Inegalitatea lui Markov Fie X ∈ Ln (Ω), unde n ∈ N∗ . Atunci

E (|X|n )
P{|X| > a} ≤ , ∀ a > 0.
an

Inegalitatea lui Cebı̂şev (Chebyshev) Fie X ∈ L2 (Ω), având media E(X) = µ şi
dispersia V (X) = σ 2 . Atunci

σ2
P{|X − µ| > a} ≤ , ∀ a > 0.
a2

Definim următoarele tipuri de convergenţă ale şirului (Xn )n≥1 către limita X:

1. şirul (Xn )n≥1 converge ı̂n distribuţie (repartiţie) la X, notat prin

d
Xn → X,

dacă lim Fn (x0 ) = F (x0 ), pentru orice punct de continuitate x0 ∈ R al funcţiei F ;


n→∞

2. şirul (Xn )n≥1 converge ı̂n probabilitate la X, notat prin


p
Xn → X,

dacă lim P {|Xn − X| > ε} = 0, ∀ ε > 0;


n→∞

3. şirul (Xn )n≥1 converge aproape sigur la X, notat prin


a.s.
Xn → X,

dacă P {Xn → X} = 1;

4. şirul (Xn )n≥1 converge ı̂n spaţiul Lk (Ω) la X, unde k ∈ N∗ , notat prin

Lk
Xn → X,
 
k
dacă lim E |Xn − X| = 0.
n→∞

Au loc implicaţiile
p d
• Xn → X =⇒ Xn → X;
a.s. p
• Xn → X =⇒ Xn → X;

Lk p
• Xn → X =⇒ Xn → X.
49

Implicaţiile reciproce sunt false.


Legea slabă a numerelor mari Fie (Xn )n≥1 un şir de variabile aleatoare indepen-
dente şi identic distribuite (iid), cu E(X1 ) = µ şi V (X1 ) = σ 2 . Notăm Sn = X1 + X2 +
· · · + Xn , n ∈ N∗ . Atunci are loc convergenţa ı̂n probabilitate
Sn p
→ µ.
n
Legea tare a numerelor mari Fie (Xn )n≥1 un şir de variabile aleatoare independente
şi identic distribuite (iid), din spaţiul L4 (E(|X1 |4 ) < ∞) cu E(X1 ) = µ. Fie Sn =
X1 + X2 + · · · + Xn , n ∈ N∗ . Atunci
Sn a.s.
→ µ.
n
Teorema limită centrală Fie (Xn )n≥1 un şir de variabile aleatoare independente şi
identic distribuite (iid), cu E(X1 ) = µ şi V (X1 ) = σ 2 . Considerăm şirul de variabile
aleatoare Sn = X1 + X2 + · · · + Xn , n ∈ N∗ . Atunci:

1.   Z b
Sn − nµ 1 x2
lim P a ≤ √ ≤b = √ e− 2 , ∀ a, b ∈ R, a < b;
n→∞ σ n 2π a
2. (versiunea Lindeberg-Lévy) Are loc următoarea convergenţa ı̂n distribuţie către o
variabilă aleatoare gaussiană:
√  
n Sn d
− µ → X,
σ n

unde X ∈ N (0, 1).


50

3.7 Test
1. Să se enunţe şi să se demonstreze Legea slabă a numerelor mari.

2. Să se enunţe Teorema limită centrală, adaptată pentru variabile aleatoare de tip
geometric.

3. Să se determine funcţia de repartiţie a variabilei aleatoare X care admite funcţia


caracteristică
1 2
ϕX (t) = 1 + eit .
4
4. Inegalitatea lui Cebı̂şev aplicată variabilei aleatoare X, cu media E(X) = 3 şi dis-
persia V (X) = σ 2 , stabileşte:

P {|X − 3| ≥ 2} ≤ 0, 16.

Să se determine σ.

5. La un concurs de biatlon, un sportiv nimereste ţinta cu probabilitatea de 54 . Ştiind


că sportivul execută ı̂n concurs 25 de trageri, să se arate că şansa ca acesta să
nimerească ţinta de cel puţin 15 ori este mai mare de 85%.

6. Probabilitatea ca un monitor de calculator să nu aibă rezoluţia acceptabilă este de


0,1. S-au cumpărat 1000 de monitoare. Care este probabilitatea ca mai mult de 100
monitoare să nu fie acceptabile? (Notă: se va utiliza aproximarea oferită de Teorema
limită centrală.)
Capitolul 4

Elemente de statistică matematică

4.1 Introducere

Statistica matematica este o ramură importantă a matematicii, care utilizează rezultatele


oferite de teoria probabilităţilor. Progresul ı̂n societate, ı̂n particular ı̂n ştiinţă, este ade-
seori datorat experimentului. Cercetătorul realizează o experienţă şi obţine o serie de
date, pe baza cărora generealizează rezultatele experienţei la o clasă de experienţe sim-
ilare. Acest tip de extindere se datorează unui raţionament de tip inductiv (obţinerea
unor informaţii generale din analiza unor informaţii particulare). Statistica analizează
date concrete, locale, obţinute experimental, pentru a prognoza date cu caracter general,
a descoperi legile care guvernează fenomemul aleator studiat. În acelaşi timp, statistica se
preocupă de verosimilitatea matematică a prognozei, măsurând cu mijloace matematice
gradul de ı̂ncredere ı̂n rezultatele generale propuse.
Prezentarea de faţă are ca obiectiv familiarizarea cu câteva noţiuni de bază din teoria
statisticii matematice, precum: populaţie statistică, sondaj, eşantion, estimator şi carac-
teristicile sale. Pentru simplificarea expunerii, ne vom rezuma la descrierea unor elemente
de statistica eşantioanelor Bernoulli.

4.2 Noţiuni de bază

Statistica operează cu noţiuni specifice. Astfel, populaţia statistică reprezintă mulţimea


tuturor elementelor avute ı̂n vedere ı̂n cadrul unui studiu statistic. De regulă, pentru
o populaţie mare, studiul statistic se realizează prin sondaj . Sondajul constă ı̂n obser-
varea (examinarea, chestionarea) unei părţi a populaţiei, numită eşantion. Numărul ele-
mentelor unui eşantion (obţinut prin sondaj şi examinat) se numeşte volumul eşantionului.
De regulă, volumul eşantionului se stabileşte (pe baza unor evaluări matematice) ast-
fel ı̂ncât să poată furniza date generale concludente/veridice. Scopul studiului statistic
este estimarea unei proprietăţii/particularităţi a populaţiei statistice. Funcţia matem-
atică care realizează estimarea se numeşte estimator. Apelând la modelul particular al
eşantioanelor Bernoulli, vom trece ı̂n revistă calităţile impuse unui estimator de calitate.

51
52

4.3 Estimatori. Proprietăţi


Cel mai simplu studiu statistic se referă la analiza cazului binar: fiecare individ (element)
al populaţiei statistice are valoarea 1 sau 0 (răspunde cu 1 sau 0 la un chestionar). Ne
interesează proporţia indivizilor cu valoarea 1 ı̂n cadrul ı̂ntregii populaţii statistice. Ex-
aminarea/chestionarea indivizilor prin sondaj se modelează printr-o variabilă aleatoare
”bservabilă”, care indică numărul indivizilor care valorează 1 ı̂ntr-un eşantion de volum
n. La o populaţie ”mică”, este logic să apelăm la modelul oferit de legea hipergeometrică,
ı̂ntrucât extragerea unui eşantion dintr-o populaţie mică afectează ı̂n mod cert proporţia
valorii 1 ı̂n cadrul populaţiei nesondate. În schimb, dacă volumul populaţiei este ”mare”
ı̂n raport cu volumul eşantionului atunci este rezonabil să consideră că fiecare element al
populaţiei statistice se reprezintă printr-o variabilă aleatoare Bernoulli X, cu distribuţia
 
0 1
X: ,
1−θ θ
unde parametrul θ (necunoscut) reprezintă proporţia valorii 1 ı̂n populaţia statistică.
Astfel, P{X = 1} = θ reprezintă şansa ca elementul X să aibă valoarea 1. Evident,
P{X = 0} = 1 − θ reprezintă şansa ca X să ia valoarea 0. Obiectul studiului statistic
ı̂ntreprins constă ı̂n estimarea parametrului θ, din observarea unui eşantion de volum n,
(X1 , X2 , · · · , Xn ), reprezentând un vector aleator cu componentele variabile aleatoare iid,
de tip Bin(1, θ). Distribuţia eşantionului se defineşte distribuţia comună a v. a.
X1 , X2 , · · · , Xn .
O statistică (sau un estimator ) se defineşte ca o funcţie a variabilelor aleatoare
”observabile” (cele ale n-eşantionului), deci care nu depinde de parametrii necunoscuţi.
Pentru evaluarea apriorică a parametrului necunoscut θ se propune estimatorul media
empirică, definit prin:
Sn
X= , unde Sn = X1 + X2 + · · · + Xn .
n
În fapt, media empirică exprimă frecvenţa de apariţie a valorii 1, deci, intuitiv, pare a
oferi o bună evaluare a parametrului θ. Descriem ı̂n continuare proprietăţile principale ale
mediei empirice X, ca estimator a lui θ.

1. X este un estimator fără abatere a lui θ: Eθ (X) = θ, ∀ θ ∈ (0, 1).

Demonstraţie. Eθ (X) = [ nk=1 Eθ (Xk )] /n = (nθ)/n = θ.


P

2. X este unicul estimator fără abatere a lui θ, care depinde de Sn .

Demonstraţie. Fie g : {0, 1, 2, · · · , n} → R, astfel ı̂ncât


θ = Eθ [g(Sn )] = θ, ∀ θ ∈ (0, 1). (4.1)
Avem n n
X X
Eθ [g(Sn )] = g(k)P{Sn = k} = g(k)Cnk θk (n − θ)1−k ,
k=0 k=0
53

iar pe de altă parte


  n n
Sn X k X k
θ = Eθ (X) = Eθ = P{Sn = k} = Cnk θk (1 − θ)n−k .
n k=0
n k=0
n

Atunci, conform (4.1), obţinem


n    k
X k θ
g(k) − Cnk = 0, ∀ θ ∈ (0, 1).
k=0
n 1−θ

Rezultă că polinomul f = nk=0 g(k) − nk Cnk X k este identic nul.


P 

Prin urmare g(k) = k/n, k = 0, 1, · · · , n, deci g(Sn ) = X.

3. X este estimatorul lui θ de maximă verosimilitate.

n
Pn Să presupunem că au fost observate valorile (x1 , xsn2 , · · · , xn−s
Demonstraţie. n ) ∈ {0, 1} .
Notăm sn = n=1 xk . Probabilitatea de a observa aceste valori este θ (1−θ) n . Atunci,
cea mai verosimilă valoare pe care o poate lua θ este cea care maximizează funcţia

L : [0, 1] → [0, 1], L(u) = usn (1 − u)n−sn .

Presupunem 0 < sn < n. Avem


sn − nu
L0 (u) = L(u) .
u(1 − u)
Rădăcina derivatei lui L este u0 = snn . Urmărind semnul derivatei, deducem că L ı̂şi atinge
maximul ı̂n u0 . Rezultă că X = Sn /n este estimatorul de verosimilitate maximă.

4. Când talia eşantionului tinde la infinit, X converge la θ cu o rată exponenţială.

Demonstraţie. Vom remarca ı̂n primul rând că, pe baza inegalităţii lui Chebyshev,
p
X → θ (legea slabă numerelor mari).

Pe de altă parte, conform Teoremei limită centrală (Teorema 3.5.2),


r
n  d
X − θ → X,
θ(1 − θ)

unde X ∈ N (0, 1).


Faptul că rata convergenţei este exponenţială se deduce din Teorema marilor deviaţii,
pe care nu o vom include ı̂n această prezentare.

5. Riscul pătratic mediu al estimatorului X a lui θ converge la 0.


54
2
Demonstraţie. Riscul pătratic mediu al estimatorului X este defint prin Eθ X − θ .
Avem
 2
2 Sn 1 n θ(1 − θ) 1
Eθ X − θ = Eθ − θ = 2 Eθ (Sn − nθ)2 = 2 V (X1 ) = ≤ ,
n n n n 4n
2 n→∞
de unde Eθ X − θ → 0.

6. Abaterea lui X faţă de θ poate fi evaluată prin Teorema limită centrală.


4θ(1−θ)
Demonstraţie. Fie a > 0. Pentru n ≥ a2
, avem √a n
≥ 2, de unde
θ(1−θ)
(
S − nθ
√ )
n a n
Pθ {|X − θ| ≥ a} = P p ≥ p

nθ(1 − θ) θ(1 − θ)
( )
S − nθ 1
Z
x2
n
≤ P p ≥2 ≈ √ e− 2 dx < 0, 05.

nθ(1 − θ) 2π |x|≥2

4.4 Estimatori bayesieni


Media empirică X este o estimare judicioasă a parametrului θ ı̂n absenţa oricăror informaţii
suplimentare. Dar problema se modifică ı̂n cazul unor informaţii apriorice despre θ. Dacă
aceste informaţii există, mai precis, dacă se cunoaşte o măsură de probabilitate pe [0, 1]
reprezentând distribuţia valorilor posibile ale lui θ, atunci se va cerceta estimatorul g(Sn )
a lui θ care minimizează riscul pătratic mediu, ţinând cont de această distribuţie.
FiePD o mulţime numărabilă din [0, 1], iar ρ : D → [0, 1] o măsură de probabilitate pe
D, cu x∈D ρ(x) = 1. Pentru o funcţie g definită pe {0, 1, · · · , n} cu valori ı̂n [0, 1], riscul
pătratic mediu al estimatorului g(Sn ) este
X X n
X
2
ρ(θ)Eθ [g(Sn ) − θ] = ρ(θ) (g(k) − θ)2 Cnk θk (1 − θ)n−k
θ∈D θ∈D k=0

n
!
X X
= Cnk 2 k
ρ(θ)(g(k) − θ) θ (1 − θ) n−k
.
k=0 θ∈D

Pentru k ∈ {0, 1, · · · , n}, considerăm funcţia ψk : [0, 1] → [0, ∞), definită prin
X
ψk (x) = ρ(θ)θk (1 − θ)n−k (x − θ)2 , x ∈ [0, 1].
θ∈D

Avem X
ψk0 (x) = 2 ρ(θ)θk (1 − θ)n−k (x − θ), x ∈ [0, 1].
θ∈D

Studiind semnul derivatei, deducem că ψk atinge minimul ı̂n punctul


ρ(θ)θk+1 (1 − θ)n−k
P
xk = Pθ∈D k n−k
∈ [0, 1].
θ∈D ρ(θ)θ (1 − θ)
55

Vom defini deci estimatorul bayesian a lui θ de risc pătratic mediu minim:

ρ(θ)θSn +1 (1 − θ)n−Sn
P
g(Sn ) = Pθ∈D Sn n−Sn
.
θ∈D ρ(θ)θ (1 − θ)

Similar, dacă se cunoaşte ”a priori” densitatea de probabilitate f a lui θ pe intervalul


[0, 1], atunci estimatorul bayesian a lui θ, dependent de Sn , având riscul pătratic minim,
va fi R 1 S +1
0
θ n (1 − θ)n−Sn f (θ)dθ
g(Sn ) = R 1 .
0
θSn (1 − θ)n−Sn f (θ)dθ
56

4.5 Rezumat
Statistica matematica utilizează rezultatele oferite de teoria probabilităţilor pentru a gene-
realiza rezultatele unei experienţ la o clasă de experienţe similare. Acest tip de extindere se
datorează unui raţionament de tip inductiv (obţinerea unor informaţii generale din analiza
unor informaţii particulare). Statistica analizează date concrete, locale, obţinute exper-
imental, pentru a prognoza date cu caracter general, a descoperi legile care guvernează
fenomemul studiat.
Noţiuni specifice:
• populaţia statistică reprezintă mulţimea tuturor elementelor avute ı̂n vedere ı̂n
cadrul unui studiu statistic;
• sondajul reprezintă examinarea (chestionarea) unei părţi a populaţiei statistice, nu-
mită eşantion;
• numărul elementelor unui eşantion (obţinut prin sondaj şi examinat) se numeşte
volumul eşantionului ;
• scopul unui studiu statistic este estimarea unei proprietăţii/particularităţi a populaţiei
statistice. Funcţia matematică care realizează estimarea se numeşte estimator ;
• o statistică (sau un estimator se defineţe ca o funcţie de variabilelor aleatoare
observabile (cele ale n-eşantionului) şi nu depinde de parametrii necunoscuţi.
Statistica eşantioanelor Bernoulli.
Modelare: fiecare element al populaţiei statistice se reprezintă printr-o variabilă aleatoare
Bernoulli X, cu distribuţia  
0 1
X: ,
1−θ θ
Pentru evaluarea apriorică a prametrului necunoscut θ se propune estimatorul media
empirică, definit prin:
Sn
X= , unde Sn = X1 + X2 + · · · + Xn .
n
Media empirică exprimă frecvenţa de apariţie a valorii 1, deci oferă o evaluare a parametru-
lui θ. Proprietăţile principale ale mediei empirice X, ca estimator a lui θ.
1. X este un estimator fără abatere a lui θ: Eθ (X) = θ, ∀ θ ∈ (0, 1).
2. X este unicul estimator fără abatere a lui θ, care depinde de Sn .
3. X este estimatorul lui θ de maximă verosimilitate
4. Când talia eşantionului tinde la infinit, X converge la θ cu o rată exponenţială.
5. Riscul pătratic mediu al estimatorului X a lui θ converge la 0.
6. Abaterea lui X faţă de θ poate fi evaluată prin Teorema limită centrală.
Definim estimatorul bayesian a lui θ, de risc pătratic mediu minim:
ρ(θ)θSn +1 (1 − θ)n−Sn
P
g(Sn ) = Pθ∈D Sn n−Sn
.
θ∈D ρ(θ)θ (1 − θ)
Dacă θ admite densitatea de probabilitate f pe [0, 1], atunci estimatorul bayesian a lui θ
este R 1 S +1
θ n (1 − θ)n−Sn f (θ)dθ
g(Sn ) = R0 1 .
0
θSn (1 − θ)n−Sn f (θ)dθ
57

4.6 Noţiuni de statistică descriptivă


4.6.1 Concepte de bază
• Statistica, ramură a matematicii, studiază metodele de ı̂nregistrare, descriere şi
analiză a datelor experimentale referitoare la un anumit fenomen ı̂n scopul formulării
unor previziuni.

• Populaţia statistică este mulţimea (ı̂n sens matematic) care face obiectul unui
anumit studiu statistic.

• Unitate statistică (individ) este un element component al unei populaţii statistice.

• Caracteristică statistică este una din ı̂nsuşirile unităţii statistice.


O caracteristică cantitativă este măsurabilă, iar una calitativă este atributivă.
Un studiu statistic a vizează una sau mai multe caracteristici statistice ale indivizilor
unei populaţii statistice.

• Eşantionul este o submulţime a populaţiei statistice, obţinută printr-o selecţie,


pentru care se realizează evaluarea caracteristicii statistice. Pentru unele studii
statistice, eşantionul reprezintă ı̂ntreaga populaţie statistică. Numărul de elemente
al eşantionului se numeşte volumul (efectivul) eşantionului.

• Sondajul este acţiunea de prevalare şi ı̂nregistrare a valorilor uneia sau mai multor
caracteristici statistice ale indivizilor unui eşantion fixat.

• Tabelul statistic conţine ı̂nregistrarea valorilor numerice (datelor experimentale),


numite valori observate obţinute prin măsurarea caracteristicii tuturor unităţilor
statistice ale eşantionului selecţionat.

• Frecvenţa relativă a unei valori a caracteristicii este raportul dintre numărul


indivizilor eşantionului pentru care s-a ı̂nregistrat valoarea respectivă şi volumul
eşantionului.

• Distribuţia statistică empirică reprezintă reprezintă repartiţia valorilor obser-


vate ale caracteristicii pentru eşantionul selecţionat (ı̂nregistrate ı̂n tabelul statis-
tic). Din punct de vedere matematic, distribuţia statistică (empirică) este funcţia
care realizează corespondenţa ı̂ntre numerele reale, obţinute ca valori observate ale
caracteristicii, şi frecvenţa relativă a ı̂nregistrării lor.

• Distribuţiile (repartiţiile) statistice teoretice reprezintă modele matematice


idealizate ale distribuţiilor empirice. Concret, o distribuţie
R∞ statistică teoretică este
descrisă de o funcţie f : R → [0, 1] cu proprietatea −∞ f (x) dx = 1, numită den-
sitate de probabilitate. Pentru anumite fenomene analizate statistic, distribuţia
empirică tinde la o anumită distribuţie teoretică, dacă (ne imaginăm că) volumul
eşantionului tinde la infinit.

• Teoria probabilităţilor operează cu noţiunile de spaţiu măsurabil, probabilitate


şi variabilă aleatoare. O variabilă aleatoare este o funcţie X, definită pe un spaţiu
măsurabil cu probabilitate, cu valori reale, având proprietatea că pentru orice număr
58

real x se poate evalua probabilitatea F (x) ca X să ia valori ı̂n intervalul (−∞, x], şi
anume:
F (x) = P {X ≤ x} ∈ [0, 1].
Spunem că variabila aleatoare X are densitatea de probabilitate f dacă:
Z x
F (x) = f (t) dt, pentru orice număr real x
−∞
Media unei variabile aleatoare X cu densitatea de probabilitate f se calculează prin:
Z ∞
M (X) = x f (x) dx
−∞
Dispersia unei variabile aleatoare X cu densitatea de probabilitate f se calculează
prin: Z ∞
2
σ (X) = (x − m)2 f (x) dx, unde m = M (X)
−∞
Un caz particular ı̂l constituie variabilele aleatoare finite. O astfel de variabilă
aleatoare X are un număr finit de valori reale x1 < x2 < · · · < xk cu proba-
bilităţile p1 , p2 , · · · , pk ∈ [0, 1]. Avem deci:
pi = P {X = xi }, i = 1, 2, · · · , k; p1 + p2 + · · · + pk = 1.
În acest caz, media şi respectiv dispersia variabilei aleatoare X se calculează după
următoarele formule:
Xk
m = M (X) = x1 p1 + x2 p2 + · · · + xk pk = xi p i
i=1
k
X
2 2 2 2
σ (X) = (x1 − m) p1 + (x2 − m) p2 + · · · + (xk − m) pk = (xi − m)2 pi .
i=1

• Exemple de distribuţii (repartiţii, legi) teoretice clasice:


1. Legea normală de medie m şi dispersie σ 2 are densitatea de probabilitate:
1 (x−m)2
f (x) = √ e− 2σ2 , x ∈ R
2πσ 2
Graficul lui f are forma unui clopot, cunoscut sub denumirea de clopotul lui
Gauss. Legea normală (sau legea lui Gauss-Laplace) joacă un rol central ı̂n
teoria probabilităţilor, fiind legea limită a sumelor normalizate ale şirurilor de
variabile aleatoare independente şi identic distribuite.

f (x) 6

..
....
..
...
..
....
....
... .. ...
.. -
O m − 2σ m m + 2σ x
Valorile unei
59

variabile aleatoare X cu distribuţie normală de medie m şi dispersie σ 2 se ”con-


centrează” cu o probabilitate de 95% ı̂n intervalul [m − 2σ, m + 2σ], centrat
ı̂n valoarea medie m. Mai precis avem:

P {m − 2σ ≤ X ≤ m + 2σ} = 0, 9544 · · ·

unde σ = σ 2 se numeşte abaterea standard a variabilei aleatoare X.
2. Repartiţia χ2 cu m grade de libertate are densitatea de probabilitate:
1 m x
f (x) = m m
 x 2 −1 e− 2 , x > 0
2 Γ 2
2

unde: m Z ∞
m
Γ = x 2 −1 e−x dx.
2 0

Dacă o variabilă aleatoare X are repartiţia χ2 cu m grade de libertate, atunci


media şi respectiv dispersia variabilei aleatoare sunt următoarele:

M (X) = m

σ 2 (X) = 2m
Repartiţia χ2 are un rol important ı̂n statistica matematică ı̂n deducerea repartiţei
statistice a unor estimatori şi ı̂n verificarea ipotezelor statistice.

4.6.2 Tipuri de distribuţii statistice empirice. Tabele statistice.


Reprezentări grafice.
In cadrul unui studiu statistic, datele experimentale obţinute prin măsurarea valorică
a unei caracteristici a unui eşantion considerat sunt ı̂nregistrate ı̂ntr-un tabel statistic.
Acesta evidenţiază o anumită distribuţie statistică. După natura repartiţiei valorilor
ı̂nregistrate, distingem două tipuri de distribuţii statistice empirice (experimentale).
1) Tipul finit (sau discret) de distribuţie corespunde cazului ı̂n care, ipotetic, car-
acteristica masurată poate lua un număr finit (sau numărabil) de valori. In continuare
vom trata numai cazul finit.
Considerăm un eşantion fixat de volum n.. Aceasta ı̂nseamnă că numărul de unităţi
statistice pentru care se determină şi se ı̂nregistrează valoarea caracteristicii este egal cu
n. Să presupunem că valorile ı̂nregistrate ale caracteristicii sunt numerele reale x1 < x2 <
· · · < xk unde k este un număr natural cuprins ı̂ntre 1 şi n.
Fiecarei valori realizate (ı̂nregistrate) a caracteristicii ı̂i determinăm ”frecvenţa” de
apariţie.

• Frecvenţa absolută a valorii xi este numărul ni de subiecţi pentru


Pk care valoarea
caracteristicii este xi . Din definiţie rezultă 0 ≤ ni ≤ n şi i=1 ni = n, unde
Pk
i=1 ni este notaţia simbolică a sumei n1 + n2 + · · · + nk .

ni
• Frecvenţa relativă a valorii xi este numărul fi = n
. Constatăm că au loc
Pk
relaţiile: fi ∈ [0, 1] şi i=1 fi = 1.
60

• Frecvenţa procentuală a valorii xi este numărul pi = 100 · nni = 100 · fi .


Pk
Avem pi ∈ [0, 100] şi i=1 pi = 100. Pentru a evidenţia că pi reprezină o mărime
procentuală, se foloseşte curent notaţia pi %.
Frecvenţele determinate ale valorilor, indicând distribuţia statistică empirică, pot fi cen-
tralizate ı̂n tabelul frecvenţelor sau pot fi reprezentate grafic prin diagrama de structură,
histograma şi respectiv poligonul frecvenţelor.
• Diagrama de structură ilustrează distribuţia statistică empirică prin partiţia unui
disc ı̂n sectoare de cerc cu ariile proporţionale cu frecvenţele relative ale valorilor.
Sectorul reprezentând valoarea xi are unghiul de la centru de măsură αi = fi · 360o .
• Poligonul frecvenţelor se obţine, ı̂ntr-un sistem de axe de coodonate, unind suc-
cesiv prin segmente punctele de coordonate (x1 , f1 ), (x2 , f2 ), · · · , (xk , fk ).
• Histograma ilustrează, ı̂ntr-un sistem de axe de coodonate, frecvenţele relative (sau
procentuale) ale valorilor xi prin dreptunghiuri de ı̂nălţime fi (respectiv pi ) dispuse
cu baza pe axa absciselor, ı̂n dreptul absciselor xi .
Exemplul 1 La o probă sportivă fiecare participant a efectuat 6 aruncări la coşul de
baschet, realizând ı̂ntre 0 şi 6 aruncări reuşite. Rezultatele obţinute de cei 40 de participanţi
sunt prezentate sintetic ı̂n tabelul următor:
numărul de aruncări reuşite 0 1 2 3 4 5 6
numărul de participanţi 2 4 8 15 4 6 1 total 40
Volumul ea̧ntionului considerat este n = 40 iar numărul de valori ale caracteristicii este
k = 7. Prezentăm tabelul frecvenţelor, diagrama de structură, histograma şi respectiv
poligonul frecvenţelor asociate studiului statistic considerat.
A) Tabelul frecvenţelor

valorile xi frecvenţele
absolute (ni ) relative (fi ) procentuale (pi %)
0 2 0,050 5,0 %
1 4 0,100 10,0 %
2 8 0,200 20,0 %
3 15 0,375 37,5 %
4 4 0,100 10,0 %
5 6 0,150 15,0 %
6 1 0,025 2,5 %
P7 P7 P7
i=1 ni = 40 i=1 fi = 1 i=1 pi = 100

B) Diagrama de structură

'$ 2
S  0
1
3 S 

` `6
A
&%  A 5
4
61

C) Histograma

37, 5%

20%
15%
10% 10%
5% 2, 5%
0 1 2 3 4 5 6
D) Poligonul frecvenţelor
..
T..
.. T
.. T
.. .. T
 .. .. ..
l
 ..
 .
. .
. .
T .. l
..


.. .. .. .. ..
. . .. .. .. .. l. -
0 1 2 3 4 5 6

2) Tipul continuu de distribuţie corespunde cazului când valorile caracteristicii sunt


numere reale situate ı̂ntr-un anumit interval [a,b]. Pentru a grupa valorile caracteristicii,
se fixează, ţinând cont de specificul studiului statistic efectuat, un număr ı̂ntreg k > 1 şi
se ı̂mparte intervalul (a, b] ı̂n k subintervale de aceeaşi lungime l = b−a k
. Notăm, ı̂n ordine,
(i−1)(b−a) i(b−a)
aceste intervale I1 , I2 , · · · , Ik . Astfel, Ii = (a + k
, a + k ], i = 1, 2, · · · , k. Fie
un eşantion fixat de volum n cu n > k. Fiecărui interval Ii i se asociază ”frecvenţa de
apariţie”; vom nota cu xi valoarea ”centrală” a intevalului, adică xi = a + (2i−1)(b−a) 2k
,
obţinută făcând media aritmetică a capetelor intervalului Ii (a se vedea figura următoare).

a x1 x2 x3 x4 xk b
axa reală ( ı | ı | ı | ı | ............... | ı ] -
 
 
 
   
I1 I2 I3 I4 Ik

• Frecvenţa absolută a intervalului Ii este numărul ni de subiecţi pentru care


valoarea caracteristicii aparţine intervalului Ii .
ni
• Frecvenţa relativă a intervalului Ii este numărul fi = n
.
• Frecvenţa procentuală a intervalului Ii este numărul pi = 100 · fi .
Frecvenţele determinate ale valorilor, indicând distribuţia statistică empirică, pot fi cen-
tralizate ı̂n tabelul frecvenţelor sau pot fi reprezentate grafic prin diagrama de struc-
tură, histograma şi respectiv poligonul frecvenţelor care nu diferă de cele descrise pentru
distribuţii finite.
62

Exemplul 2 La o probă contracronometru de ciclism au participat 148 de concurenţi.


După ı̂n registrarea timpilor de parcurs, s-au grupat rezultatele ı̂n 6 intervale de câte 30”
şi s-au calculat frecvenţele intervalelor, obţinându-se următorul tabel:

Tabelul frecvenţelor
intervalele Ii valorile frecvenţele
centrale xi absolute (ni ) relative (fi ) procentuale (pi %)
(480 , 480 30”] 480 15” 7 0,047 4,7 %
(480 30”, 490 ] 480 45” 28 0,189 18,9 %
(490 , 490 30”] 490 15” 53 0,358 35,8 %
(490 30”, 500 ] 490 45” 42 0,283 28,3 %
(500 , 500 30”] 500 15” 10 0,067 6,7 %
(500 30”, 510 ] 500 45” 8 0,054 5,4 %
P6 P6 P6
i=1 ni = 148 i=1 fi = 1 i=1 pi = 100

4.6.3 Indicatori statistici


Pentru o distribuţie statistică empirică, consemnată ı̂n tabelul frecvenţelor, determinăm
o serie de indicatori statistici ı̂n scopul obţinerii unor informaţii cu caracter general
privind repartizarea valorilor carateristicii studiate. Cei mai importanţi indicatori statistici
sunt: media, mediana şi respectiv dispersia distribuţiei. Media şi dispersia indică, fiecare
ı̂n parte, valorea ”centrală” sau valoarea ”de mijloc” a distribuţiei respective, ı̂ntr-o o
accepţiune specifică fiecărei noţiuni. Dispersia si respectiv abaterea standard indică gradul
de ”ı̂mprăştiere” a valorilor faţă de valoarea ”centrală” a distribuţiei. Coeficientul de
variaţie, calculat prin raportarea abaterii standard la medie, oferă posibilitatea stabilirii
gradului de omogenitate al eşantionului.
Considerăm o distribuţie statistică empirică, asociată unei caracteristici (variabile em-
pirice) X, care ia valorile x1 < x2 < · · · < xk cu frecvenţele absolute n1 , n2 , · · · , nk şi
respectiv frecvenţele relative f1 , f2 , · · · , fk .

• Media x = M (X) a variabilei X se calculează prin:

x = x1 f 1 + x2 f 2 + · · · + xk f k ,

sau, utilizând scrierea prescurtată, x = M (X) = ki=1 xi fi .


P

• Mediana M ed = M ed(X) a variabilei X, corespunzând unui eşantion de volum n,


se defineşte astfel: se ordonează crescător valorile caracteristicii tuturor subiecţilor
eşantionului, obţinându-se şirul de valori

v1 ≤ v2 ≤ · · · ≤ vn .

Distingem două situaţii:

1. dacă n = 2p + 1, cu p - număr natural (deci n este un număr natural impar),


atunci M ed = vp+1 ;
2. dacă n = 2p, cu p - număr natural (deci n este un număr natural par), atunci
M ed = vp +v2 p+1 .
63

Observăm că din definiţia medianei reiese că aceasta este valoarea care ”ı̂mparte”
eşantionul ı̂n ı̂n două părţi de volume egale
Mediana se mai poate determina şi utilizând frecvenţele absolute n1 , n2 , · · · , nk ale
valorilor x1 < x2 < · · · < xk , după cum urmează:

 xi , dacă n1 + n2 + · · · + ni−1 < n2 < n1 + n2 + · · · + ni−1 + ni
M ed =
 xi +xi+1
2
, dacă n2 = n1 + n2 + · · · + ni−1 + ni

• Amplitudinea W = W (X) a variabilei X se defineşte prin:

W = xmax − xmin

Astfel, dacă X are o distribuţie de tip finit atunci W = xk − x1 , iar dacă X are o
distribuţie de tip continuu cu valorileı̂n intervalul (a, b], atunci W (X) = b − a.

• Dispersia σ 2 = σ 2 (X) a variabilei X se defineşte prin:


k
X
2
σ = (xk − x)2 fi ,
i=1

unde x = M (X) este media variabilei X.

• Abaterea standard σ = σ(X) a variabilei X se defineşte prin:



σ = σ2

• Coeficientul de variaţie Cv = Cv (X) al variabilei X, se defineşte, numai ı̂n cazul


când toate valorile xi ale distribuţiei X sunt pozitive, prin:
σ
Cv =
x

• Expresia procentuală coeficientului de variaţie Cv% = Cv% (X) este:

Cv% = 100 · Cv %

Tabelul următor prezintă interpretarea curentă a omogenităţii eşantionului ı̂n


raport cu variabila X după valorile coeficientului de variaţie exprimat procentual:

Coeficientul de variaţie Cv% Omogenitatea


0-10% omogenitate mare
10-20% omogenitate medie
20-35% omogenitate mică
peste 35% eşantion neomogen

Să urmărim calculul indicatorilor statistici definiţi anterior pentru distribuţiile din
exemplele anterioare. Vom nota cu X variabila empirică cu distribuţia prezentată ı̂n
Exemplul 1 şi respectiv cu Y variabila empirică cu distribuţia descrisă ı̂n Exemplul 2.
64

4.6.4 Calculul indicatorilor statistici ai distribuţiei variabilei X


(Exemplul 1).
Media:
x = 0 · 0, 05 + 1 · 0, 1 + 2 · 0, 2 + 3 · 0, 375 + 4 · 0, 1 + 5 · 0, 15 + 6 · 0, 025 = 2, 925
Rezultă că numărul mediu de reuşite este:
x = M (X) ∼
=3
Mediana:
Avem n : 2 = 20 şi n1 +n2 +n3 = 14 < 20 < 29 = n1 +n2 +n3 +n4 , deci M ed(X) = x4 ,
sau:
M ed(X) = 3.
Amplitudinea:

W (X) = 6 − 0 = 6
Dispersia:
σ 2 (X) = (0 − 2, 925)2 · 0, 05 + (1 − 2, 925)2 · 0, 1 + (2 − 2, 925)2 · 0, 2 + (3 − 2, 925)2 · 0, 375 +
(4 − 2, 925)2 · 0, 1 + (5 − 2, 925)2 · 0, 15 + (6 − 2, 925)2 · 0, 025 = 1, 969 · · · Dispersia valorilor
(abaterea medie pătratică) este deci:
σ 2 (X) ∼
= 1, 97
Abaterea standard:

1, 969 ∼
p
σ(X) = = 1, 403
Coeficientul de variaţie:
1, 403 ∼
Cv (X) = = 0, 4797
2, 925
Expresia procentuală a coeficientul de variaţie:

Cv% (X) ∼
= 48 %
Interpretare: eşantion neomogen.

4.6.5 Calculul indicatorilor statistici ai distribuţiei variabilei Y


(Exemplul 2).
Media
x = 48, 25·0, 047+48, 75·0, 189+49, 25·0, 358+49, 75·0, 283+50, 25·0, 067+50, 75·0, 054 =
49, 29 · · · (minute)
Rezultă că timpul mediu ı̂nregistrat al probei este:
M (Y ) = x ∼
= 490 18”
Mediana:
Avem: n : 2 = 74 şi n1 + n2 = 35 < 74 < 88 = n1 + n2 + n3 , deci M ed(Y ) = x3 , adică:
M ed(Y ) = 490 15”
65

Amplitudinea:

W (Y ) = 51 − 48 = 3 (minute)
Dispersia:
σ (Y ) = (48, 25 − 49, 29)2 · 0.047 + (48, 75 − 49, 29)2 · 0, 189 + (49, 25 − 49, 29)2 · 0, 358 +
2

(49, 75 − 49, 29)2 · 0, 283 + (50, 25 − 49, 29)2 · 0, 067 + (50, 75 − 49, 29)2 · 0, 054 = 0, 34325 · · ·
σ 2 (Y ) ∼
= 0, 343
Abaterea standard:

0, 343 ∼
p
σ(Y ) = = 0, 586
Coeficientul de variaţie:
0, 586 ∼
Cv (Y ) == 0, 012
49, 29
Exprimarea procentuală a coeficientului de variaţie:

Cv% (Y ) ∼
= 1, 2 %
Interpretarea: eşantion foarte omogen.

4.6.6 Compararea a două distribuţii empirice


Să presupunem că pentru un eşantion fixat de volum n se sondează ı̂n paralel două car-
acteristici (variabile empirice) X şi Y şi se pune problema existenţei unei conexiuni ı̂ntre
distribuţiile acestora. Pentru obţinerea unei concluzii se recurge la calculul unor indici de
corelaţie asociaţi perechii de variabile X şi Y .

4.6.7 Corelaţia şi coeficientul de corelaţie


Fie x = M (X), y = M (Y ) mediile variabilelor X şi Y , iar σX , σY abaterile lor
standard.
Presupunem că X ia valorile x1 < x2 < · · · < xk iar Y ia valorile y1 < y2 < · · · yl .
Notăm ni,j numărul unităţilor statistice ale eşantionului pentru care caracteristica X ia
valoarea xi iar caracteristica Y ia valoarea yj , unde i = 1, 2, · · · , k şi j = 1, 2, · · · , l. Fie
n
fi,j = ni,j frecvenţa relativă a perechii de valori (xi , yj ).

Corelaţia cX,Y a variabilelor X şi Y se defineţe prin:


X
cX,Y = M ((X − x)(Y − y)) = (xi − x)(yj − y)fi,j
i=1,k
j=1,l

Coeficientul de corelaţie r = rX,Y al variabilelor X şi Y al variabilelor X şi


Y se defineşte prin:
cX,Y
r= .
σX · σY
66

Pe baza unei inegalităţi matematice fundamentale (inegalitatea lui Cauchy) se demon-


strează că, oricare ar fi distribuţiile variabilelor X şi Y , avem:

−1 ≤ r ≤ 1.

Interpretarea valorii coeficientului de corelaţie r este următoarea:

1. dacă r este pozitiv, atunci variabilele X şi Y sunt corelate, adică tendinţa este ca
atunci când variabila X ia o ”valoare mare” şi variabila Y să ia tot o ”valoare
mare”. Variabilele X şi Y sunt cu atât mai puternic corelate cu cât coeficientul lor
de corelaţie este mai apropiat de valoarea 1.

2. dacă r este negativ, atunci variabilele X şi Y sunt invers corelate, adică tendinţa
este ca atunci când variabila X ia o ”valoare mare” variabila Y să ia o ”valoare
mică”.

3. dacă r este apropiat de valoarea 0, atunci variabilele X şi Y sunt independente sau
cu o dependenţă slabă.

4.6.8 Metoda coreraţiei rangurilor


Această metodă, datorată lui Spearman, se utilizează atunci când volumul eşantinului este
mic (de regulă n < 30). Fiecărui individ i ∈ {1, 2, · · · n} al eşantionului i se asociază o
pereche de ranguri (ri (X), ri (Y )), cu ri (X), ri (Y ) ∈ [1, n]. Aceste ranguri se determină ı̂n
urma realizării a câte unui ”clasament” crescător al valorilor ı̂nregistrate pentru fiecare din
caracteristicile (variabilele) X şi Y . Rangurile ri (X) şi respectiv ri (Y ) exprimă ”poziţia”
(eventual intermediară) a individului i ı̂n fiecare din cele două ”clasamente” de valori
crescătoare.
Notăm di = ri (X) − ri (Y ), i = 1, 2, · · · , n.
Coeficientul de corelaţie al rangurilor ρ = ρX,Y asociat variabilelor X şi Y
se defineşte prin:
6 ni=1 d2i
P
ρ=1−
n(n2 − 1)
Se poate verifica prin calcul că, indiferent de distribuţia rangurilor, avem:

0≤ρ≤1

Dacă ρ este apropiat de 1, atunci variabilele X şi Y sunt corelate iar dacă ρ este apropiat
de 0, atunci variabilele X şi Y sunt invers corelate.
67

4.7 Test
1. Definiţi media empirică şi descrieţi proprietăţile acestui estimator ı̂n cazul eşantioanelor
Bernoulli.

2. Determinaţi estimatorul bayesian al unui eşantion Bernoulli asociat unei distribuţii


Beta(α, β) a parametrului de estimat θ.

3. Se observă două variabile aleatoare Bernoulli indepedente X1 şi X2 , de parametru


θ
θ ∈ (0, 1). Să se arate că nu se poate găsi un estimator a fără abatere a lui 1−θ care
să depindă de X1 şi X2 .

4. Cu ajutorul unui n-eşantion Bernoulli de parametru θ se caută estimarea dispersiei


θ(1 − θ). Să se arate că estimatorul T = X(1 − X) nu este fără abatere, dar există
un multiplu al său având această proprietate.
68
Referinţe bibliografice

[1] G. Ciucu, C. Tudor, Probabilităţi şi procese stochastice, Ed. Academiei Române, 1979
(vol 1-2).

[2] I. Cuculescu, Teoria probabilităţilor, Ed. All, 1998.

[3] D. Dacunha-Castelle, M. Duflo, Probabilités et statistique, Masson, 1994 (vol 1).

[4] W. Feller, Introduction to probability theory and its applications, Wiley, New York,
1968.

[5] P.G. Hoel, Introduction to mathematical statistics, Wiley, 1984.

[6] M. Iosifescu, Gh. Mihoc, R. Theodorescu, Teoria probabilităţilor şi statistică matem-
atică, Ed. Tehnică, 1966.

[7] O. Onicescu, Gh. Mihoc, C. Ionescu-Tulcea, Calculul probabilităţilor şi aplicaţii, Ed.
Academiei Române, 1965.

69

You might also like