Professional Documents
Culture Documents
Eugen Păltănea
0.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1.1 Date istorice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1.2 Descrierea cursului . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.1.3 Principiile de bază. Limbaj . . . . . . . . . . . . . . . . . . . . . . 5
3
4
0.1 Introducere
0.1.1 Date istorice
Teoria probabilităţilor1 şi statistica matematică studiază fenomenele aleatoare, ı̂n scopul
predicţiei şanselor de realizare a unor rezultate aşteptate. Studiul se bazează pe modelare
matematică şi raţionamente deductive.
Bazele teoriei probabilităţilor şi statisticii (studiului matematic al ”hazardului”) au fost
puse ı̂n secolele XVI-XVII. Astfel, Gerolamo Cardano scria ı̂n 1526 prima carte dedicată
unor concepte probabiliste: Liber de ludo aleae (”Cartea jocurilor de noroc”), publicată
ı̂n 1663. Contribuţii majore la punerea bazelor teoriei probabilităţilor au avut matemati-
cienii francezi Blaise Pascal şi Pierre de Fermat (ı̂nceputul sec. al XVII-lea). În 1657,
Cristiaan Huygens publica lucrarea De ratiociniis in ludo aleae (”Asupra raţionamentelor
ı̂n jocurile de noroc”). Doctrina probabilităţilor se conturează ı̂n sec. al XVIII-lea prin
lucrările fundementale Ars conjectandi, publicată ı̂n 1713 de Jacob Bernoulli şi The Doc-
trine of Chances, publicată ı̂n 1718 de Abraham de Moivre. Un secol mai târziu, Pierre
Simon Laplace publică lucrarea Théorie analytique des probabilitées, ı̂n care evidenţiază
legea erorilor (convergenţa la legea normală). Teoria modernă a probabilităţilor (incluzând
formalizarea axiomatică) este datorată ı̂n bună măsură matematicianului rus Andrei Niko-
laevici Kolmogorov, autorul cărţii Foundation of the Theory of Probability, publicată ı̂n
1950. Printre lucrările de referinţă ı̂n domeniu ale secolului XX trebuiesc amintite The
Theory of Stochastic Processes (D.R Cox, H.D. Miller, 1965), An Introduction to Proba-
bility Theory (W. Feller, 1968) şi Probability and Measure (P. Billingsley, 1979). In ul-
timii 60 de ani, studiul proceselor aleatoare cunoaşte o dezvoltare şi diversificare teoretică
exponenţială, dar şi un câmp foarte larg de aplicabilitate.
Şcoala românească de probabilităţi se remarcă prin numeroase contribuţii originale.
Bazele acestei şcoli se datorează ı̂n principal matematicienilor C. T. Ionescu-Tulcea, Ghe-
orghe Mihoc, Octav Onicescu, Ion Cuculescu, Marius Iosifescu şi Constantin Tudor.
1. Fiecărui eveniment rezultat ı̂n urma unei experienţe i se atribuie un număr real din
intervalul [0, 1] numit probabilitatea evenimentului.
1
Etimologie: probabilitas (lat.) = credibilitate
6
In formalizarea matematică, evenimentele care pot rezulta ı̂n urma efectuării unei experienţe
reprezintă submulţimi ale unei mulţimi Ω (interpretată ca ”evenimentul sigur”). Aceste
evenimente au o probabilitate de apariţie (şansă de realizare). Matematic, probabilitatea
este o măsură finită, definită pe mulţimea evenimentelor. Astfel, limbajului probabilistic
ı̂i corespunde limbajul mulţimilor.
Următoarea schemă evidenţiază dualitatea de limbaj (relativ la o anumită experienţă):
• realizarea unui eveniment asigură realizarea unui alt eveniment (implicaţia eveni-
mentelor) = incluziunea mulţimilor: A ⊂ B;
• evenimentul realizării a cel puţin unuia dintre două evenimente (disjuncţia eveni-
mentelor) = reuniunea mulţimilor: A ∪ B;
1.1 Introducere
Vom defini şi caracteriza ı̂n continuare noţiunea de spaţiu măsurabil (câmp de evenimente)
şi funcţiile măsurabile, definite ı̂ntre spaţii măsurabile. Noţiunile respective modelează
matematic rezultatele posibile ale unei experienţe (evenimentele posibile) şi corespondenţele
specifice asociate unor experienţe. Astfel, definim noţiunile: corp, σ-corp, borelianul unui
spaţiu topologic, spaţiu măsurabil, funcţie măsurabilă şi evidenţiem proprietăţile lor de
bază. Se introduce noţiunea de câmp de probabilitate şi se pregăteşte definirea conceptu-
lui de variabilă aleatoare. Sunt evidenţiate proprietăţile probabilităţii, definită ca măsură
finită pe spaţiul evenimentelor (σ-corpul evenimentelor). Este discutată independenţa
evenimentelor şi noţiunea de probabilitate condiţionată. Exemplele elementare de câmpuri
de probabilitate discrete sunt particularizate ı̂n modelele clasice (scheme de probabilitate),
adaptate studiului unor fenomene aleatoare.
1.2 Corpuri
Noţiune de corp (de mulţimi) reprezintă cadrul minimal de modelare matematică a setului
evenimentelor posibile rezultate ı̂n urma unei experienţe cu rezultate aleatoare.
Definiţia 1.2.1. Fie Ω o mulţime nevidă. O familie nevidă C de submulţimi ale lui Ω
(C ⊂ P(Ω)) se numeşte corp a lui Ω dacă satisface proprietăţile:
C1 . Ac ∈ C, ∀ A ∈ C;
C2 . A ∪ B ∈ C, ∀ A, B ∈ C.
C3 . ∪ni=1 Ai ∈ C, ∀ Ai ∈ C, i = 1, n, n ≥ 2;
7
8
C4 . ∩ni=1 Ai ∈ C, ∀ Ai ∈ C, i = 1, n, n ≥ 2;
C5 . ∅, Ω ∈ C;
C6 . A \ B ∈ C, ∀ A, B ∈ C.
Demonstraţie. C3 se verifică prin inducţie. C4 rezultă din următoarea relaţie (De Mor-
gan): ∩ni=1 Ai = (∪ni=1 Aci )c şi proprietăţile C1 şi C3 . Pentru C5 , considerăm A ∈ C; avem
Ω = A ∪ Ac ∈ C şi ∅ = A ∩ Ac ∈ C. C6 se obţine din relaţia: A \ B = A ∩ B c şi C4 .
Vom considera ı̂n continuare intersecţii de corpuri ale unei mulţimi fixate.
Propoziţia 1.2.2. O intersecţie de corpuri ale unei mulţimi date este un corp al acelei
mulţimi.
Rezultatul de mai sus este util ı̂n studiul corpurilor generate de familii de părţi ale
multimii totale considerate.
Vom observa la C(M) este cel mai mic corp a lui Ω care include familia de părţi M a
lui Ω. Ne vom referi acum la cazul corpurilor finite.
1. Dacă M ⊂ P(Ω), M 6= ∅, este o mulţime finită, atunci corpul C(M) este finit.
2. Dacă C este un corp finit a lui Ω, atunci există o partiţie finită ∆ = {A1 , A2 , · · · , An }
a lui Ω astfel ca
C = {∪i∈I Ai : I ⊂ {1, 2, · · · , n}}.
Demonstraţie.
1. Fie mulţimile finite Mc = {Ac : A ∈ M}, M1 = M ∪ Mc , M2 = {∩A∈H A : H ⊂ M1 }
şi M3 = {∪A∈G : G ⊂ M2 }. Atunci C(M) = M3 , deci este finit.
2. Partiţia ∆ este formată din mulţimile nevide A ∈ C, având proprietatea următoare
B ⊂ A ⇒ B = A sau B = ∅, ∀ B ∈ C.
9
σ1 . Ac ∈ F, ∀ A ∈ F;
σ2 . dacă An ∈ F, ∀n ∈ N∗ atunci ∪∞
n=1 An ∈ F.
Vom observa că orice σ − corp F a lui Ω este un corp a lui Ω. Astfel, pentru A, B ∈ F
considerăm şirul (An )n≥1 definit prin A1 = A şi An = B, ∀ n ≥ 1. Conform σ1 , avem
A ∪ B = ∪∞ n=1 An ∈ F. Deducem că σ-corpul F este corp. Ca urmare, proprietăţile C3 − C6
rămân valabile ı̂ntr-un σ-corp. Alte proprietăţi sunt descrise ı̂n propoziţia următoare.
σ3 . An ∈ F, ∀n ∈ N∗ n=1 An ∈ F;
⇒ ∩∞
Remarcăm că familiile F1 = P(Ω) şi F2 = {∅, Ω} reprezintă σ-corpuri (deci şi corpuri)
elementare ale lui Ω.
Intersecţia unor σ-corpuri ale unei mulţimi este de asemenea un σ-corp al mulţimii
respective, demonstraţia fiind similară celei din Propoziţia 1.2.2.
Definiţia 1.3.2. Fie Ω o mulţime nevidă şi M ⊂ P(Ω). Intersecţia tuturor σ − corpurilor
lui Ω care includ mulţimea M se numeşte σ − corpul generat de M şi se notează B(M).
Mulţimea B(M) este cel mai mic σ-corp a lui Ω care include pe M. Un caz particular
foarte important este cel ı̂n care mulţimea M este o topologie pe spaţiul Ω.
10
Definiţia 1.3.3. Fie (Ω, O) un spaţiu topologic, unde O reprezintă topologia lui Ω (familia
mulţimilor deschise). Atunci σ − corpul generat de mulţimea O se numeşte borelianul
spaţiului topologic (Ω, O) şi se notează (atunci când nu este pericol de confuzie) prin BΩ .
Topologia OR a mulţimii numerelor reale R este familia reuniunilor cel mult numărabile
de intervale deschise disjuncte. Se poate demonstra că borelianul BR al spaţiului topologic
(R, OR ) conţine toate tipurile de intervale şi reuniunile cel mult numărabile ale acestora.
Reciproc, BR coincide cu σ - corpul generat de oricare tip de intervale reale.
Definiţia 1.4.1. Fie (Ω, F) şi (Ω0 , F0 ) o pereche de spaţii măsurabile (câmpuri de eveni-
mente). O funcţie f : Ω → Ω0 se numeşte funcţie măsurabilă dacă
f −1 (A) ∈ F, ∀ A ∈ F0 ,
• {f ≤ a} := f −1 ((−∞, a]) ∈ F, ∀ a ∈ R
Propoziţia 1.4.1. Fie (Ω, F) un spaţiu măsurabil. Dacă f, g : Ω → R sunt funcţii reale
măsurabile şi a ∈ R atunci funcţiile reale f +a, af, |f |, f +g, f g, min{f, g} şi max{f, g}
sunt măsurabile.
P1. P(A) ≥ 0, ∀ A ∈ F;
P2. P(Ω) = 1;
P3. Pentru oricare şir de evenimente (An )n∈N∗ , cu An ∩Am = ∅, ∀ n 6= m, are loc relaţia
∞
X
P (∪∞
n=1 An ) = P(An ).
n=1
Ultima proprietate a definiţiei de mai sus se referă la şiruri de evenimente. În contin-
uare, ne vom referi la şirurile monotone de evenimente şi limitele de şiruri de evenimente.
Definiţia 1.5.2. Fie (An )n∈N∗ un şir de evenimente din câmpul de probabilitate (Ω, F, P).
n=1 ∪k=n Ak ∈ F.
lim sup An = ∩∞ ∞
n→∞
n=1 ∩k=n Ak ∈ F.
lim inf An = ∪∞ ∞
n→∞
Probabilitatea are o serie de proprietăţi fundamentale care decurg din Definiţia 1.5.1.
Aceste proprietăţi caracterizează ı̂n fapt o măsură finită.
P4. P(∅) = 0;
P11. Dacă (An )n≥1 este un şir monoton (crescător sau descrescător) de evenimente, cu
limn→∞ An = A, atunci limn→∞ P(An ) = P(A).
Demonstraţie.
P4. Presupunem, prin absurd, că P(∅) = p > 0. Considerăm şirul An = ∅, n ∈ N∗ .
∞
Conform [P 3], P(∅) = P(∪∞
P
n=1 (An ) = n=1 P(An ) = ∞. Contradicţie.
P5. Alegem şirul An = ∅, n ≥ 3, A1 = A şi A2 = B şi aplicăm [P 3], [P 4].
P6. Relaţia rezultă din Ac ∪ A = Ω şi proprietăţile [P 2], [P 5].
P7. Se obţine din A = B ∪ (A \ B) şi [P 5].
P8. Rezultă din proprietatea anterioară, [P 7].
P9. Consecinţă a proprietăţilor [P 1], [P 2] şi [P 8].
P10. Formula se demonstrează prin inducţie matematică.
P11. Presupunem An ↓ ∅. P Avem A1 = ∪∞ n=1 (An \ An+1 ), cu (AiP
\ Ai+1 ) ∩ (Aj \ Aj+1 ) =
∅, ∀ iP6= j. Atunci P(A1 ) = n=1 P (An \ An+1 ). Rezultă limn→∞ ∞
∞
k=n P (Ak \ Ak+1 ) = 0.
∞ ∞
Dar k=n P (Ak \ Ak+1 ) = P (∪n=1 (An \ An+1 )) = P(An ). Deci limn→∞ P(An ) = 0 =
P(∅).
Presupunem An ↓ A. Atunci (An \ A) ↓ ∅, de unde limn→∞ P(An \ A) = 0 şi obţinem
limn→∞ P(An ) = P(A).
Presupunem An ↑ A. Atunci Acn ↓ Ac . Rezultă limn→∞ P(Acn ) = P(Ac ), de unde obţinem
limn→∞ P(An ) = P(A).
P12. Definim şirul de evenimente (Bn )n≥1 , B1 = A1 , Bn = An \ ∪n−1
k=1 Ak ⊂ An , ∀ n > 1.
Avem ∪nk=1 Bk = ∪nk=1 Ak , ∀ n ≥ 1 şi Bi ∩ Bj = ∅, ∀ i 6= j. Ca urmare, conform
proprietăţilor [P 3] şi [P 8], avem
∞
X ∞
X
P (∪∞
n=1 An ) = P (∪∞
n=1 Bn ) = P(Bn ) ≤ P(An ),
n=1 n=1
P(B ∩ A)
P(B|A) := .
P(A)
Se constată astfel că două evenimente sunt independente dacă probabilitatea realizării
unuia dintre acestea nu este influienţată de realizarea celuilalt. Se arată cu uşurinţă că
evenimentele contrare ale unor evenimente independente sunt de asemenea independente.
Pe de altă parte, conceptul de evenimente condiţionate permite considerarea sistemelor
complete de evenimente.
1. Ai ∩ Aj = ∅, ∀ i 6= j
2. ∪i∈I Ai = Ω
3. P(Ai ) > 0, ∀ i ∈ I
P(A|Ak )P(Ak )
P(Ak |A) = P , ∀ k ∈ I.
i∈I P(A|Ai )P(Ai )
14
Demonstraţie.
1. Avem
A = A ∩ Ω = A ∩ (∪i∈I Ai ) = ∪i∈I (A ∩ Ai ) .
Deoarece evenimentele A ∩ Ai , i ∈ I sunt incompatibile două câte două, obţinem
X X
P(A) = P (A ∩ Ai ) = P (A|Ai ) P (Ai ) ,
i∈I i∈I
1
P({ω}) = ,
n
unde n = |Ω|.
Modelele de mai sus se materializează concret ı̂n scheme de probabilitate. Este vorba
exemple cu un grad mare de generalitate şi utilizare frecventă ı̂n calculul probabilităţilor.
Prezentăm ı̂n continuare cele mai cunoscute scheme de probabilitate.
15
unde p = a/c este probabilitatea apariţiei unei bile la o extragere, iar q = b/c = 1 − p
este probabilitatea evenimentului contrar (apariţia unei bile negre).
Modelul este echivalent cu repetarea unei experienţe (ı̂n condiţii identice) de n ori
şi studiul probabilităţii realizării unui anumit eveniment de k ori (din totalul de n
experienţe).
Remarcăm
n
X n
X n
X
Cnk pk q n−k = (q + p)n = 1,
P Ak|n = Pk|n =
k=0 k=0 k=0
2. Schema multinomială.
Este o extindere a schemei lui Bernoulli.
Se consideră o urnă conţinând bile de s culori, câte ai bile din culoarea i ∈ {1, 2, · · · , s}.
Notăm
ai
pi = Ps
j=1 aj
P(ki )i=1,s |n
= (p1 + p2 + · · · + ps )n = 1,
deci A(ki )i=1,s |n , cu (ki ) ∈ Ns , astfel ca si=1 ki = n, formează un sistem complet de
P
evenimente.
3. Schema lui Poisson.
Reprezintă o generalizare a schemei lui Bernoulli. Se consideră n urne cu bile albe şi
negre, dar ı̂n proporţii diferite. Fie pi probabilitatea extragerii unei bile albe din urna
i. Probabilitatea extragerii unei bile negre din urna i va fi qi = 1−pi , i = 1, 2, · · · , n.
Se extrage câte o bilă din fiecare urnă. Se analizează probabilitatea evenimentului
Ak|n de a obţine exact k bile albe din cele n extrase. Notăm Nn = {1, 2, · · · , n}.
Avem X Y Y
Pk|n = P Ak|n = pi qj .
I⊂Nn ; |I|=k i∈I j∈Nn \I
k
Observăm că Pk|n reprezintă coeficientul lui x al polinomului
f (x) = (p1 x + q1 ) (p2 x + q2 ) · · · (pn x + qn ) .
Evident,
n
X
Pk|n = f (1) = 1,
k=0
deci evenimentele Ak|n , k = 0, 1, · · · , n, reprezintă un sistem complet.
4. Schema geometrică.
Schema este un exemplu de câmp discret de evenimente. Astfel, se repetă continuu o
experienţă, ı̂n condiţii identice, urmărindu-se de fiecare dată realizarea unui anumit
eveniment A. Fie P(A) = p. Considerăm momentul ı̂n care evenimentul A se
realizează pentru prima dată. Fie n ∈ N∗ . Probabilitatea ca evenimentul A să se
realizeze pentru prima dată ı̂n cea de a n-a experienţă este
pn = pq n−1 ,
unde q = 1 − p. Avem
∞ ∞ ∞
X X
n−1
X p
pn = pq =p qk = = 1.
n=1 n=1 k=0
1−q
5. Schema hipergeometrică.
Se consideră o urnă cu N bile, dintre care a bile sunt albe iar restul de b bile sunt
negre (a + b = N ). Se extrag n bile (fără a le repune ı̂n urmă după fiecare extragere).
Notăm pk|n probabilitatea evenimentului Ak|n de a avea exact k bile albe ı̂ntre cele
n bile extrase. Presupunem n ≤ N, k ≤ a şi n − k ≤ b. Atunci
Cak Cbn−k
pk|n = .
CNn
Conform unei formule combinatoriale binecunoscute, obţinem
min{a,n} min{a,n}
X X Cak Cbn−k
pk|n = = 1,
CNn
k=max{0,n−b} k=max{0,n−b}
17
1.8 Rezumat
În teoria probabilităţilor, evenimentele rezultate ı̂n urma unei experienţe sunt interpretate
ca o familie de submulţimi ale evenimentului sigur, mulţimea Ω. Mulţimea evenimentelor
formează un σ − corp (borelian).
O mulţime nevidă F ⊂ Ω se numeşte σ − corp a lui Ω daca satisface următoarele
condiţii:
σ1 . Ac ∈ F, ∀ A ∈ F;
n=1 An ∈ F.
σ2 . dacă An ∈ F, ∀n ∈ N∗ atunci ∪∞
Perechea (Ω, F) se numeşte spaţiu măsurabil sau câmp de evenimente.
Borelianul lui Ω = R, notat BR este σ −corpul generat de mulţimile deschise (topologia
lui R), adică cel mai mic σ − corp a lui R care include mulţimile deschise. BR conţine
toate tipurile de intervale şi este generat de oricare tip de intervale reale.
Fie (Ω, F) şi (Ω0 , F0 ) o pereche de spaţii măsurabile (câmpuri de evenimente). O funcţie
f : Ω → Ω0 se numeşte funcţie măsurabilă dacă
f −1 (A) ∈ F, ∀ A ∈ F0 ,
P2. P(Ω) = 1;
P3. Pentru oricare şir de evenimente (An )n∈N∗ , cu An ∩ Am = ∅, ∀ n 6= m, are loc relaţia
∞
X
P (∪∞
n=1 An ) = P(An ).
n=1
P11. Dacă (An )n≥1 este un şir monoton (crescător sau descrescător) de evenimente, cu
limn→∞ An = A, atunci limn→∞ P(An ) = P(A).
P12. Pentru oricare şir de evenimente (An )n∈N∗ avem
∞
X
P (∪∞
n=1 An ) ≤ P(An ).
n=1
Astfel, două evenimente sunt independente dacă probabilitatea realizării unuia dintre aces-
tea nu este influienţată de realizarea celuilalt.
Evenimentele Ai , i ∈ I, unde I este o mulţime cel mult numr̆abilă de indici, formează
un sistem complet de evenimente ı̂n câmpul de probabilitate (Ω, F, P) dacă:
1. Ai ∩ Aj = ∅, ∀ i 6= j
2. ∪i∈I Ai = Ω
3. P(Ai ) > 0, ∀ i ∈ I
Dacă A este un eveniment cu probabilitate nenulă (neneglijabil), atunci loc:
1. Formula probabilităţii totale
X
P(A) = P(A|Ai )P(Ai )
i∈I
20
unde p = a/c este probabilitatea apariţiei unei bile la o extragere, iar q = b/c = 1 − p
este probabilitatea evenimentului contrar (apariţia unei bile negre).
2. Schema multinomială.
Este o extindere a schemei lui Bernoulli.
Se consideră o urnă conţinând bile de s culori, câte ai bile din culoarea i ∈ {1, 2, · · · , s}.
Notăm
ai
pi = Ps
j=1 aj
21
P(ki )i=1,s |n
4. Schema geometrică.
Schema este un exemplu de câmp discret de evenimente. Astfel, se repetă continuu o
experienţă, ı̂n condiţii identice, urmărindu-se de fiecare dată realizarea unui anumit
eveniment A. Fie P(A) = p. Considerăm momentul ı̂n care evenimentul A se
realizează pentru prima dată. Fie n ∈ N∗ . Probabilitatea ca evenimentul A să se
realizeze pentru prima dată ı̂n cea de a n-a experienţă este
pn = pq n−1 ,
unde q = 1 − p.
5. Schema hipergeometrică.
Se consideră o urnă cu N bile, dintre care a bile sunt albe iar restul de b bile sunt
negre (a + b = N ). Se extrag n bile (fără a le repune ı̂n urmă după fiecare extragere).
Notăm pk|n probabilitatea evenimentului Ak|n de a avea exact k bile albe ı̂ntre cele
n bile extrase. Presupunem n ≤ N, k ≤ a şi n − k ≤ b. Atunci
Cak Cbn−k
pk|n = .
CNn
22
1.9 Test
1. Definiţi noţiunea de evenimente condiţionate. Enunţati şi demonstraţi formula prob-
abilităţii totale.
(a) Care este probabilitatea ca portarul respectiv să apere exact 2 lovituri?
(b) Care este cel mai probabil număr de goluri primite?
6. Care este probabilitatea de a nimeri exact doua numere la jocul Loto 6 din 49, dacă
se joacă o singură variantă?
2.1 Introducere
2.2 Variabile aleatoare
Variabilele aleatoare se interpretează ca o ”enumerare” a rezultatelor (măsurabile) potenţiale
ale unui anumit experiment. Fiecare din aceste rezultate posibile are o probabilitate de re-
alizare. Definiţia de mai jos formalizează matematic un experiment cu rezultate aleatoare,
predictibile.
23
24
respectiv
lim F (x) = lim F (n) = lim P(Cn ) = P(Ω) = 1.
x→∞ n→∞ n→∞
4. Fie x ∈ R, arbitrar, fixat. Conform proprietăţilor unei funcţii monoton crescătoare şi
Propoziţiei 1.5.1, avem
1 1
F (x − 0) = lim F (t) = lim F x − = lim P X ≤ x − = P{X < x}.
t↑x n→∞ n n→∞ n
5. Pentru x ∈ R, avem
Din propoziţia de mai sus rezultă că, dacă F este continuă ı̂n x0 ∈ R, atunci P{X =
x0 } = 0. Menţionăm că, reciproc, orice funcţie F : R → [0, 1] care satisface proprietăţile
1-3 din Propoziţia 2.3.1 este funcţia de repartiţie a unei anumite variabile aleatoare. Două
sau mai multe variabile aleatore care admit o funcţie de repartiţie comună vor fi denumite
identic distribuite.
De asemenea, putem defini funcţia de repartiţie a unui vector aleator, având proprietăţi
generale apropiate de cele ale funcţiei de repartiţie a unei variabile aleatoare.
.
O noţiune importantă este independenţa variabilelor aleatoare, definită mai jos.
Are loc următorul rezultat de bază privind suma a două variabile aleatoare indepen-
dente.
26
Propoziţia 2.3.2. Fie variabilele aleatoare independente X şi Y, având funcţiile de repartiţie
F şi respectiv G. Atunci funcţia de repartiţie a variabilei aleatoare Z = X + Y este
H = F ∗ G, unde Z ∞
(F ∗ G)(x) = F (x − t)dG(t), ∀ x ∈ R.
−∞
Variabilele aleatoare cu valori ı̂ntr-o mulţime cel mult numărabilă se numesc discrete.
Variabilele aleatoare cu funcţia de repartiţie derivabilă, cu derivata continuă, se numesc
continue. In secţiunea următoare vom discuta aceste tipuri particulare, dar deosebit de
importante, de variabile aleatoare. Vom ilustra cele două tipuri de variabile aleatoare
(discrete şi continue) prin exemple clasice, semnificative.
Fie X(Ω) = {xi , i ∈ I} ⊂ R, unde I este o mulţime de indici cel mult numărabilă.
Notăm Ai = {X = xi } ∈ F, i ∈ I. Remarcăm că familia de evenimente {Ai , i ∈ I}
reprezintă o partiţie a spaţiului Ω.
Pentru A ∈ F, notăm prin cA : Ω → R funcţia caracteriatică a mulţimii A, definită
prin
1, ω ∈ A
cA (ω) = .
0, ω ∈ Ω \ A = Ac
Este elementar de verificat faptul că funcţia caracteristică a unui eveniment este o variabilă
aleatoare. Are loc următoarea reprezentare a variabilei aleatoare discrete X:
X
X= x i cA i .
i∈I
P
Notuăm pi = P(Ai ), i ∈ I. Avem pi ≥ 0, ∀ i ∈ I şi i∈I pi = 1.
Distribuţia variabilei aleatoare X se reprezintă convenţional astfel:
xi
X: .
pi i∈I
Variabila aleatoare binomială indică numărul de realizări ale unui eveniment având prob-
abilitatea p ı̂n n experienţe identice, independente (schema binomială - Bernoulli). Notăm
X ∼ Bin(n, p).
Este important de remarcat că o variabilă aleatoare binomială de parametrii (n, p) este
suma a n variabile aleatoare Bernoulli independente, identic distribuite (de parametru p).
Notăm X ∼ P oiss(λ).
Proprietăţile densităţii unei variabile aleatoare reale sunt evidenţite ı̂n propoziţia de
mai jos.
3. P{X = x} = 0, ∀ x ∈ R;
Rb
4. P{a ≤ X ≤ b} = a f (t) dt, ∀ [a, b] ⊂ R.
Demonstraţie.
1. Conform definiţiei, F este o primitivă a lui f pe R.
R Rx
2. R f (t) dt = lim f (t) dt = lim F (x) = 1.
x→∞ −∞ x→∞
3. F este continuă pe R, deci P{X = x} = F (x) − F (x − 0) = 0, ∀ x ∈ R.
4. P{a ≤ X ≤ b} = P{X ≤ b} − P{X < a} = P{X ≤ b} − P{X ≤ a} = F (b) − F (a) =
Rb
= a f (t) dt, ∀ [a, b] ⊂ R.
Este cel mai important exemplu de distribuţie de tip continuu. Astfel, spunem că o
variabilă aleatoare reală X are o repartiţie normală (gaussiană) de parametrii 0 şi 1 dacă
are funcţia de densitate:
1 t2
ϕ(t) = √ e− 2 , ∀ t ∈ R.
2π
29
F (x) = 1 − e−λx , ∀ x ≥ 0.
unde Z ∞
Γ(α) = xα−1 e−x dx
0
este funcţia lui Euler de prima speţă.
În statistică, distribuţia de tip Gam(n/2, 2), cu n ∈ N∗ , notată prin χ2n , are o importanţă
majoră.
xα−1 (1 − x)β−1
f (x) = , ∀ x ∈ (0, 1),
B(α, β)
unde Z 1
Γ(α)Γ(β)
B(α, β) = xα−1 (1 − x)β−1 dx =
0 Γ(α + β)
este funcţia lui Euler de a doua speţă.
30
se numeşte media lui X. Media este definită ı̂n ipoteza că integrala de tip Stieltjes-Riemann
de mai sus este convergentă.
Calculul mediei se explicitează astfel:
xi
1. pentru o variabilă aleatoare X de tip discret, cu distribuţia X : , media
pi i∈I
devine X
E(X) = xi p i ;
i∈I
respectiv X X
pij = P(Aij ) = P(∪i∈I Aij ) = P{Y = yj } = p0j , ∀ j ∈ J.
i∈I i∈I
obţinem
! !
X X X X X
E(X + Y ) = (xi + yj )pij = xi pij + yj pij
(i,j)∈I×J i∈I j∈J j∈J i∈I
X X
= (xi pi ) + (yj p0j ) = E(X) + E(Y ).
i∈I j∈J
ı̂n ipoteza că integrala este convergentă. În particular, ı̂n cazul când ϕ este o funcţie putere
sau modului unei funcţii putere, obţinem mediile de ordin superior, respectiv mediile
absolute de ordin superior.
Definiţia 2.6.2. Fie (Ω, F, P) un câmp de probabilitate şi X : Ω → R o variabilă aleatoare.
1. Media de ordin k ∈ N∗ a variabilei aleatoare X se defineşte prin
Z ∞
k
xk dF (x),
E X =
−∞
k k
dacă integrala este convergentă. Notăm
cu L = L (Ω) mulţimea variabilelor aleatoare
k
X : Ω → R cu proprietatea E |X| < ∞.
32
Deducen că, pentru n ∈ N∗ , o variabilă aleatoare X ∈ Ln (Ω) are medie finită de ordinele
k = 1, · · · , n.
2.7 Dispersia
Dispersia unei variabile aleatoare (din spaţiul L2 ) este un indicator al gradului de ı̂mprăştiere
a valorilor sale ı̂n jurul mediei.
1. V (X) ≥ 0;
3. V (aX) = a2 V (X), ∀ a ∈ R;
Demonstraţie. Proprietăţile 1 şi 3 sunt evidente. Fie µ = E(X) şi η = E(Y ). Formula
de calcul a dispersiei se obţine astfel:
2.8 Corelaţia
Corelaţia a două variabile aleatoare este un indicator al tipului de dependenţă al acestora.
Demonstraţie.
1. Avem
2. Din inegalitatea
E [t(X − µ) + (Y − η)]2 ≥ 0, ∀ t ∈ R,
sau
V (X)t2 + 2λ(X, Y )t + V (Y ) ≥ 0, ∀ t ∈ R,
obţinem
∆ := 4 λ2 (X, Y ) − V (X)V (Y ) ≤ 0.
Rezultă |ρ(X, Y )| ≤ 1.
1. ϕX (0) = 1;
2. ϕ(−t) = ϕX (t), ∀ t ∈ R;
3. |ϕX (t)| ≤ 1, ∀ t ∈ R;
7. dacă X ∈ ∩∞ n
n=1 L (Ω), atunci ϕX este dezvoltabilă ı̂n serie Taylor ı̂n jurul originii:
∞
X tn (n)
ϕX (t) = ϕX (0),
n=0
n!
(n)
cu ϕX (0) = in E (X n ) , n ∈ N.
Demonstraţie.
1. ϕX (0) = E (e0 ) = E(1) =1.
ϕX (−t) = E e−itX = E eitX = ϕX (t), ∀ t ∈ R.
2.
R R
∞ itx ∞ R∞
3. |ϕX (t)| = −∞ e dF (x) ≤ −∞ |eitx | dF (x) = −∞ 1dF (x) = 1, ∀ t ∈ R.
R∞ R∞
4. Fie a, b ∈ R. ϕaX+b (t) = −∞ eit(ax+b) dF (x) = eibt −∞ ei(at)x dF (x)eibt ϕX (at).
5. Fie t ∈ R şi h > 0. Avem
Z ∞
itx ihx
|ϕX (t + h) − ϕX (t)| = e e − 1 dF (x)
−∞
∞ ∞
Z Z
itx ihx hx
≤ e e − 1 dF (x) = 2 sin dF (x).
−∞ −∞
2
R∞
dF (x) ≤ ∞ dF (x) = 1, deducem că există a > 0 astfel ca
Fie ε > 0. Cum −∞ sin hx
R
2 −∞
Z
hx
sin dF (x) < ε/4.
(−∞,−a]∪[a,∞)
2
Rezultă ε
|ϕX (t + h) − ϕX (t)| < ε, ∀ h ∈ 0, .
2a
36
pentru oricare t ∈ R. 2
Teorema 2.9.2. (Teorema multiplicării) Dacă X1 , X2 , · · · , Xn sunt variabile aleatoare
independente, atunci
ϕX1 +X2 +···+Xn = ϕX1 ϕX2 · · · ϕXn .
Demonstraţie. Media produsului unui număr finit de variabile aleatoare independente
este egală cu produsul mediilor acestor variabile aleatoare. Atunci
n
! n n
Pn Y Y Y
ϕ k=1 Xk (t) = E e
Pn it k=1 Xk
=E eitXk
= E e itXk
= ϕXk (t), t ∈ R. 2
k=1 k=1 k=1
2. c
e−ity − e−itx
Z
1
F (x) = lim lim ϕX (t) dt, ∀ x ∈ R.
2π y→−∞ c→∞ −c it
Demonstraţie. Se aplică transformarea Fourier inversă. 2
Exemplul 2.9.1. Funcţiile caracteristice ale unor distribuţii clasice.
1. Distribuţia Bernoulli: X ∼ Bin(1, p) ⇒ ϕX (t) = 1 + p (eit − 1) , t ∈ R.
n
2. Distribuţia binomială: X ∼ Bin(n, p) ⇒ ϕX (t) = [1 + p (eit − 1)] , t ∈ R.
peit
4. Distribuţia geometrică: X ∼ Geom(p) ⇒ ϕX (t) = peit −eit +1
, t ∈ R.
t2 σ 2
5. Distribuţia normală: X ∼ N (µ, σ 2 ) ⇒ ϕX (t) = eiµt− 2 , t ∈ R.
λ
6. Distribuţia exponenţială: X ∼ Exp(λ) ⇒ ϕX (t) = λ−it
, t ∈ R.
37
2.10 Rezumat
Variabilele aleatoare se interpretează ca o ”enumerare” a rezultatelor (măsurabile) potenţiale
ale unui anumit experiment. Fiecare din aceste rezultate posibile are o probabilitate de
realizare.
Fie (Ω, F, P) un câmp de probabilitate. O funcţie măsurabilă reală X : Ω → R se
numeşte variabilă aleatoare. Conform definiţiei, {X ∈ I} ∈ F pentru orice interval real I.
In particular, {X ∈ (−∞, a]} = {X ≤ a} ∈ F, ∀ a ∈ R.
O funcţie X : Ω → Rd , (F, BRd ) măsurabilă, se numeşte vector aleator. Fie Xi , i =
1, 2, · · · , d, componentele scalare ale funcţiei X, deci X = (X1 , X2 , · · · , Xd ). Atunci
{X1 ≤ a1 , X2 ≤ a2 , · · · , Xd ≤ ad } ∈ F, ∀ (a1 , a2 , · · · , ad ) ∈ Rd .
Fie X : Ω → R o variabilă aleatoare. Funcţia reală F : R → [0, 1], definită prin
F (x) = P{X ≤ x} = P({ω ∈ Ω|X(ω) ≤ x}), x ∈ R,
se numeşte funcţia de repartiţie a variabilei aleatoare X.
Funcţia de repartiţie are următoarele proprietăţi:
1. F este monoton crescătoare pe R;
2. F este continuă la dreapta pe mulţimea R (F (x + 0) := lim F (t) = F (x), ∀ x ∈ R);
t↓x
• Mărimea:
Z ∞
V (X) = (x − µ))2 dF (x) = E(X − E(X))2 = E(X 2 ) − E2 (X)
−∞
• Mărimea p
σ(X) = V (X)
se numeşte abaterea medie pătratică a variabilei aleatoare X.
1. V (X) ≥ 0;
3. V (aX) = a2 V (X), ∀ a ∈ R;
Mărimea
λ(X, Y )
ρ(X, Y ) =
σ(X)σ(Y )
se numeşte coeficientul de corelaţie al variabilelor aleatoare X şi Y . Formula de calcul a
corelaţiei λ(X, Y ) = E(XY ) − E(X)E(Y ).
Dacă X şi Y sunt v.a. independente, atunci λ(X, Y ) = 0;
Avem ρ(X, Y ) ∈ [−1, 1].
Fie X o variabilă aleatoare având funcţia de repartiţie F . Funcţia ϕX : R → C ,
definită prin Z ∞
itX
eitx dF (x), t ∈ R,
ϕX (t) = E e =
−∞
eitxk pk .
P
atunci ϕX (t) = k∈I
40
2.11 Test
1. Definiţi funcţia de repartiţie a unei variabile aleatoare şi descrieţi proprietăţile aces-
teia. Discutaţi cazul variabilelor aleatoare independente.
2. Calculaţi media, dispersia şi funcţia caracteristică pentru o variabilă aleatoare:
(a) Poisson;
(b) exponenţială;
(c) geometrică.
3. Variabila aleatoare X are distribuţia discretă:
1 2 3
X: ,
p1 p2 p3
7
unde p1 , p2 , p3 > 0, cu p1 + p2 + p3 = 1. Ştiind că X are media E(X) = 4
şi dispersia
V (X) = 1116
, să se determine probabilităţile p1 , p2 , p3 .
4. Să se determine constantele reale a şi b astfel ca funcţia F (x) = a + b arctg x, x ∈ R,
să fie funcţia de repartiţie a unei variabile aleatoare X şi apoi să se calculeze E(X 2 ).
5. Fie funcţia f : R → R,
√ a
1−x2
, x ∈ (−1, 1)
f (x) = .
0, x ∈ (−∞, −1] ∪ [1, ∞)
(a) Să se determine a > 0 astfel ı̂ncât f să reprezinte densitatea de probabilitate a
unei variabile aleatoare X.
(b) Să se determine media E(X) şi dispersia V (X) a variabilei aleatoare X.
(c) Să se calculeze P |X| ≤ 21 .
Să se determine:
(a) probabilitatea ca o persoană să aştepte ı̂n staţie mai mult de 3 minute;
(b) probabilitatea ca o persoană să mai aştepte ı̂n staţie cel puţin de 2 minute,
după ce a aşteptat 1 minut.
7. Să se calculeze funcţia caracteristică a variabilei aleatoare X cu densitatea de prob-
abilitate: (
0, |x| ≥ 2;
f (x) = 1 |x| .
2
1 − 2 , |x| < 2
Capitolul 3
3.1 Introducere
Studiul convergenţa şirurilor de variabilelor aleatoare, ı̂n accepţiuni specifice teoriei prob-
abilităţilor, evidenţiază fenomene asimptotice utile. Un şir de variabile aleatoare poate
converge la o variabilă aleatoare (distribuţie limită) ı̂n sens ”tare” sau ı̂n sens ”slab”.
Convergenţa frecvenţei de realizare a unui eveniment, ı̂ntr-un şir de experienţe identice
şi independente, la probabilitatea acelui eveniment este asigurată de Legea numerelor
mari. Legea slabă a numerelor mari se deduce din inegalitatea lui Cebı̂şev. Teorema
limită centrală, considerat cel mai important rezultat al teoriei probabilităţilor, stabileşte
convergenţa la legea normală a distribuţiei normalizate a sumelor parţiale ale unui şir de
variabile aleatoare independente şi identic distribuite. Rezultatele asimptotice menţionate
au o importanţă majoră ı̂n statistica matematică.
E (|X|n )
P{|X| > a} ≤ , ∀ a > 0.
an
41
42
Teorema 3.2.2. (Inegalitatea lui Cebı̂şev (Chebyshev)) Fie X ∈ L2 (Ω), având media
E(X) = µ şi dispersia V (X) = σ 2 . Atunci
σ2
P{|X − µ| > a} ≤ , ∀ a > 0.
a2
Demonstraţie. Aplicăm inegalitatea lui Markov variabilei aleatoare Z = X − µ, pentru
n = 2.
Inegalitatea lui Cebı̂şev se utilizează la demonstrarea legii slabe a numerelor mari.
1 1
Teorema 3.2.3. (Inegalitatea lui Hölder) Fie p, q > 1 astfel ca + = 1. Pentru două
p q
variabile aleatoare X şi Y are loc inegalitatea
1 1
E(|XY |) ≤ [E (|X|p )] p · [E (|Y |q )] q .
Inegalitatea de mai sus exprimă faptul că dispersia variabilei aleatoare X ∈ L2 (Ω) este
pozitivă. Astfel,
dacă P {Xn → X} = 1;
4. şirul (Xn )n≥1 converge ı̂n spaţiul Lk (Ω) la X, unde k ∈ N∗ , notat prin
Lk
Xn → X,
dacă lim E |Xn − X|k = 0.
n→∞
Convergenţele ”ı̂n distribuţie” şi ”ı̂n probabilitate” sunt convergenţe slabe, ı̂n timp ce
convergenţele ”aproape sigură” şi ”ı̂n spaţiul Lk (Ω)” sunt convergenţe tari. Această clasifi-
care formală este susţinută de următoarea teoremă de ierarhizare a tipurilor de convergenţă
definite anterior.
Teorema 3.3.1. Fie X o variabilă aleatoare şi (Xn )n≥1 un şir de variabile aleatoare
definite pe câmpul de probabilitate (Ω, F, P). Au loc implicaţiile
1.
p d
Xn → X =⇒ Xn → X;
2.
a.s. p
Xn → X =⇒ Xn → X;
3.
Lk p
Xn → X =⇒ Xn → X.
obţinem
de unde
P ∪∞ ∞
∩
n=1 p=0 {|X n+p − X| < ε} = 1, ∀ ε > 0,
de unde
lim P ∩∞
p=0 {|Xn+p − X| < ε} = 1, ∀ ε > 0.
n→∞
Cum ∩∞
p=0 {|Xn+p − X| < ε} ⊂ {|Xn − X| < ε}, vom deduce
p
Rezultă Xn → X.
3. Implicaţia rezultă din inegalitatea lui Markov. Astfel, pentru oricare ε > 0, avem
E |Xn − X|k
P{|Xn − X| > ε} ≤ → 0, pentru n → ∞.
εk
2
Notăm Sn = X1 +X2 +· · ·+Xn care indică numărul de apariţii (realizări) ale evenimentului
A ı̂n n experienţe. Frecvenţa de realizare a evenimentului A este deci Sn /n. Fenomenul
descris de legea numerelor mari este prin urmare
Sn
→ p = E(X1 ).
n
Conergenţa frecvenţei de apariţie a evenimentului la probabilitatea sa se poate realiza ı̂n
sensul unui tip de convergenţă slab (lege slabă a numerelor mari) sau ı̂n sensul unui tip de
convergenţă tare (lege tare a numerelor mari). Rezultatul este extins la variabile aleatoare
cu medie şi dispersie finite.
σ2
Sn V (Sn )
P − µ > ε = P {|Sn − E(Sn )| > nε} ≤ 2 2 = 2 .
n nε nε
Rezultă
Sn
lim P − µ > ε = 0.
n→∞ n
Cum ε > 0 este arbitrar, obţinem concluzia.
Menţinăm că legea slabă a numerelor poate fi formulată pentru şiruri de variabile aleatoare
independente (dar neidentic distribuite) cu dispersii uniform marginite (Chebyshev), re-
spectiv pentru siruri de variabile de v.a. cu proprietatea V (Sn )/n2 → 0 (Markov).
Prezentăm (fără) demonstraţie şi o versiune a legii tari a numerelor mari.
46
Demonstraţie. (schiţă)
Considerăm şirul de v. a. iid Yn = Xnσ−µ , n ≥ 1, de medie comună 0 şi dispersie comună 1.
Atunci, conform Teoremei 2.9.1, 7, funcţia caracteriatică a variabilelor aleatoare Yn este
de forma
t2
ϕYn (t) = 1 − + 0 t2 , t → 0.
2
Fie Pn
Yk Sn − nµ
Zn = k=1 √ = √ , n ≥ 1.
n σ n
Pe baza proprietăţilor funcţiei caracteristice (Teorema 2.9.1), obţinem
n 2 n
t2
t t n→∞ t2
ϕZn (t) = ϕY1 √ = 1− +0 → e− 2 .
n 2n n
t2
Dar, pentru X ∈ N (0, 1), avem ϕX (t) = e− 2 , t ∈ R (a se vedea Exemplul 3.10.1). Con-
d
form teoremei de unicitate (Teorema 2.9.2) se obţine Zn → X. Astfel, teorema limită
centrală este demonstrată.
48
3.6 Rezumat
Inegalitatea lui Markov Fie X ∈ Ln (Ω), unde n ∈ N∗ . Atunci
E (|X|n )
P{|X| > a} ≤ , ∀ a > 0.
an
Inegalitatea lui Cebı̂şev (Chebyshev) Fie X ∈ L2 (Ω), având media E(X) = µ şi
dispersia V (X) = σ 2 . Atunci
σ2
P{|X − µ| > a} ≤ , ∀ a > 0.
a2
Definim următoarele tipuri de convergenţă ale şirului (Xn )n≥1 către limita X:
d
Xn → X,
dacă P {Xn → X} = 1;
4. şirul (Xn )n≥1 converge ı̂n spaţiul Lk (Ω) la X, unde k ∈ N∗ , notat prin
Lk
Xn → X,
k
dacă lim E |Xn − X| = 0.
n→∞
Au loc implicaţiile
p d
• Xn → X =⇒ Xn → X;
a.s. p
• Xn → X =⇒ Xn → X;
Lk p
• Xn → X =⇒ Xn → X.
49
1. Z b
Sn − nµ 1 x2
lim P a ≤ √ ≤b = √ e− 2 , ∀ a, b ∈ R, a < b;
n→∞ σ n 2π a
2. (versiunea Lindeberg-Lévy) Are loc următoarea convergenţa ı̂n distribuţie către o
variabilă aleatoare gaussiană:
√
n Sn d
− µ → X,
σ n
3.7 Test
1. Să se enunţe şi să se demonstreze Legea slabă a numerelor mari.
2. Să se enunţe Teorema limită centrală, adaptată pentru variabile aleatoare de tip
geometric.
P {|X − 3| ≥ 2} ≤ 0, 16.
Să se determine σ.
4.1 Introducere
51
52
n
Pn Să presupunem că au fost observate valorile (x1 , xsn2 , · · · , xn−s
Demonstraţie. n ) ∈ {0, 1} .
Notăm sn = n=1 xk . Probabilitatea de a observa aceste valori este θ (1−θ) n . Atunci,
cea mai verosimilă valoare pe care o poate lua θ este cea care maximizează funcţia
Demonstraţie. Vom remarca ı̂n primul rând că, pe baza inegalităţii lui Chebyshev,
p
X → θ (legea slabă numerelor mari).
√
4θ(1−θ)
Demonstraţie. Fie a > 0. Pentru n ≥ a2
, avem √a n
≥ 2, de unde
θ(1−θ)
(
S − nθ
√ )
n a n
Pθ {|X − θ| ≥ a} = P p ≥ p
nθ(1 − θ) θ(1 − θ)
( )
S − nθ 1
Z
x2
n
≤ P p ≥2 ≈ √ e− 2 dx < 0, 05.
nθ(1 − θ) 2π |x|≥2
n
!
X X
= Cnk 2 k
ρ(θ)(g(k) − θ) θ (1 − θ) n−k
.
k=0 θ∈D
Pentru k ∈ {0, 1, · · · , n}, considerăm funcţia ψk : [0, 1] → [0, ∞), definită prin
X
ψk (x) = ρ(θ)θk (1 − θ)n−k (x − θ)2 , x ∈ [0, 1].
θ∈D
Avem X
ψk0 (x) = 2 ρ(θ)θk (1 − θ)n−k (x − θ), x ∈ [0, 1].
θ∈D
Vom defini deci estimatorul bayesian a lui θ de risc pătratic mediu minim:
ρ(θ)θSn +1 (1 − θ)n−Sn
P
g(Sn ) = Pθ∈D Sn n−Sn
.
θ∈D ρ(θ)θ (1 − θ)
4.5 Rezumat
Statistica matematica utilizează rezultatele oferite de teoria probabilităţilor pentru a gene-
realiza rezultatele unei experienţ la o clasă de experienţe similare. Acest tip de extindere se
datorează unui raţionament de tip inductiv (obţinerea unor informaţii generale din analiza
unor informaţii particulare). Statistica analizează date concrete, locale, obţinute exper-
imental, pentru a prognoza date cu caracter general, a descoperi legile care guvernează
fenomemul studiat.
Noţiuni specifice:
• populaţia statistică reprezintă mulţimea tuturor elementelor avute ı̂n vedere ı̂n
cadrul unui studiu statistic;
• sondajul reprezintă examinarea (chestionarea) unei părţi a populaţiei statistice, nu-
mită eşantion;
• numărul elementelor unui eşantion (obţinut prin sondaj şi examinat) se numeşte
volumul eşantionului ;
• scopul unui studiu statistic este estimarea unei proprietăţii/particularităţi a populaţiei
statistice. Funcţia matematică care realizează estimarea se numeşte estimator ;
• o statistică (sau un estimator se defineţe ca o funcţie de variabilelor aleatoare
observabile (cele ale n-eşantionului) şi nu depinde de parametrii necunoscuţi.
Statistica eşantioanelor Bernoulli.
Modelare: fiecare element al populaţiei statistice se reprezintă printr-o variabilă aleatoare
Bernoulli X, cu distribuţia
0 1
X: ,
1−θ θ
Pentru evaluarea apriorică a prametrului necunoscut θ se propune estimatorul media
empirică, definit prin:
Sn
X= , unde Sn = X1 + X2 + · · · + Xn .
n
Media empirică exprimă frecvenţa de apariţie a valorii 1, deci oferă o evaluare a parametru-
lui θ. Proprietăţile principale ale mediei empirice X, ca estimator a lui θ.
1. X este un estimator fără abatere a lui θ: Eθ (X) = θ, ∀ θ ∈ (0, 1).
2. X este unicul estimator fără abatere a lui θ, care depinde de Sn .
3. X este estimatorul lui θ de maximă verosimilitate
4. Când talia eşantionului tinde la infinit, X converge la θ cu o rată exponenţială.
5. Riscul pătratic mediu al estimatorului X a lui θ converge la 0.
6. Abaterea lui X faţă de θ poate fi evaluată prin Teorema limită centrală.
Definim estimatorul bayesian a lui θ, de risc pătratic mediu minim:
ρ(θ)θSn +1 (1 − θ)n−Sn
P
g(Sn ) = Pθ∈D Sn n−Sn
.
θ∈D ρ(θ)θ (1 − θ)
Dacă θ admite densitatea de probabilitate f pe [0, 1], atunci estimatorul bayesian a lui θ
este R 1 S +1
θ n (1 − θ)n−Sn f (θ)dθ
g(Sn ) = R0 1 .
0
θSn (1 − θ)n−Sn f (θ)dθ
57
• Populaţia statistică este mulţimea (ı̂n sens matematic) care face obiectul unui
anumit studiu statistic.
• Sondajul este acţiunea de prevalare şi ı̂nregistrare a valorilor uneia sau mai multor
caracteristici statistice ale indivizilor unui eşantion fixat.
real x se poate evalua probabilitatea F (x) ca X să ia valori ı̂n intervalul (−∞, x], şi
anume:
F (x) = P {X ≤ x} ∈ [0, 1].
Spunem că variabila aleatoare X are densitatea de probabilitate f dacă:
Z x
F (x) = f (t) dt, pentru orice număr real x
−∞
Media unei variabile aleatoare X cu densitatea de probabilitate f se calculează prin:
Z ∞
M (X) = x f (x) dx
−∞
Dispersia unei variabile aleatoare X cu densitatea de probabilitate f se calculează
prin: Z ∞
2
σ (X) = (x − m)2 f (x) dx, unde m = M (X)
−∞
Un caz particular ı̂l constituie variabilele aleatoare finite. O astfel de variabilă
aleatoare X are un număr finit de valori reale x1 < x2 < · · · < xk cu proba-
bilităţile p1 , p2 , · · · , pk ∈ [0, 1]. Avem deci:
pi = P {X = xi }, i = 1, 2, · · · , k; p1 + p2 + · · · + pk = 1.
În acest caz, media şi respectiv dispersia variabilei aleatoare X se calculează după
următoarele formule:
Xk
m = M (X) = x1 p1 + x2 p2 + · · · + xk pk = xi p i
i=1
k
X
2 2 2 2
σ (X) = (x1 − m) p1 + (x2 − m) p2 + · · · + (xk − m) pk = (xi − m)2 pi .
i=1
f (x) 6
..
....
..
...
..
....
....
... .. ...
.. -
O m − 2σ m m + 2σ x
Valorile unei
59
P {m − 2σ ≤ X ≤ m + 2σ} = 0, 9544 · · ·
√
unde σ = σ 2 se numeşte abaterea standard a variabilei aleatoare X.
2. Repartiţia χ2 cu m grade de libertate are densitatea de probabilitate:
1 m x
f (x) = m m
x 2 −1 e− 2 , x > 0
2 Γ 2
2
unde: m Z ∞
m
Γ = x 2 −1 e−x dx.
2 0
M (X) = m
σ 2 (X) = 2m
Repartiţia χ2 are un rol important ı̂n statistica matematică ı̂n deducerea repartiţei
statistice a unor estimatori şi ı̂n verificarea ipotezelor statistice.
ni
• Frecvenţa relativă a valorii xi este numărul fi = n
. Constatăm că au loc
Pk
relaţiile: fi ∈ [0, 1] şi i=1 fi = 1.
60
valorile xi frecvenţele
absolute (ni ) relative (fi ) procentuale (pi %)
0 2 0,050 5,0 %
1 4 0,100 10,0 %
2 8 0,200 20,0 %
3 15 0,375 37,5 %
4 4 0,100 10,0 %
5 6 0,150 15,0 %
6 1 0,025 2,5 %
P7 P7 P7
i=1 ni = 40 i=1 fi = 1 i=1 pi = 100
B) Diagrama de structură
'$ 2
S 0
1
3 S
` `6
A
&% A 5
4
61
C) Histograma
37, 5%
20%
15%
10% 10%
5% 2, 5%
0 1 2 3 4 5 6
D) Poligonul frecvenţelor
..
T..
.. T
.. T
.. .. T
.. .. ..
l
..
.
. .
. .
T .. l
..
.. .. .. .. ..
. . .. .. .. .. l. -
0 1 2 3 4 5 6
a x1 x2 x3 x4 xk b
axa reală ( ı | ı | ı | ı | ............... | ı ] -
I1 I2 I3 I4 Ik
Tabelul frecvenţelor
intervalele Ii valorile frecvenţele
centrale xi absolute (ni ) relative (fi ) procentuale (pi %)
(480 , 480 30”] 480 15” 7 0,047 4,7 %
(480 30”, 490 ] 480 45” 28 0,189 18,9 %
(490 , 490 30”] 490 15” 53 0,358 35,8 %
(490 30”, 500 ] 490 45” 42 0,283 28,3 %
(500 , 500 30”] 500 15” 10 0,067 6,7 %
(500 30”, 510 ] 500 45” 8 0,054 5,4 %
P6 P6 P6
i=1 ni = 148 i=1 fi = 1 i=1 pi = 100
x = x1 f 1 + x2 f 2 + · · · + xk f k ,
v1 ≤ v2 ≤ · · · ≤ vn .
Observăm că din definiţia medianei reiese că aceasta este valoarea care ”ı̂mparte”
eşantionul ı̂n ı̂n două părţi de volume egale
Mediana se mai poate determina şi utilizând frecvenţele absolute n1 , n2 , · · · , nk ale
valorilor x1 < x2 < · · · < xk , după cum urmează:
xi , dacă n1 + n2 + · · · + ni−1 < n2 < n1 + n2 + · · · + ni−1 + ni
M ed =
xi +xi+1
2
, dacă n2 = n1 + n2 + · · · + ni−1 + ni
W = xmax − xmin
Astfel, dacă X are o distribuţie de tip finit atunci W = xk − x1 , iar dacă X are o
distribuţie de tip continuu cu valorileı̂n intervalul (a, b], atunci W (X) = b − a.
Cv% = 100 · Cv %
Să urmărim calculul indicatorilor statistici definiţi anterior pentru distribuţiile din
exemplele anterioare. Vom nota cu X variabila empirică cu distribuţia prezentată ı̂n
Exemplul 1 şi respectiv cu Y variabila empirică cu distribuţia descrisă ı̂n Exemplul 2.
64
W (X) = 6 − 0 = 6
Dispersia:
σ 2 (X) = (0 − 2, 925)2 · 0, 05 + (1 − 2, 925)2 · 0, 1 + (2 − 2, 925)2 · 0, 2 + (3 − 2, 925)2 · 0, 375 +
(4 − 2, 925)2 · 0, 1 + (5 − 2, 925)2 · 0, 15 + (6 − 2, 925)2 · 0, 025 = 1, 969 · · · Dispersia valorilor
(abaterea medie pătratică) este deci:
σ 2 (X) ∼
= 1, 97
Abaterea standard:
1, 969 ∼
p
σ(X) = = 1, 403
Coeficientul de variaţie:
1, 403 ∼
Cv (X) = = 0, 4797
2, 925
Expresia procentuală a coeficientul de variaţie:
Cv% (X) ∼
= 48 %
Interpretare: eşantion neomogen.
Amplitudinea:
W (Y ) = 51 − 48 = 3 (minute)
Dispersia:
σ (Y ) = (48, 25 − 49, 29)2 · 0.047 + (48, 75 − 49, 29)2 · 0, 189 + (49, 25 − 49, 29)2 · 0, 358 +
2
(49, 75 − 49, 29)2 · 0, 283 + (50, 25 − 49, 29)2 · 0, 067 + (50, 75 − 49, 29)2 · 0, 054 = 0, 34325 · · ·
σ 2 (Y ) ∼
= 0, 343
Abaterea standard:
0, 343 ∼
p
σ(Y ) = = 0, 586
Coeficientul de variaţie:
0, 586 ∼
Cv (Y ) == 0, 012
49, 29
Exprimarea procentuală a coeficientului de variaţie:
Cv% (Y ) ∼
= 1, 2 %
Interpretarea: eşantion foarte omogen.
−1 ≤ r ≤ 1.
1. dacă r este pozitiv, atunci variabilele X şi Y sunt corelate, adică tendinţa este ca
atunci când variabila X ia o ”valoare mare” şi variabila Y să ia tot o ”valoare
mare”. Variabilele X şi Y sunt cu atât mai puternic corelate cu cât coeficientul lor
de corelaţie este mai apropiat de valoarea 1.
2. dacă r este negativ, atunci variabilele X şi Y sunt invers corelate, adică tendinţa
este ca atunci când variabila X ia o ”valoare mare” variabila Y să ia o ”valoare
mică”.
3. dacă r este apropiat de valoarea 0, atunci variabilele X şi Y sunt independente sau
cu o dependenţă slabă.
0≤ρ≤1
Dacă ρ este apropiat de 1, atunci variabilele X şi Y sunt corelate iar dacă ρ este apropiat
de 0, atunci variabilele X şi Y sunt invers corelate.
67
4.7 Test
1. Definiţi media empirică şi descrieţi proprietăţile acestui estimator ı̂n cazul eşantioanelor
Bernoulli.
[1] G. Ciucu, C. Tudor, Probabilităţi şi procese stochastice, Ed. Academiei Române, 1979
(vol 1-2).
[4] W. Feller, Introduction to probability theory and its applications, Wiley, New York,
1968.
[6] M. Iosifescu, Gh. Mihoc, R. Theodorescu, Teoria probabilităţilor şi statistică matem-
atică, Ed. Tehnică, 1966.
[7] O. Onicescu, Gh. Mihoc, C. Ionescu-Tulcea, Calculul probabilităţilor şi aplicaţii, Ed.
Academiei Române, 1965.
69