You are on page 1of 31

TEORIA PROBABILITĂŢILOR

Prof. univ. dr. RODICA TRANDAFIR

I. ALGEBRE BOOLE. CORPURI DE PĂRŢI

I.1. Algebre Boole

Definiţie. Se numeşte algebră Boole, o mulţime nevidă B , în care sunt definite
operaţiile ∪ , ∩ , C , şi faţă de care sunt verificate axiomele următoare:
1. A ∪ B = B ∪ A ; A ∩ B = B ∩ A ; (comutativitate)
2. A ∪ (B ∪ C ) = ( A ∪ B ) ∪ C ; A ∩ (B ∩ C ) = ( A ∩ C ) ∩ C ; (asociativitate)
3. ( A ∩ B ) ∪ A = A ; A ∩ ( A ∪ B ) = A ; (absorbţie)
4. A ∩ (B ∪ C ) = ( A ∩ B ) ∪ ( A ∩ C ) ; A ∪ (B ∩ C ) = ( A ∪ B ) ∩ ( A ∪ C ) ;
(distributivitate)
5. (A ∩ A ) ∪ B = B ; (A ∪ A ) ∩ B = B ; (complementaritate)
C C

oricare ar fi A, B, C ∈ B .
Avem următoarele consecinţe rezultate din definiţii:
Consecinţa 1 (transformarea prin dualitate). Dacă într-o afirmaţie adevărată
în care intervin operaţiile ∪ , ∩ , C , şi relaţiile ⊂ şi ⊃ , înlocuim peste tot pe ∪ cu ∩ ,
pe ∩ cu ∪ , pe ⊂ cu ⊃ şi ⊃ cu ⊂ , iar pe C îl lăsăm neschimbat, obţinem tot o
afirmaţie adevărată numită afirmaţie duală.
Se observă că sistemul de axiome 1-5 rămâne neschimbat dacă substituim mutual
operaţiile ∪ , ∩ , operatorul C păstrându-şi locul.
Consecinţa 2 (Legi de indempotenţă). Pentru orice A ∈ B avem:
A∪ A = A, A∩ A = A (1.1.)
Consecinţa 3 (Legi de monotonie). Oricare ar fi A, B, C ∈ B , din A ⊂ B
rezultă:
A∪C ⊂ B∪C , A∩C ⊂ B∩C (1.2.)
Consecinţa 4. Pentru orice ( Ai )1≤i ≤ n ∈ B elementele
n n

∪ A i = A1 ∪..... ∪ A n
i =1
∩A
i =1
i = A 1 ∩ ...... ∩A n

sunt unic determinate şi nu depind de ordinea elementelor.

98
I.2. σ - algebre Boole

Fie F o familie oarecare de elemente dintr-o algebră Boole.
Definiţie. Numim reuniune a elementelor A ∈ F elementul B ∈ B dacă
satisface condiţiile:
1. A ⊂ B pentru orice A ∈ F
2. Dacă A ⊂ D pentru orice A ∈ F , atunci B ⊂ D .
Prin dualitate sunt conduşi la următoarea:
Definiţie. Numim intersecţie a elementelor A ∈ F , elementul C ∈ B , dacă:
1. C ⊂ A pentru orice A ∈ F ,
2. Dacă D ⊂ A pentru orice A ∈ F , atunci D ⊂ C .
Notăm: B = ∪ A C= A ∩
A∈F A∈F

Dacă F = ( Ai )i∈I atunci se utilizează notaţia: B = ∪A i C = ∩ Ai
i∈I i∈I
Definiţie. Se numeşte σ -algebră Boole (algebră Boole σ -completă), o algebră
Boole, B dacă pentru orice şir de elemente ( An )n∈N * ⊂ B există ∪
An ∈ B .
n∈N *
Teorema 1 (Legi de distributivitate). Dacă B este o σ -algebră Boole şi
A ∈ B , ( An )n∈N * ⊂ B avem:
 
A ∩  ∪ An  = ∪ ( A ∩ An ) (1.3.)
 n∈N *  n∈N *
 
A ∪  ∩ An  = ∩ ( A ∪ An ) (1.4.)
 n∈N *  n∈N *

I.3. Corp de părţi

Fie Ω o mulţime oarecare formată din elemente ω şi P (Ω ) mulţimea tuturor
părţilor mulţimii Ω .
Definiţie. Se numeşte corp de părţi o familie nevidă Σ ⊂ P (Ω ) , cu
proprietăţile:
(S1) A ∈ Σ implică A C ∈ Σ ;
(S2) A, B ∈ Σ implică A ∪ B ∈ Σ .
Din definiţie rezultă următoarele proprietăţi:
(P1) Avem ∅ ∈ Σ , Ω ∈ Σ .
n
(P2) Dacă ( Ai )1≤i ≤ n ⊂ Σ , atunci ∩ A ∈Σ .
i
i =1
(P3) Dacă A, B ∈ Σ , A − B ∈ Σ .

99
I.4. σ - corp de părţi

Definiţie. Se numeşte σ -corp de părţi (corp borelian) o familie nevidă
Σ ⊂ P (Ω ) care posedă proprietăţile:
(S1-1) A ∈ Σ implică A C ∈ Σ ;
(S1-2) ( An )n∈N * ⊂ Σ implică ∪ An ∈ Σ .
n∈N *
Proprietăţile (P1) – (P3) rămân valabile şi pentru σ -corpuri. Avem adevărate şi
următoarele proprietăţi:
(P4) Dacă ( An )n∈N * ⊂ Σ , atunci lim An , lim An ∈ Σ ,
n→∞ n →∞

(P5) Dacă ( An )n∈N * ⊂ Σ , atunci lim An ∈ Σ , dacă există.
n→∞

II. CÂMP DE EVENIMENTE. PROBABILITATE

II.1. Câmp de evenimente
În teoria probabilităţilor experimentele studiate sunt experimente aleatoare şi
fiecare realizare a unui astfel de experiment se va numi probă. Rezultatul unei probe este
un eveniment.
Exemplu. În aruncarea cu zarul, mulţimea realizărilor posibile va fi
Ω = {1,2,3,4,5,6}. Câteva evenimente A = {1,3,5} „rezultat impar”; B = {1,2,3,4}
„rezultat inferior lui 5”; C = {2,4,6} „rezultat par”. Dacă la o aruncare apare faţa cu
numărul 3, sunt realizate evenimentele A şi B .
Notând prin Ω mulţimea tuturor rezultatelor posibile ale unui experiment
şi prin P (Ω ) mulţimea tuturor părţilor lui Ω , evenimentele aleatoare sunt elemente
ale lui P (Ω ) .
În mulţimea Σ a evenimentelor asociate unui experiment se pot introduce trei
operaţii corespunzătoare operaţiilor logice „sau”, „şi”, „non”. Fie A, B ∈ Σ .
a) „ A sau B ” este evenimentul care se realizează dacă şi numai dacă se realizează cel
puţin unul dintre evenimentele A sau B . Acest eveniment se notează prin A ∪ B
şi se va numi reuniunea evenimentelor A şi B ;
b) „ A şi B ” este evenimentul care se realizează dacă şi numai dacă se realizează
ambele evenimente A şi B , numit intersecţia acestor evenimente şi notate prin
A∩ B;
c) „non A ”, este evenimentul care se realizează dacă şi numai dacă nu se realizează
A . Acest eveniment îl vom numi contrar lui A şi se notează A C .
Dacă fiecărui eveniment îi ataşăm mulţimea de probe prin care se realizează,
atunci operaţiile dintre evenimente revin la operaţiile respective dintre mulţimile de probe
corespunzătoare, ceea ce justifică notaţiile a), b), c). Rezultatele operaţiilor cu evenimente
sunt tot evenimente ataşate experimentului respectiv.
100
Dacă A ∩ B = ∅ , deci A şi B nu se pot realiza simultan, spunem că A şi
B sunt evenimente incompatibile.
În mulţimea Σ a evenimentelor asociate unui anumit experiment, există două
evenimente cu o semnificaţie deosebită şi anume: evenimentele Ω = A ∪ A C şi
∅ = A ∩ A C . Primul constă în producerea evenimentului A sau în producerea
evenimentului A C ceea ce are loc evident, întotdeauna, prin urmare, acest eveniment nu
depinde evenimentul A , în sensul că Ω = A ∪ A C = B ∪ B C , B fiind eveniment din
mulţimea Σ . Este natural să numim evenimentul Ω, evenimentul sigur. Evenimentul ∅
constă în producerea evenimentului A şi în producerea evenimentului A C ceea ce nu
poate avea loc niciodată. Acest eveniment se va numi eveniment imposibil.
Fie evenimentele A, B ∈ Σ . Spunem că evenimentul A implică evenimentul
B şi scriem A ⊂ B , dacă atunci când se realizează A se realizează în mod necesar B .
Dacă avem simultan A ⊂ B şi B ⊂ A , atunci evenimentele A şi B sunt
echivalente şi notăm A=B (aceasta revine la egalitatea mulţimilor de probe care
corespund evenimentelor).
Implicaţia dintre evenimente este o relaţie de ordonare parţială în mulţimea
evenimentelor şi corespunde relaţiei de incluziune din algebrele Boole.
Definiţie. Un eveniment A ∈ Σ este compus dacă există două evenimente
B, C ∈ Σ , B ≠ A , C ≠ A astfel ca A = B ∪ C . În caz contrar evenimentul este
elementar.
Atomii algebrei Boole a evenimentelor se numesc evenimente elementare ale
câmpului (notate ω ), evenimentul sigur e Ω iar evenimentul imposibil ∅ .
Dacă mulţimea Ω conţine un număr finit de evenimente elementare,
Ω = {ω1 , ω 2 ,..., ω n } atunci un eveniment este o parte a lui Ω şi deci va conţine şi el
un număr finit (r<n) de evenimente elementare. În acest caz mulţimea evenimentelor Σ
este chiar P (Ω ) , în general însă avem Σ ⊂ P (Ω ) şi Σ se bucură de proprietăţi analoge
cu ale lui P (Ω ) .
Analiza unui număr mare de experimente aleatoare a condus la concluzia
următoare:
Axiomă. Mulţimea evenimentelor asociate unui experiment constituie o algebră
Boole.
Definiţie. Algebra Boole a evenimentelor asociate unui experiment se numeşte
câmpul de evenimente al experimentului respectiv.
Deci câmpul de evenimente va fi o mulţime Ω înzestrată cu un corp de
evenimente Σ , şi se va nota prin {Ω, Σ} .
Definiţie. Vom numi corp borelian de evenimente ( σ - câmp) o mulţime Ω
înzestrată cu un câmp borelian ( σ - câmp) de evenimente Σ şi se va nota, de asemenea,
prin {Ω, Σ} .

101
Exemplu. O urnă conţine 20 de bile numerotate de la 1 la 20. Se extrage o bilă
şi îi reţinem numărul. Se cere:
a) Să se scrie evenimentul sigur.
b) Fie evenimentele: A - „rezultatul este par”; B- „rezultatul este multiplu de 5” şi C -
„rezultatul este o putere a lui 2”. Să se scrie evenimentele A ∪ B , A ∩ B , A C . Să
se arate implicaţiile dintre evenimente. Care evenimente sunt incompatibile?
R.: a) Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20}.
b) A ∪ B - „rezultatul este par sau multiplu de 5”; A ∩ B - „rezultatul este
multiplu de 10”; A C - „rezultatul este impar”; C ⊂A şi C ∩ B = Φ
Vom da câteva proprietăţi ale evenimentelor elementare:
(E1) Fie A ∈ Σ un eveniment elementar şi B ∈ Σ un eveniment oarecare.
Dacă B ⊆ A , atunci B = ∅ sau B = A .
(E2) Condiţia necesară şi suficientă ca un eveniment A ∈ Σ , A ≠ ∅ să fie
elementar este să nu existe un eveniment B ∈ Σ , B ≠ ∅ cu B ⊂ A .
(E3) Condiţia necesară şi suficientă ca un eveniment A ≠ ∅ să fie elementar
este ca pentru orice eveniment B să avem A ∩ B = ∅ sau A ∩ B = A .
(E4) Două evenimente elementare distincte sunt incompatibile.
(E5) Într-o algebră finită de evenimente pentru orice eveniment compus
B ∈ Σ , există un eveniment elementar A, A ⊂ B .
(E6) Orice eveniment dintr-o algebră finită de evenimente se poate scrie
sub firmă unică, ca o reuniune de evenimente elementare.
(E7) Într-o algebră finită de evenimente, evenimentul sigur este reuniunea
tuturor evenimentelor elementare.

II.2. Probabilitate pe un câmp finit de evenimente
Să considerăm o urnă U care conţine n bile, dintre care m albe şi n–m negre (bile
diferă numai prin culoare). Se extrage la întâmplare o bilă. Avem n evenimente
elementare. Fie A evenimentul „bila extrasă să fie albă”. Acest eveniment se poate realiza
prin m probe, m ≤ n .
Definiţie. Se numeşte probabilitatea evenimentului A raportul dintre numărul
cazurilor favorabile realizării lui A şi numărul cazurilor egal posibile.
Deci:
m
P( A) = . (2.1.)
n
Aceasta este definiţia clasică a probabilităţii. Ea se poate folosi numai în
experimente cu evenimente elementare egal posibile.
Să considerăm acum o urnă care conţine n bile dintre care a1 bile de culoarea c1 ; a 2
bile de culoarea c 2 ;...; a s bile de culoarea c s ; deci n = a1 + a 2 + ... + a n . Bilele diferă între
ele numai prin culoare. Se extrage o bilă din urnă. În acest caz extracţia unei bile este eveniment
elementar. Probabilitatea extragerii unei bile de culoare l va fi dată de definiţia clasică a
probabilităţii.
102
a1
P=
n
deci eveniment favorabil este extracţia unei bile de culoare l.
Un eveniment oarecare al câmpului este apariţia uneia din bile având culoarea
al1 + al2 + ... + alr
cl1 , cl2 ,..., clr notat A, iar P ( A) =
n
De aici rezultă că:
1. probabilitatea fiecărui eveniment este o funcţie de acest eveniment, având valori
pozitive;
a 1 + a 2 + ... + a s
2. probabilitatea evenimentului sigur Ω este 1; P(Ω ) = = 1;
n
3. dacă A = A1 ∪ A2 cu A1 ∩ A2 = ∅ atunci P ( A) = P ( A1 ) + P ( A2 ) ;
1
4. evenimentele elementare sunt egal probabile (au probabiltatea ).
n
Se observă că experimentul extracţiei dintr-o urnă poate fi interpretat cu ajutorul
a două câmpuri de evenimente; câmpul considerat mai sus pentru care eveniment
elementar este extracţia unei bile şi un alt câmp, (Ω, P (Ω )) pentru care eveniment
elementar este extracţia unei bile de culoare l, ( l = 1,2,..., s ). Funcţia P(A) care
reprezintă probabilitatea unui eveniment oarecare din Ω are proprietăţile 1, 2, 3 dar nu
verifică, în general, proprietatea 4 deoarece evenimentele elementare din Ω nu au
probabilităţi egale, decât pentru n1 = n2 = ... = n s .
Deci, în cazul unui câmp finit de evenimente {Ω, Σ} , o probabilitate pe acest
câmp o vom defini astfel:
Definiţie. Se numeşte probabilitate pe Σ , o aplicaţie P : Σ → R care satisface
următoarele axiome:
(1) P ( A) ≥ 0 pentru orice A ∈ Σ ;
(2) P (Ω ) = 1 ;
(3) P ( A1 ∪ A2 ) = P( A1 ) + P ( A2 ) pentru orice A1 , A2 ∈ Σ cu A1 ∩ A2 = ∅ .
Proprietatea (3) se extinde prin recurenţă la orice număr finit de evenimente
incompatibile două câte două. Deci, dacă Ai ∩ A j = ∅ , i ≠ j , i, j = 1,..., n , atunci:
 n  n
P ∪ A i  = ∑ P(A i ) .
 i=1  i=1
Definiţie. Numim câmp de probabilitate finit, un câmp finit de evenimente
{Ω, Σ} înzestrat cu o probabilitate P, notat {Ω, Σ, P}.
Din regula de adunare a probabilităţilor deducem că pentru a cunoaşte
probabilităţile tuturor evenimentelor A ∈ Σ este suficient să cunoaştem probabilităţile
evenimentelor elementare ωi ; 1 ≤ i ≤ r , care alcătuiesc mulţimea finită

103
Ω = {ω1 ,..., ω r }, deoarece dacă notăm P({ωi }) = pi , 1 ≤ i ≤ r şi dacă
{ } { }
A = ωi1 ∪ ... ∪ ωik atunci
P ( A) = P ({ω }∪ ... ∪ {ω }) = P ({ω }) + ... + P ({ω }) = p
i1 ik i1 ik i1 + ... + pik .
Deci, un câmp finit de probabilitate este complet caracterizat de numerele
r
nenegative p1 , p 2 ,..., p r cu ∑p
i =1
i = 1.

k
Dacă p1 = ... = p r atunci P(A ) = unde k reprezintă numărul de evenimente
r
elementare care intră în compunerea evenimentului A (evenimente elementare favorabile
evenimentului A). Se ajunge astfel la definiţia clasică a probabilităţii.
Din definiţia probabilităţii rezultă următoarele proprietăţi:
(P1) Pentru orice A ∈ Σ , P A C = 1 − P ( A) .( )
(P2) Avem P (∅ ) = 0 .
(P3) Pentru orice A ∈ Σ avem 0 ≤ P ( A) ≤ 1 .
(P4) Pentru orice A1 , A2 ∈ Σ cu A1 ⊂ A2 avem P ( A1 ) ≤ P ( A2 ) .
(P5) Pentru orice A1 , A2 ∈ Σ avem
P( A2 − A1 ) = P( A2 ) − P( A1 ∩ A2 ) .
(P6) Dacă A1 ⊂ A2 , A1 , A2 ∈ Σ , atunci
P( A2 − A1 ) = P( A2 ) − P( A1 ) .
(P7) Avem P ( A1 ∪ A2 ) = P ( A1 ) + P ( A2 ) − P ( A1 ∩ A2 ) , oricare ar fi
A1 , A2 ∈ Σ .
(P8) P( A1 ∪ A2 ) ≤ P( A1 ) + P( A2 ) , oricare ar fi A1 , A2 ∈ Σ .
(P9) Dacă ( Ai )1≤i ≤ n ⊂ Σ ,
 n  n  n 
P  ∪ Ai  = ∑ P ( Ai ) −∑ P ( Ai ∩ Aj ) + ∑ P ( Ai ∩ Aj ∩ Ak ) + ... + ( −1) P  ∩ Ai  .
n −1

 i =1  i =1 i< j i< j <k  i =1 
(P10) Fie evenimentele ( Ai )1≤i ≤ n ⊂ Σ cu P ( A1 ∩ ... ∩ An −1 ) ≠ 0 , atunci:
 n 
P  ∩ Ak  = P ( A1 ) P ( A2 − A1 ) P ( A3 − ( A1 ∩ A2 ) ) ...P ( An − ( A1 ∩ ... ∩ An −1 ) ) .
 k =1 

104
II.3. σ –câmp de probabilitate

Definiţie. Fie {Ω, Σ} un σ –câmp de evenimente. Numim probabilitate pe
câmpul {Ω, Σ} , o funcţie numerică pozitivă P, definită pe Σ dacă:
1. P(Ω ) = 1 ,
 
2. P ∪ Ai  = ∑ P( A1 ) pentru orice familie numărabilă de evenimente
 i∈I  i∈I
( Ai )i∈I ⊂ Σ , incompatibile două câte două.
Observăm că probabilitatea este o măsură pentru care µ(Ω ) = 1 .
Deci un σ–câmp de probabilitate, va fi un σ–câmp de evenimente {Ω, Σ} ,
înzestrat cu o probabilitate; el se va nota cu {Ω, Σ, P} .
Proprietăţile probabilităţii amintite pentru un câmp finit de probabilitate se
extind şi la σ–câmpurile de probabilitate. În plus, dacă {Ω, Σ, P} este un σ–câmp de
probabilitate avem următoarele proprietăţi:
(P11) Pentru orice şir de evenimente ( An )n∈N * ⊂ Σ pentru care An +1 ⊆ An
 
(descendent), avem: lim P ( An ) = P  şi pentru orice şir de evenimente
 ∩* 
n →∞
 n∈N 
( An )n∈N * ⊂ Σ pentru care An +1 ⊃⊇ An (ascendent),
 
avem: lim P ( An ) = P ∪ A 
n→∞  * . n
 n∈ N 
(P12) P lim An  ≤ lim P ( An ) ≤ lim P( An ) ≤ P lim An
 n →∞  n →∞ n→∞ n →∞
( ) pentru orice şir

( An )n∈N * ⊂ Σ .
(P13) Dacă şirul ( An )n∈N * ⊂ Σ este 0–convergent ( lim An = lim An ) atunci
( )
n→∞ n →∞

P lim An = lim P( An ) (proprietatea de continuitate secvenţială a
n →∞ n →∞
probabilităţii).
 
(P14) P ∪ An
 ( ) ( )
 *  ≤ ∑*P An pentru orice şir An n∈N * ⊂ Σ .
 n∈N  n∈N

105
II.4. Evenimente independente. Probabilitate condiţionată

Definiţie. Evenimentele A, B ale câmpului de probabilitate {Ω, Σ, P} sunt P–
independente dacă:
P( A ∩ B ) = P ( A) P( B) (2.2)
Se poate arăta cu uşurinţă că dacă evenimentele A, B ∈ Σ sunt P–independente
atunci perechile de evenimente A, B C ; A C , B şi A C , B C sunt P–independente.
Definiţie. Evenimentele ( Ai )1≤i ≤ n ⊂ Σ sunt P–independente m câte m dacă
pentru h ≤ m şi 1 ≤ i1 < i2 < ... < ih ≤ n avem:
( ) ( )( ) ( )
P Ai1 ∩ ... ∩ Aih = P Ai1 P Ai2 ...P Aih (2.3.)
Dacă m = n evenimentele sunt P–independente în totalitatea lor.
Definiţie. Spunem că evenimentele ( An )n∈N * ⊂ Σ sunt P–independente dacă
orice număr finit de evenimente din acest şir sunt P-independente.
Definiţie. Fie {Ω, Σ, P} un σ–câmp de probabilitate şi A, B ∈ Σ cu
P ( B) ≠ 0 . Numim probabilitate a evenimentului A condiţionată de evenimentul B,
raportul
P( A ∩ B)
= P(A B ) (2.4.)
P( B)
Notăm şi P (A B ) = PB ( A) .
Tripletul (Ω, Σ, PB ) este un σ–câmp de probabilitate dacă {Ω, Σ, P} este un
σ–câmp de probabilitate. (Se verifică cu uşurinţă axiomele din definiţia probabilităţii).
Definiţie. Numim sistem complet de evenimente o familie cel mult numărabilă
de evenimente ( Ai )i∈I cu Ai ∩ A j = ∅ pentru orice i ≠ j , i, j ∈ I şi
∪A
i∈I
i = Ω.

Formula probabilităţii totale. Fie ( Ai )i∈I ⊂ Σ un sistem complet de
evenimente cu P( Ai ) ≠ 0 , i ∈ I . Pentru A ∈ Σ , avem:
P ( A) = ∑ P( Ai )P( A Ai ) (2.5.)
i∈I

106
Formula lui Bayes (sau teorema ipotezelor). Fie un sistem complet de
evenimente ( Ai )i∈I ⊂ Σ . Probabilităţile acestor evenimente (ipoteze) sunt date înainte
de efectuarea unui experiment. Experimentul efectuat realizează un alt eveniment A. Să
arătăm cum realizarea evenimentului A schimbă probabilităţile ipotezelor. Trebuie să
( )
determinăm deci probabilităţile P Ai A pentru fiecare ipoteză Ai , i ∈ I . Avem:
P( Ai )P( A Ai )
P (Ai A) =
∑ P( A )P(A A )
i∈I
i i
(2.6.)

Inegalitatea lui Boole. Fie {Ω, Σ, Ρ} un câmp de probabilitate şi (A i ) i∈I ⊂ Σ
o mulţime cel mult numărabilă de evenimente. Dacă ∩A
i∈I
i ∈ Σ atunci:

 
P ∩ Ai  ≥ 1 − ∑ P (AiC ) (2.7.)
 i∈I  i∈I

III. VARIABILE ALEATOARE. CARACTERISTICI NUMERICE.
FUNCŢIE DE REPARTIŢIE
Una din noţiunile fundamentale ale teoriei probabilităţilor este aceea de variabilă
aleatoare.
Evenimentele unui câmp de probabilitate nu sunt, principial, mărimi în înţelesul
atribuit acestora în ştiinţele naturale sau tehnică; ele se descriu însă cu ajutorul unor mărimi
având valori reale şi care, în general, sunt rezultatul unor măsurători. Principalul merit al
actualei sistematizări a calcului probabilităţilor constă în definirea variabilelor aleatoare, deci a
mărimilor pe care ni le prezintă experimentul direct, sau teoriile destinate să-l interpreteze.
Dacă înţelegem prin variabilă aleatoare o funcţie reală definită pe mulţimea
evenimentelor elementare asociate experimentului considerat vom putea ilustra prin
exemple tipice pentru teoria probabilităţilor cum se trece de la un eveniment la o variabilă
aleatoare şi anume:
Exemplu. Să considerăm un experiment care are ca rezultat evenimentul A. În
locul evenimentul A putem considera variabila aleatoare ξ care ia valoarea 1 dacă s-a
realizat A şi 0 dacă s-a realizat A C . Am definit o variabilă aleatoare bernuolliană cu
două valori (variabilă indicatoare a evenimentului A) prin relaţia:
1 dacă ω ∈ A
ξ (ω ) = 
0 dacă ω ∈ A
C

În practică este de multe ori mai comod ca în locul evenimentelor să utilizăm
variabilele aleatoare indicatoare care le sunt asociate.

107
III.1. Variabile aleatoare discrete

Fie {Ω, Σ, Ρ} un σ–câmp de probabilitate şi (A i )i∈I ⊂ Σ un sistem complet
(finit sau numărabil) de evenimente. Sistemul numeric p i = P ( Ai ) , i ∈ I , se numeşte
distribuţia σ–câmpului de probabilitate.
Definiţie. Numim variabilă aleatoare discretă o funcţie ξ definită pe mulţimea
evenimentelor elementare ω ∈ Ω cu valori reale dacă:
1. ξ ia valorile xi , i ∈ I ;
2. {ω ξ(ω) = x }∈ Σ , i ∈ I .
i

O variabilă aleatoare discretă pentru care I este finită se numeşte variabilă
aleatoare simplă.
Schematic variabila aleatoare ξ se notează prin:
x 
ξ :  i  , ∑p 1 = 1. (3.1.)
 pi  i∈I i∈I

Tabloul (3.1) se numeşte distribuţia sau repartiţia variabilei aleatoare ξ .
Numărul produselor defecte dintr-un lot examinat, numărul de defecţiuni care
apar într-o anumită perioadă de funcţionare a unui dispozitiv, indicatorul unui eveniment
A sunt variabile aleatoare discrete.
Faptul că ∑p i = 1 ne sugerează ideea că această sumă se repartizează într-un
i∈I

anumit mod între aceste valori xi , deci din punct de vedere probabilistic o variabilă
aleatoare este complet determinată dacă se dă o astfel de repartiţie. Vom stabili o astfel de
lege de repartiţie.
Una din formele cele mai simple în care putem reprezenta o astfel de lege este
forma schematică (3.1) sau sub forma unui tabel.
xi x1 x2 ... xI ... xn
pi p1 p2 ... pI ... pn
iar o altă formă este cea grafică luând pe axa absciselor valorile xi iar pe axa ordonatelor
probabilităţile corespunzătoare. Putem obţine unind aceste puncte poligonul de repartiţie

108
sau diagrama în batoane

III.2. Momentele unei variabile aleatoare discrete
Momentele unei variabile aleatoare discrete sunt valorile tipice cele mai frecvent
utilizate în aplicaţii.
Definiţie. Fie ξ o variabilă aleatoare discretă care ia valorile xi cu
probabilităţile pi , i ∈ I . Dacă seria∑x p i∈I
i i este absolut convergentă, expresia:

M (ξ ) = ∑ x p i i (3.2.)
i∈I
se numeşte valoare medie a variabilei aleatoare discrete ξ .
Dacă ξ este o variabilă aleatoare simplă care ia valorile x1 ,..., x n cu
probabilităţile p1 ,..., p n atunci valoarea medie va fi:
n
M (ξ ) = ∑ xi pi (3.2'.)
i =1
Vom da în continuare câteva proprietăţi ale valorilor medii:
(P1) Dacă ξ şi η sunt două variabile aleatoare discrete definite prin (3.2.) şi dacă
M (ξ ) şi M (η) există, atunci există valoarea medie M (ξ + η) M(ξ+η) şi
avem:
M (ξ + η) = M (ξ ) + M (η) (3.3.)
Prin recurenţă, se obţine:
(P2) Fie ξ k , ( k = 1,..., n ) n variabile aleatoare discrete. Dacă M (ξ k )
 n

( k = 1,..., n ) există, atunci M

∑ξk =1
k  există şi

 n
 n
M  ∑ ξ k  = ∑ M (ξ k ) (3.4.)
 k =1  k =1

109
(P3) Fie ξ o variabilă aleatoare discretă şi c o constantă. Dacă M (ξ ) există,
atunci M (cξ ) există şi avem
M (cξ ) = cM (ξ ) (3.5.)
(P4) Fie ξ k , ( k = 1,..., n ) n variabile discrete şi c k , ( k = 1,..., n ), n
 n

constante. Dacă M (ξ k ) , ( k = 1,..., n ) există, atunci M ∑c k ξ k  există şi
 k =1 
 n  n
M  ∑ c k ξ k  = ∑ c k M (ξ k ) (3.6.)
 i =1  i =1
(P5) Valoarea medie a variabilei aleatoare ξ − M (ξ ) = η este nulă. ( η se numeşte
abaterea variabilei aleatoare ξ ).
(P6) Inegalitatea lui Schwarz. Fie ξ şi η două variabile aleatoare discrete pentru
care există M (ξ 2 ) şi M (η 2 ) . Avem:
( ) ( )
M (ξη) ≤ M ξ 2 M η 2 (3.7.)
(P7) Dacă ξ şi η sunt două variabile aleatoare discrete independente şi dacă
M (ξ ) şi M (η) există, atunci M (ξη) există şi
M (ξη) = M (ξ )M (η) (3.8.)
Definiţie. Fie ξ o variabilă aleatoarea discretă şi r un număr natural. Dacă
există valoarea medie a variabilei aleatoare ξ r , atunci această valoare medie se
numeşte moment de ordin r al variabilei aleatoare ξ şi se notează:
α r (ξ ) = M (ξ r ) = ∑ x kr p k (3.9.)
k
r
Valoarea medie a variabilei aleatoare ξ se numeşte moment absolut de
ordin r al variabilei aleatoare ξ şi se notează:
( )= ∑ x
β r (ξ ) = M ξ
r

k
k
r
pk (3.10.)
Definiţie. Dată o variabilă aleatoare discretă ξ , momentul de ordinul r al
variabilei aleatoare abatere a lui ξ se numeşte moment centrat de ordinul r a lui ξ şi
se notează
µ r (ξ ) = α r (ξ − M (ξ )) (3.11.)
Momentul centrat de ordinul doi a variabilei aleatoare discrete ξ se numeşte
dispersie sau varianţă şi se notează prin D 2 (ξ ) sau σ 2 , deci:
D 2 (ξ ) = σ 2 = µ 2 (ξ ) (3.12.)
Numărul D (ξ ) = σ = µ 2 (ξ ) se numeşte abatere medie pătratică a lui ξ .

110
Vom da în continuare câteva proprietăţi ale dispersiei şi ale abaterii medii
pătratice:
(D1) Are loc egalitatea:
( )
D 2 (ξ ) = M ξ 2 − [M (ξ )]
2
(3.13.)
(D2) Dacă η = aξ + b cu a şi b constante, atunci D (η) = a D(ξ ) .
(D3) Fie (ξ k )1≤ k ≤ n , n variabile aleatoare discrete două câte două independente şi
c1 ,..., c n , n constante. Avem:
 n  n
D 2  ∑ c k ξ k  = ∑ c k2 D 2 (ξ k ) (3.14.)
 k =1  k =1
(D4) Inegalitatea lui Cebîşev. Fie ξ o variabilă aleatoare. Are loc inegalitatea:
D 2 (ξ )
({
P ω ξ(ω) − M (ξ ) ≥ ε <
ε2
}) (3.15.)

pentru orice ε > 0 .

III.3. Variabile aleatoare de tip continuu

Fie {Ω, Σ, P} un σ–câmp de probabilitate.
Definiţie. Se numeşte variabilă aleatoare o funcţie ξ : Ω → R (definită pe
mulţimea evenimentelor elementare cu valori reale), astfel încât toate mulţimile de forma
{ }
Ax = ω ξ(ω) < x aparţin lui Σ pentru orice x ∈ R .
Vom da în continuare câteva proprietăţi ale variabilelor aleatoare:
1
(P1) Fie ξ o variabilă aleatoare şi c o constantă; atunci ξ + c ; cξ ; ξ ; ξ 2 ; cu
ξ
ξ ≠ 0 sunt variabile aleatoare.
(P2) Fie ξ şi η două variabile aleatoare; atunci {ω ξ(ω) > η(ω)}∈ Σ ,
{ω ξ(ω) ≥ η(ω)}∈ Σ , {ω ξ(ω) = η(ω)}∈ Σ .
ξ
(P3) Dacă ξ şi η sunt două variabile aleatoare atunci ξ − η , ξ + η , ξη ,
η
dacă: η ≠ 0 , sup{ξ, η} , inf {ξ, η} sunt de asemenea variabile aleatoare.
Teorema 1. Dacă ξ este o variabilă aleatoare nenegativă, există un şir
crescător (ξ n )n∈N * de variabile aleatoare simple, nenegative, care converge către ξ .
Teorema 2. Dacă (ξ n )n∈N * este un şir de variabile aleatoare atunci sup {ξ n } ,
n∈N *

inf {ξ n } , lim ξ n , lim ξ n sunt de asemenea variabile aleatoare.
n∈N * n →∞ n →∞

111
Definiţie. Vom spune că variabilele aleatoare ξ1 ,..., ξ n sunt independente
dacă pentru toate sistemele reale x1 ,..., x n avem:
P(ξ1 < x1 ,..., ξ n < x n ) = P(ξ1 < x1 ) ⋅ ... ⋅ P(ξ n < x n ) .

III.4. Funcţie de repartiţie

Definiţie. Se numeşte funcţie de repartiţie a variabilei aleatoare ξ , funcţia:
F ( x) = P({ω ξ(ω) < x}) (3.16.)
definită pentru orice x ∈ R .
Din această definiţie rezultă că orice variabilă aleatoare poate fi dată prin
intermediul funcţiei sale de repartiţie.
Dacă ξ este o variabilă aleatoare discretă cu p n = P (ξ = x n ) , n ∈ I , atunci
din (3.16.) rezultă:
F ( x) = ∑p
x < xn
n (3.17.)
şi se numeşte funcţie de repartiţie de tip discret. Rezultă că în acest caz F este o funcţie
în scară, adică ia valori constante pe intervalele determinate de punctele xi ( i ∈ I ).
Teorema 3. Funcţia de repartiţie a unei variabile aleatoare are următoarele
proprietăţi:
1. F ( x1 ) ≤ F ( x 2 ) dacă x1 < x 2 ; x1 , x 2 ∈ R .
2. F ( x − 0 ) = F ( x) pentru orice x ∈ R .
3. lim F ( x) = 0 .
n → −∞

4. lim F ( x) = 1 .
x → +∞

Teorema 4. Orice funcţie F ( x) monotonă, nedescrescătoare, continuă la stânga
şi cu F (− ∞ ) = 0 , F (+ ∞ ) = 1 este funcţia de repartiţie a unei variabile aleatoare definită
pe un câmp de probabilitate convenabil ales.
Teorema 5. Fie ξ o variabilă aleatoare a cărei funcţie de repartiţie este
F ( x) . Fie a şi b două numere reale cu a < b . Au loc egalităţile:
1. P(a ≤ ξ < b ) = F(b) − F(a )
2. P(a < ξ < b ) = F(b) − F(a ) − P(ξ = a )
3. P(a < ξ ≤ b ) = F(b) − F(a ) − P(ξ = a ) + P(ξ = b)
4. P(a ≤ ξ ≤ b ) = F(b) − F(a ) + P(ξ = b).

112
Definiţie. Fie ξ o variabilă aleatoare a cărei funcţie de repartiţie este F ( x) .
Dacă există o funcţie reală ƒ definită şi integrabilă pe R aşa încât:
x
F ( x) = ∫ f (u )du , (3.18.)
−∞
atunci F ( x) se numeşte funcţie de repartiţie absolut continuă, iar ξ se numeşte
variabilă aleatoare absolut continuă. Funcţia ƒ(x) se numeşte densitate de probabilitate
(repartiţie), iar expresia ƒ(x)dx se numeşte lege de probabilitate elementară.
Densitatea de probabilitate are următoarele proprietăţi:
1. f ( x) ≥ 0 pentru orice x ∈ R .
+∞
2. ∫
−∞
ƒ(u)du = 1.
3. Pentru orice a < b reali are loc relaţia:
P(a ≤ ξ < b) = P (a ≤ ξ < b ) =
b

a
ƒ(x)dx

III.5. Momentele unei variabile de tip continuu

Fie {Ω, Σ, P} un σ–câmp de probabilitate şi ξ o variabilă aleatoare a cărei
funcţie de repartiţie este F ( x) . Fie f ( x) densitatea de repartiţie a variabilei
aleatoare ξ .
Definiţie. Se numeşte valoare medie a variabilei aleatoare ξ expresia:
∞ ∞
M (ξ ) = ∫ xdF ( x) = ∫ xf ( x)dx (3.19.)
−∞ −∞
Definiţie. Se numeşte moment de ordinul r, r ∈ N , al variabilei aleatoare
continue ξ , expresia:
∞ ∞
M r (ξ ) = α r (ξ ) = ∫ x r dF ( x) = ∫ x r f ( x)dx (3.20.)
−∞ −∞
iar expresia:
M r ( ξ ) = β r (ξ ) = ∫ x dF ( x) = ∫
∞ r ∞ r
x f ( x)dx (3.21.)
−∞ −∞
se numeşte moment absolut de ordin r al variabilei aleatoare ξ .
În acelaşi mod în care s-au definit momentul centrat de ordinul r, dispersia,
abaterea medie pătratică în cazul variabilelor aleatoare discrete, se definesc şi pentru
variabile aleatoare de tip continuu. Proprietăţile valorii medii şi ale dispersiei date pentru
variabile aleatoare de tip discret se menţin pentru variabile aleatoare de tip continuu. În
aplicaţii se întâlnesc şi următoarele caracteristici:
Asimetria şi excesul. Se numesc asimetrie, As, şi exces, E, numerele:
µ 3 (ξ ) µ 4 (ξ )
As = ;E= (3.22.)
µ (ξ )
3
2
µ 22 (ξ )
dacă momentele respective există.

113
Definiţie. Se numeşte moment centrat în a de ordinul r al variabilei aleatoare
r
ξ , momentul de ordinul r al variabilei aleatoare ξ − a , iar momentele ξ − a se
numesc momente absolute centrate în a de ordinul r.
Din definiţie rezultă următoarele proprietăţi:
(P1) Dacă ξ e o variabilă aleatoare cu M (ξ ) = m şi D(ξ ) = σ , are loc
inegalitatea:
Mε − m ≥ σ 2 (3.23.)
(P2) Dacă ξ şi η sunt două variabile aleatoare independente care au aceeaşi
funcţie de repartiţie F şi λ este un număr real oarecare, au loc inegalităţile:
1
P(ξ − M ε ≥ ε ) ≤ P(ξ − η ≥ ε ) (3.24.)
2
ε
P ( ξ − M ε ≥ ε ) ≤ P ( ξ − η ≥ ε ) ≤ 2 P ξ − η ≥ 
1 
(3.25.)
2  2
pentru orice ε > 0 , cu M ε mediana variabilei aleatoare ξ .
Din definiţia medianei rezultă că în cazul unei variabile aleatoare ξ de tip
continuu, mediana este unic determinată de egalitatea:
x ∞ 1
∫−∞
ƒ(x)dx = ∫ ƒ(x)dx =
x 2
.

Din punct de vedere geometric, mediana este abscisa punctului prin care trece
paralela la axa Oy, care împarte în două părţi egale aria limitată de curba de ecuaţie
y = f ( x) şi axa Ox.
Inegalitatea lui Markov. Fie ξ o variabilă aleatoare pozitivă a cărei valoare
medie este finită. Pentru orice λ > 1 avem:
1
P(ξ ≥ λM (ξ )) ≤ . (3.26.)
λ

IV. REPARTIŢII PROBABILISTICE CLASICE

IV.1. Repartiţii de tip discret
În multe aplicaţii practice ale teoriei probabilităţilor întâlnim cazuri în care un
experiment sau mai multe experimente analoage se repetă de un număr de ori, fiecare din
ele ducând la realizarea sau la nerealizarea unui anumit eveniment. Ceea ce interesează
este numărul de realizări ale evenimentului într-o serie de experimente. Experimentele
pot fi efectuate în aceleaşi condiţii sau în condiţii diferite.

114
Teorema particulară a experimentelor repetate. Se fac n experimente
independente, în fiecare din ele un eveniment A se poate realiza cu probabilitatea p şi nu
se realizează cu probabilitatea q = 1 − p . Să se determine probabilitatea ca în cele n
experimente evenimentul A să se realizeze exact de m ori.
Avem:
Pm ,n = C nm p m q n − m (4.1.)
Probabilităţile Pm ,n au forma termenilor din dezvoltarea binomului ( p + q ) .
n

Din această cauză câmpul de evenimente din această schemă probabilizat după regula
(4.1.) se numeşte câmp binominal (este clar că evenimentele elementare ale câmpului
asociat experimentului pot fi considerate ca elemente ale produsului cartezian
Ω n = Ω × ... × Ω ).
Această schemă probabilistică a fost cercetată în mod deosebit de J. Bernoulli,
de aceea se mai numeşte şi schema lui Bernoulli.
Teorema generală a experimentelor repetate. Presupunem că se fac n
experimente independente, în fiecare din ele un eveniment A se poate realiza cu
probabilitatea pi , i − 1,2,..., n şi nu se realizează cu probabilitatea q i = 1 − p i . Să se
determine probabilitatea ca în cele n experimente evenimentul A să se producă exact de
m ori. Cu notaţiile făcute la schema binominală avem (4.1.), de unde:
Pm ,n = p1... pm qm +1...qn + p1... pm −1qm pm +1qm + 2 ...qn + q1...qn − m pn − m +1... pn
Avem:
n

∏(p z + q ) = ∑ P
i =1
i i m ,n zm (4.2.)
n
cu ∑P
m =0
m, n = 1.

Repartiţia Poisson de parametru λ

Să presupunem că în repartiţia binominală (4.2.) luăm np = λ (const.). Să
determinăm în acest caz valorile probabilităţilor pentru n → ∞ .
Avem:
λk −λ
pk = e (4.3.)
k!
şi
∞ ∞
λk
∑ p k = e −λ ∑
k =0 k =0 k!
= e −λ ⋅ e λ = 1 ,

deci probabilităţile definite prin (4.3.) sunt termenii unei repartiţii:

115
Definiţie. Repartiţia determinată prin probabilităţile (4.3.) se numeşte repartiţie
Poisson de parametru λ, iar variabila aleatoare
0 1 2 … k …
ξ :  −λ λ −λ λ 2 −λ λ k −λ 
e e e … e …
 1! 2! k! 
se numeşte variabilă aleatoare Poisson.
Repartiţia Poisson este denumită legea evenimentelor rare, datorită proprietăţii
sale de a aproxima o repartiţie binomială când numărul experimentelor n este foarte mare
iar probabilitatea de apariţie a evenimentului considerat este foarte mică.

Schema polinomială

O urnă conţine bile de culorile c1 ,...c s în proporţii cunoscute; deci cunoaştem
probabilitatea pi de apariţie într-o extracţie, a unei bile de culoarea ci , i = 1,..., s . Se
fac n extracţii a câte o bilă, cu condiţia ca la fiecare extracţie urna să aibă aceeaşi
compoziţie. Fie Aα evenimentul ca în extracţiile efectuate să apară α i bile de culoarea
ci , ( i = 1,..., s ), deci α = (α1 ,..., α s ) . Probabilitatea acestui eveniment este:
n!
P( Aα ) =
α α
p1 1 p 2 2 ... p sα s . (4.4.)
α 1!α 2 !...α s !
Această probabilitate se mai notează cu P (n; α 1 ,..., α s ) .

Schema bilei nerevenite

Se consideră o urnă cu următoarea structură: a1 bile de culoarea c1 ; a 2 bile de
culoarea c 2 ;...; a s bile de culoarea c s . Se fac n extracţii fără a repune bila extrasă înapoi
în urnă (experienţa este echivalentă cu extragerea a n bile deodată). Fie Aα evenimentul
aleator „apariţia a exact α k , ( k = 1,..., s ) bile de culoarea c k în grupul celor n bile
s
extrase unde α = (α 1 ,..., α s ) , 0 ≤ α k ≤ a k , ∑α k = n . Avem:
k =1
α1 α 2
C C ...C aαss
P( Aα ) = P(n; α 1 ,..., α s ) =
a1 a2
(4.5.)
C an1 +...+ as
Experimentul descris împreună cu câmpul de evenimente asociat, probabilizat
după regula dată, se numeşte schemă hipergeometrică sau schema bilei nerevenite.

116
IV.2. Repartiţii de tip continuu
În cele ce urmează ne vom referi la repartiţiile unidimensionale de tip continuu.
Fie {Ω, Σ, Ρ} un σ–câmp de probabilitate, L mulţimea variabilelor aleatoare
definite pe Ω şi F mulţimea funcţiilor de repartiţie. Vom presupune că pentru orice
F ∈ F există variabila aleatoare ξ ∈ L a cărei funcţie de repartiţie este F.

Repartiţia de densitate uniformă

Definiţie. Se numeşte funcţie de repartiţie uniformă pe [a, b] , funcţia de
repartiţie a cărei densitate de probabilitate este:
 1
 dacã x ∈ [a, b]
f ( x) =  b − a (4.6.)
 0 dacã x ∉ [a, b]
Definiţie. Variabila aleatoare ξ se numeşte uniformă pe [a, b] dacă are
repartiţie uniformă pe [a, b] .

Legea normală
Legea de repartiţie normală este o lege limită întâlnită frecvent în aplicaţii
practice. Se poate arăta că suma unui număr suficient de mare de variabile aleatoare
independente urmând o lege oarecare, pentru suficient de puţine restricţii, tinde
către o lege normală.
Definiţie. Se numeşte funcţie de repartiţie normală notată prin Φ •; m, σ 2 ( )
funcţia de repartiţie definită prin densitatea de probabilitate:
( x − m )2
( )= 1 −
2σ2
f x, m, σ 2
e (4.7.)
σ 2π
m şi σ2 fiind constante, numite parametrii repartiţiei.
( )
Graficul densităţii f x, m, σ 2 este cel din fig.4.1.

Fig. 4.1.
117
Funcţia de repartiţie este:
x (u − m )2
( ) = ∫ f (x, m, σ )dx = 1
x −
Φ x; m, σ ∫e 2σ2
2 2
du . (4.8.)
−∞
σ 2π − ∞
x t2
1 −
Vom nota Φ (x ) = ∗
∫e 2
dt .
2π −∞

Variabila aleatoare ξ se numeşte normală N m, σ 2 ( ) dacă are funcţia de
( )
repartiţie Φ •; m, σ . Pentru ξ vom calcula caracteristicile numerice esenţiale:
2

valoarea medie, dispersia şi momentele centrate:
+∞ +∞ ( x − m )2

∫ xf (x; m, σ )dx = σ
1 −
M (ξ ) = 2
∫ xe 2σ 2
dx
−∞ 2π −∞
Rezultă: M(ξ) = m, de unde: D2(ξ)=σ2
Centrul de dispersie m este centrul de simetrie al repartiţiei. Dacă m îşi schimbă
valoarea, curba de densitate se deplasează de-a lungul axei Ox fără a-şi schimba forma.
Deci m caracterizează poziţia repartiţiei pe axa Ox. Parametrul σ caracterizează forma
curbei de densitate. Ordonata maximă a curbei este invers proporţională cu σ .

Repartiţia χ 2

Fie ξ1 , ξ 2 ,..., ξ v , ν variabile aleatoare normale, normate, independente
( ξ i ∈ N (0,1) ). Suma pătratelor acestor variabile aleatoare este o variabilă
aleatoare notată: χ 2 = ξ 12 + ξ 22 + … + ξν2 . Această variabilă aleatoare are
densitatea de repartiţie
x2
1
, x ∈ [0, ∞ )

v−2
f ( x) = v
x e 2

v (4.9.)
2 Γ 
2

2

(Reamintim că Γ(n ) = ∫ x n −1e − x dx este funcţia gama a lui Euler, cu n un
0
parametru pozitiv).
Curba densităţii de repartiţie nu este simetrică (fig. 4.2.) dar ea tinde să
devină simetrică dacă numărul gradelor de libertate ν creşte (peste 30).

118
Fig. 4.2.

Repartiţia Student

Fie ξ1 , ξ 2 ,..., ξ n variabile aleatoare normale N (0, σ ) , independente.
Variabila
ξ
t=
1 n (4.10.)

n i =1
ξi

unde ξ este o variabilă aleatoare N (0, σ ) , independentă de şirul (ξ i )1≤i ≤ n , este o
variabilă aleatoare continuă cu densitatea de repartiţie.
 s +1
Γ  −
s +1
1  2  x2  2
f ( x) = 1 +  , x ∈ (− ∞,+∞ ) (4.11.)
sπ  s   s 
Γ 
2
numită densitatea repartiţiei Student, (după pseudonimului matematicianului
W. Gosset), cu s = n − 1 grade de libertate.
Curba teoretică a acestei densităţi este cea din fig. 4.3.

Fig. 4.3.
Ea este asemănătoare cu curba densităţii normale, dar diferită. Dacă s → ∞
repartiţia variabilei Student tinde spre funcţia Laplace Φ (n ) .
119
V. SISTEME DE VARIABILE ALEATOARE.
ŞIRURI DE VARIABILE ALEATOARE. CONVERGENŢĂ
Definiţie. Sistemul (ξ 1 , ξ 2 ) se numeşte variabilă aleatoare bidimensională
sau vector aleator cu 2 dimensiuni.

V.1. Sisteme de două variabile aleatoare

Fie ζ = (ξ, η) o variabilă aleatoare cu 2 dimensiuni.
({
Definiţie. Funcţia F ( x, y ) = P ω ξ(ω) < x, η(ω) < y }) cu (x, y ) ∈ R 2 , se
numeşte funcţie de repartiţie a variabilei aleatoare ζ .
Interpretând sistemul (ξ, η) ca un punct aleator, funcţia de repartiţie F ( x, y ) nu este
altceva decât probabilitatea ca punctul aleator (ξ, η) să se găsească în pătratul infinit cu vârful în
punctul ( x, y ) din fig. 5.1. Notând cu Fξ (x) şi Fη ( y ) funcţiile de repartiţie ale variabilelor
aleatoare ξ şi η , în aceeaşi interpretare Fξ (x) reprezintă posibilitatea ca punctul aleator să se
afle în semiplanul limitat de dreapta paralelă cu Oy ce trece prin punctul de abscisă x, la dreapta
dreptei, iar Fη ( y ) reprezintă probabilitatea ca punctul aleator să se găsească în semiplanul
situat sub dreapta paralelă cu Ox, ce trece prin punctul de ordonată y.

Fig. 5.1.
Vom da câteva proprietăţi analoage celor date pentru funcţiile de repartiţie
unidimensionale:
(P1) F este nedescrescătoare în raport cu fiecare argument;
(P2) F este continuă la stânga în raport cu fiecare argument;
(P3) F ( x,−∞) = F (−∞, y ) = F (−∞,−∞) = 0 ;
(P4) F ( x,+∞) = Fξ ( x) ; F (+∞, y ) = Fη ( y ) ;
(P5) F (+∞. + ∞) = 1
În continuare vom nota simbolic (ξ, η) ⊂ D evenimentul „punctul aleator
(ξ, η) se găseşte în domeniul D”. Probabilitatea acestui eveniment se exprimă simplu
dacă D este un dreptunghi ale cărui laturi sunt paralele cu axele de coordonate. Fie
120
dreptunghiul D de vârfuri A(a,c); B(b,c); C(b,d); D(a,d). În acest caz evenimentul
(ξ, η) ⊂ D este echivalent cu {a ≤ ξ < b} ∩ {c ≤ η < d }, deci
P((ξ, η) ⊂ D ) = F (b, d ) − F (a, d ) − F (b, c) + F (a, c) (5.1.)
Dacă există o funcţie reală f definită şi integrabilă pe R2 aşa încât:
x y
F ( x, y ) = ∫ ∫ f (u , ν) du dν
−∞ −∞
atunci f se numeşte densitatea de probabilitate (repartiţie) a variabilei aleatoare cu 2
dimensiuni ζ .
Fie ξ, η două variabile aleatoare de tip continuu şi (ξ, η) interpretat ca un
punct aleator în plan. Fie R∆ dreptunghiul de laturi ∆x şi ∆y , avem:
P ( (ξ ,η ) ⊂ R∆ ) = F ( x + ∆x, y + ∆y ) − F ( x + ∆x, y ) − F ( x, y + ∆y ) + F ( x, y ) .
Avem:
P((ξ, η) ⊂ R ∆ ) ∂ 2 F( x, y)
lim =
∆x →0
∆y → 0
∆x ∆y ∂x∂y
Notăm această derivată prin f(x, y):
∂ 2 F ( x, y )
f ( x, y ) = (5.2.)
∂x∂y
ea fiind tocmai densitatea de probabilitate a variabilei aleatoare ζ .
Avem:
P((ξ, η) ⊂ D ) = ∫∫ f ( x, y )dxdy (5.3.)
D
Densitatea de repartiţie a lui ξ este nenegativă, iar:
+∞ +∞
∫ ∫−∞ −∞
f ( x , y)dxdy = 1

V.2. Caracteristici numerice ale sistemelor de două variabile aleatoare.
Covarianţă. Coeficient de corelaţie

Fie variabila aleatoare cu două dimensiuni ζ = (ξ, η)
Definiţie. Vom numi moment iniţial de ordin k, s, al sistemului (ξ, η) .
α k ,s = M ξ k ηs ( )
Vom numi moment centrat de ordinul k, s al sistemului (ξ, η) numărul:
[
µ k , s = M (ξ - M(ξ) ) (η - M(η))
k s
]
Avem:
+∞ +∞
α k ,s = ∫ ∫ x k y s f ( x, y )dxdy (5.4.)
−∞ −∞
+∞ +∞
µ k ,s = ∫ ∫ (x − M (ξ)) ( y − M (η))
k s
f ( x, y )dxdy (5.5.)
−∞ −∞

121
formule care în cazul variabilelor aleatoare discrete devin:
α k , s = ∑∑ xik y sj pij (5.6.)
i j

µ k , s = ∑∑ (xi − M (ξ )) ( y j − M (η)) pij
k s
(5.7.)
i j
Avem:
( )
α 1,0 = M ξ1η 0 = M (ξ )
α 0,1 = M (ξ η ) = M (η)
0 1

Un rol important în teoria sistemelor de variabile aleatoare îl are covarianţa.
Definiţie. Numim corelaţie sau covarianţă a variabilelor aleatoare (ξ, η)
valoarea:
cov(ξ, η) = M ((ξ − M (ξ ))(η − M (η))) (5.8.)
Efectuând calculul şi ţinând seama de proprietăţile valorii medii rezultă:
cov(ξ, η) = M (ξη) − M (ξ )M (η) (5.8'.)
Covarianţa este o caracteristică a sistemului care descrie, pe lângă dispersie,
legătura dintre ele. Se arată cu uşurinţă că dacă ξ şi η sunt independente, covarianţa lor
este nulă.
Pentru caracterizarea legăturii dintre variabilele aleatoare ξ şi η vom utiliza
coeficientul de corelaţie.
Definiţie. Se numeşte coeficient de corelaţie al variabilelor aleatoare ξ , η
raportul:
cov(ξ, µ )
rξ,η = (5.9.)
D(ξ )D(η)
Proprietăţi ale coeficientului de corelaţie
(P1) Fie D (ξ )D(η) ≠ 0 , atunci rξη = 0 dacă şi numai dacă variabilele ξ şi η
sunt necorelate.
(P2) Pentru orice două variabile aleatoare avem rξ2,η ≤ 1.
Definiţie. Se numesc drepte de regresie ale variabilelor aleatoare ξ , η
dreptele:
x − M (ξ ) y − M (η)
= cov(ξ, η) (5.10.)
D (ξ )
2
D 2 (η)
y − M (η) x − M (ξ )
= cov(ξ, η) (5.11.)
D (η)
2
D 2 (ξ )

122
VI. FUNCŢII CARACTERISTICE UNIDIMENSIONALE
Fie { Ω, Σ, P} un σ –câmp de probabilitate, ξ o variabilă aleatoare a cărei
funcţie de repartiţie este F.
Definiţie. Se numeşte funcţie caracteristică a variabilei aleatoare ξ aplicaţia
ϕ ξ : R → C definită de relaţia
( ) +∞
ϕ ξ (t ) = M e itξ = ∫ e itx dF ( x)
−∞
(6.1.)

Dacă ξ este de tip discret şi ia valorile (x k )k∈I , I ⊂ N * cu probabilităţile
( p k )k∈I atunci (6.1.) devine:
ϕ ξ (t) = ∑ p k e
itxk
(6.2.)
k∈I
Dacă ξ este de tip continuu cu densitatea de repartiţie ƒ, atunci (6.1.) devine:
+∞
ϕ ξ (t ) = ∫ e itx f ( x)dx (6.1'.)
−∞
Exemplu. Dacă ξ este o variabilă aleatoare Poisson avem
 0 1 n 
ξ :  −λ λ −λ λn −λ  , variabilă este de tip discret, deci:
e e e 
 1! n! 
λk
p k = e λ ∑ e itk = e λ (e −1)
∞ ∞
ϕ(t ) = ∑ e
itxk it
(6.3.)
k =0 k = 0 k!
Vom da în continuare câteva proprietăţi ale funcţiei caracteristice:
(P1) ϕ(0) = 1 .
(P2) Pentru orice t ∈ R , ϕ(t ) ≤ 1 .
(P3) ϕ(− t ) = ϕ(t ) , pentru orice t ∈ R.
(P4) ϕ este uniform continuă pe R.
(P5) Dacă η = aξ + b , a, b ∈ R atunci ϕ η (t ) = e itb ϕ ξ (at ) .
(P6) Funcţia caracteristică a unei sume finite de variabile aleatoare independente
este egală cu produsul funcţiilor caracteristice corespunzătoare termenilor.

VII. PROCESE MARKOV
Independenţa variabilelor aleatorii este o noţiune având o conexiune slabă
cu realizarea fenomenelor în raport cu dependenţa variabilelor. Adeseori ipoteza de
independenţă se dovedeşte o idealizare a faptelor reale. Dependenţa stochastică are
un conţinut mai adecvat şi mai corespunzător. Această dependenţă a fost studiată
îndeosebi sub forma enunţată de matematicianul A. A. Markov.

123
Procese Markov depinzând de un parametru discret

Fie (Ω, Σ, P ) un σ − câmp probabilizate şi (ξi )i∈ un şir de variabile
aleatorii discrete. Pentru fiecare i ∈ există o mulţime cel mult numărabilă I i pe
care este concentrată repartiţia variabilei ξ i .
Fie I = ∪I
i∈
i mulţimea cel mult numărabilă a valorilor tuturor variabilelor

ξi ( i ∈ ). Prin urmare, pentru fiecare i ∈ I , există t ∈ astfel încât
P ({s ξ t (s ) = i}) > 0 .
Un element i ∈ I se numeşte stare a procesului, deci I este mulţimea
tuturor stărilor procesului {ξt }t∈ .
Definiţie. Şirul {ξt }t∈ are proprietatea Markov, dacă pentru orice
n ≥ 2 , 0 ≤ t1 < ... < t n şi orice i1 ,..., in ∈ I , este satisfăcută egalitatea
({ }{
P s ξ tn (s ) = in s ξ tn −1 (s ) = in −1 ,..., ξ t1 (s ) = i1 = })
({ }{ })
. (7.1)
= P s ξ tn (s ) = in s ξ tn −1 (s ) = in −1
Dacă şirul {ξt }t∈ are proprietatea Markov, se spune că formează un
proces Markov cu parametru discret.
Din definiţia precedentă rezultă că
(
P {s ξ n (s ) = in }{s ξ n −1 (s ) = in −1 ,..., ξ1 (s ) = i1 } = )
( )
(7.2)
= P {s ξ n (s ) = in }{s ξ n −1 (s ) = in −1 }
pentru orice n ∈ * şi i1 ,..., in ∈ I .
Reciproc, din egalitatea (7.2) rezultă proprietatea Markov pentru şirul
{ξt }t∈ .
Propoziţia 1. Pentru orice m∈ , 0 ≤ t1 < ... < t n < ... < t n + m şi
i1 ,..., in ,..., in + m ∈ I avem
({ }{
P s ξ t v (s ) = i v , n ≤ v ≤ n + m s ξ t v (s ) = i v , 1 ≤ v ≤ n − 1 = })
({ }{
= P s ξ tv (s ) = iv , n ≤ v ≤ n + m s ξ tn −1 (s ) = in −1 }) (7.3)

Să notăm cu Σ t cea mai mică σ − algebră de părţi ale spaţiului S cu
proprietatea că ξ τ este (Σ t ,B ) − măsurabilă, pentru orice τ ≥ t ; în particular, Σ 0
este cea mai mică σ − algebră cu proprietatea că ξ t este (Σ 0 ,B ) − măsurabilă
pentru orice t ∈ .

124
Corolar 1. Dacă {ξt }t∈ este un procea Markov, atunci
({ }) ( {
P A ξ t v (s ) = i v , 1 ≤ v ≤ n = P A ξ t n (s ) = i n }) (7.4)
oricare ar fi A ∈ Σ t .
n +1

În mod evident, funcţia Pi ,t +1 definită prin egalitatea
(
Pi ,t +1 (i, B ∩ I ) = P ξ t−+11 (B ∩ I ) {s ξ t (s ) = i} )
Este o probabilitate de trecere pe I × (B ∩ I ) .
Dacă {ξt }t∈ este un procea Markov, atunci avem
P ({s ξ 0 (s ) = i0 ,..., ξ n (s ) = in }) =

( )
n
= P({s ξ 0 (s ) = i0 })∏ P {s ξ t (s ) = it }{s ξ τ (s ) = iτ , 0 ≤ τ < t}
t =1
Definiţie.
(i) Probabilităţile pi = P s ξ 0 (s ) = i ({ }) se numesc probabilităţile iniţiale
pentru procesul {ξt }t∈ .
(ii) Probabilităţile ( )
pit −1 ,it (t ) = P {s ξ t (s ) = it }{s ξ t −1 (s ) = it −1 } se numesc
probabilităţile de trecere ale procesului {ξt }t∈ .
Cu notaţiile din definiţia precedentă avem
n
P ({s ξ t (s ) = it , 0 ≤ t ≤ n}) = pi0 ∏ pit −1 ,it (t ) . (7.5)
t =1

Definiţie. Procesul Markov {ξt }t∈ se numeşte omogen, dacă funcţia
pit −1 ,it (t ) este independentă de t , adică pit −1 ,it (t ) = pit −1 ,it .
Aşadar, dacă {ξt }t∈ este un proces omogen, avem
n
P ({s ξ t (s ) = it , 0 ≤ t ≤ n}) = pi0 ∏ pit −1 ,it . (7.6)
t =1
În acest caz este justificată notaţia
(
pij = P {s ξ t (s ) = i}{s ξ t −1 (s ) = j} )
pentru probabilităţile de trecere. Se spune că p ij este probabilitatea de trecere a
procesului {ξt }t∈ din starea i în starea j după un pas (o unitate de timp).
Matricea Π = pij ( ) i , j∈I
formată cu probabilităţile de trecere se mai
numeşte matricea de trecere a procesului {ξt }t∈ ,

125
Propoziţia 2. Probabilităţile pi ( i ∈ I ) şi probabilităţile de trecere p ij
( i, j ∈ I ) satisfac relaţiile
pi ≥ 0 , ( i ∈ I ), ∑ p = 1;
i∈I
i

pij ≥ 0 , ( i, j ∈ I ), ∑ p = 1 . ij
j∈I

În baza relaţiilor (7.6) rezultă că probabilităţile pi , p ij determină complet
funcţia-probabilitate P pe (S , Σ ) , Σ = Σ 0 fiind σ − algebra generată de procesul
omogen {ξt }t∈ . În acest sens probabilităţile iniţiale şi probabilităţile de trecere
caracterizează un proces Markov.
Fie în continuare
p ij(0 ) = δ ij , p ij(1) = pij , pij(n +1) = ∑ p( ) p( )
h∈I
n
ih
1
hj (7.7)
Propoziţia 3. Pentru fiecare v ∈ avem
(
pij = P {s ξ v + n (s ) = j}{s ξ v (s ) = i}
(n )
) (7.8)
oricare ar fi i, j ∈ I .
Observaţie. Să notăm Π (n ) = pij(n ) ( ) i , j∈I
. Relaţiile (7.7) arată că matricea
de trecere după n paşi, Π (n ) este chiar puterea a n-a a matricii Π .
Propoziţia 4 (relaţiile Chapman-Kolmogorov). Pentru orice m, n ∈ şi
i, j ∈ I avem
pij(n + m ) = ∑ pih(n ) p hj(m ) (7.9)
h∈I

({
Probabilitătile pi(n ) = P s ξ n (s ) = i }) se numesc probabilităţile absolute la
momentul n al procesului.
Propoziţia 5. Pentru orice n ∈ şi i ∈ I avem
pi(n ) = ∑
p j p (jin ) , pi(n +1) =
j∈I

p (jn ) p (ji1)
j∈I
(7.10)

Definiţie. Dacă pentru fiecare i, j ∈ I şirul ( p( ) ) ij
n
n∈
are limită pentru

n tinzând la infinit, independentă de i , procesul {ξt }t∈ se numeşte ergodic.
Teorema 1. Fie {ξt }t∈ un proces omogen având mulţimea de stări I
finită. O condiţie necesară şi suficientă ca procesul să fie ergodic este să existe un
număr s ∈ * şi o stare h ∈ I astfel încât pih( s ) > 0 , oricare ar fi i ∈ I .
Corolar 1. Pentru orice m ∈ şi h ∈ I avem
∑p
j∈I
(∞ ) ( m )
j p jh = p h(∞ ) . (7.11)

126
Corolar 2. Avem p (j∞ ) > 0 pentru orice j ∈ I dacă şi numai dacă există
s∈ *
astfel încât pij( s ) > 0 pentru orice i, j ∈ I .
1
Corolar 3. Fie m numărul de stări ale lanţului. Avem p (j∞ ) = , j∈I
m
dacă şi numai dacă ∑p
i∈I
ij = 1 pentru orice j ∈ I .

Comportarea asimptotică a probabilităţilor de trecere după n paşi
constituie tema principală de cercetare a proceselor Markov cu parametru discret.
În această temă se încadrează studiul limitelor
1 n −1 (v )
lim
n→∞ n

v =0
pij .

Teorema 2. Fie {ξt }t∈ un proces omogen cu mulţimea stărilor I finită
şi fie pij(n ) probabilităţile de trecere după n paşi. Pentru orice i, j ∈ I şirul
 1 n −1 (v ) 
 ∑ pij  este convergent.
 n v =0  n∈N *
1 n −1
Fie pij(∞ ) = lim ∑ pij(v ) . Sunt evidente egalităţile
n →∞ n
v =0

∑ p(
j∈I
ij
∞)
=1, ∑ p(
h∈I
∞)
ih p hj(n ) = pij(∞ )

oricare ar fi i, j ∈ I .
Dar cum se reflectă structura procesului în limitele pij(∞ ) ? În continuare
vom da un răspuns la această întrebare. Vom nota cu f ij( n ) probabilitatea ca pentru
prima oară după n paşi procesul {ξt }t∈ să se afle în starea j . Dacă la momentul
iniţial, t = 0 , el s-a aflat în starea i :
(
f ij(n ) = P {s ξ n (s ) = j , ξ v (s ) ≠ j , 1 ≤ v ≤ n − 1}{s ξ 0 (s ) = i} . )
În cazul când {ξt }t∈ este omogen avem
(
f ij(n ) = P {s ξ n + m (s ) = j , ξ m + v (s ) ≠ j , 1 ≤ v ≤ n − 1}{s ξ m (s ) = i} )
oricare ar fi n ∈ .

∑ f ( ) (= )

Evident ij
n
f ij(∞ ) este probabilitatea ca procesul să treacă cel puţin
n =1
o dată în întreaga lui desfăşurare prin starea j , dacă la momentul iniţial el s-a aflat
în starea i .

127
În mod natural, i ∈ I se numeşte stare de irevesibilitate a procesului dacă
(∞ )
f ii = 1 . Se constată nemijlocit că
n

∑ f ( ) p(
v =1
ij
v
ij
n −v )
= pij(n ) (7.12)

pentru orice i, j ∈ I .
Propoziţia 6. Dacă j este stare de ireversibilitate, atunci
1 n −1 (v ) 1
p (jj∞ ) = lim
n →∞ n
∑ p jj = ∞
,
v =0
∑ nf
n =1
(n )
jj

1 n −1
∑f() ij
n

pij(∞ ) = lim ∑ pij(n ) = n =1

( i ≠ ).
n →∞ n
v =0
∑ nfn =1
jj
(n )

În caz contrar, limitele sunt zero.

Suma ∑ nf ( )
n =1
jj
n
se numeşte timp mediu de revenire a procesului în starea

j . Această denumire este justificată de faptul că suma precedentă dă media
variabilei ale cărei valori sunt momentele aleatorii n cu probabilităţile f jj( n ) .

BIBLIOGRAFIE

1. Ciucu, G., Simboan, G., Teoria probabilităţilor şi statistica matematică, Editura
Tehnică, Bucureşti, 1962.
2. Leonte, A., Trandafir R., Clasic şi actual în teoria probabilităţilor, Editura Dacia,
Cluj-Napoca, 1974.
3. Mihoc, G., Ciucu, G., Craiu V., Teoria probabilităţilor şi statistică matematică,
Editura Didactică şi Pedagogică, Bucureşti, 1978.
4. Onicescu, O., Probabilităţi şi procese aleatoare, Editura Ştiinţifică şi
Enciclopedică, Bucureşti, 1977.
5. Sîmboan, G. ş.a., Teoria probabilităţilor, Editura Didactică şi Pedagogică,
Bucureşti, 1967.
6. Trandafir, R., Culegere de probleme de matematici pentru ingineri, ed. II-a,
Editura Tehnică, 1977.

128