You are on page 1of 14

REPÀS DE TEORIA DE LA PROBABILITAT

M. Carmen Miguel

16 de febrer de 2018

1 Probabilitat
La teoria de probabilitats s’encarrega de l’estudi de fenòmens aleatoris, és a dir, esdeve-
niments i variables aleatòries o estocàstiques X que succeeixen o poden pendre diferents
valors dins un conjunt anomenat espai mostral SX = {x1 , x2 , . . .}. Aquests valors poden
ser un conjunt numerable, com quan llancem un dau Sdau = {1, 2, 3, 4, 5, 6} o una moneda
Smoneda = {cara, creu}, o podria ser un conjunt continu de valors, com per exemple, la velo-
citat d’una partı́cula en un gas Sv = {−∞ < vx , vy , vz < ∞}, o l’energia d’un electró en un
metall a temperatura zero Sε = {0 ≤ ε ≤ εf }.

Un succés A, és un subconjunt qualsevol de l’espai mostral S de tots els resultats possibles,
i.e. A ⊂ S, al que correspon una probabilitat P (A), p.e. Pdau (1) = 1/6 o Pdau (1, 3) = 1/3.
Les probabilitats han de satisfer les condicions següents:

1. Positivitat: P (A) ≥ 0 i totes les probabilitats han de ser no nul·les.

2. Additivitat: P (A∪B) = P (A)+P (B), si A i B són mútuament excloents (A∩B = ∅).

3. Normalització: P (S) = 1; és a dir, el succés ha de prendre el seu valor dins l’espai
mostral S.

Des d’un punt de vista pràctic, es poden assignar probabilitats a un succés A de dues maneres
diferents:

• Probabilitat objectiva: és la probabilitat obtinguda experimentalment a partir de


les freqüències relatives mesurades en moltes repeticions d’un experiment aleatori: N
són les repeticions i NA el número de vegades que obtenim A:

NA
P (A) = lim
N →∞ N

• Probabilitat subjectiva: és la probabilitat estimada teòricament basada en el co-


neixement incomplet que tenim de l’experiment. Per exemple, diem Pdau ({5}) = 1/6
i això es basa en què hi ha sis possibles resultats, i en què si el dau no ha estat tru-
cat, tots els resultats són equiprobables. Els resultats obtinguts mitjançant aquest
procediment o les seves conseqüències s’han sempre de contrastar amb els resultats
experimentalment disponibles, i a vegades, s’han de modificar a mesura que disposem
de més informació sobre els resultats d’un experiment.

Aquest últim tipus de probabilitats són les que farem servir més en la Fı́sica Estadı́stica.

1
1.1 Relacions útils entre les probabilitats de successos diferents
Denominarem:

(i) P (A) probabilitat de que el resultat de l’experiment sigui el succés A.


P (∅) = 0, ja que correspon a la probabilitat del conjunt buit.
P (S) = 1, ja que correspon a la probabilitat de tot l’espai mostral.

(ii) P (A ∩ B): probabilitat de què tots dos successos A i B s’obtinguin com a resultat d’un
experiment.

(iii) P (A ∪ B): probabilitat de què el succés A, el succés B, o tots dos s’obtinguin com a
resultat d’un experiment.

Es verica:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Si tenim el cas de successos mútuament excloents es verifica A ∩ B = ∅, i la relació anterior
s’escriu

P (A ∪ B) = P (A) + P (B)
Si els successos A1 , A2 , . . . , An són mútuament excloents (A1 ∩A2 ∩. . .∩An = 0) i exhaustius
(A1 ∪ A2 ∪ A3 . . . ∪ An = S) aquests n successos formen una partició de l’espai mostral S en
n subconjunts. Aleshores
n
X
P (A1 ) + P (A2 ) + . . . + P (An ) = P (Ai ) = 1.
i=1

Direm que A i B són dos successos independents si i només si

P (A ∩ B) = P (A) P (B)
És important no confondre independents amb mútuament excloents (P (A ∩ B) = ∅).

1.2 Probabilitat condicionada


La probabilitat condicionada P (A|B) = probabilitat de què el succés A sigui el resultat d’un
experiment si el succés B ja s’ha donat.

P (A ∩ B)
P (A|B) =
P (B)

Com que a més tenim que P (A ∩ B) = P (B ∩ A) es verifica que

P (B) P (A|B) = P (A) P (B|A).

Si A i B són idependents, aleshores, P (A|B) = P (A).

2
1.3 Teorema de Bayes
En la teoria de la probabilitat el teorema de Bayes és un resultat enunciat per Thomas
Bayes al 1763 que expressa la probabilitat condicional d’un esdeveniment aleatori A donat
B en termes de la distribució de probabilitat condicional de cas B donat A i la distribució
de probabilitat marginal de A. Aquest teorema és d’una gran rellevància i té múltiples
aplicacions, per exemple, suposem que coneixem la probabilitat de tenir mal de cap si tenim
grip, doncs amb unes poques dades més podriem saber la probabilitat de tenir grip si es té
mal de cap.
El teorema s’enuncia de la següent manera:

Teorema 1.1 Sigui {A1 , A2 , . . . , An } un conjunt de successos mutúament excloents i ex-


haustius, tals que la probabilitat de cada un d’ells es distinta de cero. Sigui B un succés
qualsevol del que és coneix la seva probabilitat condicional P (B|Ai ), la probabilitat P (Ai |B)
ve donada per

P (Ai )P (B|Ai )
P (Ai |B) =
P (B)

Regla de Bayes

En base a la definició de probabilitat condicionada obtenim la formúla o regla de Bayes:

P (Ai )P (B|Ai )
P (Ai |B) = P
k P (Ak )P (B|Ak )
Hi ha controvèrsia amb el tipus de probabilitats que s’han de fer servir. Els seguidors de
l’estadı́stica tradicional només fan servir probabilitats basades en experiments repetibles i
que tinguin una confirmació empı́rica, mentre que els estadistes “bayesians” permeten pro-
babilitats subjectives.

Aquest teorema pot indicar com hem de modificar les nostres probabilitats subjectives quan
rebem informació addicional d’un experiment. Aquesta estadı́stica està demostrant ser útil
en certes estimacions basades en el coneixement subjectiu a priori i el fet de permetre re-
visar estimacions en funció de l’evidència empı́rica és el que està obrint noves formes de
fer coneixement. Una aplicació d’això són els classificadors “bayesians” que es fan servir
freqüentment com implementacions de correu brosa o spam, que s’adapten amb l’ús.

2 Variables aleatòries i funcions de distribució


2.1 Variables aleatòries discretes
Sigui X una variable aleatòria discreta que, per tant, pot prendre un conjunt numerable de
valors SX = {x1 , x2 , ...}. Definim una probabilitat p(xi ) per a cada valor de xi com

p(xi ) = P (X = xi )

El conjunt de valors “p(xi )” es defineix com la funció de probabilitat de l’espai SX i ha de


satisfer les condicions següents:

3
p(xi ) ≥ 0 ⇒ Positivitat

X
p(xi ) = 1 ⇒ Normalització
i

Si es coneix la funció de probabilitat p(xi ) de la variable estocàstica X, es coneix tota la


informació sobre aquesta variable. Sovint, però, no es coneix p(xi ) però si alguns dels seus
moments.

El moment n-èssim de X es defineix com


X
hX n i = xni p(xi )
i

Aquests moments són molt útils perquè donen informació sobre la forma de la funció de
distribució, i sovint són més accessibles. Els moments més importants són els d’ordre més
baix, per exemple:

(i) La mitja, valor esperat o esperança matemàtica de X:


X
hXi = xi p(xi )
i

(ii) La variança de X:
D E

2
σX ≡ (X − hXi)2 = X 2 − hXi2

a partir de la qual es defineix la desviació tı́pica de X:


q
σX = hX 2 i − hXi2

que dóna una mesura de l’amplada de la distribució p(xi ). Si σx és molt petita, p(xi ) és
molt picada al voltant de hXi.

2.2 Variables aleatòries contı́nues


Si l’espai de resultats d’una variable aleatòria és el conjunt dels nombres reals o un sub-
conjunt d’ells, és a dir, si una variable aleatòria X pot prendre valors a l’interval [a, b] i.e
(a ≤ X ≤ b), definim la probabilitat acumulada o funció de distribució acumulada P (x) com
la probabilitat d’obtenir un valor de X més petit o igual a x, i.e P (x) = Prob (X ⊂ [a, x]).

Suposem que existeix una funció f (x), contı́nua a trossos tal que la probabilitat P (a ≤ X ≤ b)
de que X prengui un valor dins l’interval [a, b] ve donada per l’àrea entre a i b sota la corba
f (x) i.e:
Z b
f (x)dx = P (a ≤ X ≤ b)
a

4
Aquesta funció f (x) és la densitat de probabilitat de X, és a dir:

dP (x)
f (x) = ⇒ f (x)dx = dP (x) = Prob(X ⊂ [x, x + dx])
dx

La densitat de probabilitat ha de satisfer les condicions següents:

f (x) ≥ 0
Z
f (x)dx = 1
rang de X

Notar que la integral es calcula sobre tot el rang de X.

També en aquest cas és útil definir els moments n-èssims de X. El moment n-èssim es
definiex:
Z
hX i = dx xn f (x)
n

També la mitja o valor esperat, variança i la desviació tı́pica es defineixen com abans i són
els moments més útils.

La densitat de probabilitat està completament especificada si es coneixen tots


els seus moments.

2.3 La funció caracterı́stica


La funció caracterı́stica φX (k) de la variable aleatòria X es defineix com

(ik)n hX n i
D E Z X
ikX
φX (k) = e = dx eikx f (x) =
n!
n=0

Ara bé, aquesta expansió en sèrie només té sentit si els moments hX n i d’ordre més alt són
prou petits per a què la sèrie convergeixi. De la definició es pot veure que la densitat de
probabilitat és la transformada de Fourier inversa de la funció caracterı́stica:
Z
1
f (x) = dk e−ikx φ(k)

i si ens donen la funció caracterı́stica, podem calcular els moments per derivació:

1 dn φ(k)
hX n i = n

i dk n

k=0

La funció generatriu de cumulants és el logaritme de la funció caracterı́stica. La seva


expansió en sèrie genera els anomenats cumulants de la distribució.

X (ik)n
ln φ(k) = hX n ic
n!
n=1

Els primers quatre cumulants són

5
hXic = hXi → mitja

hX 2 ic = hX 2 i − hXi2 → variança

hX 3 ic = hX 3 i − 3hX 2 ihXi + 2hXi3 → relacionat amb la “skewness” (asimetria)

hX 4 ic = hX 4 i − 4hX 3 ihXi − 3hX 2 ihXi2 − 6hXi4 =


D E D E2
4 2
= (X − hXi) − 3 (X − hXi) −→ relacionat amb la curtosis

Els cumulants descriuen d’una manera més compacta la densitat de probabilitat. El tercer
i quart cumulants descrits anteriorment caracteritzen la forma de la funció densitat de pro-
babilitat.

Per finalitzar aquesta secció, considerem ara el cas d’una funció F (X) de la variable es-
tocàstica X. La variable Y = F (X) és una nova variable estocàstica. Podem calcular, per
exemple, el valor esperat de la funció com
Z ∞
hF (X)i = dx f (x)F (x)
−∞
Però com que la funció F (x) és una variable estocàstica, té també associada una densitat de
probabilitat pròpia:

fY (y)dy = Prob(F (x) ⊂ [y, y + dy])


Z
fY (y) = dx δ(y − F (x))f (x)

on δ(y − F (x)) és la funció delta de Dirac.


Es possible que hi hagi més d’una solució xi de l’equació:

F (x) = y, en aquest cas general

X X dx
fY (y)dy = f (xi )dxi ⇒ fY (y) = f (xi )

dy x=xi
i i


Aquest terme dx
dy és el jacobià associat al canvi de variables x → y.

Exemple:

f (x) = λ2 e−λ|x|


F (x) = x2 = y ⇒ x± = ± y amb dx = ± 1


dy
± 2 y

√   √
λ e−λ y
fY (y) = λ2 e−λ y 2√
1
y + −
1
2 y =
√ √

2 y

Aquest resultat és vàlid per y > 0.

6
3 Distribucions de probabilitat més importants
3.1 Distribució binomial
Considerem un experiment que té únicament dos possibles resultats, ex. A i B; i que repetim
un gran nombre N de vegades. La probabilitat que en N experiments trobem NA cops el
resultat A ve donada per exemple per la distribució binomial,
 
N
PN (NA ) = pNA pN −NA
NA A B

a on pA és la probabilitat que surti el resultat


 A en cada experiment i pB = 1 − pA la pro-
babilitat de B. El número combinatori NNA = NA !(NN−N !
A )!
ens dóna el nombre de maneres
possibles en què puc triar els NA resultats entre un total de N experiments, tenint en compte
que no importa l’ordre en què apareguin.

Aquesta distribució està normalitzada, ja que el teorema del binomi ens permet escriure
N N  
N
pNA pN −NA = (pA + pB )N = 1
X X
PN (NA ) =
NA A B | {z }
NA =0 NA =0 =1

La funció caracterı́stica per aquesta distribució és


N  
D E N
pNA pN −NA eikNA = (pA eik + pB )N
X
ikNA
φN (k) = e =
NA A B
NA =0

Els moments poden calcular-se de la manera següent:

1 dn φN

n
hNA i = n
i dk n k=0

(i) El primer moment:


1 dφN N N −1
ik ik
= N pA (pA + pB )N −1 = N pA

hNA i = = (pA e + pB ) ipA e
i dk k=0
i k=0
| {z }
=1

(ii) El segon moment:

d2 φN
i

2 d h ik N −1 ik
NA = − =− iN pA (pA e + pB ) e
dk 2 k=0 dk k=0
h i
N −2
ik
= − iN pA (N − 1)(pA e + pB ) pA e2ik i + (pA eik + pB )N −1 eik i

k=0
 

= N pA (N − 1)pA + |{z}


1  = N pA (N pA + pB )
pA +pB

7
La variància serà

NA2 − hNA i2 = N pA pB

i per tant, la desviació tı́pica


p
σN = N pA pB

Fixeu-vos que el valor mitjà depèn de N i que la desviació tı́pica escala com N , de manera
σN
que les fluctuacions o la incertesa hN Ai
≈ √1N es fa més i més petita com més gran és N, el
nombre d’experiments.

La distribució multinomial és la generalització de la distribució binomial per al cas de


múltiples resultats {A, B, . . . , M } amb probabilitats {pA , pB , . . . , pM }. La probabilitat de
trobar {NA , NB , . . . , NM } en N = NA + NB + . . . + NM experiments:

N!
PN ({NA , . . . , NM }) = pNA . . . pNM
NA ! . . . NM ! A M

3.2 Distribució de Poisson


En el lı́mit en què el nombre d’experiments N és molt gran (N → ∞), però la probabilitat
pA del resultat A és molt petita (pA → 0), de manera que el producte N pA = λ es manté
finit, es pot demostrar que la distribució binomial per a la variable aleatòria NA tendeix a
una distribució de Poisson, tal que

λNA −λ
PN (NA ) = e
NA !
La distribució de Poisson està normalitzada:

X λNA −λ
e = e−λ eλ = 1
NA !
NA =0

Un exemple clàssic de fenòmen descrit mitjançant una distribució de Poisson és el decaiment
radioactiu d’un nucli, (p = αdt).

La funció caracterı́stica d’aquesta distribució serà



X λNA −λ ikNA h i
φk (N ) = e e = e−λ exp λeik
NA !
NA =0

Que s’obté a partir de la funció caracterı́stica de la distribució binomial, tinguent en compte


que lim N pA → λ:
pA →0

h iN ik
h i
φk (N ) = (pA eik + pB )N ⇒ lim 1 + pA (eik − 1) = epA N (e −1) = e−λ exp λeik
pA →0

Els primers moments es poden calcular com hem fet per la distribució binomial:

8

hNA
2
i = λ2

NA3 = λ3 + λ 2
NA = λ + 3λ + λ
La desviació tı́pica (a partir de la variància):
q

σ= NA2 − hNA i2 = λ
Aquesta distribució està completament determinada pel seu primer moment hNA i = λ.

3.3 Distribució exponencial


És una funció de distribució que apareix freqüentment en el context de la fı́sica estadı́stica.
La densitat de probabilitat exponencial és

f (x) = N e−αx

on x pren els valors en l’interval [0, ∞) de la recta real. Recordem que


Z ∞
Γ(n + 1) n!
dx xn e−αx = n+1
= n+1 si α > 0, n > −1
0 α α
A més, la condició de normalització imposa
Z ∞
1
f (x)dx = 1 ⇒ N = 1 ⇒ N = α.
0 α
Per tant, podem escriure

f (x) = αe−αx .

Els primers moments de la distribució són


Z ∞
1
hxi = dx x f (x) = ,
0 α
Z ∞
2
hx2 i = dx x2 f (x) = 2 .
0 α
p 1
La desviació tı́pica és σ = hx2 i − hxi2 = ≡ hxi.
α
Un mètode alternatiu per a calcular els moments és el mètode de la funció de partició.
Aquesta es defineix com
Z ∞
Z(α) ≡ dx e−αx .
0
A partir d’aquesta funció podem calcular els moments. Aixı́, el primer moment pot obtenir-
se calculant la derivada
R∞
d 1 dZ dx xe−αx
− ln Z(α) = − = R0 ∞ −αx
≡ hxi.
dα Z dα 0 dx e
Anàlogament, la variança es pot obtenir fent la segona derivada

9
d2 1 d2 Z 1 dZ 2
   
d 1 dZ
ln Z(α) = = − 2 =
dα2 dα Z dα Z dα2 Z dα
R∞ 2 −αx R ∞ 2
0R dx x e dx xe−αx
= ∞ −αx
− R∞ 0
−αx
= hx2 i − hxi2 ≡ σ 2 .
0 dx e 0 dx e

Per tant, tota la informació rellevant pot extreure’s de les derivades de Z(α). N’hi ha prou
amb calcular aquesta funció
Z ∞
1
Z(α) = dx e−αx = ,
0 α
per obtenir ln Z = − ln α, i

d 1
hxi = − ln Z =
dα α

d2 1
σ2 = ln Z = 2 .
dα2 α
Aquest mètode simplifica molt els càlculs i sovint es pot generalitzar a altres densitats de
probabilitat.

3.4 Distribucions normal i gaussiana


La distribució gaussiana descriu una variable estocàstica contı́nua i real en el lı́mit en que tant
el nombre d’experiments N com el producte N p son molt grans. La densitat de probabilitat
ve donada per

(x − µ)2
 
1
f (x) = √ exp −
2πσ 2 2σ 2
on x pren valors en tota la recta real. Les constants µ i σ corresponen, respectivament, al
valor mig i a la desviació tı́pica de la variable X. La distribució gaussiana és simètrica al
voltant de µ.
Un cas particular de la distribució gaussiana és la distribució normal estàndard o tipificada
 2
1 x
f (x) = √ exp −
2π 2

que correspon a una gaussiana amb µ = 0 i σ = 1. El factor 1/ 2π ens assegura la
normalització. Veiem que els moments senars de la distribució normal són nuls perquè
la funció és imparella al voltant del zero (simetria). Per altra banda, els moments parells
venen donats per

2n/2
Z  
1 2 n 1
n
hx i = dx x √ e−x /2 = √ Γ
n
+ = (n − 1)(n − 3) . . . 3 · 1.
−∞ 2π π 2 2
D’aquesta forma tenim que

hxi = 0; hx2 i = 1 ⇒ σ 2 = hx2 i − hxi2 = 1.

10
Aquest segon moment de la distribució normal també pot calcular-se definint una funció de
partició com
Z ∞ r
−αx π
Z(α) = dx e =
−∞ α
on es pot verificar fàcilment que

d 1
hx2 i = − ln Z(α) =
dα 2α
que correspon amb el resultat hx2 i = 1 de la distribució normal quan α = 1/2.
En el cas més general

(x − µ)2
 
1
f (x) = √ exp −
2πσ 2 2σ 2

hxi = µ
hx2 i = µ2 + σ 2
hx3 i = µ3 + 3µσ 2
Notem com la distribució gaussiana ve determinada completament pels seus dos primers
moments.

Alternativament podem calcular la funció caracterı́stica de la gaussiana:


Z ∞
k2 σ2
 
ikx
φ(k) = dx f (x)e = exp ikµ −
−∞ 2
i fent ln [φ(k)] podem calcular els cumulants

hxic = µ
hx2 ic = σ 2
hx3 ic = hx4 ic = . . . = 0
on els dos primers especifiquen totalment la distribució.

4 Densitats de probabilitat de més d’una variable aleatoria


4.1 Densitat de probabilitat conjunta
Siguin X i Y dues variables estocàstiques discretes que prenen valors X(S) = {x1 , x2 , . . .} i
Y (S) = {y1 , y2 , . . .} sobre un determinat espai mostral S. Podem doncs definir la funció de
probabilitat de la parella ordenada de valors {xi , yi } com

p(xi , yi ) = P (X = xi , Y = yi )

Aquesta funció és la funció de probabilitat conjunta de la nova variable (X, Y ).

Si les variables estocàstiques X i Y són contı́nues escrivim la densitat de probabilitat con-


junta
RR de (X, Y ) com f (x, y) i integrem en comptes de sumar sobre les variables x i y:
Ω dxdy f (x, y) dins de la regió de definició. La densitat de probabilitat conjunta satisfà

11
f (x, y) > 0
ZZ
dxdy f (x, y) = 1

I el mateix es pot extendre a qualsevol nombre finit de variables estocàstiques.

La covariància de X i Y es defineix com


ZZ
cov(X, Y ) = dxdy (x − hxi) (y − hyi) f (x, y) =
ZZ
= xy dxdy f (x, y) − hXihY i = hXY i − hXihY i

La correlació de X i Y es defineix com

cov(X, Y )
corr(X, Y ) =
σx σy

4.1.1 Densitat de probabilitat marginal


Donada la variable aleatòria contı́nua (X, Y ), amb densitat de probabilitat f (x, y), es poden
calcular les densitats de probabilitat de cadascuna de les variables, integrant sobre l’altra
variable.
Z
fX (x) = dy f (x, y)
Z
fY (y) = dx f (x, y)

Sent fX (x) i fY (y) densitats de probabilitat marginal.

4.1.2 Densitat de probabilitat condicionada


Donada la variable aleatòria contı́nua (X, Y ), amb densitat de probabilitat f (x, y) es defineix
la densitat de probabilitat condicionada f (x|y) com la densitat de probabilitat de la variable
X suposant que Y = y

f (x, y)
f (x|y) =
fY (y)
Z
& normalització N = dx f (x, y) = fY (y)

Dues variables aleatòries X i Y són estadı́sticament independents si f (x|y) = fX (x). I per


tant es verifiquen les següents propietats:
(i) f (x, y) = fX (x)fY (y) Aquesta densitat conjunta factoritza.
(ii) hXY i = hXihY i
(iii) h(X + Y )2 i − hX + Y i2 = hX 2 i − hXi2 + hY 2 i − hY i2
(iv) cov(X, Y ) = 0

12
4.2 Teorema del lı́mit central
Donada una variable aleatòria X amb densitat de probabilitat fX (x), volem trobar la dis-
tribució de la variable aleatòria Y , definida com la suma normalitzada de N mesures de
X:
x1 + x2 + · · · + xN
yN =
N
Volem, per exemple, trobar la densitat de probabilitat fY (yN − hXi). La seva funció carac-
terı́stica es pot trobar:

Z
φ(k) = eik(yN −hXi) fY (yN − hXi) dyN =
Z
k
= ei N [(x1 −hXi)+(x2 −hXi)+···+(xN −hXi)] fX (xi )fX (x2 ) . . . fX (xN ) dx1 . . . dxN ,

on hem considerat que les mesures x1 , x2 , . . . , xN són estadı́sticament independents, i per


tant

φ(k) = [φ(k/N )]N .

A més, si la variança de X és σ 2 = hX 2 i − hXi2 , aleshores

k2 2
Z
k
φ(k/N ) = ei N (x1 −hXi) fX (x1 )dx1 = 1 − σ + ···
2N

∞  n
X ik h(x1 − hXi)n i
N n!
n=0

ik
Cal fixar-se que com que e N x1 és una funció oscil·lant, la funció φ(k/N ) decau a mesura que
k augmenta. A més, [φ(k/N )] decaurà encara més ràpidament. Si la funció fX (x1 ) va prou
ràpidament a zero quan x1 → ∞, els moments seran finits i
 3 N
k2 2

k 2 σ2
− k2N
φ(k) = 1 − σ + O −
− −−→ e
2N 2 N3 N →∞

Aixı́, la densitat de probabilitat fY (yN − hXi) es pot calcular com

Z
1
fY (yN − hXi) = dk e−ik(yN −hXi) φ(k) =

r
N (yN − hXi)2
Z  
1 −ik(yN −hXi) − k2N
σ2 2 N 1
= dk e e = exp −
2π 2π σ 2σ 2

En conclusió, independentment de la forma de fX (x), el promig d’un nombre molt llarg


de mesures de X és una variable gaussiana centrada a hXi i amb desviació tı́pica N −1/2
per la desviació tı́pica de fX (x). Aquest resultat és vàlid sempre que fX (x) tingui els mo-
ments finits, que les mesures de X : x1 , x2 , . . . , xN siguin estadı́sticament independents i que

13
N sigui prou gran.

Aquest resultat s’anomena teorema del lı́mit central i ens explica perquè molts fenòmens
que s’observen a la natura es poden descriure amb una distribució gaussiana.

5 Agraı̈ments
M. Carmen Miguel agraeix la inestimable ajuda i col·laboració de Ignacio López de Arbina,
Irene Roma, Samuel Rosende, Martı́ Segarra i Isaac del Toro a l’hora d’editar aquestes notes
de repàs de teoria de probabilitat per al curs de Fı́sica Estadı́stica.

14

You might also like