Professional Documents
Culture Documents
Probabilitat i estadística
i Estadística.
9 788483 017968
EDICIONS UPC
AULA POLITÈCNICA 88
Probabilitat i estadística
AULA POLITÈCNICA
/ MATEMÀTICA I ESTADÍSTICA
Probabilitat i estadística
EDICIONS UPC
Primera edició: febrer de 2003
Segona edició: febrer de 2005
Producció: Cargraphics
Pedrosa B 29-31, 08908 L’Hospitalet de Llobregat
¶Index
¶Index 7
Prefaci 11
0 Introducci¶
o a la probabilitat 13
0.1 Determinisme i aleatorietat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
0.1.1 Models deterministes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
0.1.2 Models probabil¶³stics: regularitat estad¶³stica . . . . . . . . . . . . . . . . 14
0.2 Diferents de¯nicions de probabilitat . . . . . . . . . . . . . . . . . . . . . . . . 16
0.3 Alguns exemples de models probabilistes en enginyeria . . . . . . . . . . . . . . 17
0.4 Mostreig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
0.4.1 Mostres ordenades sense reempla»cament: Pn;k on k · n . . . . . . . . . 21
0.4.2 Mostres ordenades amb reempla»cament: P Rn;k on ara k pot ser m¶es
gran que n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
¡ ¢
0.4.3 Mostres no ordenades sense reempla»cament: Cn;k = nk . . . . . . . . . 22
0.4.4 Mostres no ordenades amb reempla»cament: CRn;k . . . . . . . . . . . . 23
0.5 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
0.5.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
0.5.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1 Probabilitat 29
2 Variables aleatµ
ories 47
2.1 Variables aleatµories . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Variables discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3 Exemples importants de distribucions discretes . . . . . . . . . . . . . . . . . . 50
2.4 Variables cont¶³nues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.5 Exemples importants de distribucions cont¶³nues . . . . . . . . . . . . . . . . . . 54
2.6 Parµametres estad¶³stics: valor mitjµa i variµancia . . . . . . . . . . . . . . . . . . . 57
2.7 Funcions de variables aleatµories . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.8 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.8.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.8.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3 Vectors aleatoris 69
3.1 Vectors aleatoris. Funci¶o de distribuci¶o de probabilitat. . . . . . . . . . . . . . 69
3.2 Distribucions bidimensionals discretes . . . . . . . . . . . . . . . . . . . . . . . 72
4 Mostres i estimaci¶
o 89
4.1 Mostres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.2 Valors poblacionals i valors mostrals . . . . . . . . . . . . . . . . . . . . . . . . 90
4.3 La mitjana i la variµancia mostrals . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4 Estimadors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5 Intervals de con¯an»ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.6 Estimadors de la mitjana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.7 La t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.8 Estimadors de la variµancia. La distribuci¶o Â2 . . . . . . . . . . . . . . . . . . . 99
4.9 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.9.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.9.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5 Regressi¶
o lineal simple. 103
5.1 Regressi¶o lineal simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Signi¯caci¶o de r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3 Interval de con¯an»ca per ½. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4 Recta de regressi¶o. Mµetode dels m¶³nims quadrats . . . . . . . . . . . . . . . . . 106
6 Tests d'hipµ
otesi 109
6.1 Introducci¶o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2 Tests paramµetrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3 Exemples de tests paramµetrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.1 Test per al valor mitjµa d'una distribuci¶o normal . . . . . . . . . . . . . . 112
6.3.2 Test per a la diferµencia de valors mitjans . . . . . . . . . . . . . . . . . . 113
6.3.3 Tests d'hipµotesi i intervals de con¯an»ca . . . . . . . . . . . . . . . . . . . 114
6.4 Tests d'ajust d'una distribuci¶o . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.5 Problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Apµ
endix 119
Prefaci
La teoria de probabilitats i l'estad¶³stica formen un bagatge imprescindible en la formaci¶o
d'enginyers de totes les branques, que es troben sovint exposats a problemes que requereixen
tµecniques probabilistes o b¶e en la necessitat de fer anµalisis estad¶³stiques.
Aquest text ha estat elaborat pensant especialment en estudiants d'Enginyeries tµecniques de les
µarees de Telecomunicacions, Informµatica i Aeronµautica. El nostre objectiu ha estat el d'oferir
una introducci¶o clara i concisa als conceptes bµasics de la teoria de la probabilitat i l'estad¶³stica
a un nivell matemµatic assequible i en el context propi d'aquestes enginyeries, on els exemples
d'aplicaci¶o d'aquestes tµecniques s¶on molt abundants.
En particular s'ha procurat proveir l'alumne d'una extensa col¢lecci¶o de problemes i exercicis
que donin a l'estudiant material de treball su¯cient per assimilar els continguts del text.
Con¯em plenament que el text sigui un element valu¶os en el proc¶es de formaci¶o d'aquests
estudiants i que ompli el buit existent en la literatura, on textos de caracter¶³stiques similars
s¶on escassos i sovint d'un nivell poc apropiat.
Castelldefels, Novembre 2002
Els Autors
0 Introducci¶
o a la probabilitat
En aquest tema s'introdueixen els models probabilistes, se'n donen exemples re-
llevants en l'enginyeria, es fa la primera introducci¶
o a la noci¶
o de probabilitat i es
descriuen els primers exemples de mostreig.
Davant de determinades situacions f¶³siques intentem explicar i raonar el perquµe d'alguns com-
portaments i alhora ens interessa poder treure conclusions que ens prediguin determinades
situacions. Aixµo ho fem mitjan»cant un model. Un model no ¶es m¶es que una representaci¶o
aproximada de la situaci¶o f¶³sica que utilitza unes regles que siguin comprensibles per a nosal-
tres i que alhora permeti preveure fets rellevants d'un experiment sense necessitat de fer-lo.
Evidentment un model ¶es m¶es bo com m¶es s'apropa a la realitat, de manera que sempre que es
realitza una experiµencia, el resultat ha de ser coherent amb el que prediu el model.
Nosaltres ens centrarem en models matemµatics, ¶es a dir, models que s¶on aplicables a fenµomens
que tenen propietats que es poden mesurar.
Cal diferenciar entre models deterministes i models probabilistes.
0.1.1 Models deterministes
Hi ha experiments que s¶on aleatoris, ¶es a dir, que ¯ns i tot repetint l'experiment en les mateixes
condicions no podem preveure el resultat. Pensem, per exemple, en una urna que cont¶e tres
boles numerades amb 0;1 i 2. Barregem les boles i en traiem una a l'atzar. Tenim tres pos-
sibles resultats, que anotem en un conjunt E = f0; 1; 2g. Aquest conjunt l'anomenem espai
mostral. En aquest experiment no podem preveure el resultat que obtindrem, perµo presenta
una regularitat estad¶³stica. Vegem quµe vol dir aixµo:
Suposem que repetim l'experiment n vegades en les mateixes condicions. Anomenem N0 (n),
N1 (n) i N2 (n) el nombre de vegades que surten les boles 0, 1 i 2, respectivament, en n repeti-
cions de l'experiµencia. Aquests valors s'anomenen freqÄ uµencies absolutes. De¯nim ara el que
anomenem freqÄ uµencies relatives. La frequµencia relativa del resultat k (a l'exemple, k ¶es 0;1 o 2)
¶es la fracci¶o del nombre de vegades que apareix aquest resultat en n repeticions de l'experiµencia:
Nk (n)
fk (n) = :
n
Emp¶³ricament s'observa que el valor fk (n) s'apropa a un valor determinat a mesura que anem
¶ a dir:
augmentant n. Aixµo ¶es el que s'anomena regularitat estad¶³stica. Es
lim fk (n) = pk
n!1
La constant pk ¶es el que s'anomena probabilitat del resultat k. En el nostre exemple, si realitzem
l'experiment un nombre \gran" de vegades, podem comprovar que pk = 13 , per a qualsevol valor
de k = 0; 1; 2.
Resumint el desenvolupament anterior, els models probabilistes es caracteritzen per dos ele-
ments bµasics:
Vegem algunes propietats de la freqÄ uµencia relativa. Suposem que tenim ara un espai mostral
E = f1; 2; 3; ¢ ¢ ¢ ; mg i repetim l'experiment n vegades. Tenim que:
0 · Nk (n) · n on k = 1; ¢ ¢ ¢ ; m
i si dividim la inequaci¶o anterior per n, tenim per a les freqÄ
uµencies relatives
1.
0 · fk (n) · 1 on k = 1; ¢ ¢ ¢ ; m
i a m¶es tenim m
X
Nk (n) = n:
k=1
Dividint als dos costats per n, obtenim:
2. m
X
fk (n) = 1
k=1
De vegades estem interessats a obtenir molts resultats alhora. Per exemple, en el nos-
tre experiment, que surtin els valors 0 o 2. Aquests conjunts de resultats possibles els
anomenem successos. La freqÄ uµencia relativa associada a aquest succ¶es A = f0; 2g ¶es:
NA (n) N0 (n) + N2 (n)
fA (n) = = = f0 (n) + f2 (n)
n n
Amb el que hem vist anteriorment queda clar que podr¶³em de¯nir la probabilitat que surti el
succ¶es k com:
pk = lim fk (n)
n!1
perµo no queda clar el sentit d'aquest l¶³mit, ja que no podem repetir un experiment un nombre
in¯nit de vegades i tampoc no queda clar quin ha de ser el valor de n per poder-lo considerar
su¯cientment \gran". A m¶es, el que es pret¶en ¶es construir una teoria que es pugui aplicar a
situacions on no calgui fer l'experiment. Alhora, perµ o, ¶es raonable i intuijtiu relacionar probabi-
uµencia relativa. Per exemple, en l'experiµencia de les boles, podr¶³em assignar p0 = 13 a
litat i freqÄ
priori, ja que ¶es for»ca intuijtiu per la naturalesa de l'experiµencia que aquest ¶es un valor raonable.
Per aixµo, a l'hora de de¯nir una teoria de la probabilitat volem que es veri¯quin les relacions 1
i 3 de l'apartat anterior. De¯nim, doncs, la teoria de la probabilitat com un conjunt d'axiomes
que veri¯quin les propietats anteriors.
Suposem que tenim un experiment aleatori ben de¯nit amb un conjunt E de possibles resultats.
De moment suposem que E ¶es un conjunt ¯nit. Cadascun dels subconjunts de E ¶es un succ¶es.
Una probabilitat ¶es una aplicaci¶o que assigna a cada subconjunt A de E un n¶
umero P (A), de
manera que es veri¯qui:
1. 0 · P (A) · 1.
2. P (E) = 1.
3. Si A i B s¶on dos successos que no poden passar simultµaniament, aleshores
P (A [ B) = P (A) + P (B).
A m¶es dels models t¶³pics dels jocs d'atzar (que malgrat el seu carµacter l¶udic sovint serveixen
com a representaci¶o de problemes ben complexos), i ha una sµerie de problemes estretament
vinculats a l'enginyeria de les telecomunicacions i a la telemµatica, que exigeixen l'¶
us de models
probabilistes.
² Comunicaci¶o a trav¶es de canals amb soroll
Un dels problemes bµasics de l'enginyeria de comunicacions consisteix a reproduir el mis-
satge original a partir d'un missatge rebut a trav¶es d'un sistema de comunicaci¶o. En
l'esquema clµassic de Shannon, un sistema de comunicaci¶o s'esquematitza de la forma
segÄuent:
L'elaboraci¶o de dispositius per recuperar el missatge original consumeix una bona part
de l'energia dels enginyers. El disseny d'un sistema e¯cient passa, perµo, per mesurar
de la capacitat del canal d'introduir soroll, i aquesta mesura no es pot fer en un model
determinista, atµes el carµacter justament aleatori del soroll. En la hipµotesi m¶es simple, se
suposa que, en una situaci¶o com la del diagrama anterior, cada bit t¶e una certa probabilitat
¯xa de ser canviat al seu oposat, independentment dels altres. Quina ¶es la probabilitat
que hi hagi, com a molt, dos errors en una transmissi¶o dels nou bits?
Quan dos ordinadors a la xarxa volen fer servir el mateix enlla»c simultµaniament, es pro-
dueix un con°icte. Les demandes de comunicaci¶ o no obeeixen, en general, a patrons
deterministes, de manera que l'anµalisi del comportament de la xarxa, la quantitat de con-
°ictes que es poden presentar i l'elaboraci¶o d'esquemes de comunicaci¶o que minimitzin els
¡µ
¡x
Cua Servidor
x- x x x x x
Tant el temps de servei com la intensitat amb quµe arriben nous usuaris al servidor no
s¶on susceptibles de ser encaixats en un model determinista. El disseny d'un protocol de
servei i l'anµalisi del comportament de la cua (procurant que no es faci in¯nitament llarga,
o que el temps d'espera sigui raonable) depenen fonamentalment de l'anµalisi del model
probabilista.
² Fiabilitat de sistemes
En sistemes complexos formats per un gran nombre de dispositius i elements de treball,
com solen ser els sistemes de comunicaci¶o, els serveis telemµatics, etc., un dels elements
bµasics del disseny ¶es l'anµalisi de la ¯abilitat, o la probabilitat que el sistema falli per
l'avaria d'alguns dels seus components. Les avaries no solen respondre tampoc a models
deterministes i l'¶
unica anµalisi e¯cient passa per considerar models probabilistes. Per
exemple, en el cas del diagrama segÄ uent, un model senzill pot ser suposar que cada
dispositiu falla amb una certa probabilitat p independent dels altres.
A r r B
Si el sistema funciona mentre hi ha comunicaci¶o entre els punts A i B, quina ¶es la pro-
babilitat que el sistema falli?
Aquests s¶on nom¶es alguns de molts exemples, als quuals es podrien afegir l'anµalisi de senyals
aleatoris (senyals d'µaudio, de v¶³deo, etc.), el control de qualitat, la gesti¶o de trµa¯c en xarxes,
multiplexors en comunicacions telefµoniques, la simulaci¶o de sistemes i un llarg etcµetera, que
justi¯quen la potµencia i e¯cµacia dels models probabilistes en una gran varietat de problemes
d'enginyeria. En aquest curs s'introdueixen conceptes i eines que permeten abordar problemes
com els anteriors.
0.4 Mostreig
Un dels problemes m¶es simples consisteix a determinar la probabilitat d'extreure una determi-
nada mostra d'una poblaci¶o. En el model m¶es simple, tenim una urna amb un nombre n de
boles de colors diferents i ens demanem quina ¶es la probabilitat d'extreure'n una mostra de k
boles amb una determinada composici¶o de colors. Tot i ser simple, aquest problema involucra
problemes d'enumeraci¶o que cal analitzar.
El resultat del cµalcul depµen del criteri que es fa servir per extreure la mostra. Les distincions
m¶es comunes s¶on les segÄuents.
² Mostreig sense reempla»cament. Aixµo vol dir que n'extraiem una bola, i, sense tornar-la a
la urna, n'extraiem la segÄ
uent, i aix¶³ successivament.
² Mostreig amb reempla»cament. En aquest cas, n'extraiem la primera bola, anotem el seu
color i la tornem a l'urna abans d'extreure la segÄ
uent.
D'altra banda, podem considerar diferents dues mostres si l'ordre amb quµe s'extreuen les boles
¶es diferent, o simplement interessar-nos per quines boles han sortit sense tenir en compte l'ordre
amb quµe s'han extret, ¶es a dir:
² Mostres ordenades
² Mostres no ordenades
Com veurem, l'aplicaci¶o de diferents criteris d¶ona resultats diferents en el cµalcul de probabilitats.
Per concretar pensem el cas de k = 3 i n = 4. Si denotem les quatre boles per f1; 2; 3; 4g, les
extraccions possibles s¶on:
123 132 124 142 134 143 213 231 214 241 234 243
312 321 324 342 314 341 413 431 412 421 423 432
Imaginem tres posicions que hem d'omplir amb tres elements de A; en el primer
lloc podem triar entre els n elements de A. En la segona posici¶o nom¶es podem triar entre
els n ¡ 1 elements que queden (ja que la mostra ¶es sense reempla»cament: no hi ha elements
repetits), i en el tercer lloc podem triar entre els n ¡ 2 elements que queden. Tenim, doncs,
que Pn;3 = n(n ¡ 1)(n ¡ 2). En general, per a una poblaci¶o de mida n i una mostra de mida k
en aquestes condicions, el nombre total de mostres ¶es
En el cas particular que ens interessi obtenir mostres ordenades de tots els elements del conjunt,
el que obtenim ¶es
Pn;n = n:(n ¡ 1) ¢ ¢ ¢ 2:1 = n!:
Aquest nombre s'anomena permutacions de n elements, o b¶e n factorial. M¶es endavant veurem
la utilitat de de¯nir 0! = 1.
Exemple 0.1 Triem a l'atzar una delegaci¶o de tres estudiants en un grup de 40. El primer
estudiant triat en serµa el president; el segon, el secretari, i el tercer, el tresorer. Quantes
delegacions diferents poden sortir? Quina ¶es la probabilitat que un estudiant determinat en
sigui el president?
Aqu¶³ triem una mostra ordenada sense reeempla»cament de mida 3 en una poblaci¶o de 40
individus. El nombre total de delegacions possibles ¶es P40;3 = 40 ¢ 39 ¢ 38 = 59:280. Per calcular
probabilitats ¶es essencial saber quina ¶es la probabilitat de cadascuna d'aquestes delegacions.
La frase `a l'atzar', tot i que ¶es ambigua, sol indicar que cadascuna de les 59:280 mostres tenen
la mateixa probabilitat: 1=P40;3 . Aleshores el cµalcul ¶es senzill: la probabilitat que un estudiant
x en sigui el president ¶es la suma de les probabilitats de totes aquelles delegacions en les quals
apareix x com a president. D'aquestes n'hi ha P39;2 = 39 ¢ 38, de manera que la probabilitat ¶es
P39;2 =P40;3 = 1=40 = 0:025. 2
Com en el cas anterior, imaginem k posicions que cal omplir amb les boles de l'urna. En aquest
cas, un cop triat l'element que omple el primer lloc, el podem tornar a triar per al segon lloc, i
aix¶³ successivament ¯ns a omplir k llocs. Per tant, a cada lloc hi ha n opcions i
P Rn;k = nk :
¡n¢
0.4.3 Mostres no ordenades sense reempla»cament: Cn;k = k
Per cadascuna de les mostres ordenades sense reempla»cament hi ha k! permutacions que corres-
ponen a la mateixa mostra no ordenada. Per tant:
µ ¶
n P (n; k) n!
Cn;k = = = :
k k! (n ¡ k)!k!
¡ ¢
El nombre nk apareix amb molta freqÄ uµencia i s'anomena coe¯cient binomial per la cµelebre
fµormula del binomi:
µ ¶ µ ¶ µ ¶ µ ¶ n µ ¶
n n n n n¡1 n n¡1 n n X n i n¡1
(x + y) = x + x y + ¢¢¢ + xy + y = xy :
0 1 n¡1 n i=0
i
Les dues primeres propietats s¶on immediates i la tercera la podem demostrar amb un raonament
senzill. Per determinar el nombre de combinacions de k elements que podem fer amb un total
de n elements, ¯xem un element x del conjunt de n elements. Per un costat, tenim un element
¡ ¢
x i, per un altre, tenim n ¡ 1 elements. El nombre de combinacions que contenen x ¶es n¡1 i
¡n¡1¢ k¡1
el nombre de combinacions de k elements que no contenen x ¶es k . Aix¶³, hem de sumar els
dos casos.
¡ ¢
El coe¯cient binomial nk ¶es tamb¶e el nombre de subconjunts de mida k d'un conjunt de mida
n. Per a k = 0, convenim que Cn;0 = 1 (cosa que justi¯ca el conveni 0! = 1).
Cada subconjunt X de mida k de A = f1; 2; : : : ; ng es pot identi¯car amb un vector
(x1 ; x2 ; : : : ; xn );
on xi = 1, si i 2 X, i xi = 0, altrament. Per exemple, si X = f1; 4; 5g ½ f1; 2; 3; 4; 5g,
identi¯quem X amb (1; 0; 0; 1; 1). El coe¯cient binomial compta, doncs, tamb¶e, el nombre de
vectors de n components amb k uns i n ¡k zeros. En particular, el nombre total de subconjunts
¶es el nombre total de vectors de 0 i 1 amb n components, o b¶e el nombre de permutacions amb
repetici¶o de dos elements, presos de n en n, P R2;n = 2n . Aquest resultat es pot obtenir tamb¶e
del binomi de Newton posant x = y = 1, ja que
Xn µ ¶
n
= (1 + 1)n = 2n :
i=0
i
Exemple 0.3 Tornant a un exemple anterior, triem a l'atzar una delegaci¶ o de tres estudiants
en un grup de 40. Quantes delegacions diferents poden sortir? Quina ¶es la probabilitat que un
estudiant determinat pertanyi a la delegaci¶o?
40!
En aquest cas tenim mostres no ordenades sense reempla»cament, i n'hi ha C40;3 = 3!37! =
40¢39¢38
3¢2
= 9:880. Entenent per `escollida a l'atzar' que totes les mostres tenen la mateixa
probabilitat, i havent-n'hi C39;2 = 741 que contenen un estudiant determinat, la probabilitat
que hi sigui ¶es C39;2 =C40;3 = 0;075. 2
Tenim, doncs, 10 possibilitats: CR4;2 = 10. Per poder calcular CRn;k fem una correspondµencia
de cada mostra amb seqÄuµencies de dos s¶³mbols, i il¢lustrem al cas anterior de la manera segÄ
uent:
Fem correspondre la mostra (a; a) amb ²² j j j.
Les tres barres separen quatre espais, un per a cadascuna de les lletres. Hem posat 2 punts
inicialment per indicar les dues a. Vegem-ne altres casos, amb les seves correspondµencies:
(b; d) ¡! j ² j j ²
(c; d) ¡! j j ² j ²
¶ clar que aquesta correspondµencia ¶es una bijecci¶o entre el conjunt de mostres i el nombre de
Es
uµencies de n + k ¡ 1 s¶³mbols, dels quals n ¡ 1 s¶on barres que separen les n lletres i k s¶on
seqÄ
punts, que indiquen les lletres a la mostra. Aix¶³ doncs:
µ ¶
n+k¡1
CRn;k = :
k
El quadre segÄ
uent resumeix l'exposici¶o anterior:
Mostres de k
elements d'una amb reempla»cament sense reempla»cament
poblaci¶o de n
n!
ordenades P Rn;k = nk Pn;k =
µ ¶ (nµ¡ ¶k)!
n+k¡1 n
no ordenades CRn;k = Cn;k =
k k
0.5.1 Exercicis
1. Quina ¶es la mida m¶³nima d'un alfabet per poder identi¯car els individus d'una poblaci¶o
de mida 106 amb paraules de tres lletres?
Quina ¶es la llargada m¶³nima de les paraules d'un alfabet de tres lletres per poder identi¯car
els individus d'una poblaci¶o de mida 106 ?
2. En treure tres cartes d'una baralla de 40 cartes, quina ¶es la probabilitat de treure almenys
una ¯gura?
3. Si tenim 11 amics, de quantes maneres en podem convidar 5 a dinar? Si dos s¶on parella i
van sempre junts, de quantes maneres en podem convidar 5? I si dos estan barallats i no
els podem convidar junts, de quantes maneres els podem convidar?
Si les matr¶³cules es formessin igualment amb 7 carµacters (les lletres de l'alfabet, segons
la normativa, i els d¶³gits del 0 al 9), quantes matr¶³cules podrien fer-se si:
7. S'ensenya una mona a escriure a mµaquina i tecleja un text de 14 carµacters triant cadascuna
de les 27 tecles de lletres (inclµos l'espai) a l'atzar. Quina ¶es la probabilitat que escrigui
la frase `S¶oc inteligent' ?
1 Probabilitat
Exemple 1.2 Considerem l'experiµencia de llan»car una moneda tres cops seguits i ob-
uµencia de cares (°) i creus (+) que van sortint. En aquest cas, E =
servem la seqÄ
f° ° °; ° ° +; ° + °; + ° °; + + °; + ° +; ° + +; + + +g. 2
Exemple 1.3 Considerem l'experiµencia de llan»car dos daus i ens ¯xem en la suma de
punts obtinguts. En aquest cas, E = f2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12g. 2
A = fnombres parellsg;
o b¶e de forma extensiva, A = f2; 4; 6g. Un altre exemple de succ¶es ¶es B = f1; 4; 5g. 2
² A [ B ¶es el succ¶es que es veri¯ca si passa un dels dos, o b¶e tots dos alhora.
En els tres exemples anteriors tenim:
A [ B = f1; 2; 4; 5; 6g
C [ D = f° ° +; ° + °; + ° °; ° ° °g
F [ G = E:
² A \ B ¶es el succ¶es que es veri¯ca si passen els dos successos alhora.
En els exemples anteriors:
A \ B = f4g
C \ D = f° ° +; ° + °; + ° °g
F \ G = ?:
4. S'anomena succ¶es complementari de A, o negaci¶o de A, i s'escriu Ac , el conjunt comple-
mentari de A, Ac = E ¡ A.
En els exemples anteriors:
Ac = f1; 3; 5g
C c = f° + +; + + °; + ° +; + + +; ° ° °g
F c = G:
El quadre segÄ
uent resumeix la correspondµencia entre el llenguatge de conjunts i el de probabi-
litats.
La fam¶³lia de subconjunts d'un conjunt E, juntament amb les operacions de la uni¶o ([), la
intersecci¶o (\) i la complementaci¶o (n), formen una µalgebra de Boole. Una estructura similar
apareix en la lµogica de proposicions. Hi ha algunes propietats bµasiques que conv¶e tenir presents
i que resumim a continuaci¶o:
1. A [ E = E i A [ ? = A.
2. A \ E = A i A \ ? = ?.
3. (lleis associatives)
A [ (B [ C) = (A [ B) [ C
A \ (B \ C) = (A \ B) \ C:
4. (lleis distributives)
A [ (B \ C) = (A [ B) \ (A [ C)
A \ (B [ C) = (A \ B) [ (A \ C):
5. (lleis de Morgan)
(A [ B)c = Ac \ B c
(A \ B)c = Ac [ B c :
Suposem que tenim un espai mostral ¯nit E. Una probabilitat sobre E ¶es una aplicaci¶o que
assigna a cada subconjunt A ½ E un nombre real i que satisfµa:
1. 0 · P (A) · 1.
2. P (E) = 1.
3. Si A \ B = ? aleshores P (A [ B) = P (A) + P (B).
P (?) = 0:
P (Ac ) = 1 ¡ P (A):
A [ B = A [ (B \ Ac ) i B = (B \ A) [ (B \ Ac );
i llavors:
P (A [ B) = P (A) + P (B \ Ac ) i P (B) = P (B \ A) + P (B \ Ac ):
La relaci¶o en aquesta propietat s'est¶en a unions de m¶es conjunts d'una manera una mica
complicada ,en l'anomenada f¶ ormula d'inclusi¶o-exclusi¶
o. Per a tres conjunts, t¶e l'aspecte
segÄ
uent:
El nom prov¶e del fet que els elements de les interseccions de dos dels conjunts han estat
tinguts en compte dues vegades a
n
X
P ([i2n Ai ) = P (Ai ):
i=1
Es pot demostrar per inducci¶o sobre n. Quan n = 2, ¶es l'axioma 3. Si n > 2, aleshores
P (A1 [ : : : An¡1 [ An ) = P ((A1 [ : : : An¡1 ) [ An ) = P (A1 [ : : : An¡1 ) + P (An ) i el primer
terme, per hipµotesi d'inducci¶o, ¶es P (A1 [ : : : An¡1 ) = P (A1 ) + ¢ ¢ ¢ + P (An¡1 ).
Suposem que tenim un espai mostral ¯nit E = fa1 ; : : : ; an g amb n elements. Si cadascun dels
successos elementals t¶e la mateixa probabilitat, de
1 = P (E) = P (fa1 g [ : : : [ fan g) = P (fa1 g) + ¢ ¢ ¢ + P (fan g) = nP (fa1 g)
deduijm
1
P (fa1 g) = ¢ ¢ ¢ = P (fan g) =
:
n
k
En general, donat un succ¶es A que tingui k elements, tenim que P (A) = n
i s'acostuma a dir:
nombre de casos favorables a A
P (A) =
nombre de casos possibles de E
En els exemples 1.1 i 1.2 anteriors, per la simetria de les experiµencies (o b¶e per mitjµa de la
comprovaci¶o emp¶³rica) ¶es raonable assignar la mateixa probabilitat a cadascun dels resultats
possibles, de manera que
3 3 3 4
P (A) = P (B) = P (C) = P (D) = :
6 6 8 8
Pel que fa al tercer exemple, tal com l'hem escrit, el conjunt E no es tracta d'un espai equi-
probable. Si pensem, per exemple, en el cas que la suma sigui 2, nom¶es es donarµa en el cas
que surti un 1 a cada dau (1; 1). En canvi, el cas que surti suma 4 es pot donar (1; 3), (3; 1), i
¶ clar que ¶es m¶es probable que la suma sigui 4 que 2.
(2; 2). Es
En aquests casos, conv¶e pensar en un espai E = f(1; 1); (1; 2); (2; 1); ¢ ¢ ¢ ; (5; 1); (1; 5); (6; 6)g, on
tots els successos elementals s¶on equiprobables. Llavors P (F ) = 1836
i P (G) = 18 36
.
Algunes experiµencies condueixen de forma natural a espais mostrals no ¯nits. Per exemple,
si tirem una moneda ¯ns que surt cara i comptem el nombre de tirades, l'espai mostral ¶es
E = f1; 2; 3; : : : g = N (no hi ha cap motiu per suposar, d'entrada, un l¶³mit superior al nombre
de tirades). Si l'experiµencia consisteix a mesurar el voltatge d'un senyal, l'espai mostral ¶es
E = [0; 1). En el primer cas, l'espai mostral ¶es in¯nit perµo numerable, mentre que en el segon,
l'espai mostral ¶es no numerable. En els dos casos, l'axioma 3 de la de¯nici¶o de probabilitat
s'ha d'estendre a:
3'. Si A1 ; A2 ; A3 : : : ¶es una fam¶³lia numerable de successos incompatibles dos a dos, aleshores
X
P ([i¸1 Ai ) = P (Ai ):
i¸1
¶ clar que aquesta formulaci¶o cont¶e l'axioma 3 anterior, perµo aquest darrer nom¶es es pot
Es
estendre a fam¶³lies ¯nites de conjunts. M¶es endavant considerarem aquests casos en el marc
de les variables aleatµories. Totes les propietats que considerem aqu¶³ s¶on vµalides tamb¶e per als
espais no ¯nits.
P (A \ B)
P (AjB) = :
P (B)
A l'exemple 1.3:
0
36
P (F jG) = 18 = 0:
36
P (A \ B) = P (A) ¢ P (B):
Observem que entre els axiomes i les propietats no hi ha cap indicaci¶o sobre el valor de la pro-
babilitat de la intersecci¶o de dos esdeveniments. Per calcular-la, cal tenir informaci¶o addicional
sobre el seu grau de dependµencia. La independµencia de successos ¶es una noci¶o fonamental en la
teoria de la probabilitat. Des del punt de vista intuijtiu, A i B s¶on independents si la freqÄ
uµencia
relativa fn (A) amb quµe s'esdev¶e A no varia quan ens restringim als resultats en quµe succeeix
B.
Exemple 1.7 Suposem que hi ha tants homes fumadors com dones fumadores (i que hi ha
tants homes com dones). La probabilitat d'escollir a l'atzar una dona fumadora ¶es aleshores
1=4 (la meitat de la meitat de la poblaci¶o). Els successos `escollir una dona' i `escolllir un
fumador' s¶on independents. 2
Quan dos successos s¶on independents, la realitzaci¶o d'un d'ells no afecta la probabilitat de
l'altre. En efecte, si A i B s¶on independents:
P (A \ B)
P (AjB) = = P (A)
P (B)
P (A \ B)
P (BjA) = = P (B):
P (B)
i A i B s¶on independents.
Vegem-ho en els tres exemples que estem analitzant:
1 1 1
P (A) = P (B) = i P (A \ B) = :
2 2 6
Per tant, A i B no s¶on independents.
3 4 3
P (C) = P (D) = i P (C \ D) = :
8 8 8
Per tant, C i D no s¶on independents.
18 18
P (F ) = P (G) = i P (F \ G) = 0:
36 36
Per tant, F i G no s¶on independents. En general, si A i B s¶on incompatibles i tenen probabilitat
no nul¢la, aleshores no s¶on independents ja que P (AjB) = P (BjA) = 0.
Exemple 1.8 Considerem l'experiµencia de treure una carta d'una baralla de 40 cartes. Tenim
40 successos elementals. Sigui A = ftreure orosg i B = ftreure una sotag. Tenim P (A) = 10
40
i
4 ¶ clar que A \ B t¶e un element (la sota d'oros) i P (A \ B) = . En aquest cas,
P (B) = 40 . Es 1
40
A i B s¶on independents. 2
n
X n
X
P (B) = P (B \ Ai ) = P (BjAi )P (Ai ):
i=1 i=1
Exemple 1.9 La probabilitat d'un error en la transmissi¶o d'un missatge per rµadio depµen del
nivell ½ d'ionitzaci¶o de l'atmosfera, que es mesura en una escala determinada. Si 0 · ½ < 10,
la probabilitat d'error ¶es de 0;1, si 10 · ½ < 20 ¶es de 0;2 i si ½ ¸ 20 ¶es de 0;3. Sabem que la
probabilitat d'aquests tres nivells d'ionitzaci¶o ¶es P (0 · ½ < 10) = 0;5, P (10 · ½ < 20) = 0;4 i
P (½ ¸ 20) = 0;1. Quina ¶es la probabilitat d'error?
Denotem ² el succ¶es `hi ha error de transmissi¶o', i A1 ; A2 ; A3 els successos f0 · ½ < 10g,
f10 · ½ < 20g i f½ > 20g, respectivament. Aleshores:
P (²) = P (²jA1 )P (A1 ) + P (²jA2 )P (A2 ) + P (²jA3 )P (A3 ) = 0;16:
Quin seria l'espai mostral en aquest cas? De vegades la formalitzaci¶
o completa dels espais de
probabilitat pot resultar excessivament... formal. 2
En molts problemes resulta m¶es senzill calcular P (AjB) que P (BjA). La f¶ormula de Bayes
proporciona una manera particular de relacionar aquestes dues probabilitats.
Sigui A1 ; A2 ; ¢ ¢ ¢ An una partici¶o de l'espai E i sigui B un esdeveniment qualsevol. De l'expressi¶o
de la probabilitat condicionada sabem que
Aquesta manera de relacionar les probabilitats condicionades P (Aj jB) i P (BjAj ) del primer i
el darrer termes de la igualtat s'anomena f¶
ormula de Bayes i resulta particularment u¶til.
Exemple 1.10 Una urna cont¶e dues boles blanques i dues de negres. S'extreu una bola i, sense
tornar-la a l'urna ni saber-ne el color, s'extreu despr¶es una altra bola. Calculeu la probabilitat
que la primera bola hagi estat blanca si la segona bola ¶es negra.
Denotem
La probabilitat que volem calcular ¶es P (B1 jN2 ). Els successos A1 ; N1 formen una partici¶o de
l'espai. Atesa la composici¶o de l'urna, sabem que P (A1 ) = 24 . Si la primera bola que hem tret
era blanca, dins de l'urna queden dues boles negres i una de blanca. Per tant, P (N2 jB1 ) = 23 .
De forma similar, P (N2 jN1 ) = 13 . En canvi, el cµalcul de P (B1 jN2 ) no ¶es evident. Fent servir la
f¶ormula de Bayes:
Exemple 1.11 Dues mµaquines A i B produeixen 100 i 200 xips, respectivament. Se sap que
la mµaquina A produeix un 5% de xips defectuosos i la B un 6%. S'agafa un xip i es demana:
a) Quina ¶es la probabilitat que sigui defectu¶os.
b) Sabent que el xip ¶es defectu¶os, quina ¶es la probabilitat que hagi sortit de la mµaquina A.
Indiquem els successos:
1
En total hi ha 300 xips, 100 procedents de la mµaquina A i 200 de la B. Llavors, P (A) = 3
i
P (B) = 23 .
a) Per la f¶ormula de la probabilitat total:
6 1 5 2
P (D) = P (DjA)P (A) + P (DjB)P (B) = + = 0;0567:
100 3 100 3
Primera extracci¶
o Segona extracci¶
o
1=3³ ³1
³ ³
z z
z³P ³
© ©*
1=2 P P
P P
© © Pq
© 2=3
©H
z j
H H 2=3³ ³1
H H ³ ³
j z
1=2 Hj j³P ³
z z j j
P P
P P
1=3 Pq j j
A cada nivell de l'arbre, cada node t¶e tants ¯lls com possibilitats t¶e l'experiµencia en aquell punt.
Les branques tenen per pesos les probabilitats de passar d'un resultat al segÄ uent. Aix¶³, a l'arbre
es poden llegir directament l'espai mostral i les probabilitats de cada un dels resultats possibles:
resseguint el cam¶³ des de l'arrel de l'arbre ¯ns al resultat i multiplicant les probabilitats que
trobem a les branques. Per exemple, si denotem N1 el succ¶es `surt negra la primera bola' i N2
`surt negra la segona', P (²²) = P (N1 \ N2 ) = P (N1 )P (N2 jN1 ), que ¶es el producte dels pesos
de les branques del cam¶i que porta a la fulla ²². 2
1.10.1 Exercicis
3. El resultat d'un experiment ¶es un nombre enter entre 1 i 4. L'experiment es repeteix dues
vegades de forma independent i s'obtenen els resultats E1 i E2 . Calculeu les probabilitats
de A = fE1 = E2 g, B = fE1 > E2 g, i C = fE1 + E2 ¸ 6g. Calculeu les probabilitats de
A; B; A \ B; A \ C; B \ C; Ac \ B i A [ B [ C.
6. Tenim un dau amb tres uns, dos dosos i un tres. D'altra banda, tenim una urna amb tres
boles blanques i dues negres. Llancem el dau i agafem tantes boles com el n¶umero que
surti al dau.
a) Calculeu la probabilitat de treure com a m¶³nim una bola blanca.
b Sabent que hem tret com a m¶³nim una bola negra, calculeu la probabilitat d'haver tret
un dos al dau.
1. Suposem que neixen m¶es nenes que nens. Comproveu que ¶es m¶es probable tenir dos ¯lls
del mateix sexe que de sexe diferent.
2. Quina ¶es la probabilitat d'aprovar un test de 20 preguntes amb quatre opcions per a
cadascuna (de les quals nom¶es una ¶es vµalida) contestant a l'atzar? Quina ¶es aquesta
probabilitat si nom¶es es contesten a l'atzar 15 preguntes i se'n deixen 5 en blanc?
3. Siguin A; B; C tres successos tals que P (A \ B \ C) = P (A)P (B)P (C). Es pot deduir
que A i B s¶on independents?
4. (El problema del cavaller de M¶er¶e) El cavaller de M¶er¶e apostava que en tirar un dau 4
vegades almenys sortiria un sis. Despr¶es de guanyar moltes vegades ning¶ u no volia jugar
amb ell i va canviar el joc, apostant que en 24 tirades de dos daus sortiria un doble sis.
¶ m¶es probable que perdi o que guanyi? Quin ¶es el nombre m¶³nim de tirades a partir
Es
del qual ¶es m¶es probable guanyar que perdre?
5. Un senyor porta sis claus semblants, dues de les quals obren els dos panys de la porta de
casa seva. Si en perd una, quina ¶es la probabilitat que pugui entrar a casa? Quina ¶es la
probabilitat que les dues primeres claus que tria obrin la porta?
7. Cada element del sistema de la ¯gura segÄ uent t¶e probabilitat de fallada p = 0;1 indepen-
dent dels altres. El sistema funciona mentre hi ha un cam¶³ de A a B que no passa per
cap element defectu¶os. Quina ¶es la probabilitat que el sistema falli?
A r r B
9. Una caixa cont¶e 10 monedes normals i 20 de trucades per a les quals P (cara) = 0;25. Es
treu a l'atzar una moneda de la caixa i es tira dues vegades.
a) Quina ¶es la probabilitat que surtin dues cares?
b) Si han sortit dues cares, quina ¶es la probabilitat que la moneda fos trucada?
10. Es treuen dues boles d'una bossa que en cont¶e 5 de vermelles, 3 de blanques i 2 de verdes.
a) Calculeu la probabilitat que les dues boles siguin del mateix color.
b) Si les dues boles s¶on del mateix color, quina ¶es la probabilitat que siguin de color blanc?
11. Una fµabrica produeix un 30% de claus, un 25% de cargols i un 45% de xinxetes. Entre
els claus, cadascun t¶e una probabilitat del 0,005 de ser defectu¶os; la probabilitat que un
cargol sigui defectu¶os ¶es de 0,003, i una xinxeta, de 0,008. Si una pe»ca ¶es defectuosa, quina
¶es la probabilitat que sigui una xinxeta?
12. Per tal d'assistir a un examen un estudiant compta amb l'ajuda d'un despertador, el
qual aconsegueix despertar-lo el 80% dels casos. Quan el despertador el desperta, la
probabilitat que faci l'examen ¶es del 0,9, mentre que si no el desperta la probabilitat que
faci l'examen ¶es del 0,5. Si fa l'examen, quina ¶es la probabilitat que el despertador l'hagi
despertat? Si no fa l'examen, quina ¶es la probabilitat que no l'hagi despertat?
13. Un metge sap que nom¶es el 60% dels pacients que van a la consulta estan malalts. Per
poder distingir entre els malalts i els que no ho s¶on, el metge disposa d'una anµalisi que
presenta el 95% de ¯abilitat (¶es a dir, d¶ona el resultat correcte el 95% de les vegades que
s'aplica). Si un pacient d¶ona positiu, quina ¶es la probabilitat que realment estigui malalt?
14. En una poblaci¶o hi ha un 24% d'individus que s¶on homes i fumen, i un 35% que s¶on dones
i no fumen. Si la proporci¶o d'homes ¶es del 55%, quina ¶es la probabilitat que un individu
escollit a l'atzar entre els fumadors sigui dona?
16. En un concurs televisiu hi ha tres portes, darrere una de les quals hi ha un premi. El
concursant escull una de les portes i a continuaci¶o el presentador li mostra una de les
portes que no ha triat i que no amaga el premi. El presentador ofereix al concursant la
possibilitat de canviar la seva elecci¶o. Calculeu la probabilitat d'encertar la porta amb
premi si
a) El concursant ha decidit d'entrada no canviar la seva opci¶o.
b) El concursant ha decidit d'entrada canviar la seva opci¶o.
17. En una empresa de n treballadors un d'ells explica un rumor a un altre, escollit a l'atzar.
Aquest, a la vegada, l'explica a un tercer escollit a l'atzar, i aix¶³ successivament.
a) Quina ¶es la probabilitat que el rumor hagi passat per r persones sense tornar a qui
l'ha originat.
b) Quina ¶es la probabilitat que el rumor hagi passat per r persones sense que ning¶
u l'hagi
sentit m¶es d'una vegada.
18. Un servei tµecnic t¶e tres equips de reparaci¶o, A; B i C, els quals efectuen el mateix nombre
de reparacions. L'equip A resol favorablement el 80% de les reparacions, l'equip B el 75%
i l'equip C el 65%.
a) Quina ¶es la probabilitat que una reparaci¶o defectuosa correspongui a un treball efectuat
per l'equip A.
b) Es detecten cinc reparacions defectuoses. Quina ¶es la probabilitat que n'hi hagi, com
a molt, una realitzada per l'equip A.
19. Una urna cont¶e tres boles negres i dues boles blanques. Un primer jugador treu tres boles.
Torna a l'urna una bola negra si entre les boles que ha tret n'hi ha m¶es de negres. Si no
¶es aix¶³, torna a l'urna una bola blanca. A continuaci¶o, el segon jugador extreu una bola.
El joc consisteix a endevinar quantes boles blanques ha extret el primer jugador. Si el
segon jugador ha extret una bola blanca, quina ¶es la probabilitat que el primer jugador
hagi extret:
a) Cap bola blanca.
b) Una bola blanca.
c) Dues boles blanques.
2 Variables aleatµ
ories
Tal com vµarem veure al cap¶³tol anterior, cada succ¶es d'un experiment t¶e associada
una probabilitat. En aquest tema traslladem els successos a valors numµerics: les
variables aleatµ
ories. Considerem experiments que tinguin ¯ns i tot un nombre in-
¯nit de possibles resultats i probabilitats, en particular amb valors reals com els
que s'obtenen en realitzar mesures. Tamb¶e es discuteixen tµecniques per obtenir la
distribuci¶
o de probabilitat d'una variable aleatµ
oria que s'escriu com a funci¶o d'una
altra. Aquestes tµecniques permeten, en particular, obtenir gran part de les distribu-
cions m¶es comunes a partir de la distribuci¶o uniforme, cosa que ¶es de gran utilitat
en problemes de simulaci¶ o.
Heu de pensar en la variable aleatµoria com una descripci¶o numµerica dels valors possibles que
pot prendre un experiment. El conjunt de valors possibles ¶es l'espai mostral, ¶es a dir, el conjunt
format per tots els n¶
umeros que poden ser valors de la variable.
Exemples:
² (1) Experiment: Tirar una moneda. Associem al resultat fsortir carag el 0 i al resultat
fsortir creug un 1. Espai mostral: f0; 1g.
² (2) Experiment: Tirar una moneda diverses vegades ¯ns que ens surti cara. El valor de
la variable aleatµoria ¶es el nombre de tirades necessµaries ¯ns que ens ha sortit cara. Espai
mostral: N = f1; 2; 3; :::g.
² (3) Experiment: Tirar un dau. Cada cara del dau ja t¶e associat un n¶ umero de l'1 al 6;
umero que agafem. Espai mostral: f1; 2; 3; 4; 5; 6g.
per tant, aquest ¶es el n¶
² (4) Experiment: Mesurar l'al»caµria d'una persona a l'atzar. El valor que pren la variable
¶es l'al»caria en cent¶³metres, amb decimals. Admetent des de nadons prematurs (uns 20
cm d'al»caµria per exemple) ¯ns a gegants de 250 cm l'espai mostral podria ser agafat com
l'interval real [20; 250].
² (5) Experiment: Un arquer dispara una °etxa en una diana de 50 cm de radi. El resultat
de la variable aleatµoria ¶es la distµancia des d'on ha quedat la °etxa clavada ¯ns al centre
de la diana, en cent¶³metres i amb decimals. Espai mostral: l'interval real [0; 50]. Si esteu
pensant que aixµo no ¶es aleatori (un arquer m¶es bo que un altre dispararµa m¶es a prop del
centre), penseu que la variable aleatµoria nom¶es ¶es una descripci¶o dels valors possibles.
Les seves probabilitats s'han d'ajustar a part. La variable aleatµoria corresponent a un
arquer m¶es acurat simplement tindrµa probabilitats m¶es altes per a nombres m¶es petits
que la variable d'un arquer menys bo. Perµo la variable ¶es la mateixa.
² (6) Experiment: Temps d'espera d'un paquet de dades d'Internet en un servidor donat
a causa de la congesti¶o de la xarxa. Els resultats de la variable s¶on els temps d'espera
en segons, amb decimals. Observeu que, en teoria, qualsevol temps ¶es possible. Per tant,
l'espai mostral ¶es tot l'interval real [0; 1).
² Variables discretes, variables que prenen una quantitat numerable de valors (usualment
valors naturals o enters). Una variable discreta pot ser ¯nita si pren un nombre ¯nit de
valors, o in¯nita, si en pren una quantitat in¯nita numerable (per exemple, els nombres
naturals o els nombres enters).
² Variables cont¶³nues, els valors de les quals s¶on intervals de la recta real. A la secci¶o 2.4
en veurem una de¯nici¶o m¶es precisa.
En els exemples anteriors, les variables dels exemples (1) i (3) s¶on discretes ¯nites, la variable
de (2) ¶es discreta in¯nita i les variables (4), (5) i (6) s¶on cont¶³nues.
Aquesta distinci¶o ¶es fonamental en l'estudi de la probabilitat, i totes les anµalisis que farem d'ara
endavant tindran en compte aquesta distinci¶o.
Hi ha variables aleatµories que no s'inclouen en cap dels dos tipus anteriors. Per exemple, una
variable aleatµoria que prengui el valor 4 i tots els nombres reals entre 5 i 6. En aquest curs, no
considerarem aquestes variables (anomenades variables mixtes).
Observeu l'exemple (5) anterior. Dµeiem llavors que, per a diferents tiradors, la variable era
la mateixa, perµo que l'encert m¶es gran o m¶es petit d'un tirador ve donat per les probabilitats
assignades a cada succ¶es. Per tant, els resultats d'una variable aleatµoria han de tenir assignades
les seves probabilitats. Per a variables discretes (especialment les ¯nites) aixµo ¶es senzill i es
fa associant a cada resultat un n¶ umero entre 0 i 1 segons hem vist al cap¶³tol anterior. Si la
variable X pren el valor x amb probabilitat a escriurem:
P (X = x) = a:
Exemple 2.2 Si X ¶es la variable aleatµoria de les cares del dau, tenim, per exemple:
1
P (X = 3) = :
6
2
De¯nici¶ o 2.3 Sigui X una variable aleatµoria discreta que pren valors a fx1 ; x2 ; x3 ; : : : g. Ales-
hores la funci¶
o de probabilitat de X ¶es:
½ P : R ¡! [0; 1]
P (X = x) si x 2 fx1 ; x2 ; x3 ; : : : g;
x!
7
0 altrament:
Els axiomes de la probabilitat que hem aprµes al cap¶³tol 1 s'apliquen aqu¶³ amb tota la seva for»ca.
Si fx1 ; x2 ; : : : ; xn g ¶es el conjunt de valors possibles d'una variable aleatµoria ¯nita, aleshores:
P (X = x1 ) + P (X = x2 ) + : : : + P (X = xn ) = 1:
Si la variable aleatµoria ¶es discreta i in¯nita, el proc¶es ¶es el mateix, tenint en compte que el
fet que la suma de totes les probabilitats sigui 1 es manifesta amb la suma d'una sµerie. Per
l'exemple (2) anterior del nombre de vegades que hem de tirar una moneda ¯ns que surti cara,
tenim:
1
P (X = n) = n
2
i, per tant:
X 1 X1
1
P (X = n) = = 1:
n=1 n=1
2n
Es fa servir molt tamb¶e la probabilitat d'un conjunt de valors. Per exemple, en aquesta variable
del nombre de cops que hem de tirar una moneda perquµe surti cara, podem preguntar-nos
quina ¶es la probabilitat que ens surti cara abans de la cinquena tirada. Segons els axiomes
de la probabilitat, doncs, hem de sumar les probabilitats dels resultats 1,2,3, i 4, i el resultat
s'expressa:
15
P (X · 4) = :
16
Algunes distribucions de probabilitat, i els models probabilistes a quµe corresponen, s¶on espe-
cialment u
¶ tils i freqÄ
uents.
² (1) La variable aleatµoria de Bernoulli ¶es la m¶es senzilla de totes i potser la m¶es important.
El seu espai mostral t¶e dos valors: f0; 1g. La variable es de¯neix simplement triant un
umero p entre 0 i 1 de manera que
n¶
P (X = 0) = p P (X = 1) = 1 ¡ p:
¡ ¢
El coe¯cient nk compta el nombre de resultats en quµe hi ha k µexits (triar la posici¶o de
k uns en una seqÄuµencia de llargada n) i el terme pk (1 ¡ p)n¡k correspon a la probabilitat
de cadascun d'ells.
Si X segueix una distribuci¶o binomial de n repeticions independents i probabilitat d'µexit
p escrivim X » Bin(n; p).
² (3) Un exemple de variable geomµetrica el tenim amb l'exemple anterior (2): comptem
el nombre de tirades que hem de fer perquµe ens surti una cara. En principi, qualsevol
nombre de tirades ¶es possible, i la probabilitat cada cop queda multiplicada per 1/2. Per
aixµo s'anomena geomµetrica, perquµe la probabilitat del resultat k ¶es igual al del resultat
k ¡ 1 multiplicat per un factor 1 ¡ p. L'espai mostral ¶es el conjunt de tots els nombres
naturals (¶es, doncs, un espai no ¯nit) i la distribuci¶o de probabilitat ve donada per:
P (X = n) = p(1 ¡ p)n¡1 ; n = 1; 2; : : : ;
i escrivim X » Geom(p).
Observem que la suma de totes les probabilitats ¶es 1, com ha de ser, fent servir el valor
de la suma d'una sµerie geomµetrica:
1
X 1 1
p(1 ¡ p)n¡1 = p = p = 1:
n=1
1 ¡ (1 ¡ p) p
² (4) La variable de Poisson s'obt¶e tamb¶e en determinades situacions en quµe cal iterar la
variable de Bernoulli. De fet, la distribuci¶ o de Poisson representa una situaci¶o l¶³mit de
la distribuci¶o binomial, en la qual el nombre d'iteracions ¶es `gran' i la probabilitat d'µexit
`petita'. Aquesta distribuci¶o es fa servir, per exemple, per comptar el nombre de trucades
que arriben a una central en un petit interval de temps: el nombre d'usuaris ¶es gran
(de l'ordre de milions), perµo la probabilitat que un d'ells faci una trucada en un instant
determinat ¶es petita.
La variable aleatµoria amb distribuci¶o de Poisson t¶e com a espai mostral el conjunt dels
enters no negatius (incloent el 0), i la distribuci¶o de probabilitats ¶es:
®k ¡®
P (X = k) = e ; k = 0; 1; 2; : : : :
k!
El valor ® ¶es el parµametre de la distribuci¶o i m¶es endavant en veurem el seu signi¯cat.
Escriurem X » P oiss(®) per indicar que X segueix una distribuci¶o de Poisson. Per ara,
cal dir que la distribuci¶o de Poisson ¶es una bona aproximaci¶o de Bin(n; p) quan n ¶es
gran, p ¶es petita i ® = np. Vegeu una comparaci¶o d'alguns valors de la distribuci¶o per a
n = 20 i p = 0;1:
k 0 1 2 3 4 5 6
X » Bin(20; 0;1) P (X = k) 0,121 0,270 0,285 0,190 0,089 0,031 0,009
Y » P oiss(2) P (Y = k) 0,135 0,270 0,270 0,180 0,090 0,036 0,012
Amb les variables cont¶³nues, perµo, l'assignaci¶o de probabilitats ¶es m¶es complicada. No podem
donar un valor individual a la probabilitat de cada resultat individual d'un interval de nombres
reals. Per tant, la probabilitat es d¶ona tamb¶e en termes d'intervals: casos com P (X · a),
que ¶es la probabilitat que la variable X aga¯ un valor m¶es petit o igual que a, o b¶e casos com
P (a · X · b), que ¶es la probabilitat que la variable X prengui un valor entre a i b.
Ara b¶e, a la recta real hi ha in¯nits intervals. Quµe hem guanyat, doncs? Hem guanyat que ara
per donar la probabilitat d'un interval podem fer servir una funci¶o, amb tots els avantatges que
el cµalcul ens proporciona per estudiar funcions. Aixµo ens porta a la de¯nici¶o segÄ
uent:
o 2.4 La funci¶
De¯nici¶ o de distribuci¶
o de la variable aleatoria X ¶es la funci¶
o:
FX (x) = P (X · x):
Observeu com, sabent la funci¶o de distribuci¶o d'una variable aleatµoria, podem saber la proba-
bilitat de molts intervals; per exemple:
La funci¶o de distribuci¶o es pot de¯nir per qualsevol tipus de variable aleatµoria. Si la funci¶o de
distribuci¶o ¶es cont¶³nua, aleshores:
de manera que en aquest cas la funci¶o de probabilitat no aporta cap informaci¶o rellevant. Una
variable aleatµoria ¶es cont¶³nua si la seva funci¶o de distribuci¶o ¶es cont¶³nua.
La millor eina per entendre la distribuci¶o de probabilitats d'una variable aleatµoria cont¶³nua ¶es
la funci¶o de densitat:
De¯nici¶ o 2.5 Sigui X una variable aleatµ oria cont¶³nua amb funci¶
o de distribuci¶
o FX derivable
(llevat potser d'una quantitat ¯nita de punts). La funci¶o de densitat d'una variable aleatµoria
X ¶es la derivada de la funci¶
o de distribuci¶
o:
dFX
fX (x) = (x):
dx
Per quµe la derivada? Perquµe s'ent¶en molt b¶e i t¶e una explicaci¶o molt grµa¯ca. Si fX ¶es la funci¶o
de densitat, aleshores la probabilitat d'un interval [a; b] ¶es:
Z b
P (a · X · b) = fX (x) dx:
a
Observeu que la funci¶o de distribuci¶o ¶es sempre una funci¶o creixent (si x < y aleshores fX ·
xg ½ fX · yg i FX (x) = P (X · x) · P (X · y) = FX (y)). Per tant, la funci¶o de densitat
¶es sempre no negativa. Per aixµo la probabilitat P (a · X · b) es correspon amb l'µarea sota la
funci¶o de densitat i entre les dues rectes verticals corresponents a x = a i x = b. Aix¶³, si la
funci¶o de densitat ¶es m¶es alta en un punt que en un altre, sabrem que els petits intervals propers
al primer punt s¶on m¶es probables que els petits intervals propers al segon punt. Observem
algunes propietats de les funcions de distribuci¶o i densitat, que no s¶on m¶es que reformulaci¶o de
propietats que ja coneixem:
² (1)
lim FX (x) = 0 lim FX (x) = 1:
x!¡1 x!+1
² (2) Z x
FX (x) = fX (x) dx:
¡1
² (3) Z +1
fX (x) ¸ 0 i fX (x) dx = 1:
¡1
Arribats en aquest punt, uns quants exemples de distribucions cont¶³nues ens aniran molt b¶e
per entendre-ho tot.
² (1) Considerem la variable aleatµoria segÄ uent: Agafem una ruleta (una °etxa clavada al
paper amb una agulla), fem-la rodar i anotem l'angle on s'atura. Aqu¶³ tenim una variable
aleatµoria cont¶³nua amb conjunt de valors [0; 2¼). Perµo observeu com la intuijci¶o ens diu
que tots els angles s¶on igualment probables. Per tant, ens interessa que els intervals
que tenen la mateixa longitud tinguin tamb¶e la mateixa probabilitat. Es ¶ a dir, que la
probabilitat d'un interval [a; b] sigui proporcional a b ¡ a. La funci¶o de distribuci¶o serµa,
doncs, la funci¶o:
1
FX (x) = x
2¼
per x 2 [0; 2¼). Observeu detingudament per quµe aixµo ¶es aix¶³: l'interval [0; 2¼) t¶e proba-
x
bilitat FX (2¼), que ¶es 1; l'interval [0; x] t¶e probabilitat FX (x) = 2¼ , i un interval [a; b] t¶e
probabilitat FX (b) ¡ FX (a) = b¡a 2¼
. Per tant, la funci¶
o de densitat ¶
es constant:
1
fX (x) = :
2¼
Observem que el fet que la funci¶o de densitat sigui constant ¶es el que ens diu que la
probabilitat d'un interval [a; b] t¶e a veure amb la seva longitud: com que la funci¶o ¶es cons-
tant la probabilitat ve donada per l'µarea d'un rectangle, i l'µarea d'un rectangle d'al»caµria
constant depµen de la seva longitud.
Aquest ¶es un exemple d'una variable aleatµoria uniforme. Una variable aleatµoria ¶es uni-
forme en un interval [a; b] quan la seva funci¶o de densitat ¶es constant en els punts d'aquest
interval (i val 0 en els altres punts):
½ 1
b¡a
x 2 [a; b]
fX (x) =
0 x62 [a; b]
Intuijtivament, aixµo es correspon amb el fet que tots els resultats s¶on igualment probables.
Escrivim X » U (a; b).
² (2) Ara b¶e, l'experiµencia ens ensenya que no totes les variables aleatµories s¶on uniformes,
¶es a dir, per a una variable determinada no tots els valors tenen la mateixa probabilitat.
Un cop d'ull al voltant vostre us ha de convµencer d'aquest fet: hi ha molta m¶es gent
d'1,75 m d'al»caµria que de 2,20 oµ 1,45. Per tant, la variable aleatµoria `mesurar l'al»caµria
d'una persona' no ¶es uniforme, i aixµo vol dir que la funci¶o de densitat d'aquesta varia-
ble aleatµoria no ¶es constant. I si ho analitzem m¶es detingudament, hi observarem un
fenomen extremament habitual: hi ha un valor central de manera que la mostra tendeix
a acumular-se a prop del valor central. Aixµo suggereix que la funci¶o de densitat d'aquesta
variable serµa m¶es alta \al mig" que \als extrems". Una distribuci¶o fonamental que descriu
molts fenµomens aleatoris, com l'exemple anterior, ¶es l'anomenada distribuci¶o normal. La
variable t¶e dos parµametres, m i ¾, i la seva funci¶o de densitat ¶es:
1 (x¡m)2
fX (x) = p e¡ 2¾2 :
2¼¾
La normal t¶e una grµa¯ca ben coneguda per a tothom, que s'anomena popularment `la
campana de Gauss':
Aquesta funci¶o estµa centrada en el punt m i ¶es m¶es punxeguda com m¶es petit ¶es el valor de
¾. M¶es endavant interpretarem aquests dos parµametres. Escrivim X » N (m; ¾). Quan
m = 0 i ¾ = 1 es diu que X segueix una distribuci¶o normal tipi¯cada, i t¶e per funci¶o de
densitat:
1 x2
fX (x) = p e¡ 2 :
2¼
Aquesta funci¶o de densitat ¶es simµetrica respecte de l'eix x = 0. Si X » N(m; ¾), aleshores:
X ¡m
Y = » N (0; 1):
¾
Aquesta relaci¶o ¶es especialment u¶til pel motiu segÄ
uent. Per calcular la probabilitat que
una variable aleatµoria normal N (m; ¾) prengui valors en un interval (a; b), cal calcular la
integral:
Z b
1 x¡m)2
P (a < X < b) = p ¾e 2¾2 dx:
a 2¼
Ara b¶e, la funci¶o integrant no t¶e una primitiva expressable com una combinaci¶o ¯nita
de funcions elementals, i els seus valors estan tabulats: s'han de consultar en taules.
Aquestes taules contenen usualment els valors de P (N · x) o P (0 · N · x) per a valors
de x, on N ¶es una variable aleatµoria normal tipi¯cada. Els cµalculs s'han de referir, doncs,
a aquests valors, com il¢lustra l'exemple segÄ
uent:
A la taula que trobareu a l'apµendix, hi ha tabulats els valors de P (0 < X < x) per a
N » N (0; 1). Si X » N(3; 2), aleshores N = (X ¡ 3)=2 » N (0; 1), de manera que
P (0 < X < 3) = P (0 < 2N + 3 < 3) = P (¡1:5 < N < 0) = P (0 < N < 1:5):
A les taules trobem els valors P (0 < N < 1;5) = 0;4332, de manera que tamb¶e P (0 <
X < 3) = 0;4332. 2
La distribuci¶o normal apareix en totes aquelles experiµencies en quµe s'observa una carac-
ter¶³stica estad¶³stica `normal' d'una poblaci¶o. El seu primer u ¶s descrivia la distribuci¶o
d'errors en una sµerie de mesuraments de la mateixa mesura (i, de vegades, fX s'ano-
mena la funci¶o d'error). Les distribucions d'al»caµries d'individus d'una poblaci¶o, la de les
quali¯cacions d'un examen, la de la intensitat d'un soroll en un canal de comunicaci¶o s¶on
exemples d'experiµencies en quµe apareix aquesta distribuci¶o particular.
De manera m¶es expl¶³cita, es pot dir que la distribuci¶o de la suma de n variables indepen-
dents tendeix a la distribuci¶o normal quan n ¶es `gran'.
Aquest enunciat imprec¶³s estµa a la base de les nombroses aplicacions de la distribuci¶o
normal: en totes aquelles experiµencies que s¶on resultat d'una suma de factors aleatoris
independents (per exemple, el soroll tµermic, els errors en mesuraments, etc.) apareix la
distribuci¶o normal. La seva formulaci¶o precisa ¶es el que s'anomena teorema del l¶³mit
central.
Un exemple important el d¶ona la distribuci¶o binomial Bin(n; p), que es pot interpretar
com a suma de n variables aleatµories de Bernouilli. Quan n ¶es `gran', la distribuci¶o
binomial Bin(n; p) es pot aproximar b¶e per la distribuci¶o normal N (m; ¾) amb m = np
p
i ¾ = npq. M¶es endavant veurem el sentit d'aquesta correspondµencia de parµametres.
Com a exemple, la taula segÄ uent compara alguns valors de la distribuci¶o Bin(100; 0;5)
amb les de la distribuci¶o normal N (50; 5):
x 35 40 45 50 55 60 65
X » Bin(100; 0;5) P (X · x) 0,0017 0,028 0,184 0,539 0,864 0,982 0,999
Y » N (50; 5) P (Y · x) 0,0013 0,023 0,158 0,5 0,841 0,977 0,998
² (3) La distribuci¶o normal ¶es un bon model quan hi ha un valor central, de manera que els
resultats de la variable es dispersen cap a ambd¶os costats d'aquest valor central. Hi ha
altres exemples, com l'exemple (6) del temps d'espera d'un paquet de dades en un servidor,
pels quals aixµo no passa: els valors d'aquesta variable comencen amb 0 i s'estenen per
tot l'eix positiu de la recta real. A m¶es, oµbviament aquesta distribuci¶o tampoc no ¶es
uniforme, sin¶o que ¶es molt m¶es probable que un paquet s'hagi d'esperar un temps curt
molt proper a 0 que un temps llarg.
Aix¶³ tenim que necessitem un model en el qual les probabilitats van de 0 a 1, i que
les properes a 0 s¶on m¶es probables que les llunyanes. Vegem un exemple en el qual la
probabilitat vagi decreixent com m¶es grans siguin els valors. L'exemple canµonic es la
distribuci¶o exponencial. La seva funci¶o de densitat ¶es:
fX (x) = ¸e¡¸x ; x ¸ 0:
La seva grµa¯ca
satisfµa les propietats que sugger¶³em. Escrivim X » Exp(¸). M¶es endavant veurem tamb¶e
el signi¯cat del parµametre.
La distribuci¶o exponencial apareix en moltes experiµencies en les quals mesurem el temps
¯ns que s'esdev¶e un succ¶es que ¶es aleatori en el temps. Els exemples t¶³pics s¶on:
En tots aquests exemples, la variable aleatµoria exponencial apareix com a expressi¶o d'una
situaci¶o l¶³mit: a petits intervals de temps, la probabilitat que passi el succ¶es que observem
¶es p, i comptem el nombre d'intervals que hem d'esperar. Es tracta, doncs, de la situaci¶ o
l¶³mit d'una variable aleatµoria geomµetrica.
2.6 Parµ
ametres estad¶³stics: valor mitjµ
a i variµ
ancia
El valor mitjµa ¶es un valor que s'utilitza per tenir una idea numµerica global de la variable
aleatµoria. La intuijci¶o del cµalcul del valor mitjµa prov¶e de l'estad¶³stica: si tenim una mostra de
n valors , x1 ; x2 ; : : : ; xn , el seu valor mitjµa es calcula sumant-los tots i dividint per n:
x1 + x2 + ¢ ¢ ¢ + xn
x¹ = :
n
¹ = E(X) = 0 ¢ P (X = 0) + 1 ¢ P (X = 1) = p:
El sentit de l'esperan»ca ¶es que d¶ona el valor mitjµa dels resultats de l'experiµencia si es repeteix
un nombre prou gran de vegades. Per exemple, el nombre mitjµa de cares en tirar 100 vegades
una moneda ¶es 100p = 50. Es ¶ el valor esperat, i es pot demostrar en el context de la teor¶³a de la
probabilitat que la probabilitat que el valor mitjµa d'una seqÄ uµencia de n tirades s'aparti del valor
esperat (n=2 en el cas de tirar la moneda) tendeix a 0 quan n tendeix a 1: ¶es l'anomenada llei
dels grans nombres.
Exemple 2.8 La ruleta t¶e divuit nombres negres, divuit de vermells i el 0. Un joc d'aposta
a la ruleta consisteix a apostar una quantitat M a roig. Si la bola cau en un nombre roig, es
guanya el valor de l'aposta, si cau en un de negre o en 0, es perd. La casa guanya l'aposta
nom¶es quan cau en 0. La variable aleatµoria que mesura el guany net d'un jugador t¶e, doncs, la
distribuci¶o segÄ
uent:
P (X = M ) = 18=37; P (X = ¡M ) = 19=37:
Per tant, l'esperan»ca de guany del jugador ¶es E(X) = M(18=37) + (¡M )(19=37) = ¡M=37.
Aixµo vol dir que el jugador pot esperar, si juga prou vegades en apostes de 100 euros, a perdre
uns 100=37 ' 2;7 euros. En canvi, per a la casa de joc, el guany net ¶es Y amb P (Y = M ) = 1=37
i P (Y = 0) = 36=37, i espera guanyar E(Y ) = M=37; el que perd el jugador ho guanya la casa.
2
Per a variables aleatµories cont¶³nues, tenint en compte que la probabilitat ve donada per la seva
funci¶o de densitat, la mitjana s'ha de calcular fent la integral de la funci¶ o de densitat perµo
multiplicada per x. Aixµo re°ecteix exactament la idea intuijtiva de multiplcar cada valor (x)
per la seva probabilitat (la funci¶o de densitat).
Per exemple, si s'escull un punt X a l'atzar a l'interval [0; 2], aleshores el valor mitjµa (la mitjana
dels punts si repetim prou vegades l'experiµencia) ¶es:
Z 1 Z 2
E(X) = x fX (x) dx = x(1=2) dx = (1=2)(x2 =2) j20 = 1:
¡1 0
A la taula al ¯nal de la secci¶o hi ha un resum dels valors mitjans i altres caracter¶³stiques de les
distribucions usuals.
L'esperan»ca no ¶es l'¶
unic valor important d'una variable aleatµoria. L'esperan»ca t¶e la caracter¶³stica
que proporciona un valor central mitjµa de la variable, perµo no ens d¶ona cap informaci¶o de la
dispersi¶o de la variable. Per exemple, les seqÄuµencies ¡1; ¡1; ¡1; 1; 1; 1 i ¡10; ¡5; 0; 5; 10 tenen
el mateix valor mitjµa, 0, perµo la segona t¶e els valors m¶es dispersos que la primera, que els t¶e
m¶es concentrats al voltant del valor mitjµa. Una mesura de la dispersi¶o dels valors ¶es el valor
mitjµa de les diferµencies entre cada valor i el valor mitjµa. Per comptar aquestes diferµencies
amb independµencia del signe, el que es fa ¶es sumar les diferµencies al quadrat: per a les dues
seqÄ
uµencies anteriors, la dispersi¶o ¶es:
El producte pq = p(1 ¡ p) ¶es mµaxim quan p = q = 1=2: aquest ¶es el valor de p pel qual la
dispersi¶o ¶es mµaxima. En canvi, per a valors de p prµoxims a zero o a 1, la dispersi¶o ¶es petita.
Per exemple, si p = 0;1 el valor mitjµa ¶es 0;1 i la variµancia ¶es 0;09, mentre que per a p = q = 1=2
la variancia ¶es 0;25.
Per a variables aleatµories cont¶³nues, el sumatori de la de¯nici¶o anterior passa a ser una integral
i la funci¶o de probabilitat passa a ser la funci¶o de densitat:
Z 1
V ar(X) = (x ¡ ¹)2 ¢ fX (x) dx:
¡1
2
La variµancia s'escriu tamb¶e com ¾X o ¾ 2 . La seva arrel quadrada ¾ ¶es tamb¶e for»ca utilitzada,
s'anomena desviaci¶o t¶³pica o estµandard. Els dos valors assoleixen el mateix objectiu de mesurar
la dispersi¶o de la variable aleatµoria.
A la prµactica se sol calcular la variµancia de la forma segÄ
uent:
X
V ar(X) = (xi ¡ E(X))2 P (X = xi ) =
i
X X
= x2i P (X = xi ) ¡ 2E(X) xi P (X = xi ) + E 2 (X)
i i
2 2
= E(X ) ¡ E (X):
Per exemple, per a una variable X » B(p), V ar(X) = E(X 2 )¡E 2 (X) = p¡p2 = p(1¡p) = pq.
El resultat ¶es igualment vµalid per a variables aleatµories cont¶³nues.
La taula segÄ
uent resumeix aquests valors per a les distribucions m¶es comunes:
Com a darrer comentari, recordeu que hav¶³em vist dos tipus d'aproximacions de distribucions:
Sigui X una variable aleatµoria i g : R ! R una funci¶o. L'objectiu d'aquesta secci¶o ¶es obtenir
la distribuci¶o de Y = g(X) en termes de la distribuci¶o de X i g. A la ¯gura segÄ
uent hi ha dos
exemples grµa¯cs del problema.
P (X = i) P (Y = i)
1
X 2
1 Y =- (¡1)
6
i i
1 2 3 4 5 6 ¡1 1
Y =- X=2
x y
0 1 2 3 0 1 2 3 4
Exemple 2.10 Sigui X la variable aleatµoria que d¶ona el resultat d'un dau i g(x) = (¡1)x (que
estµa ben de¯nida per a valors de x naturals). La distribuci¶o de Y = g(X) ¶es:
Quan X t¶e una distribuci¶o cont¶³nua i g ¶es prou regular, hi ha una manera directa d'obtenir
la distribuci¶o de Y = g(X) en termes de la de Y i g. Un cas simple es presenta quan g ¶es
estrictament creixent. Aleshores:
En general, si g ¶es una funci¶o derivable amb una quantitat ¯nita o numerable d'extrems locals,
i Y = g(X), aleshores:
X fX (y)
fg(X) (t) = 0 (y)j
:
¡1
jg
y2g (t)
Exemple 2.12 Sigui X una variable aleatµoria amb distribuci¶o Exp(¸) i Y = 2X. Aleshores:
fY (y) = fX (y=2)=2 = ¸=2e¡¸y=2 ; y ¸ 0;
de manera que la distribuci¶o de Y ¶es Exp(¸=2). 2
oria i g : R ! R. Aleshores:
Teorema 2.13 Sigui X una variable aleatµ
½ P
g(xk )P (X = xk ) si X es discreta i pren els valors x1 ; x2 ; : : : ; xk ; : : :
E(g(X)) = R 1k
¡1
g(x)fX (x)dx si X t¶e funci¶
o de densitat
(sempre que la sµerie o la integral siguin convergents). 2
R1
Exemple 2.14 A l'exemple 2.12 es pot obtenir l'esperan»ca de Y com E(Y ) = ¡1
yfY (y)dy
o b¶e directament, ja que Y = 2X, com:
Z 1 Z 1
E(Y ) = 2xfX (x)dx = 2xe¡x dx = 2:
¡1 0
2
2.8.1 Exercicis
4. Sigui X una variable aleatµoria que pren els valors f1; 2; 3g amb distribuci¶o P (X = 1) =
0;3, P (X = 2) = 0;5 i P (X = 3) = 0;2, i considerem la nova variable aleatµoria Y = Á(X).
a) Calculeu E(X), la variµancia i la desviaci¶o t¶³pica de X.
b) Si Á(x) = x3 , calculeu la distribuci¶o de probabilitat de la variable Y i tamb¶e la mitjana,
la variµancia i la desviaci¶o t¶³pica.
1. Una urna cont¶e tres boles blanques i cinc de negres. Es treu una bola, es mira el color i
es torna a dipositar a l'urna.
a) Quina ¶es la probabilitat que en vuit extraccions surtin exactament cinc boles negres.
b) Quµe ¶es m¶es probable, que surtin cinc boles negres o m¶es, o que en surtin menys de
cinc?.
2. Es tiren deu monedes no trucades; quina ¶es la probabilitat que el nombre de cares que
surtin sigui menor o igual que tres? Repetiu el mateix problema amb monedes trucades
de manera que P (cara) = 35 .
3. Un servidor at¶en una petici¶o amb probabilitat p = 0;8 independentment de les altres.
Quan un usuari no ¶es atµes, torna a formular la petici¶o. Quina ¶es la probabilitat que hagi
de fer la petici¶o m¶es de tres vegades?
5. La probabilitat que un canal de transmissi¶o transmeti un d¶³git erroni ¶es 0;01, indepen-
dentment dels altres. Calculeu la probabilitat que hi hagi m¶es d'un error en deu d¶³gits
rebuts. Repetiu aquest cµ
alcul utilitzant l'aproximaci¶o de Poisson.
7. Una variable aleatµoria discreta pren els k valors possibles i equiprobables segÄ
uents:
0; a; 2a; ¢ ¢ ¢ ; (k ¡ 1)a:
Calculeu-ne la mitjana, el moment d'ordre dos i la desviaci¶o estµandard.
8. La intensitat d'un senyal ¶es una variable aleatµoria X amb funci¶o de densitat:
1
fX (x) = e¡jxj
2
Trobeu la funci¶o distribuci¶o FX i calculeu:
a) P (X · 0)
b) P (0 < X · 1)
c) P (X > 1).
9. Una variable aleatµoria t¶e la funci¶o de distribuci¶o segÄ
uent:
8
< 0 si x · 0
FX (x) = Kx2 si 0 < x · 10
:
100K si x > 10
a) Calculeu el valor de K.
b) Trobeu P (X · 5) i P (5 < X · 7).
c) Representeu la funci¶o de densitat fX (x).
10. El temps d'espera T ¯ns que arriba un usuari a un servidor segueix una llei exponencial
Exp(2) per a una determinada unitat de temps. Calculeu:
a) P (T < 2), P (T > 3) i P (2 < T < 3).
b) P (T > 5jT > 2).
11. Si X ¶es una variable aleatµoria normal N (10; 500), calculeu P (X > 20), P (10 < X · 20),
P (0 < X · 20) i P (X > 0) (feu servir les taules de la distribuci¶o normal).
12. Un voltatge determinat es pot modelar com una variable aleatµoria normal N(0; 9). De-
termineu el valor de c de manera que p = P (j X j< c) valgui:
a) p = 0;9.
b) p = 0;99.
13. La demanda mensual d'ordinadors al centre comercial COMPC es troba aproximada per
una variable aleatµoria normal amb ¹ = 200 i una desviaci¶o estµandard de 40 unitats. Quina
grandµaria ha de tenir l'inventari disponible a principi de mes perquµe la probabilitat que
les existµencies s'esgotin no sigui m¶es gran que 0;05?
14. El diµametre d'una determinada pe»ca que s'utilitza per a la fabricaci¶o d'avions es troba,
de manera aproximada, distribuijt normalment com N (3;5; 0;02). Si el diµametre no pot
ser m¶es petit que 3;47 ni m¶es gran que 3;53, quin ¶es el percentatge de peces que s'hauran
de llan»car?
15. Si la vida X d'un tipus de bateria per a un cotxe estµa normalment distribuijda amb un
valor mitjµa m = 4 anys i una desviaci¶o estµandard ¾ = 1 any, i el fabricant d¶ona una
garantia de 3 anys (si la bateria s'espatlla abans que s'acabi la garantia, el fabricant ha
de substituir la bateria)
a) quin tant per cent de bateries haurµa de substituir el fabricant?
b) si nom¶es vol substituir un 2; 28% de bateries, quina garantia caldrµa que doni?
16. Una variable aleatµoria binomial es pot aproximar per una normal quan n ¶es `gran', amb
el mateix valor mitjµa i la mateixa variµancia. Es llan»ca una moneda cent vegades. Feu
servir l'aproximaci¶o normal per calcular la probabilitat que:
a) Surtin m¶es de seixanta cares.
b) El nombre de cares obtingudes sigui m¶es gran que quaranta i m¶es petit que seixanta.
17. El nombre d'accidents per setmana en una cruijlla de la N-II segueix una distribuci¶o de
Poisson de parµametre 4. Fent servir l'aproximaci¶o de la normal calculeu la probabilitat
que hi hagi menys de 200 accidents en un any.
18. En un joc es llancen tres daus. El jugador aposta n euros per un n¶ umero i rep 2n euros
si surt una vegada aquest n¶umero, 3n si surt dues vegades i 4n si surt 3 vegades. Si no
surt el n¶
umero apostat, perd l'aposta. Quµe ¶es millor, apostar o fer de banca?
19. El passeig aleatori unidimensional es pot descriure de la manera segÄ uent: Un home begut
camina per una vorera molt estreta fent passes de longitud constant igual a L. Fa una
passa endavant amb una probabilitat p = 34 o endarrere amb una probabilitat 1 ¡ p = 14 .
Denotem X la distµancia del punt on estµa despr¶es de fer cent passes des del punt de sortida.
Calculeu la mitjana i la desviaci¶o estµandard de X.
a) Calculeu la funci¶o de densitat d'una nova variable aleatµoria Z de¯nida per Z = 3X ¡5.
b) Representeu sobre els mateixos eixos els grµa¯cs de les dues funcions de densitat.
24. Sigui X una variable aleatµoria de valor mitjµa m i desviaci¶o t¶³pica ¾. Calculeu el valor
mitjµa i la desviaci¶o t¶³pica de Y = (X ¡ m)=¾.
3 Vectors aleatoris
Un vector aleatori n-dimensional ¶es una n-tupla X = (X1 ; : : : ; Xn ) on cada cada component ¶es
una variable aleatµoria unidimensional.
Per exemple, si tirem tres vegades una moneda i observem el resultat de les tres tirades, l'ex-
periµencia es pot descriure pel vector aleatori X = (X1 ; X2 ; X3 ), on Xi val 0 si surt cara a la
tirada i i val 1 si hi surt creu, i = 1; 2; 3. Els possibles valors del vector X s¶on:
(0; 0; 0); (0; 0; 1); (0; 1; 0); (0; 1; 1); (1; 0; 0); (1; 0; 1); (1; 1; 0); (1; 1; 1);
FXY : R2 ! R;
de¯nida com:
FXY (x; y) = P (X · x; Y · y);
on (X · x; Y · y) ¶es una notaci¶o abreujada de fX · xg \ fY · yg. Es ¶ a dir, la funci¶o de
probabilitat en un punt (x; y) del pla d¶ona la probabilitat de tots els valors del vector (X; Y )
inclosos a la regi¶o ratllada de la ¯gura 3:
(x; y)
r
Figura 3: FXY (x; y) ¶es la probabilitat dels valors de (X; Y ) en l'µarea ombrejada
Exemple 3.1 Tenim una urna amb dues boles blanques i tres boles negres. Traiem dues boles
a l'atzar i denotem X la variable aleatµoria que compta el nombre de boles blanques que extraiem
i Y el nombre de boles negres. Aleshores, la funci¶o de distribuci¶o del vector (X; Y ), o distribuci¶o
conjunta de les dues variables, estµa donada a la taula segÄ uent:
Y nX 0 1 2
0 0 0 3/10
1 0 6/10 6/10
2 1/10 7/10 1
Com en el cas unidimensional, la funci¶o de distribuci¶o conjunta FXY permet obtenir la probabili-
tat que les dues variables aleatµories X i Y prenguin valors en un rectangle. Si R ¶es un rectangle
de vµertexs (x1 ; y1 ); (x1 ; y2 ); (x2 ; y1 ); (x2 ; y2 ), on x1 < x2 i y1 < y2 , aleshores (comproveu-ho
grµa¯cament):
P (x1 < X · x2 ; y1 < Y · y2 ) = FXY (x2 ; y2 ) ¡ FXY (x2 ; y1 ) ¡ FXY (x1 ; y2 ) + FXY (x1 ; y1 ):
La funci¶o de distribuci¶o t¶e l'avantatge d'estar de¯nida per qualsevol vector aleatori. A la
prµactica, perµo, per a vectors els components del qual s¶on tots variables aleatµories discretes o
tots cont¶³nues, resulta m¶es cµomode fer servir altres descripcions de la distribuci¶o de probabilitat,
com veurem a continuaci¶o.
Un vector aleatori (X; Y ) ¶es discret si ho ¶es casdascun dels seus components X; Y .
Si la variable X prµen els valors fa1 ; a2 ; a3 ; : : : g i la variable Y els valors fb1 ; b2 ; b3 ; : : : g, la funci¶o
de probabilitat conjunta del vector aleatori discret (X; Y ) ¶es la aplicaci¶o:
PXY (ai ; bj ) = P (X = ai ; Y = bj );
Exemple 3.2 Tenim una urna amb quarte boles blanques, tres de negres i una de vermella.
Traiem dues boles i denotem X la variable aleatµoria que compta el nombre de boles blanques
a la mostra i Y el nombre de boles negres. La funci¶o de probabilitat conjunta de X i Y ¶es:
XnY 0 1 2
0 0 3=28 3=28
1 4=28 12=28 0
2 6=28 0 0
P (X = 0) = P (X = 0; Y = 0) + P (X = 0; Y = 1) + P (X = 0; Y = 2) = 6=28
P (X = 1) = P (X = 1; Y = 0) + P (X = 1; Y = 1) + P (X = 2; Y = 2) = 16=28
P (X = 3) = P (X = 3; Y = 0) + P (X = 3; Y = 1) + P (X = 3; Y = 2) = 6=28
Exemple 3.3 A cada cop de rellotge un processador pot estar en un dels estats segÄ uents: E1
en repµos, E2 en processament intern i E3 accedint a memµoria. Estµa en repµos amb probabilitat
p1 = 0;5 i en processament intern amb probabilitat p2 = 0;2 independentment del seu estat
en altres instants. Quina ¶es la probabilitat que en 10 cops de rellotge estigui 3 vegades en
processament intern i 4 en repµos?
Tenim (X1 ; X2 ) » T rin(n; p1 ; p2 ), on X1 compta el nombre de vegades que el processador estµ
a
en repµos i X2 el nombre de vegades que estµa en processament intern. Aleshores:
10!
P (X1 = 4; X2 = 3) = (0;5)4 (0;2)3 (0;3)3 ' 0;0567:
3!4!3!
2
Si (X1 ; X2 ) » T rin(n; p1 ; p2 ) aleshores cadascuna de les distribucions marginals segueix una llei
binomial: X1 compta el nombre d'ocurrµencies de A1 en n repeticions independents, de manera
que X1 » Bin(n; p1 ). De forma semblant, X2 » Bin(n; p2 ).
Un vector aleatori (X; Y ) ¶es continu si ho s¶on els seus components, X i Y . Com en el cas
unidimensional, les distribucions cont¶³nues s'identi¯quen normalment amb la funci¶o de densitat.
Si la funci¶o de distribuci¶o conjunta ¶es dues vegades derivable, aleshores la funci¶o de densitat
conjunta de X i Y ¶es:
@ 2 FXY
fXY (x; y) = (x; y):
@x@y
En particular, se satisfµa: Z Z
1 1
fXY (u; v) dv du = 1:
¡1 ¡1
Si R ¶es qualsevol regi¶o mesurable del pla (¶es a dir, que es pugui integrar sobre aquesta regi¶o),
aleshores: ZZ
P ((X; Y ) 2 R) = fXY :
R
D'aquesta manera, la funci¶o de densitat permet obtenir per integraci¶o la probabilitat que el
vector aleatori (X; Y ) prengui valors en R.
Exemple 3.4 Escollim un punt a l'atzar al triangle T de vµertexs (0; 0); (1; 0) i (0; 1). Denotem
(X; Y ) les coordenades del punt que hem obtingut. Com que tots els punts del triangle tenen
la mateixa probabilitat, la densitat de probabilitat ¶es constant en el triangle, ¶es a dir:
½
k (x; y) 2 T
fXY =
0 (x; y) 6 2T
RR
on k ¶es una constant. Com que R2 fXY ha de valer 1, i aquesta integral val k ¢ Area(T ), ha
de ser k = 2.
La probabilitat que el punt que hem escollit tingui una abscissa m¶es petita que 1=2 i una
ordenada m¶es gran que 1=2, per exemple, es pot obtenir integrant en la regi¶o corresponent la
funci¶o de densitat:
Z 1=2 Z 1
P (X < 1=2; Y > 1=2) = fXY (x; y) dx dy =
x=¡1 y=1=2
Z 1=2 Z 1¡x Z 1=2
= 2 dx dy = 2 (1=2 ¡ x)dx = 1=4;
x=0 y=1=2 x=0
Cadascuna de les funcions de densitat dels components de (X; Y ) s'anomena densitat marginal
de fXY . Les funcions de densitat marginals es poden obtenir de fXY fent:
Z 1 Z 1
fX (x) = fXY (x; y) dy; fY (y) = fXY (x; y) dx:
¡1 ¡1
En canvi, en general les funcions de densitat marginal no permeten obtenir la densitat conjunta.
Exemple 3.5 Seguint amb l'exemple anterior de la distribuci¶ o de les coordenades d'un punt
escollit a l'atzar en el triangle T , la densitat marginal de X ¶es:
Z 1 Z 1¡x
fX (x) = fXY (x; y) dy = 2dy = 2y j1¡x
0 = 2(1 ¡ x); x 2 (0; 1):
¡1 0
Observeu que els l¶³mits d'integraci¶o depenen del valor de la variable x: per a cada x 2 (0; 1), la
funci¶o de densitat nom¶es ¶es diferent de 0 per a valors de y entre 0 i 1 ¡ x. De manera similar,
la distribuci¶o de Y ¶es:
Z 1 Z 1¡y
fY (y) = fXY (x; y) dx = 2dy = 2x j1¡y
0 = 2(1 ¡ y); y 2 (0; 1):
¡1 0
² Distribuci¶o uniforme en una regi¶o R del pla, (X; Y ) » U (R). La seva funci¶o de densitat
¶es constant a la regi¶o. Com que la integral sobre tot el pla de fXY ha de ser 1, aleshores:
½ 1
Area(R)
(x; y) 2 R
fXY (x; y) =
0 (x; y) 6
2 R:
² Distribuci¶o normal bidimensional, (X; Y ) » N (m; K). Aquesta distribuci¶o ¶es la gene-
ralitzaci¶o de la normal unidimensional. En particular, les distribucions marginals de X
i de Y s¶on normals. Els parµametres de la distribuci¶o s¶on m = (E(X); E(Y )) i K ¶es
una matriu quadrada que t¶e per entrades parµametres estad¶³stics del vector (X; Y ), que
veurem en una secci¶o posterior. En aquella secci¶o analitzarem la distribuci¶o normal amb
m¶es detall.
XnY 0 1 2 P(X=i)
0 1/36 4/36 4/36 9/36
1 2/36 8/36 8/36 18/36
2 1/36 4/36 4/36 9/36
P(Y=j) 4/36 16/36 16/36
Exemple 3.7 Tirem un dau i denotem X la variable aleatµoria que val 1 si el resultat ¶es parell
i 0 si ¶es senar. Denotem Y la variable aleatµoria que val 1 si la puntuaci¶o ¶es m¶es gran que 1 i
val 0 altrament. La funci¶o de probabilitat conjunta de les dues variables ¶es:
P (X = 0; Y = 0) = 1=6;
P (X = 0; Y = 1) = 1=3;
P (X = 1; Y = 0) = 0;
P (X = 1; Y = 1) = 1=2:
Exemple 3.8 Sigui (X; Y ) un vector aleatori que segueix una distribuci¶o T rin(10; 0;3; 0;2). Si
X = 10 aleshores for»cosament Y = 0, ¶es a dir, P (Y = 0jX = 10) = 1. En canvi, si X = 0
aleshores P (Y = 0jX = 0) = ( 0;5
0;7
)10 6
= 1. Per tant, els valors de X alteren les probabilitats que
Y = 0 i les dues variables no s¶on independents. 2
Exemple 3.9 Siguin (X; Y ) les coordenades d'un punt triat a l'atzar al rectangle R = [0; 1] £
[0; 1]. La funci¶o de distribuci¶o conjunta ¶es fXY (x; y) = 1 per a (x; y) 2 R (i 0 per a (x; y) 2
= R).
Les distribucions marginals s¶on fX (x) = 1; x 2 [0; 1] i fY (y) = 1; y 2 [0; 1]. Per tant,
fXY (x; y) = fX (x)fY (y) en tots els punts i les dues variables s¶on independents. 2
Quan dues variables aleatµories (X; Y ) no s¶on independents, la relaci¶o de dependµencia queda
determinada per la distribuci¶
o condicionada. Si les variables s¶on discretes, la funci¶o de proba-
bilitat de X condicionada a Y ¶es:
P (X = ai ; Y = bj )
PXjY (ai jbj ) = P (X = ai jY = bj ) = ; si P (Y = bj ) 6
= 0:
P (Y = bj )
La funci¶o de probabilitat condicionada ¶es una probabilitat i, per tant, satisfµa totes les propietats
d'una probabilitat. Per exemple, si P (Y = b) 6 = 0:
P (X = ajY = b) = 1 ¡ P (X 6
= ajY = b)
P (X · ajY = b) · P (X · a + 1jY = b)
P (X < 1jY = b) = 1
P (X < ¡1jY = b) = 0:
Exemple 3.11 El nombre X de peticions que arriben a un servidor per minut segueix una
distribuci¶o de Poisson de valor mitjµa 5. Cada petici¶o es cursa correctament amb probabilitat
p = 0;8 independent de les altres. Quina ¶es la distribuci¶o de probabilitat del nombre Y de
peticions cursades correctament en un minut?
En aquesta situaci¶o, si coneixem el nombre X = m de peticions que arriben al servidor,
aleshores el nombre Y jX = m de peticions cursades correctament segueix una distribuci¶o
binomial Bin(m; p): µ ¶
m k
P (Y = kjX = m) = p (1 ¡ p)m :
k
D'acord amb l'equaci¶o anterior:
µ ¶
m k ¸m
P (X = m; Y = k) = P (Y = kjX = m)P (X = m) = p (1 ¡ p)m e¡¸ ;
k m!
d'on, per a k ¸ 0 (tenint en compte que P (X = m; Y = k) = 0 si m < k i el desenvolupament
en sµerie de potµencies de la funci¶o exponencial):
X X m! ¸m
P (Y = k) = P (X = m; Y = k) = pk (1 ¡ p)m¡k e¡¸
m¸0
k!(m ¡ k)! m!
m¸k
1 k k ¡¸ X (1 ¡ p)m¡k ¸m¡k
= p ¸ e
k! m¸k
(m ¡ k)!
1 1
= (p¸)k e¡¸ e(1¡p)¸ = (p¸)k e¡¸p :
k! k!
De manera que obtenim el resultat segons com natural que Y segueix una distribuci¶o de Poisson
amb valor mitjµa ¸p = 5(0;8) = 4. 2
fXY (x; y)
fXjY (xjy) = ; si fY (y) 6
= 0:
fY (y)
Exemple 3.12 Considerem la variable aleatµoria bidimensional (X; Y ) amb distribuci¶o uni-
forme al triangle T de vµertexs (0; 0); (1; 0); (0; 1). La funci¶o de densitat conjunta i les densitats
marginals s¶on:
½
2 (x; y) 2 T
fXY (x; y) =
0 (x; y) 62T
½
2(1 ¡ x) x 2 [0; 1]
fX (x) =
0 x62 [0; 1]
½
2(1 ¡ y) y 2 [0; 1]
fY (y) =
0 y6 2 [0; 1]
De les relacions anteriors es pot obtenir la distribuci¶o conjunta quan es coneixen les marginals
i les condicionades:
fXY (x; y) = fXjY (xjy)fY (y);
i, en particular, es pot obtenir la densitat marginal de X a partir de la densitat condicionada
fXjY , i la densitat de fY de Y en una expressi¶o que es pot interpretar com la versi¶o cont¶³nua
de la f¶ormula de la probabilitat total:
Z 1 Z 1
fX (x) = fXY (x; y)dy = fXjY (xjy)fY (y)dy:
y=¡1 y=¡1
Exemple 3.13 La durada T d'una comunicaci¶o telefµonica segueix una distribuci¶o exponencial
amb un valor mitjµa de mig minut. La informaci¶o I transmesa durant una comunicaci¶o de
durada t segueix una distribuci¶o exponencial de valor mitjµa 2t (en una determinada unitat de
mesura). Quina ¶es la distribuci¶o conjunta de les variables T; I?
D'acord amb la f¶ormula anterior, per a t ¸ 0 i x ¸ 0:
1 ¡x=2t ¡2t 1 ¡(x+4t2 t)=2t
fT I (t; x) = fIjT =t (x)fT (t) = ¸I e¡¸I x ¸T e¡¸T t = e 2e = e ;
2t t
2
si X ¶es discreta, i Z 1
E(XjY = m) = xfXjY =y (x) dx;
¡1
si ¶es cont¶³nua. El que s'ent¶en per esperan»ca de X condicionada a Y , perµo, ¶es encara una altra
variable aleatµoria, denotada E(XjY ), que ¶es una funci¶o de Y que assigna a cada valor y el valor
E(XjY = m).
E(XjY ) = g(Y ); ong(y) = E(XjY = y):
Per trobar-ne la distribuci¶o cal fer servir els mµetodes per obtenir la distribuci¶o d'una funci¶o
d'una variable aleatµoria que s'han vist anteriorment. El concepte pot semblar complex, perµ o
un exemple aclarirµa segurament el procediment de cµalcul.
Exemple 3.14 A l'exercici 3.11, l'esperan»ca del nombre de peticions cursades correctament
quan s'han rebut m peticions al servidor ¶es E(Y jX = m) = mp = (0;8)m. L'esperan»ca de Y
condicionada a X ¶es, doncs:
E(Y jX) = 0;8X:
La distribuci¶o de probabilitat d'aquesta esperan»ca condicionada ¶es, doncs, P (E(Y jX) = y) =
P (0;8X = y) = P (X = y=0;8): Per exemple, P (E(Y jX) = 0;8) = P (X = 1) = 5e¡5 . 2
Exemple 3.15 A l'exemple 3.13, el valor mitjµa de la quantitat d'informaci¶o que es rep ¶es
(tenint en compte que IjT = t segueix una llei exponencial de valor mitjµa 2t, d'on E(IjT ) = 2T ):
que resulta m¶es fµacil de calcular que trobar primer la distribuci¶o marginal de I i d'aqu¶³ el seu
valor mitjµa. 2
3.6 Distribuci¶
o de la suma de dues variables aleatµ
ories
Entre les operacions que es poden fer amb variables aleatµories, una de les m¶es importants
¶es la suma. Estudiarem aqu¶³ com es pot obtenir la distribuci¶o de la suma de dues variables
aleatµories cont¶³nues. Si (X; Y ) s¶on variables cont¶³nues amb funci¶o de densitat conjunta fXY i
posem Z = X + Y , aleshores:
Z 1 Z z¡y
FZ (z) = P (Z · z) = P (X + Y · z) = fXY (x; y)dxdy;
y=¡1 x=¡1
Exemple 3.16 Si X i Y s¶on dues variables aleatµ ories independents que segueixen una dis-
tribuci¶o uniforme a [¡1=2; 1=2], aleshores la densitat de la suma Z = X + Y ¶es:
8
Z 1 < 1 + z z 2 [¡1; 0]
fZ (z) = fX (z ¡ y)fY (y)dy = 1 ¡ z z 2 [0; 1]
y=¡1 :
0 z62 [¡1; 1]
3.7 Parµ
ametres estad¶³stics: covariµ
ancia i correlaci¶
o
Com en el cas unidimensional, els parµametres estad¶³stics s¶on valors numµerics que donen infor-
maci¶o sobre la distribuci¶o de probabilitat. Per a variables aleatµories bidimensionals (X; Y ), no
nom¶es es tracta d'obtenir informaci¶o sobre el valor mitjµa i la variµancia de cada component, sin¶o
tamb¶e del grau de dependµencia entre les dues variables.
Una de les propietats essencials de l'esperan»ca ¶es la seva linealitat:
En canvi, en general no ¶es cert que V ar(X + Y ) = V ar(X) + V ar(Y ). Aquesta igualtat ¶es
certa si hi ha un cert grau d'independµencia entre les dues variables, que s'anomena incorrelaci¶
o
i ¶es menys fort que la independµencia i que estudiem a continuaci¶o.
La mesura m¶es comuna del grau de dependµencia entre dues variables ¶es la covariµ
ancia i el que
en podr¶³em dir el seu valor normalitzat, el coe¯cient de correlaci¶
o.
La mesura de la relaci¶o entre dues variables que d¶ona la covariµancia es pot il¢lustrar amb aquest
exemple simple. Suposem que tenim els conjunts de valors
A = f(0; 6); (1; 1); (2; 5); (4; 3); (5; 5); (6; 4)g B = f(0; 1); (1; 3); (2; 4); (4; 5); (5; 5); (5; 6)g
t t
t t
mY t t mY t
t t
t t
mX mX
1. ¡1 · ½X;Y · 1.
2. Si X i Y s¶
on independents, aleshores E(XY ) = E(X)E(Y ).
En particular, Cov(X; Y ) = ½XY = 0.
3. V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y ).
o lineal si j½X;Y j = 1.
Les variables X; Y s¶on incorrelades si ½X;Y = 0 i tenen correlaci¶
3.7.1 Distribuci¶
o normal multidimensional
Aquesta forma relativament complexa adopta una expressi¶o simple quan les variables aleatµories
X i Y s¶on independents, ja que aleshores ½XY = 0 i
( "µ ¶2 µ ¶2 #)
1 1 x ¡ mX y ¡ mY
fXY = exp + ;
2¼¾X ¾Y 2 ¾X ¾Y
que correspon simplement al producte de les funcions de densitat de dues variables aleatµ
ories
normals N(mX ; ¾X ) i N(mY ; ¾Y ).
Les propietats bµasiques de la distribuci¶o normal bidimensional, que sovint s¶on su¯cients per a
tractar problemes amb aquesta distribuci¶o, s¶on les segÄ
uents.
Si (X; Y ) » N(m; K), aleshores
² Les variables aleatµories X i Y s¶on normals N (m1 ; ¾X ) i N(m2 ; ¾Y ), respectivament.
² La distribuci¶o condicionada XjY = y ¶es normal N(m1 + ½X;Y ¾¾XY (y ¡ m1 ); ¾X
2
(1 ¡ ½2XY )).
² Les variables aleatµories X i Y s¶on independents si i nom¶es si s¶on incorrelades.
3.8.1 Exercicis
1. Tirem tres daus i denotem X la variable aleatµoria que compta el nombre de puntuacions
parelles i Y el nombre de puntuacions superiors a 3. Doneu la funci¶o distribuci¶o conjunta
de les dues variables X i Y .
2. Escollim un punt a l'atzar en el triangle de vµertexs (0; 0); (1; 0); (0; 1). Doneu la funci¶o de
distribuci¶o conjunta de les dues variables X i Y .
3. Un usuari accedeix a un servidor en un instant T aleatori a l'interval (0; 1) i formula un
nombre X de peticions al servidor, on X pot prendre cadascun dels valors 1; 2 o 3 amb la
mateixa probabilitat. Doneu la funci¶o de distribuci¶o conjunta de les dues variables (T; X).
4. Una font emet un dels s¶³mbols 0, 1 i ¤ amb probabilitats 4=10, 4=10 i 1=5, respectivament.
La font emet deu s¶³mbols de forma independent.
a) Quµe ¶es m¶es probable, que surtin quatre 0,, quatre 1 i dos ¤ o que surtin tres 0, cinc 1
i dos ¤?
b) Quina ¶es la probabilitat que el missatge emµes sigui 00001111¤?
c) Quina ¶es la probabilitat que el missatge emµes tingui quatre 0?
5. Quina ¶es la probabilitat que en escollir aleatµoriament un punt (X; Y ) al quadrat [0; 1] £
[0; 1] se satisfaci X · 2Y ?
6. Una variable aleatµoria bidimensional cont¶³nua t¶e funci¶o de densitat
½
kxe¡y 0 · x · 2; y ¸ 0
fXY (x; y) =
0 altrament
a) Determineu el valor de k.
b) Calculeu la funci¶o de distribuci¶o conjunta de X i Y als punts (0; 1); (1; 1) i (1; 0).
c) Calculeu la probabilitat que (X; Y ) prengui valors al quadrat [0; 1] £ [0; 1].
d) Determineu la funci¶o de densitat marginal de X.
7. S'escull un punt (X; Y ) a l'atzar en un disc de radi 1, centrat a l'origen. S¶on independents
les variables X i Y (abscissa i ordenada del punt, respectivament)? Quina ¶es la distribuci¶o
de X si Y = 0?
2. Prenem un nombre X a l'atzar a l'interval [0; 1]. Fixat aquest nombre, en prenem un
altre Y a l'atzar a l'interval [x; 1]. Trobeu la densitat conjunta del vector aleatori (X; Y )
i la densitat marginal de Y .
3. Siguin X i Y dos nombres independents i a l'atzar de l'interval [0; 1]. Sigui Z l'µarea del
triangle format per aquests dos nombres i l'origen. Trobeu la densitat de Z.
5. Siguin X i Y dos nivells de soroll (en determinades unitats) de dos tipus d'interferµencies
en una l¶³nia de transmissi¶o. Si la funci¶o de densitat conjunta de probabilitat ve donada
per: ½ x+y
8000
0 · x; y · 1
f (x; y) =
0 altrament
Si el nivell de soroll observat de Y ¶es de 10, obteniu la probabilitat que el nivell de soroll
de X sigui, com a mµaxim, de 14.
6. Tenim una caixa que t¶e cinc cartes numerades: 1; 1; 2; 2 i 3. Se'n treuen dues. Sigui X la
suma i Y el nombre m¶es gran de les dues.
a) Trobeu-ne la distribuci¶o de probabilitat conjunta.
b) Trobeu-ne Cov(X; Y ) i ½(X; Y ).
9. Una gallina pon N ous, on N t¶e distribuci¶o de P oisson(¸). Cada ou es desenvolupa amb
probabilitat p > 0, independentment dels altres. Sigui K el nombre de pollets que surten.
Trobeu E(KjN ); E(K) i E(NjK).
10. Dos servidors tenen temps de servei T1 i T2 que segueixen distribucions exponencials
de parµametres ¸1 i ¸2 , respectivament. Un usuari es troba els dos servidors ocupats.
Denotem T la variable aleatµoria que mesura el temps ¯ns que un dels dos servidors queda
lliure.
a) Doneu la distribuci¶o de probabilitat de T i el seu valor mitjµa.
b) Quina ¶es la probabilitat que T = T1 ?
11. El temps de processament d'un paquet de dades segueix una llei exponencial de temps
mitjµa 2 segons. Si un paquet arriba en un instant X aleatori a l'interval (0; 2) (en segons),
quina ¶es la probabilitat que el paquet estigui processat abans de 3 segons?
12. Un canal de transmissi¶o estµa sotmµes a dues menes de sorolls d'intensitats X i Y , que
segueixen distribucions normals N(0; 2) i N (0; 3), respectivament (en una certa unitat de
mesura). Determineu la correlaci¶o entre el soroll total X + Y i Y i entre X + Y i X.
Quina correlaci¶o ¶es m¶es gran?
14. El nombre de peticions que arriben a un servidor en una unitat de temps segueix una
distribuci¶o de Poisson de valor mitjµa 4. El servidor at¶en un mµaxim de tres peticions per
unitat de temps i desestima les altres. Denotem U el nombre de peticions desestimades.
Determineu el coe¯cient de correlaci¶o entre U i X.
4 Mostres i estimaci¶
o
4.1. Mostres
4.2. Valors poblacionals i valors mostrals
4.3. La mitjana i la variµancia mostrals
4.4. Estimadors
4.5. Intervals de con¯an»ca
4.6. Estimadors de la mitjana
4.7. La t de Student
4.8. Estimadors de la variµancia. La distribuci¶o Â2
4.9. Exercicis i problemes
4.1 Mostres
L'estad¶³stica inductiva ¶es una de les eines m¶es u¶ tils que es fan servir avui dia en qualsevol
proc¶es en quµe la quanti¯caci¶o de dades ¶es important. Exemples com els resultats obtinguts en
un experiment cient¶³¯c, les dades observades d'un comportament al llarg d'un cert per¶³ode de
temps, les mesures observades en un producte manufacturat, etc. Com la paraula inductiva
ens indica, ens interessa poder treure conclusions a partir d'una sµerie de dades.
Moltes vegades, perµo, no serµa possible accedir a tota la poblaci¶o , ¶es a dir, a totes les dades
possibles. Aixµo es pot donar per diverses raons. Per exemple, si volem estudiar l'al»caµria d'una
persona, l'ideal seria poder mesurar totes les al»caµries de totes les persones i d'aqu¶³ extreure
resultats, com l'al»caµria mitjana, etc. Perµo oµbviament aixµo ¶es impracticable. Altres vegades, la
mesura practicada comporta la destrucci¶ o del subjecte mesurat: si nosaltres volem mesurar la
resistµencia d'una bombona de butµa, podem injectar butµa a pressi¶o ¯ns que la bombona s'es-
querda, i mesurar la pressi¶o mµaxima assolida abans d'esquerdar-se. Evidentment, no podem fer
aixµo amb totes les bombones, perquµe ens en quedariem sense. Per solucionar aquests problemes
s'utilitzen les mostres.
De¯nici¶ o 4.1 Una mostra ¶es una selecci¶o parcial d'objectes que es volen estudiar, que es fa
servir per obtenir dades que serveixin per estimar els valors reals de tota la poblaci¶
o.
Per exemple, si volem esbrinar quina ¶es l'al»caµria mitjana d'una persona, triem una mostra de
100 persones, mesurem les seves al»caµries i calculem la mtjana d'aquestes 100 al»caµries. El n¶
umero
obtingut ¶es una representaci¶o de l'al»caµria mitjana de tota la poblaci¶o. O amb l'altre exemple
mencionat anteriorment, de cada 100 bombones de butµa que fabriquem, en separem una mostra
de 5, que seran destruijdes a base d'injectar-hi butµa ¯ns que s'esquerdin i anotem la pressi¶o en
la qual s'han esquerdat. Amb aquest proc¶es esperem que el valor real de la pressi¶o mµaxima
suportada per les 95 bombones restants estigui proper al valor observat en les 5 bombones de
mostra.
La distinci¶o m¶es important que cal fer en l'estudi de l'estad¶³stica inductiva mitjan»cant mostres
¶es la que hi ha entre els valors poblacionals i els valors mostrals. Tornant a l'exemple de la
mesura de l'al»caµria d'una persona de l'apartat anterior, cal tenir clara la diferµencia entre el
valor real exacte de l'al»caµria mitjana d'una persona, valor que existeix perµo que ¶es impossible
de calcular a la prµactica, i que s'anomena mitjana poblacional, i la mitjana obtinguda amb les
100 al»caµries de les 100 persones de la mostra, que seria la mitjana mostral.
De¯nici¶ o 4.2 Els valors poblacionals s¶ on els valors reals exactes que es volen calcular i que
a la prµ
actica s¶on impossibles d'obtenir, mentre que els valors mostrals s¶
on els valors obtinguts
amb la mostra, i que s¶on representacions m¶es o menys acurades dels valors poblacionals.
Observem que els valors poblacionals s¶on ¯xos i inamovibles mentre que els valors mostrals
depenen, oµbviament, de la mostra. Per exemple, la mitjana poblacional de l'al»caµria de les
persones ¶es ¯xa, mentre que l'al»caµria mostral depµen de la mostra. Aixµo justi¯ca la introducci¶o
de variables aleatµories per a l'estudi dels valors mostrals, independentment que els valors de la
poblaci¶o segueixin ells mateixos el model d'una variable aleatµoria concreta. Aixµo s'ent¶en millor
amb un exemple.
Segons estudiµavem als temes anteriors, l'al»caµria d'una persona segueix una variable aleatµoria
amb distribuci¶o normal, amb una certa mitjana ¹ i una desviaci¶o t¶³pica ¾. Aquests valors s¶on
els valors poblacionals, ¶es a dir, ¹ ¶es la mitjana poblacional i ¾ ¶es la desviaci¶o t¶³pica poblacional.
Aquests valors s¶on ¯xos i s¶on els que ens interessa estimar a base de triar mostres. Aleshores,
triem una mostra i mesurem la mitjana dels valors de la mostra. Obtenim aix¶³ una mitjana
mostral x¹n , on n ¶es el nombre d'individus de la mostra. Ara b¶e, si triem una mostra diferent,
obtindrem un valor diferent per x¹n , i canviant la mostra tantes vegades com vulguem obtindrem
molts valors diferents per x¹n . Per tant, t¶e sentit plantejar-se la distribuci¶o com a variable
aleatµoria d'aquests valors x¹n . Aquesta ¶es l'anomenada variable aleatµ oria mostral , i a priori no
t¶e per quµe coincidir amb la variable aleatµoria poblacional anterior. En aquest cap¶³tol s'estudien
aquestes variables aleatµories mostrals i la seva relaci¶o amb les variables poblacionals, com tamb¶e
quin paper fan els parµametres representatius de la variable poblacional en les variables mostrals.
Cal tenir ben present aquesta distinci¶o entre els valors poblacionals i els valors mostrals, perquµe
¶es un dels conceptes clau en estad¶³stica.
Suposem que ens interessa estudiar una caracter¶³stica mesurable d'una poblaci¶o, i que aquesta
caracter¶³stica t¶e mitjana poblacional ¹ i variµancia poblacional ¾ 2 . De moment no ens interessa
quina ¶es la distribuci¶o de la variable aleatµoria poblacional sin¶o nom¶es els seus dos parµametres
m¶es importants.
De¯nici¶ o 4.3 Donada una mostra de n individus dels quals ens interessa estudiar una caracte-
r¶³stica concreta, la mitjana mostral ¶es la mitjana dels valors que pren aquesta caracter¶³stica per
als individus d'aquesta mostra. Igualment es pot de¯nir la variµancia mostral com la variµ ancia
d'aquests valors.
Tal com hem dit abans, la mitjana mostral depµen de la mostra escollida i, per tant, la podem
considerar un valor pres per una variable aleatµoria. Denotem X¹ n aquesta variable aleatµoria,
anomenada la variable aleatµoria de la mitjana mostral, que pren valors iguals a les mitjanes
dels valors obtinguts amb diferentes mostres.
Proposici¶ o 4.4 Si per a una poblaci¶ o determinada la mitjana poblacional ¶es ¹ i la variµ
ancia
2
poblacional ¶es ¾ , aleshores la variable aleatµ ¹
oria Xn de la mitjana mostral t¶e com a parµ
ametres:
¹n) = ¹ ¹n) = ¾2
E(X i V ar(X :
n
Observem detingudament aquests valors, perquµe es corresponen molt b¶e amb la idea intuijtiva
que un t¶e sobre com han de funcionar aquestes observacions. El fet que la mitjana de la
variable aleatµoria mostral sigui igual a la mitjana poblacional diu que de tots els valors possibles
obtinguts per la mitjana mostral amb les diferents mostres possibles, la mitjana ¶es la mitjana
poblacional real. Aixµo ens diu que si triem diferents mostres i n'obtenim diferents mitjanes
mostrals, aquestes estaran centrades en el valor mitjµa real.
M¶es important encara ¶es el valor obtingut per la variµancia de la variable aleatµoria de la mitjana
mostral. Observeu que aquest valor apareix dividit per n, la mida de la mostra. Aixµo es
correspon amb el concepte intuijtiu que, com m¶es gran ¶es la mostra, m¶es acurat ¶es el valor.
Si triem mostres de 10 individus, obtindrem una variaci¶o molt m¶es gran de valors per a les
mitjanes mostrals que si triem mostres de 100 individus.
Exemple. Suposem que la mitjana de les al»caµries de les persones ¶es 175 cm i que la desviaci¶o
t¶³pica ¶es de 10 cm. Aixµo vol dir que si triem una persona a l'atzar la seva al»caµria estµa sotmesa
a una distribuci¶o (normal, perµo aixµo ara no ve al cas) amb mitjana 175 i desviaci¶o t¶³pica 10,
¶es a dir ¾ 2 = 100. Triem ara mostres de 5 persones i anotem la mitjana de les seves al»caµries.
Despr¶es de triar moltes mostres tindrem una sµerie de valors per a la mitjana mostral. Doncs
b¶e, aquests valors es comporten com una variable aleatµoria (ja veurem m¶es endavant quina
distribuci¶o t¶e) amb mitjana tamb¶e 175, perµo la variµancia serµa ¾ 2 =5 = 20 i la desviaci¶o t¶³pica
p
20 = 4;47.
Si ara agafem mostres de 25 persones, esperem que les mitjanes mostrals de les mostres de 25
persones siguin molt m¶es acurades. La variable aleatµoria de les mitjanes mostrals de mostres
de 25 persones t¶e, doncs, la mateixa mitjana ¹ = 175, perµo la seva variµancia ¶es ara ¾ 2 =25 = 4
¶ a dir, els valors de la mitjana mostral obtinguts amb mostres de
i la desviaci¶o t¶³pica ¶es 2. Es
25 persones estan molt m¶es a prop de 175 (a distµancia t¶³pica 2) que els valors obtinguts amb
mostres de 5 persones, que es troben a distµancia t¶³pica 4,47.
Pel que fa a la variµancia, sembla lµogic tamb¶e que si calculem les variµancies mostrals de cadascuna
de les mostres, obtinguem una bona aproximaci¶o de la variµancia poblacional. Perµo aixµo no ¶es
realment aix¶³. Triem una mostra de n elements de la nostra poblaci¶o (recordem que la mitjana
poblacional ¹ i la variµancia poblacional ¾ 2 s¶on ¯xes) i calculem-ne la seva variµancia
n
X (xi ¡ x¹n )2
s2n = :
i=1
n
Canviant de mostra ens canviarµa el valor de s2n i, per tant, un altre cop podem considerar
la variable aleatµoria de la variµancia mostral que ens d¶ona els possibles valors de la variµancia
mostral quan canviem la mostra. Aquesta variable aleatµoria l'anomenarem Sn2 . Aleshores, tenim
la proposici¶o segÄ
uent:
n¡1 2
E(Sn2 ) = ¾ :
n
Observem detingudament aquesta proposici¶o. Ens diu que, si agafem moltes mostres, agafem
les seves variµancies i en fem la mitjana, el valor al qual s'acostarµ
a no ¶es el valor de la mitjana
poblacional sin¶o un valor modi¯cat pel factor (n¡1)=n. Aixµo ve donat pel fet que, si a la mostra
hi ha n objectes, nom¶es n ¡ 1 desviacions s¶on rellevants, perquµe la n-µesima ve determinada per
les altres, ja que la suma de totes les desviacions ¶es 0.
Per tant, per obtenir una bona estimaci¶o de la variµancia, si les mostres s¶on de n objectes,
s'agafa la variµ
ancia mostral modi¯cada:
2 n
Sn¡1 = S2
n¡1 n
que elimina aquest problema.
Moltes calculadores cient¶³¯ques de les que fan cµalculs estad¶³stics porten ja una tecla determinada
per fer Sn2 i per fer Sn¡1
2
. Observem tamb¶e que Sn¡12
es pot calcular de la mateixa manera que
es calcula la variµancia perµo dividint per n ¡ 1 en comptes de n:
n
2 1 X
Sn¡1 = (xi ¡ x¹n )2 :
n ¡ 1 i=1
4.4 Estimadors
Tal com hem vist a l'apartat anterior, quan tenim una poblaci¶o que volem estudiar, i que t¶e una
mitjana i una variµancia que no coneixem, podem intentar esbrinar quins valors tenen aquests
parµametres poblacionals amb valors mostrals. Aquest ¶es el concepte fonamental d'estimador,
que ¶es el concepte abstracte que hi ha darrere dels conceptes de mitjana i variµancia mostrals.
De¯nici¶ o 4.6 Sigui X una variable aleatµ oria poblacional i que t¶e un parµ
ametre associat µ |
normalment la mitjana o la variµ ancia|. Un estimador de µ, que denotem per µ, ~ ¶es una variable
aleatµoria mostral, ¶es a dir, obtinguda de la mostra, que es fa servir per donar una aproximaci¶ o
del valor exacte de µ.
Els exemples obvis d'estimadors s¶on la mitjana mostral i la variµancia mostral que hem vist a
l'apartat anterior.
Observem que un estimador ¶es una variable aleatµoria. La poblaci¶o ¶es ¯xa, amb els seus valors
poblacionals, mentre que l'estimador ¶es una variable aleatµoria mostral, que varia si canviem
la mostra. Aquesta variable aleatµoria mostral t¶e una distribuci¶o prµopia, que es farµa servir per
donar la probabilitat que el valor real estigui dintre d'un interval determinat.
Segons hem vist tamb¶e a l'apartat anterior, uns estimadors aproximen millor que altres el valor
real. Hem vist que l'estimador X ¹ n de la mitjana aproxima b¶e la mitjana poblacional, mentre
que l'estimador que un consideraria adequat per estimar la variµancia no ho ¶es perquµe d¶ona
consistentment valors m¶es petits que el valor real de la variµancia. Aixµo porta al concepte de
biaix i d'estimador esbiaixat.
Exemples: Els valors mostrals que hem vist a l'apartat anterior s¶on els exemples clµassics
d'estimadors:
Quan es fa servir un estimador per aproximar un parµametre d'una variable aleatµoria, no podem
saber mai si aquesta estimaci¶o que hem fet ¶es m¶es o menys correcta, sin¶o que nom¶es en podem
donar probabilitats. Tot l'estudi de l'estad¶³stica inductiva mitjan»cant estimadors consisteix a
trobar intervals de con¯an»ca, que s¶on els intervals pels quals podem assegurar que contenen el
valor real del parµametre amb una certa probabilitat.
De¯nici¶ o 4.8 Imaginem que volem estimar el parµ ametre µ d'una variable aleatµoria X. Fixat
un valor ®, un interval de con¯an»ca amb signi¯caci¶o ® ¶es un interval [r1 ; r2 ] pel qual podem
assegurar que
P (r1 < µ < r2 ) ¸ ®:
Ja hem vist a la secci¶o 4.3 com es comportava l'estimador X ¹ n de la mitjana, en relaci¶o amb
la mitjana i la variµancia poblacionals. En aquesta secci¶o suposarem que estem interessats en
una variable aleatµoria X que mesura alguna caracter¶³stica d'una poblaci¶o, i a partir d'aquesta
veurem quina variable s'ajusta als valors de l'estimador.
Ja sabem que la distribuci¶o m¶es habitual ¶es la distribuci¶o normal, que hem vist que es feia
servir per aproximar altres distribucions com la binomial. Per tant, t¶e interµes especial estudiar
els estimadors d'una variable aleatµoria normal.
Proposici¶ o 4.9 Suposem que una poblaci¶o segueix una variable aleatµoria X = N (¹; ¾). Ales-
hores l'estimador X¹ n de la mitjana mostral tamb¶e segueix una distribuci¶o normal. Concreta-
¹ p
ment, Xn = N (¹; ¾= n).
Observeu que la mitjana i la variµancia de l'estimador s¶on les que ja hav¶³em establert a la secci¶o
4.3.
Aquest estimador ens permet donar un interval de con¯an»ca sempre que coneguem p la desviaci¶o
¶ ¹
t¶³pica de la poblaci¶o. Es a dir, com que l'estimador Xn t¶e una distribuci¶o N (¹; ¾= n), aleshores
la variable:
¹n ¡ ¹
X
p
¾= n
t¶e una distribuci¶o normal tipi¯cada i l'amplada de l'interval es pot buscar a la taula. Donat
un nivell de signi¯caci¶o ®, podem trobar a la taula l'amplada D® , de manera que
¹n ¡ ¹
X
P (¡D® < p < D® ) = ®;
¾= n
i d'aqu¶³ trobar un interval de con¯an»ca per ¹. Primer fem:
¾ ¹ n ¡ ¹ < p¾ D® ) = ®
P (¡ p D® < X
n n
i ¯nalment:
¹ n ¡ p¾ D® < ¹ < X
P (X ¹ n + p¾ D® ) = ®
n n
Exemple: Uns valors agafats aleatµoriament en una mostra de 20 persones ens han donat
aquests valors relatius a les seves al»caµries:
174 177 180 169 166 175 190 164 179 180 185 174 177 182 194 172 191 175 180 176
Suposem que la distribuci¶o de l'al»caµria d'una persona ¶es normal. Comprovem que, amb un
nivell de signi¯caci¶o de 0,95, aquesta mostra ens permet deduir que la mitjana de la poblaci¶o
estµa en l'interval [173; 183].
¹ n ¶es 178. Busquem a la taula de la normal quin
El valor pres per l'estimador de la mitjana X
¶es el valor D® tal que la normal tipi¯cada Z satisfµa:
P (¡D® < Z < D® ) = 0;95
que ¶es D® = 1;96, el qual s'ha obtingut buscant el valor que ens d¶ona probabilitat 0,475. Per
tant, per la nostra distribuci¶o tenim:
178 ¡ ¹
P (¡1;96 < p < 1;96) = 0;95
10= 20
i calculant:
P (¡4;38 < 178 ¡ ¹ < 4;38) = 0;95
que ens d¶ona ¯nalment un interval de con¯an»ca [173,62 , 182,38]. Aix¶³ doncs, la probabilitat
que l'autµentica mitjana estigui dintre d'aquest interval ¶es del 95%, ¶es a dir:
P (173;62 < ¹ < 182;38) = 0;95:
Teorema 4.10 Considerem una variable aleatµ oria X qualsevol amb mitjana ¹ i desviaci¶
o t¶³pica
¾. Sigui Y la variable aleatµoria que s'obt¶e de sumar n cµopies independents de X.pAleshores,
quan n es fa gran, la distribuci¶
o de Y s'acosta cada cop m¶es a una normal N(n¹; n¾).
El teorema central del l¶³mit, doncs, no s'aplica nom¶es a la suma de n variables de Bernoulli
independents (que d¶ona la distribuci¶o binomial) sin¶o a qualsevol variable aleatµoria X sempre
que tingui un valor mitjµa i una desviaci¶o t¶³pica ¯nits.
Observem com afecta aixµo la variable aleatµoria de la mitjana mostral. Aquesta s'obt¶e fent:
¹ n = X1 + X2 + : : : + Xn = Y ;
X
n n
i, per tant, t¶e una distribuci¶o:
p
N(n¹; n¾) p
= N (¹; ¾= n):
n
Aix¶³ doncs, encara que la distribuci¶o poblacional no sigui normal, si la mida de la mostra
¶es prou gran, podem suposar que la distribuci¶o per la variable aleatµoria de
p l'estimador de la
mitjana mostral ¶es tamb¶e una normal amb mitjana ¹ i desviaci¶o t¶³pica ¾= n, igual que en el
cas anterior.
4.7 La t de Student
Observem que a la secci¶o anterior sempre era necessari conµeixer el valor de ¾ per poder donar
un estimador adequat de ¹, i aixµo no sempre ¶es possible. Una soluci¶o seria substituir el valor
2
exacte de ¾ pel del seu estimador Sn¡1 , perµo aleshores els valors es tornen m¶es inexactes i cal
substituir tamb¶e la distribuci¶o que s'ha de fer servir.
o 4.11 La funci¶
De¯nici¶ o gamma d'Euler ¶es la funci¶o que ve de¯nida per:
Z 1
¡(x) = e¡t tx¡1 dt:
0
Aquesta distribuci¶o ¶es important perquµe ens permet donar els intervals de con¯an»ca per la
mitjana quan la desviaci¶o t¶³pica ¶es desconeguda. En particular, el resultat ¶es:
o 4.13 Donada una poblaci¶o que segueix una variable aleatµoria X, si prenem una
Proposici¶
mostra amb n elements, aleshores la variable aleatµ
oria
¹n ¡ ¹
X
p
Sn¡1 = n
o t de Student amb n ¡ 1 graus de llibertat.
segueix una distribuci¶
La t de Student, com ja passava amb la normal, estµa tabulada i en podeu consultar la taula a
l'apµendix.
Exemple: Considerem un altre cop la mostra de les al»caµries que ten¶³em a l'apartat anterior.
Hem vist que la mitjana mostral obtinguda era de 178, i ara en podem calcular la variµancia
2
mostral modi¯cada S19 = 52;26 i, per tant, S19 = 7;23. Aleshores, sabem que la distribuci¶o
178 ¡ ¹
p
7:23= 20
¶es una t de Student amb 19 graus de llibertat.
La taula de la t de Student ens d¶ona els valors de la x per tal que:
pels valors m¶es importants de ®. En el nostre cas, si agafem ® = 0;95, amb n = 19, la taula
d¶ona x = 2:093. Aix¶³ doncs, tenim que:
178 ¡ ¹
P (¡2;093 < p < 2;093) = 0;95
7;23= 20
i, per tant, tenim l'interval de con¯an»ca [174;61; 181;39], ¶es a dir, la probabilitat que ¹ estigui
entre 174,61 i 181,39 ¶es del 95%.
La t de Student ¶es una distribuci¶o molt semblant a la normal, com es pot esperar pel fet que
la variable
¹n ¡ ¹
X
p
Sn¡1 = n
¶es molt semblant a la variable
¹n ¡ ¹
X
2
p ;
¾n¡1 = n
que hem vist que tenia una distribuci¶o normal. Per tant, la funci¶o de densitat de la t de Student
tamb¶e t¶e una grµa¯ca en forma de campana. Ara b¶e, com que la t de Student fa servir un valor
aproximat, ¶es m¶es susceptible de donar valors m¶es dolents. Aixµo suposa que la grµa¯ca de la t
de Student ¶es m¶es ampla que la grµa¯ca de la normal. Ara b¶e, quan augmentem el nombre de
graus de llibertat, la grµa¯ca s'aproxima m¶es a la normal. Es¶ clar: segons el teorema central del
l¶³mit, si el nombre de graus de llibertat ¶es molt gran, aleshores la t de Student s'aproxima molt
a la normal. Podreu comprovar aixµo veient que els valors que la taula d¶ona per in¯nits graus
de llibertat s¶on exactament els que obtindr¶³em amb una normal tipi¯cada.
L'estimador S 2 de la variµancia mostral, que, segons hem vist abans, es calcula amb la f¶ormula
n
1 X
S2 = (xi ¡ x¹n )2
n ¡ 1 i=1
on les Xi s¶
on normals tipi¯cades. La seva funci¶o de densitat ¶es:
1 n x
kn (x) = n
³ n ´ x 2 ¡1 e¡ 2
2 ¡
2
2
Fem servir aquesta distribuci¶o per als estimadors de la variµancia quan la variable poblacional
¶es normal:
nS 2
Y =
¾2
o Â2 amb n graus de llibertat.
segueix una distribuci¶
Observem que la distribuci¶o Â2 no pot prendre valors negatius, essent una suma de quadrats,
i per tant la seva funci¶o de densitat nom¶es ¶es diferent de 0 en l'interval (0; 1). Tamb¶e t¶e la
forma d'una campana, aquest cop no simµetrica, que comen»ca a l'origen, puja ¯ns al seu mµaxim
i despr¶es decreix asimptµoticament cap al 0. Com m¶es gran ¶es el nombre de graus de llibertat,
m¶es lluny del zero ¶es el mµaxim.
Un cop m¶es, tenim una taula que ens permet calcular els valors de la distribuci¶o Â2 pels graus
de llibertat i nivells de con¯an»ca m¶es habituals.
4.9.1 Exercicis
1. Tenim que una mostra de setze transistors ha presentat una vida mitjana de 735 hores.
Coneixem que ¾ = 12 hores. Trobeu l'interval de con¯an»ca per a la vida mitjana de la
poblaci¶o al 95%.
1. Mesurem la temperatura exacta de 0± C amb cinc termµometres que segueixen una dis-
tribuci¶o N (0; ¾), on desconeixem ¾. N'obtenim els resultats erronis segÄ
uents: 0;02, 0;05,
¡0;01, ¡0;04 i 0;12. Trobeu l'interval de con¯an»ca del 95% per a la ¹.
2. Hem obtingut els valors segÄuents de la variable aleatµoria X, 55, 65, 82, 48, 55, 75, 70 i
62. Trobeu un interval de con¯an»ca del 90% per a la variµancia de X.
3. S'analitza el temps T de processament d'un paquet de dades d'una mida donada. Adme-
tem que T segueix una distribuci¶o normal. Es mesura el temps (en ¹s) de deu transmis-
sions i s'obtenen els resultats segÄ
uents:
301 303 300 304 300 304 299 305 302 302:
a) Doneu un interval de con¯an»ca del 99% per al valor mitjµa del temps de transmissi¶o.
b) Doneu un interval de con¯an»ca del 99% per a la desviaci¶o t¶³pica de la distribuci¶o.
c) Determineu la mida m¶³nima que hauria de tenir la mostra per obtenir un interval de
con¯an»ca del 95% per al valor mitjµa de T , de manera que l'interval de con¯an»ca tingui
una llargada no superior a 1¹s. Suposem ara que ¾T = 2.
5 Regressi¶
o lineal simple.
La ¯nalitat d'aquest cap¶³tol ¶es proporcionar conceptes bµasics per obtenir les carac-
ter¶³stiques principals d'una relaci¶
o que no ¶es evident. Tractem amb distribucions
estad¶³stiques bidimensionals, que ja s'han introduijt al tema 3. Estudiem els casos
en quµe els punts (X; Y ) s'aproximen el mµaxim possible a una recta que trobem mit-
jan»cant el mµetode dels m¶³nims quadrats. Finalment tornem a parlar, en aquest cas
concret, dels resultats que podem deduir d'una poblaci¶ o si el que estudiem ¶es una
mostra (tal com hem vist al tema 4).
5.1 Regressi¶
o lineal simple.
Suposem que tenim un conjunt de n mesuraments y1 , y2 ,...,yn , d'una variable resposta Y , rea-
litzats amb un conjunt de n condicions experimentals x1 , x2 ,...,xn , d'una variable predicci¶
o X.
Tindrem en compte nom¶es el cas d'una variable resposta, que ¶es el que es coneix com a model
lineal simple.
Intentarem ajustar una equaci¶o lineal al conjunt de dades amb la ¯nalitat d'obtenir una equaci¶o
emp¶³rica que ens determini el comportament de la variable resposta Y , donats els valors de la
variable de predicci¶o X.
Partim, doncs, d'una distribuci¶o bidimensional. Suposem que el resultat de l'observaci¶o d'una
mostra ens d¶ona un conjunt de punts (X; Y ) que podem representar en un grµa¯c. Aquests tipus
de grµa¯cs s'anomenen diagrama de punts o b¶e n¶uvol de punts o b¶e diagrama de dispersi¶o.
En cap¶³tols anteriors hem introduijt els conceptes de covariµancia i coe¯cient de correlaci¶o lineal.
En el cas d'una mostra de mida n escrivim per a les variancies marginals:
Pn 2 Pn 2
i=1 xi y
2
sx = ¡x 2
sy = i=1 i ¡ y 2
2
n n
i per a la covariµancia sxy i el coe¯cient de correlaci¶o r:
n
1X sxy
Sxy = xi yi ¡ x y r=
n i=1 sx sy
A continuaci¶o donem uns quants exemples de dades amb els seus coe¯cients de correlaci¶o.
Exercici: Representeu aquests grµa¯cs i comproveu els coe¯cients de correlaci¶o.
Exemple 5.1 (0; 0); (1; 0); (2; 0); (0; 1); (1; 1); (2; 1); (0; 2); (1; 2); (2; 2) amb r = 0. Les variables
no estan correlacionades.
Exemple 5.2 (0; 0); (1; 0); (3; 0); (3; 1); (1; 1); (2; 1); (0; 2); (1; 2); (2; 2) amb r = ¡0;128. Les
variables no estan correlacionades.
Exemple 5.3 (0; 0); (1; 0); (3; 3); (3; 1); (1; 1); (2; 1); (3; 2); (4; 4); (2; 2) amb r = 0;845. Amb
aquest valor de r podem dir que hi ha una correlaci¶o lineal forta i positiva.
Exemple 5.4 (1; 1); (1; 3); (1; 4); (2; 0); (2; 5); (3; 0); (4; 0); (4; 0); (2; 2) amb r = ¡0;609. Cor-
relaci¶o lineal dµebil i negativa.
Exemple 5.5 (1; 2); (2; 3); (3; 4); (2; 3); (5; 6); (1; 2) amb r = 1. Variables perfectament correla-
cionades (relaci¶o funcional), amb correlaci¶o lineal.
Exemple 5.6 (5; 1); (4; 2); (3; 3); (2; 4); (1; 5); (5; 1) amb r = ¡1. Variables perfectament cor-
relacionades (relaci¶o funcional), amb correlaci¶o lineal.
Ara b¶e, tal com hem dit al cap¶³tol anterior tamb¶e ens interessarµa fer inferµencies sobre la cor-
relaci¶o lineal d'una poblaci¶o de la qual coneixem el resultat d'una mostra.
5.2 o de r
Signi¯caci¶
Suposem que tenim una mostra de mida n d'una poblaci¶o bivariant que ens d¶ona un coe¯cient
de correlaci¶o r i que les dades de la poblaci¶o ens donarien (si es calcul¶es) un valor ½. La
o de ½. L'any 1915
nostra ¯nalitat ¶es utilitzar les dades de la mostra per poder fer una estimaci¶
l'estadista R. A. Fisher va trobar que la transformaci¶o:
1 1+r
z= ln = tanh¡1 r
2 1¡r
donava lloc a una variable aleatµoria Z de distribuci¶o aproximadament normal amb ¹z = tanh¡1 ½
1
i ¾z2 = n¡3 (l'aproximaci¶o ¶es m¶es bona quant m¶es gran ¶es la mostra). El coe¯cient de correlaci¶
o
r de la mostra i la seva transformaci¶o Z els utilitzarem per aconseguir uns l¶³mits entre els quals
puguem estar quasi segurs que es troba el coe¯cient de correlaci¶o ½.
5.3 ca per ½.
Interval de con¯an»
z¡¹z
Considerem Z normal i, per tant, ¾z
¶es una normal tipi¯cada. Tenim, doncs:
z ¡ ¹z
P (¡1; 96 < < 1; 96) = 0;95
¾z
o b¶e:
P (z ¡ 1; 96¾z < ¹z < z + 1; 96¾z ) = 0;95
1 1
P (tanh¡1 0;71 ¡ 1; 96 p < ¹z < tanh¡1 0;71 + 1; 96 p ) = 0;95
25 25
Tornem ara a pensar amb els grµa¯cs de punts que heu representat abans.
Estudiem primer la regressi¶o de Y sobre X. Suposem que la variaci¶o aleatµoria es d¶ona sobre la
Y i suposem que la recta que volem trobar la podem escriure com:
y = ax + b (1)
n
X
(yi ¡ (axi + b))2
i=1
on (xi ; yi ) s¶on els valors ¯xats experimentals i axi + b ¶es la imatge de xi sobre la recta (1).
Derivem parcialment respecte de a i despr¶es respecte de b i igualem a 0:
n
X
2(yi ¡ axi ¡ b)(¡xi ) = 0
i=1
n
X
2(yi ¡ axi ¡ b)(¡1) = 0
i=1
o b¶e:
X
n X
n X
n
xi yi ¡ a x2i ¡b xi = 0
i=1 i=1 i=1
n
X n
X
yi ¡ a xi ¡ nb = 0
i=1 i=1
Pn Pn
i=1 xi yi i=1 x2i
¡a ¡ bx = 0 (2)
n n
y ¡ ax ¡ b = 0 (3)
sxy
y¡y = (x ¡ x)
s2x
sxy
x¡x = (y ¡ y)
s2y
Aquesta recta la utilitzarem per estimar un valor de x, donat un valor de y.
En general quant m¶es juntes es troben les dues rectes de regressi¶o, la relaci¶o lineal entre les
dues variables ¶es m¶es forta.
A continuaci¶o donem les rectes de regressi¶o d'alguns conjunts de dades donats anteriorment.
Les podeu representar sobre els grµa¯cs de punts que heu fet abans.
o de Y sobre X ¶es y = ¡0;32 + 0;89x
Per al cas de l'exemple 5.3, tenim que la recta de regressi¶
i la recta de X sobre Y x = 0;86 + 0;80y.
o de Y sobre X ¶es y = 3:85 ¡ 0;98x i
Per al cas de l'exemple 5.4, tenim que la recta de regressi¶
la recta de X sobre Y x = 2:85 ¡ 0;38y.
Anem a trobar les rectes de regressi¶o en un exemple.
Exemple 5.8 Triem a l'atzar 10 monedes de coure d'una bossa que cont¶e moltes monedes
antigues. Pesem cada una de les 10 monedes i anotem la seva antiguitat. Obtenim les dades
segÄ
uents, on (antiguitat,pes)=(X,Y):
Si representem les dades en un n¶ uvol de punts hi veiem una relaci¶o lineal forta i negativa, ¶es
a dir, quant m¶es antiga ¶es una moneda el seu pes ¶es menor. Anem, perµo, a estudiar-ho d'una
forma quantitativa. Obtenim els resultats segÄuents:
x = 27;2, y = 9;29, r = ¡0;89, sxy = ¡1;554, sx = 15;1248, sy = 0;1152.
1;554
La recta de regressi¶o de Y sobre X ¶es, doncs, y = 9;29 ¡ 15;1248 2 (x ¡ 27;2). Tamb¶
e tenim la
1;554
recta de regressi¶o de X sobre Y x = 27;2 ¡ 0;11522 (y ¡ 9;29).
Si volem conµeixer quin ¶es el pes esperat per una moneda que t¶e 20 anys d'antiguitat hem
d'utilitzar la recta Y sobre X i obtenim 9;34. Si el que volem conµeixer ¶es l'antiguitat d'una
moneda que pesa 9;3, llavors hem d'utilitzar la recta X sobre Y i obtenim 26 anys.
5.5 Correlaci¶
o i causalitat no s¶
on el mateix.
Moltes vegades s'intenten establir relacions de tipus casual entre dues variables. Conv¶e observar
que, quan es volen establir associacions, s'ha d'anar molt amb compte abans d'arribar a una
conclusi¶o de¯nitiva, que moltes vegades anirµa molt m¶es enllµa del treball estad¶³stic. Qualsevol
experiµencia que tendeixi a establir relacions causa-efecte entre variables ha de ser repetida en cir-
cumstµancies ben diferents; aix¶³ es pot constatar que, realment, a la vista de les dades recollides,
¶es plausible que determinats valors d'una de les variables estiguin efectivament associats amb
determinats valors de l'altra, perµo, al mateix temps, que no es tracta de falses aparences o que
no hi ha un factor extern que in°ueixi en les dues variables estudiades. Es ¶ clµassic, en aquest
sentit, l'exemple d'una poblaci¶o nµordica on, a causa de l'µepoca de les migracions de les aus i
del ritme de natalitat, hi ha una correlaci¶o molt elevada entre el nombre de naixements de cada
mes i el nombre de cigonyes que nien al campanar d'aquella poblaci¶ o. Podem deduir d'aixµo que
ls cigonyes porten els nens? Un exemple aix¶³, en quµe les dades donen un coe¯cient de correlaci¶ o
elevat perµo no existeix una conexi¶o entre les variables, s'anomena correlaci¶ o falsa.
6 Tests d'hipµ
otesi
6.1. Introducci¶o
6.2. Tests paramµetrics
6.3. Exemples de tests paramµetrics
6.3.1. Test pel valor mitjµa d'una distribuci¶o normal
6.3.2. Test pel contrast de valors mitjans de dues distribucions
6.3.3. Tests d'hipµotesi i intervals de con¯an»ca
6.4. Tests d'ajust d'una distribuci¶o
6.5. Problemes
6.1 Introducci¶
o.
Suposem, per exemple, que hem observat un valor de 3 errors en la transmissi¶ o d'un paquet de
10 bits. Si fos¡ cert
¢ que p = 0;01, quina ¶
e s la probabilitat d'haver obtingut aquest valor? Tenim
n 3 n¡3
P (X = 3) = 3 p (1 ¡ p) , que amb els valors p = 0;01 i n = 10 ¶es 0;0026. Aixµo vol dir que,
segons la hipµotesi p = 0;01, observarem aquest valor de X en menys de tres vegades per cada
mil proves. La conclusi¶o ¶es, doncs, que la hipµotesi original ¶es poc plausible i el test efectuat
proposaria refusar-la.
Els tests estad¶³stics d'hipµotesi s¶on versions m¶es elaborades de l'exemple anterior. Hi ha dues
classes de tests d'hipµotesi:
² tests en els quals la llei de probabilitat de la poblaci¶o ¶es coneguda i es formulen hipµotesi
sobre els valors dels parµametres de la distribuci¶o, anomenats tests paramµetrics.
² tests en els quals la llei poblacional no ¶es coneguda i es formula la hipµotesi que segueix
una certa distribuci¶o, anomenats tests d'ajust.
Abans d'introduir la terminologia prµopia dels tests d'hipµotesi vegem-ne un exemple que aclarirµa
algunes de les nocions.
Suposem que el soroll introduijt per un canal en la transmissi¶o d'un senyal segueix una llei normal
N(m; ¾). Com a l'exemple anterior, hi ha raons qualitatives que avalen aquesta suposici¶o. Per
simpli¯car l'exemple, suposem que el valor de ¾ ¶es conegut i val 1. Formulem la hipµotesi que
m = 0. De n = 10 observacions dels valors del soroll obtenim un valor mitjµa x¹10 = 1;01.pSabem
que aquest ¶es el valor observat de la variable X¹ 10 que segueix una llei normal N (m; 1= 10).
¹ 10 j ¸ 1;01) = 1 ¡ P (¡1;01 · X
P (jX ¹ · 1;01) =
p 10 p p
= 1 ¡ P (¡1;01 10 · 10X ¹ 10 · 1;01 10) ' 0;002:
A la vista d'aquest valor, l'enginyer ha de decidir si la desviaci¶o de x¹10 respecte del valor que
hauria de tenir pot ser deguda a l'atzar o ¶es tan improbable que resulta m¶es sensat descartar
la hipµotesi m = 0.
Per prendre aquesta decisi¶o, s'estableix un nivell de signi¯caci¶
o ® del test (habitualment ® =
0;05 o ® = 0;01) de manera que si la probabilitat del valor observat, en la hipµotesi que formulem,
¶es inferior a ® aleshores rebutgem la hipµotesi. Per exemple, en el cas anterior, amb un nivell
² L'error de tipus II ¶es P (acceptar H0 jH¹0 ), ¶es a dir, la probabilitat d'acceptar H0 si ¶es falsa.
Exemple 6.1 S'estµa provant un nou sistema de producci¶o de xips en el qual la durada X
de funcionament dels xips segueix una distribuci¶o normal N (¹; ¾). Suposem que en el sistema
actual la durada segueix una llei normal N (2000; 200). Com que canviar el sistema de producci¶o
suposa una inversi¶o considerable que nom¶es serµa rendible si realment el nou sistema augmenta
signi¯cativament la vida mitjana dels xips, ens interessa estar segurs que nom¶es rebutjarem la
hipµotesi
H0 : ¹ = 2000
si realment la seva probabilitat ¶es molt petita. Per tant, m¶es que dissenyar un test per a la
hipµotesi ¹ = 2300, per exemple, en dissenyar¶³em un, amb nivell de signi¯caci¶o petit ®, en el
qual la hipµotesi que es contrasta ¶es H0 : ¹ = 2000. 2
Tot i que es poden dissenyar tests d'hipµotesi per a la majoria de parµametres d'una poblaci¶o,
aqu¶³ en considerarem alguns exemples usuals que il¢lustren la tµecnica. En aquests exemples
obviarem l'anµalisi de l'error de tipus II, que sol ser m¶es complex.
Suposem que X segueix una distribuci¶o normal N(m; ¾) amb valor mitjµa desconegut i formulem
la hipµotesi:
H0 : m = m0 :
Exemple 6.2 El temps T d'execuci¶o d'un proc¶es segueix una llei normal N (m; ¾). El proveijdor
del sistema mant¶e que el temps mitjµa de proc¶es ¶es de 8 segons. D'una mostra de 25 execucions
del proc¶es se n'ha obtingut un valor mitjµa mostral de x¹25 = 8;7 segons. Suposem que ¾ = 1.
Es pot admetre que aquesta variaci¶o no ¶es signi¯cativa (¶es a dir, que cau dins els marges de
l'aleatorietat) i que la informaci¶o del proveijdor ¶es correcta?
En aquest cas, formulem la hipµotesi:
H0 : m = 8:
En aquesta hipµotesi, el valor mitjµa mostral segueix una llei normal N (8; 1=5). Per tant, a un
nivell de signi¯caci¶o ® = 0;01, la regi¶o d'acceptaci¶o de H0 ve donada per l'interval [8 ¡ d; 8 + d],
amb
¹ 25 ¡ 8j ¸ d) = 1 ¡ P (¡5d · 5(X
® = P (jX ¹ 25 ¡ m) · 5d);
que d'acord amb les taules de la distribuci¶o normal s'assoleix aproximadament per 5d = 2;58
o d = 2;58=5 ' 0;51. Com que la diferµencia observada ¶es de 0;7, que cau fora de la regi¶o
d'acceptaci¶o, la diferµencia ¶es signi¯cativa amb el nivell de signi¯caci¶o considerat i la hipµotesi
H0 s'hauria de rebutjar. 2
En general, en els problemes de test del valor mitjµa d'una poblaci¶o normal resulta poc realista
suposar que el valor de ¾ ¶es conegut. Aleshores se sol prendre com a ¾ la desviaci¶o t¶³pica
corregida S. Per a valors grans de n (a la prµactica se sol suposar su¯cient n ¸ 25), resulta m¶es
simple seguir suposant que el valor mitjµa mostral segueix una distribuci¶o normal N (m; S).
Un problema molt com¶ u de tests d'hipµotesi ¶es la del contrast de dos valors mitjans de dis-
tribucions normals independents. Un cas t¶³pic ¶es el segÄ uent. Suposem que es vol veri¯car
l'e¯cµacia d'un medicament per al tractament d'insomni. A una poblaci¶o A se li administra el
medicament i a una altra un preparat inofensiu. Denotem X el nombre addicional d'hores de
son dels individus de la poblaci¶o A i Y la variable corresponent a la poblaci¶o B. Per acceptar
l'e¯cµacia del tractament, el valor mitjµa de X hauria de ser signi¯cativament m¶es gran que el
de Y . Per tant, dissenyem un test en el qual la hipµotesi que s'analitza ¶es H0 : mX = mY , ¶es a
dir, nom¶es ens deixarem convµencer que el tractament ¶es e¯ca»c si la diferµencia entre mX i mY
¶es signi¯cativament poc probable en la hipµotesi H0 .
En general, si prenem una mostra de mida n1 per a la primera poblaci¶o i una de mida n2 per a
¹ ¹
q poblacions s¶on independents, la diferµencia Z = X ¡ Y segueix
la segona, i suposem que les dues
¾2 ¾2
una llei normal N(mX ¡ mY ; nX1 + nY2 ). En la hipµotesi H0 : mX = mY , l'interval que de¯neix
la regi¶o de rebuig I1 a un nivell de signi¯caci¶o ® ve donat per la desigualtat P (jZj ¸ d) · ®.
El valor de d, com en el cas anterior, es localitza amb les taules de la distribuci¶
o normal.
Exemple 6.3 A l'exemple anterior, suposem que prenem una mostra de mida 10 de cadascuna
de les poblacions. El valor que observem ¶es, doncs, Z = X ¹ 10 ¡ Y¹10 . Suposem que els valors
2
observats s¶on x¹10 = 2;33 i y¹10 = 0;75. Suposem que les desviacions poblacionals s¶on ¾X =
2
36;1=10 i ¾Y = 28;9=10. Com que se suposa que les poblacions
q s¶on independents, la variable Z
¾ 2 +¾ 2
segueix, en la hipµotesi H0 : mX = mY , una llei normal N(0; X
10
Y
). A un nivell de signi¯caci¶o
® = 0;05, l'interval de rebuig de la hipµotesi H0 es troba, doncs, de
paraules, l'evidµencia de les dades ¶es insu¯cient, amb el nivell de signi¯caci¶o ¯xat, per admetre
que el medicament ¶es e¯ca»c. 2
Els intervals de con¯an»ca proporcionen tamb¶e una eina per al disseny de tests d'hipµotesi
paramµetrics. La idea ¶es la segÄuent. Suposem que volem contrastar la hipµotesi H0 que el
valor d'un parµametre µ de la distribuci¶o poblacional pren un valor µ0 :
H0 : µ = µ0 :
Fem servir un estimador mostral µ^ de µ. Amb el valor d'aquest estimador per a una mostra
espec¶³¯ca, determinem un interval de con¯an»ca [a; b] amb nivell de con¯an»ca 1 ¡ ® per aµ, ¶es
a dir:
P (µ 2 [a; b]) ¸ 1 ¡ ®:
Si el valor µ0 cau fora de l'interval (cosa que succceix amb probabilitat ® si H0 ¶es certa)
aleshores rebutgem la hipµotesi H0 . En cas contrari, la hipµotesi no es rebutja. La diferµencia,
doncs, respecte dels casos anteriors ¶es que allµa es de¯neix una regi¶o d'acceptaci¶o per al valor
de l'estimador. En els intervals de con¯an»ca s'inverteix la relaci¶o: la regi¶o d'acceptaci¶o es crea
a partir de l'estimador i es contrasta si el valor de l'hipµotesi cau o no dins l'interval.
Una mena de tests d'hipµotesi importants s¶on aquells en els que el quals es pret¶en contrastar no
¶es el valor d'un parµametre d'una distribuci¶o coneguda sin¶o la prµopia distribuci¶o de probabilitat.
Per aixµo es contrasten les freqÄ
uµencies relatives observades en una mostra amb els valors teµorics
de la distribuci¶o de probabilitat que es contrasta.
El test m¶es simple d'ajust d'una distribuci¶o ¶es l'anomenat test Â2 de Pearson.
Suposem primer que es vol ajustar la distribuci¶o d'una variable aleatµoria discreta X a una certa
distribuci¶o de probabilitats teµorica. La variable aleatµoria pren valors que denotem, x1 ; : : : ; xk , i,
segons la distribuci¶o que es vol contrastar, els valors es prendrien amb probabilitats p1 ; : : : ; pk .
Prenem una mostra de mida n de la poblaci¶o i denotem f1 ; : : : ; fk els valors de les freqÄ
uµencies
absolutes amb quµe apareix cadascun dels valors x1 ; : : : ; xk . El test es basa en el fet que la
variable aleatµoria
X k
2 (fi ¡ npi )2
X = ;
i=1
np i
segueix, aproximadament, una distribuci¶o Â2 amb k ¡ 1 graus de llibertat. Si l'ajust ¶es bo, el
valor de l'estimador en una mostra tendirµa a ser petit (idealment 0). Aleshores, es pot obtenir
a les taules de la distribuci¶o Â2 un valor a tal que la probabilitat
P (X 2 ¸ a) · ®;
on ® ¶es el nivell de signi¯caci¶o del test. Si el valor de l'estimador cau fora de l'interval [0; a];
aleshores el test decideix que l'ajust no ¶es correcte.
Exemple 6.5 Durant la Segona Guerra Mundial es va dividir el mapa de Londres en una
quadr¶³cula i es va comptar el nombre d'impactes a cada quadre durant un bombardeig. Els
resultats van ser
Impactes xi 0 1 2 3 4 5
uµencia fi
FreqÄ 229 211 93 35 7 1
La hipµotesi que es volia contrastar ¶es que el nombre d'impactes segueix una distribuci¶o de
Poisson, que correspon a la idea que el bombardeig era indiscriminat i no anava dirigit a
objectius militars.
En cas que la hipµotesi fos certa, el valor mitjµa de la variable que compta el nombre d'impactes
en un quadre ¶es P
xi fi
¸ = Pi = 0;929:
i fi
Amb aquest valor de ¸, les probabilitats teµoriques corresponents a la distribuci¶o de Poisson
serien
(0;929)i ¡0;929
pi = e
i!
d'on s'obtenen els valors per a npi
Impactes xi 0 1 2 3 4 5
Valors esperats npi 227.5 211 98 30 7 1,5
A l'exemple anterior, el valor de ¸ ha estat estimat tamb¶e a partir de la mostra. Aixµo disminueix
el nombre de graus de llibertat en la distribuci¶o de X 2 . En realitat, si en el cµalcul de X 2 s'estimen
r parµametres de la distribuci¶o (a l'exemple, r = 1) aleshores X 2 segueix, aproximadament, una
distribuci¶o Â2 amb k ¡ 1 ¡ r graus de llibertat. A l'exemple anterior, doncs, caldria contrastar
la distribuci¶o de X 2 amb la Â2 de 4 graus de llibertat, que segueix donant P (X 2 ¸ 9;4) · 0;05
i per tant raons per no desestimar la hipµotesi.
El test Â2 es fa servir tamb¶e per ajustar distribucions cont¶³nues, encara que en aquest cas es fa
un proc¶es de discretitzaci¶o.
Sigui X una variable aleatµoria cont¶³nua amb funci¶o de distribuci¶o FX (x). Dividim la recta real
en k intervals disjunts (a0 ; a1 ); [a1 ; a2 ); : : : ; [ak¡1 ; ak ) (on, habitualment, a0 = ¡1 i ak = 1).
De¯nim aleshores:
pi = P (X 2 [ai¡1 ; ai )) = FX (ai ) ¡ FX (ai¡1 ):
Paral¢lelament, donada una mostra, considerem les freqÄ uµencies absolutes fi del nombre de valors
de la mostra que estan a l'interval [ai¡1 ; ai ). Aleshores, l'estad¶³stic:
k
X (fi ¡ npi )2
X2 =
i=1
npi
Exemple 6.6 Se sol acceptar que la variable aleatµoria T que d¶ona el temps de funcionament
sense avaries d'un dispositiu segueix una distribuci¶o exponencial. Volem fer un test per veri¯car
que efectivament T segueix una llei exponencial de valor mitjµa 200 hores per a un dispositiu
determinat (el valor mitjµa es pot haver obtingut per estimaci¶o). Observem una mostra de 150
dispositius i obtenim els resultats segÄ
uents:
Les probabilitats corresponents en la hipµotesi que la distribuci¶o ¶es efectivament Exp(0;005) s¶on
D'aqu¶³ que l'estad¶³stic del test Â2 de Pearson ¶es x2 = 11:56. A les taules de la Â2 amb 3 graus
de llibertat trobem que P (X 2 > d) = 0;05, correspon a d = 7:8, de manera que si el nivell de
signi¯caci¶o del test ¶es ® = 0;05, rebutjarem la hipµotesi que T segueix aquesta llei exponencial.
2
6.5 Problemes
Proveu la hipµotesi que T segueix una llei exponencial amb un nivell de signi¯caci¶o ® = 0;1.
5. En un examen, les puntuacions dels estudiants van seguir la distribuci¶o segÄ
uent:
Proveu la hipµotesi que la distribuci¶o segueix una llei normal, amb un nivell de signi¯caci¶o
® = 0;05.
Apµ
endix
En aquest apµendix hi trobareu les taules de les distribucions normal, t de Student i Â2 .
P(X < x)
g.ll. 0.99 0.95 0.9 0.8 0.5 0.2 0.1 0.05 0.01