You are on page 1of 116

En aquest llibre s’ofereix una introducció a la 88 AULA POLITÈCNICA

probabilitat i a l’estadística adaptada a l’alumnat de


primer curs d’una enginyeria tècnica, especialment / MATEMÀTICA I ESTADÍSTICA
les enginyeries relacionades amb les tecnologies de
la informació. L’objectiu principal del llibre és que
l’alumne assoleixi un coneixement bàsic i alhora su-
ficient de les eines probabilistes i estadístiques que
pugui necessitar en la seva futura carrera profes-
sional com a enginyer. El llibre es divideix en dues
parts ben delimitades. La primera està dedicada
al càlcul de probabilitats, en què s’introdueixen
les eines necessàries per a l’estudi dels fenòmens

Josep Burillo - Alícia Miralles

Burillo - Miralles - Serra


probabilístics. En particular, s’introdueixen les va-
riables aleatòries, tant discretes com contínues, i
es dóna molta importància a l’estudi de la normal
com a variable aleatòria fonamental. En la part
d’estadística, s’exposen les eines bàsiques dels
estudis estadístics: els estimadors i els intervals
Oriol Serra
de confiança, els tests d’hipòtesi i la regressió li-
neal. Cada capítol es complementa amb una llista
extensa de problemes proposats.

Josep Burillo és Doctor en Matemàtiques i profes-


sor titular de Matemàtica Aplicada al Departament
de Matemàtica Aplicada IV de la UPC. Actualment
imparteix docència a l’Escola Politècnica Superior
Probabilitat i estadística
de Castelldefels (EPSC).
Alícia Miralles de la Asunción és Doctora en Físiques
i professora al Departament de Matemàtica Aplica-
da IV de la UPC. Imparteix docència a l’EPSC.
Oriol Serra és Doctor en Matemàtiques i catedrà-
tic de Matemàtica Aplicada al Departament de
Matemàtica Aplicada IV de la UPC. Imparteix do-
cència a l’EPSC i a la Facultat de Matemàtiques

Probabilitat i estadística
i Estadística.

9 788483 017968

EDICIONS UPC
AULA POLITÈCNICA 88

Probabilitat i estadística
AULA POLITÈCNICA
/ MATEMÀTICA I ESTADÍSTICA

Josep Burillo - Alícia Miralles


Oriol Serra

Probabilitat i estadística

EDICIONS UPC
Primera edició: febrer de 2003
Segona edició: febrer de 2005

Aquesta publicació s’acull a la política de normalització lingüística


i ha comptat amb la col·laboració del Departament de Cultura i
de la Direcció General d’Universitats, de la Generalitat de Catalunya.

Disseny de la coberta: Jordi Calvet

© Els autors, 2003

© Edicions UPC, 2003


Edicions de la Universitat Politècnica de Catalunya, SL
Jordi Girona Salgado 31, 08034 Barcelona
Tel. 93 401 68 83 Fax 93 401 58 85
Edicions Virtuals: www.edicionsupc.es
e-mail: edicions-upc@upc.es

Producció: Cargraphics
Pedrosa B 29-31, 08908 L’Hospitalet de Llobregat

Dipòsit legal: B-40330-2005


ISBN: 84-8301-796-2
Són rigorosament prohibides, sense l’autorització escrita dels titulars del copyright, sota les sancions
establertes a la llei, la reproducció total o parcial d’aquesta obra per qualsevol procediment, inclosos la
reprografia i el tractament informàtic, i la distribució d’exemplars mitjançant lloguer o préstec públics.
En aquest llibre s’ofereix una introducció a la probabilitat i
a l’estadística adaptada a l’alumnat de primer curs d’una
enginyeria tècnica, especialment les enginyeries relacionades
amb les tecnologies de la informació. L’objectiu principal
del llibre és que l’alumne assoleixi un coneixement bàsic i
alhora suficient de les eines probabilistes i estadístiques que
pugui necessitar en la seva futura carrera professional com
a enginyer. El llibre es divideix en dues parts ben delimitades.
La primera està dedicada al càlcul de probabilitats, en què
s’introdueixen les eines necessàries per a l’estudi dels
fenòmens probabilístics. En particular, s’introdueixen les
variables aleatòries, tant discretes com contínues, i es dóna
molta importància a l’estudi de la normal com a variable
aleatòria fonamental. En la part d’estadística, s’exposen les
eines bàsiques dels estudis estadístics: els estimadors i els
intervals de confiança, els tests d’hipòtesi i la regressió lineal.
Cada capítol es complementa amb una llista extensa de
problemes proposats.
¶INDEX 7

¶Index

¶Index 7

Prefaci 11

0 Introducci¶
o a la probabilitat 13
0.1 Determinisme i aleatorietat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
0.1.1 Models deterministes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
0.1.2 Models probabil¶³stics: regularitat estad¶³stica . . . . . . . . . . . . . . . . 14
0.2 Diferents de¯nicions de probabilitat . . . . . . . . . . . . . . . . . . . . . . . . 16
0.3 Alguns exemples de models probabilistes en enginyeria . . . . . . . . . . . . . . 17
0.4 Mostreig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
0.4.1 Mostres ordenades sense reempla»cament: Pn;k on k · n . . . . . . . . . 21
0.4.2 Mostres ordenades amb reempla»cament: P Rn;k on ara k pot ser m¶es
gran que n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
¡ ¢
0.4.3 Mostres no ordenades sense reempla»cament: Cn;k = nk . . . . . . . . . 22
0.4.4 Mostres no ordenades amb reempla»cament: CRn;k . . . . . . . . . . . . 23
0.5 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
0.5.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
0.5.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

1 Probabilitat 29

© Els autors, 2003; © Edicions UPC, 2003


8 ¶
INDEX

1.1 Espai mostral i successos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


1.2 Espais de probabilitat ¯nits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.3 Espais de probabilitat ¯nits equiprobables . . . . . . . . . . . . . . . . . . . . . 34
1.4 Espais de probabilitat no ¯nits . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5 Probabilitat condicionada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.6 Successos independents. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.7 Teorema de la probabilitat total . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.8 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.9 Diagrames d'arbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.10 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.10.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.10.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2 Variables aleatµ
ories 47
2.1 Variables aleatµories . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Variables discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3 Exemples importants de distribucions discretes . . . . . . . . . . . . . . . . . . 50
2.4 Variables cont¶³nues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.5 Exemples importants de distribucions cont¶³nues . . . . . . . . . . . . . . . . . . 54
2.6 Parµametres estad¶³stics: valor mitjµa i variµancia . . . . . . . . . . . . . . . . . . . 57
2.7 Funcions de variables aleatµories . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.8 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.8.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.8.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3 Vectors aleatoris 69
3.1 Vectors aleatoris. Funci¶o de distribuci¶o de probabilitat. . . . . . . . . . . . . . 69
3.2 Distribucions bidimensionals discretes . . . . . . . . . . . . . . . . . . . . . . . 72

© Els autors, 2003; © Edicions UPC, 2003


¶INDEX 9

3.3 Distribucions bidimensionals cont¶³nues . . . . . . . . . . . . . . . . . . . . . . . 73


3.4 Variables aleatµories independents . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5 Distribucions condicionades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6 Distribuci¶o de la suma de dues variables aleatµories . . . . . . . . . . . . . . . . 81
3.7 Parµametres estad¶³stics: covariµancia i correlaci¶o . . . . . . . . . . . . . . . . . . 82
3.7.1 Distribuci¶o normal multidimensional . . . . . . . . . . . . . . . . . . . . 84
3.8 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.8.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.8.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

4 Mostres i estimaci¶
o 89
4.1 Mostres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.2 Valors poblacionals i valors mostrals . . . . . . . . . . . . . . . . . . . . . . . . 90
4.3 La mitjana i la variµancia mostrals . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4 Estimadors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5 Intervals de con¯an»ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.6 Estimadors de la mitjana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.7 La t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.8 Estimadors de la variµancia. La distribuci¶o Â2 . . . . . . . . . . . . . . . . . . . 99
4.9 Exercicis i problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.9.1 Exercicis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.9.2 Problemes per fer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

5 Regressi¶
o lineal simple. 103
5.1 Regressi¶o lineal simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Signi¯caci¶o de r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3 Interval de con¯an»ca per ½. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4 Recta de regressi¶o. Mµetode dels m¶³nims quadrats . . . . . . . . . . . . . . . . . 106

© Els autors, 2003; © Edicions UPC, 2003


10 ¶
INDEX

5.5 Correlaci¶o i causalitat no s¶on el mateix. . . . . . . . . . . . . . . . . . . . . . . 108

6 Tests d'hipµ
otesi 109
6.1 Introducci¶o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2 Tests paramµetrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3 Exemples de tests paramµetrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.1 Test per al valor mitjµa d'una distribuci¶o normal . . . . . . . . . . . . . . 112
6.3.2 Test per a la diferµencia de valors mitjans . . . . . . . . . . . . . . . . . . 113
6.3.3 Tests d'hipµotesi i intervals de con¯an»ca . . . . . . . . . . . . . . . . . . . 114
6.4 Tests d'ajust d'una distribuci¶o . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.5 Problemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Apµ
endix 119

© Els autors, 2003; © Edicions UPC, 2003


PREFACI 11

Prefaci
La teoria de probabilitats i l'estad¶³stica formen un bagatge imprescindible en la formaci¶o
d'enginyers de totes les branques, que es troben sovint exposats a problemes que requereixen
tµecniques probabilistes o b¶e en la necessitat de fer anµalisis estad¶³stiques.
Aquest text ha estat elaborat pensant especialment en estudiants d'Enginyeries tµecniques de les
µarees de Telecomunicacions, Informµatica i Aeronµautica. El nostre objectiu ha estat el d'oferir
una introducci¶o clara i concisa als conceptes bµasics de la teoria de la probabilitat i l'estad¶³stica
a un nivell matemµatic assequible i en el context propi d'aquestes enginyeries, on els exemples
d'aplicaci¶o d'aquestes tµecniques s¶on molt abundants.
En particular s'ha procurat proveir l'alumne d'una extensa col¢lecci¶o de problemes i exercicis
que donin a l'estudiant material de treball su¯cient per assimilar els continguts del text.
Con¯em plenament que el text sigui un element valu¶os en el proc¶es de formaci¶o d'aquests
estudiants i que ompli el buit existent en la literatura, on textos de caracter¶³stiques similars
s¶on escassos i sovint d'un nivell poc apropiat.
Castelldefels, Novembre 2002
Els Autors

© Els autors, 2003; © Edicions UPC, 2003


13

0 Introducci¶
o a la probabilitat

0.1. Determinisme i aleatorietat


0.1.1. Models deterministes
0.1.2. Models probabilistes: regularitat estad¶³stica
0.2. Diferents de¯nicions de probabilitat
0.3. Alguns exemples de models probabilistes en enginyeria
0.4. Mostreig
0.4.1. Mostres ordenades sense reempla»cament: Pn;k , on k · n
0.4.2. Mostres ordenades amb reempla»cament: P Rn;k , on ara
¡ ¢ k pot ser m¶es gran que n
0.4.3. Mostres no ordenades sense reempla»cament: Cn;k = nk
0.4.4. Mostres no ordenades amb reempla»cament: CRn;k
0.5. Exercicis i problemes
0.5.1. Exercicis
0.5.2. Problemes per fer

En aquest tema s'introdueixen els models probabilistes, se'n donen exemples re-
llevants en l'enginyeria, es fa la primera introducci¶
o a la noci¶
o de probabilitat i es
descriuen els primers exemples de mostreig.

0.1 Determinisme i aleatorietat

Davant de determinades situacions f¶³siques intentem explicar i raonar el perquµe d'alguns com-
portaments i alhora ens interessa poder treure conclusions que ens prediguin determinades
situacions. Aixµo ho fem mitjan»cant un model. Un model no ¶es m¶es que una representaci¶o

© Els autors, 2003; © Edicions UPC, 2003


14 0 ¶ A LA PROBABILITAT
INTRODUCCIO

aproximada de la situaci¶o f¶³sica que utilitza unes regles que siguin comprensibles per a nosal-
tres i que alhora permeti preveure fets rellevants d'un experiment sense necessitat de fer-lo.
Evidentment un model ¶es m¶es bo com m¶es s'apropa a la realitat, de manera que sempre que es
realitza una experiµencia, el resultat ha de ser coherent amb el que prediu el model.
Nosaltres ens centrarem en models matemµatics, ¶es a dir, models que s¶on aplicables a fenµomens
que tenen propietats que es poden mesurar.
Cal diferenciar entre models deterministes i models probabilistes.
0.1.1 Models deterministes

En un model determinista, les condicions en les quals es du a terme l'experiµencia determinen


completament el resultat de l'experiment. La teoria de circuits ¶es un bon exemple de model
determinista. Per exemple, la llei d'Ohm I = VR ens determina de forma exacta la intensitat
del corrent d'un circuit per a un voltatge i una resistµencia donats. Si canviem la resistµencia i
canviem el voltatge, abans de fer l'experiµencia sabrem el resultat que obtindrem per la intensitat
del corrent. Tenim unes equacions matemµatiques que ens prediuen el resultat depenent de les
condicions en quµe realitzem l'experiµencia, i en les mateixes condicions obtenim els mateixos
resultats. (Cal dir que se solen donar algunes °uctuacions en els resultats de l'experiment, ja
que no es poden controlar completament tots els factors que hi intervenen; pensem en el soroll
elµectric, per exemple. De tota manera, si la diferµencia entre el resultat real i el previst no passa
d'algunes °uctuacions respecte al que ens interessa, parlem d'un bon model determin¶³stic.)

0.1.2 Models probabil¶³stics: regularitat estad¶³stica

Hi ha experiments que s¶on aleatoris, ¶es a dir, que ¯ns i tot repetint l'experiment en les mateixes
condicions no podem preveure el resultat. Pensem, per exemple, en una urna que cont¶e tres
boles numerades amb 0;1 i 2. Barregem les boles i en traiem una a l'atzar. Tenim tres pos-
sibles resultats, que anotem en un conjunt E = f0; 1; 2g. Aquest conjunt l'anomenem espai
mostral. En aquest experiment no podem preveure el resultat que obtindrem, perµo presenta
una regularitat estad¶³stica. Vegem quµe vol dir aixµo:
Suposem que repetim l'experiment n vegades en les mateixes condicions. Anomenem N0 (n),
N1 (n) i N2 (n) el nombre de vegades que surten les boles 0, 1 i 2, respectivament, en n repeti-
cions de l'experiµencia. Aquests valors s'anomenen freqÄ uµencies absolutes. De¯nim ara el que
anomenem freqÄ uµencies relatives. La frequµencia relativa del resultat k (a l'exemple, k ¶es 0;1 o 2)
¶es la fracci¶o del nombre de vegades que apareix aquest resultat en n repeticions de l'experiµencia:
Nk (n)
fk (n) = :
n
Emp¶³ricament s'observa que el valor fk (n) s'apropa a un valor determinat a mesura que anem

© Els autors, 2003; © Edicions UPC, 2003


0.1 Determinisme i aleatorietat 15

¶ a dir:
augmentant n. Aixµo ¶es el que s'anomena regularitat estad¶³stica. Es
lim fk (n) = pk
n!1

La constant pk ¶es el que s'anomena probabilitat del resultat k. En el nostre exemple, si realitzem
l'experiment un nombre \gran" de vegades, podem comprovar que pk = 13 , per a qualsevol valor
de k = 0; 1; 2.
Resumint el desenvolupament anterior, els models probabilistes es caracteritzen per dos ele-
ments bµasics:

² En el model probabilista, el resultat d'una experiµencia no estµa completament determinat


per les condicions en quµe es desenvolupa. En canvi, hi ha un conjunt ben de¯nit de
possibles resultats, que hem anomenat espai mostral.
² Es produeix el fenomen de la regularitat estad¶³stica, o estabilitzaci¶o de les frequµencies
relatives amb quµe cadascun dels resultats possibles apareix en la repetici¶
o de l'experiµencia
un nombre prou gran de vegades. Aquesta regularitat ¶es observable emp¶³ricament, o b¶e
s'inclou com a hipµotesi raonable en l'anµalisi de l'experiµencia.

Vegem algunes propietats de la freqÄ uµencia relativa. Suposem que tenim ara un espai mostral
E = f1; 2; 3; ¢ ¢ ¢ ; mg i repetim l'experiment n vegades. Tenim que:
0 · Nk (n) · n on k = 1; ¢ ¢ ¢ ; m
i si dividim la inequaci¶o anterior per n, tenim per a les freqÄ
uµencies relatives

1.
0 · fk (n) · 1 on k = 1; ¢ ¢ ¢ ; m
i a m¶es tenim m
X
Nk (n) = n:
k=1
Dividint als dos costats per n, obtenim:
2. m
X
fk (n) = 1
k=1

De vegades estem interessats a obtenir molts resultats alhora. Per exemple, en el nos-
tre experiment, que surtin els valors 0 o 2. Aquests conjunts de resultats possibles els
anomenem successos. La freqÄ uµencia relativa associada a aquest succ¶es A = f0; 2g ¶es:
NA (n) N0 (n) + N2 (n)
fA (n) = = = f0 (n) + f2 (n)
n n

© Els autors, 2003; © Edicions UPC, 2003


16 0 ¶ A LA PROBABILITAT
INTRODUCCIO

Aixµo ens diu que la freqÄ


uµencia relativa associada a un succ¶es ¶es la suma de les freqÄ
uµencies
relatives dels posssibles resultats. En general, podem dir que si C ¶es el succ¶es que es
veri¯ca quan es veri¯quen els successos A o B, on A i B s¶on dos successos que no es
poden donar simultµaniament, tenim:
3.
NC (n) = NA (n) + NB (n) o b¶e fC (n) = fA (n) + fB (n)

0.2 Diferents de¯nicions de probabilitat

Amb el que hem vist anteriorment queda clar que podr¶³em de¯nir la probabilitat que surti el
succ¶es k com:
pk = lim fk (n)
n!1
perµo no queda clar el sentit d'aquest l¶³mit, ja que no podem repetir un experiment un nombre
in¯nit de vegades i tampoc no queda clar quin ha de ser el valor de n per poder-lo considerar
su¯cientment \gran". A m¶es, el que es pret¶en ¶es construir una teoria que es pugui aplicar a
situacions on no calgui fer l'experiment. Alhora, perµ o, ¶es raonable i intuijtiu relacionar probabi-
uµencia relativa. Per exemple, en l'experiµencia de les boles, podr¶³em assignar p0 = 13 a
litat i freqÄ
priori, ja que ¶es for»ca intuijtiu per la naturalesa de l'experiµencia que aquest ¶es un valor raonable.
Per aixµo, a l'hora de de¯nir una teoria de la probabilitat volem que es veri¯quin les relacions 1
i 3 de l'apartat anterior. De¯nim, doncs, la teoria de la probabilitat com un conjunt d'axiomes
que veri¯quin les propietats anteriors.
Suposem que tenim un experiment aleatori ben de¯nit amb un conjunt E de possibles resultats.
De moment suposem que E ¶es un conjunt ¯nit. Cadascun dels subconjunts de E ¶es un succ¶es.
Una probabilitat ¶es una aplicaci¶o que assigna a cada subconjunt A de E un n¶
umero P (A), de
manera que es veri¯qui:

1. 0 · P (A) · 1.
2. P (E) = 1.
3. Si A i B s¶on dos successos que no poden passar simultµaniament, aleshores
P (A [ B) = P (A) + P (B).

La fonamentaci¶o de la teoria de la probabilitat en aquests axiomes, a semblan»ca de les propietats


de les frequµencies relatives, no es va materialitzar ¯ns ben entrat el segle XX. Abans hi va haver
altres intents de de¯nir el concepte de probabilitat que van ser discutits per matemµ atics i
¯lµosofs. Els dos m¶es representatius s¶on:

© Els autors, 2003; © Edicions UPC, 2003


0.3 Alguns exemples de models probabilistes en enginyeria 17

1. De¯nici¶o clµassica de la teoria de probabilitat, a priori.


Suposem que un esdeveniment A es pot produir de s maneres diferentes dins un total
de n possibilitats; llavors es de¯neix pA = ns . Per exemple, pensem en l'experiµencia de
llan»car un dau i ens ¯xem en el nombre que surt. En aquest cas, l'espai mostral ¶es
E = f1; 2; 3; 4; 5; 6g. Ens demanem quina ¶es la probabilitat que surti un nombre parell,
¶es a dir, la probabilitat que es veri¯qui el succ¶es A = f2; 4; 6g. Diem que pA = 36 .
¶ clar que en aquesta de¯nici¶o hi ha impl¶³cita la hipµotesi que tots els resultats tenen la
Es
mateixa probabilitat (cosa que deixa el terme conceptualment inde¯nit). A m¶es, no ¶es
aplicable a situacions en quµe el conjunt de resultats possibles no ¶es ¯nit.

uentista de la teoria de probabilitat, a posteriori.


2. De¯nici¶o freqÄ
Despr¶es de repetir un experiment n vegades (on n ¶es gran), si l'esdeveniment A es repeteix
s vegades, es de¯neix la probabilitat de l'esdeveniment A com PA = ns .
¶ clar que, tal com hem dit abans, el fet que n sigui gran no queda ben determinat.
Es

Les controvµersies generades al voltant de la de¯nici¶o de la probabilitat no van impedir, perµo,


que se'n fes un u¶s exhaustiu abans que Kolmogorov propos¶es cap a 1930 la seva fonamentaci¶o
axiomµatica. Aquesta darrera ha estat acceptada com la fonamentaci¶o matemµatica adequada
per al concepte de probabilitat.
Abans d'aprofundir m¶es en les nocions de probabilitat i les tµecniques de cµalcul, vegem alguns
exemples que il¢lustren l'¶
us dels models probabilistes en alguns problemes estretament vinculats
a l'enginyeria.

0.3 Alguns exemples de models probabilistes en enginyeria

A m¶es dels models t¶³pics dels jocs d'atzar (que malgrat el seu carµacter l¶udic sovint serveixen
com a representaci¶o de problemes ben complexos), i ha una sµerie de problemes estretament
vinculats a l'enginyeria de les telecomunicacions i a la telemµatica, que exigeixen l'¶
us de models
probabilistes.
² Comunicaci¶o a trav¶es de canals amb soroll
Un dels problemes bµasics de l'enginyeria de comunicacions consisteix a reproduir el mis-
satge original a partir d'un missatge rebut a trav¶es d'un sistema de comunicaci¶o. En
l'esquema clµassic de Shannon, un sistema de comunicaci¶o s'esquematitza de la forma
segÄuent:

© Els autors, 2003; © Edicions UPC, 2003


18 0 ¶ A LA PROBABILITAT
INTRODUCCIO

Font - canal - Receptor

El canal no sol ser un transmissor perfecte i pot introduir alteracions en el missatge


generat a la font, com per exemple:

001001001 - canal - 000001010

L'elaboraci¶o de dispositius per recuperar el missatge original consumeix una bona part
de l'energia dels enginyers. El disseny d'un sistema e¯cient passa, perµo, per mesurar
de la capacitat del canal d'introduir soroll, i aquesta mesura no es pot fer en un model
determinista, atµes el carµacter justament aleatori del soroll. En la hipµotesi m¶es simple, se
suposa que, en una situaci¶o com la del diagrama anterior, cada bit t¶e una certa probabilitat
¯xa de ser canviat al seu oposat, independentment dels altres. Quina ¶es la probabilitat
que hi hagi, com a molt, dos errors en una transmissi¶o dels nou bits?

² Comunicacions en xarxes d'ordinadors


En una xarxa de comunicaci¶o d'ordinadors, o en un sistema multiprocessador, resulta
cost¶os i poc e¯cient establir totes les l¶³nies de comunicaci¶o entre parells de processadors, de
manera que totes les l¶³nies s¶on compartides. Un esquema com¶ u ¶es la xarxa de l'hipercub:

Quan dos ordinadors a la xarxa volen fer servir el mateix enlla»c simultµaniament, es pro-
dueix un con°icte. Les demandes de comunicaci¶ o no obeeixen, en general, a patrons
deterministes, de manera que l'anµalisi del comportament de la xarxa, la quantitat de con-
°ictes que es poden presentar i l'elaboraci¶o d'esquemes de comunicaci¶o que minimitzin els

© Els autors, 2003; © Edicions UPC, 2003


0.3 Alguns exemples de models probabilistes en enginyeria 19

con°ictes requereixen l'¶


us d'un model aleatori. Un model aleatori simple per al diagrama
anterior podria consistir a suposar que cada ordinador farµa servir un enlla»c adjacent al
seu node amb probabilitat ¯xa p, independent dels altres. Quina ¶es la probabilitat que
es produeixi un con°icte?
² Teoria de cues
En el funcionament d'un servidor, hi arriben usuaris que esperen en una cua que aquest
estigui lliure per ser servits.

¡µ
¡x
Cua Servidor
x- x x x x x

Tant el temps de servei com la intensitat amb quµe arriben nous usuaris al servidor no
s¶on susceptibles de ser encaixats en un model determinista. El disseny d'un protocol de
servei i l'anµalisi del comportament de la cua (procurant que no es faci in¯nitament llarga,
o que el temps d'espera sigui raonable) depenen fonamentalment de l'anµalisi del model
probabilista.
² Fiabilitat de sistemes
En sistemes complexos formats per un gran nombre de dispositius i elements de treball,
com solen ser els sistemes de comunicaci¶o, els serveis telemµatics, etc., un dels elements
bµasics del disseny ¶es l'anµalisi de la ¯abilitat, o la probabilitat que el sistema falli per
l'avaria d'alguns dels seus components. Les avaries no solen respondre tampoc a models
deterministes i l'¶
unica anµalisi e¯cient passa per considerar models probabilistes. Per
exemple, en el cas del diagrama segÄ uent, un model senzill pot ser suposar que cada
dispositiu falla amb una certa probabilitat p independent dels altres.

A r r B

© Els autors, 2003; © Edicions UPC, 2003


20 0 ¶ A LA PROBABILITAT
INTRODUCCIO

Si el sistema funciona mentre hi ha comunicaci¶o entre els punts A i B, quina ¶es la pro-
babilitat que el sistema falli?

Aquests s¶on nom¶es alguns de molts exemples, als quuals es podrien afegir l'anµalisi de senyals
aleatoris (senyals d'µaudio, de v¶³deo, etc.), el control de qualitat, la gesti¶o de trµa¯c en xarxes,
multiplexors en comunicacions telefµoniques, la simulaci¶o de sistemes i un llarg etcµetera, que
justi¯quen la potµencia i e¯cµacia dels models probabilistes en una gran varietat de problemes
d'enginyeria. En aquest curs s'introdueixen conceptes i eines que permeten abordar problemes
com els anteriors.

0.4 Mostreig

Un dels problemes m¶es simples consisteix a determinar la probabilitat d'extreure una determi-
nada mostra d'una poblaci¶o. En el model m¶es simple, tenim una urna amb un nombre n de
boles de colors diferents i ens demanem quina ¶es la probabilitat d'extreure'n una mostra de k
boles amb una determinada composici¶o de colors. Tot i ser simple, aquest problema involucra
problemes d'enumeraci¶o que cal analitzar.
El resultat del cµalcul depµen del criteri que es fa servir per extreure la mostra. Les distincions
m¶es comunes s¶on les segÄuents.
² Mostreig sense reempla»cament. Aixµo vol dir que n'extraiem una bola, i, sense tornar-la a
la urna, n'extraiem la segÄ
uent, i aix¶³ successivament.

² Mostreig amb reempla»cament. En aquest cas, n'extraiem la primera bola, anotem el seu
color i la tornem a l'urna abans d'extreure la segÄ
uent.

D'altra banda, podem considerar diferents dues mostres si l'ordre amb quµe s'extreuen les boles
¶es diferent, o simplement interessar-nos per quines boles han sortit sense tenir en compte l'ordre
amb quµe s'han extret, ¶es a dir:

² Mostres ordenades

² Mostres no ordenades

Com veurem, l'aplicaci¶o de diferents criteris d¶ona resultats diferents en el cµalcul de probabilitats.

© Els autors, 2003; © Edicions UPC, 2003


0.4 Mostreig 21

0.4.1 cament: Pn;k on k · n


Mostres ordenades sense reempla»

Per concretar pensem el cas de k = 3 i n = 4. Si denotem les quatre boles per f1; 2; 3; 4g, les
extraccions possibles s¶on:

123 132 124 142 134 143 213 231 214 241 234 243
312 321 324 342 314 341 413 431 412 421 423 432

Imaginem tres posicions que hem d'omplir amb tres elements de A; en el primer
lloc podem triar entre els n elements de A. En la segona posici¶o nom¶es podem triar entre
els n ¡ 1 elements que queden (ja que la mostra ¶es sense reempla»cament: no hi ha elements
repetits), i en el tercer lloc podem triar entre els n ¡ 2 elements que queden. Tenim, doncs,
que Pn;3 = n(n ¡ 1)(n ¡ 2). En general, per a una poblaci¶o de mida n i una mostra de mida k
en aquestes condicions, el nombre total de mostres ¶es

Pn;k = n(n ¡ 1)(n ¡ 2) ¢ ¢ ¢ (n ¡ k + 1):

En el cas particular que ens interessi obtenir mostres ordenades de tots els elements del conjunt,
el que obtenim ¶es
Pn;n = n:(n ¡ 1) ¢ ¢ ¢ 2:1 = n!:
Aquest nombre s'anomena permutacions de n elements, o b¶e n factorial. M¶es endavant veurem
la utilitat de de¯nir 0! = 1.
Exemple 0.1 Triem a l'atzar una delegaci¶o de tres estudiants en un grup de 40. El primer
estudiant triat en serµa el president; el segon, el secretari, i el tercer, el tresorer. Quantes
delegacions diferents poden sortir? Quina ¶es la probabilitat que un estudiant determinat en
sigui el president?
Aqu¶³ triem una mostra ordenada sense reeempla»cament de mida 3 en una poblaci¶o de 40
individus. El nombre total de delegacions possibles ¶es P40;3 = 40 ¢ 39 ¢ 38 = 59:280. Per calcular
probabilitats ¶es essencial saber quina ¶es la probabilitat de cadascuna d'aquestes delegacions.
La frase `a l'atzar', tot i que ¶es ambigua, sol indicar que cadascuna de les 59:280 mostres tenen
la mateixa probabilitat: 1=P40;3 . Aleshores el cµalcul ¶es senzill: la probabilitat que un estudiant
x en sigui el president ¶es la suma de les probabilitats de totes aquelles delegacions en les quals
apareix x com a president. D'aquestes n'hi ha P39;2 = 39 ¢ 38, de manera que la probabilitat ¶es
P39;2 =P40;3 = 1=40 = 0:025. 2

© Els autors, 2003; © Edicions UPC, 2003


22 0 ¶ A LA PROBABILITAT
INTRODUCCIO

0.4.2 cament: P Rn;k on ara k pot ser m¶


Mostres ordenades amb reempla» es gran
que n

Com en el cas anterior, imaginem k posicions que cal omplir amb les boles de l'urna. En aquest
cas, un cop triat l'element que omple el primer lloc, el podem tornar a triar per al segon lloc, i
aix¶³ successivament ¯ns a omplir k llocs. Per tant, a cada lloc hi ha n opcions i

P Rn;k = nk :

Aquest nombre ¶es el de permutacions amb repetici¶


o de n elements triats de k en k.
Exemple 0.2 En una travessa de 14 partits podem assignar a cada partit un dels resultats
1,X,2, ¶es a dir, n = 3 i hem de fer ordenacions de k = 14 elements. El nombre de travesses
diferentes que podem fer ¶es P R3;14 = 314 = 4:782:969. 2

¡n¢
0.4.3 Mostres no ordenades sense reempla»cament: Cn;k = k

Per cadascuna de les mostres ordenades sense reempla»cament hi ha k! permutacions que corres-
ponen a la mateixa mostra no ordenada. Per tant:
µ ¶
n P (n; k) n!
Cn;k = = = :
k k! (n ¡ k)!k!
¡ ¢
El nombre nk apareix amb molta freqÄ uµencia i s'anomena coe¯cient binomial per la cµelebre
fµormula del binomi:
µ ¶ µ ¶ µ ¶ µ ¶ n µ ¶
n n n n n¡1 n n¡1 n n X n i n¡1
(x + y) = x + x y + ¢¢¢ + xy + y = xy :
0 1 n¡1 n i=0
i

Entre les moltes propietats dels coe¯cients binomials, se satisfµa:


µ ¶ µ ¶
n n
² =
k n¡k
µ ¶ µ ¶
n n
² = =1
n 0
µ ¶ µ ¶ µ ¶
n n¡1 n¡1
² = +
k k¡1 k

© Els autors, 2003; © Edicions UPC, 2003


0.4 Mostreig 23

Les dues primeres propietats s¶on immediates i la tercera la podem demostrar amb un raonament
senzill. Per determinar el nombre de combinacions de k elements que podem fer amb un total
de n elements, ¯xem un element x del conjunt de n elements. Per un costat, tenim un element
¡ ¢
x i, per un altre, tenim n ¡ 1 elements. El nombre de combinacions que contenen x ¶es n¡1 i
¡n¡1¢ k¡1
el nombre de combinacions de k elements que no contenen x ¶es k . Aix¶³, hem de sumar els
dos casos.
¡ ¢
El coe¯cient binomial nk ¶es tamb¶e el nombre de subconjunts de mida k d'un conjunt de mida
n. Per a k = 0, convenim que Cn;0 = 1 (cosa que justi¯ca el conveni 0! = 1).
Cada subconjunt X de mida k de A = f1; 2; : : : ; ng es pot identi¯car amb un vector
(x1 ; x2 ; : : : ; xn );
on xi = 1, si i 2 X, i xi = 0, altrament. Per exemple, si X = f1; 4; 5g ½ f1; 2; 3; 4; 5g,
identi¯quem X amb (1; 0; 0; 1; 1). El coe¯cient binomial compta, doncs, tamb¶e, el nombre de
vectors de n components amb k uns i n ¡k zeros. En particular, el nombre total de subconjunts
¶es el nombre total de vectors de 0 i 1 amb n components, o b¶e el nombre de permutacions amb
repetici¶o de dos elements, presos de n en n, P R2;n = 2n . Aquest resultat es pot obtenir tamb¶e
del binomi de Newton posant x = y = 1, ja que
Xn µ ¶
n
= (1 + 1)n = 2n :
i=0
i

Exemple 0.3 Tornant a un exemple anterior, triem a l'atzar una delegaci¶ o de tres estudiants
en un grup de 40. Quantes delegacions diferents poden sortir? Quina ¶es la probabilitat que un
estudiant determinat pertanyi a la delegaci¶o?
40!
En aquest cas tenim mostres no ordenades sense reempla»cament, i n'hi ha C40;3 = 3!37! =
40¢39¢38
3¢2
= 9:880. Entenent per `escollida a l'atzar' que totes les mostres tenen la mateixa
probabilitat, i havent-n'hi C39;2 = 741 que contenen un estudiant determinat, la probabilitat
que hi sigui ¶es C39;2 =C40;3 = 0;075. 2

0.4.4 cament: CRn;k


Mostres no ordenades amb reempla»

Acabem aquesta descripci¶o amb el menys fµacil d'aquests problemes d'enumeraci¶


o.
Primer de tot vegem-ne un exemple. Sigui A = fa; b; c; dg un conjunt amb n = 4 elements i
considerem el cµalcul de CR4;2 . Les mostres que es poden formar s¶on:
(a; a); (b; b); (c; c); (d; d); (a; b); (a; c); (a; d); (b; c); (b; d); (c; d)

© Els autors, 2003; © Edicions UPC, 2003


24 0 ¶ A LA PROBABILITAT
INTRODUCCIO

Tenim, doncs, 10 possibilitats: CR4;2 = 10. Per poder calcular CRn;k fem una correspondµencia
de cada mostra amb seqÄuµencies de dos s¶³mbols, i il¢lustrem al cas anterior de la manera segÄ
uent:
Fem correspondre la mostra (a; a) amb ²² j j j.
Les tres barres separen quatre espais, un per a cadascuna de les lletres. Hem posat 2 punts
inicialment per indicar les dues a. Vegem-ne altres casos, amb les seves correspondµencies:

(b; d) ¡! j ² j j ²
(c; d) ¡! j j ² j ²

¶ clar que aquesta correspondµencia ¶es una bijecci¶o entre el conjunt de mostres i el nombre de
Es
uµencies de n + k ¡ 1 s¶³mbols, dels quals n ¡ 1 s¶on barres que separen les n lletres i k s¶on
seqÄ
punts, que indiquen les lletres a la mostra. Aix¶³ doncs:
µ ¶
n+k¡1
CRn;k = :
k

Aquest ¶es el nombre de combinacions amb repetici¶


o de n elements presos de k en k.
Una altra manera d'arribar al mateix resultat ¶es a partir d'una recurrµencia.
¶ clar que CRn;1 = n i CR1;k = 1 per n; k ¸ 1. Considerem CRn;k i fem un raonament
Es
semblant al de la recurrµencia dels coe¯cients binomials. Fixem un element x d'entre tots els
elements n. El nombre de combinacions de k elements que contenen x ¶es CRn;k¡1 (posem n,
perquµe l'element x el podem tornar a agafar, i posem k ¡ 1, perquµe ja tenim un element dels
k que volem triar). El nombre de combinacions de k elements que no contenen x ¶es CRn¡1;k .
Per tant, tenim la relaci¶o:
CRn;k = CRn;k¡1 + CRn¡1;k ;
vµalida per a n; k ¸ 1 si convenim que CRn;0 = 1 i CR0;k = 0.¢ Observem que aquesta mateixa
¡n+k¡1
recurrµencia la satisfan tamb¶e els nombres f (n; k) = k
. Com que pels valors inicials
CRn;1 = f (n; 1) per a tot n ¸ 1 i CR1;k = f (1; k) per a tot k ¸ 1, aleshores Cn;k = f(n; k) per
a tots els parells n; k ¸ 1.
Exemple 0.4 Se sortegen tres ordinadors entre els 40 estudiants d'un grup, de manera que
cada sorteig es fa als 40 estudiants. Quantes distribucions diferents dels tres ordinadors hi ha?
¡ ¢
El nombre total de repartiments ¶es CR40;3 = 42 3
= 42¢41¢40
6
= 11:480. De fet, no ¶es raonable
suposar que tots aquests repartiments tinguin la mateixa probabilitat: la probabilitat que
tots tres ordinadors toquin a un determinat estudiant ¶es (1=40)3 , mentre que la probabilitat
que toqui un ordinador a cadascun de tres estudiants determinats ¶es 6(1=40)3 . M¶es endavant
discutirem aquesta qÄ uesti¶o. 2

© Els autors, 2003; © Edicions UPC, 2003


0.5 Exercicis i problemes 25

El quadre segÄ
uent resumeix l'exposici¶o anterior:

Mostres de k
elements d'una amb reempla»cament sense reempla»cament
poblaci¶o de n
n!
ordenades P Rn;k = nk Pn;k =
µ ¶ (nµ¡ ¶k)!
n+k¡1 n
no ordenades CRn;k = Cn;k =
k k

0.5 Exercicis i problemes

0.5.1 Exercicis

1. Quina ¶es la mida m¶³nima d'un alfabet per poder identi¯car els individus d'una poblaci¶o
de mida 106 amb paraules de tres lletres?
Quina ¶es la llargada m¶³nima de les paraules d'un alfabet de tres lletres per poder identi¯car
els individus d'una poblaci¶o de mida 106 ?

2. En treure tres cartes d'una baralla de 40 cartes, quina ¶es la probabilitat de treure almenys
una ¯gura?

3. Si tenim 11 amics, de quantes maneres en podem convidar 5 a dinar? Si dos s¶on parella i
van sempre junts, de quantes maneres en podem convidar 5? I si dos estan barallats i no
els podem convidar junts, de quantes maneres els podem convidar?

4. El Reial decret 2822/1998, de 23 de desembre de 1998, que regula la normativa de ma-


triculaci¶o dels vehicles, estableix:

\En las placas de matr¶³cula se inscribir¶an dos grupos de caracteres constituidos


por un n¶umero de cuatro cifras, que ir¶a desde el 0000 al 9999, y de tres letras,
empezando por las letras BBB y terminando por las letras ZZZ, suprimi¶endose
~ Q, CH y LL."
las cinco vocales, y las letras N,

(a) Quantes matr¶³cules es poden formar d'acord amb la normativa actual?

Si les matr¶³cules es formessin igualment amb 7 carµacters (les lletres de l'alfabet, segons
la normativa, i els d¶³gits del 0 al 9), quantes matr¶³cules podrien fer-se si:

© Els autors, 2003; © Edicions UPC, 2003


26 0 ¶ A LA PROBABILITAT
INTRODUCCIO

(b) Cada carµacter pot ser lletra o n¶


umero.
(c) Tres carµacters consecutius s¶on lletres (no necessµariament els tres primers) i la resta

umeros.
(d) Exactament tres carµacters s¶on lletres i els altres, n¶
umeros.
(e) Hi pot haver qualsevol combinaci¶o de n¶
umeros i lletres.

0.5.2 Problemes per fer

1. Un ascensor t¶e n usuaris a la planta baixa i puja m pisos. Quantes distribucions de


nombres d'usuaris que surten a cada planta hi ha? En quantes d'aquestes distribucions
no baixa ning¶u a la planta 1? En quantes d'aquestes distribucions surt, com a molt, un
usuari a cada planta?
2. De quantes maneres diferents es poden distribuir n boles en m caixes numerades si
(a) les boles s¶on distingibles.
(b) les boles no s¶on distingibles.
(c) cada caixa t¶e com a molt una bola (considereu els casos de boles distingibles i boles
no distingibles).
(d) si una de les caixes estµa buida.
3. (Problema dels aniversaris) Quina ¶es la probabilitat pn que en un grup de n persones n'hi
hagi almenys dues que tenen l'aniversari el mateix dia. Quin ¶es el valor m¶es petit de n
pel qual pn > 1=2.
(Se suposa que els aniversaris estan distribuijts uniformement al llarg dels dies de l'any i
que tots els anys tenen 365 dies.)
4. Quantes paraules de llargada n d'un alfabet de tres s¶³mbols f0; 1; ¡1g tenen exactament
r zeros? Quantes tenen exactament r zeros i s uns? Quantes n'hi ha que la suma de
d¶³gits ¶es 0?
5. Es treuen n nombres a l'atzar entre 1 i 9. Quina ¶es la probabilitat que el seu producte
acabi en 0?
6. Un senyor aparca cada nit en una zona prohibida. Li posen dotze multes, sempre en
dimarts o en dijous. Quina ¶es la probabilitat d'aquest succ¶es si suposem que tots els
dies de la setmana tenen el mateix risc de multa. Suposem ara que, de dotze multes, no
¶ prou evidµencia per suposar que els
n'hi ha cap en diumenge (perµo si els altres dies). Es
diumenges no passa mai la guµardia urbana?

© Els autors, 2003; © Edicions UPC, 2003


0.5 Exercicis i problemes 27

7. S'ensenya una mona a escriure a mµaquina i tecleja un text de 14 carµacters triant cadascuna
de les 27 tecles de lletres (inclµos l'espai) a l'atzar. Quina ¶es la probabilitat que escrigui
la frase `S¶oc inteligent' ?

© Els autors, 2003; © Edicions UPC, 2003


29

1 Probabilitat

1.1. Espai mostral i successos


1.2. Espais de probabilitat ¯nits
1.3. Espais de probabilitat ¯nits equiprobables
1.4. Espais de probabilitat no ¯nits
1.5. Probabilitat condicionada
1.6. Successos independents
1.7. Teorema de la probabilitat total
1.8. Teorema de Bayes
1.9. Diagrames d'arbre
1.10. Exercicis i problemes

En aquest tema s'introdueixen les nocions bµ asiques de la teoria matemµ atica de la


probabilitat: espais mostrals, successos, probabilitat. En particular, s'introdueix la
noci¶
o d'independµencia, que hi t¶e un paper essencial. A mesura que anem introduint
conceptes nous els anirem aplicant a exemples, de manera que l'explicaci¶ o es faci
m¶es comprensible.

1.1 Espai mostral i successos

1. S'anomena espai mostral el conjunt E de tots els resultats possibles en un experiment.


Cada un dels resultats s'anomena succ¶es elemental.

Exemple 1.1 Considerem l'experiµencia de llan»car un dau i observem el resultat obtingut.


En aquest cas, E = f1; 2; 3; 4; 5; 6g. 2

© Els autors, 2003; © Edicions UPC, 2003


30 1 PROBABILITAT

Exemple 1.2 Considerem l'experiµencia de llan»car una moneda tres cops seguits i ob-
uµencia de cares (°) i creus (+) que van sortint. En aquest cas, E =
servem la seqÄ
f° ° °; ° ° +; ° + °; + ° °; + + °; + ° +; ° + +; + + +g. 2

Exemple 1.3 Considerem l'experiµencia de llan»car dos daus i ens ¯xem en la suma de
punts obtinguts. En aquest cas, E = f2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12g. 2

2. Anomenem esdeveniment o succ¶es qualsevol subconjunt1 de E. El succ¶es E s'anomena


succ¶es segur i el succ¶es ? s'anomena succ¶es impossible.

Exemple 1.4 A l'exemple 1.1, un possible esdeveniment seria de¯nir

A = fnombres parellsg;

o b¶e de forma extensiva, A = f2; 4; 6g. Un altre exemple de succ¶es ¶es B = f1; 4; 5g. 2

Exemple 1.5 A l'exemple 1.2, un possible esdeveniment seria de¯nir

C = fque surtin dues caresg;

o b¶e de forma extensiva, A = f° ° +; ° + °; + ° °g.


Un altre succ¶es seria

D = fque surtin dues cares o m¶esg = f° ° +; ° + °; + ° °; ° ° °g:

Exemple 1.6 A l'exemple 1.3, podr¶³em de¯nir

F = fla suma sigui parellag = f2; 4; 6; 8; 10; 12g:

Un altre succ¶es seria G = f3; 5; 7; 9; 11g. 2

3. Siguin A i B dos esdeveniments


1
Quan E no ¶es un conjunt numerable conv¶e restringir la de¯nici¶
o d'esdeveniment a una fam¶³lia de subconjunts
tancada per unions i complementaci¶o. M¶es endavant comentarem aquesta qÄ uesti¶
o.

© Els autors, 2003; © Edicions UPC, 2003


1.1 Espai mostral i successos 31

² A [ B ¶es el succ¶es que es veri¯ca si passa un dels dos, o b¶e tots dos alhora.
En els tres exemples anteriors tenim:
A [ B = f1; 2; 4; 5; 6g
C [ D = f° ° +; ° + °; + ° °; ° ° °g
F [ G = E:
² A \ B ¶es el succ¶es que es veri¯ca si passen els dos successos alhora.
En els exemples anteriors:
A \ B = f4g
C \ D = f° ° +; ° + °; + ° °g
F \ G = ?:
4. S'anomena succ¶es complementari de A, o negaci¶o de A, i s'escriu Ac , el conjunt comple-
mentari de A, Ac = E ¡ A.
En els exemples anteriors:
Ac = f1; 3; 5g
C c = f° + +; + + °; + ° +; + + +; ° ° °g
F c = G:

5. Dos successos A i B s¶on incompatibles si A \ B = ?


En els exemples anteriors veiem que F i G s¶on incompatibles.

El quadre segÄ
uent resumeix la correspondµencia entre el llenguatge de conjunts i el de probabi-
litats.

Notaci¶o Conjunts Probabilitats


E Conjunt total Succ¶es segur
? Conjunt buit Succ¶es impossible
A[B Uni¶o Succ¶es A o succ¶es B
A\B Intersecci¶o Succ¶es A i succ¶es B
c
A =EnA Complement Negaci¶o de A
A \ B = ? Conjunts disjunts Successos incompatibles

La fam¶³lia de subconjunts d'un conjunt E, juntament amb les operacions de la uni¶o ([), la
intersecci¶o (\) i la complementaci¶o (n), formen una µalgebra de Boole. Una estructura similar
apareix en la lµogica de proposicions. Hi ha algunes propietats bµasiques que conv¶e tenir presents
i que resumim a continuaci¶o:

© Els autors, 2003; © Edicions UPC, 2003


32 1 PROBABILITAT

1. A [ E = E i A [ ? = A.
2. A \ E = A i A \ ? = ?.
3. (lleis associatives)
A [ (B [ C) = (A [ B) [ C
A \ (B \ C) = (A \ B) \ C:

4. (lleis distributives)
A [ (B \ C) = (A [ B) \ (A [ C)
A \ (B [ C) = (A \ B) [ (A \ C):

5. (lleis de Morgan)
(A [ B)c = Ac \ B c
(A \ B)c = Ac [ B c :

1.2 Espais de probabilitat ¯nits

Suposem que tenim un espai mostral ¯nit E. Una probabilitat sobre E ¶es una aplicaci¶o que
assigna a cada subconjunt A ½ E un nombre real i que satisfµa:

1. 0 · P (A) · 1.
2. P (E) = 1.
3. Si A \ B = ? aleshores P (A [ B) = P (A) + P (B).

El parell format per l'espai mostral i la probabilitat l'anomenem espai de probabilitat.


Dels axiomes anteriors es dedueixen les propietats segÄ
uents:

1. La probabilitat del succ¶es impossible ¶es 0:

P (?) = 0:

En efecte, per a qualsevol succ¶es A, tenim A = A [ ?. Com que A i ? s¶on incompatibles,


del tercer axioma de probabilitat es dedueix P (A) = P (A [ ?) = P (A) + P (?).

© Els autors, 2003; © Edicions UPC, 2003


1.2 Espais de probabilitat ¯nits 33

2. Per a dos successos A; B:

Si A ½ B aleshores P (A) · P (B):

En efecte, podem escriure B = A [ (B n A), que s¶on disjunts. De l'axioma 3, P (B) =


P (A) + P (B n A), i de l'axioma 1, P (B n A) ¸ 0.

3. Donat qualsevol succ¶es A:

P (Ac ) = 1 ¡ P (A):

Pels axiomes 2 i 3, 1 = P (E) = P (A [ Ac ) = P (A) + P (Ac ).

4. Si A i B s¶on dos successos qualssevol llavors:

P (A [ B) = P (A) + P (B) ¡ P (A \ B):

Per veure-ho tenim en compte que

A [ B = A [ (B \ Ac ) i B = (B \ A) [ (B \ Ac );

i llavors:

P (A [ B) = P (A) + P (B \ Ac ) i P (B) = P (B \ A) + P (B \ Ac ):

Restant la primera equaci¶o a la segona, ens queda:

P (A [ B) ¡ P (B) = P (A) ¡ P (A \ B):

La relaci¶o en aquesta propietat s'est¶en a unions de m¶es conjunts d'una manera una mica
complicada ,en l'anomenada f¶ ormula d'inclusi¶o-exclusi¶
o. Per a tres conjunts, t¶e l'aspecte
segÄ
uent:

P (A [ B [ C) = P (A) + P (B) + P (C) ¡ P (A \ B) ¡ P (A \ C) ¡ P (B \ C) + P (A \ B \ C):

El nom prov¶e del fet que els elements de les interseccions de dos dels conjunts han estat
tinguts en compte dues vegades a

P (A) + P (B) + P (C)

© Els autors, 2003; © Edicions UPC, 2003


34 1 PROBABILITAT
A' '$ B
$
f fd d
' $
d
f
a
f d
a a
& &% %
a
& C%

Figura 1: Il¢lustraci¶o de la f¶ormula d'inclusi¶o-exclusi¶o per a tres successos.

i se n'han \d'excloure" restant


P (A \ B) + P (A \ C) + P (B \ C):
Ara, els elements de A \ B \ C han estat inclosos tres vegades i exclosos tres vegades;
per tant, s'han d'afegir al darrer terme. El diagrama de Venn de la ¯gura 1 il¢lustra el
procediment.
5. Si A1 ; A2 ; ¢ ¢ ¢ An s¶on n successos incompatibles dos a dos, es veri¯ca:

n
X
P ([i2n Ai ) = P (Ai ):
i=1

Es pot demostrar per inducci¶o sobre n. Quan n = 2, ¶es l'axioma 3. Si n > 2, aleshores
P (A1 [ : : : An¡1 [ An ) = P ((A1 [ : : : An¡1 ) [ An ) = P (A1 [ : : : An¡1 ) + P (An ) i el primer
terme, per hipµotesi d'inducci¶o, ¶es P (A1 [ : : : An¡1 ) = P (A1 ) + ¢ ¢ ¢ + P (An¡1 ).

1.3 Espais de probabilitat ¯nits equiprobables

Suposem que tenim un espai mostral ¯nit E = fa1 ; : : : ; an g amb n elements. Si cadascun dels
successos elementals t¶e la mateixa probabilitat, de
1 = P (E) = P (fa1 g [ : : : [ fan g) = P (fa1 g) + ¢ ¢ ¢ + P (fan g) = nP (fa1 g)
deduijm
1
P (fa1 g) = ¢ ¢ ¢ = P (fan g) =
:
n
k
En general, donat un succ¶es A que tingui k elements, tenim que P (A) = n
i s'acostuma a dir:
nombre de casos favorables a A
P (A) =
nombre de casos possibles de E

© Els autors, 2003; © Edicions UPC, 2003


1.4 Espais de probabilitat no ¯nits 35

En els exemples 1.1 i 1.2 anteriors, per la simetria de les experiµencies (o b¶e per mitjµa de la
comprovaci¶o emp¶³rica) ¶es raonable assignar la mateixa probabilitat a cadascun dels resultats
possibles, de manera que

3 3 3 4
P (A) = P (B) = P (C) = P (D) = :
6 6 8 8
Pel que fa al tercer exemple, tal com l'hem escrit, el conjunt E no es tracta d'un espai equi-
probable. Si pensem, per exemple, en el cas que la suma sigui 2, nom¶es es donarµa en el cas
que surti un 1 a cada dau (1; 1). En canvi, el cas que surti suma 4 es pot donar (1; 3), (3; 1), i
¶ clar que ¶es m¶es probable que la suma sigui 4 que 2.
(2; 2). Es
En aquests casos, conv¶e pensar en un espai E = f(1; 1); (1; 2); (2; 1); ¢ ¢ ¢ ; (5; 1); (1; 5); (6; 6)g, on
tots els successos elementals s¶on equiprobables. Llavors P (F ) = 1836
i P (G) = 18 36
.

1.4 Espais de probabilitat no ¯nits

Algunes experiµencies condueixen de forma natural a espais mostrals no ¯nits. Per exemple,
si tirem una moneda ¯ns que surt cara i comptem el nombre de tirades, l'espai mostral ¶es
E = f1; 2; 3; : : : g = N (no hi ha cap motiu per suposar, d'entrada, un l¶³mit superior al nombre
de tirades). Si l'experiµencia consisteix a mesurar el voltatge d'un senyal, l'espai mostral ¶es
E = [0; 1). En el primer cas, l'espai mostral ¶es in¯nit perµo numerable, mentre que en el segon,
l'espai mostral ¶es no numerable. En els dos casos, l'axioma 3 de la de¯nici¶o de probabilitat
s'ha d'estendre a:

3'. Si A1 ; A2 ; A3 : : : ¶es una fam¶³lia numerable de successos incompatibles dos a dos, aleshores
X
P ([i¸1 Ai ) = P (Ai ):
i¸1

¶ clar que aquesta formulaci¶o cont¶e l'axioma 3 anterior, perµo aquest darrer nom¶es es pot
Es
estendre a fam¶³lies ¯nites de conjunts. M¶es endavant considerarem aquests casos en el marc
de les variables aleatµories. Totes les propietats que considerem aqu¶³ s¶on vµalides tamb¶e per als
espais no ¯nits.

1.5 Probabilitat condicionada.

Siguin A i B dos successos d'un espai E. Si P (B) 6


= 0, de¯nim la probabilitat del succ¶es A
condicionada a B com:

© Els autors, 2003; © Edicions UPC, 2003


36 1 PROBABILITAT

P (A \ B)
P (AjB) = :
P (B)

Ens d¶ona la probabilitat de A sabent, d'entrada, que s'ha veri¯cat el succ¶es B.


A l'exemple 1.1 tenim:
1
6 1
P (AjB) = 3 = :
6
3
Aixµo ens d¶ona la probabilitat que en llen»car un dau surti un nombre parell sabent que ha sortit
1; 4 o 5. Aquest resultat ¶es clar, ja que d'entre els valors 1; 4 i 5 (tres valors) nom¶es hi ha un
nombre parell.
A l'exemple 1.2 tenim que la probabilitat que surtin dues cares sabent que han sortit dues o
tres cares ¶es:
3
3
P (CjD) = 84 =
8
4
i la probabilitat que surtin dues o tres cares, sabent que han sortit dues cares ¶es clarament 1:
3
8
P (DjC) = 3 = 1:
8

A l'exemple 1.3:
0
36
P (F jG) = 18 = 0:
36

En general, si dos successos A i B s¶on incompatibles, aleshores P (AjB) = P (BjA) = 0 (si


sabem que s'ha esdevingut un d'ells, l'altre ¶es un succ¶es impossible).

1.6 Successos independents.

Siguin A i B dos successos d'un espai E.


Diem que A i B s¶on independents si

P (A \ B) = P (A) ¢ P (B):

Observem que entre els axiomes i les propietats no hi ha cap indicaci¶o sobre el valor de la pro-
babilitat de la intersecci¶o de dos esdeveniments. Per calcular-la, cal tenir informaci¶o addicional

© Els autors, 2003; © Edicions UPC, 2003


1.6 Successos independents. 37

sobre el seu grau de dependµencia. La independµencia de successos ¶es una noci¶o fonamental en la
teoria de la probabilitat. Des del punt de vista intuijtiu, A i B s¶on independents si la freqÄ
uµencia
relativa fn (A) amb quµe s'esdev¶e A no varia quan ens restringim als resultats en quµe succeeix
B.
Exemple 1.7 Suposem que hi ha tants homes fumadors com dones fumadores (i que hi ha
tants homes com dones). La probabilitat d'escollir a l'atzar una dona fumadora ¶es aleshores
1=4 (la meitat de la meitat de la poblaci¶o). Els successos `escollir una dona' i `escolllir un
fumador' s¶on independents. 2

Quan dos successos s¶on independents, la realitzaci¶o d'un d'ells no afecta la probabilitat de
l'altre. En efecte, si A i B s¶on independents:

P (A \ B)
P (AjB) = = P (A)
P (B)
P (A \ B)
P (BjA) = = P (B):
P (B)

Equivalentment, si P (AjB) = P (A), aleshores

P (A \ B) = P (AjB)P (B) = P (A)P (B);

i A i B s¶on independents.
Vegem-ho en els tres exemples que estem analitzant:

1 1 1
P (A) = P (B) = i P (A \ B) = :
2 2 6
Per tant, A i B no s¶on independents.
3 4 3
P (C) = P (D) = i P (C \ D) = :
8 8 8
Per tant, C i D no s¶on independents.
18 18
P (F ) = P (G) = i P (F \ G) = 0:
36 36
Per tant, F i G no s¶on independents. En general, si A i B s¶on incompatibles i tenen probabilitat
no nul¢la, aleshores no s¶on independents ja que P (AjB) = P (BjA) = 0.

© Els autors, 2003; © Edicions UPC, 2003


38 1 PROBABILITAT

Exemple 1.8 Considerem l'experiµencia de treure una carta d'una baralla de 40 cartes. Tenim
40 successos elementals. Sigui A = ftreure orosg i B = ftreure una sotag. Tenim P (A) = 10
40
i
4 ¶ clar que A \ B t¶e un element (la sota d'oros) i P (A \ B) = . En aquest cas,
P (B) = 40 . Es 1
40
A i B s¶on independents. 2

1.7 Teorema de la probabilitat total

Diem que els successos A1 ; A2 ; ¢ ¢ ¢ An s¶on una partici¶o de l'espai E si


² [ni=1 Ai = E, i
² Per a qualssevol i; j diferents, Ai \ Aj = ?:

El teorema de la probabilitat total relaciona la probabilitat de qualsevol succ¶es B amb les


probabilitats condicionades als successos d'una partici¶o A1 ; A2 ; ¢ ¢ ¢ An de E. Com que cada
succ¶es B es pot escriure com B = (B \ A1 ) [ ¢ ¢ ¢ (B \ An ), tenim:

n
X n
X
P (B) = P (B \ Ai ) = P (BjAi )P (Ai ):
i=1 i=1

Aquesta ¶es una identitat que pot resultar molt u


¶til per al cµalcul de probabilitats.

Exemple 1.9 La probabilitat d'un error en la transmissi¶o d'un missatge per rµadio depµen del
nivell ½ d'ionitzaci¶o de l'atmosfera, que es mesura en una escala determinada. Si 0 · ½ < 10,
la probabilitat d'error ¶es de 0;1, si 10 · ½ < 20 ¶es de 0;2 i si ½ ¸ 20 ¶es de 0;3. Sabem que la
probabilitat d'aquests tres nivells d'ionitzaci¶o ¶es P (0 · ½ < 10) = 0;5, P (10 · ½ < 20) = 0;4 i
P (½ ¸ 20) = 0;1. Quina ¶es la probabilitat d'error?
Denotem ² el succ¶es `hi ha error de transmissi¶o', i A1 ; A2 ; A3 els successos f0 · ½ < 10g,
f10 · ½ < 20g i f½ > 20g, respectivament. Aleshores:
P (²) = P (²jA1 )P (A1 ) + P (²jA2 )P (A2 ) + P (²jA3 )P (A3 ) = 0;16:
Quin seria l'espai mostral en aquest cas? De vegades la formalitzaci¶
o completa dels espais de
probabilitat pot resultar excessivament... formal. 2

© Els autors, 2003; © Edicions UPC, 2003


1.8 Teorema de Bayes 39

1.8 Teorema de Bayes

En molts problemes resulta m¶es senzill calcular P (AjB) que P (BjA). La f¶ormula de Bayes
proporciona una manera particular de relacionar aquestes dues probabilitats.
Sigui A1 ; A2 ; ¢ ¢ ¢ An una partici¶o de l'espai E i sigui B un esdeveniment qualsevol. De l'expressi¶o
de la probabilitat condicionada sabem que

P (B \ Aj ) = P (BjAj )P (Aj ) = P (Aj jB)P (B):

D'altra banda, d'acord amb la f¶ormula de la probabilitat total:

P (B) = P (BjA1 )P (A1 ) + ¢ ¢ ¢ + P (BjAn )P (An ):

Combinant aquestes dues igualtats:

P (Aj \ A) P (BjAj )P (Aj )


P (Aj jB) = = Pn :
P (B) i=1 P (AjAi )P (Ai )

Aquesta manera de relacionar les probabilitats condicionades P (Aj jB) i P (BjAj ) del primer i
el darrer termes de la igualtat s'anomena f¶
ormula de Bayes i resulta particularment u¶til.
Exemple 1.10 Una urna cont¶e dues boles blanques i dues de negres. S'extreu una bola i, sense
tornar-la a l'urna ni saber-ne el color, s'extreu despr¶es una altra bola. Calculeu la probabilitat
que la primera bola hagi estat blanca si la segona bola ¶es negra.
Denotem

B1 = fla primera bola ¶es blancag


N1 = fla primera bola ¶es negrag
N2 = fla segona bola ¶es negrag:

La probabilitat que volem calcular ¶es P (B1 jN2 ). Els successos A1 ; N1 formen una partici¶o de
l'espai. Atesa la composici¶o de l'urna, sabem que P (A1 ) = 24 . Si la primera bola que hem tret
era blanca, dins de l'urna queden dues boles negres i una de blanca. Per tant, P (N2 jB1 ) = 23 .
De forma similar, P (N2 jN1 ) = 13 . En canvi, el cµalcul de P (B1 jN2 ) no ¶es evident. Fent servir la
f¶ormula de Bayes:

P (N2 jB1 )P (B1 ) (2=3)(1=2)


P (B1 jN2 ) = = ' 0;666:
P (N2 jB1 )P (B1 ) + P (N2 jN1 )P (N1 ) (2=3)(1=2) + (1=3)(1=2)
2

© Els autors, 2003; © Edicions UPC, 2003


40 1 PROBABILITAT

Exemple 1.11 Dues mµaquines A i B produeixen 100 i 200 xips, respectivament. Se sap que
la mµaquina A produeix un 5% de xips defectuosos i la B un 6%. S'agafa un xip i es demana:
a) Quina ¶es la probabilitat que sigui defectu¶os.
b) Sabent que el xip ¶es defectu¶os, quina ¶es la probabilitat que hagi sortit de la mµaquina A.
Indiquem els successos:

A = fel xip ha sortit de la mµaquina Ag


B = fel xip ha sortit de la mµaquina Bg
D = fel xip ¶es defectu¶osg:

1
En total hi ha 300 xips, 100 procedents de la mµaquina A i 200 de la B. Llavors, P (A) = 3
i
P (B) = 23 .
a) Per la f¶ormula de la probabilitat total:

6 1 5 2
P (D) = P (DjA)P (A) + P (DjB)P (B) = + = 0;0567:
100 3 100 3

b) Fent servir la f¶ormula de Bayes:

P (DjA)P (A) 0;05 ¢ 13


P (AjD) = = = 0;2941:
P (DjA)P (A) + P (DjB)P (B) 0;05 ¢ 13 + 0;06 ¢ 2
3

1.9 Diagrames d'arbre

En l'anµalisi de problemes de probabilitat en quµe s'encadenen experiµencies, pot resultar u


¶til la
representaci¶o en un diagrama d'arbre. Vegem-ne un exemple que il¢lustra la tµecnica.
Exemple 1.12 Considerem el problema de l'urna descrit a l'exemple 1.10. El diagrama en
arbre segÄ
uent esquematitza els resultats possibles:

© Els autors, 2003; © Edicions UPC, 2003


1.10 Exercicis i problemes 41

Primera extracci¶
o Segona extracci¶
o
1=3³ ³1
³ ³
z z
z³P ³
© ©*
1=2 P P
P P
© © Pq
© 2=3
©H
z j
H H 2=3³ ³1
H H ³ ³
j z
1=2 Hj j³P ³
z z j j
P P
P P
1=3 Pq j j

A cada nivell de l'arbre, cada node t¶e tants ¯lls com possibilitats t¶e l'experiµencia en aquell punt.
Les branques tenen per pesos les probabilitats de passar d'un resultat al segÄ uent. Aix¶³, a l'arbre
es poden llegir directament l'espai mostral i les probabilitats de cada un dels resultats possibles:
resseguint el cam¶³ des de l'arrel de l'arbre ¯ns al resultat i multiplicant les probabilitats que
trobem a les branques. Per exemple, si denotem N1 el succ¶es `surt negra la primera bola' i N2
`surt negra la segona', P (²²) = P (N1 \ N2 ) = P (N1 )P (N2 jN1 ), que ¶es el producte dels pesos
de les branques del cam¶i que porta a la fulla ²². 2

1.10 Exercicis i problemes

1.10.1 Exercicis

1. En un curs de quatre assignatures, el 70% aproven l'assignatura A, el 75% aproven l'assig-


natura B, el 80% aproven l'assignatura C i el 85% aproven l'assignatura D. Quin ¶es el
percentatge m¶³nim d'estudiants que aproven les quatre assignatures?
2. Determineu la distribuci¶ o de probabilitat de la suma de resultats obtinguts en tirar
dos daus. Quina distribuci¶o s'obtindria si s'utilitzen dos daus amb cares numerades
1; 3; 4; 5; 6; 8 en un i 1; 2; 2; 3; 3; 4 a l'altre?

3. El resultat d'un experiment ¶es un nombre enter entre 1 i 4. L'experiment es repeteix dues
vegades de forma independent i s'obtenen els resultats E1 i E2 . Calculeu les probabilitats
de A = fE1 = E2 g, B = fE1 > E2 g, i C = fE1 + E2 ¸ 6g. Calculeu les probabilitats de
A; B; A \ B; A \ C; B \ C; Ac \ B i A [ B [ C.

4. En un espai de probabilitat coneixem les probabilitats P (A) = 0;2, P (B) = 0;3 , P (A [


B) = 0;4. Determineu les probabilitats P (Ac \ B) i P (A \ B c ).

© Els autors, 2003; © Edicions UPC, 2003


42 1 PROBABILITAT

5. Siguin A i B dos successos independents. S¶on independents A i B c ? i Ac i B c ?

6. Tenim un dau amb tres uns, dos dosos i un tres. D'altra banda, tenim una urna amb tres
boles blanques i dues negres. Llancem el dau i agafem tantes boles com el n¶umero que
surti al dau.
a) Calculeu la probabilitat de treure com a m¶³nim una bola blanca.
b Sabent que hem tret com a m¶³nim una bola negra, calculeu la probabilitat d'haver tret
un dos al dau.

1.10.2 Problemes per fer

1. Suposem que neixen m¶es nenes que nens. Comproveu que ¶es m¶es probable tenir dos ¯lls
del mateix sexe que de sexe diferent.

2. Quina ¶es la probabilitat d'aprovar un test de 20 preguntes amb quatre opcions per a
cadascuna (de les quals nom¶es una ¶es vµalida) contestant a l'atzar? Quina ¶es aquesta
probabilitat si nom¶es es contesten a l'atzar 15 preguntes i se'n deixen 5 en blanc?

3. Siguin A; B; C tres successos tals que P (A \ B \ C) = P (A)P (B)P (C). Es pot deduir
que A i B s¶on independents?

4. (El problema del cavaller de M¶er¶e) El cavaller de M¶er¶e apostava que en tirar un dau 4
vegades almenys sortiria un sis. Despr¶es de guanyar moltes vegades ning¶ u no volia jugar
amb ell i va canviar el joc, apostant que en 24 tirades de dos daus sortiria un doble sis.
¶ m¶es probable que perdi o que guanyi? Quin ¶es el nombre m¶³nim de tirades a partir
Es
del qual ¶es m¶es probable guanyar que perdre?

5. Un senyor porta sis claus semblants, dues de les quals obren els dos panys de la porta de
casa seva. Si en perd una, quina ¶es la probabilitat que pugui entrar a casa? Quina ¶es la
probabilitat que les dues primeres claus que tria obrin la porta?

6. En un sistema de transmissi¶o la probabilitat d'error en enviar un bit ¶es p = 0;1, indepen-


dentment dels altres bits enviats.
a) Quina ¶es la probabilitat pn que en un missatge de n bits no hi hagi cap error? Quin
¶es el el valor m¶³nim n0 a partir del qual pn0 < 1=2?
b) Per disminuir la probabilitat d'error s'envia cada bit per triplicat. A cada bloc de tres
bits rebuts, el receptor descodi¯ca com a 1 el bit enviat si hi ha m¶es 1 que 0 al bloc i
0 altrament (aquest ¶es el codi de repetici¶o). Quina ¶es ara la probabilitat qn que en un
missatge de n bits no hi hagi cap error? Quan val qn0 ?

© Els autors, 2003; © Edicions UPC, 2003


1.10 Exercicis i problemes 43

7. Cada element del sistema de la ¯gura segÄ uent t¶e probabilitat de fallada p = 0;1 indepen-
dent dels altres. El sistema funciona mentre hi ha un cam¶³ de A a B que no passa per
cap element defectu¶os. Quina ¶es la probabilitat que el sistema falli?

A r r B

8. En un lot de n xips, n'hi ha l que s¶on defectuosos.


a) Quina ¶es la probabilitat que en una mostra de mida m n'hi hagi r de defectuosos?
b) Quina seria aquesta probabilitat si es pren la mostra de mida m amb reempla»cament?
Compareu-la amb l'anterior pels valors n = 20, l = 2, m = 10 i r = 1, i per als valors
n = 100, l = 10, m = 10 i r = 1.

9. Una caixa cont¶e 10 monedes normals i 20 de trucades per a les quals P (cara) = 0;25. Es
treu a l'atzar una moneda de la caixa i es tira dues vegades.
a) Quina ¶es la probabilitat que surtin dues cares?
b) Si han sortit dues cares, quina ¶es la probabilitat que la moneda fos trucada?

10. Es treuen dues boles d'una bossa que en cont¶e 5 de vermelles, 3 de blanques i 2 de verdes.
a) Calculeu la probabilitat que les dues boles siguin del mateix color.
b) Si les dues boles s¶on del mateix color, quina ¶es la probabilitat que siguin de color blanc?

11. Una fµabrica produeix un 30% de claus, un 25% de cargols i un 45% de xinxetes. Entre
els claus, cadascun t¶e una probabilitat del 0,005 de ser defectu¶os; la probabilitat que un
cargol sigui defectu¶os ¶es de 0,003, i una xinxeta, de 0,008. Si una pe»ca ¶es defectuosa, quina
¶es la probabilitat que sigui una xinxeta?

12. Per tal d'assistir a un examen un estudiant compta amb l'ajuda d'un despertador, el
qual aconsegueix despertar-lo el 80% dels casos. Quan el despertador el desperta, la
probabilitat que faci l'examen ¶es del 0,9, mentre que si no el desperta la probabilitat que
faci l'examen ¶es del 0,5. Si fa l'examen, quina ¶es la probabilitat que el despertador l'hagi
despertat? Si no fa l'examen, quina ¶es la probabilitat que no l'hagi despertat?

© Els autors, 2003; © Edicions UPC, 2003


44 1 PROBABILITAT

13. Un metge sap que nom¶es el 60% dels pacients que van a la consulta estan malalts. Per
poder distingir entre els malalts i els que no ho s¶on, el metge disposa d'una anµalisi que
presenta el 95% de ¯abilitat (¶es a dir, d¶ona el resultat correcte el 95% de les vegades que
s'aplica). Si un pacient d¶ona positiu, quina ¶es la probabilitat que realment estigui malalt?

14. En una poblaci¶o hi ha un 24% d'individus que s¶on homes i fumen, i un 35% que s¶on dones
i no fumen. Si la proporci¶o d'homes ¶es del 55%, quina ¶es la probabilitat que un individu
escollit a l'atzar entre els fumadors sigui dona?

15. En un examen hi ha quatre problemes. El primer val 3 punts, el segon 2 i el tercer i el


quart 2;5 cada un. La probabilitat de fer b¶e els problemes ¶es 0;6, 0;8, 0;4 i 0;4, per aquest
ordre.
a) Quina ¶es la probabilitat de no aprovar?
b) Si un estudiant ha aprovat, quina ¶es la probabilitat que hagi fet b¶e el primer problema?

16. En un concurs televisiu hi ha tres portes, darrere una de les quals hi ha un premi. El
concursant escull una de les portes i a continuaci¶o el presentador li mostra una de les
portes que no ha triat i que no amaga el premi. El presentador ofereix al concursant la
possibilitat de canviar la seva elecci¶o. Calculeu la probabilitat d'encertar la porta amb
premi si
a) El concursant ha decidit d'entrada no canviar la seva opci¶o.
b) El concursant ha decidit d'entrada canviar la seva opci¶o.

17. En una empresa de n treballadors un d'ells explica un rumor a un altre, escollit a l'atzar.
Aquest, a la vegada, l'explica a un tercer escollit a l'atzar, i aix¶³ successivament.
a) Quina ¶es la probabilitat que el rumor hagi passat per r persones sense tornar a qui
l'ha originat.
b) Quina ¶es la probabilitat que el rumor hagi passat per r persones sense que ning¶
u l'hagi
sentit m¶es d'una vegada.

18. Un servei tµecnic t¶e tres equips de reparaci¶o, A; B i C, els quals efectuen el mateix nombre
de reparacions. L'equip A resol favorablement el 80% de les reparacions, l'equip B el 75%
i l'equip C el 65%.
a) Quina ¶es la probabilitat que una reparaci¶o defectuosa correspongui a un treball efectuat
per l'equip A.
b) Es detecten cinc reparacions defectuoses. Quina ¶es la probabilitat que n'hi hagi, com
a molt, una realitzada per l'equip A.

19. Una urna cont¶e tres boles negres i dues boles blanques. Un primer jugador treu tres boles.
Torna a l'urna una bola negra si entre les boles que ha tret n'hi ha m¶es de negres. Si no

© Els autors, 2003; © Edicions UPC, 2003


1.10 Exercicis i problemes 45

¶es aix¶³, torna a l'urna una bola blanca. A continuaci¶o, el segon jugador extreu una bola.
El joc consisteix a endevinar quantes boles blanques ha extret el primer jugador. Si el
segon jugador ha extret una bola blanca, quina ¶es la probabilitat que el primer jugador
hagi extret:
a) Cap bola blanca.
b) Una bola blanca.
c) Dues boles blanques.

20. La probabilitat que hi hagi emb¶


us a la Diagonal a les 8 del vespre ¶es de 0,4 els dies que no
juga el Bar»ca, mentre que puja a 0,8 els dies de partit. Sabem tamb¶e que el Bar»ca juga
dos partits per setmana.
a) Calculeu la probabilitat que hi hagi emb¶
us un dia qualsevol.
b) Si un dia determinat vaig a la Diagonal a les 8 del vespre i hi ha emb¶
us, calculeu la
probabilitat que estigui jugant el Bar»ca.

© Els autors, 2003; © Edicions UPC, 2003


47

2 Variables aleatµ
ories

2.1. Variables aleatµories


2.2. Variables discretes
2.3. Exemples importants de distribucions discretes
2.4. Variables cont¶³nues
2.5. Exemples importants de distribucions cont¶³nues
2.6. Parµametres estad¶³stics: valor mitjµa i la variµancia.
2.7. Funcions de variables aleatµories
2.8. Exercicis i problemes

Tal com vµarem veure al cap¶³tol anterior, cada succ¶es d'un experiment t¶e associada
una probabilitat. En aquest tema traslladem els successos a valors numµerics: les
variables aleatµ
ories. Considerem experiments que tinguin ¯ns i tot un nombre in-
¯nit de possibles resultats i probabilitats, en particular amb valors reals com els
que s'obtenen en realitzar mesures. Tamb¶e es discuteixen tµecniques per obtenir la
distribuci¶
o de probabilitat d'una variable aleatµ
oria que s'escriu com a funci¶o d'una
altra. Aquestes tµecniques permeten, en particular, obtenir gran part de les distribu-
cions m¶es comunes a partir de la distribuci¶o uniforme, cosa que ¶es de gran utilitat
en problemes de simulaci¶ o.

2.1 Variables aleatµ


ories

De¯nici¶o 2.1 Una variable aleatµoria ¶es una funci¶


o que associa un n¶
umero a cada resultat d'un
experiment.

© Els autors, 2003; © Edicions UPC, 2003


48 2 µ
VARIABLES ALEATORIES

Heu de pensar en la variable aleatµoria com una descripci¶o numµerica dels valors possibles que
pot prendre un experiment. El conjunt de valors possibles ¶es l'espai mostral, ¶es a dir, el conjunt
format per tots els n¶
umeros que poden ser valors de la variable.
Exemples:

² (1) Experiment: Tirar una moneda. Associem al resultat fsortir carag el 0 i al resultat
fsortir creug un 1. Espai mostral: f0; 1g.

² (2) Experiment: Tirar una moneda diverses vegades ¯ns que ens surti cara. El valor de
la variable aleatµoria ¶es el nombre de tirades necessµaries ¯ns que ens ha sortit cara. Espai
mostral: N = f1; 2; 3; :::g.

² (3) Experiment: Tirar un dau. Cada cara del dau ja t¶e associat un n¶ umero de l'1 al 6;
umero que agafem. Espai mostral: f1; 2; 3; 4; 5; 6g.
per tant, aquest ¶es el n¶

² (4) Experiment: Mesurar l'al»caµria d'una persona a l'atzar. El valor que pren la variable
¶es l'al»caria en cent¶³metres, amb decimals. Admetent des de nadons prematurs (uns 20
cm d'al»caµria per exemple) ¯ns a gegants de 250 cm l'espai mostral podria ser agafat com
l'interval real [20; 250].

² (5) Experiment: Un arquer dispara una °etxa en una diana de 50 cm de radi. El resultat
de la variable aleatµoria ¶es la distµancia des d'on ha quedat la °etxa clavada ¯ns al centre
de la diana, en cent¶³metres i amb decimals. Espai mostral: l'interval real [0; 50]. Si esteu
pensant que aixµo no ¶es aleatori (un arquer m¶es bo que un altre dispararµa m¶es a prop del
centre), penseu que la variable aleatµoria nom¶es ¶es una descripci¶o dels valors possibles.
Les seves probabilitats s'han d'ajustar a part. La variable aleatµoria corresponent a un
arquer m¶es acurat simplement tindrµa probabilitats m¶es altes per a nombres m¶es petits
que la variable d'un arquer menys bo. Perµo la variable ¶es la mateixa.

² (6) Experiment: Temps d'espera d'un paquet de dades d'Internet en un servidor donat
a causa de la congesti¶o de la xarxa. Els resultats de la variable s¶on els temps d'espera
en segons, amb decimals. Observeu que, en teoria, qualsevol temps ¶es possible. Per tant,
l'espai mostral ¶es tot l'interval real [0; 1).

Les variables aleatµories s'escriuen habitualment amb lletres maj¶uscules (normalment X o Y ).


Per exemple, la variable aleatµoria X que pren els valors dels punts de cada cara d'un dau ¶es la
variable de l'exemple (3) anterior.
Segons els exemples anteriors, veiem que hi ha bµasicament dos tipus de variables aleatµories:

² Variables discretes, variables que prenen una quantitat numerable de valors (usualment
valors naturals o enters). Una variable discreta pot ser ¯nita si pren un nombre ¯nit de

© Els autors, 2003; © Edicions UPC, 2003


2.2 Variables discretes 49

valors, o in¯nita, si en pren una quantitat in¯nita numerable (per exemple, els nombres
naturals o els nombres enters).

² Variables cont¶³nues, els valors de les quals s¶on intervals de la recta real. A la secci¶o 2.4
en veurem una de¯nici¶o m¶es precisa.

En els exemples anteriors, les variables dels exemples (1) i (3) s¶on discretes ¯nites, la variable
de (2) ¶es discreta in¯nita i les variables (4), (5) i (6) s¶on cont¶³nues.
Aquesta distinci¶o ¶es fonamental en l'estudi de la probabilitat, i totes les anµalisis que farem d'ara
endavant tindran en compte aquesta distinci¶o.
Hi ha variables aleatµories que no s'inclouen en cap dels dos tipus anteriors. Per exemple, una
variable aleatµoria que prengui el valor 4 i tots els nombres reals entre 5 i 6. En aquest curs, no
considerarem aquestes variables (anomenades variables mixtes).

2.2 Variables discretes

Observeu l'exemple (5) anterior. Dµeiem llavors que, per a diferents tiradors, la variable era
la mateixa, perµo que l'encert m¶es gran o m¶es petit d'un tirador ve donat per les probabilitats
assignades a cada succ¶es. Per tant, els resultats d'una variable aleatµoria han de tenir assignades
les seves probabilitats. Per a variables discretes (especialment les ¯nites) aixµo ¶es senzill i es
fa associant a cada resultat un n¶ umero entre 0 i 1 segons hem vist al cap¶³tol anterior. Si la
variable X pren el valor x amb probabilitat a escriurem:

P (X = x) = a:

Exemple 2.2 Si X ¶es la variable aleatµoria de les cares del dau, tenim, per exemple:
1
P (X = 3) = :
6
2

De¯nici¶ o 2.3 Sigui X una variable aleatµoria discreta que pren valors a fx1 ; x2 ; x3 ; : : : g. Ales-
hores la funci¶
o de probabilitat de X ¶es:

½ P : R ¡! [0; 1]
P (X = x) si x 2 fx1 ; x2 ; x3 ; : : : g;
x!
7
0 altrament:

© Els autors, 2003; © Edicions UPC, 2003


50 2 µ
VARIABLES ALEATORIES

Els axiomes de la probabilitat que hem aprµes al cap¶³tol 1 s'apliquen aqu¶³ amb tota la seva for»ca.
Si fx1 ; x2 ; : : : ; xn g ¶es el conjunt de valors possibles d'una variable aleatµoria ¯nita, aleshores:

P (X = x1 ) + P (X = x2 ) + : : : + P (X = xn ) = 1:

Si la variable aleatµoria ¶es discreta i in¯nita, el proc¶es ¶es el mateix, tenint en compte que el
fet que la suma de totes les probabilitats sigui 1 es manifesta amb la suma d'una sµerie. Per
l'exemple (2) anterior del nombre de vegades que hem de tirar una moneda ¯ns que surti cara,
tenim:
1
P (X = n) = n
2
i, per tant:
X 1 X1
1
P (X = n) = = 1:
n=1 n=1
2n

Es fa servir molt tamb¶e la probabilitat d'un conjunt de valors. Per exemple, en aquesta variable
del nombre de cops que hem de tirar una moneda perquµe surti cara, podem preguntar-nos
quina ¶es la probabilitat que ens surti cara abans de la cinquena tirada. Segons els axiomes
de la probabilitat, doncs, hem de sumar les probabilitats dels resultats 1,2,3, i 4, i el resultat
s'expressa:
15
P (X · 4) = :
16

2.3 Exemples importants de distribucions discretes

Algunes distribucions de probabilitat, i els models probabilistes a quµe corresponen, s¶on espe-
cialment u
¶ tils i freqÄ
uents.
² (1) La variable aleatµoria de Bernoulli ¶es la m¶es senzilla de totes i potser la m¶es important.
El seu espai mostral t¶e dos valors: f0; 1g. La variable es de¯neix simplement triant un
umero p entre 0 i 1 de manera que

P (X = 0) = p P (X = 1) = 1 ¡ p:

L'exemple canµonic ¶es tirar una moneda, on p = 1=2.


Per indicar que una variable aleatµoria X ¶es de Bernouilli escrivim X » B(p).
El model subjacent a la distribuci¶o de Bernoulli ¶es simple: Si A ¶es un succ¶es en un espai
mostral, la variable aleatµoria assigna el valor 1 si A succeeix i 0 altrament. Se sol dir que
hi ha `µexit' si succeeix A.

© Els autors, 2003; © Edicions UPC, 2003


2.3 Exemples importants de distribucions discretes 51

² (2) La variable aleatµoria binomial s'obt¶e quan es repeteix independentment n vegades la


variable de Bernoulli i es compta el nombre d'µexits (¶es a dir, el nombre de vegades que
apareix 1). Per exemple, si tiro una moneda 6 cops quina ¶es la probabilitat que em surtin
exactament dues cares?
L'espai mostral de la variable aleatµoria binomial ¶es, doncs, el conjunt f0; 1; : : : ; ng. La
probabilitat de cadascun d'aquests valors es calcula amb la f¶ormula:
µ ¶
n k
P (X = k) = p (1 ¡ p)n¡k ; n = 0; 1; : : : ; n:
k

¡ ¢
El coe¯cient nk compta el nombre de resultats en quµe hi ha k µexits (triar la posici¶o de
k uns en una seqÄuµencia de llargada n) i el terme pk (1 ¡ p)n¡k correspon a la probabilitat
de cadascun d'ells.
Si X segueix una distribuci¶o binomial de n repeticions independents i probabilitat d'µexit
p escrivim X » Bin(n; p).

² (3) Un exemple de variable geomµetrica el tenim amb l'exemple anterior (2): comptem
el nombre de tirades que hem de fer perquµe ens surti una cara. En principi, qualsevol
nombre de tirades ¶es possible, i la probabilitat cada cop queda multiplicada per 1/2. Per
aixµo s'anomena geomµetrica, perquµe la probabilitat del resultat k ¶es igual al del resultat
k ¡ 1 multiplicat per un factor 1 ¡ p. L'espai mostral ¶es el conjunt de tots els nombres
naturals (¶es, doncs, un espai no ¯nit) i la distribuci¶o de probabilitat ve donada per:

P (X = n) = p(1 ¡ p)n¡1 ; n = 1; 2; : : : ;

i escrivim X » Geom(p).
Observem que la suma de totes les probabilitats ¶es 1, com ha de ser, fent servir el valor
de la suma d'una sµerie geomµetrica:
1
X 1 1
p(1 ¡ p)n¡1 = p = p = 1:
n=1
1 ¡ (1 ¡ p) p

² (4) La variable de Poisson s'obt¶e tamb¶e en determinades situacions en quµe cal iterar la
variable de Bernoulli. De fet, la distribuci¶ o de Poisson representa una situaci¶o l¶³mit de
la distribuci¶o binomial, en la qual el nombre d'iteracions ¶es `gran' i la probabilitat d'µexit
`petita'. Aquesta distribuci¶o es fa servir, per exemple, per comptar el nombre de trucades
que arriben a una central en un petit interval de temps: el nombre d'usuaris ¶es gran
(de l'ordre de milions), perµo la probabilitat que un d'ells faci una trucada en un instant
determinat ¶es petita.

© Els autors, 2003; © Edicions UPC, 2003


52 2 µ
VARIABLES ALEATORIES

La variable aleatµoria amb distribuci¶o de Poisson t¶e com a espai mostral el conjunt dels
enters no negatius (incloent el 0), i la distribuci¶o de probabilitats ¶es:
®k ¡®
P (X = k) = e ; k = 0; 1; 2; : : : :
k!
El valor ® ¶es el parµametre de la distribuci¶o i m¶es endavant en veurem el seu signi¯cat.
Escriurem X » P oiss(®) per indicar que X segueix una distribuci¶o de Poisson. Per ara,
cal dir que la distribuci¶o de Poisson ¶es una bona aproximaci¶o de Bin(n; p) quan n ¶es
gran, p ¶es petita i ® = np. Vegeu una comparaci¶o d'alguns valors de la distribuci¶o per a
n = 20 i p = 0;1:

k 0 1 2 3 4 5 6
X » Bin(20; 0;1) P (X = k) 0,121 0,270 0,285 0,190 0,089 0,031 0,009
Y » P oiss(2) P (Y = k) 0,135 0,270 0,270 0,180 0,090 0,036 0,012

2.4 Variables cont¶³nues

Amb les variables cont¶³nues, perµo, l'assignaci¶o de probabilitats ¶es m¶es complicada. No podem
donar un valor individual a la probabilitat de cada resultat individual d'un interval de nombres
reals. Per tant, la probabilitat es d¶ona tamb¶e en termes d'intervals: casos com P (X · a),
que ¶es la probabilitat que la variable X aga¯ un valor m¶es petit o igual que a, o b¶e casos com
P (a · X · b), que ¶es la probabilitat que la variable X prengui un valor entre a i b.
Ara b¶e, a la recta real hi ha in¯nits intervals. Quµe hem guanyat, doncs? Hem guanyat que ara
per donar la probabilitat d'un interval podem fer servir una funci¶o, amb tots els avantatges que
el cµalcul ens proporciona per estudiar funcions. Aixµo ens porta a la de¯nici¶o segÄ
uent:
o 2.4 La funci¶
De¯nici¶ o de distribuci¶
o de la variable aleatoria X ¶es la funci¶
o:

FX (x) = P (X · x):

Observeu com, sabent la funci¶o de distribuci¶o d'una variable aleatµoria, podem saber la proba-
bilitat de molts intervals; per exemple:

P (a < X · b) = FX (b) ¡ FX (a):

La funci¶o de distribuci¶o es pot de¯nir per qualsevol tipus de variable aleatµoria. Si la funci¶o de
distribuci¶o ¶es cont¶³nua, aleshores:

P (X = x) = FX (x) ¡ lim FX (y) = 0;


y!x

© Els autors, 2003; © Edicions UPC, 2003


2.4 Variables cont¶³nues 53

de manera que en aquest cas la funci¶o de probabilitat no aporta cap informaci¶o rellevant. Una
variable aleatµoria ¶es cont¶³nua si la seva funci¶o de distribuci¶o ¶es cont¶³nua.
La millor eina per entendre la distribuci¶o de probabilitats d'una variable aleatµoria cont¶³nua ¶es
la funci¶o de densitat:

De¯nici¶ o 2.5 Sigui X una variable aleatµ oria cont¶³nua amb funci¶
o de distribuci¶
o FX derivable
(llevat potser d'una quantitat ¯nita de punts). La funci¶o de densitat d'una variable aleatµoria
X ¶es la derivada de la funci¶
o de distribuci¶
o:
dFX
fX (x) = (x):
dx

Per quµe la derivada? Perquµe s'ent¶en molt b¶e i t¶e una explicaci¶o molt grµa¯ca. Si fX ¶es la funci¶o
de densitat, aleshores la probabilitat d'un interval [a; b] ¶es:
Z b
P (a · X · b) = fX (x) dx:
a

Observeu que la funci¶o de distribuci¶o ¶es sempre una funci¶o creixent (si x < y aleshores fX ·
xg ½ fX · yg i FX (x) = P (X · x) · P (X · y) = FX (y)). Per tant, la funci¶o de densitat
¶es sempre no negativa. Per aixµo la probabilitat P (a · X · b) es correspon amb l'µarea sota la
funci¶o de densitat i entre les dues rectes verticals corresponents a x = a i x = b. Aix¶³, si la
funci¶o de densitat ¶es m¶es alta en un punt que en un altre, sabrem que els petits intervals propers
al primer punt s¶on m¶es probables que els petits intervals propers al segon punt. Observem
algunes propietats de les funcions de distribuci¶o i densitat, que no s¶on m¶es que reformulaci¶o de
propietats que ja coneixem:

² (1)
lim FX (x) = 0 lim FX (x) = 1:
x!¡1 x!+1

² (2) Z x
FX (x) = fX (x) dx:
¡1

² (3) Z +1
fX (x) ¸ 0 i fX (x) dx = 1:
¡1

Arribats en aquest punt, uns quants exemples de distribucions cont¶³nues ens aniran molt b¶e
per entendre-ho tot.

© Els autors, 2003; © Edicions UPC, 2003


54 2 µ
VARIABLES ALEATORIES

2.5 Exemples importants de distribucions cont¶³nues

² (1) Considerem la variable aleatµoria segÄ uent: Agafem una ruleta (una °etxa clavada al
paper amb una agulla), fem-la rodar i anotem l'angle on s'atura. Aqu¶³ tenim una variable
aleatµoria cont¶³nua amb conjunt de valors [0; 2¼). Perµo observeu com la intuijci¶o ens diu
que tots els angles s¶on igualment probables. Per tant, ens interessa que els intervals
que tenen la mateixa longitud tinguin tamb¶e la mateixa probabilitat. Es ¶ a dir, que la
probabilitat d'un interval [a; b] sigui proporcional a b ¡ a. La funci¶o de distribuci¶o serµa,
doncs, la funci¶o:
1
FX (x) = x

per x 2 [0; 2¼). Observeu detingudament per quµe aixµo ¶es aix¶³: l'interval [0; 2¼) t¶e proba-
x
bilitat FX (2¼), que ¶es 1; l'interval [0; x] t¶e probabilitat FX (x) = 2¼ , i un interval [a; b] t¶e
probabilitat FX (b) ¡ FX (a) = b¡a 2¼
. Per tant, la funci¶
o de densitat ¶
es constant:

1
fX (x) = :

Observem que el fet que la funci¶o de densitat sigui constant ¶es el que ens diu que la
probabilitat d'un interval [a; b] t¶e a veure amb la seva longitud: com que la funci¶o ¶es cons-
tant la probabilitat ve donada per l'µarea d'un rectangle, i l'µarea d'un rectangle d'al»caµria
constant depµen de la seva longitud.
Aquest ¶es un exemple d'una variable aleatµoria uniforme. Una variable aleatµoria ¶es uni-
forme en un interval [a; b] quan la seva funci¶o de densitat ¶es constant en els punts d'aquest
interval (i val 0 en els altres punts):
½ 1
b¡a
x 2 [a; b]
fX (x) =
0 x62 [a; b]

Intuijtivament, aixµo es correspon amb el fet que tots els resultats s¶on igualment probables.
Escrivim X » U (a; b).

² (2) Ara b¶e, l'experiµencia ens ensenya que no totes les variables aleatµories s¶on uniformes,
¶es a dir, per a una variable determinada no tots els valors tenen la mateixa probabilitat.
Un cop d'ull al voltant vostre us ha de convµencer d'aquest fet: hi ha molta m¶es gent
d'1,75 m d'al»caµria que de 2,20 oµ 1,45. Per tant, la variable aleatµoria `mesurar l'al»caµria
d'una persona' no ¶es uniforme, i aixµo vol dir que la funci¶o de densitat d'aquesta varia-
ble aleatµoria no ¶es constant. I si ho analitzem m¶es detingudament, hi observarem un
fenomen extremament habitual: hi ha un valor central de manera que la mostra tendeix
a acumular-se a prop del valor central. Aixµo suggereix que la funci¶o de densitat d'aquesta
variable serµa m¶es alta \al mig" que \als extrems". Una distribuci¶o fonamental que descriu

© Els autors, 2003; © Edicions UPC, 2003


2.5 Exemples importants de distribucions cont¶³nues 55

molts fenµomens aleatoris, com l'exemple anterior, ¶es l'anomenada distribuci¶o normal. La
variable t¶e dos parµametres, m i ¾, i la seva funci¶o de densitat ¶es:

1 (x¡m)2
fX (x) = p e¡ 2¾2 :
2¼¾

La normal t¶e una grµa¯ca ben coneguda per a tothom, que s'anomena popularment `la
campana de Gauss':

Aquesta funci¶o estµa centrada en el punt m i ¶es m¶es punxeguda com m¶es petit ¶es el valor de
¾. M¶es endavant interpretarem aquests dos parµametres. Escrivim X » N (m; ¾). Quan
m = 0 i ¾ = 1 es diu que X segueix una distribuci¶o normal tipi¯cada, i t¶e per funci¶o de
densitat:
1 x2
fX (x) = p e¡ 2 :

Aquesta funci¶o de densitat ¶es simµetrica respecte de l'eix x = 0. Si X » N(m; ¾), aleshores:

X ¡m
Y = » N (0; 1):
¾
Aquesta relaci¶o ¶es especialment u¶til pel motiu segÄ
uent. Per calcular la probabilitat que
una variable aleatµoria normal N (m; ¾) prengui valors en un interval (a; b), cal calcular la
integral:
Z b
1 x¡m)2
P (a < X < b) = p ¾e 2¾2 dx:
a 2¼
Ara b¶e, la funci¶o integrant no t¶e una primitiva expressable com una combinaci¶o ¯nita
de funcions elementals, i els seus valors estan tabulats: s'han de consultar en taules.
Aquestes taules contenen usualment els valors de P (N · x) o P (0 · N · x) per a valors
de x, on N ¶es una variable aleatµoria normal tipi¯cada. Els cµalculs s'han de referir, doncs,
a aquests valors, com il¢lustra l'exemple segÄ
uent:

Exemple 2.6 Si X » N (3; 2), calculeu P (0 < X < 3).

© Els autors, 2003; © Edicions UPC, 2003


56 2 µ
VARIABLES ALEATORIES

A la taula que trobareu a l'apµendix, hi ha tabulats els valors de P (0 < X < x) per a
N » N (0; 1). Si X » N(3; 2), aleshores N = (X ¡ 3)=2 » N (0; 1), de manera que

P (0 < X < 3) = P (0 < 2N + 3 < 3) = P (¡1:5 < N < 0) = P (0 < N < 1:5):

A les taules trobem els valors P (0 < N < 1;5) = 0;4332, de manera que tamb¶e P (0 <
X < 3) = 0;4332. 2

La distribuci¶o normal apareix en totes aquelles experiµencies en quµe s'observa una carac-
ter¶³stica estad¶³stica `normal' d'una poblaci¶o. El seu primer u ¶s descrivia la distribuci¶o
d'errors en una sµerie de mesuraments de la mateixa mesura (i, de vegades, fX s'ano-
mena la funci¶o d'error). Les distribucions d'al»caµries d'individus d'una poblaci¶o, la de les
quali¯cacions d'un examen, la de la intensitat d'un soroll en un canal de comunicaci¶o s¶on
exemples d'experiµencies en quµe apareix aquesta distribuci¶o particular.
De manera m¶es expl¶³cita, es pot dir que la distribuci¶o de la suma de n variables indepen-
dents tendeix a la distribuci¶o normal quan n ¶es `gran'.
Aquest enunciat imprec¶³s estµa a la base de les nombroses aplicacions de la distribuci¶o
normal: en totes aquelles experiµencies que s¶on resultat d'una suma de factors aleatoris
independents (per exemple, el soroll tµermic, els errors en mesuraments, etc.) apareix la
distribuci¶o normal. La seva formulaci¶o precisa ¶es el que s'anomena teorema del l¶³mit
central.
Un exemple important el d¶ona la distribuci¶o binomial Bin(n; p), que es pot interpretar
com a suma de n variables aleatµories de Bernouilli. Quan n ¶es `gran', la distribuci¶o
binomial Bin(n; p) es pot aproximar b¶e per la distribuci¶o normal N (m; ¾) amb m = np
p
i ¾ = npq. M¶es endavant veurem el sentit d'aquesta correspondµencia de parµametres.
Com a exemple, la taula segÄ uent compara alguns valors de la distribuci¶o Bin(100; 0;5)
amb les de la distribuci¶o normal N (50; 5):

x 35 40 45 50 55 60 65
X » Bin(100; 0;5) P (X · x) 0,0017 0,028 0,184 0,539 0,864 0,982 0,999
Y » N (50; 5) P (Y · x) 0,0013 0,023 0,158 0,5 0,841 0,977 0,998

² (3) La distribuci¶o normal ¶es un bon model quan hi ha un valor central, de manera que els
resultats de la variable es dispersen cap a ambd¶os costats d'aquest valor central. Hi ha
altres exemples, com l'exemple (6) del temps d'espera d'un paquet de dades en un servidor,
pels quals aixµo no passa: els valors d'aquesta variable comencen amb 0 i s'estenen per
tot l'eix positiu de la recta real. A m¶es, oµbviament aquesta distribuci¶o tampoc no ¶es
uniforme, sin¶o que ¶es molt m¶es probable que un paquet s'hagi d'esperar un temps curt
molt proper a 0 que un temps llarg.

© Els autors, 2003; © Edicions UPC, 2003


2.6 Parµ
ametres estad¶³stics: valor mitjµ
a i variµ
ancia 57

Aix¶³ tenim que necessitem un model en el qual les probabilitats van de 0 a 1, i que
les properes a 0 s¶on m¶es probables que les llunyanes. Vegem un exemple en el qual la
probabilitat vagi decreixent com m¶es grans siguin els valors. L'exemple canµonic es la
distribuci¶o exponencial. La seva funci¶o de densitat ¶es:

fX (x) = ¸e¡¸x ; x ¸ 0:

La seva grµa¯ca

satisfµa les propietats que sugger¶³em. Escrivim X » Exp(¸). M¶es endavant veurem tamb¶e
el signi¯cat del parµametre.
La distribuci¶o exponencial apareix en moltes experiµencies en les quals mesurem el temps
¯ns que s'esdev¶e un succ¶es que ¶es aleatori en el temps. Els exemples t¶³pics s¶on:

{ Temps d'espera ¯ns que un usuari fa una petici¶o a un servidor.


{ Temps de funcionament sense avaries d'un dispositiu.
{ Temps perquµe una substµancia radioactiva emeti una part¶³cula.

En tots aquests exemples, la variable aleatµoria exponencial apareix com a expressi¶o d'una
situaci¶o l¶³mit: a petits intervals de temps, la probabilitat que passi el succ¶es que observem
¶es p, i comptem el nombre d'intervals que hem d'esperar. Es tracta, doncs, de la situaci¶ o
l¶³mit d'una variable aleatµoria geomµetrica.

2.6 Parµ
ametres estad¶³stics: valor mitjµ
a i variµ
ancia

El valor mitjµa ¶es un valor que s'utilitza per tenir una idea numµerica global de la variable
aleatµoria. La intuijci¶o del cµalcul del valor mitjµa prov¶e de l'estad¶³stica: si tenim una mostra de
n valors , x1 ; x2 ; : : : ; xn , el seu valor mitjµa es calcula sumant-los tots i dividint per n:
x1 + x2 + ¢ ¢ ¢ + xn
x¹ = :
n

© Els autors, 2003; © Edicions UPC, 2003


58 2 µ
VARIABLES ALEATORIES

Per exemple, el valor mitjµa dels valors 1; 3; 4; 5; 7; 10 ¶es (1 + 3 + 4 + 5 + 7 + 10)=6 = 5. El valor


mitjµa dels valors 2; 2; 2; 3; 3; 3; 3 ¶es (3=7)2 + (4=7)3, ¶es a dir, la suma de cada valor per la seva
freqÄ
uµencia relativa. Aixµo suggereix que, donada una variable aleatµoria, intuijtivament el valor
mitjµa ha de ser igual a la suma del producte de cada valor per la seva probabilitat. Aixµ o ¶es
exactament aix¶³ per una variable discreta:
De¯nici¶ o 2.7 En una variable aleatµoria discreta que t¶e espai mostral S = fx1 ; x2 ; x3 ; :::g, ¯nita
o in¯nita, el valor mitjµa o esperan»ca matemµatica es de¯neix com el valor:
X
E(X) = xi P (X = xi )
i

La mitjana es denota moltes vegades amb la lletra grega ¹.


Per exemple, el valor mitjµa d'una variable aleatµoria de Bernoulli X » B(p) ¶es:

¹ = E(X) = 0 ¢ P (X = 0) + 1 ¢ P (X = 1) = p:

El sentit de l'esperan»ca ¶es que d¶ona el valor mitjµa dels resultats de l'experiµencia si es repeteix
un nombre prou gran de vegades. Per exemple, el nombre mitjµa de cares en tirar 100 vegades
una moneda ¶es 100p = 50. Es ¶ el valor esperat, i es pot demostrar en el context de la teor¶³a de la
probabilitat que la probabilitat que el valor mitjµa d'una seqÄ uµencia de n tirades s'aparti del valor
esperat (n=2 en el cas de tirar la moneda) tendeix a 0 quan n tendeix a 1: ¶es l'anomenada llei
dels grans nombres.

Exemple 2.8 La ruleta t¶e divuit nombres negres, divuit de vermells i el 0. Un joc d'aposta
a la ruleta consisteix a apostar una quantitat M a roig. Si la bola cau en un nombre roig, es
guanya el valor de l'aposta, si cau en un de negre o en 0, es perd. La casa guanya l'aposta
nom¶es quan cau en 0. La variable aleatµoria que mesura el guany net d'un jugador t¶e, doncs, la
distribuci¶o segÄ
uent:
P (X = M ) = 18=37; P (X = ¡M ) = 19=37:
Per tant, l'esperan»ca de guany del jugador ¶es E(X) = M(18=37) + (¡M )(19=37) = ¡M=37.
Aixµo vol dir que el jugador pot esperar, si juga prou vegades en apostes de 100 euros, a perdre
uns 100=37 ' 2;7 euros. En canvi, per a la casa de joc, el guany net ¶es Y amb P (Y = M ) = 1=37
i P (Y = 0) = 36=37, i espera guanyar E(Y ) = M=37; el que perd el jugador ho guanya la casa.
2

Per a variables aleatµories cont¶³nues, tenint en compte que la probabilitat ve donada per la seva
funci¶o de densitat, la mitjana s'ha de calcular fent la integral de la funci¶ o de densitat perµo
multiplicada per x. Aixµo re°ecteix exactament la idea intuijtiva de multiplcar cada valor (x)
per la seva probabilitat (la funci¶o de densitat).

© Els autors, 2003; © Edicions UPC, 2003


2.6 Parµ
ametres estad¶³stics: valor mitjµ
a i variµ
ancia 59

De¯nici¶o 2.9 En una variable aleatµoria cont¶³nua que t¶e funci¶


o de densitat fX (x), la seva
mitjana o esperan»ca matemµatica es de¯neix com el valor
Z 1
E(X) = x fX (x) dx:
¡1

Per exemple, si s'escull un punt X a l'atzar a l'interval [0; 2], aleshores el valor mitjµa (la mitjana
dels punts si repetim prou vegades l'experiµencia) ¶es:
Z 1 Z 2
E(X) = x fX (x) dx = x(1=2) dx = (1=2)(x2 =2) j20 = 1:
¡1 0

A la taula al ¯nal de la secci¶o hi ha un resum dels valors mitjans i altres caracter¶³stiques de les
distribucions usuals.
L'esperan»ca no ¶es l'¶
unic valor important d'una variable aleatµoria. L'esperan»ca t¶e la caracter¶³stica
que proporciona un valor central mitjµa de la variable, perµo no ens d¶ona cap informaci¶o de la
dispersi¶o de la variable. Per exemple, les seqÄuµencies ¡1; ¡1; ¡1; 1; 1; 1 i ¡10; ¡5; 0; 5; 10 tenen
el mateix valor mitjµa, 0, perµo la segona t¶e els valors m¶es dispersos que la primera, que els t¶e
m¶es concentrats al voltant del valor mitjµa. Una mesura de la dispersi¶o dels valors ¶es el valor
mitjµa de les diferµencies entre cada valor i el valor mitjµa. Per comptar aquestes diferµencies
amb independµencia del signe, el que es fa ¶es sumar les diferµencies al quadrat: per a les dues
seqÄ
uµencies anteriors, la dispersi¶o ¶es:

(¡1)2 + (¡1)2 + (¡1)2 + 12 + 12 + 12 3 3


= (¡1)2 + (1)2 = 1;
6 6 6
(¡10)2 + (¡5)2 + 02 + 52 + 102
= 50:
5
Aixµo suggereix mesurar la dispersi¶o d'una variable aleatµoria discreta X de la manera segÄ uent,
la qual cosa s'anomena la variµancia de X: si X pren els valors x1 ; x2 ; x3 ; : : : i t¶e esperan»ca
¹ = E(X), aleshores: X
V ar(X) = (xi ¡ ¹)2 ¢ P (X = xi ):
i

Per exemple, si X » B(p), aleshores l'esperan»ca de X ¶es E(X) = p i, essent q = 1 ¡ p,

V ar(X) = (0 ¡ p)2 P (X = 0) + (1 ¡ p)2 P (X = 1) = p2 q + q 2 p = pq(p + q) = pq:

El producte pq = p(1 ¡ p) ¶es mµaxim quan p = q = 1=2: aquest ¶es el valor de p pel qual la
dispersi¶o ¶es mµaxima. En canvi, per a valors de p prµoxims a zero o a 1, la dispersi¶o ¶es petita.
Per exemple, si p = 0;1 el valor mitjµa ¶es 0;1 i la variµancia ¶es 0;09, mentre que per a p = q = 1=2
la variancia ¶es 0;25.

© Els autors, 2003; © Edicions UPC, 2003


60 2 µ
VARIABLES ALEATORIES

Per a variables aleatµories cont¶³nues, el sumatori de la de¯nici¶o anterior passa a ser una integral
i la funci¶o de probabilitat passa a ser la funci¶o de densitat:
Z 1
V ar(X) = (x ¡ ¹)2 ¢ fX (x) dx:
¡1

2
La variµancia s'escriu tamb¶e com ¾X o ¾ 2 . La seva arrel quadrada ¾ ¶es tamb¶e for»ca utilitzada,
s'anomena desviaci¶o t¶³pica o estµandard. Els dos valors assoleixen el mateix objectiu de mesurar
la dispersi¶o de la variable aleatµoria.
A la prµactica se sol calcular la variµancia de la forma segÄ
uent:
X
V ar(X) = (xi ¡ E(X))2 P (X = xi ) =
i
X X
= x2i P (X = xi ) ¡ 2E(X) xi P (X = xi ) + E 2 (X)
i i
2 2
= E(X ) ¡ E (X):
Per exemple, per a una variable X » B(p), V ar(X) = E(X 2 )¡E 2 (X) = p¡p2 = p(1¡p) = pq.
El resultat ¶es igualment vµalid per a variables aleatµories cont¶³nues.
La taula segÄ
uent resumeix aquests valors per a les distribucions m¶es comunes:

Distribuci¶o Funci¶o de probabilitat o densitat Esperan»ca Variµancia


X » B(p) P (X = 0) = q¡ =¢ 1 ¡ p, P (X = 1) = p p pq
n k n¡k
X » Bin(n; p) P (X = k) = k p q ; k = 0; 1; : : : ; n np npq
k¡1
X » Geom(p) P (X = k) = pq ; k = 1; 2; 3; : : : 1=p p=q 2
k
X » P oiss(¸) P (X = k) = ¸k! e¡¸ ; k = 0; 1; 2; : : : ¸ ¸
1 b+a (b¡a)2
X » U(a; b) fX (x) = b¡a
; x 2 (a; b) 2 12
(x¡m)2
X » N(m; ¾) 1
fX (x) = p2¼¾ e¡ 2¾2 m ¾2
X » Exp(¸) fX (x) = ¸ e¡¸x; x ¸ 0 1
¸
1
¸2

Com a darrer comentari, recordeu que hav¶³em vist dos tipus d'aproximacions de distribucions:

² Si X » Bin(n; p) amb n gran i p petita, aleshores la distribuci¶o s'aproxima a una P oiss(¸)


amb ¸ = np. En altres paraules, s'aproxima per una distibuci¶o de Poisson del mateix
valor mitjµa.
² Si X » Bin(n; p) amb n gran, aleshores la distribuci¶o s'aproxima per una normal N (m; ¾)
p
amb m = np i ¾ = npq. En altres paraules, s'aproxima per una distribuci¶o normal del
mateix valor mitjµa i la mateixa desviaci¶o t¶³pica.

© Els autors, 2003; © Edicions UPC, 2003


2.7 Funcions de variables aleatµ
ories 61

2.7 Funcions de variables aleatµ


ories

Sigui X una variable aleatµoria i g : R ! R una funci¶o. L'objectiu d'aquesta secci¶o ¶es obtenir
la distribuci¶o de Y = g(X) en termes de la distribuci¶o de X i g. A la ¯gura segÄ
uent hi ha dos
exemples grµa¯cs del problema.
P (X = i) P (Y = i)
1
X 2
1 Y =- (¡1)
6
i i
1 2 3 4 5 6 ¡1 1

fX (x) = e¡x fY (y) = 2e¡2y

Y =- X=2
x y
0 1 2 3 0 1 2 3 4

Figura 2: Exemples de distribucions de funcions de variables aleatµ


ories

En el cas discret l'obtenci¶o de la funci¶o de probabilitat de Y = g(X) se sol obtenir directament.

Exemple 2.10 Sigui X la variable aleatµoria que d¶ona el resultat d'un dau i g(x) = (¡1)x (que
estµa ben de¯nida per a valors de x naturals). La distribuci¶o de Y = g(X) ¶es:

P (Y = 1) = P (X 2 f2; 4; 6g) = 1=2; P (Y = ¡1) = P (X 2 f1; 3; 5g) = 1=2:

Quan X t¶e una distribuci¶o cont¶³nua i g ¶es prou regular, hi ha una manera directa d'obtenir
la distribuci¶o de Y = g(X) en termes de la de Y i g. Un cas simple es presenta quan g ¶es
estrictament creixent. Aleshores:

FY (y) = P (Y · y) = P (g(X) · y) = P (X · g ¡1 (y)) = FX (g ¡1 (y)):

Derivant la funci¶o de distribuci¶o, s'obt¶e:

© Els autors, 2003; © Edicions UPC, 2003


62 2 µ
VARIABLES ALEATORIES

Proposici¶ o de densitat fX i g : R ! R una


o 2.11 Sigui X una variable aleatµoria amb funci¶
funci¶
o derivable estrictament creixent. Aleshores:
fX (x)
fY (y) = ; on x = g ¡1 (y):
g 0 (x)
2

En general, si g ¶es una funci¶o derivable amb una quantitat ¯nita o numerable d'extrems locals,
i Y = g(X), aleshores:
X fX (y)
fg(X) (t) = 0 (y)j
:
¡1
jg
y2g (t)

Exemple 2.12 Sigui X una variable aleatµoria amb distribuci¶o Exp(¸) i Y = 2X. Aleshores:
fY (y) = fX (y=2)=2 = ¸=2e¡¸y=2 ; y ¸ 0;
de manera que la distribuci¶o de Y ¶es Exp(¸=2). 2

Tamb¶e es pot obtenir `directament' l'esperan»ca de Y = g(X) en termes de la distribuci¶o de X


i g.

oria i g : R ! R. Aleshores:
Teorema 2.13 Sigui X una variable aleatµ
½ P
g(xk )P (X = xk ) si X es discreta i pren els valors x1 ; x2 ; : : : ; xk ; : : :
E(g(X)) = R 1k
¡1
g(x)fX (x)dx si X t¶e funci¶
o de densitat
(sempre que la sµerie o la integral siguin convergents). 2

En particular, la f¶ormula anterior permet escriure:


½ P r
x P (X = xk ) si X es discreta i pren els valors x1 ; x2 ; : : : ; xk ; : : :
E(X ) = R 1k kr
r
¡1
x fX (x)dx si X t¶e funci¶o de densitat
E(X r ) s'anomena el moment d'ordre r de la variable aleatµoria X. Si X t¶e valor mitjµa m =
E(X), aleshores:
½ P
(x ¡ m)r P (X = xk ) si X es discreta i pren els valors x1 ; x2 ; : : :
E((X ¡ m) ) = R 1k k
r
¡1
(x ¡ m)r fX (x)dx si X t¶e funci¶o de densitat fX
E((X ¡ m)r ) s'anomena el moment centrat d'ordre r de la variable aleatµoria X. En particular,
la variµancia de X ¶es el moment centrat de segon ordre:
V ar(X) = E((X ¡ m)2 ) = E(X 2 ) ¡ (E(X))2 :

© Els autors, 2003; © Edicions UPC, 2003


2.8 Exercicis i problemes 63

R1
Exemple 2.14 A l'exemple 2.12 es pot obtenir l'esperan»ca de Y com E(Y ) = ¡1
yfY (y)dy
o b¶e directament, ja que Y = 2X, com:
Z 1 Z 1
E(Y ) = 2xfX (x)dx = 2xe¡x dx = 2:
¡1 0
2

Per al cas particular que Y = aX + b, tenim:


E(Y ) = E(aX + b) = aE(X) + b:
V ar(Y ) = E((aX + b)2 ) ¡ (E(aX + b))2 = a2 V ar(X);
¶es a dir, les transformacions a¯ns de variables aleatµories es tradueixen en la mateixa transfor-
maci¶o del valor mitjµa. En canvi, la variancia ¶es invariant per a translacions (la dispersi¶o no
queda afectada si traslladem els valors). Per exemple, si X » N (m; ¾), aleshores E( X¡m ¾
)=0
i V ar(Y ) = 1, tal com vam veure.

2.8 Exercicis i problemes

2.8.1 Exercicis

1. Sigui N un nombre escollit a l'atzar en el conjunt f¡1; 0; 1; 2; 3g. Es considera la variable


aleatµoria X = 12 N 2 . Dibuixeu la funci¶o de distribuci¶o de X i utilitzeu-la per calcular les
probabilitats dels esdeveniments segÄ uents:
a) X · 0
b) 2 < X · 3
c) x ¸ 2
2. Refeu el problema anterior per a X = 4 cos ¼N
4
.
3. Es considera la funci¶o de densitat:
fX (x) = xe¡x u(x)
on u(x) ¶es la funci¶o de Heaviside. Trobeu la funci¶o de distribuci¶o FX i calculeu:
a) P (X · 1)
b) P (1 < X · 2)
c) P (X ¸ 2).

© Els autors, 2003; © Edicions UPC, 2003


64 2 µ
VARIABLES ALEATORIES

4. Sigui X una variable aleatµoria que pren els valors f1; 2; 3g amb distribuci¶o P (X = 1) =
0;3, P (X = 2) = 0;5 i P (X = 3) = 0;2, i considerem la nova variable aleatµoria Y = Á(X).
a) Calculeu E(X), la variµancia i la desviaci¶o t¶³pica de X.
b) Si Á(x) = x3 , calculeu la distribuci¶o de probabilitat de la variable Y i tamb¶e la mitjana,
la variµancia i la desviaci¶o t¶³pica.

2.8.2 Problemes per fer

1. Una urna cont¶e tres boles blanques i cinc de negres. Es treu una bola, es mira el color i
es torna a dipositar a l'urna.
a) Quina ¶es la probabilitat que en vuit extraccions surtin exactament cinc boles negres.
b) Quµe ¶es m¶es probable, que surtin cinc boles negres o m¶es, o que en surtin menys de
cinc?.

2. Es tiren deu monedes no trucades; quina ¶es la probabilitat que el nombre de cares que
surtin sigui menor o igual que tres? Repetiu el mateix problema amb monedes trucades
de manera que P (cara) = 35 .

3. Un servidor at¶en una petici¶o amb probabilitat p = 0;8 independentment de les altres.
Quan un usuari no ¶es atµes, torna a formular la petici¶o. Quina ¶es la probabilitat que hagi
de fer la petici¶o m¶es de tres vegades?

4. El nombre de trucades que arriben a un node de comunicaci¶o en un segon segueix una


distribuci¶o de Poisson P oiss(2). El node nom¶es pot processar un mµaxim de cinc trucades
per segon i la resta les perd. Quina ¶es la probabilitat que en un segon hi hagi alguna
trucada perduda. Quina ¶es la distribuci¶o de probabilitat del nombre de trucades perdudes.

5. La probabilitat que un canal de transmissi¶o transmeti un d¶³git erroni ¶es 0;01, indepen-
dentment dels altres. Calculeu la probabilitat que hi hagi m¶es d'un error en deu d¶³gits
rebuts. Repetiu aquest cµ
alcul utilitzant l'aproximaci¶o de Poisson.

6. En un control de qualitat s'extreuen mostres de 10 unitats d'un lot de 1:000. Si la mostra


t¶e m¶es de 2 unitats defectuoses, la mostra es declara defectuosa. Sigui o no defectuosa, es
torna la mostra al lot i se n'extreu una altra, tamb¶e de 10 unitats. Quina ¶es la probabilitat
que en 10 mostres del mateix lot en surtin almenys 8 de defectuoses si en el lot hi ha 100
unitats defectuoses.

© Els autors, 2003; © Edicions UPC, 2003


2.8 Exercicis i problemes 65

7. Una variable aleatµoria discreta pren els k valors possibles i equiprobables segÄ
uents:
0; a; 2a; ¢ ¢ ¢ ; (k ¡ 1)a:
Calculeu-ne la mitjana, el moment d'ordre dos i la desviaci¶o estµandard.
8. La intensitat d'un senyal ¶es una variable aleatµoria X amb funci¶o de densitat:
1
fX (x) = e¡jxj
2
Trobeu la funci¶o distribuci¶o FX i calculeu:
a) P (X · 0)
b) P (0 < X · 1)
c) P (X > 1).
9. Una variable aleatµoria t¶e la funci¶o de distribuci¶o segÄ
uent:
8
< 0 si x · 0
FX (x) = Kx2 si 0 < x · 10
:
100K si x > 10

a) Calculeu el valor de K.
b) Trobeu P (X · 5) i P (5 < X · 7).
c) Representeu la funci¶o de densitat fX (x).
10. El temps d'espera T ¯ns que arriba un usuari a un servidor segueix una llei exponencial
Exp(2) per a una determinada unitat de temps. Calculeu:
a) P (T < 2), P (T > 3) i P (2 < T < 3).
b) P (T > 5jT > 2).
11. Si X ¶es una variable aleatµoria normal N (10; 500), calculeu P (X > 20), P (10 < X · 20),
P (0 < X · 20) i P (X > 0) (feu servir les taules de la distribuci¶o normal).
12. Un voltatge determinat es pot modelar com una variable aleatµoria normal N(0; 9). De-
termineu el valor de c de manera que p = P (j X j< c) valgui:
a) p = 0;9.
b) p = 0;99.
13. La demanda mensual d'ordinadors al centre comercial COMPC es troba aproximada per
una variable aleatµoria normal amb ¹ = 200 i una desviaci¶o estµandard de 40 unitats. Quina
grandµaria ha de tenir l'inventari disponible a principi de mes perquµe la probabilitat que
les existµencies s'esgotin no sigui m¶es gran que 0;05?

© Els autors, 2003; © Edicions UPC, 2003


66 2 µ
VARIABLES ALEATORIES

14. El diµametre d'una determinada pe»ca que s'utilitza per a la fabricaci¶o d'avions es troba,
de manera aproximada, distribuijt normalment com N (3;5; 0;02). Si el diµametre no pot
ser m¶es petit que 3;47 ni m¶es gran que 3;53, quin ¶es el percentatge de peces que s'hauran
de llan»car?
15. Si la vida X d'un tipus de bateria per a un cotxe estµa normalment distribuijda amb un
valor mitjµa m = 4 anys i una desviaci¶o estµandard ¾ = 1 any, i el fabricant d¶ona una
garantia de 3 anys (si la bateria s'espatlla abans que s'acabi la garantia, el fabricant ha
de substituir la bateria)
a) quin tant per cent de bateries haurµa de substituir el fabricant?
b) si nom¶es vol substituir un 2; 28% de bateries, quina garantia caldrµa que doni?
16. Una variable aleatµoria binomial es pot aproximar per una normal quan n ¶es `gran', amb
el mateix valor mitjµa i la mateixa variµancia. Es llan»ca una moneda cent vegades. Feu
servir l'aproximaci¶o normal per calcular la probabilitat que:
a) Surtin m¶es de seixanta cares.
b) El nombre de cares obtingudes sigui m¶es gran que quaranta i m¶es petit que seixanta.
17. El nombre d'accidents per setmana en una cruijlla de la N-II segueix una distribuci¶o de
Poisson de parµametre 4. Fent servir l'aproximaci¶o de la normal calculeu la probabilitat
que hi hagi menys de 200 accidents en un any.
18. En un joc es llancen tres daus. El jugador aposta n euros per un n¶ umero i rep 2n euros
si surt una vegada aquest n¶umero, 3n si surt dues vegades i 4n si surt 3 vegades. Si no
surt el n¶
umero apostat, perd l'aposta. Quµe ¶es millor, apostar o fer de banca?
19. El passeig aleatori unidimensional es pot descriure de la manera segÄ uent: Un home begut
camina per una vorera molt estreta fent passes de longitud constant igual a L. Fa una
passa endavant amb una probabilitat p = 34 o endarrere amb una probabilitat 1 ¡ p = 14 .
Denotem X la distµancia del punt on estµa despr¶es de fer cent passes des del punt de sortida.
Calculeu la mitjana i la desviaci¶o estµandard de X.

p oria binomial X » Bin(8; 0;5). Doneu la distribuci¶o de proba-


20. Sigui X una variable aleatµ
bilitat de Y = (X ¡ 4)= 2. Calculeu-ne el valor mitjµa i la seva variµancia.
21. Sigui X una variable aleatµoria exponencial Exp(1). Sigui h(x) = dxe, on dxe denota el
m¶³nim enter m¶es gran o igual que x (per exemple, d3:4e = 4). Doneu la distribuci¶o de
probabilitat de Y = h(X).
22. Sigui X una variable aleatµoria uniformement distribuijda sobre l'interval [¡1; 3]. Trobeu i
representeu la funci¶o de densitat de la nova variable Z de¯nida en els casos segÄuents per:
p
a) Z = 3 X + 1.
b) Z = 3 j X j.

© Els autors, 2003; © Edicions UPC, 2003


2.8 Exercicis i problemes 67

23. Es considera una variable aleatµoria X amb funci¶o de densitat:

fX (x) = 2e¡2x u(x)

a) Calculeu la funci¶o de densitat d'una nova variable aleatµoria Z de¯nida per Z = 3X ¡5.
b) Representeu sobre els mateixos eixos els grµa¯cs de les dues funcions de densitat.

24. Sigui X una variable aleatµoria de valor mitjµa m i desviaci¶o t¶³pica ¾. Calculeu el valor
mitjµa i la desviaci¶o t¶³pica de Y = (X ¡ m)=¾.

25. Sigui X una variable aleatµoria normal N(m; ¾).


a) Determineu la distribuci¶o de probabilitat de Y = aX + b, on a; b 2 R.
a) Si m = 0 i ¾ = 1, determineu la funci¶o de densitat de Y = X 2 . (La distribuci¶o
corresponent s'anomena Â2 amb un grau de llibertat, i ¶es freqÄ
uent en estad¶³stica.)

© Els autors, 2003; © Edicions UPC, 2003


© Els autors, 2003; © Edicions UPC, 2003
69

3 Vectors aleatoris

3.1. Vectors aleatoris. Funci¶o de distribuci¶o de probabilitat


3.2. Distribucions bidimensionals discretes
3.3. Distribucions bidimensionals cont¶³nues
3.4. Variables aleatµories independents
3.5. Distribucions condicionades
3.6. Distribuci¶o de la suma de dues variables aleatµories
3.7. Parµametres estad¶³stics: covariµancia i correlaci¶o
3.7.1. Distribuci¶o normal multidimensional
3.8. Exercicis i problemes

Els vectors aleatoris, o variables aleatµ


ories multidimensionals, identi¯quen esdeveni-
ments amb una col¢lecci¶ o de n¶
umeros (vectors). Aquest constitueix el marc natural
per tractar problemes d'estad¶³stica i processos aleatoris. A m¶es, en aquest context
es poden introduir les nocions fonamentals d'independµencia i condicionament entre
variables aleatµ
ories. Entre els parµ ametres estad¶³stics de vectors aleatoris, s'intro-
dueixen les nocions de covariµ ancia i el coe¯cient de correlaci¶
o, lligats als problemes
d'estimaci¶
o estad¶³stica.

3.1 Vectors aleatoris. Funci¶


o de distribuci¶
o de probabilitat.

Un vector aleatori n-dimensional ¶es una n-tupla X = (X1 ; : : : ; Xn ) on cada cada component ¶es
una variable aleatµoria unidimensional.

© Els autors, 2003; © Edicions UPC, 2003


70 3 VECTORS ALEATORIS

Per exemple, si tirem tres vegades una moneda i observem el resultat de les tres tirades, l'ex-
periµencia es pot descriure pel vector aleatori X = (X1 ; X2 ; X3 ), on Xi val 0 si surt cara a la
tirada i i val 1 si hi surt creu, i = 1; 2; 3. Els possibles valors del vector X s¶on:

(0; 0; 0); (0; 0; 1); (0; 1; 0); (0; 1; 1); (1; 0; 0); (1; 0; 1); (1; 1; 0); (1; 1; 1);

cadascun dels quals t¶e probabilitat 1=8.


En endavant ens restringirem per simplicitat a les variables bidimensionals. Les de¯nicions i
els resultats s'estenen fµacilment a vectors de m¶es dimensions.
Com en el cas unidimensional, la distribuci¶o de probabilitat s'identi¯ca per mitjµa de la funci¶o
de distribuci¶o:
Sigui (X; Y ) un vector aleatori. La seva funci¶
o de distribuci¶
o (de probabilitat) ¶es:

FXY : R2 ! R;

de¯nida com:
FXY (x; y) = P (X · x; Y · y);
on (X · x; Y · y) ¶es una notaci¶o abreujada de fX · xg \ fY · yg. Es ¶ a dir, la funci¶o de
probabilitat en un punt (x; y) del pla d¶ona la probabilitat de tots els valors del vector (X; Y )
inclosos a la regi¶o ratllada de la ¯gura 3:

(x; y)
r

Figura 3: FXY (x; y) ¶es la probabilitat dels valors de (X; Y ) en l'µarea ombrejada

Cadascuna de les funcions de distribuci¶o FX ; FY dels components de (X; Y ) s'anomena funci¶o


de distribuci¶
o marginal, i FXY ¶es la funci¶
o de distribuci¶
o conjunta de les variables X; Y .
Per obtenir la distribuci¶o marginal de X a partir de la distribuci¶o conjunta FXY , tenim:

FX (x) = P (X · x) = P (X · x; Y · 1) = lim FXY (x; y) = FXY (x; 1):


y!1

© Els autors, 2003; © Edicions UPC, 2003


3.1 Vectors aleatoris. Funci¶
o de distribuci¶
o de probabilitat. 71

En canvi, a partir de les distribucions marginals FX i FY no sempre es pot obtenir la funci¶o


de distribuci¶o conjunta (vegeu m¶es endavant les seccions d'independµencia i distribucions condi-
cionades).

Exemple 3.1 Tenim una urna amb dues boles blanques i tres boles negres. Traiem dues boles
a l'atzar i denotem X la variable aleatµoria que compta el nombre de boles blanques que extraiem
i Y el nombre de boles negres. Aleshores, la funci¶o de distribuci¶o del vector (X; Y ), o distribuci¶o
conjunta de les dues variables, estµa donada a la taula segÄ uent:

Y nX 0 1 2
0 0 0 3/10
1 0 6/10 6/10
2 1/10 7/10 1

A la posici¶o (i; j) de la taula hi ha FXY (i; j) = P (X · i; Y · j). Per exemple:


¡2¢¡3¢ ¡2¢¡3¢
7
FXY (1; 2) = P (X · 1; Y · 2) = P (X = 1; Y = 1) + P (X = 0; Y = 2) = 1¡5¢1 + 2¡5¢0 = :
2 2
10
La distribuci¶o marginal de X en el punt 1 ¶es:
FX (1) = FXY (1; 1) = P (X · 1; Y < 1) = P (X · 1; Y · 2) = FXY (1; 2) = 7=10:
La funci¶o de distribuci¶o marginal de X ¶es
8
>
> 0 x<0
<
1=10 0·x<1
FX (x) =
>
> 7=10 1·x<2
:
1 2·x
2

Com en el cas unidimensional, la funci¶o de distribuci¶o conjunta FXY permet obtenir la probabili-
tat que les dues variables aleatµories X i Y prenguin valors en un rectangle. Si R ¶es un rectangle
de vµertexs (x1 ; y1 ); (x1 ; y2 ); (x2 ; y1 ); (x2 ; y2 ), on x1 < x2 i y1 < y2 , aleshores (comproveu-ho
grµa¯cament):
P (x1 < X · x2 ; y1 < Y · y2 ) = FXY (x2 ; y2 ) ¡ FXY (x2 ; y1 ) ¡ FXY (x1 ; y2 ) + FXY (x1 ; y1 ):

La funci¶o de distribuci¶o t¶e l'avantatge d'estar de¯nida per qualsevol vector aleatori. A la
prµactica, perµo, per a vectors els components del qual s¶on tots variables aleatµories discretes o
tots cont¶³nues, resulta m¶es cµomode fer servir altres descripcions de la distribuci¶o de probabilitat,
com veurem a continuaci¶o.

© Els autors, 2003; © Edicions UPC, 2003


72 3 VECTORS ALEATORIS

3.2 Distribucions bidimensionals discretes

Un vector aleatori (X; Y ) ¶es discret si ho ¶es casdascun dels seus components X; Y .
Si la variable X prµen els valors fa1 ; a2 ; a3 ; : : : g i la variable Y els valors fb1 ; b2 ; b3 ; : : : g, la funci¶o
de probabilitat conjunta del vector aleatori discret (X; Y ) ¶es la aplicaci¶o:

PXY (ai ; bj ) = P (X = ai ; Y = bj );

on la notaci¶o (X = ai ; Y = bj ) ¶es la descripci¶o abreujada del succ¶es fX = ai g \ fY = bi g.


La funci¶o de probabilitat de cada una de les variables X i Y s'anomena tamb¶e funci¶o de
probabilitat marginal de PXY . Per obtenir-les de la distribuci¶o conjunta:
X
P (X = ai ) = [j¸1 P (X = ai ; Y = bj ) = PXY (X = ai ; Y = bj ); i = 1; 2; : : :
j¸1
X
P (Y = bj ) = [i¸1 P (X = ai ; Y = bj ) = PXY (X = ai ; Y = bj ); j = 1; 2; : : :
i¸1

Exemple 3.2 Tenim una urna amb quarte boles blanques, tres de negres i una de vermella.
Traiem dues boles i denotem X la variable aleatµoria que compta el nombre de boles blanques
a la mostra i Y el nombre de boles negres. La funci¶o de probabilitat conjunta de X i Y ¶es:

XnY 0 1 2
0 0 3=28 3=28
1 4=28 12=28 0
2 6=28 0 0

i la distribuci¶o marginal de X ¶es:

P (X = 0) = P (X = 0; Y = 0) + P (X = 0; Y = 1) + P (X = 0; Y = 2) = 6=28
P (X = 1) = P (X = 1; Y = 0) + P (X = 1; Y = 1) + P (X = 2; Y = 2) = 16=28
P (X = 3) = P (X = 3; Y = 0) + P (X = 3; Y = 1) + P (X = 3; Y = 2) = 6=28

L'exemple m¶es important de distribuci¶o bidimensional discreta ¶es la distribuci¶o trinomial. El


model probabil¶³stic d'aquesta distribuci¶o ¶es una generalitzaci¶o del model binomial. Aqu¶³ tenim
tres esdeveniments, A1 ; A2 i A3 , que formen una partici¶o de l'espai mostral, amb probabilitats
p1 = P (A1 ); p2 = P (A2 ) i p3 = P (A3 ) = (1 ¡ p2 ¡ p3 ). Repetim n vegades independentment
l'experiµencia associada a l'espai mostral i denotem X1 el nombre de vegades que apareix A1

© Els autors, 2003; © Edicions UPC, 2003


3.3 Distribucions bidimensionals cont¶³nues 73

i X2 el nombre de vegades que apareix A2 . La resta, n ¡ X1 ¡ X2 , ¶es el nombre de vegades


que apareix A3 . La distribuci¶o conjunta de X1 i X2 ¶es la que s'anomena distribuci¶o trinomial.
Amb un argument similar al que proporciona la funci¶o de probabilitat de la variable aleatµoria
binomial obtenim:
n!
P (X1 = n1 ; X2 = n2 ) = pn1 pn2 (1 ¡ p1 ¡ p2 )n¡n1 ¡n2 ; 0 · n1 + n2 · n:
n1 !n2 !(n ¡ n1 ¡ n2 )! 1 2
Escrivim (X1 ; X2 ) » T rin(n; p1 ; p2 ).

Exemple 3.3 A cada cop de rellotge un processador pot estar en un dels estats segÄ uents: E1
en repµos, E2 en processament intern i E3 accedint a memµoria. Estµa en repµos amb probabilitat
p1 = 0;5 i en processament intern amb probabilitat p2 = 0;2 independentment del seu estat
en altres instants. Quina ¶es la probabilitat que en 10 cops de rellotge estigui 3 vegades en
processament intern i 4 en repµos?
Tenim (X1 ; X2 ) » T rin(n; p1 ; p2 ), on X1 compta el nombre de vegades que el processador estµ
a
en repµos i X2 el nombre de vegades que estµa en processament intern. Aleshores:
10!
P (X1 = 4; X2 = 3) = (0;5)4 (0;2)3 (0;3)3 ' 0;0567:
3!4!3!
2

Si (X1 ; X2 ) » T rin(n; p1 ; p2 ) aleshores cadascuna de les distribucions marginals segueix una llei
binomial: X1 compta el nombre d'ocurrµencies de A1 en n repeticions independents, de manera
que X1 » Bin(n; p1 ). De forma semblant, X2 » Bin(n; p2 ).

3.3 Distribucions bidimensionals cont¶³nues

Un vector aleatori (X; Y ) ¶es continu si ho s¶on els seus components, X i Y . Com en el cas
unidimensional, les distribucions cont¶³nues s'identi¯quen normalment amb la funci¶o de densitat.
Si la funci¶o de distribuci¶o conjunta ¶es dues vegades derivable, aleshores la funci¶o de densitat
conjunta de X i Y ¶es:
@ 2 FXY
fXY (x; y) = (x; y):
@x@y

Rec¶³procament, si es disposa de la funci¶o de densitat conjunta fXY , aleshores la funci¶o de


distribuci¶o s'obt¶e com: Z x Z y
FXY (x; y) = fXY (u; v) dv du:
¡1 ¡1

© Els autors, 2003; © Edicions UPC, 2003


74 3 VECTORS ALEATORIS

En particular, se satisfµa: Z Z
1 1
fXY (u; v) dv du = 1:
¡1 ¡1

Qualsevol funci¶o integrable f : R2 ! R de dues variables que satisfaci:


² f(x; y) ¸ 0 per a tot (x; y) 2 R2 i
R1 R1
² ¡1 ¡1 f (x; y) dy dx = 1

¶es la funci¶o de densitat d'un vector aleatori bidimensional.


En general, quan es disposa de la funci¶o de densitat conjunta de X i Y , les probabilitats es
poden obtenir per integraci¶o:
Z a2 Z b2
P (a1 < X < a2 ; b1 < Y < b2 ) = fXY (x; y) dy dx:
a1 b1

Si R ¶es qualsevol regi¶o mesurable del pla (¶es a dir, que es pugui integrar sobre aquesta regi¶o),
aleshores: ZZ
P ((X; Y ) 2 R) = fXY :
R
D'aquesta manera, la funci¶o de densitat permet obtenir per integraci¶o la probabilitat que el
vector aleatori (X; Y ) prengui valors en R.

Exemple 3.4 Escollim un punt a l'atzar al triangle T de vµertexs (0; 0); (1; 0) i (0; 1). Denotem
(X; Y ) les coordenades del punt que hem obtingut. Com que tots els punts del triangle tenen
la mateixa probabilitat, la densitat de probabilitat ¶es constant en el triangle, ¶es a dir:
½
k (x; y) 2 T
fXY =
0 (x; y) 6 2T
RR
on k ¶es una constant. Com que R2 fXY ha de valer 1, i aquesta integral val k ¢ Area(T ), ha
de ser k = 2.
La probabilitat que el punt que hem escollit tingui una abscissa m¶es petita que 1=2 i una
ordenada m¶es gran que 1=2, per exemple, es pot obtenir integrant en la regi¶o corresponent la
funci¶o de densitat:
Z 1=2 Z 1
P (X < 1=2; Y > 1=2) = fXY (x; y) dx dy =
x=¡1 y=1=2
Z 1=2 Z 1¡x Z 1=2
= 2 dx dy = 2 (1=2 ¡ x)dx = 1=4;
x=0 y=1=2 x=0

(Comproveu amb un dibuix els l¶³mits d'integraci¶o.) 2

© Els autors, 2003; © Edicions UPC, 2003


3.3 Distribucions bidimensionals cont¶³nues 75

Cadascuna de les funcions de densitat dels components de (X; Y ) s'anomena densitat marginal
de fXY . Les funcions de densitat marginals es poden obtenir de fXY fent:
Z 1 Z 1
fX (x) = fXY (x; y) dy; fY (y) = fXY (x; y) dx:
¡1 ¡1

En canvi, en general les funcions de densitat marginal no permeten obtenir la densitat conjunta.

Exemple 3.5 Seguint amb l'exemple anterior de la distribuci¶ o de les coordenades d'un punt
escollit a l'atzar en el triangle T , la densitat marginal de X ¶es:
Z 1 Z 1¡x
fX (x) = fXY (x; y) dy = 2dy = 2y j1¡x
0 = 2(1 ¡ x); x 2 (0; 1):
¡1 0

Observeu que els l¶³mits d'integraci¶o depenen del valor de la variable x: per a cada x 2 (0; 1), la
funci¶o de densitat nom¶es ¶es diferent de 0 per a valors de y entre 0 i 1 ¡ x. De manera similar,
la distribuci¶o de Y ¶es:
Z 1 Z 1¡y
fY (y) = fXY (x; y) dx = 2dy = 2x j1¡y
0 = 2(1 ¡ y); y 2 (0; 1):
¡1 0

Les distribucions de probabilitat cont¶³nues bidimensionals m¶es comunes s¶on:

² Distribuci¶o uniforme en una regi¶o R del pla, (X; Y ) » U (R). La seva funci¶o de densitat
¶es constant a la regi¶o. Com que la integral sobre tot el pla de fXY ha de ser 1, aleshores:
½ 1
Area(R)
(x; y) 2 R
fXY (x; y) =
0 (x; y) 6
2 R:

Aquesta distribuci¶o equival a prendre un punt a l'atzar a la regi¶o R. L'exemple 3.5


anterior n'¶es un de distribuci¶o uniforme.

² Distribuci¶o normal bidimensional, (X; Y ) » N (m; K). Aquesta distribuci¶o ¶es la gene-
ralitzaci¶o de la normal unidimensional. En particular, les distribucions marginals de X
i de Y s¶on normals. Els parµametres de la distribuci¶o s¶on m = (E(X); E(Y )) i K ¶es
una matriu quadrada que t¶e per entrades parµametres estad¶³stics del vector (X; Y ), que
veurem en una secci¶o posterior. En aquella secci¶o analitzarem la distribuci¶o normal amb
m¶es detall.

© Els autors, 2003; © Edicions UPC, 2003


76 3 VECTORS ALEATORIS

3.4 Variables aleatµ


ories independents

La noci¶o d'independµencia de successos es trasllada de forma natural a la independµencia de


variables aleatµories. Dues variables aleatµories X; Y s¶on independents si els successos `X pren
valors al conjunt A' i `Y pren valors al conjunt B' s¶on independents per a qualsevol tria de A i
B. En altres paraules, la probabilitat que una d'elles prengui determinats valors no s'altera pels
valors que prµen l'altra. De forma m¶es precisa, les variables aleatµories X i Y s¶on independents
si:
FXY (x; y) = FX (x)FY (y):
De forma equivalent, la funci¶o de probabilitat conjunta ¶es el producte de funcions de probabilitat
marginals:
P (X = ai ; Y = bj ) = P (X = ai )P (Y = bj )
si les variables s¶on discretes, i la funci¶o de densitat conjunta ¶es producte de funcions de densitat
marginals si s¶on cont¶³nues:
fXY (x; y) = fX (x)fY (y):
Nom¶es quan hi ha independµencia es pot obtenir la distribuci¶o conjunta de les distribucions
marginals. Si no hi ha independµencia, aleshores les distribucions conjuntes depenen de les
marginals i de la relaci¶o de dependµencia entre les dues variables.
Exemple 3.6 Tirem un dau dues vegades i denotem X el nombre de resultats parells que
obtenim. Denotem Y el nombre de resultats inferiors a 5 que obtenim. Tenim:

XnY 0 1 2 P(X=i)
0 1/36 4/36 4/36 9/36
1 2/36 8/36 8/36 18/36
2 1/36 4/36 4/36 9/36
P(Y=j) 4/36 16/36 16/36

Com podem comprovar, per a cada parell de valors i; j, tenim P (X = i; Y = j) = P (X =


i)P (Y = j), de manera que les dues variables s¶on independents. 2

Exemple 3.7 Tirem un dau i denotem X la variable aleatµoria que val 1 si el resultat ¶es parell
i 0 si ¶es senar. Denotem Y la variable aleatµoria que val 1 si la puntuaci¶o ¶es m¶es gran que 1 i
val 0 altrament. La funci¶o de probabilitat conjunta de les dues variables ¶es:

P (X = 0; Y = 0) = 1=6;
P (X = 0; Y = 1) = 1=3;
P (X = 1; Y = 0) = 0;
P (X = 1; Y = 1) = 1=2:

© Els autors, 2003; © Edicions UPC, 2003


3.5 Distribucions condicionades 77

Les funcions de probabilitat marginals de X i de Y s¶on:

P (X = 0) = P (X = 1) = 1=2; P (Y = 0) = 1=6; P (Y = 1) = 5=6:

Per tant, P (X = 0; Y = 0) 6 = P (X = 0)P (Y = 0) i les dues variables no s¶on independents. Si


sabem que el resultat ¶es m¶es gran que 1 (Y = 1), la probabilitat que sigui parell ¶es m¶es gran
que no pas si no ho ¶es (Y = 0). 2

Exemple 3.8 Sigui (X; Y ) un vector aleatori que segueix una distribuci¶o T rin(10; 0;3; 0;2). Si
X = 10 aleshores for»cosament Y = 0, ¶es a dir, P (Y = 0jX = 10) = 1. En canvi, si X = 0
aleshores P (Y = 0jX = 0) = ( 0;5
0;7
)10 6
= 1. Per tant, els valors de X alteren les probabilitats que
Y = 0 i les dues variables no s¶on independents. 2

Exemple 3.9 Siguin (X; Y ) les coordenades d'un punt triat a l'atzar al rectangle R = [0; 1] £
[0; 1]. La funci¶o de distribuci¶o conjunta ¶es fXY (x; y) = 1 per a (x; y) 2 R (i 0 per a (x; y) 2
= R).
Les distribucions marginals s¶on fX (x) = 1; x 2 [0; 1] i fY (y) = 1; y 2 [0; 1]. Per tant,
fXY (x; y) = fX (x)fY (y) en tots els punts i les dues variables s¶on independents. 2

3.5 Distribucions condicionades

Quan dues variables aleatµories (X; Y ) no s¶on independents, la relaci¶o de dependµencia queda
determinada per la distribuci¶
o condicionada. Si les variables s¶on discretes, la funci¶o de proba-
bilitat de X condicionada a Y ¶es:
P (X = ai ; Y = bj )
PXjY (ai jbj ) = P (X = ai jY = bj ) = ; si P (Y = bj ) 6
= 0:
P (Y = bj )

La funci¶o de probabilitat condicionada ¶es una probabilitat i, per tant, satisfµa totes les propietats
d'una probabilitat. Per exemple, si P (Y = b) 6 = 0:

P (X = ajY = b) = 1 ¡ P (X 6
= ajY = b)
P (X · ajY = b) · P (X · a + 1jY = b)
P (X < 1jY = b) = 1
P (X < ¡1jY = b) = 0:

© Els autors, 2003; © Edicions UPC, 2003


78 3 VECTORS ALEATORIS

Tractant-se d'una probabilitat condicionada, satisfµa tamb¶e la f¶ormula de la probabilitat total,


que en llenguatge de variables aleatµories s'escriu:
X
P (X = xk ) = P (X = xk jY = yj )P (Y = yj );
j¸0

si la variable Y pren els valors y1 ; y2 ; : : : .


Exemple 3.10 Tornant a l'exemple 3.7, la funci¶o de probabilitat de X condicionada a Y = 0
¶es:
P (X = 0; Y = 0)
P (X = 0jY = 0) = = 1:
P (Y = 0)
Com que la probabilitat condicionada ¶es tamb¶e una probabilitat, P (X = 1jY = 0) = 1¡P (X =
0jY = 0) = 0. Observeu, en canvi, que P (X = 0jY = 0) + P (X = 0jY = 1) = 1 + 2=5 6 = 1. 2

Exemple 3.11 El nombre X de peticions que arriben a un servidor per minut segueix una
distribuci¶o de Poisson de valor mitjµa 5. Cada petici¶o es cursa correctament amb probabilitat
p = 0;8 independent de les altres. Quina ¶es la distribuci¶o de probabilitat del nombre Y de
peticions cursades correctament en un minut?
En aquesta situaci¶o, si coneixem el nombre X = m de peticions que arriben al servidor,
aleshores el nombre Y jX = m de peticions cursades correctament segueix una distribuci¶o
binomial Bin(m; p): µ ¶
m k
P (Y = kjX = m) = p (1 ¡ p)m :
k
D'acord amb l'equaci¶o anterior:
µ ¶
m k ¸m
P (X = m; Y = k) = P (Y = kjX = m)P (X = m) = p (1 ¡ p)m e¡¸ ;
k m!
d'on, per a k ¸ 0 (tenint en compte que P (X = m; Y = k) = 0 si m < k i el desenvolupament
en sµerie de potµencies de la funci¶o exponencial):
X X m! ¸m
P (Y = k) = P (X = m; Y = k) = pk (1 ¡ p)m¡k e¡¸
m¸0
k!(m ¡ k)! m!
m¸k

1 k k ¡¸ X (1 ¡ p)m¡k ¸m¡k
= p ¸ e
k! m¸k
(m ¡ k)!
1 1
= (p¸)k e¡¸ e(1¡p)¸ = (p¸)k e¡¸p :
k! k!
De manera que obtenim el resultat segons com natural que Y segueix una distribuci¶o de Poisson
amb valor mitjµa ¸p = 5(0;8) = 4. 2

© Els autors, 2003; © Edicions UPC, 2003


3.5 Distribucions condicionades 79

Si les dues variables s¶on cont¶³nues, la densitat de X condicionada a Y = y ¶es:

fXY (x; y)
fXjY (xjy) = ; si fY (y) 6
= 0:
fY (y)

Exemple 3.12 Considerem la variable aleatµoria bidimensional (X; Y ) amb distribuci¶o uni-
forme al triangle T de vµertexs (0; 0); (1; 0); (0; 1). La funci¶o de densitat conjunta i les densitats
marginals s¶on:
½
2 (x; y) 2 T
fXY (x; y) =
0 (x; y) 62T
½
2(1 ¡ x) x 2 [0; 1]
fX (x) =
0 x62 [0; 1]
½
2(1 ¡ y) y 2 [0; 1]
fY (y) =
0 y6 2 [0; 1]

La distribuci¶o de X condicionada a Y = 1=4 ¶es:


½
fXY (x; 1=4)) 4=3 x 2 [0;3=4]
fXjY (xj1=4) = =
fY (1=4) 0 x26[0;3=4]

i la probabilitat que X · 1=2 si Y = 1=4 ¶es:


Z 1=2 Z 1=2
P (X · 1=2jY = 1=4) = fXjY (xj1=4)dx = 4=3dx = 2=3:
x=¡1 x=0

De les relacions anteriors es pot obtenir la distribuci¶o conjunta quan es coneixen les marginals
i les condicionades:
fXY (x; y) = fXjY (xjy)fY (y);
i, en particular, es pot obtenir la densitat marginal de X a partir de la densitat condicionada
fXjY , i la densitat de fY de Y en una expressi¶o que es pot interpretar com la versi¶o cont¶³nua
de la f¶ormula de la probabilitat total:
Z 1 Z 1
fX (x) = fXY (x; y)dy = fXjY (xjy)fY (y)dy:
y=¡1 y=¡1

Exemple 3.13 La durada T d'una comunicaci¶o telefµonica segueix una distribuci¶o exponencial
amb un valor mitjµa de mig minut. La informaci¶o I transmesa durant una comunicaci¶o de

© Els autors, 2003; © Edicions UPC, 2003


80 3 VECTORS ALEATORIS

durada t segueix una distribuci¶o exponencial de valor mitjµa 2t (en una determinada unitat de
mesura). Quina ¶es la distribuci¶o conjunta de les variables T; I?
D'acord amb la f¶ormula anterior, per a t ¸ 0 i x ¸ 0:
1 ¡x=2t ¡2t 1 ¡(x+4t2 t)=2t
fT I (t; x) = fIjT =t (x)fT (t) = ¸I e¡¸I x ¸T e¡¸T t = e 2e = e ;
2t t
2

Un parµametre important relatiu a les distribucions condicionades ¶es el d'esperan»ca condi-


cionada. L'esperan»ca d'una variable aleatµoria X condicionada al valor Y = m d'una altra
variable ¶es el valor mitjµa de X quan Y = y. El valor de l'esperan»ca condicionada de X a un
valor y de Y es pot obtenir a trav¶es de la distribuci¶o condicionada com:
X
E(XjY = y) = kP (X = kjY = y);
k

si X ¶es discreta, i Z 1
E(XjY = m) = xfXjY =y (x) dx;
¡1
si ¶es cont¶³nua. El que s'ent¶en per esperan»ca de X condicionada a Y , perµo, ¶es encara una altra
variable aleatµoria, denotada E(XjY ), que ¶es una funci¶o de Y que assigna a cada valor y el valor
E(XjY = m).
E(XjY ) = g(Y ); ong(y) = E(XjY = y):
Per trobar-ne la distribuci¶o cal fer servir els mµetodes per obtenir la distribuci¶o d'una funci¶o
d'una variable aleatµoria que s'han vist anteriorment. El concepte pot semblar complex, perµ o
un exemple aclarirµa segurament el procediment de cµalcul.

Exemple 3.14 A l'exercici 3.11, l'esperan»ca del nombre de peticions cursades correctament
quan s'han rebut m peticions al servidor ¶es E(Y jX = m) = mp = (0;8)m. L'esperan»ca de Y
condicionada a X ¶es, doncs:
E(Y jX) = 0;8X:
La distribuci¶o de probabilitat d'aquesta esperan»ca condicionada ¶es, doncs, P (E(Y jX) = y) =
P (0;8X = y) = P (X = y=0;8): Per exemple, P (E(Y jX) = 0;8) = P (X = 1) = 5e¡5 . 2

a de E(Y jX) ¶es E(0;8X) = 0;8E(X) = 4,


Observeu que, en l'exemple anterior, el valor mitjµ
que coincideix amb E(Y ) (recordem que Y segueix una distribuci¶o de Poisson de parµamete 4).
Aquest ¶es un resultat general important:
E(E(Y jX)) = E(Y ):
La identitat anterior pot proporcionar una alternativa per calcular indirectament l'esperan»ca
d'una variable aleatµoria.

© Els autors, 2003; © Edicions UPC, 2003


3.6 Distribuci¶
o de la suma de dues variables aleatµories 81

Exemple 3.15 A l'exemple 3.13, el valor mitjµa de la quantitat d'informaci¶o que es rep ¶es
(tenint en compte que IjT = t segueix una llei exponencial de valor mitjµa 2t, d'on E(IjT ) = 2T ):

E(I) = E(E(IjT )) = E(2T ) = 2E(T ) = 4;

que resulta m¶es fµacil de calcular que trobar primer la distribuci¶o marginal de I i d'aqu¶³ el seu
valor mitjµa. 2

3.6 Distribuci¶
o de la suma de dues variables aleatµ
ories

Entre les operacions que es poden fer amb variables aleatµories, una de les m¶es importants
¶es la suma. Estudiarem aqu¶³ com es pot obtenir la distribuci¶o de la suma de dues variables
aleatµories cont¶³nues. Si (X; Y ) s¶on variables cont¶³nues amb funci¶o de densitat conjunta fXY i
posem Z = X + Y , aleshores:
Z 1 Z z¡y
FZ (z) = P (Z · z) = P (X + Y · z) = fXY (x; y)dxdy;
y=¡1 x=¡1

de manera que la funci¶o de densitat de Z ¶es:


Z 1
dFZ (z)
fZ (z) = = fXY (z ¡ y; y)dy:
dz y=¡1

En particular, si les dues variables s¶on independents:


Z 1 Z 1
fZ (z) = fXY (z ¡ y; y)dy = fX (z ¡ y)fY (y)dy:
y=¡1 y=¡1

Aix¶³ doncs, la densitat de la suma X + Y de dues variables aleatµories cont¶³nues independents


¶es el producte de convoluci¶o de les densitats marginals de X i de Y .

Exemple 3.16 Si X i Y s¶on dues variables aleatµ ories independents que segueixen una dis-
tribuci¶o uniforme a [¡1=2; 1=2], aleshores la densitat de la suma Z = X + Y ¶es:
8
Z 1 < 1 + z z 2 [¡1; 0]
fZ (z) = fX (z ¡ y)fY (y)dy = 1 ¡ z z 2 [0; 1]
y=¡1 :
0 z62 [¡1; 1]

que es correspon amb la convoluci¶o de dos polsos quadrats. 2

© Els autors, 2003; © Edicions UPC, 2003


82 3 VECTORS ALEATORIS

3.7 Parµ
ametres estad¶³stics: covariµ
ancia i correlaci¶
o

Com en el cas unidimensional, els parµametres estad¶³stics s¶on valors numµerics que donen infor-
maci¶o sobre la distribuci¶o de probabilitat. Per a variables aleatµories bidimensionals (X; Y ), no
nom¶es es tracta d'obtenir informaci¶o sobre el valor mitjµa i la variµancia de cada component, sin¶o
tamb¶e del grau de dependµencia entre les dues variables.
Una de les propietats essencials de l'esperan»ca ¶es la seva linealitat:

E(X + Y ) = E(X) + E(Y ):

En canvi, en general no ¶es cert que V ar(X + Y ) = V ar(X) + V ar(Y ). Aquesta igualtat ¶es
certa si hi ha un cert grau d'independµencia entre les dues variables, que s'anomena incorrelaci¶
o
i ¶es menys fort que la independµencia i que estudiem a continuaci¶o.
La mesura m¶es comuna del grau de dependµencia entre dues variables ¶es la covariµ
ancia i el que
en podr¶³em dir el seu valor normalitzat, el coe¯cient de correlaci¶
o.
La mesura de la relaci¶o entre dues variables que d¶ona la covariµancia es pot il¢lustrar amb aquest
exemple simple. Suposem que tenim els conjunts de valors

A = f(0; 6); (1; 1); (2; 5); (4; 3); (5; 5); (6; 4)g B = f(0; 1); (1; 3); (2; 4); (4; 5); (5; 5); (5; 6)g

representats a la ¯gura 3.6.


De la grµa¯ca sembla que la primera i la segona coordenades dels punts no tenen una relaci¶o
evident en el primer conjunt, mentre que en el segon les dues coordenades creixen coordinada-
ment. En la covariµancia el que es fa ¶es, per a cada punt, multiplicar les distµancies de cada
coordenada a seu valor mitjµa i fer la mitjana d'aquests productes:

(x1 ¡ mX )(y1 ¡ mY ) + (x2 ¡ mX )(y2 ¡ mY ) + : : : + (x6 ¡ mX )(y6 ¡ mY )


:
6
Si les dues coordenades creixen coordinadament, els productes tenen el mateix signe i el resultat
¶es positiu. Si la distribuci¶o dels valors de les primeres coordenades no t¶e relaci¶o amb la dels
de la segona, els signes dels productes tendeixen a compensar-se i el resultat ¶es proper a 0. A
l'exemple anterior, per la col¢lecci¶o de punts de A el resultat de l'operaci¶o ¶es 0, mentre que pels
de B ¶es 4.
Seguint aquesta idea, la covariµancia de dues variables aleatµories discretes X i Y que prenen els
valors a1 ; a2 ; a3 ; ::: i b1 ; b2 ; b3 ; : : : , respectivament, i tenen valors mitjans mx; mY , ¶es:
X
Cov(X; Y ) = (ai ¡ mX )(bj ¡ mY )P (X = ai ; Y = bj ):
i;j

© Els autors, 2003; © Edicions UPC, 2003


3.7 Parµ
ametres estad¶³stics: covariµ
ancia i correlaci¶o 83

t t

t t

mY t t mY t

t t

t t

mX mX

Si el vector (X; Y ) t¶e funci¶o de densitat fXY , aleshores:


Z 1 Z 1
Cov(X; Y ) = (x ¡ mX )(y ¡ mY )fXY (x; y) dx dy:
¡1 ¡1

En general, covariµancia de X i Y es de¯neix com:

Cov(X; Y ) = E((X ¡ mX )(Y ¡ mY )) = E(XY ) ¡ E(X)E(Y );

on mX i mY s¶on els valors mitjans de X i Y , respectivament. La darrera igualtat proporciona


una manera sovint m¶es simple de calcular la covariµancia.
Per la seva de¯nici¶o, les variµancies de X i Y poden afectar el valor de la covariµancia sense tenir
relaci¶o amb la dependµencia entre elles. Per aixµo se sol preferir el coe¯cient de correlaci¶o, que
es de¯neix com:
Cov(X; Y )
½X;Y = ;
¾X ¾Y
i es pot interpretar com la covariµancia normalitzada per les desviacions t¶³piques.
El resultat m¶es signi¯catiu amb relaci¶o a aquests parµametres ¶es el segÄ
uent:
o 3.17 Siguin X; Y variables aleatµories. Aleshores:
Proposici¶

1. ¡1 · ½X;Y · 1.

© Els autors, 2003; © Edicions UPC, 2003


84 3 VECTORS ALEATORIS

2. Si X i Y s¶
on independents, aleshores E(XY ) = E(X)E(Y ).
En particular, Cov(X; Y ) = ½XY = 0.
3. V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y ).

o lineal si j½X;Y j = 1.
Les variables X; Y s¶on incorrelades si ½X;Y = 0 i tenen correlaci¶

3.7.1 Distribuci¶
o normal multidimensional

Acabem aquest cap¶³tol tornant a la distribuci¶o normal bidimensional. La matriu de covariµancies


d'una variable aleatµoria bidimensional (X; Y ) es de¯neix com:
µ ¶
V ar(X) Cov(X; Y )
KXY = :
Cov(X; Y ) V ar(Y )
De la de¯nici¶o es desprµen que KXY ¶es una matriu simµetrica. La variable aleatµoria bidimensional
(X; Y ) segueix una distribuci¶o normal conjunta si la seva funci¶o de densitat es pot escriure com:
1 TK
fXY (x; y) = p e(x¡mX )
; XY (y¡mY )
2¼ jKXY j
µ ¶
mX
i s'escriu (X; Y ) » N(m; K), on m = ¶es el vector de valors mitjans de (X; Y ).
mY
Aquesta forma compacta d'expressar la funci¶o de densitat es pot desenvolupar per obtenir la
forma:
1
fXY (x; y) = p
2¼ (1 ¡ ½XY )2 ¾X ¾Y
( "µ ¶2 µ ¶µ ¶ µ ¶2 #)
1 x ¡ mX x ¡ mX y ¡ mY y ¡ mY
exp ¡ ¡ 2½ + :
2(1 ¡ ½2 ¾X ¾X ¾Y ¾Y

Aquesta forma relativament complexa adopta una expressi¶o simple quan les variables aleatµories
X i Y s¶on independents, ja que aleshores ½XY = 0 i
( "µ ¶2 µ ¶2 #)
1 1 x ¡ mX y ¡ mY
fXY = exp + ;
2¼¾X ¾Y 2 ¾X ¾Y

que correspon simplement al producte de les funcions de densitat de dues variables aleatµ
ories
normals N(mX ; ¾X ) i N(mY ; ¾Y ).

© Els autors, 2003; © Edicions UPC, 2003


3.8 Exercicis i problemes 85

Les propietats bµasiques de la distribuci¶o normal bidimensional, que sovint s¶on su¯cients per a
tractar problemes amb aquesta distribuci¶o, s¶on les segÄ
uents.
Si (X; Y ) » N(m; K), aleshores
² Les variables aleatµories X i Y s¶on normals N (m1 ; ¾X ) i N(m2 ; ¾Y ), respectivament.
² La distribuci¶o condicionada XjY = y ¶es normal N(m1 + ½X;Y ¾¾XY (y ¡ m1 ); ¾X
2
(1 ¡ ½2XY )).
² Les variables aleatµories X i Y s¶on independents si i nom¶es si s¶on incorrelades.

3.8 Exercicis i problemes

3.8.1 Exercicis

1. Tirem tres daus i denotem X la variable aleatµoria que compta el nombre de puntuacions
parelles i Y el nombre de puntuacions superiors a 3. Doneu la funci¶o distribuci¶o conjunta
de les dues variables X i Y .
2. Escollim un punt a l'atzar en el triangle de vµertexs (0; 0); (1; 0); (0; 1). Doneu la funci¶o de
distribuci¶o conjunta de les dues variables X i Y .
3. Un usuari accedeix a un servidor en un instant T aleatori a l'interval (0; 1) i formula un
nombre X de peticions al servidor, on X pot prendre cadascun dels valors 1; 2 o 3 amb la
mateixa probabilitat. Doneu la funci¶o de distribuci¶o conjunta de les dues variables (T; X).
4. Una font emet un dels s¶³mbols 0, 1 i ¤ amb probabilitats 4=10, 4=10 i 1=5, respectivament.
La font emet deu s¶³mbols de forma independent.
a) Quµe ¶es m¶es probable, que surtin quatre 0,, quatre 1 i dos ¤ o que surtin tres 0, cinc 1
i dos ¤?
b) Quina ¶es la probabilitat que el missatge emµes sigui 00001111¤?
c) Quina ¶es la probabilitat que el missatge emµes tingui quatre 0?
5. Quina ¶es la probabilitat que en escollir aleatµoriament un punt (X; Y ) al quadrat [0; 1] £
[0; 1] se satisfaci X · 2Y ?
6. Una variable aleatµoria bidimensional cont¶³nua t¶e funci¶o de densitat
½
kxe¡y 0 · x · 2; y ¸ 0
fXY (x; y) =
0 altrament

© Els autors, 2003; © Edicions UPC, 2003


86 3 VECTORS ALEATORIS

a) Determineu el valor de k.
b) Calculeu la funci¶o de distribuci¶o conjunta de X i Y als punts (0; 1); (1; 1) i (1; 0).
c) Calculeu la probabilitat que (X; Y ) prengui valors al quadrat [0; 1] £ [0; 1].
d) Determineu la funci¶o de densitat marginal de X.

7. S'escull un punt (X; Y ) a l'atzar en un disc de radi 1, centrat a l'origen. S¶on independents
les variables X i Y (abscissa i ordenada del punt, respectivament)? Quina ¶es la distribuci¶o
de X si Y = 0?

3.8.2 Problemes per fer

1. Siguin X i Y dues variables aleatµories amb funci¶o de densitat conjunta:

fX;Y (x; y) = c(x + y); 0 · x · 1; 0·y·1

i 0 a la resta del pla real.


a) Trobeu la constant c.
b) X i Y s¶on independents?
c) Trobeu la funci¶o de distribuci¶o conjunta.
d) Calculeu P (X · 12 ; Y · 34 ).

2. Prenem un nombre X a l'atzar a l'interval [0; 1]. Fixat aquest nombre, en prenem un
altre Y a l'atzar a l'interval [x; 1]. Trobeu la densitat conjunta del vector aleatori (X; Y )
i la densitat marginal de Y .

3. Siguin X i Y dos nombres independents i a l'atzar de l'interval [0; 1]. Sigui Z l'µarea del
triangle format per aquests dos nombres i l'origen. Trobeu la densitat de Z.

4. Un usuari arriba a un servidor en un instant aleatori T a l'interval [0; 1]. Si arriba a


l'instant T = t, el servidor triga un temps T 0 jT = t a donar-li servei, que segueix una
distribuci¶o exponencial de valor mitjµa t. Quina ¶es la distribuci¶o de probabilitat del temps
T 0 de servei?

5. Siguin X i Y dos nivells de soroll (en determinades unitats) de dos tipus d'interferµencies
en una l¶³nia de transmissi¶o. Si la funci¶o de densitat conjunta de probabilitat ve donada
per: ½ x+y
8000
0 · x; y · 1
f (x; y) =
0 altrament
Si el nivell de soroll observat de Y ¶es de 10, obteniu la probabilitat que el nivell de soroll
de X sigui, com a mµaxim, de 14.

© Els autors, 2003; © Edicions UPC, 2003


3.8 Exercicis i problemes 87

6. Tenim una caixa que t¶e cinc cartes numerades: 1; 1; 2; 2 i 3. Se'n treuen dues. Sigui X la
suma i Y el nombre m¶es gran de les dues.
a) Trobeu-ne la distribuci¶o de probabilitat conjunta.
b) Trobeu-ne Cov(X; Y ) i ½(X; Y ).

7. Siguin dues variables aleatµories cont¶³nues X i Y , amb la segÄ


uent funci¶o de densitat de
probabilitat conjunta:
½ 2
3
(x + y)e¡x x > 0 i 0 < y < 1
f (x; y) =
0 altrament

Trobeu-ne la covariµancia i el coe¯cient de correlaci¶o.

8. a) Si X1 ; : : : ; Xn s¶on variables aleatµories de Bernouilli B(p) independents, quina ¶es la


distribuci¶o de X = X1 + ¢ ¢ ¢ + Xn ?
b) Si X i Y s¶on dues variables binomials Bin(n; p) i Bin(m; p), respectivament, i inde-
pendents, quina ¶es la distribuci¶o de Z = X + Y ?
c) Si X i Y s¶on dues variables aleatµories de Poisson P oiss(¸), quina ¶es la distribuci¶o de
Z = X +Y?
d) Si X i Y s¶on variables aleatµories uniformes U (0; 1) independents, quina ¶es la distribuci¶o
de Z = X + Y ?
e) Si X i Y s¶on variables aleatµories normals N (0; 1) independents, quina ¶es la distribuci¶o
de Z = X + Y ?

9. Una gallina pon N ous, on N t¶e distribuci¶o de P oisson(¸). Cada ou es desenvolupa amb
probabilitat p > 0, independentment dels altres. Sigui K el nombre de pollets que surten.
Trobeu E(KjN ); E(K) i E(NjK).

10. Dos servidors tenen temps de servei T1 i T2 que segueixen distribucions exponencials
de parµametres ¸1 i ¸2 , respectivament. Un usuari es troba els dos servidors ocupats.
Denotem T la variable aleatµoria que mesura el temps ¯ns que un dels dos servidors queda
lliure.
a) Doneu la distribuci¶o de probabilitat de T i el seu valor mitjµa.
b) Quina ¶es la probabilitat que T = T1 ?

11. El temps de processament d'un paquet de dades segueix una llei exponencial de temps
mitjµa 2 segons. Si un paquet arriba en un instant X aleatori a l'interval (0; 2) (en segons),
quina ¶es la probabilitat que el paquet estigui processat abans de 3 segons?

© Els autors, 2003; © Edicions UPC, 2003


88 3 VECTORS ALEATORIS

12. Un canal de transmissi¶o estµa sotmµes a dues menes de sorolls d'intensitats X i Y , que
segueixen distribucions normals N(0; 2) i N (0; 3), respectivament (en una certa unitat de
mesura). Determineu la correlaci¶o entre el soroll total X + Y i Y i entre X + Y i X.
Quina correlaci¶o ¶es m¶es gran?

13. Tres usuaris arriben a un servidor en instants X1 , X2 i X3 distribuijts uniformement a (0; 1)


i independents. Denotem Z = maxfX1 ; X2 ; X3 g i U = minfX1 ; X2 ; X3 g. Determineu els
valors mitjans de Z i de U i el coe¯cient de correlaci¶o entre Z i U .

14. El nombre de peticions que arriben a un servidor en una unitat de temps segueix una
distribuci¶o de Poisson de valor mitjµa 4. El servidor at¶en un mµaxim de tres peticions per
unitat de temps i desestima les altres. Denotem U el nombre de peticions desestimades.
Determineu el coe¯cient de correlaci¶o entre U i X.

© Els autors, 2003; © Edicions UPC, 2003


89

4 Mostres i estimaci¶
o

4.1. Mostres
4.2. Valors poblacionals i valors mostrals
4.3. La mitjana i la variµancia mostrals
4.4. Estimadors
4.5. Intervals de con¯an»ca
4.6. Estimadors de la mitjana
4.7. La t de Student
4.8. Estimadors de la variµancia. La distribuci¶o Â2
4.9. Exercicis i problemes

L'estimaci¶o ¶es l'eina fonamental de l'estad¶³stica. En aquest cap¶³tol s'assenten les


bases de l'estimaci¶ o estad¶³stica: es de¯neixen les mostres d'una poblaci¶o, es descriuen
els estimadors m¶es habituals per als parµ ametres clµ
assics, la mitjana i la variµancia.
S'introdueixen els intervals de con¯an»ca. Finalment, s'estudien les diferents distribu-
cions signi¯catives dels diferents estimadors: la normal, la Â2 i la t de Student.

4.1 Mostres

L'estad¶³stica inductiva ¶es una de les eines m¶es u¶ tils que es fan servir avui dia en qualsevol
proc¶es en quµe la quanti¯caci¶o de dades ¶es important. Exemples com els resultats obtinguts en
un experiment cient¶³¯c, les dades observades d'un comportament al llarg d'un cert per¶³ode de
temps, les mesures observades en un producte manufacturat, etc. Com la paraula inductiva
ens indica, ens interessa poder treure conclusions a partir d'una sµerie de dades.

© Els autors, 2003; © Edicions UPC, 2003


90 4 ¶
MOSTRES I ESTIMACIO

Moltes vegades, perµo, no serµa possible accedir a tota la poblaci¶o , ¶es a dir, a totes les dades
possibles. Aixµo es pot donar per diverses raons. Per exemple, si volem estudiar l'al»caµria d'una
persona, l'ideal seria poder mesurar totes les al»caµries de totes les persones i d'aqu¶³ extreure
resultats, com l'al»caµria mitjana, etc. Perµo oµbviament aixµo ¶es impracticable. Altres vegades, la
mesura practicada comporta la destrucci¶ o del subjecte mesurat: si nosaltres volem mesurar la
resistµencia d'una bombona de butµa, podem injectar butµa a pressi¶o ¯ns que la bombona s'es-
querda, i mesurar la pressi¶o mµaxima assolida abans d'esquerdar-se. Evidentment, no podem fer
aixµo amb totes les bombones, perquµe ens en quedariem sense. Per solucionar aquests problemes
s'utilitzen les mostres.
De¯nici¶ o 4.1 Una mostra ¶es una selecci¶o parcial d'objectes que es volen estudiar, que es fa
servir per obtenir dades que serveixin per estimar els valors reals de tota la poblaci¶
o.

Per exemple, si volem esbrinar quina ¶es l'al»caµria mitjana d'una persona, triem una mostra de
100 persones, mesurem les seves al»caµries i calculem la mtjana d'aquestes 100 al»caµries. El n¶
umero
obtingut ¶es una representaci¶o de l'al»caµria mitjana de tota la poblaci¶o. O amb l'altre exemple
mencionat anteriorment, de cada 100 bombones de butµa que fabriquem, en separem una mostra
de 5, que seran destruijdes a base d'injectar-hi butµa ¯ns que s'esquerdin i anotem la pressi¶o en
la qual s'han esquerdat. Amb aquest proc¶es esperem que el valor real de la pressi¶o mµaxima
suportada per les 95 bombones restants estigui proper al valor observat en les 5 bombones de
mostra.

4.2 Valors poblacionals i valors mostrals

La distinci¶o m¶es important que cal fer en l'estudi de l'estad¶³stica inductiva mitjan»cant mostres
¶es la que hi ha entre els valors poblacionals i els valors mostrals. Tornant a l'exemple de la
mesura de l'al»caµria d'una persona de l'apartat anterior, cal tenir clara la diferµencia entre el
valor real exacte de l'al»caµria mitjana d'una persona, valor que existeix perµo que ¶es impossible
de calcular a la prµactica, i que s'anomena mitjana poblacional, i la mitjana obtinguda amb les
100 al»caµries de les 100 persones de la mostra, que seria la mitjana mostral.
De¯nici¶ o 4.2 Els valors poblacionals s¶ on els valors reals exactes que es volen calcular i que
a la prµ
actica s¶on impossibles d'obtenir, mentre que els valors mostrals s¶
on els valors obtinguts
amb la mostra, i que s¶on representacions m¶es o menys acurades dels valors poblacionals.

Observem que els valors poblacionals s¶on ¯xos i inamovibles mentre que els valors mostrals
depenen, oµbviament, de la mostra. Per exemple, la mitjana poblacional de l'al»caµria de les
persones ¶es ¯xa, mentre que l'al»caµria mostral depµen de la mostra. Aixµo justi¯ca la introducci¶o
de variables aleatµories per a l'estudi dels valors mostrals, independentment que els valors de la

© Els autors, 2003; © Edicions UPC, 2003


4.3 La mitjana i la variµ
ancia mostrals 91

poblaci¶o segueixin ells mateixos el model d'una variable aleatµoria concreta. Aixµo s'ent¶en millor
amb un exemple.
Segons estudiµavem als temes anteriors, l'al»caµria d'una persona segueix una variable aleatµoria
amb distribuci¶o normal, amb una certa mitjana ¹ i una desviaci¶o t¶³pica ¾. Aquests valors s¶on
els valors poblacionals, ¶es a dir, ¹ ¶es la mitjana poblacional i ¾ ¶es la desviaci¶o t¶³pica poblacional.
Aquests valors s¶on ¯xos i s¶on els que ens interessa estimar a base de triar mostres. Aleshores,
triem una mostra i mesurem la mitjana dels valors de la mostra. Obtenim aix¶³ una mitjana
mostral x¹n , on n ¶es el nombre d'individus de la mostra. Ara b¶e, si triem una mostra diferent,
obtindrem un valor diferent per x¹n , i canviant la mostra tantes vegades com vulguem obtindrem
molts valors diferents per x¹n . Per tant, t¶e sentit plantejar-se la distribuci¶o com a variable
aleatµoria d'aquests valors x¹n . Aquesta ¶es l'anomenada variable aleatµ oria mostral , i a priori no
t¶e per quµe coincidir amb la variable aleatµoria poblacional anterior. En aquest cap¶³tol s'estudien
aquestes variables aleatµories mostrals i la seva relaci¶o amb les variables poblacionals, com tamb¶e
quin paper fan els parµametres representatius de la variable poblacional en les variables mostrals.
Cal tenir ben present aquesta distinci¶o entre els valors poblacionals i els valors mostrals, perquµe
¶es un dels conceptes clau en estad¶³stica.

4.3 La mitjana i la variµ


ancia mostrals

Suposem que ens interessa estudiar una caracter¶³stica mesurable d'una poblaci¶o, i que aquesta
caracter¶³stica t¶e mitjana poblacional ¹ i variµancia poblacional ¾ 2 . De moment no ens interessa
quina ¶es la distribuci¶o de la variable aleatµoria poblacional sin¶o nom¶es els seus dos parµametres
m¶es importants.
De¯nici¶ o 4.3 Donada una mostra de n individus dels quals ens interessa estudiar una caracte-
r¶³stica concreta, la mitjana mostral ¶es la mitjana dels valors que pren aquesta caracter¶³stica per
als individus d'aquesta mostra. Igualment es pot de¯nir la variµancia mostral com la variµ ancia
d'aquests valors.

Tal com hem dit abans, la mitjana mostral depµen de la mostra escollida i, per tant, la podem
considerar un valor pres per una variable aleatµoria. Denotem X¹ n aquesta variable aleatµoria,
anomenada la variable aleatµoria de la mitjana mostral, que pren valors iguals a les mitjanes
dels valors obtinguts amb diferentes mostres.

Proposici¶ o 4.4 Si per a una poblaci¶ o determinada la mitjana poblacional ¶es ¹ i la variµ
ancia
2
poblacional ¶es ¾ , aleshores la variable aleatµ ¹
oria Xn de la mitjana mostral t¶e com a parµ
ametres:
¹n) = ¹ ¹n) = ¾2
E(X i V ar(X :
n

© Els autors, 2003; © Edicions UPC, 2003


92 4 ¶
MOSTRES I ESTIMACIO

Observem detingudament aquests valors, perquµe es corresponen molt b¶e amb la idea intuijtiva
que un t¶e sobre com han de funcionar aquestes observacions. El fet que la mitjana de la
variable aleatµoria mostral sigui igual a la mitjana poblacional diu que de tots els valors possibles
obtinguts per la mitjana mostral amb les diferents mostres possibles, la mitjana ¶es la mitjana
poblacional real. Aixµo ens diu que si triem diferents mostres i n'obtenim diferents mitjanes
mostrals, aquestes estaran centrades en el valor mitjµa real.
M¶es important encara ¶es el valor obtingut per la variµancia de la variable aleatµoria de la mitjana
mostral. Observeu que aquest valor apareix dividit per n, la mida de la mostra. Aixµo es
correspon amb el concepte intuijtiu que, com m¶es gran ¶es la mostra, m¶es acurat ¶es el valor.
Si triem mostres de 10 individus, obtindrem una variaci¶o molt m¶es gran de valors per a les
mitjanes mostrals que si triem mostres de 100 individus.
Exemple. Suposem que la mitjana de les al»caµries de les persones ¶es 175 cm i que la desviaci¶o
t¶³pica ¶es de 10 cm. Aixµo vol dir que si triem una persona a l'atzar la seva al»caµria estµa sotmesa
a una distribuci¶o (normal, perµo aixµo ara no ve al cas) amb mitjana 175 i desviaci¶o t¶³pica 10,
¶es a dir ¾ 2 = 100. Triem ara mostres de 5 persones i anotem la mitjana de les seves al»caµries.
Despr¶es de triar moltes mostres tindrem una sµerie de valors per a la mitjana mostral. Doncs
b¶e, aquests valors es comporten com una variable aleatµoria (ja veurem m¶es endavant quina
distribuci¶o t¶e) amb mitjana tamb¶e 175, perµo la variµancia serµa ¾ 2 =5 = 20 i la desviaci¶o t¶³pica
p
20 = 4;47.
Si ara agafem mostres de 25 persones, esperem que les mitjanes mostrals de les mostres de 25
persones siguin molt m¶es acurades. La variable aleatµoria de les mitjanes mostrals de mostres
de 25 persones t¶e, doncs, la mateixa mitjana ¹ = 175, perµo la seva variµancia ¶es ara ¾ 2 =25 = 4
¶ a dir, els valors de la mitjana mostral obtinguts amb mostres de
i la desviaci¶o t¶³pica ¶es 2. Es
25 persones estan molt m¶es a prop de 175 (a distµancia t¶³pica 2) que els valors obtinguts amb
mostres de 5 persones, que es troben a distµancia t¶³pica 4,47.
Pel que fa a la variµancia, sembla lµogic tamb¶e que si calculem les variµancies mostrals de cadascuna
de les mostres, obtinguem una bona aproximaci¶o de la variµancia poblacional. Perµo aixµo no ¶es
realment aix¶³. Triem una mostra de n elements de la nostra poblaci¶o (recordem que la mitjana
poblacional ¹ i la variµancia poblacional ¾ 2 s¶on ¯xes) i calculem-ne la seva variµancia

n
X (xi ¡ x¹n )2
s2n = :
i=1
n

Canviant de mostra ens canviarµa el valor de s2n i, per tant, un altre cop podem considerar
la variable aleatµoria de la variµancia mostral que ens d¶ona els possibles valors de la variµancia
mostral quan canviem la mostra. Aquesta variable aleatµoria l'anomenarem Sn2 . Aleshores, tenim
la proposici¶o segÄ
uent:

© Els autors, 2003; © Edicions UPC, 2003


4.4 Estimadors 93

o 4.5 La variable aleatµoria Sn2 de la variµ


Proposici¶ ancia mostral t¶e mitjana:

n¡1 2
E(Sn2 ) = ¾ :
n

Observem detingudament aquesta proposici¶o. Ens diu que, si agafem moltes mostres, agafem
les seves variµancies i en fem la mitjana, el valor al qual s'acostarµ
a no ¶es el valor de la mitjana
poblacional sin¶o un valor modi¯cat pel factor (n¡1)=n. Aixµo ve donat pel fet que, si a la mostra
hi ha n objectes, nom¶es n ¡ 1 desviacions s¶on rellevants, perquµe la n-µesima ve determinada per
les altres, ja que la suma de totes les desviacions ¶es 0.
Per tant, per obtenir una bona estimaci¶o de la variµancia, si les mostres s¶on de n objectes,
s'agafa la variµ
ancia mostral modi¯cada:

2 n
Sn¡1 = S2
n¡1 n
que elimina aquest problema.
Moltes calculadores cient¶³¯ques de les que fan cµalculs estad¶³stics porten ja una tecla determinada
per fer Sn2 i per fer Sn¡1
2
. Observem tamb¶e que Sn¡12
es pot calcular de la mateixa manera que
es calcula la variµancia perµo dividint per n ¡ 1 en comptes de n:
n
2 1 X
Sn¡1 = (xi ¡ x¹n )2 :
n ¡ 1 i=1

4.4 Estimadors

Tal com hem vist a l'apartat anterior, quan tenim una poblaci¶o que volem estudiar, i que t¶e una
mitjana i una variµancia que no coneixem, podem intentar esbrinar quins valors tenen aquests
parµametres poblacionals amb valors mostrals. Aquest ¶es el concepte fonamental d'estimador,
que ¶es el concepte abstracte que hi ha darrere dels conceptes de mitjana i variµancia mostrals.
De¯nici¶ o 4.6 Sigui X una variable aleatµ oria poblacional i que t¶e un parµ
ametre associat µ |
normalment la mitjana o la variµ ancia|. Un estimador de µ, que denotem per µ, ~ ¶es una variable
aleatµoria mostral, ¶es a dir, obtinguda de la mostra, que es fa servir per donar una aproximaci¶ o
del valor exacte de µ.

Els exemples obvis d'estimadors s¶on la mitjana mostral i la variµancia mostral que hem vist a
l'apartat anterior.

© Els autors, 2003; © Edicions UPC, 2003


94 4 ¶
MOSTRES I ESTIMACIO

Observem que un estimador ¶es una variable aleatµoria. La poblaci¶o ¶es ¯xa, amb els seus valors
poblacionals, mentre que l'estimador ¶es una variable aleatµoria mostral, que varia si canviem
la mostra. Aquesta variable aleatµoria mostral t¶e una distribuci¶o prµopia, que es farµa servir per
donar la probabilitat que el valor real estigui dintre d'un interval determinat.
Segons hem vist tamb¶e a l'apartat anterior, uns estimadors aproximen millor que altres el valor
real. Hem vist que l'estimador X ¹ n de la mitjana aproxima b¶e la mitjana poblacional, mentre
que l'estimador que un consideraria adequat per estimar la variµancia no ho ¶es perquµe d¶ona
consistentment valors m¶es petits que el valor real de la variµancia. Aixµo porta al concepte de
biaix i d'estimador esbiaixat.

o 4.7 Considerem un estimador µ~ del parµ


De¯nici¶ ametre µ.

² Diem que µ~ ¶es un estimador central o sense biaix quan E(µ)


~ = µ, ¶es a dir, quan la mitjana
de l'estimador ¶es igual al valor poblacional real.
² Quan E(µ)~ 6
= µ, diem que µ~ ¶es un estimador esbiaixat. Si E(µ)
~ < µ diem que el biaix ¶es
~ > µ, el biaix ¶es positiu.
negatiu, mentre que si E(µ)

Exemples: Els valors mostrals que hem vist a l'apartat anterior s¶on els exemples clµassics
d'estimadors:

¹ n ¶es un estimador sense biaix de la mitjana poblacional ¹.


² La mitjana mostral X
² La variµancia mostral Sn2 ¶es un estimador de la variµancia ¾ 2 amb biaix negatiu.
2
² La variµancia mostral modi¯cada Sn¡1 ¶es un estimador sense biaix de la variµancia ¾.

4.5 Intervals de con¯an»


ca

Quan es fa servir un estimador per aproximar un parµametre d'una variable aleatµoria, no podem
saber mai si aquesta estimaci¶o que hem fet ¶es m¶es o menys correcta, sin¶o que nom¶es en podem
donar probabilitats. Tot l'estudi de l'estad¶³stica inductiva mitjan»cant estimadors consisteix a
trobar intervals de con¯an»ca, que s¶on els intervals pels quals podem assegurar que contenen el
valor real del parµametre amb una certa probabilitat.
De¯nici¶ o 4.8 Imaginem que volem estimar el parµ ametre µ d'una variable aleatµoria X. Fixat
un valor ®, un interval de con¯an»ca amb signi¯caci¶o ® ¶es un interval [r1 ; r2 ] pel qual podem
assegurar que
P (r1 < µ < r2 ) ¸ ®:

© Els autors, 2003; © Edicions UPC, 2003


4.6 Estimadors de la mitjana 95

El valor ®, anomenat nivell de signi¯caci¶


o o coe¯cient de con¯an»ca, acostuma a ser 0,95 o 0,99.
Aquests valors s¶on els acceptats normalment com a probabilitats que el nostre valor estigui
dintre d'un interval adequat.
Els estimadors s¶on les eines adequades que ens permeten calcular els extrems r1 i r2 de l'interval
de con¯an»ca. El cµalcul d'aquests valors depµen, oµbviament, de cada parµametre i de l'estimador
emprat per aproximar-lo. Observeu que cada estimador, essent ell mateix una variable aleatµoria,
t¶e una distribuci¶o prµopia i, per tant, aquesta distribuci¶o serµa determinant per calcular l'interval
de con¯an»ca.
Per exemple, si un estimador t¶e una distribuci¶o simµetrica, aleshores l'interval de con¯an»ca ve
donat pel valor µ~ que pren l'estimador, juntament amb l'amplada de l'interval d® , la qual,
µobviament, depµen del nivell de signi¯caci¶o:
P (µ~ ¡ d® < µ < µ~ + d® ) ¸ ®:
En les properes seccions calculem les distribucions dels diferents estimadors i donem exemples
del seu u
¶s.

4.6 Estimadors de la mitjana

Ja hem vist a la secci¶o 4.3 com es comportava l'estimador X ¹ n de la mitjana, en relaci¶o amb
la mitjana i la variµancia poblacionals. En aquesta secci¶o suposarem que estem interessats en
una variable aleatµoria X que mesura alguna caracter¶³stica d'una poblaci¶o, i a partir d'aquesta
veurem quina variable s'ajusta als valors de l'estimador.
Ja sabem que la distribuci¶o m¶es habitual ¶es la distribuci¶o normal, que hem vist que es feia
servir per aproximar altres distribucions com la binomial. Per tant, t¶e interµes especial estudiar
els estimadors d'una variable aleatµoria normal.
Proposici¶ o 4.9 Suposem que una poblaci¶o segueix una variable aleatµoria X = N (¹; ¾). Ales-
hores l'estimador X¹ n de la mitjana mostral tamb¶e segueix una distribuci¶o normal. Concreta-
¹ p
ment, Xn = N (¹; ¾= n).

Observeu que la mitjana i la variµancia de l'estimador s¶on les que ja hav¶³em establert a la secci¶o
4.3.
Aquest estimador ens permet donar un interval de con¯an»ca sempre que coneguem p la desviaci¶o
¶ ¹
t¶³pica de la poblaci¶o. Es a dir, com que l'estimador Xn t¶e una distribuci¶o N (¹; ¾= n), aleshores
la variable:
¹n ¡ ¹
X
p
¾= n

© Els autors, 2003; © Edicions UPC, 2003


96 4 ¶
MOSTRES I ESTIMACIO

t¶e una distribuci¶o normal tipi¯cada i l'amplada de l'interval es pot buscar a la taula. Donat
un nivell de signi¯caci¶o ®, podem trobar a la taula l'amplada D® , de manera que
¹n ¡ ¹
X
P (¡D® < p < D® ) = ®;
¾= n
i d'aqu¶³ trobar un interval de con¯an»ca per ¹. Primer fem:
¾ ¹ n ¡ ¹ < p¾ D® ) = ®
P (¡ p D® < X
n n
i ¯nalment:
¹ n ¡ p¾ D® < ¹ < X
P (X ¹ n + p¾ D® ) = ®
n n

Exemple: Uns valors agafats aleatµoriament en una mostra de 20 persones ens han donat
aquests valors relatius a les seves al»caµries:

174 177 180 169 166 175 190 164 179 180 185 174 177 182 194 172 191 175 180 176
Suposem que la distribuci¶o de l'al»caµria d'una persona ¶es normal. Comprovem que, amb un
nivell de signi¯caci¶o de 0,95, aquesta mostra ens permet deduir que la mitjana de la poblaci¶o
estµa en l'interval [173; 183].
¹ n ¶es 178. Busquem a la taula de la normal quin
El valor pres per l'estimador de la mitjana X
¶es el valor D® tal que la normal tipi¯cada Z satisfµa:
P (¡D® < Z < D® ) = 0;95
que ¶es D® = 1;96, el qual s'ha obtingut buscant el valor que ens d¶ona probabilitat 0,475. Per
tant, per la nostra distribuci¶o tenim:
178 ¡ ¹
P (¡1;96 < p < 1;96) = 0;95
10= 20
i calculant:
P (¡4;38 < 178 ¡ ¹ < 4;38) = 0;95
que ens d¶ona ¯nalment un interval de con¯an»ca [173,62 , 182,38]. Aix¶³ doncs, la probabilitat
que l'autµentica mitjana estigui dintre d'aquest interval ¶es del 95%, ¶es a dir:
P (173;62 < ¹ < 182;38) = 0;95:

Si la distribuci¶o de la variable aleatµoria poblacional no ¶es normal, aleshores la distribuci¶o de


l'estimador de la variable aleatµoria mostral canviarµa i no serµa necessµariament normal. Recor-
dem, perµo, el cas de la variable aleatµoria binomial que, repetida moltes vegades, s'aproxima b¶e
per una distribuci¶o normal. Aquest ¶es un dels fets m¶es importants en la teoria de la probabilitat
i s'anomena teorema central del l¶³mit:

© Els autors, 2003; © Edicions UPC, 2003


4.7 La t de Student 97

Teorema 4.10 Considerem una variable aleatµ oria X qualsevol amb mitjana ¹ i desviaci¶
o t¶³pica
¾. Sigui Y la variable aleatµoria que s'obt¶e de sumar n cµopies independents de X.pAleshores,
quan n es fa gran, la distribuci¶
o de Y s'acosta cada cop m¶es a una normal N(n¹; n¾).

El teorema central del l¶³mit, doncs, no s'aplica nom¶es a la suma de n variables de Bernoulli
independents (que d¶ona la distribuci¶o binomial) sin¶o a qualsevol variable aleatµoria X sempre
que tingui un valor mitjµa i una desviaci¶o t¶³pica ¯nits.
Observem com afecta aixµo la variable aleatµoria de la mitjana mostral. Aquesta s'obt¶e fent:

¹ n = X1 + X2 + : : : + Xn = Y ;
X
n n
i, per tant, t¶e una distribuci¶o:
p
N(n¹; n¾) p
= N (¹; ¾= n):
n

Aix¶³ doncs, encara que la distribuci¶o poblacional no sigui normal, si la mida de la mostra
¶es prou gran, podem suposar que la distribuci¶o per la variable aleatµoria de
p l'estimador de la
mitjana mostral ¶es tamb¶e una normal amb mitjana ¹ i desviaci¶o t¶³pica ¾= n, igual que en el
cas anterior.

4.7 La t de Student

Observem que a la secci¶o anterior sempre era necessari conµeixer el valor de ¾ per poder donar
un estimador adequat de ¹, i aixµo no sempre ¶es possible. Una soluci¶o seria substituir el valor
2
exacte de ¾ pel del seu estimador Sn¡1 , perµo aleshores els valors es tornen m¶es inexactes i cal
substituir tamb¶e la distribuci¶o que s'ha de fer servir.
o 4.11 La funci¶
De¯nici¶ o gamma d'Euler ¶es la funci¶o que ve de¯nida per:
Z 1
¡(x) = e¡t tx¡1 dt:
0

La funci¶o gamma d'Euler s'anomena tamb¶e funci¶


o factorial generalitzada perquµe satisfµa l'equa-
ci¶o:
¡(x + 1) = x¡(x)
i, per tant, ¡(n + 1) = n! si n ¶es enter.

© Els autors, 2003; © Edicions UPC, 2003


98 4 ¶
MOSTRES I ESTIMACIO

De¯nici¶ o 4.12 La distribuci¶


o t de Student amb n graus de llibertat ¶es la distribuci¶
o que t¶e per
funci¶
o de densitat µ ¶
n+1
¡
1 2 1
sn (x) = p ³n´ µ ¶ n+1
n¼ ¡ x2 2
2 1+
n

Aquesta distribuci¶o ¶es important perquµe ens permet donar els intervals de con¯an»ca per la
mitjana quan la desviaci¶o t¶³pica ¶es desconeguda. En particular, el resultat ¶es:

o 4.13 Donada una poblaci¶o que segueix una variable aleatµoria X, si prenem una
Proposici¶
mostra amb n elements, aleshores la variable aleatµ
oria
¹n ¡ ¹
X
p
Sn¡1 = n
o t de Student amb n ¡ 1 graus de llibertat.
segueix una distribuci¶

Els parµametres de la t de Student s¶on:


n
E(t) = 0 i V ar(t) = :
n¡2

La t de Student, com ja passava amb la normal, estµa tabulada i en podeu consultar la taula a
l'apµendix.
Exemple: Considerem un altre cop la mostra de les al»caµries que ten¶³em a l'apartat anterior.
Hem vist que la mitjana mostral obtinguda era de 178, i ara en podem calcular la variµancia
2
mostral modi¯cada S19 = 52;26 i, per tant, S19 = 7;23. Aleshores, sabem que la distribuci¶o
178 ¡ ¹
p
7:23= 20
¶es una t de Student amb 19 graus de llibertat.
La taula de la t de Student ens d¶ona els valors de la x per tal que:

P (¡x < tn < x) = ®

pels valors m¶es importants de ®. En el nostre cas, si agafem ® = 0;95, amb n = 19, la taula
d¶ona x = 2:093. Aix¶³ doncs, tenim que:
178 ¡ ¹
P (¡2;093 < p < 2;093) = 0;95
7;23= 20

© Els autors, 2003; © Edicions UPC, 2003


4.8 Estimadors de la variµ o Â2
ancia. La distribuci¶ 99

i, per tant, tenim l'interval de con¯an»ca [174;61; 181;39], ¶es a dir, la probabilitat que ¹ estigui
entre 174,61 i 181,39 ¶es del 95%.

La t de Student ¶es una distribuci¶o molt semblant a la normal, com es pot esperar pel fet que
la variable
¹n ¡ ¹
X
p
Sn¡1 = n
¶es molt semblant a la variable
¹n ¡ ¹
X
2
p ;
¾n¡1 = n
que hem vist que tenia una distribuci¶o normal. Per tant, la funci¶o de densitat de la t de Student
tamb¶e t¶e una grµa¯ca en forma de campana. Ara b¶e, com que la t de Student fa servir un valor
aproximat, ¶es m¶es susceptible de donar valors m¶es dolents. Aixµo suposa que la grµa¯ca de la t
de Student ¶es m¶es ampla que la grµa¯ca de la normal. Ara b¶e, quan augmentem el nombre de
graus de llibertat, la grµa¯ca s'aproxima m¶es a la normal. Es¶ clar: segons el teorema central del
l¶³mit, si el nombre de graus de llibertat ¶es molt gran, aleshores la t de Student s'aproxima molt
a la normal. Podreu comprovar aixµo veient que els valors que la taula d¶ona per in¯nits graus
de llibertat s¶on exactament els que obtindr¶³em amb una normal tipi¯cada.

4.8 Estimadors de la variµ o Â2


ancia. La distribuci¶

L'estimador S 2 de la variµancia mostral, que, segons hem vist abans, es calcula amb la f¶ormula
n
1 X
S2 = (xi ¡ x¹n )2
n ¡ 1 i=1

tamb¶e depµen, com l'estimador de la mitjana mostral, de la distribuci¶o de la variable poblacional


X. Nosaltres l'estudiarem, perµo, nom¶es en el cas que la variable X sigui normal, perquµe
aleshores l'estimador segueix una distribuci¶o Â2 .
De¯nici¶ o Â2 ¶es la variable aleatµ
o 4.14 La distribuci¶ oria que s'obt¶e fent

Â2 = X12 + X22 + : : : + Xn2

on les Xi s¶
on normals tipi¯cades. La seva funci¶o de densitat ¶es:
1 n x
kn (x) = n
³ n ´ x 2 ¡1 e¡ 2
2 ¡
2
2

© Els autors, 2003; © Edicions UPC, 2003


100 4 ¶
MOSTRES I ESTIMACIO

La mitjana i variµancia de la Â2 v¶enen donades per:

E(Â2 ) = n i V ar(Â2 ) = 2n:

Fem servir aquesta distribuci¶o per als estimadors de la variµancia quan la variable poblacional
¶es normal:

o 4.15 Si la variable aleatµoria poblacional ¶es normal, aleshores la variable aleatµ


Proposici¶ oria

nS 2
Y =
¾2
o Â2 amb n graus de llibertat.
segueix una distribuci¶

Observem que la distribuci¶o Â2 no pot prendre valors negatius, essent una suma de quadrats,
i per tant la seva funci¶o de densitat nom¶es ¶es diferent de 0 en l'interval (0; 1). Tamb¶e t¶e la
forma d'una campana, aquest cop no simµetrica, que comen»ca a l'origen, puja ¯ns al seu mµaxim
i despr¶es decreix asimptµoticament cap al 0. Com m¶es gran ¶es el nombre de graus de llibertat,
m¶es lluny del zero ¶es el mµaxim.
Un cop m¶es, tenim una taula que ens permet calcular els valors de la distribuci¶o Â2 pels graus
de llibertat i nivells de con¯an»ca m¶es habituals.

Exemple 4.16 Tornem a l'exemple de la mostra d'al»caµries anterior. Si calculem l'estimador


esbiaixat de la variµancia obtenim que S 2 = 49;65. Aleshores, la variable
993
¾2
segueix una Â2 amb 20 graus de llibertat. Per tant, segons la taula:
993
P (9;53 < < 34;4) = 0;95
¾2
i, per tant, tenim:
P (28;87 < ¾ 2 < 104;20) = 0;95
i ¯nalment:
P (5;37 < ¾ < 10;21) = 0;95:
2

© Els autors, 2003; © Edicions UPC, 2003


4.9 Exercicis i problemes 101

4.9 Exercicis i problemes

4.9.1 Exercicis

1. Tenim que una mostra de setze transistors ha presentat una vida mitjana de 735 hores.
Coneixem que ¾ = 12 hores. Trobeu l'interval de con¯an»ca per a la vida mitjana de la
poblaci¶o al 95%.

2. El temps mitjµa a connectar-se a un servidor ¶es de 8 ms. Despr¶es de modi¯car el software


es mesuren 64 accessos i la mitjana que ara s'obt¶e ¶es de 8.5 ms. Suposem que la desviaci¶o
t¶³pica ¶es 2 ms, tant abans com despr¶es de la modi¯caci¶o. Construiju un interval de
con¯an»ca (al 95% i al 99%) per a la mitjana despr¶es de modi¯car el software.

4.9.2 Problemes per fer

1. Mesurem la temperatura exacta de 0± C amb cinc termµometres que segueixen una dis-
tribuci¶o N (0; ¾), on desconeixem ¾. N'obtenim els resultats erronis segÄ
uents: 0;02, 0;05,
¡0;01, ¡0;04 i 0;12. Trobeu l'interval de con¯an»ca del 95% per a la ¹.

2. Hem obtingut els valors segÄuents de la variable aleatµoria X, 55, 65, 82, 48, 55, 75, 70 i
62. Trobeu un interval de con¯an»ca del 90% per a la variµancia de X.

3. S'analitza el temps T de processament d'un paquet de dades d'una mida donada. Adme-
tem que T segueix una distribuci¶o normal. Es mesura el temps (en ¹s) de deu transmis-
sions i s'obtenen els resultats segÄ
uents:

301 303 300 304 300 304 299 305 302 302:

a) Doneu un interval de con¯an»ca del 99% per al valor mitjµa del temps de transmissi¶o.
b) Doneu un interval de con¯an»ca del 99% per a la desviaci¶o t¶³pica de la distribuci¶o.
c) Determineu la mida m¶³nima que hauria de tenir la mostra per obtenir un interval de
con¯an»ca del 95% per al valor mitjµa de T , de manera que l'interval de con¯an»ca tingui
una llargada no superior a 1¹s. Suposem ara que ¾T = 2.

© Els autors, 2003; © Edicions UPC, 2003


103

5 Regressi¶
o lineal simple.

5.1. Regressi¶o lineal simple


5.2. Signi¯caci¶o de r
5.3. Interval de con¯an»ca per ½
5.4. Recta de regressi¶o. Mµetode dels m¶³nims quadrats
5.5. Correlaci¶o i causalitat no s¶on el mateix

La ¯nalitat d'aquest cap¶³tol ¶es proporcionar conceptes bµasics per obtenir les carac-
ter¶³stiques principals d'una relaci¶
o que no ¶es evident. Tractem amb distribucions
estad¶³stiques bidimensionals, que ja s'han introduijt al tema 3. Estudiem els casos
en quµe els punts (X; Y ) s'aproximen el mµaxim possible a una recta que trobem mit-
jan»cant el mµetode dels m¶³nims quadrats. Finalment tornem a parlar, en aquest cas
concret, dels resultats que podem deduir d'una poblaci¶ o si el que estudiem ¶es una
mostra (tal com hem vist al tema 4).

5.1 Regressi¶
o lineal simple.

Suposem que tenim un conjunt de n mesuraments y1 , y2 ,...,yn , d'una variable resposta Y , rea-
litzats amb un conjunt de n condicions experimentals x1 , x2 ,...,xn , d'una variable predicci¶
o X.
Tindrem en compte nom¶es el cas d'una variable resposta, que ¶es el que es coneix com a model
lineal simple.
Intentarem ajustar una equaci¶o lineal al conjunt de dades amb la ¯nalitat d'obtenir una equaci¶o
emp¶³rica que ens determini el comportament de la variable resposta Y , donats els valors de la
variable de predicci¶o X.

© Els autors, 2003; © Edicions UPC, 2003


104 5 ¶ LINEAL SIMPLE.
REGRESSIO

Partim, doncs, d'una distribuci¶o bidimensional. Suposem que el resultat de l'observaci¶o d'una
mostra ens d¶ona un conjunt de punts (X; Y ) que podem representar en un grµa¯c. Aquests tipus
de grµa¯cs s'anomenen diagrama de punts o b¶e n¶uvol de punts o b¶e diagrama de dispersi¶o.
En cap¶³tols anteriors hem introduijt els conceptes de covariµancia i coe¯cient de correlaci¶o lineal.
En el cas d'una mostra de mida n escrivim per a les variancies marginals:
Pn 2 Pn 2
i=1 xi y
2
sx = ¡x 2
sy = i=1 i ¡ y 2
2
n n
i per a la covariµancia sxy i el coe¯cient de correlaci¶o r:
n
1X sxy
Sxy = xi yi ¡ x y r=
n i=1 sx sy

A continuaci¶o donem uns quants exemples de dades amb els seus coe¯cients de correlaci¶o.
Exercici: Representeu aquests grµa¯cs i comproveu els coe¯cients de correlaci¶o.
Exemple 5.1 (0; 0); (1; 0); (2; 0); (0; 1); (1; 1); (2; 1); (0; 2); (1; 2); (2; 2) amb r = 0. Les variables
no estan correlacionades.

Exemple 5.2 (0; 0); (1; 0); (3; 0); (3; 1); (1; 1); (2; 1); (0; 2); (1; 2); (2; 2) amb r = ¡0;128. Les
variables no estan correlacionades.

Exemple 5.3 (0; 0); (1; 0); (3; 3); (3; 1); (1; 1); (2; 1); (3; 2); (4; 4); (2; 2) amb r = 0;845. Amb
aquest valor de r podem dir que hi ha una correlaci¶o lineal forta i positiva.

Exemple 5.4 (1; 1); (1; 3); (1; 4); (2; 0); (2; 5); (3; 0); (4; 0); (4; 0); (2; 2) amb r = ¡0;609. Cor-
relaci¶o lineal dµebil i negativa.

Exemple 5.5 (1; 2); (2; 3); (3; 4); (2; 3); (5; 6); (1; 2) amb r = 1. Variables perfectament correla-
cionades (relaci¶o funcional), amb correlaci¶o lineal.

Exemple 5.6 (5; 1); (4; 2); (3; 3); (2; 4); (1; 5); (5; 1) amb r = ¡1. Variables perfectament cor-
relacionades (relaci¶o funcional), amb correlaci¶o lineal.

Ara b¶e, tal com hem dit al cap¶³tol anterior tamb¶e ens interessarµa fer inferµencies sobre la cor-
relaci¶o lineal d'una poblaci¶o de la qual coneixem el resultat d'una mostra.

© Els autors, 2003; © Edicions UPC, 2003


5.2 Signi¯caci¶
o de r 105

5.2 o de r
Signi¯caci¶

Suposem que tenim una mostra de mida n d'una poblaci¶o bivariant que ens d¶ona un coe¯cient
de correlaci¶o r i que les dades de la poblaci¶o ens donarien (si es calcul¶es) un valor ½. La
o de ½. L'any 1915
nostra ¯nalitat ¶es utilitzar les dades de la mostra per poder fer una estimaci¶
l'estadista R. A. Fisher va trobar que la transformaci¶o:

1 1+r
z= ln = tanh¡1 r
2 1¡r
donava lloc a una variable aleatµoria Z de distribuci¶o aproximadament normal amb ¹z = tanh¡1 ½
1
i ¾z2 = n¡3 (l'aproximaci¶o ¶es m¶es bona quant m¶es gran ¶es la mostra). El coe¯cient de correlaci¶
o
r de la mostra i la seva transformaci¶o Z els utilitzarem per aconseguir uns l¶³mits entre els quals
puguem estar quasi segurs que es troba el coe¯cient de correlaci¶o ½.

5.3 ca per ½.
Interval de con¯an»

Vegem en un exemple com trobar un interval de con¯an»ca per ½.


Exemple 5.7 Sobre una mostra de mida 28 calculem un coe¯cient de correlaci¶o r = 0;71.
Trobarem l'interval de con¯an»ca del 95% per al coe¯cient de correlaci¶o ½ de la poblaci¶o.

z¡¹z
Considerem Z normal i, per tant, ¾z
¶es una normal tipi¯cada. Tenim, doncs:

z ¡ ¹z
P (¡1; 96 < < 1; 96) = 0;95
¾z
o b¶e:
P (z ¡ 1; 96¾z < ¹z < z + 1; 96¾z ) = 0;95

i substituint z = tanh¡1 0;71 i ¾z2 = 1


28¡3
de l'apartat anterior:

1 1
P (tanh¡1 0;71 ¡ 1; 96 p < ¹z < tanh¡1 0;71 + 1; 96 p ) = 0;95
25 25

P (0;495 < tanh¡1 ½ < 1; 279) = 0;95

utilitzant els valors de la tangent hiperbµolica obtenim ½ 2 (0;46; 0;86) 2

Tornem ara a pensar amb els grµa¯cs de punts que heu representat abans.

© Els autors, 2003; © Edicions UPC, 2003


106 5 ¶ LINEAL SIMPLE.
REGRESSIO

Diem que hi ha una correlaci¶o lineal si el n¶


uvol de punts s'agrupa al voltant d'una l¶³nea recta
que anomenem recta de regressi¶o.
La nostra ¯nalitat ara ¶es trobar l'equaci¶o d'una recta que s'ajusti tant com sigui possible al
uvol de punts. El mµetode m¶es important ¶es l'anomenat mµetode dels m¶³nims quadrats i ¶es el

que utilitzem a l'apartat segÄ
uent per trobar l'equaci¶o de la recta.

5.4 Recta de regressi¶


o. Mµ
etode dels m¶³nims quadrats

Estudiem primer la regressi¶o de Y sobre X. Suposem que la variaci¶o aleatµoria es d¶ona sobre la
Y i suposem que la recta que volem trobar la podem escriure com:
y = ax + b (1)

Es tracta de determinar a i b perquµe la recta s'ajust tant com sigui possible al n¶


uvol de punts.
El mµetode dels m¶³nims quadrats tracta de fer m¶³nima la suma dels quadrats de les diferµencies
entre els valors observats o experimentals i els valors teµ
orics o ajustats.
Si tenim els resultats experimentals (xi ; yi ) amb i 2 f1 ¢ ¢ ¢ ng, volem fer m¶³nima l'expressi¶o:

n
X
(yi ¡ (axi + b))2
i=1

on (xi ; yi ) s¶on els valors ¯xats experimentals i axi + b ¶es la imatge de xi sobre la recta (1).
Derivem parcialment respecte de a i despr¶es respecte de b i igualem a 0:

n
X
2(yi ¡ axi ¡ b)(¡xi ) = 0
i=1

n
X
2(yi ¡ axi ¡ b)(¡1) = 0
i=1

o b¶e:
X
n X
n X
n
xi yi ¡ a x2i ¡b xi = 0
i=1 i=1 i=1
n
X n
X
yi ¡ a xi ¡ nb = 0
i=1 i=1

© Els autors, 2003; © Edicions UPC, 2003


5.4 Recta de regressi¶o. Mµetode dels m¶³nims quadrats 107

dividim per n les dues equacions i tenim:

Pn Pn
i=1 xi yi i=1 x2i
¡a ¡ bx = 0 (2)
n n

y ¡ ax ¡ b = 0 (3)

Si multipliquem l'equaci¶o (3) per x i li restem l'equaci¶o (2) obtenim:


µPn ¶ Pn
i=1 x2i 2 i=1 xi yi
a ¡x = ¡ xy
n n
¶es a dir, a = ssxy2 . Substituint aquest valor a l'equaci¶o (3) obtenim l'altre parµametre b = y ¡ ssxy
2 x.
x x
Amb aquests valors de a i b a l'equaci¶o (1) obtenim la recta de regressi¶o de Y sobre X:

sxy
y¡y = (x ¡ x)
s2x

Aquesta recta la utilitzarem per estimar un valor de y, donat un valor de x.


Fent un raonament semblant trobar¶³em que la recta de regressi¶o de X sobre Y ¶es:

sxy
x¡x = (y ¡ y)
s2y
Aquesta recta la utilitzarem per estimar un valor de x, donat un valor de y.
En general quant m¶es juntes es troben les dues rectes de regressi¶o, la relaci¶o lineal entre les
dues variables ¶es m¶es forta.
A continuaci¶o donem les rectes de regressi¶o d'alguns conjunts de dades donats anteriorment.
Les podeu representar sobre els grµa¯cs de punts que heu fet abans.
o de Y sobre X ¶es y = ¡0;32 + 0;89x
Per al cas de l'exemple 5.3, tenim que la recta de regressi¶
i la recta de X sobre Y x = 0;86 + 0;80y.
o de Y sobre X ¶es y = 3:85 ¡ 0;98x i
Per al cas de l'exemple 5.4, tenim que la recta de regressi¶
la recta de X sobre Y x = 2:85 ¡ 0;38y.
Anem a trobar les rectes de regressi¶o en un exemple.
Exemple 5.8 Triem a l'atzar 10 monedes de coure d'una bossa que cont¶e moltes monedes
antigues. Pesem cada una de les 10 monedes i anotem la seva antiguitat. Obtenim les dades
segÄ
uents, on (antiguitat,pes)=(X,Y):

© Els autors, 2003; © Edicions UPC, 2003


108 5 ¶ LINEAL SIMPLE.
REGRESSIO

(5 ; 9;41) (9 ; 9;50) (14 ; 9;33) (17 ; 9;34) (23 ; 9;31)


(31 ; 9;26) (35 ; 9;22) (42 ; 9;30) (46 ; 9;15) (50 ; 9;08):

Si representem les dades en un n¶ uvol de punts hi veiem una relaci¶o lineal forta i negativa, ¶es
a dir, quant m¶es antiga ¶es una moneda el seu pes ¶es menor. Anem, perµo, a estudiar-ho d'una
forma quantitativa. Obtenim els resultats segÄuents:
x = 27;2, y = 9;29, r = ¡0;89, sxy = ¡1;554, sx = 15;1248, sy = 0;1152.
1;554
La recta de regressi¶o de Y sobre X ¶es, doncs, y = 9;29 ¡ 15;1248 2 (x ¡ 27;2). Tamb¶
e tenim la
1;554
recta de regressi¶o de X sobre Y x = 27;2 ¡ 0;11522 (y ¡ 9;29).
Si volem conµeixer quin ¶es el pes esperat per una moneda que t¶e 20 anys d'antiguitat hem
d'utilitzar la recta Y sobre X i obtenim 9;34. Si el que volem conµeixer ¶es l'antiguitat d'una
moneda que pesa 9;3, llavors hem d'utilitzar la recta X sobre Y i obtenim 26 anys.

5.5 Correlaci¶
o i causalitat no s¶
on el mateix.

Moltes vegades s'intenten establir relacions de tipus casual entre dues variables. Conv¶e observar
que, quan es volen establir associacions, s'ha d'anar molt amb compte abans d'arribar a una
conclusi¶o de¯nitiva, que moltes vegades anirµa molt m¶es enllµa del treball estad¶³stic. Qualsevol
experiµencia que tendeixi a establir relacions causa-efecte entre variables ha de ser repetida en cir-
cumstµancies ben diferents; aix¶³ es pot constatar que, realment, a la vista de les dades recollides,
¶es plausible que determinats valors d'una de les variables estiguin efectivament associats amb
determinats valors de l'altra, perµo, al mateix temps, que no es tracta de falses aparences o que
no hi ha un factor extern que in°ueixi en les dues variables estudiades. Es ¶ clµassic, en aquest
sentit, l'exemple d'una poblaci¶o nµordica on, a causa de l'µepoca de les migracions de les aus i
del ritme de natalitat, hi ha una correlaci¶o molt elevada entre el nombre de naixements de cada
mes i el nombre de cigonyes que nien al campanar d'aquella poblaci¶ o. Podem deduir d'aixµo que
ls cigonyes porten els nens? Un exemple aix¶³, en quµe les dades donen un coe¯cient de correlaci¶ o
elevat perµo no existeix una conexi¶o entre les variables, s'anomena correlaci¶ o falsa.

© Els autors, 2003; © Edicions UPC, 2003


109

6 Tests d'hipµ
otesi

6.1. Introducci¶o
6.2. Tests paramµetrics
6.3. Exemples de tests paramµetrics
6.3.1. Test pel valor mitjµa d'una distribuci¶o normal
6.3.2. Test pel contrast de valors mitjans de dues distribucions
6.3.3. Tests d'hipµotesi i intervals de con¯an»ca
6.4. Tests d'ajust d'una distribuci¶o
6.5. Problemes

Els tests d'hipµ


otesi estad¶³stics s¶
on tµecniques que tenen per objectiu determinar la
probabilitat d'una a¯rmaci¶ o sobre una distribuci¶o poblacional a partir del conei-
xement d'una mostra. Els tests d'hipµ otesi estan relacionats estretament amb els
intervals de con¯an»ca que s'han estudiat anteriorment.

6.1 Introducci¶
o.

El contrast d'hipµotesi ¶es una de les tµecniques d'inferµencia estad¶³stica.


Un exemple simple d'aquesta tµecnica ¶es el segÄ uent. Suposem que el nombre d'errors en la
transmissi¶o de n bits segueix una llei binomial Bin(n; p). Aquest ¶es un model plausible d'acord
amb les condicions f¶³siques de la transmissi¶o. Un tµecnic proposa el valor de p = 0;01. El
contrast d'hipµotesi consisteix a valorar la ¯abilitat d'aquesta proposta a la vista dels resultats
d'una mostra.

© Els autors, 2003; © Edicions UPC, 2003


110 6 µ
TESTS D'HIPOTESI

Suposem, per exemple, que hem observat un valor de 3 errors en la transmissi¶ o d'un paquet de
10 bits. Si fos¡ cert
¢ que p = 0;01, quina ¶
e s la probabilitat d'haver obtingut aquest valor? Tenim
n 3 n¡3
P (X = 3) = 3 p (1 ¡ p) , que amb els valors p = 0;01 i n = 10 ¶es 0;0026. Aixµo vol dir que,
segons la hipµotesi p = 0;01, observarem aquest valor de X en menys de tres vegades per cada
mil proves. La conclusi¶o ¶es, doncs, que la hipµotesi original ¶es poc plausible i el test efectuat
proposaria refusar-la.
Els tests estad¶³stics d'hipµotesi s¶on versions m¶es elaborades de l'exemple anterior. Hi ha dues
classes de tests d'hipµotesi:
² tests en els quals la llei de probabilitat de la poblaci¶o ¶es coneguda i es formulen hipµotesi
sobre els valors dels parµametres de la distribuci¶o, anomenats tests paramµetrics.

² tests en els quals la llei poblacional no ¶es coneguda i es formula la hipµotesi que segueix
una certa distribuci¶o, anomenats tests d'ajust.

6.2 Tests paramµ


etrics

Abans d'introduir la terminologia prµopia dels tests d'hipµotesi vegem-ne un exemple que aclarirµa
algunes de les nocions.
Suposem que el soroll introduijt per un canal en la transmissi¶o d'un senyal segueix una llei normal
N(m; ¾). Com a l'exemple anterior, hi ha raons qualitatives que avalen aquesta suposici¶o. Per
simpli¯car l'exemple, suposem que el valor de ¾ ¶es conegut i val 1. Formulem la hipµotesi que
m = 0. De n = 10 observacions dels valors del soroll obtenim un valor mitjµa x¹10 = 1;01.pSabem
que aquest ¶es el valor observat de la variable X¹ 10 que segueix una llei normal N (m; 1= 10).

En la hipµotesi m = 0, la probabilitat d'observar un valor mitjµa no menor que 1;01 en valor


absolut ¶es

¹ 10 j ¸ 1;01) = 1 ¡ P (¡1;01 · X
P (jX ¹ · 1;01) =
p 10 p p
= 1 ¡ P (¡1;01 10 · 10X ¹ 10 · 1;01 10) ' 0;002:

A la vista d'aquest valor, l'enginyer ha de decidir si la desviaci¶o de x¹10 respecte del valor que
hauria de tenir pot ser deguda a l'atzar o ¶es tan improbable que resulta m¶es sensat descartar
la hipµotesi m = 0.
Per prendre aquesta decisi¶o, s'estableix un nivell de signi¯caci¶
o ® del test (habitualment ® =
0;05 o ® = 0;01) de manera que si la probabilitat del valor observat, en la hipµotesi que formulem,
¶es inferior a ® aleshores rebutgem la hipµotesi. Per exemple, en el cas anterior, amb un nivell

© Els autors, 2003; © Edicions UPC, 2003


6.2 Tests paramµetrics 111

de signi¯caci¶o ® = 0;01, rebutjar¶³em la hipµotesi que m = 0. En canvi, amb un nivell ® = 0;05


l'acceptar¶³em.
El nivell de signifaci¶o ¶es la probabilitat que rebutgem la hipµotesi si ¶es certa. Aquest tipus d'error
s'anomena error de tipus I. L'altra mena d'error que es pot cometre ¶es acceptar la hipµotesi si ¶es
falsa, que s'anomena error de tipus II. Dos tests d'hipµotesi al mateix nivell de signi¯caci¶o poden
tenir diferents errors de tipus II, i entre tots els tests possibles del mateix nivell de signi¯caci¶o
cal escollir aquell que minimitza l'error de tipus II.
Per exemple, suposem que ¯xem un nivell de signi¯caci¶o ® = 0. Aleshores, sempre s'acceptaria
la hipµotesi de manera que l'error de tipus I ¶es zero. En l'altre extrem podem posar un nivell
de signi¯caci¶o ® = 1, cas en el qual es rebutja la hipµotesi amb probabilitat 1 i l'error de tipus
¶ clar que cap de les dues opcions proporciona una bona tµecnica de decisi¶o (en
II ¶es zero. Es
particular, no cal ni observar una mostra) de manera que un bon test requereix un comprom¶³s
entre els dos tipus d'error.
En el llenguatge dels tests d'hipµotesi, la hipµotesi que es vol contrastar s'anomena hipµ
otesi nul¢la
i es denota per H0 . Aleshores:
² El nivell de signi¯caci¶o ¶es ® = P (refusar H0 jH0 ), ¶es a dir, la probabilitat de refusar la
hipµotesi si ¶es certa.

² L'error de tipus II ¶es P (acceptar H0 jH¹0 ), ¶es a dir, la probabilitat d'acceptar H0 si ¶es falsa.

L'elecci¶o d'un nivell de signi¯caci¶o es fa normalment de manera convencional (sovint ® = 0;01


o ® = 0;05) i permet controlar el disseny del test. Aixµo simplement assegura que la probabilitat
de refusar la hipµotesi H0 si ¶es certa ¶es petita, de manera que el resultat del test ¶es ¯able quan
es refusa H0 .
Aquest aspecte ¶es bo de tenir en compte en el disseny del test per tal de formular com a H0
una hipµotesi de la qual ens preocupa m¶es acceptar si ¶es falsa que no pas descartar si ¶es certa.

Exemple 6.1 S'estµa provant un nou sistema de producci¶o de xips en el qual la durada X
de funcionament dels xips segueix una distribuci¶o normal N (¹; ¾). Suposem que en el sistema
actual la durada segueix una llei normal N (2000; 200). Com que canviar el sistema de producci¶o
suposa una inversi¶o considerable que nom¶es serµa rendible si realment el nou sistema augmenta
signi¯cativament la vida mitjana dels xips, ens interessa estar segurs que nom¶es rebutjarem la
hipµotesi
H0 : ¹ = 2000
si realment la seva probabilitat ¶es molt petita. Per tant, m¶es que dissenyar un test per a la
hipµotesi ¹ = 2300, per exemple, en dissenyar¶³em un, amb nivell de signi¯caci¶o petit ®, en el
qual la hipµotesi que es contrasta ¶es H0 : ¹ = 2000. 2

© Els autors, 2003; © Edicions UPC, 2003


112 6 µ
TESTS D'HIPOTESI

6.3 Exemples de tests paramµ


etrics

Tot i que es poden dissenyar tests d'hipµotesi per a la majoria de parµametres d'una poblaci¶o,
aqu¶³ en considerarem alguns exemples usuals que il¢lustren la tµecnica. En aquests exemples
obviarem l'anµalisi de l'error de tipus II, que sol ser m¶es complex.

6.3.1 Test per al valor mitjµ


a d'una distribuci¶
o normal

Suposem que X segueix una distribuci¶o normal N(m; ¾) amb valor mitjµa desconegut i formulem
la hipµotesi:
H0 : m = m0 :

Per estimar el valor de m a partir d'una mostra ¹


p de mida n fem servir el valor mitjµa mostral Xn ,
que segueix una distribuci¶o normal N(m; ¾= n). Donat que el parµametre que ens interessa
¹
p mitjµa, suposarem de moment que el valor de ¾ ¶es conegut. Aleshores, Z = (Xn ¡
¶es el valor
m0 )=(¾= n) segueix una llei normal N (0; 1).
Fixat el nivell de signi¯caci¶o ®, determinem el valor d® que satisfµa:
P (¡d® · Z · d® )) = 1 ¡ ®;
que pot obtenir-se de les taules de la distribuci¶o normal. Si el valor observat x¹n cau a l'interval:
p p
I0 = [m0 ¡ (¾= n)d® ; m0 + (¾= n)d® ];
acceptem la hipµotesi H0 i, en cas contrari, la rebutgem. Aix¶³:
P (rebutjar H0 jH0 ) = P (X¹n 6
2 I0 jH0 ) = P (Z 6
2 [¡d® ; d® ]) = ®;
¶es a dir, que el test t¶e efectivament nivell de signi¯caci¶o ®. Observeu que la manera de construir
l'interval I0 ¶es similar a la dels intervals de con¯an»ca.

Exemple 6.2 El temps T d'execuci¶o d'un proc¶es segueix una llei normal N (m; ¾). El proveijdor
del sistema mant¶e que el temps mitjµa de proc¶es ¶es de 8 segons. D'una mostra de 25 execucions
del proc¶es se n'ha obtingut un valor mitjµa mostral de x¹25 = 8;7 segons. Suposem que ¾ = 1.
Es pot admetre que aquesta variaci¶o no ¶es signi¯cativa (¶es a dir, que cau dins els marges de
l'aleatorietat) i que la informaci¶o del proveijdor ¶es correcta?
En aquest cas, formulem la hipµotesi:
H0 : m = 8:
En aquesta hipµotesi, el valor mitjµa mostral segueix una llei normal N (8; 1=5). Per tant, a un
nivell de signi¯caci¶o ® = 0;01, la regi¶o d'acceptaci¶o de H0 ve donada per l'interval [8 ¡ d; 8 + d],
amb
¹ 25 ¡ 8j ¸ d) = 1 ¡ P (¡5d · 5(X
® = P (jX ¹ 25 ¡ m) · 5d);

© Els autors, 2003; © Edicions UPC, 2003


6.3 Exemples de tests paramµetrics 113

que d'acord amb les taules de la distribuci¶o normal s'assoleix aproximadament per 5d = 2;58
o d = 2;58=5 ' 0;51. Com que la diferµencia observada ¶es de 0;7, que cau fora de la regi¶o
d'acceptaci¶o, la diferµencia ¶es signi¯cativa amb el nivell de signi¯caci¶o considerat i la hipµotesi
H0 s'hauria de rebutjar. 2

En general, en els problemes de test del valor mitjµa d'una poblaci¶o normal resulta poc realista
suposar que el valor de ¾ ¶es conegut. Aleshores se sol prendre com a ¾ la desviaci¶o t¶³pica
corregida S. Per a valors grans de n (a la prµactica se sol suposar su¯cient n ¸ 25), resulta m¶es
simple seguir suposant que el valor mitjµa mostral segueix una distribuci¶o normal N (m; S).

6.3.2 Test per a la diferµ


encia de valors mitjans

Un problema molt com¶ u de tests d'hipµotesi ¶es la del contrast de dos valors mitjans de dis-
tribucions normals independents. Un cas t¶³pic ¶es el segÄ uent. Suposem que es vol veri¯car
l'e¯cµacia d'un medicament per al tractament d'insomni. A una poblaci¶o A se li administra el
medicament i a una altra un preparat inofensiu. Denotem X el nombre addicional d'hores de
son dels individus de la poblaci¶o A i Y la variable corresponent a la poblaci¶o B. Per acceptar
l'e¯cµacia del tractament, el valor mitjµa de X hauria de ser signi¯cativament m¶es gran que el
de Y . Per tant, dissenyem un test en el qual la hipµotesi que s'analitza ¶es H0 : mX = mY , ¶es a
dir, nom¶es ens deixarem convµencer que el tractament ¶es e¯ca»c si la diferµencia entre mX i mY
¶es signi¯cativament poc probable en la hipµotesi H0 .
En general, si prenem una mostra de mida n1 per a la primera poblaci¶o i una de mida n2 per a
¹ ¹
q poblacions s¶on independents, la diferµencia Z = X ¡ Y segueix
la segona, i suposem que les dues
¾2 ¾2
una llei normal N(mX ¡ mY ; nX1 + nY2 ). En la hipµotesi H0 : mX = mY , l'interval que de¯neix
la regi¶o de rebuig I1 a un nivell de signi¯caci¶o ® ve donat per la desigualtat P (jZj ¸ d) · ®.
El valor de d, com en el cas anterior, es localitza amb les taules de la distribuci¶
o normal.

Exemple 6.3 A l'exemple anterior, suposem que prenem una mostra de mida 10 de cadascuna
de les poblacions. El valor que observem ¶es, doncs, Z = X ¹ 10 ¡ Y¹10 . Suposem que els valors
2
observats s¶on x¹10 = 2;33 i y¹10 = 0;75. Suposem que les desviacions poblacionals s¶on ¾X =
2
36;1=10 i ¾Y = 28;9=10. Com que se suposa que les poblacions
q s¶on independents, la variable Z
¾ 2 +¾ 2
segueix, en la hipµotesi H0 : mX = mY , una llei normal N(0; X
10
Y
). A un nivell de signi¯caci¶o
® = 0;05, l'interval de rebuig de la hipµotesi H0 es troba, doncs, de

® = P (jZj > d) = 1 ¡ P (¡d · Z · d) = 1 ¡ P (¡d=¾ · Z=¾ · d=¾);


p
2
on ¾ = ¾X + ¾Y2 ' 2 !55. De les taules de la normal resulta, per a ® = 0;05, d = 1;96¾ ' 4:99.
Aix¶³, la diferµencia observada 1;58 cau dins de la regi¶o d'acceptaci¶o de la hipµotesi H0 . En altres

© Els autors, 2003; © Edicions UPC, 2003


114 6 µ
TESTS D'HIPOTESI

paraules, l'evidµencia de les dades ¶es insu¯cient, amb el nivell de signi¯caci¶o ¯xat, per admetre
que el medicament ¶es e¯ca»c. 2

6.3.3 Tests d'hipµ


otesi i intervals de con¯an»
ca

Els intervals de con¯an»ca proporcionen tamb¶e una eina per al disseny de tests d'hipµotesi
paramµetrics. La idea ¶es la segÄuent. Suposem que volem contrastar la hipµotesi H0 que el
valor d'un parµametre µ de la distribuci¶o poblacional pren un valor µ0 :

H0 : µ = µ0 :

Fem servir un estimador mostral µ^ de µ. Amb el valor d'aquest estimador per a una mostra
espec¶³¯ca, determinem un interval de con¯an»ca [a; b] amb nivell de con¯an»ca 1 ¡ ® per aµ, ¶es
a dir:
P (µ 2 [a; b]) ¸ 1 ¡ ®:
Si el valor µ0 cau fora de l'interval (cosa que succceix amb probabilitat ® si H0 ¶es certa)
aleshores rebutgem la hipµotesi H0 . En cas contrari, la hipµotesi no es rebutja. La diferµencia,
doncs, respecte dels casos anteriors ¶es que allµa es de¯neix una regi¶o d'acceptaci¶o per al valor
de l'estimador. En els intervals de con¯an»ca s'inverteix la relaci¶o: la regi¶o d'acceptaci¶o es crea
a partir de l'estimador i es contrasta si el valor de l'hipµotesi cau o no dins l'interval.

Exemple 6.4 En un proc¶es de producci¶o es fabriquen resistµencies de 20 − amb una desviaci¶o


t¶³pica de 0,5 −. El proc¶es es pot desajustar, i per detectar si estµa desasjustat, s'examina una
mostra de cinc unitats que d¶ona un valor mitjµa x¹5 = 20;8. Construijm un interval de con¯an»ca
per al valor mitjµa m de la poblaci¶o a partir de la mostra amb
p un nivell de con¯an»ca del 95%. La
¹
variable X5 segueix una distribuci¶o normal N(20;8; 0;5= 5), i obtenim l'interval [20;4 ; 21;2].
Com que el valor 20 no cau dins l'interval (cosa que, de ser cert que el valor mitjµ a ¶es 20, passa
amb una probabilitat del 0;05), prenem com a resultat del test que el proc¶es estµa realment
desajustat.

6.4 Tests d'ajust d'una distribuci¶


o

Una mena de tests d'hipµotesi importants s¶on aquells en els que el quals es pret¶en contrastar no
¶es el valor d'un parµametre d'una distribuci¶o coneguda sin¶o la prµopia distribuci¶o de probabilitat.
Per aixµo es contrasten les freqÄ
uµencies relatives observades en una mostra amb els valors teµorics
de la distribuci¶o de probabilitat que es contrasta.
El test m¶es simple d'ajust d'una distribuci¶o ¶es l'anomenat test Â2 de Pearson.

© Els autors, 2003; © Edicions UPC, 2003


6.4 Tests d'ajust d'una distribuci¶
o 115

Suposem primer que es vol ajustar la distribuci¶o d'una variable aleatµoria discreta X a una certa
distribuci¶o de probabilitats teµorica. La variable aleatµoria pren valors que denotem, x1 ; : : : ; xk , i,
segons la distribuci¶o que es vol contrastar, els valors es prendrien amb probabilitats p1 ; : : : ; pk .
Prenem una mostra de mida n de la poblaci¶o i denotem f1 ; : : : ; fk els valors de les freqÄ
uµencies
absolutes amb quµe apareix cadascun dels valors x1 ; : : : ; xk . El test es basa en el fet que la
variable aleatµoria
X k
2 (fi ¡ npi )2
X = ;
i=1
np i

segueix, aproximadament, una distribuci¶o Â2 amb k ¡ 1 graus de llibertat. Si l'ajust ¶es bo, el
valor de l'estimador en una mostra tendirµa a ser petit (idealment 0). Aleshores, es pot obtenir
a les taules de la distribuci¶o Â2 un valor a tal que la probabilitat

P (X 2 ¸ a) · ®;

on ® ¶es el nivell de signi¯caci¶o del test. Si el valor de l'estimador cau fora de l'interval [0; a];
aleshores el test decideix que l'ajust no ¶es correcte.

Exemple 6.5 Durant la Segona Guerra Mundial es va dividir el mapa de Londres en una
quadr¶³cula i es va comptar el nombre d'impactes a cada quadre durant un bombardeig. Els
resultats van ser

Impactes xi 0 1 2 3 4 5
uµencia fi
FreqÄ 229 211 93 35 7 1

La hipµotesi que es volia contrastar ¶es que el nombre d'impactes segueix una distribuci¶o de
Poisson, que correspon a la idea que el bombardeig era indiscriminat i no anava dirigit a
objectius militars.
En cas que la hipµotesi fos certa, el valor mitjµa de la variable que compta el nombre d'impactes
en un quadre ¶es P
xi fi
¸ = Pi = 0;929:
i fi
Amb aquest valor de ¸, les probabilitats teµoriques corresponents a la distribuci¶o de Poisson
serien
(0;929)i ¡0;929
pi = e
i!
d'on s'obtenen els valors per a npi

Impactes xi 0 1 2 3 4 5
Valors esperats npi 227.5 211 98 30 7 1,5

© Els autors, 2003; © Edicions UPC, 2003


116 6 µ
TESTS D'HIPOTESI

Aix¶³ doncs, per aquesta mostra:


x2 = 1;27:
Consultant a les taules de la distribuci¶o Â2 amb 5 graus de llibertat, la probabilitat P (X 2 ¸
11) · 0;05, de manera que amb un nivell de signi¯caci¶o del 0;05 el valor observat cau dins
un valor acceptable i no hi ha motiu per refusar la hipµotesi que X segueix una distribuci¶o de
Poisson. 2

A l'exemple anterior, el valor de ¸ ha estat estimat tamb¶e a partir de la mostra. Aixµo disminueix
el nombre de graus de llibertat en la distribuci¶o de X 2 . En realitat, si en el cµalcul de X 2 s'estimen
r parµametres de la distribuci¶o (a l'exemple, r = 1) aleshores X 2 segueix, aproximadament, una
distribuci¶o Â2 amb k ¡ 1 ¡ r graus de llibertat. A l'exemple anterior, doncs, caldria contrastar
la distribuci¶o de X 2 amb la Â2 de 4 graus de llibertat, que segueix donant P (X 2 ¸ 9;4) · 0;05
i per tant raons per no desestimar la hipµotesi.
El test Â2 es fa servir tamb¶e per ajustar distribucions cont¶³nues, encara que en aquest cas es fa
un proc¶es de discretitzaci¶o.
Sigui X una variable aleatµoria cont¶³nua amb funci¶o de distribuci¶o FX (x). Dividim la recta real
en k intervals disjunts (a0 ; a1 ); [a1 ; a2 ); : : : ; [ak¡1 ; ak ) (on, habitualment, a0 = ¡1 i ak = 1).
De¯nim aleshores:
pi = P (X 2 [ai¡1 ; ai )) = FX (ai ) ¡ FX (ai¡1 ):
Paral¢lelament, donada una mostra, considerem les freqÄ uµencies absolutes fi del nombre de valors
de la mostra que estan a l'interval [ai¡1 ; ai ). Aleshores, l'estad¶³stic:
k
X (fi ¡ npi )2
X2 =
i=1
npi

segueix tamb¶e (aproximadament) una distribuci¶o Â2 amb k ¡ 1 graus de llibertat. En aquest


cas, perµo, el proc¶es de discretitzaci¶o introdueix m¶es ambigÄuitat, de manera que, per tal que
el test sigui ¯able, cal que els valors de les freqÄuµencies absolutes no siguin petits. Una regla
genµerica sovint acceptada ¶es que el nombre esperat npi d'ocurrµencies a cada interval no sigui
inferior a 10.

Exemple 6.6 Se sol acceptar que la variable aleatµoria T que d¶ona el temps de funcionament
sense avaries d'un dispositiu segueix una distribuci¶o exponencial. Volem fer un test per veri¯car
que efectivament T segueix una llei exponencial de valor mitjµa 200 hores per a un dispositiu
determinat (el valor mitjµa es pot haver obtingut per estimaci¶o). Observem una mostra de 150
dispositius i obtenim els resultats segÄ
uents:

0 · T < 100 100 · T < 200 200 · T < 300 300 · T


47 40 35 28

© Els autors, 2003; © Edicions UPC, 2003


6.5 Problemes 117

Les probabilitats corresponents en la hipµotesi que la distribuci¶o ¶es efectivament Exp(0;005) s¶on

0 · T < 100 100 · T < 200 200 · T < 300 300 · T


0,39 0,24 0,15 0,22

D'aqu¶³ que l'estad¶³stic del test Â2 de Pearson ¶es x2 = 11:56. A les taules de la Â2 amb 3 graus
de llibertat trobem que P (X 2 > d) = 0;05, correspon a d = 7:8, de manera que si el nivell de
signi¯caci¶o del test ¶es ® = 0;05, rebutjarem la hipµotesi que T segueix aquesta llei exponencial.
2

6.5 Problemes

1. En l'anµalisi de la probabilitat d'error d'un canal s'examina una mostra de 10 bits i es


detecten 3 errors. Sobre la base d'aquesta mostra un test rebutja la hipµ otesi que la
probabilitat d'error ¶es 0;1. Quina ¶es la probabilitat que el test hagi donat una decisi¶o
equivocada.
2. Es tira una moneda 100 vegades i s'obtenen 68 cares. Proveu la hipµ
otesi que la moneda
¶es equilibrada, amb un nivell de signi¯caci¶o ® = 0;05.
3. Si preneu la darrera xifra dels n¶ umeros de telµefon que apareixen a la pµagina d'una guia
telµefonica, ¶es raonable suposar que totes les xifres del 0 al 9 apareixen amb la mateixa
freqÄuµencia. Obteniu una mostra de mida 200 i proveu la hipµotesi que la distribuci¶o de la
xifra 9 segueix una llei de Bernouilli de probabilitat p = 1=10.
4. El temps T entre l'arribada de dos usuaris consecutius a un servidor es distribueix, per a
una mostra, d'acord amb la taula segÄuent:

0<T ·1 1<T ·2 2<T ·3 3<T


40 29 15 8

Proveu la hipµotesi que T segueix una llei exponencial amb un nivell de signi¯caci¶o ® = 0;1.
5. En un examen, les puntuacions dels estudiants van seguir la distribuci¶o segÄ
uent:

Puntuaci¶o [0,2) [2,4) [4,6) [6,8) [8,10]


Nombre d'estudiants 8 19 33 30 10

Proveu la hipµotesi que la distribuci¶o segueix una llei normal, amb un nivell de signi¯caci¶o
® = 0;05.

© Els autors, 2003; © Edicions UPC, 2003


µ
APENDIX 119

Apµ
endix
En aquest apµendix hi trobareu les taules de les distribucions normal, t de Student i Â2 .

© Els autors, 2003; © Edicions UPC, 2003


TAULA DE LA DISTRIBUCIÓ NORMAL

P(0 < X < x)

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0 0 0.003989 0.007978 0.011966 0.015953 0.019939 0.023922 0.027903 0.031881 0.035856


0.1 0.039828 0.043795 0.047758 0.051717 0.05567 0.059618 0.063559 0.067495 0.071424 0.075345
0.2 0.07926 0.083166 0.087064 0.090954 0.094835 0.098706 0.102568 0.10642 0.110261 0.114092
0.3 0.117911 0.12172 0.125516 0.1293 0.133072 0.136831 0.140576 0.144309 0.148027 0.151732
0.4 0.155422 0.159097 0.162757 0.166402 0.170031 0.173645 0.177242 0.180822 0.184386 0.187933
0.5 0.191462 0.194974 0.198468 0.201944 0.205401 0.20884 0.21226 0.215661 0.219043 0.222405
0.6 0.225747 0.229069 0.232371 0.235653 0.238914 0.242154 0.245373 0.248571 0.251748 0.254903
0.7 0.258036 0.261148 0.264237 0.267305 0.27035 0.273373 0.276373 0.27935 0.282305 0.285236
0.8 0.288145 0.29103 0.293892 0.296731 0.299546 0.302337 0.305105 0.30785 0.31057 0.313267
0.9 0.31594 0.318589 0.321214 0.323814 0.326391 0.328944 0.331472 0.333977 0.336457 0.338913
1 0.341345 0.343752 0.346136 0.348495 0.35083 0.353141 0.355428 0.35769 0.359929 0.362143
1.1 0.364334 0.3665 0.368643 0.370762 0.372857 0.374928 0.376976 0.379 0.381 0.382977
1.2 0.38493 0.386861 0.388768 0.390651 0.392512 0.39435 0.396165 0.397958 0.399727 0.401475
1.3 0.4032 0.404902 0.406582 0.408241 0.409877 0.411492 0.413085 0.414657 0.416207 0.417736
1.4 0.419243 0.42073 0.422196 0.423641 0.425066 0.426471 0.427855 0.429219 0.430563 0.431888
1.5 0.433193 0.434478 0.435745 0.436992 0.43822 0.439429 0.44062 0.441792 0.442947 0.444083
1.6 0.445201 0.446301 0.447384 0.448449 0.449497 0.450529 0.451543 0.45254 0.453521 0.454486
1.7 0.455435 0.456367 0.457284 0.458185 0.45907 0.459941 0.460796 0.461636 0.462462 0.463273
1.8 0.46407 0.464852 0.46562 0.466375 0.467116 0.467843 0.468557 0.469258 0.469946 0.470621
1.9 0.471283 0.471933 0.472571 0.473197 0.47381 0.474412 0.475002 0.475581 0.476148 0.476705
2 0.47725 0.477784 0.478308 0.478822 0.479325 0.479818 0.480301 0.480774 0.481237 0.481691
2.1 0.482136 0.482571 0.482997 0.483414 0.483823 0.484222 0.484614 0.484997 0.485371 0.485738
2.2 0.486097 0.486447 0.486791 0.487126 0.487455 0.487776 0.488089 0.488396 0.488696 0.488989
2.3 0.489276 0.489556 0.48983 0.490097 0.490358 0.490613 0.490863 0.491106 0.491344 0.491576
2.4 0.491802 0.492024 0.49224 0.492451 0.492656 0.492857 0.493053 0.493244 0.493431 0.493613
2.5 0.49379 0.493963 0.494132 0.494297 0.494457 0.494614 0.494766 0.494915 0.49506 0.495201
2.6 0.495339 0.495473 0.495604 0.495731 0.495855 0.495975 0.496093 0.496207 0.496319 0.496427
2.7 0.496533 0.496636 0.496736 0.496833 0.496928 0.49702 0.49711 0.497197 0.497282 0.497365
2.8 0.497445 0.497523 0.497599 0.497673 0.497744 0.497814 0.497882 0.497948 0.498012 0.498074
2.9 0.498134 0.498193 0.49825 0.498305 0.498359 0.498411 0.498462 0.498511 0.498559 0.498605
3 0.49865 0.498694 0.498736 0.498777 0.498817 0.498856 0.498893 0.49893 0.498965 0.498999
3.1 0.499032 0.499065 0.499096 0.499126 0.499155 0.499184 0.499211 0.499238 0.499264 0.499289
3.2 0.499313 0.499336 0.499359 0.499381 0.499402 0.499423 0.499443 0.499462 0.499481 0.499499
3.3 0.499517 0.499534 0.49955 0.499566 0.499581 0.499596 0.49961 0.499624 0.499638 0.499651
3.4 0.499663 0.499675 0.499687 0.499698 0.499709 0.49972 0.49973 0.49974 0.499749 0.499758
3.5 0.499767 0.499776 0.499784 0.499792 0.4998 0.499807 0.499815 0.499822 0.499828 0.499835
3.6 0.499841 0.499847 0.499853 0.499858 0.499864 0.499869 0.499874 0.499879 0.499883 0.499888
3.7 0.499892 0.499896 0.4999 0.499904 0.499908 0.499912 0.499915 0.499918 0.499922 0.499925
3.8 0.499928 0.499931 0.499933 0.499936 0.499938 0.499941 0.499943 0.499946 0.499948 0.49995
3.9 0.499952 0.499954 0.499956 0.499958 0.499959 0.499961 0.499963 0.499964 0.499966 0.499967
4 0.499968 0.49997 0.499971 0.499972 0.499973 0.499974 0.499975 0.499976 0.499977 0.499978
4.1 0.499979 0.49998 0.499981 0.499982 0.499983 0.499983 0.499984 0.499985 0.499985 0.499986
4.2 0.499987 0.499987 0.499988 0.499988 0.499989 0.499989 0.49999 0.49999 0.499991 0.499991
4.3 0.499991 0.499992 0.499992 0.499993 0.499993 0.499993 0.499993 0.499994 0.499994 0.499994
4.4 0.499995 0.499995 0.499995 0.499995 0.499996 0.499996 0.499996 0.499996 0.499996 0.499996
4.5 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499998 0.499998 0.499998
4.6 0.499998 0.499998 0.499998 0.499998 0.499998 0.499998 0.499998 0.499998 0.499999 0.499999
4.7 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999
4.8 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999 0.499999
4.9 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5

© Els autors, 2003; © Edicions UPC, 2003


TAULA DE LA t DE STUDENT

P(-t < T < t)

g.ll. 80% 90% 95% 99% 99.50%

1 3.078 6.314 12.706 63.657 127.321


2 1.8856 2.92 4.3027 9.9248 14.089
3 1.63774 2.35336 3.18245 5.84091 7.45332
4 1.53321 2.13185 2.77645 4.60409 5.59757
5 1.47588 2.01505 2.57058 4.03214 4.77334
6 1.43976 1.94318 2.44691 3.70743 4.31683
7 1.41492 1.89458 2.36462 3.49948 4.02934
8 1.39682 1.85955 2.306 3.35539 3.83252
9 1.38303 1.83311 2.26216 3.24984 3.68966
10 1.37218 1.81246 2.22814 3.16927 3.58141
11 1.36343 1.79588 2.20099 3.10581 3.49661
12 1.35622 1.78229 2.17881 3.05454 3.42844
13 1.35017 1.77093 2.16037 3.01228 3.37247
14 1.34503 1.76131 2.14479 2.97684 3.3257
15 1.34061 1.75305 2.13145 2.94671 3.28604
16 1.33676 1.74588 2.11991 2.92078 3.25199
17 1.33338 1.73961 2.10982 2.89823 3.22245
18 1.33039 1.73406 2.10092 2.87844 3.19657
19 1.32773 1.72913 2.09302 2.86093 3.17372
20 1.32534 1.72472 2.08596 2.84534 3.1534
21 1.32319 1.72074 2.07961 2.83136 3.13521
22 1.32124 1.71714 2.07387 2.81876 3.11882
23 1.31946 1.71387 2.06866 2.80734 3.104
24 1.31784 1.71088 2.0639 2.79694 3.09051
25 1.31635 1.70814 2.05954 2.78744 3.0782
30 1.31042 1.69726 2.04227 2.75 3.0298
40 1.30308 1.68385 2.02108 2.70446 2.97117
50 1.29871 1.67591 2.00856 2.67779 2.93696
60 1.29582 1.67065 2.0003 2.66028 2.91455
80 1.29222 1.66412 1.99006 2.63869 2.88697
100 1.29007 1.66023 1.98397 2.62589 2.87065
120 1.28865 1.65765 1.97993 2.61742 2.85986
inf 1.28155 1.64485 1.95996 2.57583 2.80703

© Els autors, 2003; © Edicions UPC, 2003


TAULA DE LA CHI-QUADRAT

P(X < x)

g.ll. 0.99 0.95 0.9 0.8 0.5 0.2 0.1 0.05 0.01

1 6.6349 3.84146 2.70554 1.64237 0.45494 0.06418 0.01579 0.00393 0.00016


2 9.21034 5.99146 4.60517 3.21888 1.38629 0.44629 0.21072 0.10259 0.0201
3 11.3449 7.8147 6.2514 4.6416 2.366 1.0052 0.5844 0.3518 0.1148
4 13.2767 9.4877 7.7794 5.9886 3.3567 1.6488 1.0636 0.7107 0.2971
5 15.0863 11.0705 9.2364 7.2893 4.3515 2.3425 1.6103 1.1455 0.5543
6 16.8119 12.5916 10.6446 8.5581 5.3481 3.0701 2.2041 1.6354 0.8721
7 18.4753 14.0671 12.017 9.8032 6.3458 3.8223 2.8331 2.1673 1.239
8 20.0902 15.5073 13.3616 11.0301 7.3441 4.5936 3.4895 2.7326 1.6465
9 21.666 16.919 14.6837 12.2421 8.3428 5.3801 4.1682 3.3251 2.0879
10 23.2093 18.307 15.9872 13.442 9.3418 6.1791 4.8652 3.9403 2.5582
11 24.725 19.6751 17.275 14.6314 10.341 6.9887 5.5778 4.5748 3.0535
12 26.217 21.0261 18.5493 15.812 11.3403 7.8073 6.3038 5.226 3.5706
13 27.6882 22.362 19.8119 16.9848 12.3398 8.6339 7.0415 5.8919 4.1069
14 29.1412 23.6848 21.0641 18.1508 13.3393 9.4673 7.7895 6.5706 4.6604
15 30.5779 24.9958 22.3071 19.3107 14.3389 10.307 8.5468 7.2609 5.2293
16 31.9999 26.2962 23.5418 20.4651 15.3385 11.1521 9.3122 7.9616 5.8122
17 33.4087 27.5871 24.769 21.6146 16.3382 12.0023 10.0852 8.6718 6.4078
18 34.8053 28.8693 25.9894 22.7595 17.3379 12.857 10.8649 9.3905 7.0149
19 36.1909 30.1435 27.2036 23.9004 18.3377 13.7158 11.6509 10.117 7.6327
20 37.5662 31.4104 28.412 25.0375 19.3374 14.5784 12.4426 10.8508 8.2604
21 38.9322 32.6706 29.6151 26.1711 20.3372 15.4446 13.2396 11.5913 8.8972
22 40.2894 33.9244 30.8133 27.3015 21.337 16.314 14.0415 12.338 9.5425
23 41.6384 35.1725 32.0069 28.4288 22.3369 17.1865 14.848 13.0905 10.1957
24 42.9798 36.415 33.1962 29.5533 23.3367 18.0618 15.6587 13.8484 10.8564
25 44.3141 37.6525 34.3816 30.6752 24.3366 18.9398 16.4734 14.6114 11.524
26 45.6417 38.8851 35.5632 31.7946 25.3365 19.8202 17.2919 15.3792 12.1981
27 46.9629 40.1133 36.7412 32.9117 26.3363 20.703 18.1139 16.1514 12.8785
28 48.2782 41.3371 37.9159 34.0266 27.3362 21.588 18.9392 16.9279 13.5647
29 49.5879 42.557 39.0875 35.1394 28.3361 22.4751 19.7677 17.7084 14.2565
30 50.8922 43.773 40.256 36.2502 29.336 23.3641 20.5992 18.4927 14.9535
31 52.1914 44.9853 41.4217 37.3591 30.3359 24.2551 21.4336 19.2806 15.6555
32 53.4858 46.1943 42.5847 38.4663 31.3359 25.1478 22.2706 20.0719 16.3622
33 54.7755 47.3999 43.7452 39.5718 32.3358 26.0422 23.1102 20.8665 17.0735
34 56.0609 48.6024 44.9032 40.6756 33.3357 26.9383 23.9523 21.6643 17.7891
35 57.3421 49.8018 46.0588 41.778 34.3356 27.8359 24.7967 22.465 18.5089
36 58.6192 50.9985 47.2122 42.8788 35.3356 28.735 25.6433 23.2686 19.2327
37 59.8925 52.1923 48.3634 43.9782 36.3355 29.6355 26.4921 24.0749 19.9602
38 61.1621 53.3835 49.5126 45.0763 37.3355 30.5373 27.343 24.8839 20.6914
39 62.4281 54.5722 50.6598 46.173 38.3354 31.4405 28.1958 25.6954 21.4262
40 63.6907 55.7585 51.8051 47.2685 39.3353 32.345 29.0505 26.5093 22.1643

© Els autors, 2003; © Edicions UPC, 2003

You might also like