You are on page 1of 29

2013

Notas de
Probabilidad y
Estadstica

Hernn Esteves Rosano


FACULTAD DE INGENIERA - UDELAR

1.1.3
Contenido
1. Probabilidad condicional ............................................................................................................. 1
1.1. Independencia de eventos .......................................................................................................................... 1
1.2. Independencia de VAs .............................................................................................................................. 1
1.3. Ley de Probabilidad Total......................................................................................................................... 1
1.3.1. Distribuciones mixtas ...................................................................................................................... 1
1.4. Teorema de Bayes ..................................................................................................................................... 1
2. Distribuciones discretas............................................................................................................... 2
2.1. Bernoulli .................................................................................................................................................... 2
2.2. Binomial .................................................................................................................................................... 2
2.3. Geomtrica ................................................................................................................................................ 2
2.4. Binomial Negativa ..................................................................................................................................... 2
2.5. Poisson ...................................................................................................................................................... 2
2.6. Hipergeomtrica......................................................................................................................................... 2
3. Distribuciones continuas ............................................................................................................. 3
3.1. Normal ...................................................................................................................................................... 3
3.2. Cauchy ...................................................................................................................................................... 3
3.3. Exponencial ............................................................................................................................................... 3
3.4. Chi-Cuadrado ............................................................................................................................................ 3
3.5. Uniforme.................................................................................................................................................... 3
3.6. Gamma ...................................................................................................................................................... 3
4. Funcin de distribucin ............................................................................................................... 4
4.1. Propiedades de la funcin de distribucin ................................................................................................. 4
4.2. Distribucin del mximo y mnimo de varias VAs ................................................................................... 4
4.3. Convolucin (distribucin de la suma de dos VAs) .................................................................................. 4
4.4. Distribucin conjunta ................................................................................................................................ 4
5. Esperanza, varianza y cuantiles................................................................................................. 5
5.1. Valor esperado ............................................................................................................................ 6
5.2. Varianza .................................................................................................................................................... 6
5.3. Cuantil y mediana..................................................................................................................................... 6
5.3.1. Cuantil ............................................................................................................................................ 6
5.3.2. Cuantil emprico .............................................................................................................................. 6
5.3.3. Mediana y mediana emprica ........................................................................................................... 6
5.4. Covarianza ................................................................................................................................................ 6
5.5. Coeficiente de correlacin .......................................................................................................................... 6
6. Ley Fuerte de los Grandes Nmeros........................................................................................ 7
7. Montecarlo ..................................................................................................................................... 7
7.1. Clculo de integrales ................................................................................................................................. 7
7.2. Clculo de reas ........................................................................................................................................ 7
8. Estimacin ...................................................................................................................................... 7
8.1. Estimadores consistentes ........................................................................................................................... 7
8.2. Estimadores consistentes para la esperanza y varianza ............................................................................. 7
8.3. Sesgo de un estimador ............................................................................................................................... 8
8.4. Error cuadrtico medio .............................................................................................................................. 8
8.5. Mtodo de los momentos ........................................................................................................................... 8
8.6. Mtodo de mxima verosimilitud .............................................................................................................. 8
8.7. Estimadores por mxima verosimilitud de algunos parmetros ................................................................. 9
9. Teorema Central del Lmite ....................................................................................................... 9
10. Intervalos de Confianza para un estimador ............................................................................ 9
10.1. Caso 1 (intervalo para la media con varianza conocida distribucin normal) ....................................... 10
10.2. Caso 2 (intervalo para la media con varianza desconocida distribucin normal) .................................. 10
10.3. Caso 3 (intervalo para la media con varianza conocida cualquier distribucin) .................................... 10
10.4. Caso 4 (intervalo para la media con varianza desconocida cualquier distribucin) ............................... 10
10.5. Caso 5 (intervalo para la varianza distribucin normal) ....................................................................... 10
10.6. Esperanza y varianza ligadas (intervalo para la media)........................................................................... 10
11. Pruebas de hiptesis paramtricas ........................................................................................... 11
11.1. Test sobre la media (varianza conocida) distribucin normal ............................................................... 11
11.2. Test sobre la media (varianza desconocida) distribucin normal .......................................................... 12
11.3. Test sobre la media (varianza desconocida) madia y varianza ligadas.................................................. 12
11.4. Lema de Neyman-Pearson ....................................................................................................................... 12
12. Pruebas de aleatoriedad .............................................................................................................. 13
12.1. Test de rachas de subidas y bajadas ........................................................................................................ 13
12.2. Test de correlacin de rangos de Spearman ............................................................................................. 13
13. Pruebas de independencia .......................................................................................................... 13
14. Funcin de distribucin emprica .............................................................................................. 14
14.1. Teorema de Glivenko-Cantelli ................................................................................................................. 14
15. Pruebas de ajuste ......................................................................................................................... 14
15.1. Test de ajuste de Kolmogorov-Smirnov ................................................................................................... 14
15.2. Clculo del estadstico del test de ajuste de Kolmogorov-Smirnov .......................................................... 15
15.3. Test de Lilliefors de ajuste a normales..................................................................................................... 15
15.4. Test de Lilliefors de ajuste a exponenciales ............................................................................................. 15
15.5. Test de DAgostino .................................................................................................................................. 16
16. Pruebas de comparacin ............................................................................................................. 16
16.1. Test de comparacin de Kolmogorov-Smirnov......................................................................................... 16
17. Tablas .............................................................................................................................................. 17
17.1. Distribucin normal ................................................................................................................................. 17
17.2. Distribucin t-Student ............................................................................................................................. 17
17.3. Distribucin Chi-Cuadrado ...................................................................................................................... 18
17.4. Test de rachas de subidas y bajadas ........................................................................................................ 18
17.5. Test de correlacin de rangos de Spearman ............................................................................................. 20
17.6. Test de ajuste de Kolmogorov-Smirnov ................................................................................................... 22
17.7. Test de Lilliefors de ajuste a Normales .................................................................................................... 23
17.8. Test de Lilliefors de ajuste a Exponenciales............................................................................................. 23
17.9. Test de DAgostino .................................................................................................................................. 24
17.10. Test de comparacin de Kolmogorov-Smirnov ....................................................................................... 24
Probabilidad condicional
Pr A B
Definicin: Pr A | B
Pr B

Independencia de eventos
Los eventos A y B son independientes Pr A B Pr A Pr B

Independencia de VAs
Dos VAs X, Y son independientes si para cada par de conjuntos A,B se tiene:

Pr X A, Y B Pr X A Pr Y B

O dicho de otra forma:

Pr X x, Y y Pr X x Pr Y y FXY x, y FX x FY y
f XY x, y f X x fY y

Ley de Probabilidad Total


Sean B1 ,..., Bk eventos que forman una particin de S (espacio muestral) y Pr B j 0 j=1,...,k .
Entonces para cada evento A en S se tiene:

Pr A Pr B j Pr A | B j
k

j 1

Distribuciones Mixtas

Sean F1 , F2 ,..., Fk funciones de distribucin correspondientes a varias distribuciones. Tambin sean


k
p1 , p2 ,..., pk nmeros reales positivos tales que i 1
pi 1 (o sea que estos valores forman una
distribucin de probabilidad). Entonces podemos definir una nueva funcin G por:

G x p1 F1 x p2 F2 x ... pk Fk x

Teorema de Bayes
Sean B1 ,..., Bk eventos que forman una particin de S (espacio muestral) y Pr B j 0 j=1,...,k .
Y sea A un evento tal que Pr A 0 . Entonces para cada i =1,...,k se tiene:

Pr Bi Pr A | B j
Pr Bi | A
Pr B Pr A | B
k

j j
j 1

Hernn Esteves 1

Bernoulli Ber p Poisson Pois


Solo hay dos resultados posibles: xito o fracaso. x
Pr X x e x 0,1, 2,...
Si p es la probabilidad de xito entonces: x!

p x 1 p 1 x con x=0,1 Media Varianza Mediana


Pr X x
0 en otro caso 1 / 3 0, 02 /
* Si X i ~ Pois i , i 1,..., n son n VAs
Media Varianza Mediana
independientes entonces:
p p 1 p 0 si 1 p p
n
0,5 si 1 p p X X 1 ... X n ~ Pois i
i 1
1 si 1 p p

Binomial Bin n, p
Hipergeomtrica H n, N , D
Tengo N bolas en total. Hay D rojas.
Cuenta la cantidad de xitos en una muestra de n
H cuenta la cantidad de bolas rojas que saco sin
(o en una secuencia de intentos de Bernoulli),
reponer de las n que saqu en total.
donde p es la probabilidad de xito.
D N D
n x
p 1 p
n x

x n x
con x=0,...,n
Pr X x x con x=0,...,n
0 Pr X x N
en otro caso

n
Media Varianza Mediana 0 en otro caso
np np 1 p np o np
Media Varianza Mediana
*Cuando n es grande y p es cercano a 0, la
distribucin binomial con parmetros n y p se
nD D N D N n Indefinida
n
puede aproximar por una Poisson de parmetro
N N N N 1
np. Binomial Negativa BN r , p
*Si X ~ Bin n, p entonces: X X1 ... X n BN cuenta la cantidad total de intentos que
donde X i ~ Ber p fueron requeridos hasta obtener el r-simo xito
incluido, donde p es la probabilidad de xito.
*Si X ~ Bin n1 , p y Y ~ Bin n2 , p
x 1 r
p 1 p con x=r,r+1,...
x r
independientes entonces: Z ~ Bin n1 n2 , p
Pr X x r 1
donde Z X Y 0
en otro caso

Geomtrica Geo p BN 1, p Media Varianza Mediana


r/ p r 1 p / p 2
Indefinida
Caso particular de BN en la que r=1. Es decir que
cuento la cantidad de intentos que hice hasta ver *Si X ~ BN n, p entonces: X X1 ... X n

el primer xito (incluido). donde X i ~ Geo p iid

*Si X ~ BN n1 , p y Y ~ BN n2 , p

independientes entonces: Z ~ BN n1 n2 , p
donde Z X Y

Hernn Esteves 2

Normal N , 2 Chi-Cuadrado 2 k
1 x
2
k son los grados de libertad.
1
f x e 2
2 Definicin: Si X ~ 2 n entonces:

Normal Estndar: N 0,1 X Z12 ... Z n 2 donde Z i ~ N 0,1 son iid.

Media Varianza Mediana x n / 2 1 e x / 2


x0
2 f x 2n/ 2 n / 2
*Estandarizacin:
0 si no
Si X ~ N , 2 entonces:
con x e dx

1 x
, >0
X
~ N 0,1
0


Media Varianza Mediana
*Si X ~ N 1 , 1
2
y Y ~ N , 2 2
2
n 2n n 1 2 / 9n
3

independientes entonces: Uniforme U a, b


Z ~ N 1 2 , 12 2 2 donde Z X Y
1
x a, b
Cauchy C x0 , 2 f x b a
0 en otro caso
1 0 xa
f x xa
x x0 2
2

F x x a, b
b a
1 x x0 1 1 xb
F x arctan
2
Media Varianza Mediana
Cauchy Estndar: C 0,1 ab 1 ab
b a
2

2 12 2
Media Varianza Mediana
Indefinida Indefinida x0 Gamma ,

Exponencial exp x 1 x
e x0
f x
0 x<0 0
f x x si no
e x0

0
con x e dx
x<0

1
F x
x
, >0
x
1 e x0 0

Media Varianza Mediana Media Varianza Mediana


1/ 2
ln 2 / / / 2
No hay forma
cerrada

*Si X ~ 1 , 1
2

y Y ~ 2 , 2
2

independientes entonces:
Z ~ 1 2 , 12 2 2 donde Z X Y

Hernn Esteves 3

Propiedades de la funcin de distribucin


Pr a X b F b F a
Pr a X b lim F x F a
x b

Pr X a F a lim F x Pr a X b lim F x lim F x


xa x b xa

Pr X a 1 F a
Pr a X b F b lim F x
Pr X a 1 lim F x
xa

xa

Si a<b y X es continua con distribucin F entonces:

Pr a X b Pr a X b Pr a X b Pr a X b F b F a

Y si X es absolutamente continua con densidad f entonces:


b
Pr a X b Pr a X b Pr a X b Pr a X b F b F a f x dx
a

Distribucin del mximo y mnimo de varias VAs


Si X1 ,..., X n son independientes:


X 1* ~ min X 1 ,..., X n FX * x Pr X 1* x 1 1 FX1 x 1 FX 2 x ... 1 FX n x
1


X n* ~ max X1 ,..., Xn FX * x FX1 x FX 2 x ... FX n x
n

Convolucin
Sean X e Y VAs independientes y sea Z X Y . Entonces:

Caso discreto: Caso continuo:

f X Y z f X z x f Y x

x f X Y z f X z x fY x dx

Hernn Esteves 4

Distribucin conjunta
Definicin:

Discreta: Continua:

f XY x, y Pr X x, Y y Pr X , Y C f XY x, y dxdy
C

Y debe cumplirse: f x, y 1
f x, y dxdy 1
XY
2 Y debe cumplirse: XY
2

Propiedades y teoremas:
x
FX x lim FXY x, y f X t dt
y

y
FY y lim FXY x, y f t dt
Y
x

y x
FXY x, y Pr X x, Y y f r, s drds

FX x FY y (solo si X e Y son independientes)


2 FXY x, y 2 FXY x, y
f XY x, y
xy yx

fX x f XY x, y dy


fY y f XY x, y dx

Hernn Esteves 5

Valor Esperado Cuantil Emprico

Definicin: El cuantil emprico es un estimador del cuantil


de X y dada una muestra X1 ,..., X n iid se
Caso discreto: Caso continuo:
define como:

EX x f x EX x f x dx X n* si n
xRX X n * donde el * indica que
X n 1 si no
Propiedades:
la muestra est ordenada
E X Y E X E Y
Teorema: Si FX es estrictamente creciente
Si Y g X entonces

entonces X n*
c. s .
n
X
E Y g u f u du
X
Mediana y Mediana emprica
Si X e Y son independientes entonces
E X Y E X E Y
Definicin: se define la mediana de X como:
m X X 0,5 (caso particular del cuantil donde
Si Pr X 0 1 entonces

0,5 ). Lo mismo ocurre con la mediana
E X 1 F x dx emprica mn :
0

X n*/ 2 si n es par
Varianza mn *
X n /21 si no
Definicin: X 2 Var X E X
X
2

donde el * indica que la muestra est ordenada


Desviacin estndar: X Var X Sd X Aplicando el teorema: si FX es estrictamente

Propiedades: creciente entonces mn


c. s .
n
mX .

Var X 0 Covarianza
Var aX b a Var X
2

Definicin: Cov X , Y E X Y
Var X E X 2 E X
2 X Y

Var X E X 2 Propiedades:

Var X Y Var X Var Y 2Cov X , Y Cov aX bY , Z aCov X , Z bCov Y , Z


Cov X , Y E X Y E X E Y
Cuantil y Mediana
(Si X e Y son independientes entonces la
Cuantil covarianza es 0).

Definicin: sea X una variable aleatoria. Su Coeficiente de Correlacin


cuantil 0,1 se define como:
Cov X , Y
Definicin: Corr X , Y
X min x : FX x Var X Var Y

Hernn Esteves 6

Ley Fuerte de los Grandes Nmeros


Si X1 ,..., X n iid con E X i entonces:

X ... X n
Pr lim 1 1
n n
X 1 ... X n
Donde X n es el promedio de la muestra.
n

Montecarlo
Clculo de Integrales

Sean U i i ~ U 0,1 iid y f R a, b (f es integrable Riemann en [a,b]), entonces:

b
1 n 1

n i 1
f U i
c.s.
n

b a a
f x dx

Clculo de reas

Sean D una regin arbitraria a, b c, d y sean U1 ,U 2 ,...,U n variables aleatorias independientes e


idnticamente distribuidas con distribucin U a , b c , d , es decir que se cumple que

Pr U A rea A a , b c, d .

# i :1 i n y U i D
Si an b a d c entonces:
n

an
c.s.
n
rea D

Estimacin
Estimadores Consistentes

Definicin: Sean X n n iid con distribucin F donde es un parmetro. Se considera la familia


T X ,..., X
n 1 n n
donde Tn es una funcin de los n datos (que cumple ciertas hiptesis). Tn X1 ,..., X n se

llama un estimador de . Un estimador se dice consistente si Tn X 1 ,..., X n


c. s .
n
.

Estimadores Consistentes para y 2

Sean X n n iid tales que E X 1 y Var X 1 2 0 . Entonces tenemos los siguientes


estimadores consistentes:

X n
c. s.
n
n2
c.s.
n
2 n
c. s .
n
sn2
c.s .
n
2 sn
c. s.
n

1 n

Xi Xn 1 n

Xi Xn
2 2
Donde: n2 sn2
n i 1 n 1 i 1

Hernn Esteves 7

Sesgo de un Estimador

Definicin: Sean X n : n iid con distribucin F . Se define el sesgo de un estimador


Tn Tn X 1 ,..., X n de como:

E Tn

Un estimador se dice insesgado si su sesgo es cero, es decir:

E Tn

Decimos que es asintticamente insesgado si:

lim E Tn 0
n

Error Cuadrtico Medio


Definicin: ECM Tn E Tn
2

Si el estimador tiene sesgo an entonces:

ECM Tn Var Tn an 2

Mtodo de los momentos

Se resuelve el siguiente sistema tomando la cantidad de ecuaciones necesarias.

Obs.: el estimador no es nico.

Xn
c.s .
EX
n
n

1 EX2
n
X i2
c.s .
n
i 1


1 n
X ik
c.s .
EXk
n i 1
n

Mtodo de Mxima Verosimilitud

Debo maximizar la funcin de verosimilitud (likelihood) que es:


n
L | x1 ,..., xn f x1 ... f xn f xi
i 1

L indica la probabilidad de obtener la muestra x1 ,..., xn cuando es el valor verdadero.

Se pasa a la log-likelihood y se maximiza esa para pasar de productorias a sumatorias:

l | x1 ,..., xn ln L | x1 ,..., xn

Si la funcin no es diferenciable hay que hacer un anlisis ms cuidadoso.

Hernn Esteves 8

Estimadores por Mxima verosimilitud de algunos parmetros

Ber
X n X

N , 2
n

Pois
X n 2 1 n

X i X n
2

nm n i 1
BN m, p
p
x1 ... xn
1 a min x1 ,..., xn
exp
U a, b

Xn b max x1 ,..., xn

*Todos o algunos estimadores pueden coincidir con los estimadores por el mtodo de los momentos

Teorema Central del Lmite


Sean X1 ,..., X n iid con E X 1 y Var X1 2 . Entonces

Si Z n
X n Z N 0,1
d

2
Adems se observa: X n
d
N ,
n

Intervalos de Confianza para un estimador


Definicin: sea Tn nuestro estimador. Buscamos un intervalo I con confianza 1 a tal que:

Pr Tn I 1

Los intervalos tienen la forma: Tn , Tn o aTn , bTn

Definicin: Dado p 0,1 entonces z p es el nico valor que cumple:

1 FN 0,1 z p p

Geomtricamente es el valor que deja rea p a partir de z p en adelante en el grfico de la densidad de la


normal estndar.

Definicin: Distribucin t-Student con n grados de libertad: T ~ t n

Si T ~ t n entonces FT x 1 FT x .

Definicin: Llamamos t p n 1 al nico valor que cumple:

1 FT t p n 1 p

Definicin: Llamamos p2 k al valor que deja rea p a partir de l en adelante en el grfico de la


densidad de la distribucin Chi-Cuadrado.

Hernn Esteves 9

Caso 1

X 1 ,..., X n ~ N , 2 iid . Donde 2 es conocido. El IdC para la esperanza es:

z /2 z
Xn , X n /2
n n

Caso 2

X 1 ,..., X n ~ N , 2 iid . Donde es desconocido. El IdC para la esperanza es:


2

t / 2 n 1 sn t n 1 sn
Xn , X n /2
n n

Caso 3

X1 ,..., X n ~ Cualquiera iid . Donde 2 es conocido y n es muy grande. El IdC para la esperanza es:

z /2 z
Xn , X n /2
n n

Caso 4

X1 ,..., X n ~ Cualquiera iid . Donde 2 es desconocido y n es muy grande. El IdC para la esperanza es:

t / 2 n 1 sn t n 1 sn z /2 sn z s
Xn , X n /2 Xn , X n /2 n
n n n n

Caso 5

X 1 ,..., X n ~ N , 2 iid . El IdC para la varianza es:

n 1 sn 2 n 1 sn 2
2 , 2
/ 2 n 1 1 / 2 n 1

Esperanza y Varianza Ligadas

Sean X 1 ,..., X n iid con E X y Var X 2 f .

Si f es continua entonces f X n
n
c. s. 2
y se tiene que el intervalo para el estimador es:

z
X /2
f Xn
, X


z /2 f X n
n n
n
n

Hernn Esteves 10

Pruebas de hiptesis paramtricas


Tengo una muestra X 1 ,..., X n iid y dos hiptesis: H 0 (hiptesis nula) y H1 (hiptesis alternativa). Si
decido H1 voy a cometer un error de tipo 1 y si decido H 0 cometo un error de tipo 2. El criterio de
decisin viene dado por el regin crtica y sta depende del test.

Definicin: Pr error tipo 1 Pr H1 | H0 PrH H1 y es el nivel del test.


0

Definicin: Pr error tipo 2 Pr H0 | H1 PrH H0 .


1

Definicin: 1 es la potencia del test.

Definicin: es el p-valor de la muestra e indica que para niveles


*
mayores a decido H1 , si no H 0 .
*

Definicin: el estadstico del test es el valor que vamos a usar para chequear si cumple o no con la regin
critica.

Definicin: Si nuestra muestra X 1 ,..., X n iid hace que el estadstico cumpla con la regin crtica
decidimos H1 , si no H 0 .


Los siguientes tests son para una muestra X 1 ,..., X n ~N , 2 iid o para una muestra X1 ,..., X n iid donde
n es muy grande (para poder aplicar el TCL).

Test sobre ( conocido)

H 0 : 0
H 0 : 0 H 0 : 0
n X n 0

H1 : 1 R z
H1 : 0 H1 : 0
1 0
H 0 : 0
H 0 : 0 H 0 : 0
n X n 0

H1 : 1 R za
H1 : 0 H1 : 0
1 0
H 0 : 0
R

n X
n 0

z /2

H1 : 0

Hernn Esteves 11

Test sobre ( desconocido)

H 0 : 0
H 0 : 0 H 0 : 0
n X n 0
t n 1


H1 : 1 R
H1 : 0 H1 : 0
sn

1 0
H 0 : 0
H 0 : 0 H 0 : 0
n X n 0
t n 1


H1 : 1 R
H1 : 0 H1 : 0
sn

1 0
H 0 : 0
R
n X
n 0
t /2 n 1



H1 : 0 sn

Test sobre ( desconocido) - media y varianza ligadas

En el caso de la media y varianza ligadas puede testearse de forma anloga al anterior reemplazando
t n 1 por za y sn por f X n
Test sobre ( desconocido)

H0 : 0
H0 : 0 H0 : 0 s2
H1 : 1 R n 1 n2 2 n 1
H1 : 0 H1 : 0 0
1 0
H0 : 0
H0 : 0 H0 : 0 s2
H1 : 1 R n 1 n2 12 n 1
H1 : 0 H1 : 0 0
1 0
H0 : 0 s2
R n 1 n2 12 /2 n 1 , 2 / 2 n 1
H1 : 0 0

Lema de Neyman-Pearson

H 0 : 0
Sean X1 ,..., X n iid con densidad f y el test: .
H1 : 1

Sea 0,1 . La regin de nivel que maximiza la potencia es:


RNP L 1 | x1 ,..., xn k L 0 | x1 ,..., xn

Donde k debe ser hallado y debe ser tal que se cumpla la igualdad:

Pr RNP | H0 Pr error tipo 1

Es decir la probabilidad de que ocurra la desigualdad de la regin.

Hernn Esteves 12

Pruebas de aleatoriedad
Tenemos X1 ,..., X n con distribucin continua sin saber si son iid o no. Nuestro objetivo es decidir:

H 0 : X 1 ,..., X n es iid

H1 : X 1 ,..., X n no es iid

Test de rachas de subidas y bajadas

Teniendo la muestra X1 ,..., X n lo que hacemos (sin ordenarla) es escribir un 1 si el siguiente es mayor o
igual, si no un 0. Luego contamos la cantidad de rachas de ceros y unos y ste nmero es R .

Teniendo n (tamao de la muestra) y R vamos a la tabla del test y obtenemos el p-valor * .


Test de correlacin de rangos de Spearman

Tenemos una muestra X1 ,..., X n . Lo que se hace es escribir la posicin R X i (rango) en la que estara
cada X i si la muestra estuviera ordenada. El estadstico del test es:

n
6 R Xi i
2

rs 1 i 1

n n2 1

Teniendo el rango y el tamao de la muestra vamos a la tabla y obtenemos P .

Si n 10 la tabla me da el p-valor; si no me da la regin crtica:

r s P

*Se deben realizar ambos tests y si al menos uno de ellos falla entonces no podremos concluir que la
muestra sea iid.

Pruebas de independencia
Tenemos las muestras X 1 ,..., X n ~ F1 y Y1 ,..., Yn ~ F2 del mismo tamao n . Nuestro objetivo es decidir:

H 0 : X e Y son independientes

H1 : X e Y no son independientes

Usamos el test de correlacin de rangos de Spearman como se describe anteriormente a diferencia que ahora
lo que hacemos es obtener los rangos para cada muestra y nuestro estadstico es:
n
6 R X i R Yi
2

rs 1 i 1

n n2 1

Hernn Esteves 13

Funcin de distribucin emprica


Sea la muestra X 1 ,..., X n ~ F iid.

Definicin: la funcin de distribucin emprica es una estimacin de la verdadera funcin de distribucin


y se define como:

nmero de elementos en la muestra t 1 n


Fn (t ) 1{ X i t}
n n i 1

Donde 1{ Xi t} es la funcin indicatriz que devuelve 1 si se cumple la condicin del subndice, si no 0.

Teorema de Glivenko-Cantelli

Sea la muestra X 1 ,..., X n ~ F iid. Entonces se cumple que:

sup Fn t F t
c.s .
n
0
t

Pruebas de ajuste
Test de ajuste de Kolmogorov-Smirnov

Sea la muestra X 1 ,..., X n iid y F0 funcin de distribucin conocida y determinada (se conocen todos los
parmetros). Nuestro objetivo es decidir:

H 0 : X ~ F0

H1 : no H 0

Lo que se hace es hallar la funcin de distribucin emprica segn la muestra y calculamos el estadstico del
test:

Dn sup Fn t F0 t
t

Luego se ve el valor de la tabla y se decide segn la regin:

Dn valor de la tabla
*La descripcin para calcular Dn est en la prxima pgina.

Verdadera funcin de distribucin


Funcin de distribucin emprica

Hernn Esteves 14

Clculo de Dn

Para hallar el estadstico del test Dn primero ordenamos la muestra de forma creciente y denotamos como
X i* al valor de la muestra que qued en la posicin i luego de ordenar. Nos definimos:

k F0 X k Fn X k

k F0 X k Fn X k

Dn es el mximo valor de las dos ltimas columnas de la siguiente tabla:

F0 Fn X i
F0 X1* F0 X 1* F0 X 1* 0
1 1
X 1*
n n


k 1
F0 X k* F0 X k* F0 X k*
k k
X k*
n n n


n 1
X n* F0 X n* 1 F0 X n* 1 F0 X n*
n

Test de Lilliefors de ajuste a Normales

Sea la muestra X 1 ,..., X n iid y F la funcin de distribucin normal aproximada a partir de esa muestra con
los estimadores sn2 para la varianza y X n para la media. Nuestro objetivo es decidir:

H 0 : la muestra proviene de una distribucin normal



H1 : no H 0

Se hace lo mismo que en el test de Kolmogorov-Smirnov, es decir calculamos la funcin de distribucin


emprica y hallamos Dn . Para este test hay una tabla particular.

Test de Lilliefors de ajuste a Exponenciales

Es otra aplicacin del test de Kolmogorov-Smirnov (anlogo al anterior) donde queremos decidir si la
1 . Esta aplicacin tambin tiene
muestra viene de una exponencial con su parmetro aproximado
Xn
una tabla particular.

Hernn Esteves 15

Test de DAgostino

Sea la muestra X 1 ,..., X n iid. Nuestro objetivo es decidir:

H 0 : la muestra proviene de una distribucin normal



H1 : no H 0

El estadstico del test es:


n
n 1 *
i
i 1
Xi
2
DA
n 2 sn

Donde sn es el estimador descrito anteriormente para la desviacin estndar y X i* indica el valor que
qued en la posicin i luego de ordenar la muestra de forma creciente.

La tabla nos da intervalos; si el estadstico cae dentro del intervalo entonces se acepta la hiptesis nula.

Pruebas de comparacin
Test de comparacin de Kolmogorov-Smirnov

Tengo las muestras X 1 ,..., X n ~ FX iid y Y1 ,..., Ym ~ FY iid donde tambin cada Yi es independiente de cada
X i . Nuestro objetivo es decidir:

H 0 : FX FY

H1 : no H 0

Lo que hacemos es hallar las funciones de distribucin empricas FnX y FmY para cada muestra. Nuestro
estadstico es:

Dnm sup FnX t FmY t


t

Decidimos nuevamente segn la regin: Dnm valor de la tabla

Para calcular el estadstico, tomamos todos los datos de ambas muestras y los ordenamos. De esta forma
Z i* indica el dato que qued en la posicin i luego de haber juntado ambas muestras en una sola lista y
ordenarla. Nuestra tabla ahora tiene la forma:

Si Z i* proviene de la FnX FmY


muestra de X entonces
escribimos el valor
Z *
1 1/ n 0 F n
X
Z F Z
*
1
Y
m
*
1

correspondiente y del

lado de Y no sumamos
*
nada (repetimos el Z nm 1 1 0
valor anterior). En
este caso al ser la
En esta columna restamos los valores
primera fila ponemos
de las dos columnas anteriores y
0.
tomamos el valor absoluto. El
mximo de esta columna es el
Hernn Esteves 16
estadstico

Tablas
Distribucin Normal Distribucin t-Student

Hernn Esteves 17

Distribucin Chi-Cuadrado Test de rachas de subidas y bajadas

g son los grados de libertad.

p es el rea a la derecha.

Hernn Esteves 18

Para muestras con n 25 datos, usamos la aproximacin normal.

2n 1
el p-valor de la prueba es Pr Z zL con
*
Si R
3
2n 1
R 0.5
Z ~ N 0,1 y zL 3
16n 29
90
2n 1
el p-valor de la prueba es Pr Z zL con
*
Si R
3
2n 1
R 0.5
Z ~ N 0,1 y zL 3
16n 29
90

Hernn Esteves 19

Test de Correlacin de Rangos de Spearman

R en la tabla indica el estadstico del test rs descrito anteriormente.

Hernn Esteves 20

Para muestras con n 30 datos, usamos la aproximacin normal.

Si rs 0 el p-valor de la prueba es * Pr Z zL con Z ~ N 0,1


y zL rs n 1
Si rs 0 el p-valor de la prueba es * Pr Z zR con
Z ~ N 0,1 y zR rs n 1

Hernn Esteves 21

Test de ajuste de Kolmogorov-Smirnov

Hernn Esteves 22

Test de Lilliefors de ajuste a Normales Test de Lilliefors de ajuste a Exponenciales

Hernn Esteves 23

Test de DAgostino Test de comparacin de Kolmogorov-Smirnov

Hernn Esteves 24

Para m y n grandes, los valores se calculan de la siguiente forma:

0,2 0,1 0,05 0,02 0,01


1.07 N 1.22 N 1.36 N 1.52 N 1.63 N
mn mn mn mn mn
Donde N=m+n.

Hernn Esteves 25

You might also like