You are on page 1of 23

Curso de Probabilidad y Estadstica

Conceptos Fundamentales Parte 2


Dr. Jos Antonio Camarena Ibarrola e
camarena@umich.mx

Universidad Michoacana de San Nicol s de Hidalgo a Facultad de Ingeniera El ctrica e Divisi n de Estudios de Postgrado o

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.1/22

Esperanza Matemtica
El valor esperado de una variable aleatoria discreta X con distribucin de probabilidad f (x) es E[X] =
x

xf (x)

El valor esperado de una variable aleatoria continua X con densidad f (x) es

E[X] =

xf (x)dx

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.2/22

Ejemplo
Juan arroja un dado y gana $1 si obtiene 1 o 2, $2 si obtiene un 3 o un 4, $4 si sale 5 y $8 si sale 6. Cuanto dinero debera pagar antes de arrojar el dado para que el juego sea justo?

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.3/22

Ejemplo
Juan arroja un dado y gana $1 si obtiene 1 o 2, $2 si obtiene un 3 o un 4, $4 si sale 5 y $8 si sale 6. Cuanto dinero debera pagar antes de arrojar el dado para que el juego sea justo? 1 1 1 1 xf (x) = (1) + (2) + (4) + (8) = 3 3 3 6 6

E[X] =
x

Juan debera pagar $3 antes de arrojar el dado

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.3/22

Esperanza de una funcin


El valor esperado de una funcin g(X) de una variable aleatoria X con distribucin/densidad f (x) es: E[g(X)] = x g(x)f (x) E[g(X)] = g(x)f (x)dx En el ejemplo anterior, se asoci cada elemento del espacio muestral con una cantidad: x 1 2 3 4 5 6 g(x) $1 $1 $2 $2 $4 $8 Si a y b son constantes, entonces: E[aX +b] = aE[X]+b

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.4/22

Esperanza de una funcin bivariable


E[g(X, Y )] =
x y

g(x, y)f (x, y)

E[g(X, Y )] =

g(x, y)f (x, y)dxdy

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.5/22

Momentos de una distribucin


El k-simo momento de la variable aleatoria X es: E[X k ] =
x

xk f (x) xk f (x)dx

E[X k ] =

El primer momento es la media: = E[X]

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.6/22

Momentos centrales
E[(X )k ] =
x

(x )k f (x) (x )k f (x)dx

E[(X )k ] =

El primer momento central es cero E[(X )] = E[X] = = 0 El segundo momento central es la varianza 2 = E[(X )2 ]

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.7/22

La varianza

2 = E[(X )2 ] = E[X 2 2X + 2 ] 2 = E[X 2 ] 2E[X] + 2 Pero E[X] = , entonces 2 = E[X 2 ] 22 + 2 = E[X 2 ] 2

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.8/22

Ejemplo
X: Nmero obtenido al lanzar un dado legal 1 1 1 1 1 7 1 = E[X] = (1) +(2) +(3) +(4) +(5) +(6) = 6 6 6 6 6 6 2
2 2

91 1 2 1 2 1 2 1 2 1 2 1 E[X ] = (1 ) +(2 ) +(3 ) +(4 ) +(5 ) +(6 ) = 6 6 6 6 6 6 6 91 49 182 147 35 = = = E[X ] = 6 4 12 12


2 2 2

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.9/22

Desviacin Estandar
Una distibucin normal tiene 6 sigma (6) de ancho aproximdamente
0.8 0.8 0.6 0.6

0.4

0.4

0.2

0.2

0 8

0 8

=1

=2

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.10/22

El sesgo
Si una distribucin es simtrica respecto a la media (), entonces su tercer momento central es cero El sesgo se dene como: 1 = 3 E[(X )3 ]
0.8

0.4

0.6

0.3

0.4

0.2

0.2

0.1

0 8

10

15

20

25

30

35

=0

=0

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.11/22

La curtosis

La curtosis utiliza el cuarto momento central para dar una medida de la picudez de la distribucin 1 = 4 E[(X )4 ] La distribucin normal (gaussiana) tiene una curtosis de 3, por lo cual, mientras mas cercana a 3 es la curtosis de una distribucin, mas "normal" es.

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.12/22

La Funcin generadora de momentos

G(t) = E[etX ] =

etx f (x)dx xetx f (x)dx

dG(t) = dt dk G(t) = k dt

xk etx f (x)dx

E[X k ] = G(k) (0) = E[X] = G (0)

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.13/22

Ejemplo
Encuentre los primeros 4 momentos alrededor del origen de la

ex x > 0 variable aleatoria con densidad: f (x) = 0 x<0


tx tx x 0 e e dx x(1t) dx 0 e

G(t) = E[e ] = = = 1 G (t) = (1t)2 , entonces = E[X] = G (0) = 1


2 , entonces E[X 2 ] = G (0) = 2 (1t)3 6 = (1t)4 , entonces E[X 3 ] = G (0) = 6 2 2 2

1 1t

G (t) =

G (t) 2 = E[X ] = 2 1 = 1

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.14/22

La desigualdad de Chebyshev
La probabilidad de que la variable aleatoria X tome un valor que est a una distancia de la media menor a k desviaciones estandar es mayor o igual a 1 k12 1 P (|X | < k) 1 2 k
2

Ejemplo: La probabilidad de que la variable aleatoria tome un valor a una distancia menor que 2 desviaciones estandar de la media es mayor o igual a 1 212 = 3 . 4 La probabilidad de que la variable aleatoria tome un valor a una distancia menor que 3 desviaciones estandar de la media es mayor o igual a 1
1 32 8 = 9.

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.15/22

La Covarianza XY
La covarianza entre dos variables aleatorias X y Y es un indicador de la relacin que hay entre ellas XY = E[XY ] x y
2 Nota: Esto es anlogo a X = XX = E[X 2 ] 2 x

Si X y Y son independientes, entonces E[XY ] = E[X]E[Y ] y por tanto XY = 0

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.16/22

Ejemplo
La distribucin cd probabilidad de X y Y se muestra en la siguiente tabla (c = X\Y 0 1 2 E[X] = P P
13 7 y xf (x, y) = 1 ): 42

0 0 2c 4c

1 c 3c 5c

2 2c 4c 6c

3 3c 5c 7c

P 29 1 x y f (x, y) = (0)(6c)+(1)(14c)+(2)(22c) = 58( 42 ) = 21 x x P P P P E[Y ] = x y yf (x, y) = y y x f (x, y) = (0)(6c) + (1)(9c) + (2)(12c) + (3)(15c) = P P P E[XY ] = x y xyf (x, y) = (0)(0)(0) + (0)(1)(c) + (0)(2)(2c) + (0)(3)(3c) + (1)(0)(2c) + (1)(1)(3c) + (1)(2)(4c) + 1 (1)(3)(5c) + (2)(0)(4c) + (2)(1)(5c) + (2)(2)(6c) + (2)(3)(7c) = 162( 42 ) = 17 7 XY = E[XY ] E[X]E[Y ] =
17 7

1 78( 42 ) =

29 13 21 7

20 = 147

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.17/22

Ejemplo (continuacin)
X\Y 0 1 2 E[X 2 ] = P P
x 17 7 2 y x f (x, y) =

0 0 2c 4c P

1 c 3c 5c

2 2c 4c 6c

3 3c 5c 7c

2 xx

f (x, y) = (0)(6c) + (1)(14c) + (4)(22c) =

1 102( 42 ) = P P P P E[Y 2 ] = x y y 2 f (x, y) = y y 2 x f (x, y) = 1 (0)(6c) + (1)(9c) + (4)(12c) + (9)(15c) = 192( 42 ) = 2 X = E[X 2 ] E[X]2 = 2 Y = E[Y 2 ] E[Y ]2 = 17 7 32 7 32 7

( 29 )2 = 21 ( 13 )2 = 7

230 441 55 49

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.18/22

Matrz de covarianzas
2 X1 X1 X2 2 X2 X1 X2 . . . . . . Xn X1 Xn X2

. . . X1 Xn . . . X2 Xn . . ... . 2 . . . Xn

Donde: Xi Xj = Xj Xi i, j
Si todas las variables X1 , X2 , .., Xn son independientes, entonces la matrz de covarianzas es una matrz diagonal. Si todas las variables X1 , X2 , .., Xn son independientes, entonces E[X1 X2 Xn ] = E[X1 ]E[X2 ] E[Xn ]

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.19/22

Ejemplo
Para el ejemplo anterior la matrz de covarianzas es:
230 441 20 147 20 147 55 49

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.20/22

El coeciente de correlacin
El coeciente de correlacin mide la asociacin entre dos variables aleatorias XY = X Y Para el ejemplo anterior = 20/147 230/241 55/49 = 0.2103

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.21/22

Otras medidas de variable aleatoria


La moda de una variable aleatoria es el valor que ocurre con mayor frecuencia si hay dos, tres o mas valores que ocurren con gran frecuencia, decimos que se trata de una distribucin bimodal, trimodal o multimodal La mediana es el valor de x para el cual P(X>x)=P(X<x)=1/2. La mediana divide la curva de densidad en dos partes con la misma rea. Percentiles. Si dividimos el rea bajo la curva de la densidad en 10, a cada parte le denominamos decil, si la dividimos en 4, cada parte es un cuartil (primer cuartil, segundo cuartil, etc.).

Dr. J Antonio Camarena Ibarrola, DEPFIE, UMSNH p.22/22

You might also like