You are on page 1of 397

Curso intermedio de PROBABILIDAD

Luis Rincn o Departamento de Matemticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 Mxico DF e Versin: Octubre 2007 o

Una versin actualizada del presente texto se encuentra disponible en formato o electrnico en la direccin http://www.matematicas.unam.mx/lars o o

ii

Contenido

1. Espacios de probabilidad 1.1. Espacios de probabilidad . 1.2. -lgebras . . . . . . . . . a 1.3. Medidas de probabilidad . 1.4. Independencia de eventos 1.5. Lema de Borel-Cantelli . . 1.6. Ejercicios . . . . . . . . .

. . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

1 1 3 20 33 37 42 57 57 68 74 81 84 94 100 108

2. Variables aleatorias 2.1. Variables aleatorias . . . . . . 2.2. Funcin de distribucin . . . o o 2.3. Tipos de variables aleatorias . 2.4. Integral de Riemann-Stieltjes 2.5. Caracter sticas numricas . . e 2.6. Distribuciones discretas . . . 2.7. Distribuciones continuas . . . 2.8. Ejercicios . . . . . . . . . . . 3. Vectores aleatorios 3.1. Vectores aleatorios . . . 3.2. Distribucin conjunta . o 3.3. Densidad conjunta . . . 3.4. Distribucin marginal . o 3.5. Distribucin condicional o . . . . . . . . . . . . . . .

141 . 141 . 144 . 149 . 156 . 160

iii

3.6. Independencia . . . . . . . . . . . . . . . . . . . . 3.7. Esperanza de una funcin de un vector aleatorio o 3.8. Covarianza . . . . . . . . . . . . . . . . . . . . . 3.9. Coeciente de correlacin . . . . . . . . . . . . . o 3.10. Esperanza y varianza de un vector aleatorio . . . 3.11. Distribuciones multivariadas discretas . . . . . . 3.12. Distribuciones multivariadas continuas . . . . . . 3.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 4. Esperanza condicional 4.1. Esperanza condicional 4.2. Esperanza condicional: 4.3. Algunas propiedades . 4.4. Varianza condicional . 4.5. Ejercicios . . . . . . . . . . . . . . . caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

163 168 171 173 179 181 183 186 213 214 216 221 223 226

5. Transformaciones 229 5.1. Transformacin de una variable aleatoria . . . . . . . . . . . . 229 o 5.2. Transformacin de un vector aleatorio . . . . . . . . . . . . . 235 o 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 6. Dist. muestrales y estad sticas de orden 261 6.1. Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . 263 6.2. Estad sticas de orden . . . . . . . . . . . . . . . . . . . . . . . 271 6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 7. Convergencia 7.1. Tipos de convergencia . . . . . . . . . . . . 7.2. Relaciones entre los tipos de convergencia . 7.3. Dos resultados importantes de convergencia 7.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 287 297 303 306

8. Funciones generadoras 311 8.1. Funcin generadora de probabilidad . . . . . . . . . . . . . . 311 o 8.2. Funcin generadora de momentos . . . . . . . . . . . . . . . . 316 o iv

8.3. Funcin caracter o stica . . . . . . . . . . . . . . . . . . . . . . 323 8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 9. Dos 9.1. 9.2. 9.3. 9.4. teoremas l mite Algunas desigualdades . . . Ley de los grandes nmeros u Teorema central del l mite . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 347 352 357 360 365 373

A. Distribuciones de probabilidad B. Conceptos y resultados varios

vi

Prlogo o

El presente texto est dirigido a estudiantes de mitad de carrera de las a licenciaturas de matemticas, actuar y reas anes. Contiene el material a a, a bsico para un segundo curso de probabilidad, y tiene como origen las notas a de clase del curso semestral de Probabilidad II, que he impartido durante los ultimos aos en la Facultad de Ciencias de la UNAM. n El nfasis de este segundo curso se centra en la formalizacin de algunos e o conceptos estudiados en un primer curso de probabilidad, y en el estudio de vectores aleatorios y sus varios conceptos relacionados. El lector puede comprobar que se hace poco nfasis en las aplicaciones, y que la exposicin e o cubre principalmente el desarrollo matemtico. El objetivo es que despus a e de este curso, el estudiante pueda continuar con facilidad con un curso de estad stica matemtica, de procesos estocsticos, o tal vez un curso avana a zado de probabilidad o de teor de la medida, teniendo como elementos a bsicos los conceptos tericos aqu desarrollados. En particular se incluye a o un cap tulo sobre esperanza condicional, cuyo uso y aplicacin es cada vez o ms frecuente. Tambin se incluye un cap a e tulo sobre distribuciones muestrales y estad sticas de orden, con aplicaciones inmediatas en temas de la estad stica matemtica. a Al nal de cada cap tulo el lector encontrar una lista de ejercicios separaa dos por temas. La mayor de estos ejercicios son de tipo mecnico, algunos a a de ellos son muy sencillos de modo que el trmino ejercicios me parece e justo y adecuado. Pocos de estos ejercicios son originales, la mayor parte de vii

ellos son modicaciones de ejemplos o resultados clsicos que se encuentran a en la larga literatura existente. La intencin de contar con este material es o la de crear conanza y soltura por parte del alumno en el manejo de los conceptos y notacin involucrados. El nmero de ejercicios excede lo que o u normalmente puede realizarse en un semestre, y el objetivo que siempre tuve en mente estos aos fue el tener un nmero suciente de ellos para n u presentar algunos en clase, dejar otros para trabajo en casa, y asignar algunos otros para preguntas de examen, usando material ligeramente distinto cada semestre para evitar repeticiones. Durante la exposicin de los temas o el lector encontrar tambin algunos otros ejercicios propuestos y algunos a e ejemplos resueltos. La presentacin del material mantiene la estructura de las notas de clase, o y creo que ser particularmente util al estudiante con poco tiempo para a leer prrafos completos, y quien slo busca una denicin, un resultado, un a o o ejemplo, un ejercicio, o tal vez orientacin breve acerca de un concepto. En o este sentido, el libro contiene tablas a manera de resumen, y los enunciados estn enmarcados para su fcil localizacin. Tambin he intentado que la a a o e notacin fuera lo ms simple y m o a nima posible. Personalmente me gustan los libros con imgenes y diagramas, y he buscado plasmar ese gusto en este a A a texto. Este material fue escrito en L TEX, y las grcas fueron elaboradas usando el paquete pstricks, lo cual ha sido realmente un placer. Al nal del texto aparece una lista de referencias que me permito sugerir al lector consultar para profundizar y a veces precisar en determinados temas. Algunos de estos textos no han sido mencionados expl citamente pero aparecen en la lista por que en algn momento he obtenido inspiracin de ellos. u o Agradezco sinceramente a todas aquellas personas, alumnos y profesores, quienes a travs de sus comentarios y sugerencias, han contribuido al mee joramiento de este texto. Cualquier correccin o comentario acerca de este o trabajo ser muy bien recibido en el correo electrnico que aparece abajo. a o Es mi intencin mantener en el futuro, hasta donde me sea posible, una o versin electrnica actualizada, corregida y gratuita del presente texto. La o o pgina web donde puede obtenerse es a

viii

http://www.matematicas.unam.mx/lars Por ultimo, me parece importante mencionar que este texto ha sido posible, en gran medida, al excelente ambiente de trabajo y de libertad acadmica e que he tenido la fortuna de encontrar en el Departamento de Matemticas a de la Facultad de Ciencias de la UNAM. Gracias a todos por su conanza y apoyo. Luis Rincn o Diciembre 2006 Ciudad Universitaria UNAM lars@fciencias.unam.mx

ix

Cap tulo 1

Espacios de probabilidad

La teor de la probabilidad es la parte de las matemticas que se encarga a a del estudio de los fenmenos o experimentos aleatorios. Se entiende por o experimento aleatorio todo aquel experimento tal que cuando se le repite bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo. A menudo, y por muy diversas razones, es necesario aceptar que no es posible predecir el resultado de un experimento particular an u cuando se le haya efectuado con anterioridad varias veces bajo las mismas condiciones iniciales, y en consecuencia se considera aleatorio. Bajo estas circunstancias, la teor de la probabilidad tiene el objetivo de modelar a matemticamente cualquier experimento aleatorio de inters. a e

1.1.

Espacios de probabilidad

El modelo matemtico creado durante el primer tercio del siglo XX para a estudiar los experimentos aleatorios es el as llamado espacio de probabili dad. Este modelo consiste de una terna ordenada, denotada usualmente por (, F , P ), en donde es un conjunto arbitrario, F es una -lgebra de a subconjuntos de , y P es una medida de probabilidad denida sobre F . Explicamos a continuacin brevemente cada uno de estos elementos. o 1

1.1. Espacios de probabilidad

Espacio muestral. El conjunto es llamado espacio muestral o espacio muestra, y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuestin. No es imprescindible darle esta interpreo tacin al conjunto , y matemticamente se le considera entonces como un o a conjunto arbitrario. -algebra. Una clase o coleccin no vac F de subconjuntos de es o a una -lgebra si es cerrada bajo las operaciones de tomar complementos a y uniones numerables. El trmino -lgebra se lee sigma-lgebra. A los e a a elementos de una -lgebra se les llama eventos , sucesos, o conjuntos mea dibles. Debido a su uso extendido, se usa el trmino medible, aunque tal e vez lo correcto sea decir mensurable. En particular, un evento es simple o elemental si consta de a lo ms un elemento de , y es compuesto cuando a consta de dos o ms elementos de . a Medida de probabilidad. Una funcin P denida sobre una -lgebra F o a y con valores en el intervalo [0, 1] es una medida de probabilidad si P () = 1 y es -aditiva, es decir, si cumple que P(

An ) =

n=1

P (An ),

n=1

o cuando A1 , A2 , . . . son elementos de F que cumplen con la condicin de ser ajenos dos a dos, esto es, Ai Aj = para valores de i y j distintos. El nmero P (A) representa una forma de medir la posibilidad de observar u la ocurrencia del evento A, al efectuar una vez el experimento aleatorio. Tenemos entonces formalmente la siguiente denicin. o Definicion. (Espacio de probabilidad). Un espacio de probabilidad es una terna (, F , P ), en donde es un conjunto arbitrario, F es una -lgebra de subconjuntos de , y P es una medida de probabilidad a denida sobre F . El objetivo es asociar un espacio de probabilidad al experimento aleatorio de inters. No existen reglas establecidas para ello y adems la posible asige a

Cap tulo 1. Espacios de probabilidad

nacin no es unica, pues dependiendo del inters del observador, se puede o e asociar un espacio de probabilidad u otro. En este primer cap tulo se estudian con ms detalle los conceptos de -lgebra y medida de probabilidad. a a Empecemos con el primero.

1.2.

-lgebras a

En esta seccin se estudia el concepto de -lgebra y se dene la m o a nima -lgebra generada por una coleccin arbitraria de subconjuntos del espacio a o muestral. Recordemos nuevamente la denicin de esta estructura. o Definicion. (-algebra, espacio medible, evento). Una coleccin o F de subconjuntos de es una -lgebra si cumple las siguientes cona diciones: 1. F . 2. Si A F , entonces Ac F . 3. Si A1 , A2 , . . . F , entonces
n=1

An F .

A la pareja (, F ) se le llama espacio medible y a los elementos de F se les llama eventos o conjuntos medibles. En palabras, una -lgebra es una coleccin de subconjuntos de que no a o es vac y que es cerrada bajo las operaciones de tomar complemento y a efectuar uniones innitas numerables. Estas propiedades garantizan que la coleccin es cerrada al efectuar las operaciones usuales entre conjuntos, es o decir, al tomar las operaciones de unin, interseccin, complemento, difereno o cia, diferencia simtrica, etc. se obtienen nuevamente elementos de la misma e coleccin. o

1.2. -algebras

En probabilidad elemental el conjunto denota el espacio muestral o conjunto de posibles resultados de un experimento aleatorio, y los elementos de F representan eventos en el experimento aleatorio. Una -lgebra es a entonces una estructura que nos permite agrupar ciertos subconjuntos de de inters, aquellos a los cuales se desea calcular su probabilidad, y esta ese tructura constituye el dominio de denicin de una medida de probabilidad. o Cuando el espacio muestral es nito normalmente se toma como -lgebra a el conjunto potencia de , pero para espacio muestrales ms generales no a siempre puede tomarse esa estructura tan grande, y deben considerarse entonces -lgebras ms pequeas, es por ello que se estudian estas estructua a n ras. En general existen varias -lgebras que pueden asociarse a un conjunto a cualquiera no vac como se muestra a continuacin. o o Ejemplo Sea un conjunto cualquiera no vac Es inmediato comprobar o. que cada una de las siguientes colecciones es una -lgebra de subconjuntos a de . La -lgebra del primer inciso es la -lgebra ms pequea que poa a a n demos asociar a un conjunto cualquiera , y la -lgebra del ultimo inciso a es la ms grande. a a) F1 = {, }. b) F2 = {, A, Ac , }, en donde A . c) F3 = 2 , conjunto potencia.

Ejemplo. Sean A y B subconjuntos de tales que A B. La siguiente coleccin es una -lgebra de subconjuntos de que contiene expl o a citamente a los conjuntos A y B. Puede usted vericar tal armacin con la ayuda o de un diagrama de Venn? F = {, A, B, Ac , B c , B A, (B A)c , }

Ejercicio. Sea un conjunto no numerable. Demuestre que la coleccin o c es nito o numerable} es una -lgebra. F dada por {A : A o A a

Cap tulo 1. Espacios de probabilidad

A D

Figura 1.1: Una -lgebra es una coleccin F = {A, B, C, D, E, . . .} de subcona o juntos que no es vac y que es cerrada bajo complementos y uniones numerables. a En la Figura 1.1 puede observarse una representacin grca de una o a a lgebra como una coleccin de subconjuntos de . En la seccin de ejercicios o o se pueden encontrar algunos otros ejemplos de -lgebras. El uso de la letra a F para denotar una -lgebra proviene del nombre en ingls eld que a e signica campo. A menudo se usa tambin el trmino -campo en lugar e e de -lgebra. Observe con cuidado el uso y signicado de los s a mbolos de contencin y pertenencia: A y A F . Demostraremos a continuacin o o algunas otras propiedades generales de las -lgebras. a Proposicion. Sea F una -lgebra de subconjuntos de . Entonces a 1. F . 2. Si A1 , A2 , . . . F , entonces

n=1

An F .

3. Si A, B F , entonces A B F , y AB F .

Demostracin. o 1. Como F y F es una coleccin cerrada bajo complementos, eno

6
tonces c = F .

1.2. -algebras

2. Si A1 , A2 , . . . F , entonces Ac , Ac , . . . F . Por lo tanto Ac 1 2 n=1 n F . Tomando complementos y usando las leyes de De Morgan se obtiene el resultado. 3. Estas proposiciones se siguen de lo demostrado antes y de las deniciones A B := A B c , y AB := (A B) (B A).

La proposicin anterior establece entonces que las -lgebras son estruco a turas tambin cerradas bajo las operaciones de diferencia e intersecciones e numerables. En la seccin de ejercicios pueden encontrarse algunas otras deo niciones de -lgebra equivalentes a la que hemos enunciado, y que involua cran las operaciones de la proposicin anterior. Una operacin de particular o o importancia es aquella en la que se intersectan dos -lgebras produciendo a una nueva -lgebra, este es el contenido del siguiente resultado. a Proposicion. La interseccin de dos -lgebras es una -lgebra. o a a

Demostracin. Sean F1 y F2 dos -lgebras de subconjuntos de un mismo o a . Entonces F1 F2 es aquella coleccin de subconjuntos de cuyos eleo mentos pertenecen tanto a F1 como a F2 . Demostraremos que F1 F2 es una -lgebra. a a) Como F1 y F2 son -lgebras, entonces F1 y F2 . Por lo tanto a F1 F2 . b) Sea A un elemento en F1 F2 . Entonces A F1 y A F2 . Por lo tanto Ac F1 y Ac F2 , es decir, Ac F1 F2 .

c) Sea A1 , A2 , . . . una sucesin de elementos en la interseccin F1 F2 . o o Entonces A1 , A2 , . . . F1 y A1 , A2 , . . . F2 . Por lo tanto n=1 An F1 y n=1 An F2 , es decir, n=1 An F1 F2 .

Cap tulo 1. Espacios de probabilidad

Hemos entonces comprobado que si F1 y F2 son dos -lgebras de un mismo a conjunto , entonces F1 F2 es nuevamente una -lgebra de subconjuntos a de , naturalmente ms pequea que F1 y F2 en el sentido F1 F2 a n F1 , F2 . La siguiente pregunta consiste en vericar si la unin de dos o lgebras produce nuevamente una -lgebra. En este caso la respuesta es a a negativa. En general no es cierto que la unin de dos -lgebras produce una o a nueva -lgebra. Vanse por ejemplo los ejercicios 9 y 10 a este respecto. Por a e otro lado se puede extender la validez de la proposicin recin demostrada o e a intersecciones ms generales como indica el siguiente resultado. a Proposicion. La interseccin nita, innita numerable o bien arbitraria o de -lgebras es nuevamente una -lgebra. a a

Demostracin. Sea T un conjunto arbitrario distinto del vac Suponga o o. que para cada t en T se tiene una -lgebra Ft de subconjuntos de . Sea a F = tT Ft . Siguiendo los mismos pasos que en la demostracin anterior o es fcil probar que F es una -lgebra. Observe que como T es un conjunto a a arbitrario, la -lgebra F es efectivamente una interseccin arbitraria de a o -lgebras. a Lo demostrado anteriormente garantiza que la siguiente denicin tiene seno tido. Definicion. (-algebra generada). Sea C una coleccin no vac de o a subconjuntos de . La -lgebra generada por C , denotada por (C ), a es la coleccin o (C ) = {F : F es -lgebra y C F }. a

Es decir, la coleccin (C ) es la interseccin de todas aquellas -lgebras o o a que contienen a C . Por la proposicin anterior sabemos que (C ) es una o

1.2. -algebras

-lgebra. A (C ) tambin se le llama mnima -lgebra generada por C , a e a y el adjetivo mnima es claro a partir del hecho de que es la -lgebra ms a a pequea que contiene a la coleccin C . Es decir, si F es una -lgebra n o a que contiene a C , entonces forzosamente (C ) F . Observe que C (C ) pues a la coleccin C se le han aadido posiblemente algunos otros o n subconjuntos para convertirla en la -lgebra (C ). a Ejemplo. Sean A, B con A y B ajenos. Dena la coleccin C = {A, B}. o En general esta coleccin no es una -lgebra pero podemos aadirle algunos o a n subconjuntos de para encontrar la -lgebra generada por C . Resulta que a la m nima -lgebra que contiene a la coleccin C es la siguiente. Puede a o usted demostrar tal armacin? o (C ) = {, A, B, (A B)c , A B, Ac , B c , }.

Los siguientes dos resultados son proposiciones sencillas y naturales acerca de -lgebras generadas. Las demostraciones son cortas pero requieren a algunos momentos de reexin en una primera lectura. o Proposicion. Sean C1 y C2 dos colecciones de subconjuntos de tales que C1 C2 . Entonces (C1 ) (C2 ). Demostracin. Claramente C1 C2 (C2 ). Entonces (C2 ) es una o lgebra que contiene a la coleccin C1 . Por lo tanto (C1 ) (C2 ). a o Proposicion. Si F es una -lgebra, entonces (F ) = F . a

Demostracin. Sabemos que F (F ). Por otro lado como F es una o a lgebra que contiene a F , entonces (F ) F . Esto demuestra la igualdad.

Cap tulo 1. Espacios de probabilidad

Ejercicio. Demuestre que ((C )) = (C ), en donde C una coleccin de o subconjuntos de . Ejercicio. Demuestre que (C1 C2 ) = ( (C1 ) (C2 ) ), en donde C1 y C2 son dos colecciones no vac de subconjuntos de . as

Otras estructuras de subconjuntos


En esta seccin se presentan los conceptos de lgebra y semi-lgebra, y su o a a relacin con -lgebras. No estudiaremos estas estructuras con detalle pero o a las mencionamos porque desempean un papel importante en la construcn cin y extensin de medidas de probabilidad. o o Definicion. (Algebra). Una coleccin A de subconjuntos de es una o a lgebra si cumple las siguientes condiciones: 1. A . 2. Si A A , entonces Ac A .
n

3. Si A1 , . . . , An A , entonces

k=1

Ak A .

La diferencia entre una lgebra y una -lgebra estriba en que para la a a primera se pide que sea una coleccin cerrada bajo uniones nitas mientras o que la segunda es una coleccin cerrada bajo uniones innitas numerables. o Claramente toda -lgebra es una lgebra. a a

10

1.2. -algebras

Definicion. (Semialgebra). Una coleccin S de subconjuntos de o es una semilgebra si cumple las siguientes condiciones: a 1. S . 2. Si A, B S , entonces A B S . 3. Si A, A1 S son tales que A1 A, entonces existen A2 , . . . , An S tales que los subconjuntos A1 , . . . , An son ajenos dos a dos y se cumple que
n

A=
k=1

Ak .

Los conceptos de -lgebra, lgebra y semilgebra estn relacionados como a a a a se muestra en la Figura 1.2. En la seccin de ejercicios se pide demostrar o las implicaciones y no implicaciones que se obtienen de este diagrama.

-lgebras a

a lgebras semilgebras a

Figura 1.2: Relacin general entre -lgebras, lgebras y semilgebras. o a a a A continuacin se estudia un ejemplo particular de -lgebra de subconjuno a tos de nmeros reales: la -lgebra de Borel. u a

Cap tulo 1. Espacios de probabilidad

11

Conjuntos de Borel
Considere la coleccin de todos los intervalos abiertos (a, b) de R, en donde o a b. A la m nima -lgebra generada por esta coleccin se le llama a o a lgebra de Borel de R, y se le denota por B(R). Definicion. (-algebra de Borel de R). B(R) = { (a, b) R : a b } . A los elementos de B(R) se les llama conjuntos de Borel , Borelianos o conjuntos Borel medibles. De esta forma se puede asociar la -lgebra B(R) a al conjunto de nmeros reales, y obtener as el espacio medible (R, B(R)). u Se muestran a continuacin algunos elementos expl o citos de esta -lgebra. a Proposicion. Para cualesquiera nmeros reales a b, los intervalos u [a, b], (a, ), (, b), [a, b), (a, b] y {a}, son todos elementos de B(R). Demostracin. Primeramente observe que los intervalos cerrados [a, b] son o conjuntos Borelianos, pues podemos escribirlos en trminos de una intersece cin numerable de intervalos abiertos de la siguiente forma o

[a, b] =

n=1

(a

1 1 , b + ). n n

Observe que cada elemento de la interseccin anterior es un conjunto Boreo liano. Siendo B(R) una -lgebra, la interseccin innita es un elemento de a o B(R). De esta forma se concluye que cada intervalo cerrado es un conjunto

12

1.2. -algebras

de Borel. As mismo tenemos que (a, ) = y (, b) =

n=1 n=1

(a, a + n) B(R), (b n, b) B(R).

Por lo tanto [a, ) = y (, b] =

n=1 n=1

(a

1 , ) B(R), n 1 ) B(R). n

(, b +

De forma anloga se puede hacer ver que los intervalos semiabiertos de la a forma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de un solo nmero tambin son conjuntos Borelianos pues u e {a} =

n=1

(a

1 1 , a + ). n n

Complementos, intersecciones y uniones numerables de estos conjuntos son todos ellos Borelianos. Este hecho puede utilizarse para comprobar los siguientes resultados. Ejercicio. Demuestre directamente que N, Z y Q son elementos de B(R). Demuestre adems que el conjunto de nmeros irracionales es un conjunto a u de Borel de R. Adems de la denicin enunciada, existen otras formas equivalentes de a o generar a los conjuntos Borelianos. Este es el contenido de la siguiente proposicin. o

Cap tulo 1. Espacios de probabilidad

13

Proposicion. Las siguientes -lgebras son todas idnticas a B(R). a e 1. 2. 3. { [a, b] : a b }. 4. 5. { (a, ) : a R }.

{ (a, b] : a b }. { [a, b) : a b }.

{ (, b) : b R }.

Demostracin. Se prueba unicamente el primer inciso, el resto de ellos se o demuestra usando el mismo procedimiento. Para demostrar que B(R) = {[a, b] : a b} se verican ambas contenciones. Claramente [a, b] B(R), por lo tanto {[a, b] : a b} B(R). Entonces {[a, b] : a b} B(R). Ahora se demuestra la contencin contraria. Sabemos que (a, b) {[a, b] : o 1 1 a b} pues (a, b) = n=1 [a + n , b n ]. Entonces {(a, b) : a b} {[a, b] : a b}. Por lo tanto B(R) {[a, b] : a b}. De manera equivalente se puede denir a B(R) como la m nima -lgebra a generada por todos los subconjuntos abiertos de R. En ambos casos la a lgebra generada es B(R). Es natural preguntarse si la coleccin B(R) contiene a todos los subconjuno tos de R. La respuesta es negativa, es decir, puede demostrarse que existe un subconjunto de los nmeros reales que no pertenece a la coleccin B(R). u o La construccin del tal conjunto no es sencilla, y puede obtenerse indirectao mente de la siguiente forma: la coleccin B(R) est contenida en una clase o a ms amplia llamada la coleccin de conjuntos Lebesgue medibles de R, y se a o demuestra que existen subconjuntos de R que no son Lebesgue medibles, y por tanto tampoco Borel medibles. Los detalles de estas armaciones pueden encontrarse en textos de teor de la medida, como por ejemplo [5] o [14]. a Es posible tambin considerar la -lgebra de conjuntos de Borel restringie a dos a una porcin de los nmeros reales como se indica a continuacin. o u o

14

1.2. -algebras

Definicion. Sea A B(R). La -lgebra de Borel de A, denotada por a B(A) o por A B(R), se dene como sigue B(A) = {A B : B B(R)}.

No es dif comprobar que la coleccin B(A) es efectivamente una -lgecil o a bra de subconjuntos de A. Observe que el nuevo conjunto total es A y no R. El concepto de -lgebra de Borel de R puede extenderse a dimensioa nes mayores de la siguiente forma. Considere la coleccin C de todas los o rectngulos abiertos de R2 , es decir, a C = {(a, b) (c, d) : a b, c d}. Se denen los conjuntos de Borel de R2 como los elementos de la m nima 2 ) = (C ). De manera -lgebra generada por la coleccin C , es decir, B(R a o equivalente se puede denir B(R2 ) = (B(R) B(R)). En forma anloga a n ) usando productos cartesianos de intervalos. se dene B(R Definicion. (-algebra de Borel de Rn ). B(Rn ) = (B(R) B(R)). En general el producto cartesiano de dos -lgebras no es una -lgebra a a de subconjuntos del espacio producto, de modo que debe anteponerse la operacin a tal coleccin para convertirla en una -lgebra. o o a Ejercicio. (-algebra producto). Demuestre que el producto cartesiano de dos -lgebras no es necesariamente -lgebra. Esto es, suponga a a que (1 , F1 ) y (2 , F2 ) son dos espacios medibles. Mediante un ejemplo muestre que F1 F2 no necesariamente es una -lgebra de subconjuntos a del espacio producto 1 2 . Se dene entonces la -lgebra producto como a

Cap tulo 1. Espacios de probabilidad (F1 F2 ).

15

Ejercicio. Demuestre que la -lgebra {(a, b) (c, d) : a b, c d} a coincide con (B(R) B(R)).

Sucesiones de eventos
En esta seccin se estudia el concepto de convergencia de una sucesin ino o nita de eventos. Para enunciar tal concepto necesitaremos antes las deniciones de l mite superior y l mite inferior para conjuntos. Estas deniciones son anlogas al caso de sucesiones numricas como puede consultarse en un a e apndice al nal del texto. e Definicion. (L mite superior e inferior). Para una sucesin de o eventos {An : n N}, se dene el l mite superior y el l mite inferior como sigue: 1. l sup An = m
n

Ak .

n=1 k=n

2. l inf An = m
n

Ak .

n=1 k=n

Tanto el l mite superior como el l mite inferior son operaciones bien denidas, es decir, el resultado siempre existe y es unico. En cada caso, el conjunto resultante es siempre un evento, es decir, un conjunto medible. Es sencillo tambin comprobar que e l inf An l sup An . m m
n n

Tampoco es dif vericar que un elemento pertenece al evento l cil mite superior si, y slo si, pertenece a una innidad de elementos de la sucesin. En o o

16

1.2. -algebras

algunos textos de habla inglesa el evento l mite superior se escribe (An i.o.), en donde las letras i.o. signican innitely often. Por otro lado un elemento pertenece al evento l mite inferior si, y slo si, pertenece a todos o los elementos de la sucesin excepto un nmero nito de ellos. Con estos o u conceptos podemos ahora establecer la denicin de convergencia de una o sucesin de eventos. o Definicion. (Convergencia de eventos). Sea {An : n N} una sucesin de eventos. Si existe un evento A tal que o m l inf An = l sup An = A, m
n n

entonces se dice que la sucesin converge al evento A, y se escribe o l An = A. m

Para calcular el posible l mite de una sucesin de eventos debemos entonces o calcular el l mite superior y el l mite inferior, y cuando el resultado de ambas operaciones coincida, entonces a tal resultado comn se le llama el l u mite de la sucesin. o Ejemplo. Para cada nmero natural n dena el conjunto An = [1/n, 0] u si n es impar, y An = [0, 1/n] si n es par. Entonces l An = {0} pues m
n

l sup An = m
n

Ak = Ak =

l inf An = m
n

n=1 k=n n=1 k=n

n=1 n=1

[1/n, 1/n] = {0}, {0} = {0}.

Ejercicio. Sea A un evento. Demuestre que la siguiente sucesin de eventos o no es convergente. A si n es impar, An = Ac si n es par.

Cap tulo 1. Espacios de probabilidad

17

Como el ejercicio anterior muestra, no todas las sucesiones de eventos convergen. Demostramos a continuacin que en particular toda sucesin montoo o o na es convergente. Ms adelante presentaremos algunos otros ejemplos cona cretos de sucesiones de eventos, y en la seccin de ejercicios se encuentran o algunos mas. Proposicion. Sea {An : n N} una sucesin montona de eventos. o o 1. Si A1 A2 , entonces l An = m
n n=1 n=1

An .

2. Si A1 A2 , entonces l An = m
n

An .

Demostracin. o 1. Como la sucesin es creciente, entonces (observe el valor inicial del o sub ndice en las operaciones de unin e interseccin), o o
k=n k=n

Ak =

k=1

Ak ,

y Por lo tanto l sup An = m


n

Ak = An .

Ak = Ak =

Ak =

k=1

Ak ,

l inf An = m
n

n=1 k=n n=1 k=n

n=1 k=1 n=1

An .

18

1.2. -algebras 2. El procedimiento es completamente anlogo al inciso anterior. En este a caso como la sucesin es decreciente se tiene que o
k=n k=n

Ak =

k=1

Ak ,

y Entonces l sup An = m
n

Ak = An .

Ak = Ak =

l inf An = m
n

n=1 k=n n=1 k=n

An , n=1
n=1 k=1

Ak =

k=1

Ak .

El siguiente resultado establece que a partir de una sucesin de eventos o puede construirse otra sucesin cuyos elementos son ajenos dos a dos, y cuya o unin es la unin de la sucesin original. Este procedimiento de separacin o o o o ser de utilidad ms adelante. a a

Cap tulo 1. Espacios de probabilidad

19

Proposicion. Sea {An : n N} una sucesin de eventos. Dena o


n1

B1 = A1 ,

Bn = An

Ak ,
k=1

para n 2.

Entonces la sucesin de eventos {Bn : n N} satisface las siguientes o propiedades: 1. Bn An . 2. Bn Bm = , si n = m. 3.


n=1 n=1

Bn =

An .

Demostracin. o 1. Esto es evidente a partir de la denicin de Bn . o 2. Sin prdida de generalidad suponga que n < m, entonces e
n1 m1

Bn Bm = (An = (An = .

k=1 n1

Ak ) (Am Ac ) (Am k

Ak )
k=1 m1

Ac ) k
k=1

k=1 An Ac n

3. Consideraremos cada contencin por separado. Como cada Bn est cono a tenido en An , entonces el lado izquierdo es efectivamente un subconjunto del lado derecho. Por el contrario, sea x un elemento en

20
n=1 An .

1.3. Medidas de probabilidad Entonces existe un ndice n tal que x An . Sea n0 el primer ndice tal que x An0 y x Aj para 1 j n0 1. Entonces / x An0 n0 1 An = Bn0 . Por lo tanto x pertenece a Bn . n=1 n=1

1.3.

Medidas de probabilidad

En esta seccin y en lo que resta del presente cap o tulo se estudian algunas propiedades de las medidas de probabilidad. Empezaremos por recordar nuevamente la denicin de este concepto. o Definicion. (Medida de probabilidad). Sea (, F ) un espacio medible. Una medida de probabilidad es una funcin P : F [0, 1] que o satisface 1. P () = 1. 2. P (A) 0, para cualquier A F . 3. Si A1 , A2 , . . . F son ajenos dos a dos, esto es, An Am = para n = m, entonces P (

An ) =

P (An ).

n=1

n=1

Entonces toda funcin P denida sobre una -lgebra F , con valores en el o a intervalo [0, 1] y que cumpla los tres postulados anteriores se le llama medida de probabilidad o probabilidad axiomtica. Estos axiomas fueron establecidos a por A. N. Kolmogorov en 1933. En particular, la tercera propiedad se conoce con el nombre de -aditividad. Ejemplo. (Probabilidad clasica). Considere un experimento aleatorio con espacio muestral un conjunto nito . Asocie a este conjunto la -

Cap tulo 1. Espacios de probabilidad

21

a lgebra 2 , y para cualquier subconjunto A de dena P (A) = #A/#. Entonces P es una medida de probabilidad, y es llamada probabilidad clsica. a De acuerdo a esta denicin, para calcular la probabilidad de un evento es o necesario entonces conocer su cardinalidad. En los inicios de la teor de la a probabilidad se consideraban unicamente modelos de este tipo, los cuales eran estudiados en el contexto de los juegos de azar. De esta forma de calcular probabilidades surgen muchos y muy variados problemas de conteo, algunos de los cuales pueden no ser fciles de resolver. Por ejemplo, si cuatro a parejas se sientan al azar en una mesa circular, cul es la probabilidad de a que ninguna persona se siente junto a su pareja? Ejemplo. Considere un experimento aleatorio con espacio muestral el conjunto de nmeros naturales N. Asocie a este conjunto la -lgebra 2N . Para u a cualquier subconjunto A de N dena 1 P (A) = . 2n
nA

Es decir, el nmero natural n tiene asociada la probabilidad 1/2n , como se u muestra en la Figura 1.3. No es dif vericar que P es efectivamente una cil medida de probabilidad concentrada en el conjunto de nmeros naturales. u
P (X = x) 1 2

u Figura 1.3: Una medida de probabilidad concentrada en los nmeros naturales.

Ejemplo. Considere el espacio medible (R, B(R)). Sea f : R [0, ) una funcin no negativa y continua, tal que su integral sobre el intervalo o

22

1.3. Medidas de probabilidad

(, ) es uno. La funcin P denida para cualquier conjunto de Borel A o por la siguiente integral, es una medida de probabilidad. P (A) =
A

f (x) dx.

o Ejemplo. (Probabilidad geomtrica). Sea R2 una regin tal que e su rea es positiva y nita. Sea F una -lgebra de subconjuntos de a a para los cuales el concepto de rea est bien denido. Para cada A en F a e dena P (A) = Area (A)/Area (). La funcin P resulta ser una medida de o probabilidad, y es llamada probabilidad geomtrica. Esta denicin puede e o extenderse a espacios de dimensin mayor de manera evidente. Un ejemplo o en donde se utiliza esta forma de calcular probabilidades es el siguiente: cul es la probabilidad de que una dardo lanzado al azar sobre un tablero a circular de radio unitario caiga en el c rculo circunscrito de radio 1/2? En la siguiente seccin estudiaremos algunas propiedades generales que cumo ple toda medida de probabilidad, y a lo largo del texto consideraremos varios modelos particulares para el clculo de probabilidades. a

Propiedades elementales
A partir de los postulados enunciados en la seccin anterior es posible deo mostrar una extensa serie de propiedades que cumplen todas las medidas de probabilidad. En esta seccin se estudian algunas propiedades elementales o que posiblemente ya conoce el lector, y ms adelante se demuestran otras a propiedades ligeramente ms avanzadas. a

Cap tulo 1. Espacios de probabilidad

23

Proposicion. Sea (, F , P ) un espacio de probabilidad. Entonces 1. P () = 0. 2. Si A1 , . . . , An F son ajenos dos a dos, entonces
n n

P(
k=1

Ak ) =
k=1

P (Ak ).

3. P (Ac ) = 1 P (A). 4. Si A B, entonces P (B A) = P (B) P (A). 5. Si A B, entonces P (A) P (B). 6. 0 P (A) 1. 7. P (A B) = P (A) + P (B) P (A B). 8. P (A B) P (A) + P (B).

Demostracin. o 1. Como = , por la -aditividad se tiene que P () = n=1 P (), lo cual sucede unicamente cuando P () = 0. 2. Se toma An+1 = An+2 = = , y la igualdad se obtiene al aplicar la -aditividad y la propiedad anterior. 3. Se expresa a como la unin disjunta A Ac . Aplicamos P y obteo nemos la igualdad requerida. 4. Escribimos B = A (B A). Aplicando P obtenemos P (B) P (A) = P (B A). 5. Como la probabilidad de cualquier evento es un nmero no negativo, u el resultado se sigue de la propiedad anterior.

24

1.3. Medidas de probabilidad 6. La primera desigualdad es el segundo axioma, y la segunda es consecuencia de la propiedad anterior cuando B = y el primer axioma. 7. Descomponemos el evento A B como la siguiente unin de tres eveno tos disjuntos dos a dos: A B = (A B) (A B) (B A) = (A A B) (A B) (B A B). Por lo tanto P (A B) = P (A) P (A B) + P (A B) + P (B) P (A B). 8. Esta propiedad es consecuencia de la anterior y el segundo axioma.

La propiedad (2) establece que las probabilidades son funciones nitamente aditivas, y la propiedad (5) que son funciones montonas. La desigualdad (8) o dice que las probabilidades son funciones nitamente subaditivas. Veamos algunas otras propiedades. Proposicion. (Desigualdades de Boole). Sea {An : n N} una sucesin de eventos. Entonces o 1. P (

n=1

An )

n=1

P (An ).
n=1

2. P (

n=1

An ) 1

P (Ac ). n

Demostracin. o 1. Tome B1 = A1 , y para n 2 dena


n1

Bn = An

Ak .
k=1

Cap tulo 1. Espacios de probabilidad

25

Hemos demostrado antes que {Bn : n N} es una sucesin de eventos o disjuntos dos a dos tales que Bn An y An = Bn . Por lo n=1 n=1 tanto P(

An ) = P ( =
n=1 n=1

Bn )

n=1

n=1

P (Bn ) P (An ).

2. Esta desigualdad se sigue de la primera al considerar la sucesin de o los complementos.

Proposicion. Sea {An : n N} una sucesin de eventos. o 1. Si P (An ) = 1 para toda n, entonces P (
n=1 An )

= 1. = 1. = 0.

2. Si P (An ) = 1 para alguna n, entonces P ( 3. Si P (An ) = 0 para alguna n, entonces P ( 4. Si P (An ) = 0 para toda n, entonces P (

n=1 An ) n=1 An )

n=1 An )

= 0.

Demostracin. o

26

1.3. Medidas de probabilidad 1. Por las leyes de De Morgan y la desigualdad de Boole, P(

n=1

An ) = 1 P ( 1 = 1.

Ac ) n

n=1

P (Ac ) n

n=1

2. Como An 3. Como
n=1

n=1

An , se tiene que 1 = P (An ) P (

An ).

n=1

An An , entonces P (

n=1

An ) P (An ) = 0.
n=1

4. Por la desigualdad de Boole, P (

n=1

An )

P (An ) = 0.

Las propiedades (1) y (4) de la proposicin anterior pueden interpretarse o de la siguiente forma. Intersectar dos eventos produce en general un evento ms pequeo, o por lo menos no mayor a los intersectandos. Sin embargo la a n propiedad (1) establece que la interseccin, an innita, de eventos con proo u babilidad uno produce un evento con probabilidad uno. Anlogamente, unir a dos eventos produce en general un evento mayor, pero por la propiedad (4), la unin, an innita, de eventos con probabilidad cero tiene probabilidad o u cero. Dos de las propiedades elementales ms conocidas y de amplia aplicacin a o son la frmula de probabilidad total y la frmula de Bayes. Estas frmulas o o o hacen uso de la probabilidad condicional de un evento A dado otro evento B denida como sigue P (A | B) := P (A B)/P (B), cuando P (B) = 0.

Cap tulo 1. Espacios de probabilidad

27

Ejercicio. (Teorema de probabilidad total). Sea (, F , P ) un espacio de probabilidad, y sea {A1 , A2 , . . .} una particin de tal que cada o elemento de la particin es un evento con probabilidad estrictamente posio tiva. Demuestre que para cualquier evento B, P (B) =
n=1

P (B | An )P (An ).

Ejercicio. (Teorema de Bayes). Sea (, F , P ) un espacio de probabilidad, y sea A1 , A2 , . . . una particin de tal que cada elemento de la o particin es un evento con probabilidad estrictamente positiva. Demuestre o que para cualquier evento B tal que P (B) > 0, y para cualquier m 1 jo, P (Am | B) =

P (B | Am )P (Am ) P (B|An )P (An )

n=1

Ejercicio. (Completacion de espacios). Se dice que un espacio de probabilidad (, F , P ) es completo si cada vez que se tenga la situacin A B o con B F y P (B) = 0, entonces tambin se tiene que A F y P (A) = 0. e Un espacio de probabilidad (, F , P ) que no es completo puede ser completado de la siguiente forma. Se toma el mismo y se dene la coleccin o de todos aquellos subconjuntos A para los cuales existan B y C en F F con P (C) = 0, tales que B A B C. Para tal conjunto A se dene P (A) = P (B). Entonces resulta que (, F , P ) es un espacio de probabilidad completo, y se llama la completacin de (, F , P ). Verique esta armacin o o demostrando los siguientes incisos. a) F es efectivamente una -lgebra. a b) F F .

28

1.3. Medidas de probabilidad c) La denicin de P (A) no depende del subconjunto B asociado, es o decir, la denicin es unica. o

d) P es una medida de probabilidad sobre F . e) P (A) = P (A), para cada A en F . f) El espacio de probabilidad (, F , P ) es completo. g) (, F , P ) es el espacio de probabilidad completo ms pequeo que a n contiene a (, F , P ), es decir, si (, F1 , P1 ) es otro espacio de probabilidad completo tal que F F1 y P1 = P sobre F , entonces F F1 y P = P1 sobre F .

Continuidad
Ahora demostraremos que las medidas de probabilidad son funciones continuas. Primero se prueba este resultado importante para dos tipos de sucesiones particulares, aquellas que son montonas crecientes o decrecientes, o y despus se prueba en general. Empezaremos con el caso de sucesiones e crecientes. Proposicion. Sea {An : n N} una sucesin no decreciente de eventos, o esto es, A1 A2 . Entonces P(

An ) = l P (An ). m
n

n=1

Demostracin. Como An An+1 , tenemos que P (An ) P (An+1 ). Por lo o tanto la sucesin numrica {P (An ) : n N} es no decreciente y acotada o e

Cap tulo 1. Espacios de probabilidad

29

superiormente por uno. Entonces el l mite de esta sucesin existe y el lado o derecho de la igualdad tiene sentido. Dena los eventos B1 = A1 , y Bn = An An1 , para n 2.

La sucesin {Bn : n N} es una coleccin de eventos disjuntos dos a dos, o o y es tal que

An =

Bn .

n=1

n=1

Por lo tanto P(

An ) = P ( =
n=1

Bn )

n=1

n=1

P (Bn )
n=2 n=2 n=2

= P (B1 ) + = P (A1 ) + = P (A1 ) +

P (Bn ) P (An An1 ) P (An ) P (An1 )


m

= P (A1 ) + l m

m m

n=2

P (An ) P (An1 )

= P (A1 ) + l P (Am ) P (A1 ) m =


m

l P (Am ). m

30

1.3. Medidas de probabilidad

Las medidas de probabilidad tambin son continuas respecto de sucesioe nes no crecientes de eventos. Esta armacin es el contenido del siguiente o resultado que se demuestra a partir de la proposicin anterior. o Proposicion. Sea {An : n N} una sucesin no creciente de eventos, o esto es, A1 A2 . Entonces P(

An ) = l P (An ). m
n

n=1

Demostracin. Observe que si An An+1 , entonces Ac Ac . Por la o n n+1 proposicin anterior, o P(

Ac ) = l P (Ac ). m n n
n

n=1

Aplicando las leyes de De Morgan, 1 P(

n=1

An ) = l (1 P (An )), m
n

de donde se sigue inmediatamente el resultado. Ahora se enuncia un resultado ms fuerte. Demostraremos que las medidas a de probabilidad son funciones continuas. Esta propiedad es muy util pues permite el clculo de probabilidades en procedimientos l a mite, y se encuentra siempre presente de manera impl cita en toda la teor que se desarrolla ms a a adelante.

Cap tulo 1. Espacios de probabilidad

31

Proposicion. (Continuidad de la probabilidad). Sea {An : n N} una sucesin de eventos convergente al evento A. Entonces o
n

l P (An ) = P (A). m

Demostracin. La prueba se basa en las siguientes dos desigualdades: o a) l sup P (An ) P (l sup An ). m m
n n

b) P (l inf An ) l inf P (An ). m m


n n

Como la sucesin de eventos es convergente al evento A, entonces el l o mite superior y el l mite inferior son iguales a A. Se sigue entonces de las desigualdades (a) y (b) que m l sup P (An ) P (l sup An ) m
n n

= P (A) = P (l inf An ) m
n

l inf P (An ). m
n

De donde se concluye el resultado. Nos concentraremos ahora en demostrar las desigualdades enunciadas. a) Como An
k=n Ak ,

entonces P (An ) P (

Ak ),

k=n

32

1.3. Medidas de probabilidad en donde { Ak : n N} es una sucesin decreciente de eventos. o k=n Tomando el l mite superior se obtiene l sup P (An ) l sup P ( m m
n n

Ak )

l P ( m

k=n

Ak ) Ak )

= P ( l m = P(

k=n k=n

Ak )

n=1 k=n

= P (l sup An ). m
n

b) Como

k=n Ak

An , entonces P(
k=n

Ak ) P (An ),

en donde { Ak : n N} es una sucesin creciente de eventos. o k=n Tomando el l mite inferior se obtiene l inf P (An ) l inf P ( m m
n n

Ak )

l P ( m

k=n

Ak ) Ak )

= P ( l m = P(

k=n k=n

Ak )

n=1 k=n

= P (l inf An ). m
n

Cap tulo 1. Espacios de probabilidad

33

Ejemplo. Se lanza un dado equilibrado una innidad de veces. Sea An el evento correspondiente a obtener el evento A = {2, 4, 6} en cada uno de los primeros n lanzamientos del dado. Entonces claramente An An+1 y P (An ) = 1/2n para cualquier n en N. Por lo tanto l An = m
n=1

An .

Entonces P(

An ) = P ( l An ) = l P (An ) = l m m m 1/2n = 0.
n n n

n=1

El evento An se interpreta como aquel conjunto de resultados en el n=1 que siempre se obtiene un nmero par en cada uno de los lanzamientos. Heu mos demostrado que la probabilidad de tal evento es cero. En consecuencia la probabilidad de que eventualmente aparezca un nmero impar es uno. u Observe que el argumento presentado funciona de la misma forma cuando el evento A es cualquier subconjunto propio de distinto del vac Por o. ejemplo, si A = {1, 2, 3, 4, 5}, entonces la probabilidad de nunca obtener 6 es cero. Por lo tanto, con probabilidad uno, cada una de las caras del dado aparecer eventualmente. Puede demostrarse adems que cada una de a a las caras aparecer una innidad de veces con probabilidad uno. a

1.4.

Independencia de eventos

En esta seccin se dene el concepto importante de independencia de eveno tos. La independencia es un tema central en la teor de la probabilidad, a y uno de sus rasgos distintivos. De manera natural la independencia aparecer con frecuencia a lo largo del texto a partir de ahora, y ayudar a a a

34

1.4. Independencia de eventos

simplicar el clculo de probabilidades. La denicin matemtica es la sia o a guiente. Definicion. (Independencia de dos eventos). Dos eventos A y B son independientes, y se escribe A B, cuando P (A B) = P (A)P (B).

A menudo aceptar la hiptesis de que dos eventos son independientes es una o cuestin de apreciacin por parte del observador. La independencia puede o o interpretarse en el sentido de que la ocurrencia de uno de los eventos no proporciona informacin que modique la probabilidad de ocurrencia del o segundo evento. Contrario a alguna primera concepcin intuitiva errnea, o o el hecho de que dos eventos sean independientes no implica que ellos sean ajenos. La proposicin contraria tampoco es vlida, dos eventos ajenos no o a necesariamente son independientes. Ejercicio. Demuestre que un evento es independiente consigo mismo si, y slo si, su probabilidad es cero o uno. o Ejercicio. Demuestre que un evento que tiene probabilidad cero o uno, es independiente de cualquier otro evento, incluyendo l mismo. e Ejercicio. Demuestre que los eventos A y B son independientes si, y slo o si, a) A y B lo son. b) Ac y B lo son. c) A y B c lo son. La denicin de independencia puede extenderse a colecciones nitas e ino cluso innitas de eventos del siguiente modo.

Cap tulo 1. Espacios de probabilidad

35

Definicion. (Independencia de varios eventos). Los eventos A1 , . . . , An son independientes si se cumplen todas y cada una de las siguientes condiciones: P (Ai Aj ) = P (Ai )P (Aj ), i, j distintos. (1.1) (1.2)

P (Ai Aj Ak ) = P (Ai )P (Aj )P (Ak ), i, j, k distintos. . . . P (A1 An ) = P (A1 ) P (An ).

Ms generalmente, una coleccin innita de eventos es independiente si a o cualquier subcoleccin nita lo es. o Observe que de acuerdo a la denicin anterior, se necesitan vericar o o suponer varias condiciones para que n eventos sean independientes entre s . De hecho el nmero total de igualdades a demostrar es 2n n 1. Puede u usted demostrar esta armacin? En la siguiente seccin haremos uso del o o siguiente resultado. Ejercicio. Demuestre que los eventos A1 , . . . , An son independientes si, y slo si, los eventos Ac , . . . , Ac lo son. o n 1 Es posible adems demostrar que la independencia dos a dos, igualdad (1.1) a en la denicin, no implica en general la independencia tres a tres, igualo dad (1.2), ni viceversa. Ejercicio. Se lanza una moneda equilibrada tres veces. Dena los eventos A = Se obtiene el mismo resultado en el 1er. y 2do. lanzamiento. B = Se obtiene el mismo resultado en el 2do. y 3er. lanzamiento. C = Se obtiene el mismo resultado en el 3er. y 1er. lanzamiento. Demuestre que los eventos A, B y C son independientes dos a dos, pero no independientes en su conjunto. Ejercicio. Sean A y B eventos no independientes, y sea C = . Demuestre que A, B y C son independientes tres a tres pero no son independientes dos

36
a dos.

1.4. Independencia de eventos

Tambin se tiene la nocin de independencia entre dos o mas clases de e o eventos. La denicin es la siguiente, como siempre se presupone un espacio o de probabilidad (, F , P ) dado. Definicion. (Independencia de clases). Las clases no vac de as eventos C1 , . . . , Cn son independientes si los eventos A1 , . . . , An lo son para cualesquiera Ai en Ci , i = 1, . . . , n. Ms generalmente, un conjuna to innito de clases no vac de eventos es independiente si cualquier as subconjunto nito lo es. En particular, dos -lgebras F1 y F2 son independientes si para cada A en a F1 y cada B en F2 se cumple que P (A B) = P (A)P (B). Anlogamente a para un nmero nito de -lgebras o bien un nmero innito de ellas. u a u Ejemplo. (El problema del mono). Un mono escribe caracteres al azar en una mquina de escribir. Cul es la probabilidad de que eventualmente a a obtenga exactamente, y sin ningn error, las obras completas de Shakespeau re?

Figura 1.4: Mono escribiendo al azar. Demostramos a continuacin que la probabilidad de este raro evento es uno. o Imagine entonces que un mono escribe caracteres al azar en una mquina a de escribir, y que lo hace de manera continua generando una sucesin lineal o de caracteres. Sea m el total de caracteres disponibles en una mquina de a escribir, y sea N el total de caracteres de los que constan las obras comple-

Cap tulo 1. Espacios de probabilidad

37

tas de Shakespeare. Segmentamos el arreglo lineal de caracteres generados por el mono en bloques disjuntos de N caracteres, uno despus de otro, y e observamos si algn bloque contiene las obras de Shakespeare. Por ejemplo, u Xku aT s hwW pzq Ot
N N

Para cada nmero natural k dena el evento Ak correspondiente a que el ku simo bloque contiene exactamente, y sin error alguno, las obras completas e de Shakespeare. Observe que los eventos Ak son independientes pues los bloques no se sobreponen, adems P (Ak ) = (1/m)N = p, o bien P (Ac ) = a k o 1 p. Dena el evento Bk como Ac Ac , que indica la situacin en 1 k la que el mono no obtiene xito en los primeros k bloques. Observe que e Bk+1 Bk , es decir la sucesin es decreciente, por lo tanto o
k k=1 Bk

l Bk = m

Bk ,

k=1

en donde el evento se interpreta como aquel en el que el mono nunca tiene xito. Entonces, usando la propiedad de continuidad de las medidas e de probabilidad para sucesiones decrecientes, se tiene que P(

k=1

Bk ) = l P (Bk ) = l (1 p)k = 0. m m
k k

Por lo tanto la probabilidad del evento complemento es uno, es decir, la probabilidad de que eventualmente el mono obtenga xito es uno. Ms adelante e a se presentarn otras formas de resolver este mismo problema usando el lema a de Borel-Cantelli, y despus usando la ley fuerte de los grandes nmeros. e u En [25] aparece una estimacin del tiempo promedio de espera para que el o mono obtenga el primer xito. e

1.5.

Lema de Borel-Cantelli

Concluimos este cap tulo con el enunciado y demostracin del famoso lema o de Borel-Cantelli. El objetivo es demostrar este resultado y con ello poner

38

1.5. Lema de Borel-Cantelli

en prctica algunas propiedades de las medidas de probabilidad, aunque a tambin lo usaremos para presentar un par de aplicaciones y para demostrar e la ley fuerte de los grandes nmeros en la ultima parte del curso. u Proposicion. (Lema de Borel-Cantelli). Sea {An : n N} una sucesin de eventos, y dena A = l sup An . o m
n

1. Si

n=1

P (An ) < , entonces P (A) = 0.

2. Si A1 , A2 , . . . son independientes y P (A) = 1.

n=1

P (An ) = , entonces

Demostracin. o 1. Para cada nmero natural n, u P (A) P (

k=n

Ak )

k=n

P (Ak ).

Como P (An ) < , el lado derecho tiende a cero cuando n tiende n=1 a innito. Esto implica que P (A) = 0. 2. Es suciente demostrar que para todo nmero natural n se cumple la u igualdad P ( Ak ) = 1, pues la interseccin numerable de eventos o k=n

Cap tulo 1. Espacios de probabilidad con probabilidad uno tiene probabilidad uno. Para cada m > n, 1 P(
m

39

k=n

Ak ) 1 P (
m

Ak )

k=n

= P(
k=n m

Ac ) k [1 P (Ak )]
m

k=n

exp(

P (Ak )).
k=n

Para obtener la ultima expresin se usa la desigualdad: 1 x ex , o vlida para cualquier nmero real x. Como a u n=1 P (An ) = , el lado derecho tiende a cero cuando m tiende a innito. Por lo tanto P ( Ak ) = 1 para cualquier valor de n y entonces P (A) = 1. k=n

Ejemplo. (El problema del mono, nuevamente). El problema de encontrar la probabilidad de que un mono que escribe caracteres al azar en una mquina de escribir, eventualmente escriba las obras completas de Shakesa peare, puede resolverse tambin usando el lema de Borel-Cantelli. Suponga e que N es el total de caracteres de los que constan las obras completas de Shakespeare y considere nuevamente la divisin por bloques de longitud N : o x1 , . . . , xN , xN +1 , . . . , x2N , . . . El evento Ak se dene nuevamente como aquel en el que el mono tiene xito e en el k-simo bloque. Si nuevamente m denota el total de caracteres dispoe nibles, entonces la probabilidad del evento Ak es (1/m)N , y claramente la sucesin A1 , A2 , . . . constituye una sucesin de eventos independientes tales o o que P (Ak ) = (1/m)N = . Entonces por la segunda parte del k=1 k=1

40

1.5. Lema de Borel-Cantelli

lema de Borel-Cantelli, la probabilidad del l mite superior de la sucesin Ak o es uno. Ahora slo hay que recordar que el evento l supk Ak correso m ponde a aquel en el que una innidad de eventos Ak ocurren. Es decir, con probabilidad uno, el mono tiene, no uno, sino una innidad de xitos! e Ejercicio. Se lanza una moneda honesta una innidad de veces. Use el lema de Borel-Cantelli para demostrar que la probabilidad de que cada cara aparezca una innidad de veces es uno. Importa que la moneda sea honesta? o Ejercicio. Sea x1 , . . . , xn una sucesin de resultados consecutivos particular obtenida de lanzar una moneda n veces. Considere ahora el experimento de lanzar la moneda una innidad de veces. Use el lema de Borel-Cantelli para calcular la probabilidad de que aparezca una innidad de veces la sucesin particular mencionada. o

Cap tulo 1. Espacios de probabilidad

41

Andrey Nikolaevich Kolmogorov (Rusia 19031987) Creci bajo el amparo de su t Vera Yakovlena, pues su madre muri en o a o el parto y su padre fue exiliado. Trabaj un tiempo como conductor de treo nes. En 1920 ingres a la Universidad Estatal de Mosc, en donde adems o u a de matemticas tom cursos de metalurgia y sobre historia de Rusia. An a o u siendo estudiante de licenciatura empez a publicar trabajos de investigao cin graduandose en 1925. Termin su doctorado en 1929, y para entono o ces ya ten 18 publicaciones. Contribuy brillantemente en varias reas de a o a las matemticas como: anlisis, probabilidad, procesos estocsticos, lgica, a a a o anlisis funcional, geometr topolog sistemas dinmicos, movimiento de a a, a, a los planetas, turbulencia, etc. Kolmogorov ten particular inters en proa e veer de atencin y educacin especial a nios con habilidades sobresalientes. o o n Recibi un sinnmero de premios y reconocimientos de distintos pa o u ses, y fue miembro de varias sociedades y academias cient cas. Fuente: Archivo MacTutor, Universidad de St. Andrews.

42

1.6. Ejercicios

1.6.

Ejercicios
-lgebras a

1. Definicion alternativa de -algebra. Demuestre que F es una -lgebra de subconjuntos de si, y slo si, satisface las siguientes a o propiedades: a) F .

b) A F Ac F .

c) Si A1 , A2 , . . . F , entonces

n=1 An

F.

2. Definicion alternativa de -algebra. Demuestre que F es una -lgebra de subconjuntos de si, y slo si, satisface las siguientes a o propiedades: a) F .

c) Si A1 , A2 , . . . F , entonces

b) A, B F A B F .

n=1 An

F.

3. Sean A1 , . . . , An eventos de un espacio muestral . Demuestre que el conjunto de elementos de que pertenecen a exactamente k de estos eventos es un evento, 1 k n. 4. Sea F una -lgebra de subconjuntos de . Demuestre que la coleccin a o a F c = {F c : F F } es una -lgebra. Compruebe que F c y F coinciden. 5. Sea = {a, b, c, d}, y sean A = {a, b} y B = {b, c}. Dena la coleccin o C = {A, B}. Claramente C no es una -lgebra. Encuentre (C ). a 6. Sea F una -lgebra de subconjuntos de y sea A un elemento de a F . Demuestre que la coleccin {A F : F F } es una -lgebra de o a subconjuntos de A. Se usan los s mbolos FA A F para denotar a o esta coleccin. o

Cap tulo 1. Espacios de probabilidad

43

7. Sean 1 y 2 dos conjuntos arbitrarios, y sea X : 1 2 una funcin o en donde (2 , F2 ) es un espacio medible. Demuestre que la siguiente coleccin es una -lgebra de subconjuntos de 1 : o a X 1 F2 = {X 1 F : F F2 }. 8. Es la diferencia de dos -lgebras una -lgebra? Demuestre o proa a porcione un contraejemplo. a 9. Sean F1 y F2 dos -lgebras de subconjuntos de . Demuestre que F1 F2 no necesariamente es una -lgebra. Para ello considere el a espacio = {1, 2, 3} y las -lgebras F1 = {, {1}, {2, 3}, } y F2 = a {, {1, 2}, {3}, }. 10. Sean F1 y F2 dos -lgebras de subconjuntos de tales que F1 F2 . a Demuestre que F1 F2 es una -lgebra. a 11. Sea T un conjunto arbitrario distinto del vac Suponga que para cada o. t en T se tiene una -lgebra Ft de subconjuntos de . Demuestre a con detalle que tT Ft es una -lgebra. a 12. Sean A, B arbitrarios. Demuestre que la cardinalidad de {A, B} es a lo sumo 16. 13. Sean A, B arbitrarios. Encuentre expl citamente todos los elementos de {A, B}. Por el ejercicio anterior, el total de elementos en {A, B} es, en el caso ms general, 16. a 14. Sea {A1 , . . . , An } una particin nita de , es decir, la unin de todos o o estos conjuntos es , ninguno de ellos es vac y la interseccin de o o cualesquiera dos de ellos es vac Demuestre que la cardinalidad de a. {A1 , . . . , An } es 2n . 15. Demuestre que toda -lgebra de un espacio muestral nito contiene a un nmero par de elementos. u 16. Sea {A, B, C} una particin de . Encuentre expl o citamente los ocho elementos de {A, B, C}.

44

1.6. Ejercicios

17. Sea C una coleccin de subconjuntos de . Diga falso o verdadero o justicando en cada caso: C (C ) 2 . a 18. Demuestre que 2 es una -lgebra de subconjuntos de y que no existe una -lgebra de subconjuntos de que sea ms grande. a a 19. Sea un conjunto, F una -lgebra de subconjuntos de y sea A a un evento cualquiera. De cada una de las dos expresiones siguientes determine la que es notacionalmente correcta. Explique su respuesta. a) F F . o b) A A . o c) F F . o

d) A F A F . o

-lgebras, lgebras y semilgebras a a a


20. Definicion alternativa de algebra. Demuestre que F es una a lgebra de subconjuntos de si, y slo si, cumple las siguientes cono diciones: a) F .

b) Si A, B F , entonces A B F . F es -lgebra F es lgebra F es semilgebra. a a a

21. Demuestre que

22. algebra = -algebra. Sea = (0, 1] y dena la coleccin F de o subconjuntos de la forma


n

(ai , bi ],
i=1

en donde (ai , bi ] (0, 1] con (ai , bi ] (aj , bj ] = para i = j y n N. Demuestre que F es una lgebra pero no una -lgebra. a a

Cap tulo 1. Espacios de probabilidad

45

23. Mediante un contraejemplo demuestre que no toda semilgebra es una a a lgebra.

Conjuntos de Borel
24. Demuestre que B(R) = {(a, b] : a b}. 25. Demuestre que B(R) = {[a, b) : a b}. 26. Demuestre que B(R) = {(a, ) : a R}. 27. Demuestre que B(R) = {[a, ) : a R}. 28. Demuestre que B(R) = {(, b) : b R}. 29. Demuestre que B(R) = {(, b] : b R}. 30. Sea A B(R). Demuestre que B(A) es efectivamente una -lgebra a de subconjuntos de A. 31. Diga falso o verdadero. Justique su respuesta.
1 1 a) { ( n+1 , n ] : n N } = B(0, 1]. 1 1 1 c) { ( n+1 , n ] : n N } = { (0, n ] : n N }. 1 b) { (0, n ] : n N } = B(0, 1].

32. Demuestre que B(R2 ) = {[a, b] [c, d] : a b, c d}. 33. Demuestre que B(R2 ) = {(, a) (, b) : a, b R}. 34. Demuestre que B(R2 ) = {(a, ) (b, ) : a, b R}.

Sucesiones de eventos
35. Sea {An : n N} una sucesin de eventos. Demuestre que o a) l sup An es un evento. m
n

46

1.6. Ejercicios b) l inf An es un evento. m


n n

c) l inf An l sup An . m m
n

36. Demuestre que el evento a) l sup An coincide con el conjunto m b) l inf An coincide con el conjunto m
n n

{ An para una innidad de valores de n}.

{ An para toda n excepto un nmero nito de ellas}. u 37. Suponga An Bn para cada n en N. Demuestre o proporcione un contraejemplo. a) l sup An l sup Bn . m m
n n

b) l inf An l inf Bn . m m
n n

m c) l sup An l inf Bn . m
n n

38. Sea {An : n N} una sucesin de eventos. Demuestre que o a) ( l inf An )c = l sup Ac . m m n
n n

b) ( l sup An ) = l inf Ac . m m n
n n

c) P ( l inf An ) = 1 P ( l sup Ac ). m m n
n n

d) P ( l sup An ) = 1 P ( l inf Ac ). m m n
n n

39. Sea {An : n N} una sucesin de eventos. Demuestre que o a) l An = A l Ac = Ac . m m n


n n n n

b) l An = A l 1An = 1A . m m El s mbolo 1A denota la funcin indicadora del conjunto A. Vase el o e apndice al nal del texto para la denicin y algunas propiedades de e o esta funcin. o

Cap tulo 1. Espacios de probabilidad

47

40. Sea {an : n N} una sucesin de nmeros no negativos convergente o u al nmero a 0. Sea An = [0, an ]. Calcule l inf An y l sup An . u m m
n n

41. Determine si cada una de las siguientes sucesiones de conjuntos es convergente. a) An = (1/n, 2 + (1)n ) R. b) An = {(x, y) R2 : x2 + y 2 (1 + 1/n)n }.

c) An = {(x, y) R2 : x2 + y 2 2 + sen(n/2)}. 42. Demuestre que las siguientes sucesiones de eventos no son convergentes. a) An = si n es impar, y An = si n es par. b) An = (0, 1 + (1)n ) R. 43. Suponga que l An = A, y l Bn = B. Determine si la siguiente m m n n sucesin es convergente. o Cn = An si n es impar, Bn si n es par.

44. Encuentre condiciones sobre los eventos A y B para que la siguiente sucesin de eventos sea convergente. o An = A B si n es impar, si n es par.

45. Suponga que l An = A. Demuestre que para cualquier evento B, m


n

a) l (An B) = A B. m
n n n n

b) l (An B) = A B. m c) l (An B) = A B. m d) l (An B) = AB. m

48

1.6. Ejercicios

46. Suponga que l An = A y l Bn = B. Diga falso o verdadero. m m n n Demuestre en cada caso. a) l m l (An Bm ) = A B. m
n m n m n m n m

b) l m l (An Bm ) = A B. m m c) l m l (An Bm ) = A B. d) l m l (An Bm ) = AB. m 47. Suponga que l An = A y l Bn = B. Diga falso o verdadero. m m n n Demuestre en cada caso. a) l (An Bn ) = A B. m
n n n n

b) l (An Bn ) = A B. m c) l (An Bn ) = A B. m d) l (An Bn ) = AB. m

Medidas de probabilidad
48. Determine completamente un espacio de probabilidad (, F , P ) para el experimento aleatorio de a) lanzar una moneda equilibrada. b) lanzar un dado equilibrado. c) escoger al azar un nmero real dentro del intervalo unitario [0, 1]. u d) extraer dos bolas de una urna en donde hay dos bolas blancas y dos negras. e) lanzar una moneda honesta repetidas veces hasta que hayan aparecido ambas caras.

Cap tulo 1. Espacios de probabilidad

49

49. Medida de probabilidad discreta. Sea {xn : n N} una sucesin de nmeros reales y sea {an : n N} otra sucesin de nmeros o u o u reales no negativos tal que an = 1. Demuestre que la funcin o n=1 P : B(R) [0, 1] denida de la siguiente forma es una medida de probabilidad. P (A) =
n=1

an 1{n : xn A} (n).

50. Sean P y Q dos medidas de probabilidad denidas sobre una misma a lgebra. Demuestre que P + (1 )Q es una medida de probabilidad para cada en [0, 1]. 51. Sea P una medida de probabilidad. Determine si las siguientes funciones tambin son medidas de probabilidad: e a) 1 P . b) (1 + P )/2. c) P 2 . d) |P |. e) 4P (1 P ). f) P.

52. Determine si las siguientes funciones son medidas de probabilidad. a) P () = 1 y P (A) = 0 para cualquier otro evento A. b) P () = 0 y P (A) = 1 para cualquier otro evento A. 53. Considere el espacio medible (N, 2N ). Demuestre en cada caso que P es una medida de probabilidad. Para cada A 2N dena: a) P (A) =
nA

2/3n . 1/2n .
nA

b) P (A) =

54. Sea = {1, . . . , n}, y considere el espacio medible (, 2 ). Investigue en cada caso si P es una medida de probabilidad. Para cada A 2 dena: a) P (A) =
kA

2k . n(n + 1)

50
b) P (A) =
kA

1.6. Ejercicios 1 (1 ). k

55. Considere el espacio medible ((0, 1), B(0, 1)). Demuestre en cada caso que P es una medida de probabilidad. Para cada A B(0, 1) dena: a) P (A) =
A

2x dx. 3 x dx. 2

b) P (A) =
A

56. Probabilidad condicional. Sea (, F , P ) un espacio de probabilidad, y sea B un evento con probabilidad estrictamente positiva. Demuestre que la probabilidad condicional denida para cada A en F como sigue: P (A | B) = P (A B)/P (B), es una medida de probabilidad. En consecuencia, toda propiedad vlida para una medida de a probabilidad es tambin vlida para la probabilidad condicional. e a 57. Sea P una medida de probabilidad, y sean P1 ( ) = P ( | B) y P2 ( ) = P1 ( | C), en donde P (B) > 0 y P (C) > 0. Demuestre que para cualquier evento A, P2 (A) = P (A | B C). 58. Demuestre que P (A | B) 1 P (Ac )/P (B), en donde P (B) > 0. 59. Sea P una medida de probabilidad denida sobre la -lgebra F . a Demuestre que la coleccin {A F : P (A) = 0 P (A) = 1} es una o o sub -lgebra de F . a

Propiedades elementales
60. Demuestre que P () = 0, sin usar P () = 1. 61. Demuestre que P (A B) P (A)P (B) = P (Ac )P (B) P (Ac B). 62. Demuestre que P (AB) m n{P (A), P (B)} P (A) mx{P (A), P (B)} P (AB). a

Cap tulo 1. Espacios de probabilidad 63. Demuestre que P (A B C) = P (A) + P (B) + P (C) +P (A B C). 64. Demuestre que P (A B C) = P (A) + P (Ac B) + P (Ac B c C). 65. Demuestre que P(

51

P (A B) P (A C) P (B C)

i=1

Ai ) = P (A1 ) + P (Ac A2 ) + P (Ac Ac A3 ) + 1 1 2 +P (Ac Ac An ) + 1 n1

66. Formula de inclusion y exclusion. Demuestre que


n n

P(
i=1

Ai ) =
i=1

P (Ai )

i<j

P (Ai Aj )

+
i<j<k

P (Ai Aj Ak )

+ (1)n+1 P (A1 An ). 67. Demuestre que


n n

P(
i=1

Ai ) =
i=1

P (Ai )

i<j

P (Ai Aj )

+
i<j<k

P (Ai Aj Ak )

+ (1)n+1 P (A1 An ).

52
n

1.6. Ejercicios
n

68. Demuestre que P (


k=1

Ak ) 1

P (Ac ). k
k=1

69. Demuestre que 0 P (A B) P (A) P (A B) P (A) + P (B) 2. 70. Diga falso o verdadero. Demuestre en cada caso. a) P (B A) = P (B) P (A).

b) P (A B) = P (A B) + P (B A). c) P (A) > 0 P (A B) > 0.

d) P (A) > 0 P (A B) > 0. e) P (A) < 1 P (A B) < 1. f ) P (A) < 1 P (A B) < 1.

71. Diga falso o verdadero. Demuestre en cada caso. a) P (A) = 0 P (A B) = 0. c) P (A B) = 0 P (A) = 0. b) P (A) = 0 P (A B) = 0.

d) P (A B) = 0 P (A) = 0. e) P (A) = 1 P (A B) = 1. f ) P (A) = 1 P (A B) = 1.

h) P (A B) = 1 P (A) = 1. 72. Diga falso o verdadero. Demuestre en cada caso. a) P (A B) P (A) P (B c ). c) P (A B) P (A)P (B).

g) P (A B) = 1 P (A) = 1.

b) P (A B) = P (A) P (A B).

Cap tulo 1. Espacios de probabilidad d) P (A B) P (A) + P (B). e) P (A | B) P (A).

53

f ) P (A | B) P (A) P (B | A) P (B).

73. Se lanza una moneda tantas veces como indica un dado previamente lanzado. Tanto la moneda como el dado estan equilibrados. Calcule la probabilidad de que: a) se obtengan ambas caras de la moneda igual nmero de veces. u b) se obtenga una misma cara siempre. 74. En una primera caja se encuentran dos canicas blancas y tres negras, en una segunda caja hay tres blancas y cinco negras, y en una tercera caja hay dos blancas y una negra. De la primera caja se extrae al azar una canica y se deposita en la segunda caja, despus se extrae e nuevamente al azar una canica de la segunda caja y se deposita en la tercera caja. Despus de este proceso se obtiene al azar una canica de e la tercera caja, encuentre la probabilidad de que sta sea blanca. e 75. Un dado equilibrado se lanza tres veces consecutivas, y resulta que la suma de los tres nmeros obtenidos es 11. Encuentre la probabilidad u de que en el primer lanzamiento se haya obtenido un 5. 76. Una primera caja contiene tres canicas blancas y dos negras. Una segunda caja contiene dos canicas blancas y cuatro negras. Se escoge una caja al azar y se extrae un canica. Unicamente se conoce que la canica obtenida es blanca, encuentre la probabilidad de que sta haya e sido obtenida de la primera caja. 77. Regla del producto. Demuestre que P (A1 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 ). 78. Desigualdad de Bonferroni. Demuestre que
n n

P(
i=1

Ai )

i=1

P (Ai )

i<j

P (Ai Aj ).

54

1.6. Ejercicios

79. Desigualdad de Kounias. Demuestre que


n n n

P(
i=1

Ai ) m { n
j

i=1

P (Ai )

i=j

i=1

P (Ai Aj ) }.

Continuidad
80. Se lanza una moneda honesta una innidad de veces. Demuestre que la probabilidad de que eventualmente cada una de las dos caras aparezca es uno. 81. Se lanza un dado equilibrado una innidad de veces. Demuestre que la probabilidad de que eventualmente cada una de las seis caras aparezca es uno. 82. Sea A un evento con probabilidad estrictamente positiva. Demuestre que si se efecta una innidad de ensayos independientes del experiu mento aleatorio, la probabilidad de que nunca ocurra el evento A es cero.

Independencia de eventos
83. Diga falso o verdadero. Demuestre o proporcione un contraejemplo. a) A A. b) A Ac . c) A . d) A .

84. Es la independencia de dos eventos una relacin de equivalencia? o 85. Mediante un contraejemplo demuestre que si A y B son independientes, entonces no necesariamente son ajenos. Demuestre tambin que e si A y B son ajenos, entonces tampoco se sigue necesariamente que estos eventos sean independientes.

Cap tulo 1. Espacios de probabilidad 86. Sean A1 , . . . , An independientes. Demuestre que


n n

55

P(
k=1

Ak ) = 1

k=1

[1 P (Ak )].

87. Sea A1 , A2 , . . . una sucesin innita de eventos. Dena o Bn =


k=n

Ak

Cn =

k=n

Ak .

Demuestre que si Bn y Cn son independientes para cada n, entonces los eventos l mite superior y l mite inferior de la sucesin An tambin o e son independientes. En particular, cuando la sucesin An converge al o evento A, entonces A tiene probabilidad cero o uno. 88. Sean A y B independientes. Demuestre que {A} y {B} son independientes.

Lema de Borel-Cantelli
89. Se lanza un dado equilibrado una innidad de veces. Demuestre que con probabilidad uno cada una de las seis caras aparece una innidad de veces. 90. Sea A un evento con probabilidad positiva. Use el lema de BorelCantelli para demostrar que si se efecta una innidad de ensayos u independientes del experimento aleatorio, la probabilidad de que ocurra una innidad de veces el evento A, es uno.

Cap tulo 2

Variables aleatorias

En este cap tulo se estudian los conceptos de variable aleatoria, funcin de o distribucin, funcin de densidad y esperanza. Se estudian tambin algunas o o e distribuciones de probabilidad de variables aleatorias discretas y continuas particulares. A partir de ahora y en el resto del curso consideraremos como elemento base un espacio de probabilidad (, F , P ).

2.1.

Variables aleatorias

Una variable aleatoria es una funcin del espacio muestral en el conjunto de o nmeros reales que adems satisface cierta condicin de medibilidad. Reu a o presenta una traduccin de cada uno de los resultados del espacio muestral o en nmeros reales. Mediante una variable aleatoria uno puede considerar u que el posible experimento aleatorio en cuestin no produce como resultao dos elementos de sino nmeros reales. El concepto de variable aleatoria u es fundamental en la teor de la probabilidad, y una vez que enunciemos su a denicin, el trmino aparecer con mucha frecuencia a lo largo del curso. o e a

57

58

2.1. Variables aleatorias

Definicion. (Variable aleatoria). Una variable aleatoria real es una funcin X : R tal que para cualquier conjunto Boreliano B, se o cumple que el conjunto X 1 B es un elemento de F .

X() R

Figura 2.1: Una variable aleatoria es una funcin medible de en R. o Grcamente una variable aleatoria puede representarse como se muestra a en la Figura 2.1. Esto es, una variable aleatoria (a veces se escribe simplemente v.a.) es una funcin de en R tal que la imagen inversa de cualquier o conjunto Boreliano es un elemento de la -lgebra del espacio de probabia lidad. Esta condicin se conoce como medibilidad en teor de la medida, y o a se dice entonces que dicha funcin es medible respecto de las -lgebras F o a y B(R). En un apndice al nal del texto aparece una seccin que contiene e o una discusin breve del concepto de imagen inversa de una funcin, que o o para el caso de variables aleatorias puede ilustrarse grcamente como se a indica en la Figura 2.2. Explicamos a continuacin la razn tcnica por la cual se le pide a una funo o e cin X : R que cumpla la condicin de medibilidad. Recordemos que P o o es una medida de probabilidad denida sobre el espacio medible (, F ). Si X es una variable aleatoria, entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B(R)) del siguiente modo: Si B es un conjunto Boreliano denimos PX (B) = P (X 1 B), lo cual es posible pues el conjunto X 1 B es un elemento de F , dominio de denicin de P . La o funcin PX : B(R) [0, 1] resulta ser una medida de probabilidad, y se le o llama por tanto la medida de probabilidad inducida por la variable aleatoria.

Cap tulo 2. Variables aleatorias

59

X 1

X 1 B

B R

Figura 2.2: La imagen inversa de un conjunto de Borel. Se le conoce tambin con el nombre de distribucin o ley de probabilidad de e o X. A menudo se le denota por L(X). De este modo se construye el espacio de probabilidad (R, B(R), PX ). Si B es un conjunto Boreliano, se usan los s mbolos X 1 B y (X B) para denotar el conjunto { : X() B}. Por ejemplo, el conjunto { : X() [0, )} puede ser denotado por X 1 [0, ) o (X [0, )), o simplemente por (X 0), incluyendo los parntesis. Veamos otro ejemplo, e si (a, b) es un intervalo de la recta real, se puede usar el s mbolo X 1 (a, b), o (X (a, b)), o bien (a < X < b) para denotar el conjunto { : X() (a, b)}. Para hacer la escritura ms corta, a menudo se omite el argumento a de una variable X y se omite tambin el trmino variable aleatoria para e e X suponiendo, en la mayor de las veces, que lo es. a Para comprobar que una funcin X : R es realmente una variable aleao toria, la denicin requiere vericar la condicin X 1 B F para cualquier o o conjunto Boreliano B. En muy pocos casos tal condicin puede comprobarse o de manera tan directa. La siguiente proposicin establece que no es necesao rio demostrar la condicin de medibilidad para cualquier conjunto Boreliano o B, sino que es suciente tomar intervalos de la forma (, x], para cada x en R. Este resultado, como uno puede imaginar, es de suma utilidad y lo usaremos con frecuencia en el resto del cap tulo.

60

2.1. Variables aleatorias

Proposicion. Una funcin X : R es una variable aleatoria si, y o slo si, para cada x en R se cumple que (X x) F . o Demostracin. o () Si X es variable aleatoria, entonces claramente se cumple que para cualquier nmero real x el conjunto (X x) es un elemento de F . u () Ahora suponga que para cada real x, el conjunto (X x) es un elemento de F . Sean B y C las colecciones B = {B B(R) : X 1 B F }, C = {(, x] : x R}.

Entonces claramente C B B(R). La primera contencin es por o hiptesis, y la segunda es por denicin de la coleccin B. Suponga por o o o un momento que B es una -lgebra de subconjuntos de R. Entonces a B es una -lgebra que contiene a C . Por lo tanto (C ) = B(R) B. a Esto implica que B = B(R), y entonces X es variable aleatoria. Resta entonces hacer ver que B es efectivamente una -lgebra. a a) Primeramente tenemos que R B, pues R B(R) y X 1 R = F.

b) Sea B B. Entonces B B(R) y X 1 B F . Por lo tanto B c B(R) y X 1 B c = (X 1 B)c F . Es decir, B c B.

c) Sea B1 , B2 , . . . una sucesin en B. Es decir, para cada nmero o u natural n, Bn B(R) y X 1 Bn F . Entonces Bn n=1 B(R) y X 1 Bn = X 1 Bn F . Es decir, Bn n=1 n=1 n=1 B.

Adems de la condicin anterior para demostrar que una funcin es vaa o o riable aleatoria, existen otras condiciones igualmente equivalentes y utiles.

Cap tulo 2. Variables aleatorias

61

Por ejemplo, X es variable aleatoria si para cada x en R, (X < x) F , o (X > x) F , o (X x) F . Cualquiera de estas condiciones es necesaria y suciente para que X sea variable aleatoria. Tambin es equie valente la condicin (a < X < b) F , para cualquier intervalo (a, b) de o R. La demostracin de todas estas aseveraciones es completamente anloga o a al caso demostrado arriba y se pide desarrollar los detalles en la seccin de o ejercicios. Considere ahora los espacios medibles (, F ) y (R, B(R)). Si X es una funcin de en R, entonces se denota por (X) a la m o nima -lgebra de a subconjuntos de respecto de la cual X es variable aleatoria. Definicion. (X) = { X 1 B : B B(R) }.

Es sencillo probar que tal coleccin de imgenes inversas es efectivamente o a una -lgebra, y claramente X es variable aleatoria si, y slo si, (X) F . a o En particular, se dice que una funcin g : R R es Borel medible si o g1 B B(R), para cada B en B(R). Ejercicio. Diga falso o verdadero. Demuestre en cada caso. a) (X) = (X 2 ). b) (X) = (X). c) (X) = (2X). A continuacin se demuestra que algunas operaciones bsicas entre variao a bles aleatorias producen nuevas variables aleatorias. Suponga entonces que (, F , P ) es un espacio de probabilidad dado. Todas las variables aleatorias que se consideran a continuacin estn denidas sobre este mismo espacio o a de probabilidad. Proposicion. La funcin constante X = c es una variable aleatoria. o

Demostracin. Sea B un elemento cualquiera de B(R). Para la funcin o o 1 B = si c B, y X 1 B = si c B. constante X = c se tiene que X / En ambos casos el conjunto X 1 B es un elemento de F , por lo tanto X es

62
variable aleatoria.

2.1. Variables aleatorias

Proposicion. Si X es variable aleatoria y c es una constante, entonces cX tambin es variable aleatoria. e

Demostracin. Comprobaremos que para cada nmero real x, la imagen o u inversa del conjunto (, x], bajo la funcin cX, es un elemento de F . o Tenemos tres casos: Si c > 0, entonces el conjunto (cX x) = (X x/c) es un elemento de F , pues X es v.a. Si c < 0, entonces nuevamente el conjunto (cX x) = (X x/c) es un elemento de F pues X es v.a. Finalmente si c = 0, entonces es claro que cX es la constante cero que es v.a. por la proposicin anterior. o Proposicion. Si X y Y son v.a.s, entonces X + Y es variable aleatoria.

Demostracin. Probaremos que para cada nmero real x, el conjunto (X + o u Y > x) es un elemento de F . Para ello usaremos la igualdad (X + Y > x) =
rQ

(X > r) (Y > x r).

(2.1)

Es claro que a partir de esta igualdad se concluye que el conjunto (X + Y > x) es un elemento de F , pues tanto X como Y son variables aleatorias, y la operacin de unin involucrada es numerable. Resta entonces demoso o trar (2.1). () Sea en tal que X() + Y () > x. Entonces X() > x Y (). Como los nmeros racionales son un conjunto denso en R, tenemos u que existe un nmero racional r tal que X() > r > x Y (). Por u lo tanto X() > r y Y () > x r. De aqui se desprende que es un elemento del lado derecho.

Cap tulo 2. Variables aleatorias

63

() Sea ahora un elemento de rQ (X > r) (Y > x r). Entonces existe un nmero racional r0 tal que X() > r0 y Y () > x r0 . u Sumando obtenemos X() + Y () > x, y por lo tanto es tambin e un elemento del lado izquierdo.

Proposicion. Si X y Y son v.a.s, entonces XY es variable aleatoria.

Demostracin. Suponga primero el caso particular X = Y . Entonces neo cesitamos probar que para todo nmero real x, el conjunto (X 2 x) es u un elemento de F . Pero esto es cierto pues (X 2 x) = si x < 0, y (X 2 x) = ( x X x) si x 0. En ambos casos, el conjunto (X 2 x) es un elemento de F . Para el caso general, X = Y , usamos la frmula XY = ( (X + Y )2 (X Y )2 )/4. Por lo demostrado antes, el o producto XY es efectivamente una variable aleatoria. Como consecuencia se cumple que si multiplicamos X por s misma n veces, entonces X n es variable aleatoria. Por lo tanto toda funcin polinomial de o una variable aleatoria es tambin variable aleatoria. e Proposicion. Sean X y Y v.a.s con Y = 0. Entonces X/Y es variable aleatoria.

Demostracin. Como el producto de variables aleatorias es nuevamente una o variable aleatoria, es suciente demostrar que 1/Y es variable aleatoria. Para

64

2.1. Variables aleatorias

cualquier nmero real y > 0 tenemos que u ( 1 1 1 y) = ( y, Y > 0) ( y, Y < 0) Y Y Y 1 1 = (Y , Y > 0) (Y , Y < 0) y y 1 = (Y ) (Y < 0), y

que es un elemento de F puesto que Y es variable aleatoria. Por otro lado, si y < 0 tenemos que ( 1 1 1 y) = ( y, Y > 0) ( y, Y < 0) Y Y Y 1 1 = (Y , Y > 0) (Y , Y < 0) y y 1 = (Y , Y < 0) y 1 = ( Y < 0). y

Nuevamente vemos que este conjunto es un elemento de F , puesto que Y es v.a. Finalmente cuando y = 0 obtenemos una vez mas un elemento de F pues ( 1 1 1 0) = ( 0, Y > 0) ( 0, Y < 0) Y Y Y = (Y < 0) = (Y < 0).

Proposicion. Si X y Y son variables aleatorias, entonces mx{X, Y } a y m n{X, Y } tambin lo son. e

Cap tulo 2. Variables aleatorias Demostracin. Para cualquier nmero real x, o u (mx{X, Y } x) = (X x, Y x) = (X x) (Y x). a Anlogamente, a (m n{X, Y } x) = (X x, Y x) = (X x) (Y x).

65

Como consecuencia se obtiene que tanto X + = mx{0, X} como X = a m n{0, X} son variables aleatorias. Proposicion. Si X es variable aleatoria, entonces |X| es variable aleatoria.

Demostracin. Si x 0, entonces (|X| x) = (x X x), y si x < o 0, entonces (|X| x) = F , de modo que |X| es variable aleatoria. Alternativamente se puede escribir |X| = X + + X , y por lo expuesto anteriormente obtener la misma conclusin. o Se muestra a continuacin que en general el rec o proco de la proposicin o anterior es falso, esto es, si X : R es una funcin tal que |X| es o variable aleatoria, entonces no necesariamente X es variable aleatoria. Ejemplo. Considere el espacio muestral = {1, 0, 1} junto con la a lgebra F = {, {0}, {1, 1}, }. Sea X : R la funcin identidad o X() = . Entonces |X| es variable aleatoria pues para cualquier conjunto Boreliano B, si 0, 1 B, {1, 1} si 0 B y 1 B, / |X|1 B = {0} si 0 B y 1 B, / si 0, 1 B. /

66

2.1. Variables aleatorias

Es decir, |X|1 B es un elemento de F . Sin embargo X no es variable aleatoria pues el conjunto X 1 {1} = {1} no es un elemento de F . Ahora consideraremos algunas operaciones l mite en sucesiones innitas de variables aleatorias. Slo consideraremos variables aleatorias con valores o nitos, de modo que impondremos condiciones sobre la nitud del resultado al tomar tales operaciones l mite. Proposicion. Sea X1 , X2 , . . . una sucesin innita de variables aleatoo rias tales que para cada en , los nmeros u sup {X1 (), X2 (), . . .} e {X1 (), X2 (), . . .} nf nf son nitos. Entonces las funciones sup {Xn } e {Xn } son variables
n0 n0

aleatorias.

Demostracin. Para cualquier nmero real x, o u ( sup Xn x ) =


n0

( Xn x ) = nf
n0

n=1 n=1

(Xn x), (Xn x).

El siguiente resultado hace uso de las operaciones de l mite superior e inferior para sucesiones numricas, el lector puede encontrar una revisin breve de e o estas operaciones al nal del texto.

Cap tulo 2. Variables aleatorias

67

Proposicion. Sea X1 , X2 , . . . una sucesin innita de variables aleatoo rias tales que para cada en , los nmeros u m l sup {X1 (), X2 (), . . .} y l inf {X1 (), X2 (), . . .} m son nitos. Entonces las funciones l sup Xn y l inf Xn son variables m m aleatorias.
n n

Demostracin. Esto es consecuencia de la proposicin anterior pues o o l sup Xn = ( sup Xn ), m nf


n k nk

nf l inf Xn = sup ( Xn ). m
n k nk

Finalmente demostramos que el l mite de una sucesin de variables aleatoo rias convergente es variable aleatoria. Proposicion. Sea X1 , X2 , . . . una sucesin innita de variables aleatoo rias tales que l Xn () existe y es nito para cada . Entonces m n la funcin l Xn es una variable aleatoria. o m
n

Demostracin. Como el l o mite de Xn existe, los l mites superior e inferior de esta sucesin coinciden. Entonces por lo demostrado antes, el l o mite de Xn es variable aleatoria.

68

2.2. Funcion de distribucion

2.2.

Funcin de distribucin o o

Toda variable aleatoria tiene asociada una funcin llamada funcin de diso o tribucin. En esta seccin se dene esta importante funcin y se demuestran o o o algunas de sus propiedades. Definicion. (Funcion de distribucion). La funcin de distribucin o o de una variable aleatoria X es la funcin F (x) : R [0, 1], denida o como sigue F (x) = P (X x).

Cuando sea necesario especicar la variable aleatoria en cuestin se escribe o FX (x), pero en general se omite el sub ndice X cuando no haya posibilidad de confusin. El argumento de la funcin es la letra minscula x que puede o o u tomar cualquier valor real. Por razones obvias a esta funcin se le conoce o tambin con el nombre de funcin de acumulacin de probabilidad, o funcin e o o o de probabilidad acumulada. Observe que la funcin de distribucin de una o o variable aleatoria est denida sobre la totalidad del conjunto de nmeros a u reales, y siendo una probabilidad, toma valores en el intervalo [0, 1]. La funcin de distribucin es importante pues, como se ilustrar ms adelano o a a te, contiene ella toda la informacin de la variable aleatoria y la correspono diente medida de probabilidad. Veremos a continuacin algunas propiedades o bsicas de esta funcin, en una de las cuales aparece la expresin F (x+), a o o que signica el l mite por la derecha de la funcin F en el punto x. Apareo cer tambin la expresin F (x), que signica, de manera anloga, el l a e o a mite por la izquierda de la funcin F en el punto x. o

Cap tulo 2. Variables aleatorias

69

Proposicion. Sea F (x) la funcin de distribucin de una variable aleao o toria. Entonces 1. 2.
x+

l F (x) = 1. m l F (x) = 0. m

3. Si x1 x2 , entonces F (x1 ) F (x2 ). 4. F (x) es continua por la derecha, es decir, F (x+) = F (x).

Demostracin. o 1. Sea x1 , x2 , . . . una sucesin cualquiera de nmeros reales creciente a o u innito, y sean los eventos An = (X xn ). Entonces {An : n N} es una sucesin de eventos creciente cuyo l o mite es . Por la propiedad de continuidad
n

m l F (xn ) = l P (An ) = P () = 1. m
n

Dado que R es un espacio mtrico, lo anterior implica que F (x) cone verge a uno cuando x tiende a innito. 2. Sea ahora {xn : n N} una sucesin cualquiera de nmeros reales o u decreciente a menos innito, y sean los eventos An = (X xn ). Entonces {An : n N} es una sucesin de eventos decreciente al o conjunto vac Nuevamente por la propiedad de continuidad o.
n

l F (xn ) = l P (An ) = P () = 0. m m
n

Por lo tanto, F (x) converge a cero cuando x tiende a menos innito.

70
3. Para x1 x2 ,

2.2. Funcion de distribucion

F (x1 ) F (x1 ) + P (x1 < X x2 ) = P (X x2 ) = F (x2 ).

= P [(X x1 ) (x1 < X x2 )]

o u 4. Sea x1 , x2 , . . . una sucesin cualquiera de nmeros reales no negativos y decreciente a cero. Entonces F (x + xn ) = F (x) + P (x < X x + xn ), en donde An = (x < X x + xn ) es una sucesin de eventos decreo ciente al conjunto vac Por lo tanto l F (x + xn ) = F (x). Es decir o. m
n

F (x+) = F (x).

Se tiene adems la siguiente denicin general de funcin de distribucin, a o o o no haciendo referencia a variables aleatorias ni a espacios de probabilidad particulares. Definicion. (Funcion de distribucion). Una funcin F (x) : R o [0, 1] es llamada funcin de distribucin si cumple las cuatro propiedades o o anteriores. Una especie de rec proco de la ultima proposicin es vlido y ello justica o a la importancia de la funcin de distribucin. Se enuncia a continuacin este o o o interesante resultado cuya demostracin omitiremos y puede encontrarse o por ejemplo en [15]. Proposicion. Sea F (x) : R [0, 1] una funcin de distribucin. Entono o ces existe un espacio de probabilidad (, F , P ) y una variable aleatoria X cuya funcin de distribucin es F (x). o o

Cap tulo 2. Variables aleatorias

71

Por lo tanto basta dar una funcin de distribucin espec o o ca para saber que existe un cierto espacio de probabilidad y una variable aleatoria denida sobre l y cuya funcin de distribucin es la especicada. Este es el punto de e o o vista que a menudo se adopta en el estudio de las variables aleatorias, quedando un espacio de probabilidad no especicado en el fondo como elemento base en todas las consideraciones. A continuacin se presentan algunos ejemplos grcos de funciones de diso a tribucin. La grca de la izquierda en la Figura 2.3 corresponde a la funo a cin de distribucin de una variable aleatoria discreta, y la grca de la o o a derecha muestra el comportamiento t pico de una funcin de distribucin o o continua. Tambin pueden presentarse situaciones como la que se muestra e en la Figura 2.4, y que corresponde al caso de una variable aleatoria mixta. La denicin de variable aleatoria discreta, continua y mixta aparece en la o siguiente seccin. o

F (x) 1 1

F (x)

Figura 2.3: Funciones de distribucin discreta y continua. o Se demuestran ahora algunas otras propiedades que establecen la forma de calcular probabilidades usando la funcin de distribucin. o o

72

2.2. Funcion de distribucion

F (x) 1

Figura 2.4: Una funcin de distribucin mixta. o o Proposicion. Sea X una variable aleatoria con funcin de distribucin o o F (x). Para cualesquiera nmeros reales a < b, u 1. P (X < a) = F (a). 2. P (X = a) = F (a) F (a). 3. P (a < X b) = F (b) F (a). 4. P (a X b) = F (b) F (a). 5. P (a < X < b) = F (b) F (a). 6. P (a X < b) = F (b) F (a).

Demostracin. o 1. Sea x1 , x2 , . . . una sucesin de nmeros reales positivos y decreciente o u a cero. Sea An el evento (X a xn ). Entonces {An : n N} es una sucesin de eventos decreciente al evento (X < a). Por la propiedad o de continuidad P (X < a) = l P (An ) = l F (a xn ) = F (a). m m
n n

Cap tulo 2. Variables aleatorias 2. Simplemente se escribe P (X = a) = P (X a) P (X < a) = F (a) F (a). 3. 6. Estas igualdades se sigue directamente de las dos primeras.

73

F (x) 1

P (X = x) = F (x) F (x)

Figura 2.5: Una discontinuidad de F (x) y su signicado. Observe que como F (x) es una funcin no decreciente y continua por la o derecha, la probabilidad P (X = x) es igual a F (x) F (x), que representa el tamao del salto o discontinuidad de la funcin de distribucin en el punto n o o x. Esto se muestra en la Figura 2.5. En consecuencia, cuando F (x) es una funcin continua y para a < b, o

F (b) F (a) = P (a < X b) = P (a < X < b)

= P (a X b) = P (a X < b).

Es decir, cuando F (x) es una funcin continua, incluir o excluir los extremos o de un intervalo no afecta el valor de la probabilidad de dicho intervalo. Por

74

2.3. Tipos de variables aleatorias

lo tanto, para cualquier nmero real x, la probabilidad del evento (X = x) u es cero. Finalizamos esta seccin con un resultado interesante cuya prueba o es sorprendentemente simple. Proposicion. Toda funcin de distribucin tiene a lo sumo un nmero o o u numerable de discontinuidades.

Demostracin. Sea D el conjunto de puntos de discontinuidad de una funo cin de distribucin F (x). Para cada nmero natural n dena los subcono o u juntos 1 1 Dn = { x D : < F (x) F (x) }. n+1 n Cada conjunto Dn tiene a lo sumo n elementos. Como D = concluye que D es numerable.
n=1 Dn ,

se

2.3.

Tipos de variables aleatorias

Las variables aleatorias se clasican en varios tipos dependiendo de las caracter sticas de la correspondiente funcin de distribucin. Al menos existen o o tres tipos: discretas, continuas, y mezclas de las dos anteriores. Veamos su denicin. o

Cap tulo 2. Variables aleatorias

75

Definicion. (Variable aleatoria discreta). La variable aleatoria X se llama discreta si su correspondiente funcin de distribucin F (x) o o es una funcin constante por pedazos. Sean x1 , x2 , . . . los puntos de o discontinuidad de F (x). En cada uno de estos puntos el tamao de la n o discontinuidad es P (X = xi ) = F (xi ) F (xi ) > 0. A la funcin f (x) que indica estos incrementos se le llama funcin de probabilidad de X, o y se dene como sigue f (x) = P (X = x) si x = x1 , x2 , . . . 0 otro caso. (2.2)

La funcin de distribucin se reconstruye de la forma siguiente o o F (x) =


ux

f (u).

En este caso se dice tambin que la funcin de distribucin es discreta, e o o adems la funcin de probabilidad f (x) siempre existe, y se le llama tambin a o e funcin de masa de probabilidad. Tambin se acostumbra usar el trmino o e e funcin de densidad, como una analog con el caso de variables aleatorias o a continuas denidas ms adelante. Cuando sea necesario especicarlo se esa cribe fX (x) en lugar de f (x). Observe que la funcin de probabilidad f (x) es o una funcin no negativa que suma uno en el sentido i f (xi ) = 1. Rec o procamente, toda funcin de la forma (2.2) que cumpla estas dos propiedades se o le llama funcin de probabilidad, sin que haya necesariamente una variable o aleatoria de por medio. Veamos ahora el caso continuo. Definicion. (Variable aleatoria continua). La variable aleatoria X se llama continua si su correspondiente funcin de distribucin es una o o funcin continua. o En tal caso tambin se dice que la distribucin es continua. Las distribucioe o nes continuas se clasican a su vez en distribuciones absolutamente continuas

76

2.3. Tipos de variables aleatorias

y distribuciones singulares. Definicion. (Variable aleatoria absolutamente continua). La variable aleatoria continua X con funcin de distribucin F (x) se llama o o absolutamente continua, si existe una funcin no negativa e integrable o f tal que para cualquier valor de x se cumple
x

F (x) =

f (u) du.

(2.3)

En tal caso a la funcin f (x) se le llama funcin de densidad de X. o o An cuando exista una funcin no negativa e integrable f que cumpla (2.3), u o sta puede no ser unica, pues basta modicarla en un punto para que sea e ligeramente distinta pero an as seguir cumpliendo (2.3). A pesar de ello, u nos referiremos a la funcin de densidad como si sta fuera unica, y ello o e se justica por el hecho de que las probabilidades son las mismas, ya sea usando una funcin de densidad o modicaciones de ella que cumplan (2.3). o Es claro que la funcin de densidad de una variable aleatoria absolutameno te continua es no negativa y su integral sobre toda la recta real es uno. Rec procamente, toda funcin f (x) no negativa que integre uno en R se o llama funcin de densidad. Si X es absolutamente continua con funcin de o o distribucin F (x) y funcin de densidad continua f (x), entonces el teoreo o ma fundamental del clculo establece que, a partir de (2.3), F (x) = f (x). a Adems, la probabilidad de que X tome un valor en el intervalo (a, b) es a el rea bajo la funcin de densidad sobre dicho intervalo. Esto se ilustra a o en la Figura 2.6, la probabilidad es la misma si se incluyen o excluyen los extremos del intervalo. Pueden construirse ejemplos de variables aleatorias continuas que no tienen funcin de densidad, es decir, que no existe una funcin f no negativa e ino o tegrable que cumpla (2.3) para cualquier nmero real x. En tales situaciones u se dice que la distribucin es singular. o

Cap tulo 2. Variables aleatorias

77

f (x)

P (X (a, b)) =

f (x) dx
a

x a b
a o Figura 2.6: La probabilidad como el rea bajo la funcin de densidad.

Definicion. (Variable aleatoria singular). La variable aleatoria continua X, o su correspondiente funcin de distribucin F (x), se llama o o (x) = 0 casi seguramente. singular si F El trmino casi seguramente que aparece en esta denicin se reere a que e o la igualdad se cumple en todos los puntos x excepto en un conjunto cuya medida de Lebesgue es cero. Las distribuciones singulares son un poco ms a delicadas de estudiar y no haremos mayor nfasis en ellas. La distribucin de e o Cantor es un ejemplo de este tipo de distribuciones y se construye mediante un proceso l mite. Los detalles pueden encontrarse en [13] o [19]. Definicion. (Variable aleatoria mixta). Una variable aleatoria que no es discreta ni continua se llama variable aleatoria mixta. No es dif encontrar situaciones en donde la variable aleatoria en estudio cil es mixta, el siguiente ejemplo es una muestra de ello. Ejemplo (Una variable aleatoria que no es discreta ni continua). Sea X una variable aleatoria con funcin de distribucin o o FX (x) = 1 ex 0 si x > 0, si x 0.

78

2.3. Tipos de variables aleatorias

Como la funcin FX (x) es continua, entonces la variable aleatoria X es o continua. Sea M > 0 una constante. Las grcas de las funciones de distria bucin de las variables X y la constante M (vista como variable aleatoria), o se muestran en la Figura 2.7.
FX (x) FM (x)

x M

Figura 2.7: Funciones de distribucin de la variable X y la constante M . o Sea Y = m n{X, M }. Puede comprobarse que la funcin de distribucin de o o Y es 0 FY (y) = 1 ey 1 si y 0, si 0 < y < M, si y M,

con grca como en la Figura 2.8. Es claro que esta funcin de distribucin a o o no es constante por pedazos pues es creciente en el intervalo (0, M ), por lo tanto no es discreta, y tampoco es continua pues tiene una discontinuidad en y = M . Por lo tanto Y es una variable aleatoria que no es discreta ni continua.

Finalmente enunciamos un resultado general cuya demostracin puede eno contrarse en [7] o [13].

Cap tulo 2. Variables aleatorias


FY (y)

79

y M Figura 2.8: Funcin de distribucin de la variable Y = m o o n{X, M }.

Proposicion. Toda funcin de distribucin F (x) se puede escribir como o o una combinacin lineal convexa de una funcin de distribucin discreta o o o F d (x) y otra continua F c (x), es decir, admite la siguiente representacin o F (x) = F d (x) + (1 )F c (x), en donde 0 1. En todos los casos que consideraremos en este texto la distribucin continua o de esta descomposicin ser absolutamente continua. En el caso general, eso a ta distribucin continua puede a su vez escribirse como otra combinacin o o lineal convexa entre una distribucin absolutamente continua y una distrio bucin continua singular. Esto lleva al resultado general de que cualquier o distribucin puede escribirse como una combinacin lineal convexa de los o o tres tipos bsicos de distribuciones. a Ejemplo. Considere nuevamente la funcin de distribucin de la variable o o Y = m n{X, M } analizada en el ejemplo anterior. Hemos visto que esta distribucin no es discreta ni continua, sin embargo puede descomponerse o en la combinacin lineal convexa o FY (y) = eM F d (y) + (1 eM )F c (y), en donde F d (y) es la distribucin discreta de la variable constante M , y o

80

2.3. Tipos de variables aleatorias

F c (y) es la distribucin continua o 0 1 ey c FY (y) = 1 eM 1

si y 0, si 0 < y < M, si y M.

Igualdad de variables aleatorias


Dos variables aleatorias X y Y son estrictamente iguales si para cada se cumple X() = Y (). Existen, sin embargo, otras formas ms dbiles de a e igualdad que enunciaremos a continuacin. o Definicion. (Igualdad de variables aleatorias). Se dice que dos variables aleatorias X y Y son a) iguales casi seguramente, y se escribe X = Y c.s., o bien X = Y , si se cumple que P (X = Y ) = 1. Ms generalmente, un evento a ocurre casi seguramente si su probabilidad es uno. b) iguales en distribucin, y se escribe X = Y , si sus correspondientes o funciones de distribucin coinciden, es decir, si FX (x) = FY (x) o para cada nmero real x. u
d c.s.

Es interesante observar que la igualdad casi segura es ms fuerte que la a igualdad en distribucin, es decir, si X y Y son iguales casi seguramente, o entonces son iguales en distribucin. Sin embargo, si X y Y tienen la misma o distribucin, entonces no necesariamente son iguales casi seguramente. A o menos que se indique lo contrario, cuando aparezca una expresin de igualo dad entre variables aleatorias, se considera que la igualdad es vlida en el a sentido fuerte, es decir, casi seguro.

Cap tulo 2. Variables aleatorias

81

Ejercicio. Sean X y Y dos variables aleatorias. Demuestre que el conjunto (X = Y ) es un evento. En consecuencia tiene sentido calcular la probabilidad de tal conjunto. Ejercicio. Demuestre que si X = Y c.s., entonces X = Y . Por el contrario, d demuestre que si X = Y , entonces no necesariamente X = Y c.s. Considere por ejemplo la variable X tal que P (X = 1) = P (X = 1) = 1/2, y dena Y = X.
d

2.4.

Integral de Riemann-Stieltjes

En esta seccin se dene la integral de Riemann-Stieltjes. Esta es una inteo gral de la forma
b

h(x) dF (x),
a

en donde las funciones h(x) y F (x) deben cumplir ciertas condiciones para que la integral tenga sentido y est bien denida. Esta integral es una e generalizacin de la integral usual de Riemann. Al integrando h(x) se le o pide inicialmente que sea una funcin acotada en el intervalo (a, b], auno que despus se omitir esta condicin. A la funcin integradora F (x) se le e a o o pide que sea continua por la derecha, montona no decreciente y tal que o F () F () < M , para algn nmero M > 0. Observe que F (x) debe u u cumplir propiedades semejantes a las de una funcin de distribucin, y de o o hecho la notacin es la misma. Esto no es coincidencia pues usaremos las o funciones de distribucin como funciones integradoras. o Presentamos a continuacin la denicin de la integral de Riemann-Stieltjes o o bajo las condiciones arriba sealadas. En [15] puede encontrarse una expon sicin ms completa y rigurosa de esta integral. Sea {a = x0 < x1 < < o a xn = b} una particin nita del intervalo (a, b], y dena o y h(xi ) = {h(x) : xi1 < x xi }. nf h(xi ) = sup {h(x) : xi1 < x xi },

82

2.4. Integral de Riemann-Stieltjes

Se dene la suma superior e inferior de Riemann-Stieltjes como sigue


n

Sn =
i=1 n

h(xi ) [ F (xi ) F (xi1 ) ], h(xi ) [ F (xi ) F (xi1 ) ].

Sn =
i=1

Ahora se toma el l mite cuando n tiende a innito de tal forma que la longitud mx{|xi xi1 | : 1 i n} tienda a cero. Si sucede que a < l S n = l S n < , m m
n n

entonces a este valor comn se le llama la integral de Riemann-Stieltjes de u la funcin h(x) respecto de la funcin F (x) sobre el intervalo (a, b], y se le o o denota por
b

h(x) dF (x),
a

Y entonces se dene

Cuando la funcin h(x) no es acotada o N hN (x) = h(x) N


b

se hace uso de la funcin auxiliar o si h(x) < N, si h(x) > N. si |h(x)| N,

h(x) dF (x) = l m
a

N a

hN (x) dF (x),

cuando este l mite existe. Se puede extender la denicin de esta integral o de la siguiente forma
b

h(x) dF (x) = l m

a,b a

h(x) dF (x),

cuando el l mite del lado derecho exista y est bien denido. e

Cap tulo 2. Variables aleatorias

83

La integral de Riemann-Stieltjes tiene varias propiedades semejantes a la integral de Riemann, enunciaremos a continuacin algunas de ellas. Primeo ramente es lineal tanto en el integrando como en el integrador, es decir, si es constante, entonces
b b b

a)
a b

(h1 (x) + h2 (x)) dF (x) =


a b

h1 (x) dF (x) +
a b

h2 (x) dF (x). h(x) dF2 (x).


a

b)
a

h(x) d(F1 (x) + F2 (x)) =


a

h(x) dF1 (x) +

Cuando h(x) tiene primera derivada continua se cumple la frmula o


b b

c)
a

h(x) dF (x) = h(b)F (b) h(a)F (a)

F (x)h (x) dx.

De particular importancia en la teor de la probabilidad son los siguientes a dos casos particulares. Cuando F (x) es diferenciable se tiene la igualdad
b b

d)
a

h(x) dF (x) =
a

h(x)F (x) dx.

Es decir, integrar respecto de una funcin de distribucin absolutamente o o continua se reduce a efectuar una integral de Riemann. El otro caso interesante ocurre cuando h(x) es continua y F (x) es constante excepto en los puntos x1 , x2 , . . ., en donde la funcin tiene saltos positivos de tamao o n p(x1 ), p(x2 ), . . . respectivamente. En este caso y suponiendo convergencia,
b

e)
a

h(x) dF (x) =

i=1

h(xi ) p(xi ).

Esto signica que integrar respecto de la funcin de distribucin de una o o variable aleatoria discreta se reduce a efectuar una suma. Finalmente enunciamos la propiedad que ilustra el hecho de que la integral de Riemann es

84

2.5. Caracter sticas numricas e

un caso particular de la integral de Riemann-Stieltjes. Cuando F (x) = x se cumple


b b

f)
a

h(x) dF (x) =
a

h(x) dx.

En la siguiente seccin usaremos las funciones de distribucin como funo o ciones integradoras. Como toda funcin de distribucin F (x) se puede deso o componer en una suma convexa F d (x) + (1 )F c (x), en donde F d (x) es discreta y F c (x) es continua, entonces
b b

h(x) dF (x) =
a a

h(x) dF d (x) + (1 )

b a

h(x) dF c (x).

En algunos casos usaremos tambin la integral de Riemann-Stieltjes en vae rias dimensiones. Por ejemplo, sean h(x, y) y F (x, y) funciones de dos variables, sea {a = x0 < x1 < < xn = b} una particin de (a, b] y sea o {c = y0 < y1 < < ym = d} una particin de (c, d], entonces se dene o
b a c d n m

h(x, y) dF (x, y) = l m
n,m i=1 j=1

h(xi , yj ) F (xi , yj ),

en donde F (xi , yj ) es el incremento de F en el rectngulo (xi1 , xi ] a (yj1 , yj ]. Por ahora no es clara la forma de denir este incremento pero retomaremos este concepto una vez que se haya denido a la funcin de o distribucin en dimensiones mayores. o

2.5.

Caracter sticas numricas e

Se estudian a continuacin algunas caracter o sticas numricas asociadas a e variables aleatorias. En particular, se denen los conceptos de esperanza, varianza y ms generalmente los momentos de una variable aleatoria. Para a ello haremos uso de la integral de Riemann-Stieltjes mencionada antes.

Cap tulo 2. Variables aleatorias

85

Esperanza
La esperanza de una variable aleatoria es un nmero que representa el prou medio ponderado de sus posibles valores, se calcula como se indica a continuacin. o Definicion. (Esperanza). Sea X con funcin de distribucin F (x). o o La esperanza de X, denotada por E(X), se dene como el nmero u E(X) =

x dF (x),

cuando esta integral sea absolutamente convergente, es decir, cuando |x| dF (x) < , y en tal caso se dice que X es integrable, o que tiene esperanza nita. A la esperanza se le conoce tambin con el nombre de media, valor esperado, e valor promedio o valor medio, y en general se usa la letra griega (mu) para denotarla. En la teor de la medida [5] [14] [29] se dene la esperanza de una a variable aleatoria o funcin medible X mediante una integral ms general o a llamada integral de Lebesgue, y se denota por X() dP ().

En algunas ocasiones usaremos esta expresin para tener compatibilidad en o notacin con la teor general. o a Cuando X es discreta con funcin de probabilidad f (x), su esperanza, si o existe, se calcula como sigue E(X) = x xf (x). Si X es absolutamente continua con funcin de densidad f (x), entonces su esperanza, si existe, es o E(X) = xf (x) dx. Ejemplos. a) Sea X con valores en el conjunto {1, 2, . . .}, y con funcin de probao bilidad f (x) = P (X = x) = 1/2x , para x 1. Entonces E(X) =

86
x=1 xf (x)

2.5. Caracter sticas numricas e =


x x=1 x/2

= 2.

b) Sea X continua con funcin de densidad f (x) = 2x, para 0 < x < 1. o 1 Entonces E(X) = xf (x) dx = 0 x 2x dx = 2/3.

La integral o suma arriba mencionados pueden no existir y en ese caso se dice que la variable aleatoria no tiene esperanza nita. El siguiente ejercicio contiene un par de ejemplos que ilustran esta situacin. Vase tambin el o e e ejercicio 151. Ejercicio. Demuestre que no existe la esperanza de X cuando su funcin o de probabilidad o de densidad es a) f (x) = 1 , x(x + 1) para x = 1, 2, . . .

b) f (x) = 1/x2 ,

para x > 1.

Ejemplo. Sea X una variable aleatoria con la siguiente funcin de distrio bucin. La forma de esta funcin puede apreciarse ms fcilmente a travs o o a a e de su grca, la cual se muestra en la Figura 2.9. a 0 x/4 F (x) = 2/4 1/4 + x/4 1 si si si si si x < 0, 0 x < 1, 1 x < 2, 2 x < 3, x 3.

De acuerdo a las propiedades de la integral de Riemann-Stieltjes, la espe-

Cap tulo 2. Variables aleatorias

87

F (x) 1 3/4 2/4 1/4 x

Figura 2.9: Una funcin de distribucin mixta. o o ranza de X es entonces E(X) = =


0 1

x dF (x) 1 2 1 3 2 dx + 1 ( ) + 2 ( ) + 4 4 4 4 4
3

x
2

1 dx. 4

Despus de algunos clculos se encuentra que la esperanza es 15/4. Observe e a la forma mixta en la que esta integral es calculada: en las partes crecientes se calcula como si fuera una distribucin continua, despus se aaden los o e n puntos de discontinuidad ponderados por el tamao del salto. n Con frecuencia surge el problema de calcular esperanzas de funciones de variables aleatorias, es decir, si X es una variable aleatoria y g : R R es una funcin Borel medible, entonces g(X) es una variable aleatoria y el o problema es encontrar su esperanza. Usando directamente la denicin, la o esperanza de g(X) se calcula del siguiente modo: E[g(X)] =

x dFg(X) (x),

pero ello requiere encontrar primero la distribucin de g(X), lo cual puede o no ser fcil en muchos casos. Afortunadamente se cuenta con el siguiente rea sultado que establece una forma muy conveniente de calcular la esperanza de

88

2.5. Caracter sticas numricas e

g(X), sin conocer su distribucin, pero suponiendo conocida la distribucin o o de X. Teorema. (Esperanza de una funcion de una v.a.) Sea X con funcin de distribucin FX (x), y sea g : R R una funcin Borel o o o medible tal que g(X) tiene esperanza nita. Entonces E[g(X)] =

g(x) dFX (x).

La demostracin de este resultado en general no es sencilla y la omitiremos, o aunque un camino cmodo que puede adoptarse es aceptar la frmula ano o terior como la denicin de la esperanza de g(X). En particular, cuando la o funcin g es la identidad, se recupera la denicin bsica de esperanza. Por o o a otro lado, cuando X es discreta, la demostracin del teorema resulta no ser o complicada. Ejercicio. Sea X una variable aleatoria discreta con valores en el conjunto o {x1 , x2 , . . .}, y sea g : R R una funcin Borel medible tal que g(X) tiene esperanza nita. Demuestre que E[g(X)] =
i=1

g(xi )P (X = xi ).

Se establecen a continuacin algunas propiedades de la esperanza. o

Cap tulo 2. Variables aleatorias

89

Proposicion. (Propiedades de la esperanza). Sean X y Y con esperanza nita, y sea c una constante. Entonces 1. E(c) = c. 2. E(c X) = c E(X). 3. Si X 0, entonces E(X) 0. 4. Si X Y , entonces E(X) E(Y ). 5. E(X + Y ) = E(X) + E(Y ).

Las demostraciones de las primeras cuatro propiedades son sencillas pues se siguen directamente de la denicin. La ultima propiedad es fcilmeno a te demostrable en el caso discreto. El caso general ser demostrado ms a a adelante. Ejercicio. Sean X y Y discretas ambas con esperanza nita. Demuestre directamente que E(X + Y ) = E(X) + E(Y ). Proposicion. Sea X con funcin de distribucin F (x), la cual admite o o la descomposicin o F (x) = F d (x) + (1 )F c (x), en donde [0, 1], F d (x) es una funcin de distribucin discreta, y o o F c (x) es una funcin de distribucin continua. Sea Xd con distribucin o o o d (x), y sea X con distribucin F c (x). Entonces X tiene esperanza F o c nita si, y slo si, tanto Xd como Xc tienen esperanza nita, y en tal o caso, E(X) = E(Xd ) + (1 )E(Xc ).

90

2.5. Caracter sticas numricas e

Este resultado es inmediato de demostrar usando la propiedad de linealidad de la integral de Riemann-Stieltjes respecto de la funcin integradora. o

Varianza
La varianza de una variable aleatoria es una medida del grado de dispersin o de los diferentes valores tomados por la variable, su denicin es la siguiente. o Definicion. (Varianza). La varianza de una variable aleatoria X, denotada por Var(X), se dene como la siguiente esperanza, si sta existe, e Var(X) = E (X E(X))2 .

Cuando X es discreta con funcin de probabilidad f (x) y esperanza nita o , la varianza de X, cuando existe, se calcula como sigue Var(X) = x (x )2 f (x). Si X es absolutamente continua con funcin de densidad f (x) y o esperanza nita , entonces la varianza de X, cuando existe, es Var(X) = 2 mbolo (x ) f (x) dx. La varianza se denota regularmente por el s 2 (sigma cuadrada). A la ra cuadrada positiva de Var(X) se le llama z desviacin estndar, y se le denota naturalmente por . Nuevamente hay o a casos en los que la varianza no es nita, y en esa situaciones se dice que la variable aleatoria no tiene varianza. Observe que para calcular la varianza se necesita conocer primero la esperanza. Ejercicio. Demuestre que la varianza de una variable aleatoria con la siguiente funcin de densidad no existe. o f (x) = 2/x3 si x > 1, 0 otro caso.

Cap tulo 2. Variables aleatorias

91

Enunciamos a continuacin algunas propiedades de la varianza. o Proposicion. (Propiedades de la varianza). Sean X y Y con varianza nita, y sea c una constante. Entonces 1. Var(X) 0. 2. Var(c) = 0. 3. Var(c X) = c2 Var(X). 4. Var(X + c) = Var(X). 5. Var(X) = E(X 2 ) E 2 (X). 6. En general, Var(X + Y ) = Var(X) + Var(Y ).

La demostracin de estas propiedades es sencilla pues todas ellas, excepto la o ultima, se siguen directamente de la denicin y de la propiedad lineal de la o esperanza. Para la ultima propiedad puede tomarse Y = X, con Var(X) = 0, y vericarse la no igualdad. Otras propiedades de la varianza aparecen ms a adelante. Ejercicio. Demuestre que Var(X) = E(X(X 1)) E(X)(E(X) 1).

Momentos
Los momentos de una variable aleatoria son nmeros que representan alguu nas caracter sticas de la distribucin de probabilidad asociada. Bajo ciertas o condiciones el conjunto de momentos determinan de manera unica a la dis tribucin de probabilidad. o

92

2.5. Caracter sticas numricas e

Definicion. (Momentos). Sea X una variable aleatoria con esperanza y sea n un nmero natural. Cuando existe, el nmero u u 1. E(X n ) es el n-simo momento de X. e 2. E|X|n es el n-simo momento absoluto de X. e 3. E[(X )n ] es el n-simo momento central de X. e 4. E|X |n es el n-simo momento central absoluto de X. e 5. E[X(X 1) (X n + 1)] es el n-simo momento factorial de X. e Observe que el primer momento es la esperanza, y el segundo momento central es la varianza. En algunos textos al n-simo momento se le denota e por , mientras que el n-simo momento central es n . En el cap e tulo n sobre funciones generadoras se estudian ciertas funciones asociadas a las distribuciones de probabilidad, y a travs de las cuales los momentos de e una variable aleatoria pueden ser encontrados, cuando existen, de manera ms eciente. a El problema de los momentos consiste en determinar condiciones necesarias y sucientes para que los momentos de una variable aleatoria determinen de manera unica su distribucin de probabilidad. Por ejemplo, puede demos o trarse que si X es tal que los nmeros E(X), E(X 2 ), . . . son todos nitos y u si se cumple que la serie n t E(X n ) n!
n=0

es absolutamente convergente para algn t > 0, entonces la sucesin de mou o mentos determina de manera unica a la distribucin de X. Las condiciones o mencionadas son sucientes pero no necesarias.

Cap tulo 2. Variables aleatorias

93

Cuantiles
Definicion. (Cuantil). Sea p un nmero real cualquiera en el intervalo u unitario (0, 1). Se le llama cuantil de orden p de una variable aleatoria X o de su distribucin, a cualquier nmero xp que cumpla las condiciones o u P (X xp ) p,

P (X xp ) 1 p.

Es decir, el cuantil de orden p es aquel nmero que acumula a su izquierda u una probabilidad mayor o igual a p, y al mismo tiempo acumula a su derecha una probabilidad de por lo menos 1 p. En general este nmero no es u necesariamente unico. Sin embargo, cuando la correspondiente funcin de o distribucin es estrictamente creciente, se cumple que el cuantil de cualquier o orden es unico. A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambin cuartiles. En e particular al cuantil de orden 1/2 se le llama mediana. Es decir, la mediana es aquel nmero m que cumple las desigualdades u P (X m) 1/2,

P (X m) 1/2.

La mediana de una variable aleatoria es una medida de tendencia central que permite dividir en dos partes iguales a la distribucin de probabilidad o cuando sta es continua y estrictamente creciente. Usando el concepto de e mediana ejemplicaremos la posible no unicidad de los cuantiles. Ejemplo. Sea X es una variable aleatoria discreta tal que P (X = 1) = 1/2, y P (X = 0) = 1/2. Cualquier nmero en el intervalo [0, 1] es una mediana u de X.

94

2.6. Distribuciones discretas

Moda
La moda es otra caracter stica numrica de las variables aleatorias, y se e dene unicamente para distribuciones discretas o absolutamente continuas de la siguiente forma. Definicion. (Moda). La moda de una variable aleatoria o de su distribucin, discreta o absolutamente continua, es aquel punto donde la o funcin de densidad tiene un mximo local. o a Por ejemplo, si X es una variable aleatoria discreta con valores x1 < x2 < x3 < , y con probabilidades respectivas p1 , p2 , p3 , . . ., entonces X tiene una moda en el punto xk si pk1 pk pk+1 . Es evidente que pueden existir varias modas para una misma variable aleatoria. Cuando la moda es unica se dice que la distribucin es unimodal, y cuando hay varias modas se o dice que es multimodal.

2.6.

Distribuciones discretas

En esta seccin se estudian algunas distribuciones discretas de probabilidad o de uso comn. Estas distribuciones son ejemplos particulares de medidas u de probabilidad concentradas en un conjunto discreto de nmeros reales. u Se presentan estos ejemplos sin hacer mayor nfasis en las aplicaciones de e los modelos. En el Apndice A, al nal del libro, aparecen algunas otras e distribuciones de probabilidad. Distribucion uniforme discreta. La variable X tiene una distribucin o uniforme sobre el conjunto {x1 , . . . , xn } si la probabilidad de que X tome cualquiera de estos valores es 1/n. Esta distribucin surge en espacios de o probabilidad equiprobables, esto es, en situaciones en donde se tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. Los juegos de loter justos son un ejemplo donde puede aplicarse esta disa

Cap tulo 2. Variables aleatorias

95

tribucin. Se escribe X unif{x1 , . . . , xn }, y su funcin de probabilidad o o es 1/n si x = x1 , . . . , xn , f (x) = 0 otro caso. Por ejemplo, la funcin de probabilidad uniforme sobre el conjunto {1, . . . , 5} o tiene grca como en la Figura 2.10. Es fcil ver que, en el caso general, a a E(X) = y Var(X) = 1 n 1 n
n

xi ,
i=1 n i=1

(xi E(X))2 .

f (x) 1/5

Figura 2.10: Funcin de probabilidad unif{1, . . . , 5}. o Distribucion Bernoulli. Un ensayo Bernoulli es un experimento aleatorio con unicamente dos posibles resultados, llamados genricamente xito e e y fracaso, y con probabilidades respectivas p y 1 p. Se dene la variable aleatoria X como aquella funcin que lleva el resultado xito al nmero 1, o e u y el resultado fracaso al nmero 0. Entonces se dice que X tiene una disu tribucin Bernoulli con parmetro p (0, 1). Se escribe X Ber(p) y la o a correspondiente funcin de probabilidad es o si x = 0, 1p p si x = 1, f (x) = 0 otro caso,

96

2.6. Distribuciones discretas

cuya grca es como en la Figura 2.11. Es sencillo vericar que E(X) = p, a y Var(X) = p(1 p). En particular, si A es un evento con probabilidad p, entonces la funcin indicadora 1A es una variable aleatoria con distribucin o o Ber(p).

f (x) 0.7 0.3 x 0 1

Figura 2.11: Funcin de probabilidad Ber(p) con p =0.7. o Distribucion binomial. Suponga que se realizan n ensayos independientes Bernoulli en donde la probabilidad de xito en cada uno de ellos es e p (0, 1). El espacio muestral de este experimento consiste de todas las posibles sucesiones de longitud n de xitos y fracasos. Usando el principio e multiplicativo, es fcil ver que este conjunto tiene 2n elementos. Si ahora se a dene la variable aleatoria X como el nmero de xitos en cada una de estas u e sucesiones, entonces X toma los valores 0, 1, . . . , n, y se dice que X tiene una distribucin binomial con parmetros n y p. Se escribe X bin(n, p), o a y su funcin de probabilidad es o n px (1 p)nx si x = 0, 1, . . . , n, x f (x) = 0 otro caso.

Se puede demostrar que E(X) = np, y Var(X) = np(1p). En las grcas de a la Figura 2.12 se muestra el comportamiento de esta funcin de probabilidad. o Distribucion geomtrica. Suponga que se tiene una sucesin innita e o de ensayos independientes Bernoulli en donde la probabilidad de xito en e

Cap tulo 2. Variables aleatorias

97

f (x) 0.3 0.2 0.1 n = 10 p = 0.3 x

f (x)

0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10


x n = 10 p = 0.5

Figura 2.12: Funcin de probabilidad bin(n, p). o cada uno de ellos es p (0, 1). Se dene X como el nmero de fracasos u antes de obtener el primer xito. Se dice entonces que X tiene una distrie bucin geomtrica con parmetro p. Se escribe X geo(p), y su funcin de o e a o probabilidad es p(1 p)x 0 si x = 0, 1, . . . otro caso.

f (x) =

f (x) 0.4 0.3 0.2 0.1

1 2 3 4 5 6 7 8 9 10

Figura 2.13: Funcin de probabilidad geo(p) con p =0.4. o Para esta distribucin se puede demostrar que E(X) = (1p)/p, y Var(X) = o (1 p)/p2 . En algunos textos se dene tambin la distribucin geomtrica e o e

98

2.6. Distribuciones discretas

como el nmero de ensayos, (y no el de fracasos), antes del primer xito. En u e tal caso, la funcin de probabilidad es f (x) = p(1 p)x1 , para x = 1, 2, . . .. o La media es entonces 1/p y la varianza es como antes. Distribucion Poisson. La variable aleatoria discreta X tiene una distribucin Poisson con parmetro > 0, y se escribe X Poisson() si su o a funcin de probabilidad es o x e x! f (x) = 0

si x = 0, 1, . . . otro caso.

Esta distribucin fue descubierta por Simen Denis Poisson en 1873 como o o l mite de la distribucin binomial, al respecto vase el ejercicio 223. Puede o e demostrarse que E(X) = , y Var(X) = . La grca de la funcin de a o probabilidad Poisson se muestra en la Figura 2.14.

f (x) 0.3 0.2 0.1

Figura 2.14: Funcin de probabilidad Poisson() con = 2. o Distribucion binomial negativa. Suponga que se tiene una sucesin o innita de ensayos independientes Bernoulli en donde la probabilidad de xito en cada ensayo es p (0, 1). Sea X el nmero de fracasos antes de e u obtener el r-simo xito. Se dice entonces que X tiene una distribucin e e o binomial negativa con parmetros r y p. Se escribe X bin neg(r, p), y su a

Cap tulo 2. Variables aleatorias funcin de probabilidad es o r+x1 x f (x) = 0

99

pr (1 p)x

si x = 0, 1 . . . otro caso.

Se puede demostrar que E(X) = r(1p)/p, y Var(X) = r(1p)/p2 . Es claro que esta distribucin es una generalizacin de la distribucin geomtrica, la o o o e cual se obtiene cuando el parmetro r toma el valor 1. Para r = 3 y p =0.2, a la funcin de probabilidad binomial negativa tiene la forma como en la o Figura 2.15.

f (x) 0.06 0.04 0.02 x

10

15

20

25

30

Figura 2.15: Funcin de probabilidad bin neg(r, p) con r = 3 y p =0.2. o Distribucion hipergeomtrica. Suponga que se tiene un conjunto de N e objetos de los cuales K son de una primera clase, y N K son de una segunda clase. Suponga que de este conjunto se toma una muestra de tamao n, sin n reemplazo y en donde el orden de los objetos seleccionados no importa. Se dene X como el nmero de objetos de la primera clase contenidos en u la muestra seleccionada. Entonces X puede tomar los valores 0, 1, . . . , n, suponiendo n K. Decimos que X tiene una distribucin hipergeomtrica o e con parmetros N , K y n, se escribe X hipergeo(N, K, n), y su funcin a o de probabilidad es

100

2.7. Distribuciones continuas

K x

f (x) =

La grca de esta funcin se muestra en la Figura 2.16. Es posible comprobar a o que K , N K N K N n Var(X) = n . N N N 1 E(X) = n
f (x) 0.4 0.3 0.2 0.1 x N = 20 K=7 n=5

N n

N K nx

si x = 0, 1, . . . , n,

otro caso.

Figura 2.16: Funcin de probabilidad hipergeo(N, K, n). o

2.7.

Distribuciones continuas

Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias absolutamente continuas. Algunas otras distribuciones continuas que surgen en la estad stica sern estudiadas en el Cap a tulo 5.

Cap tulo 2. Variables aleatorias

101

Distribucion uniforme continua. La variable aleatoria X tiene distribucin uniforme en el intervalo (a, b) y se escribe X unif(a, b), cuando su o funcin de densidad es o 1 ba f (x) = 0

si x (a, b), otro caso.

En este caso es inmediato vericar que E(X) = (a + b)/2, y Var(X) = (b a)2 /12. La grca de esta funcin de densidad se muestra en la Figura 2.17 a o

f (x)
1 ba

Figura 2.17: Funcin de densidad unif(a, b). o Distribucion exponencial. La variable continua X tiene una distribucin exponencial con parmetro > 0 y se escribe X exp() cuando tiene o a funcin de densidad o ex 0 si x > 0, si x 0.

f (x) =

Para esta distribucin es muy sencillo vericar que E(X) = 1/, y Var(X) = o 1/2 . Su grca se muestra en la Figura 2.18. a Distribucion gama. La variable aleatoria continua X tiene distribucin o

102

2.7. Distribuciones continuas

f (x)

Figura 2.18: Funcin de densidad exp(). o gama con parmetros n > 0 y > 0 si su funcin de densidad es a o (x)n1 x e (n) f (x) = 0

si x > 0, si x 0.

En tal caso se escribe X gama(n, ). La grca de esta funcin se muestra a o en la Figura 2.19. El trmino (n) es la funcin gama denida como sigue e o (n) =
0

tn1 et dt,

para valores de n tal que la integral es convergente. Esta funcin satisface o las siguientes propiedades: a) (n + 1) = n(n). b) (n + 1) = n! para n entero positivo. c) (2) = (1) = 1. d) (1/2) = .

Cap tulo 2. Variables aleatorias

103

Observe que cuando el parmetro n toma el valor 1, la distribucin gama(n, ) a o se reduce a la distribucin exp(). Resolviendo un par de integrales se puede o demostrar que E(X) = n/, y Var(X) = n/2 .

=5 f (x) =4 =3 f (x) n=5 n=7 n = 10

x n=5 =3

Figura 2.19: Funcin de densidad gama(n, ). o Nota. La terminolog usada para esta distribucin no es estndar. En a o a algunos otros textos aparece como gama(, n), es decir, los parmetros son a los mismos pero se presentan en el orden contrario. Puede entonces haber confusin cuando se escribe por ejemplo gama(2, 3). En ocasiones se usa el o parmetro 1/ en lugar de . a Distribucion beta. La variable continua X tiene distribucin beta con o parmetros a > 0 y b > 0, y se escribe X beta(a, b) cuando su funcin de a o densidad es 1 xa1 (1 x)b1 si 0 < x < 1, B(a, b) f (x) = 0 otro caso. En la Figura 2.20 se ilustra la forma de esta funcin para varios valores o de los parmetros. El trmino B(a, b) se conoce como la funcin beta, y se a e o

104

2.7. Distribuciones continuas

dene para a > 0 y b > 0 como sigue


1

B(a, b) =
0

xa1 (1 x)b1 dx.

Esta funcin satisface las siguientes propiedades. o a) B(a, b) = B(b, a). b) B(a, b) = (a)(b) . (a + b)

f (x)

3 2 1

a=2 b=6 a=4 b=4

a=6 b=2 a=1 b=1 x

1 Figura 2.20: Funcin de densidad beta(a, b). o Por simetr se tiene que si X tiene distribucin beta(a, b), entonces 1 X a o tiene distribucin beta(b, a). Para esta distribucin se tiene que o o a E(X) = , a+b ab y Var(X) = . (a + b + 1)(a + b)2 Distribucion normal. Esta es posiblemente la distribucin de probabio lidad de mayor importancia. Se dice que la variable aleatoria continua X tiene una distribucin normal o Gausiana si su funcin de densidad es o o 1 2 2 f (x) = e(x) /2 , 2 2

Cap tulo 2. Variables aleatorias

105

en donde R y 2 > 0 son dos parmetros. En este caso se escribe a X N(, 2 ). No es dif demostrar que E(X) = , y Var(X) = 2 . La cil grca de la funcin de densidad normal aparece en la Figura 2.21, en ella a o se muestra el signicado geomtrico de los parmetros. Cuando se hacen e a variar estos parmetros la funcin de densidad cambia como se ilustra en la a o Figura 2.22.

f (x)

Figura 2.21: Funcin de densidad N(, 2 ). o

f (x)

f (x)

x variando, 2 constante constante, 2 variando

Figura 2.22: Funcin de densidad N(, 2 ) variando los parmetros. o a En particular se dice que X tiene una distribucin normal estndar si = 0 o a 2 = 1. En este caso particular, la funcin de densidad se reduce a la y o expresin ms sencilla o a 1 2 f (x) = ex /2 . 2 Es posible transformar una variable aleatoria normal no estndar en una a

106

2.7. Distribuciones continuas

estndar mediante la siguiente operacin llamada estandarizacin. La dea o o mostracin de este resultado es elemental y se deja como ejercicio. o Proposicion. X N(, 2 ) Z = X N(0, 1).

Comnmente se usa la letra Z para denotar una variable aleatoria con disu tribucin normal estndar. En particular la funcin (x) denota la funcin o a o o de distribucin de una variable aleatoria normal estndar, es decir, o a
x

(x) = P (Z x) =

1 2 eu /2 du. 2

(x)

x Figura 2.23: Area cubierta por la funcin de distribucin (x) = P (Z x). o o

Los valores de esta funcin no pueden encontrarse de manera expl o cita, asi es que se usan mtodos numricos para aproximar la integral para distintos e e valores de x. En una tabla al nal del texto pueden encontrarse estos valores aproximados. Distribucion log normal. Si X tiene distribucin N(, 2 ), entonces la o variable Y = eX tiene una distribucin log normal(, 2 ), y su funcin de o o densidad es (ln y )2 1 exp ( ) si y > 0, 2 2 y 2 2 f (y) = 0 si y 0.

Cap tulo 2. Variables aleatorias

107

La grca de esta funcin de densidad se muestra en la Figura 2.24. Se a o puede demostrar que E(Y ) = exp( + 2 /2), y Var(Y ) = exp(2 + 2 2 ) exp(2 + 2 ).
f (y)

0.025

10

15

20

25

Figura 2.24: Funcin de densidad log normal(, 2 ) con = 3 y 2 = 2. o Algunas otras distribuciones continuas de inters se encuentran en el cap e tulo sobre distribuciones muestrales.

108

2.8. Ejercicios

2.8.

Ejercicios
Variables aleatorias

91. Demuestre que la funcin identidad X() = no es variable aleatoria o cuando = {1, 2, 3} y F = {, {1}, {2, 3}, }. 92. Sea = {1, , 0, 1} y F = {, {0}, {1, 1}, }. Considere la funcin o identidad X() = . Demuestre que X 2 es variable aleatoria pero X no lo es. 93. Considere el espacio medible (, F ), con F = {, }. Demuestre que la funcin X : R es variable aleatoria si, y slo si, X es constante. o o 94. Sea (, F ) un espacio medible tal que F = {, , A, Ac } con A . Demuestre que toda funcin medible X : R es constante en A y o c . Por lo tanto toda funcin medible respecto de esta -lgebra en A o a toma a lo sumo dos valores distintos. El siguiente ejercicio generaliza este resultado. 95. Sea A1 , . . . , An una particin nita de , y considere el espacio meo dible (, F ), con F = {A1 , . . . , An }. Demuestre que X : R es variable aleatoria si, y slo si, X es constante en cada elemento de la o particin. En consecuencia, X toma a lo sumo n valores distintos. o 96. Demuestre que X es variable aleatoria si, y slo si, (X < x) F para o cada nmero real x. u 97. Demuestre que X es variable aleatoria si, y slo si, (X x) F para o cada nmero real x. u 98. Demuestre que X es variable aleatoria si, y slo si, (X > x) F para o cada nmero real x. u 99. Demuestre que X es variable aleatoria si, y slo si, (a < X < b) F o para cada intervalo (a, b) de R.

Cap tulo 2. Variables aleatorias

109

100. Sea c una constante y X una variable aleatoria. Demuestre directamente que las siguientes funciones tambin son variables aleatorias: e cX, X + c, mx{X, c}, m a n{X, c}. 101. Demuestre directamente que la diferencia de dos variables aleatorias es variable aleatoria. 102. Sea X una variable aleatoria cualquiera. Demuestre que la parte entera de X, denotada por X, es una variable aleatoria discreta, es decir, toma un nmero numerable de valores. u 103. Demuestre que el conjunto de variables aleatorias denidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y producto por escalares. 104. Sean X y Y variables aleatorias. Demuestre directamente que tanto mx{X, Y } como m a n{X, Y } son variables aleatorias. 105. Demuestre directamente que si X es variable aleatoria, entonces tambin lo son X n y 2X 3 5X. e 106. Demuestre que X es variable aleatoria si, y slo si, tanto X + = o mx{0, X} como X = m a n{0, X}, lo son. 107. Sea A . Demuestre que la funcin indicadora 1A : R es o variable aleatoria si, y slo si, el conjunto A es medible. Vase el o e apndice al nal del texto para la denicin y algunas propiedades de e o la funcin indicadora. o 108. Sean A, B . Diga falso o verdadero. Demuestre en cada caso. a) A, B medibles 1A + 1B es v.a. b) 1A + 1B es v.a. A, B son medibles.

109. Sean A, B subconjuntos disjuntos de y sean a, b dos nmeros reales u distintos. Demuestre que a1A + b1B es v.a. A, B son medibles.

110

2.8. Ejercicios Una de estas implicaciones resulta falsa cuando se omite la condicin o de que los nmeros a y b son distintos. Cul de ellas es? u a

110. Sean A1 , . . . , An subconjuntos disjuntos de , y sean a1 , . . . , an constantes distintas. Demuestre que


n i=1

ai 1Ai es v.a. A1 , . . . , An son medibles.

111. Sean A y B dos eventos, y sean 1A y 1B las correspondientes funciones indicadoras. Directamente de la denicin demuestre que las funciones o 1A + 1B , 1A 1B y 1A 1B son variables aleatorias. 112. Sean X y Y dos variables aleatorias. Demuestre que los conjuntos (X Y ), (X = Y ), (X Y < 1), (X Y > 0), (X Y ) y (X = Y ) son eventos. 113. Sean X, Y y Z tres variables aleatorias. Demuestre que los conjuntos (X Y Z), (X = Y = Z) y (X > Y > Z) son eventos. 114. Sea X una variable aleatoria y g : R R una funcin Borel medio ble. Demuestre que g(X) = g X : R es tambin una variable e aleatoria. Sugerencia: Demuestre que la coleccin B = {B B(R) : o g1 B B(R)} coincide con B(R) usando los siguientes dos resultados: (1) Dada una funcin continua de R en R, la imagen inversa o de un conjunto abierto es nuevamente un conjunto abierto. (2) Todo conjunto abierto de R distinto del vac puede expresarse como una o unin numerable de intervalos abiertos. o 115. Sea X una variable aleatoria. Demuestre que las funciones eX , sen X, y cos X son variables aleatorias. 116. Sea X : R una funcin. Proporcione un ejemplo en el que X 2 es o variable aleatoria pero |X| no lo es. 117. Sean X1 , . . . , Xn variables aleatorias. Demuestre que

Cap tulo 2. Variables aleatorias 1 a) X = n b) S2


n

111

Xi
i=1 n i=1

es v.a. (Xi X)2 es v.a.

1 = n1

118. Sea X una variable aleatoria, y sean a < b dos constantes. Demuestre que las siguientes funciones son variables aleatorias. a) Y = X si X < a, a si X a.

a si X < a, b) Y = X si a X b, b si X > b. c) Y = X si |X| a, 0 si |X| > a,

suponiendo a > 0.

119. Se dene la funcin signo como sigue o +1 1 signo(x) = 0

si x > 0, si x < 0, si x = 0.

Demuestre que si X es variable aleatoria, entonces signo(X) tambin e lo es. Es cierto el rec proco?

120. Sea (, F , P ) un espacio de probabilidad, y sea X : R una funcin. Demuestre que la coleccin {X 1 B : B B(R)} es una sub o o -lgebra de F si, y slo si, X es variable aleatoria. A esta coleccin a o o se le denota por (X), y es la m nima -lgebra respecto de la cual a X es variable aleatoria. 121. Sea X una variable aleatoria con valores en el conjunto {0, 1, . . .}. Sea (X)10 el valor de X mdulo 10. Demuestre que (X)10 es tambin o e variable aleatoria.

112

2.8. Ejercicios

122. Medida de probabilidad inducida. Sean (1 , F1 ) y (2 , F2 ) dos espacios medibles, y sea X : 1 2 una funcin medible, es decir, o para cualquier A en F2 se cumple que X 1 A F1 . Suponga que P : F1 [0, 1] es una medida de probabilidad. Demuestre que P X 1 : F2 [0, 1] es tambin una medida de probabilidad. A esta e funcin se le llama medida de probabilidad inducida por X. o 123. Sea c una constante distinta de cero, y sea X una variable aleatoria. Demuestre o proporcione un contraejemplo. a) (cX) = (X). b) (X + c) = (X). c) (X) = (X 2 ).

Funcin de distribucin o o
124. Graque y demuestre que las siguientes funciones son de distribucin. o a) F (x) = b) F (x) = 1 ex 0 si x > 0, si x 0.

1 (1 + x)ex 0

125. Investigue si las siguientes funciones son de distribucin. o a) F (x) = b) F (x) = 1 ex 0 e1/x 0
2

si x < 1, 0 c) F (x) = (x + 1)/2 si x [1, 1], 1 si x > 1. si x > 0, si x 0.

si x > 0, si x 0.

d) F (x) = ex /(ex + ex ), para x R.

c) F (x) = ex /(1 + ex ), para x R.

si x > 0, si x 0.

Cap tulo 2. Variables aleatorias

113

126. Sean F (x) y G(x) dos funciones de distribucin. Determine si las sio guientes funciones son de distribucin. o a) aF (x) + (1 a)G(x), con 0 a 1. b) F (x) + G(x). c) F (x)G(x). 2 G(x) d) . 1 + F (x) 127. Sea X con funcin de distribucin la especicada abajo. Graque F (x) o o y demuestre que es efectivamente una funcin de distribucin. Calcule o o adems P (X 4), P (X > 1), P (4 < X < 6) y P (X = 2). a F (x) = 0 si x < 2, 2 1 4/x si x 2.

129. En la escuela rusa de probabilidad se dene la funcin de distribucin o o de una variable aleatoria X como G(x) = P (X < x). Observe el signo < en lugar de . Demuestre que esta funcin cumple todas o las propiedades de una funcin de distribucin, excepto que ahora la o o continuidad es por la izquierda. 130. Sea F (x) una funcin de distribucin continua. Demuestre que pao o ra cualquier entero n 1, las siguientes funciones tambin son de e distribucin. o

128. Sea X con funcin de distribucin la especicada abajo. Graque F (x) o o y demuestre que es efectivamente una funcin de distribucin. Calcule o o adems P (X 1), P (X = 1), P (0 < X < 3), P (X = 4) y P (X 3). a si x < 0, 0 0.2 si 0 x < 1, F (x) = 0.5 si 1 x < 3, 0.9 si 3 x < 4, 1 si x 4.

114
a) [F (x)]n . b) 1 [1 F (x)]n .

2.8. Ejercicios

131. Sea X con funcin de distribucin F (x). Diga falso o verdadero, deo o muestre en cada caso. Para todo x R, a) F (x) = P (X < x) + P (X = x). c) 1 P (X < x) P (X > x) = P (X = x). 1 1 d) F (x) P (X = x) = (F (x) + F (x)). 2 2 132. Encuentre la funcin de distribucin de la variable Y en trminos de o o e la funcin de distribucin de X cuando o o n{0, X}. a) Y = aX + b, con a, b constantes. f ) Y = X = m X. b) Y = e g) Y = |X|. c) Y = eX . h) Y = X. d) Y = X 2 . i) Y = sen X. e) Y = X + = mx{0, X}. a j) Y = cos X. 133. Sea X con funcin de distribucin FX (x), y sean a < b dos constantes. o o Calcule la funcin de distribucin de Y en trminos de la funcin o o e o de distribucin de X, y muestre grcamente el comportamiento de o a FY (y) en los puntos a y b. a) Y = X si X < a, a si X a. b) 1 F (x) = P (X x).

a si X < a, b) Y = X si a X b, b si X > b. c) Y = X si |X| a, 0 si |X| > a,

con

a > 0.

134. Sean F (x) y G(x) dos funciones de distribucin continuas y estrictao mente crecientes. Demuestre que

Cap tulo 2. Variables aleatorias a) si F (x) G(x), entonces F 1 (y) G1 (y).

115

b) si X tiene funcin de distribucin F (x), entonces Y = G1 (F (X)) o o tiene funcin de distribucin G(x). o o c) si F (x) G(x), entonces existen variables aleatorias X y Y cuyas funciones de distribucin son F (x) y G(x) respectivamente, y son o tales que X Y . Sugerencia: Use el inciso anterior.

135. Sea X con funcin de distribucin F (x). Demuestre que F (x) es cono o o tinua en x = x0 si, y slo si, P (X = x0 ) = 0.

Tipos de variables aleatorias


136. Encuentre la constante c que hace a f (x) una funcin de probabilidad. o a) f (x) = c , para x = 1, 2, . . . x(x + 1) b) f (x) = c ex , para x = 1, 2, . . . c) f (x) = c/x!, para x = 1, 2, . . . 137. Encuentre la constante c que hace a f (x) una funcin de densidad. o a) f (x) = c x2 , para 0 < x < 1. b) f (x) = c xe2x , para x > 0. c) f (x) = c x2 , para x > 1. c ex , para x R. d) f (x) = (1 + ex )2 e) f (x) = c x(1 x), para 0 < x < 1. c f ) f (x) = , para 0 < x < 1. 1 x2 c g) f (x) = , para x R. 1 + x2 138. Demuestre que las siguientes funciones son de densidad. Encuentre la correspondiente funcin de distribucin y demuestre que sta es o o e efectivamente una funcin de distribucin. Graque ambas funciones. o o
2

116

2.8. Ejercicios a) f (x) = 2x, para x (0, 1).

b) f (x) = 3x2 /2, para x (1, 1).

d) f (x) = 2x/m2 , para x (0, m), con m > 0. e) f (x) = 1/(1 x)2 , para x (0, 1/2). f ) f (x) = e|x| /2, para x R.

c) f (x) = 1 x/2, para x (0, 2).

139. Demuestre que las siguientes funciones son de distribucin. Encueno tre la correspondiente funcin de densidad y compruebe que sta es o e efectivamente una funcin de densidad. Graque ambas funciones. o a) F (x) = 0 1 si x < 0, si x 0.

c) F (x) = ex /(1 + ex ). 1 x |u| e du. d) F (x) = 2

0 b) F (x) = x 1

si x 0, si 0 < x < 1, si x 1.

140. Sea f (x) una funcin de densidad y sea c una constante cualquiera. o Demuestre que f (x + c) es tambin una funcin de densidad. e o 141. Diga falso o verdadero. Demuestre en cada caso. a) Toda funcin de densidad es acotada. o b) Toda funcin de distribucin es acotada. o o 142. Sea X absolutamente continua, y sea Y = aX +b con a y b constantes. Demuestre que si a = 0, entonces fY (y) = 1 fX ((y b)/a). |a|

Cap tulo 2. Variables aleatorias

117

Igualdad de variables aleatorias


143. Demuestre que la igualdad casi segura de variables aleatorias es una relacin de equivalencia. Cumple tal propiedad la igualdad en distrio bucin? o 144. Sea X 0 tal que E(X) = 0. Demuestre que X = 0 c.s. Sugerencia: Para cada natural n dena el evento An = (X 1/n). Compruebe que E(X) E(X 1An ) P (An )/n. Esto lleva a la conclusin de que o A ) = 0. Ahora compruebe que los P (An ) = 0 y por lo tanto P (n=1 n eventos (X > 0) y An coinciden. Alternativamente puede usarse n=1 la desigualdad de Markov (ver pgina 347). a

Integral de Riemann-Stieltjes
145. Sea X una variable aleatoria con funcin de distribucin F , y sea a o o cualquier nmero real. Demuestre que u

1{a} (x) dF (x) = P (X = a).

146. Sea X una variable aleatoria con funcin de distribucin F , y sea o o (a, b) R. Demuestre que

1(a,b) (x) dF (x) = P (a < X < b).

147. Sea F una funcin de distribucin absolutamente continua. Demuestre o o que para cualesquiera nmeros naturales n y m, u

F n (x) dF m (x) =

m . n+m

118 Esperanza

2.8. Ejercicios

148. Calcule la esperanza de X cuya funcin de probabilidad o de densidad o es a) f (x) = 1/5, para x = 2, 1, 0, 1, 2. b) f (x) = e1 /x!, para x = 0, 1, 2, . . . c) f (x) = |x|, para 1 < x < 1.

d) f (x) = e|x| /2, para x R.

149. Calcule la esperanza de una variable aleatoria cuya funcin de distrio bucin es o 1 ex /2 si x > 1, F (x) = 0 si x 1. 150. Sean X y Y con esperanza nita, y sea c una constante. Demuestre que a) E(c) = c. b) E(cX) = cE(X). c) E(X + c) = E(X) + c. d) Si X 0, entonces E(X) 0. f ) |E(X)| E|X|. e) Si X Y , entonces E(X) E(Y ).

151. Demuestre que no existe la esperanza de X cuando su funcin de o probabilidad o de densidad es a) f (x) = b) f (x) = 3 2 x2 , para x Z \ {0}. para x R.

1 , (1 + x2 )

Cap tulo 2. Variables aleatorias

119

152. La paradoja de San Petersburgo. Un juego consiste en lanzar una moneda equilibrada repetidas veces hasta que una de las caras, seleccionada previamente, aparezca por primera vez. Si un jugador lanza la moneda y requiere de n lanzamientos para que se cumpla la condicin, entonces recibe 2n unidades monetarias. Cul debe ser el o a pago inicial justo para ingresar a este juego? o o 153. Sea {A1 , A2 , . . .} una coleccin de eventos que forman una particin de tal que cada elemento de la particin tiene probabilidad estrico tamente positiva. Sea X una variable aleatoria discreta con esperanza nita. Para cualquier evento A con probabilidad positiva dena E(X | A) = Demuestre que E(X) =
i=1

xP (X = x | A).

E(X | Ai )P (Ai ).

154. Sean X y Y con esperanza nita. Demuestre que a) E(m n{X, Y }) m n{E(X), E(Y )} E(X).

b) E(mx{X, Y }) mx{E(X), E(Y )} E(X). a a

155. Sea X > 0, discreta y con esperanza nita. Demuestre directamente que E(X)E(1/X) 1. Este resultado puede ser demostrado usando la desigualdad de Jensen (ver pgina 127), pero en este ejercicio se a pide obtener el resultado sin usar dicha desigualdad. 156. Sea X discreta con valores no negativos x1 x2 xk . Demuestre que a) l m b) l m E(X n+1 ) = xk , n E(X n )
n

E(X n ) = x1 .

120

2.8. Ejercicios

157. Sea X discreta con valores 0, 1, . . . y con esperanza nita. Demuestre que E(X) =
n=1

P (X n) =

P (X > n).

n=0

Use esta frmula para demostrar que o a) si X tiene distribucin geo(p), entonces E(X) = (1 p)/p. o b) si X tiene distribucin Poisson(), entonces E(X) = . o 158. Sea X 0 con esperanza nita, y suponga que para algn p (0, 1), u se cumple la desigualdad P (X k) pk , para cada k = 0, 1, . . .. Demuestre que E(X) 1/(1 p). 159. Sea X 0 con esperanza nita no necesariamente discreta. Para cada nmero natural n dena el evento An = (n 1 X < n). Demuestre u que
n=1

(n 1)1An X <

n1An .

n=1

Ahora demuestre las desigualdades


n=1

P (X n) E(X) < 1 +

n=1

P (X n).

160. Sea X con funcin de distribucin F (x). Demuestre que si X tiene o o esperanza nita, entonces a) l x (1 F (x)) = 0. m
x

b)

l x F (x) = 0. m

El rec proco sin embargo es falso, vase [4]. e 161. Sea X con funcin de distribucin F (x), y con esperanza nita. Deo o muestre que E(X) =
0 0

[1 F (x)]dx

F (x)dx.

Cap tulo 2. Variables aleatorias

121

Grcamente estas integrales pueden interpretarse como se indica en a la Figura 2.25.


F (x)

a Figura 2.25: La esperanza como la diferencia de dos reas.

Use esta frmula para demostrar que o a) si X tiene distribucin exp(), entonces E(X) = 1/. o b) si X tiene distribucin gama(n, ), entonces E(X) = n/. o 162. Sea X una variable aleatoria no negativa con funcin de distribucin o o continua F (x) y con esperanza nita . Demuestre que la siguiente funcin es de distribucin. o o 1 1 (1 F (x)) dx si y > 0, y G(y) = 0 si y 0. 163. Sea X con funcin de distribucin continua F (x), y con esperanza o o nita . Demuestre que

Demuestre que la esperanza de esta distribucin es 2 E(X 2 )/, supoo niendo que el segundo momento de X es nito.

F (x)dx =

[1 F (x)]dx.

164. Demuestre que la condicin E(X) = 0 no implica que X es simtrica o e alrededor de cero. Sugerencia: Considere X tal que P (X = 1) = 1/2,

122

2.8. Ejercicios P (X = 0) = 1/8, P (X = 1) = 1/4 y P (X = 2) = 1/8. Puede usted construir un ejemplo de una distribucin continua con esperanza cero, o que no sea simtrica? e

165. Calcule la esperanza de una variable aleatoria con funcin de distribuo cin continua dada por la grca de la Figura 2.26. Calcule y graque o a adems la correspondiente funcin de densidad. a o
F (x) 1 1/2

3 2 1

Figura 2.26: Una funcin de distribucin continua. o o 166. Calcule la esperanza de una variable aleatoria con funcin de distrio bucin dada por la grca de la Figura 2.27. o a
F (x) 1 3/4 2/4 1/4 x

Figura 2.27: Una funcin de distribucin mixta. o o 167. Demuestre que si X = 0 c.s., entonces E(X) = 0. 168. Sean X y Y con esperanza nita tales que X = Y c.s. Demuestre que E(X) = E(Y ).

Cap tulo 2. Variables aleatorias

123

Varianza
169. Calcule la varianza de X cuya funcin de probabilidad o de densidad o es a) f (x) = 1/5, para x = 2, 1, 0, 1, 2. b) f (x) = e1 /x!, para x = 0, 1, 2, . . . c) f (x) = |x|, para 1 < x < 1.

d) f (x) = e|x| /2, para x R.

170. Sean X y Y con varianza nita y sea c una constante. Demuestre las siguientes propiedades de la varianza. a) Var(X) 0. b) Var(cX) = c2 Var(X). c) Var(X + c) = Var(X). d) Var(X) = E(X 2 ) E 2 (X). 171. Use la desigualdad de Chebyshev para demostrar que Var(X) = 0 si, y slo si, X es constante. o 172. Sea X con valores en [a, b]. Demuestre que a) a E(X) b. b) 0 Var(X) (b a)2 /4.

173. Minimizacion del error cuadratico medio. Sea X con segundo momento nito. A la funcin g(u) = E[(X u)2 ] se le conoce como o error cuadrtico medio. Demuestre que g(u) se minimiza cuando u = a E(X). En consecuencia, para cualquier valor real de u, Var(X) E[(X u)2 ]. 174. Sea X con varianza nita y sea c una constante. Demuestre que E(X c)2 = Var(X) + (E(X) c)2 .

124

2.8. Ejercicios

175. Sea X con media y varianza 2 . Demuestre que E|X | . Sugerencia: Var(|X |) 0. 176. Diga falso o verdadero. Demuestre en cada caso. a) Si X Y , entonces Var(X) Var(Y ). b) Var(X) E(X 2 ). c) E 2 (X) E(X 2 ). 177. Sea X una variable aleatoria con varianza nita, y sea a una constante. Diga si las siguientes armaciones son falsas o verdaderas, demuestre en cada caso. a) E(m n{X, a}) E(X) E(mx{X, a}). a b) Var(m n{X, a}) Var(X) Var(mx{X, a}). a 178. Sean X y Y con varianza nita. Diga si las siguientes desigualdades son falsas o verdaderas, demuestre en cada caso. a) Var(m n{X, Y }) Var(X) Var(mx{X, Y }). a b) Var(X + Y ) 2 ( Var(X) + Var(Y ) ). c) Var(X + Y ) Var(X) + Var(Y ). 179. Sea X con varianza nita, y sea c una constante cualquiera. Diga si las siguientes armaciones son falsas o verdaderas, demuestre en cada caso. a) Var(X + c) = Var(X c). b) Var(|X|) Var(X). c) Var(|X c|) Var(X). 180. Calcule la varianza de una variable aleatoria cuya funcin de distrio bucin est dada por la grca de la Figura 2.28. o a a 181. Sean X y Y independientes y con segundo momento nito. Demuestre que Var(XY ) = Var(X) Var(Y ) + E 2 (X) Var(Y ) + E 2 (Y ) Var(X).

Cap tulo 2. Variables aleatorias

125

F (x) 1 3/4 1/4 x

3 2 1

Figura 2.28: Una funcin de distribucin mixta. o o 182. Sean X y Y con segundo momento nito. Demuestre que | Var(X) Var(Y )| Var(X Y ) Var(X) + Var(Y ).

Momentos
183. Calcule el n-simo momento de una variable aleatoria cuya funcin de e o probabilidad o de densidad es a) f (x) = 1/5, para x = 2, 1, 0, 1, 2. b) f (x) = e1 /x!, para x = 0, 1, 2, . . . c) f (x) = |x|, para 1 < x < 1.

d) f (x) = e|x| /2, para x R.

184. Sea X con n-simo momento nito. Demuestre que para cualquier e nmero natural m n, se cumple E|X|m E|X|n . Este resultado u establece que si el n-simo momento de una variable aleatoria es e nito, entonces todos los momentos anteriores a n tambin son nitos. e Sugerencia: |X|m = |X|m 1(|X|1) + |X|m 1(|X|>1) . 185. Sea X con distribucin simtrica alrededor de x = 0, y con cuarto o e momento nito. Demuestre que para cualquier nmero real a, u E(X 4 ) E(X a)4 .

126

2.8. Ejercicios

186. Sea 1A la funcin indicadora de un evento A. Demuestre que o a) E(1A ) = E(1n ) = P (A). A b) Var(1A ) = P (A)(1 P (A)) 1/4. 187. Sea X con n-simo momento nito. Demuestre que e E |X|n = n
0 0

xn1 (1 F (x)) dx + n

|x|n1 F (x) dx.

188. Sea X discreta con valores en el conjunto {0, 1, . . .}, y con segundo momento nito. Demuestre que E(X 2 ) =

n=1

(2n 1)P (X n).

189. Sea X 0 continua y con segundo momento nito. Demuestre que E(X 2 ) = 2
0

xP (X > x) dx.

190. Espacio L1 . Demuestre que el espacio L1 (, F , P ) consistente de todas las variables aleatorias X tales que E|X| < , es un espacio vectorial. Para resolver este ejercicio suponga vlida la propiedad de a linealidad de la esperanza. Tal propiedad ser demostrada ms adea a lante. 191. Desigualdad de Cauchy-Schwarz. Sean X y Y con segundo momento nito. Demuestre que E 2 (XY ) E(X 2 )E(Y 2 ). Sugerencia: Para cualquier valor real de t, la esperanza de (tX +Y )2 es no negativa. Desarrolle el cuadrado y encuentre una ecuacin cuadrtio a ca en t. Qu puede decir de su discriminante? e

Cap tulo 2. Variables aleatorias


u(x) u(a) + (x a)m u(a) x

127

Figura 2.29: Convexidad. 192. Espacio L2 . Use la desigualdad de Cauchy-Schwarz para demostrar que el espacio L2 (, F , P ) consistente de todas las variables aleatorias X tales que E|X|2 < , es un espacio vectorial. 193. Desigualdad de Jensen. Sea u una funcin convexa, y sea X una o variable aleatoria con esperanza nita. Demuestre que u(E(X)) E(u(X)). Sugerencia: La funcin u es convexa si para cada a existe un nmero o u m tal que u(x) u(a) + (x a)m, para todo x. Esto se muestra en la Figura 2.29. Alternativamente, una funcin u es convexa si u(tx + o (1 t)y) tu(x) + (1 t)u(y), para cualesquiera par de nmeros u x y y dentro del dominio de denicin de u, y para cualquier t en o el intervalo [0, 1]. Debe suponerse adems que el nmero tx + (1 a u t)y pertenece tambin al dominio de denicin de la funcin. Vea e o o el siguiente ejercicio para algunos ejemplos particulares de funciones convexas. 194. Sea X con esperanza nita. Use la desigualdad de Jensen para demostrar que a) eE(X) E(eX ).

b) E 2 (X) E(X 2 ).

c) mx{a, E(X)} E{mx{a, X}), a a

a constante.

128
d) 1 E(1/X), E(X)

2.8. Ejercicios

suponiendo X > 0.

195. Demuestre que si X es una variable aleatoria acotada casi seguramente, es decir, existe k > 0 tal que P (|X| k) = 1, entonces todos los momentos de X existen. 196. Sea X una variable aleatoria con funcin de densidad dada por o f (x) = n/xn+1 0 si x > 1, otro caso.

Demuestre que esta funcin es de densidad para cualquier valor natural o del parmetro n. Demuestre adems que tal variable aleatoria tiene a a momentos nitos de orden 1, 2, . . . , n 1, pero el n-simo momento y e superiores no existen. 197. Desigualdad cr . Demuestre que para cada r > 0, E |X + Y |r cr ( E|X|r + E|Y |r ), en donde cr es una constante dada por cr = 1 2r1 si 0 < r 1, si r > 1.

En particular, este resultado establece que si X y Y tienen r-simo e momento absoluto nito, entonces X+Y tambin. Sugerencia: A partir e de la identidad (1+t)r = cr (1+ tr ), vlida para cada t 0, demuestre a que para cualesquiera nmeros reales x y y, |x + y|r cr ( |x|r + |y|r ). u 198. Desigualdad de Holder. Sean r y s dos nmeros reales tales que u r > 1 y 1/r + 1/s = 1. Demuestre que E |XY | (E |X|r )1/r (E |Y |s )1/s . Sugerencia: Use la desigualdad |xy| |x|r /r + |y|s /s, vlida para a cualesquiera nmeros reales x y y, y para r y s con las condiciones u mencionadas. El caso r = s = 2 corresponde a la desigualdad de Cauchy-Schwarz.

Cap tulo 2. Variables aleatorias 199. Desigualdad de Minkowski. Demuestre que para cada r 1, E 1/r |X + Y |r E 1/r |X|r + E 1/r |Y |r .

129

Sugerencia: E |X + Y |r E (|X| |X + Y |r1 ) + E (|Y | |X + Y |r1 ), ahora use la desigualdad de Hlder. o

Cuantiles
200. Calcule los cuartiles de la distribucin normal estndar. o a 201. Calcule los cuartiles de la distribucin exponencial de parmetro . o a 202. Minimizacion del error absoluto medio. A la funcin g(u) = o E |X u| se le conoce como error absoluto medio. Demuestre que si m una mediana de X, entonces para cualquier nmero real u, u E |X m| E |X u|. Demuestre adems que la igualdad se cumple si, y slo si, u es cualquier a o otra mediana de X. 203. Sea X una variable aleatoria con segundo momento nito y sea m una de sus medianas. Demuestre que |m E(X)| 2 Var(X).

Distribucin uniforme discreta o


204. Sea X con distribucin unif{1, . . . , n}. Demuestre que o a) E(X) = (n + 1)/2. b) E(X 2 ) = (n + 1)(2n + 1)/6. c) Var(X) = (n2 1)/12. 205. Se escogen al azar y de manera independiente dos nmeros a y b u dentro del conjunto {1, . . . , n}. Demuestre que la probabilidad de que el cociente a/b sea menor o igual a uno es (n + 1)/2n.

130

2.8. Ejercicios

Distribucin Bernoulli o
206. Compruebe que la funcin de probabilidad de la distribucin Ber(p) o o efectivamente lo es. Obtenga adems la correspondiente funcin de a o distribucin. Graque ambas funciones. o 207. Sea X con distribucin Ber(p). Demuestre que E(X n ) = p, para cada o n 1. En particular, compruebe que Var(X) = p(1 p).

Distribucin binomial o
208. Use el teorema del binomio para comprobar que la funcin de probao bilidad de la distribucin bin(n, p) efectivamente lo es. o 209. Sea X con distribucin bin(n, p). Demuestre que o a) E(X) = np. b) E(X 2 ) = np(1 p + np). d) E(X np)3 = np(1 p)(1 2p). c) Var(X) = np(1 p).

e) E(X np)4 = 3n2 p2 (1 p)2 + np(1 p)(1 6(1 p)p).

210. Sea X con distribucin bin(n, p). Demuestre que Y = n X tiene o distribucin bin(n, 1 p). o 211. Sea X con distribucin bin(n, p). Demuestre que o a) P (X = x + 1) = p nx P (X = x). 1p x+1 b) P (X = x 1) P (X = x + 1) P 2 (X = x).

212. Sea X con distribucin bin(n, p). Demuestre que o 1 a) P (X {1, 3, 5, . . .}) = (1 (1 2p)n ). 2

Cap tulo 2. Variables aleatorias

131

1 b) P (X {0, 2, 4, . . .}) = (1 + (1 2p)n ). 2 213. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de que cada cara se obtenga exactamente 3 veces.

Distribucin geomtrica o e
214. Compruebe que la funcin de probabilidad de la distribucin geo(p) o o efectivamente lo es. Demuestre que la correspondiente funcin de diso tribucin es o F (x) = 1 (1 p)x+1 0 si x 0, si x < 0.

La expresin x denota la parte entera de x. o 215. Sea X con distribucin geo(p). Demuestre que o a) E(X) = (1 p)/p. b) Var(X) = (1 p)/p2 . 216. Sea X con distribucin geo(p). Demuestre que P (X n) = (1 p)n . o Use este resultado y la frmula del ejercicio 157 para demostrar que o E(X) = (1 p)/p. 217. La distribucion geomtrica no tiene memoria. Sea X con dise tribucin geo(p). Demuestre que para cualesquiera x, y = 0, 1, . . . o P (X x + y | X x) = P (X y). Esta es la unica distribucin discreta con tal propiedad, compare con o el siguiente ejercicio. 218. Sea X una variable aleatoria discreta con valores en {0, 1, . . .} y tal que para cualquier x, y = 0, 1, . . . se cumple la igualdad P (X x + y | X x) = P (X y). Demuestre que existe un nmero p (0, 1) tal que X tiene distribucin u o geo(p).

132

2.8. Ejercicios

Distribucin Poisson o
219. Compruebe que la funcin de probabilidad de la distribucin Poisson() o o efectivamente lo es. 220. Sea X con distribucin Poisson(). Demuestre que o a) E(X) = . b) E(X 2 ) = ( + 1). c) Var(X) = . d) E(X 3 ) = E(X + 1)2 . 221. Sea X con distribucin Poisson(). Demuestre que o a) P (X = x + 1) = P (X = x). x+1 b) P (X = x 1) P (X = x + 1) P 2 (X = x).

222. Sea X con distribucin Poisson(). Demuestre que o 1 a) P (X {1, 3, 5, . . .}) = (1 e2 ). 2 1 b) P (X {0, 2, 4, . . .}) = (1 + e2 ). 2 223. Teorema de Poisson (Convergencia de la dist. binomial a la dist. Poisson). Para cada entero positivo n, sea Xn con distribucin o bin(n, /n) con > 0. Demuestre que para cada k = 0, 1, . . . l P (Xn = k) = e m k . k!

A este resultado tambin se le conoce con el nombre de ley de eventos e raros.

Cap tulo 2. Variables aleatorias

133

Distribucin binomial negativa o


224. Compruebe que la funcin de probabilidad de la distribucin bin neg(r, p) o o efectivamente lo es. 225. Sea X con distribucin bin neg(r, p). Demuestre que o a) E(X) = r(1 p)/p. b) Var(X) = r(1 p)/p2 .

226. Convergencia de la dist. binomial negativa a la dist. Poisson. Sea X1 , X2 , . . . una sucesin de variables tal que cada una de o ellas tiene distribucin bin neg(n, p) con p = n/( + n) para algn o u > 0. Demuestre que para cada k = 0, 1, . . . l P (Xn = k) = e m k . k!

Distribucin hipergeomtrica o e
227. Compruebe que la funcin de probabilidad de la distribucin hipero o geomtrica efectivamente lo es. e 228. Convergencia de la dist. hipergeometrica a la dist. binomial. Sea X con distribucin hipergeo(N, K, n). Demuestre que cuano do N y K tienden a innito de tal forma que K/N p, entonces
N,K

l m

P (X = x) =

n x

px (1 p)nx .

Distribucin uniforme continua o


229. Compruebe que la funcin de densidad de la distribucin unif(a, b) o o efectivamente lo es. Calcule adems la correspondiente funcin de disa o tribucin. Graque ambas funciones. o

134

2.8. Ejercicios

230. Sea X con distribucin unif(a, b). Demuestre que o a) E(X) = (a + b)/2. bn+1 an+1 b) E(X n ) = . (n + 1)(b a) c) Var(X) = (b a)2 /12. 231. Sea X con distribucin unif(0, 1). Demuestre que E(X n ) = 1/(n + 1). o 232. Sea X con distribucin unif(1, 1). Demuestre que para n = 0, 1, 2, . . . o E(X n ) = 1/n + 1 0 si n es par, si n es impar.

233. Sea X con distribucin unif(0, 1). Obtenga la distribucin de o o a) Y = 10X 5. b) Y = 4X(1 X). 234. Sea X con distribucin unif(0, 1) y sea 0 < p < 1. Demuestre que la o variable aleatoria Y = ln X/ ln(1 p) tiene distribucin geo(p). La o expresin x denota la parte entera de x. o 235. Sea X con distribucin unif(0, 1). Dena a Y como el primer d o gito decimal de X. Demuestre que Y tiene distribucin uniforme en el o conjunto {0, 1, . . . , 9}.

Distribucin exponencial o
236. Compruebe que la funcin de densidad de la distribucin exp() efeco o tivamente lo es. Demuestre que la correspondiente funcin de distrio bucin es o 1 ex si x > 0, F (x) = 0 si x 0. Demuestre adems que para cualquier x, y > 0, a F (x + y) F (y) = F (x)(1 F (y)).

Cap tulo 2. Variables aleatorias

135

237. Demuestre que la esperanza de la distribucin exp() es 1/, y la o varianza es 1/2 . 238. La distribucion exponencial no tiene memoria. Sea X con distribucin exp(). Demuestre que o P (X x + y | X x) = P (X y). La distribucin exponencial es la unica distribucin absolutamente o o continua que satisface esta propiedad, al respecto ver el siguiente ejercicio. 239. Sea X una variable aleatoria absolutamente continua con valores en el intervalo (0, ), y tal que para cualesquiera x, y > 0 se cumple P (X x + y | X x) = P (X y). Demuestre que existe una constante > 0 tal que X tiene distribucin o exp(). 240. Sea X una variable aleatoria con funcin de distribucin continua o o F (x), estrictamente creciente y tal que 0 < F (x) < 1. Demuestre que la variable aleatoria Y = ln F (X) tiene distribucin exponencial con o parmetro = 1. a 241. Sea a > 0. Demuestre que si X se distribuye exp(), entonces aX se distribuye exp(/a). 242. Se dice que la variable X tiene una distribucin exponencial bilateral o (o exponencial doble) con parmetro > 0 si su funcin de densidad a o es 1 f (x) = e|x| , para x R. 2 Demuestre que la esperanza de esta distribucin es cero, y la varianza o 2. es 2/ 243. Sea X una variable aleatoria con distribucin exponencial de parmeo a tro , y sea a una constante positiva. Calcule la esperanza y varianza de la variable m n{X, a}.

136 Distribucin gama o

2.8. Ejercicios

244. Compruebe que la funcin de densidad de la distribucin gama(n, ) o o efectivamente lo es. Verique adems que esta distribucin se reduce a o a la distribucin exp() cuando n = 1. o 245. Sea a > 0. Demuestre que si X se distribuye gama(n, ), entonces aX se distribuye gama(n, /a). 246. Sea X con distribucin gama(n, ). Demuestre que la funcin de diso o tribucin de X es o n1 (x)k 1 ex si x > 0, F (x) = k! k=0 0 si x 0. 247. Sea X con distribucin gama(n, ). Demuestre que o a) E(X) = n/. (m + n) b) E(X m ) = m , para m = 0, 1, . . . (n) c) Var(X) = n/2 . 248. Recuerde que la funcin gama se dene para cada valor de n tal que o la siguiente integral es convergente (n) =
0

tn1 et dt.

Demuestre que esta funcin cumple las siguientes propiedades. o a) (n + 1) = n(n). b) (n + 1) = n! para n entero. c) (2) = (1) = 1. d) (1/2) = . 1 3 5 (2n 1) e) (n + 1/2) = 2n

para n entero.

Cap tulo 2. Variables aleatorias

137

Distribucin beta o
249. Compruebe que la funcin de densidad de la distribucin beta(a, b) o o efectivamente lo es. Verique adems que esta distribucin se reduce a o a la distribucin unif(0, 1) cuando a = b = 1. o 250. Sea X con distribucin beta(a, b). Demuestre que o a) E(X) = a . a+b B(a + n, b) b) E(X n ) = . B(a, b) ab c) Var(X) = . (a + b + 1)(a + b)2

251. Sea X con distribucin beta(a, b). Demuestre que o a) a = E(X) [ E(X)(1 E(X)) 1 ]. Var(X) E(X)(1 E(X)) b) b = (1 E(X)) [ 1 ]. Var(X) E(X)(1 E(X)) c) a + b = 1. Var(X)

252. Recuerde que la funcin beta se dene para cada a, b > 0 de la forma o
1

B(a, b) =
0

xa1 (1 x)b1 dx.

Demuestre que esta funcin cumple las siguientes propiedades. o a) B(a, b) = B(b, a). b) B(a, b) = (a)(b)/(a + b). c) B(a, 1) = 1/a. d) B(1, b) = 1/b. e) B(a + 1, b) = a B(a, b + 1). b

138
f ) B(a + 1, b) =

2.8. Ejercicios a B(a, b). a+b b B(a, b). g) B(a, b + 1) = a+b h) B(1/2, 1/2) = .

253. Sea X con distribucin beta(1/2, 1/2). En este caso se dice que X o tiene una distribucin arcoseno. o a) Calcule y graque f (x). b) Demuestre directamente que f (x) es una funcin de densidad. o c) Demuestre directamente que E(X) = 1/2, y Var(X) = 1/8. 254. Sea X con distribucin beta(a, b). o 0 F (x) = xa 1 Demuestre que para a > 0 y b = 1, si x 0, si 0 < x < 1, si x 1.

255. Sea X con distribucin beta(a, b). Demuestre que para a = 1 y b > 0, o si x 0, 0 F (x) = 1 (1 x)b si 0 < x < 1, 1 si x 1.

256. Demuestre que X tiene distribucin beta(a, b) si, y slo si, 1 X tiene o o distribucin beta(b, a). o

Distribucin normal o
257. Demuestre que la funcin de densidad de la distribucin N(, 2 ) o o a) es efectivamente una funcin de densidad. o b) es simtrica respecto de x = . e c) alcanza su mximo en x = . a

Cap tulo 2. Variables aleatorias d) tiene puntos de inexin en x = . o

139

258. Sea X con distribucin N(, 2 ). Demuestre que E(X) = y Var(X) = o 2. 259. Sea X con distribucin N(, 2 ). Demuestre que para cada n = 0, 1, 2, . . . o E|X |n = 1 3 5 (n 1) n 0 si n es par, si n es impar.

260. Sea X con distribucin N(, 2 ). Demuestre que o a) P ( < X < + ) = 0.68269.

b) P ( 2 < X < + 2) = 0.9545. c) P ( 3 < X < + 3) = 0.9973.

261. Sea X con distribucin normal estndar. Demuestre que para cada o a n = 0, 1, . . . n! si n es par, n n/2 (n/2)! E(X ) = 2 0 si n es impar.

262. Sea X con distribucin N(, 2 ). Demuestre que Y = aX + b, con o a = 0, tiene una distribucin normal. Encuentre los parmetros coo a rrespondientes.

263. Sea X con distribucin N(, 2 ). Demuestre que la variable aleatoria o X tambin tiene una distribucin normal. Encuentre los parmetros e o a correspondientes. 264. Sea X con distribucin normal estndar. Demuestre que X 2 tiene o a 2 (1). Rec una distribucin o procamente, Ser cierto que si Y tiene a distribucin, 2 (1) entonces Y tiene distribucin N(0, 1)? o o 265. Encuentre la funcin de densidad de la variable aleatoria |X|, cuando o X tiene distribucin normal estndar. o a

140

2.8. Ejercicios

266. El cociente de Mills. Sea (x) la funcin de densidad de la diso tribucin normal estndar, y sea (x) la correspondiente funcin de o a o distribucin. Demuestre que o a) (x) + x(x) = 0. 1 1 (x) 1 1 3 1 b) 3 < < 3 + 5, x x (x) x x x

para x > 0.

Distribucin log normal o


267. Demuestre que la funcin de densidad de una distribucin log normal(, 2 ) o o efectivamente lo es. 268. Sea X con distribucin log normal(, 2 ). Demuestre que o a) E(X) = exp( + 2 /2). b) Var(X) = exp(2 + 2 2 ) exp(2 + 2 ). c) E(ln X) = . d) Var(ln X) = 2 .

Cap tulo 3

Vectores aleatorios

En este cap tulo se extiende el concepto de variable aleatoria con valores reales a variables aleatorias con valores en Rn , a tales funciones las llamaremos vectores aleatorios. Estudiaremos adems varios conceptos importantes a relacionados con estas funciones.

3.1.

Vectores aleatorios

Recuerde que hemos supuesto que se tiene siempre como elemento base un espacio de probabilidad (, F , P ). Definicion. (Vector aleatorio). Un vector aleatorio es una funcin o X : Rn tal que para cualquier conjunto B en B(Rn ), se cumple que la imagen inversa X 1 B es un elemento de F . Dado entonces que un vector aleatorio es una funcin de en Rn , ste o e puede representar de la forma X = (X1 , . . . , Xn ) en donde cada coordenada es una funcin de en R. Demostraremos a continuacin que la condicin o o o que aparece en la denicin anterior es equivalente a solicitar que cada o 141

142

3.1. Vectores aleatorios

coordenada de este vector sea una variable aleatoria. En consecuencia, es correcto denir un vector aleatorio simplemente como un vector de variables aleatorias. Vase la Figura 3.1. Puede demostrarse adems que si se parte de e a n espacios de probabilidad en donde estn denidas n variables aleatorias a respectivamente, entonces existe un espacio de probabilidad, el espacio de probabilidad producto, en donde el vector aleatorio est denido. a

(X1 , . . . , Xn )

(X1 (), . . . , Xn ()) Rn

Figura 3.1: Un vector aleatorio es una funcin de en Rn . o Proposicion. Una funcin (X1 , . . . , Xn ) : Rn es un vector aleatoo rio si, y slo si, cada coordenada es una variable aleatoria. o

Demostracin. Sea (X1 , . . . , Xn ) un vector aleatorio. La imagen inversa de o cualquier conjunto de Borel de Rn es entonces un elemento de la -lgea bra del espacio de probabilidad. En particular, la imagen inversa del conjunto B R R pertenece a F , para cualquier Boreliano B de R. 1 Pero esta imagen inversa es simplemente X1 B. Esto demuestra que X1 es variable aleatoria. De manera anloga se procede con las otras coora denadas del vector. Suponga ahora que cada coordenada de una funcin o (X1 , . . . , Xn ) : Rn es una variable aleatoria. Considere la coleccin o B = {B B(Rn ) : (X1 , . . . , Xn )1 B F }. Como cada coordenada es una variable aleatoria, los conjuntos de Borel de Rn de la forma B1 Bn , en donde cada factor de este producto es un Boreliano de R, es un elemento

Cap tulo 3. Vectores aleatorios de la coleccin B. Entonces o B(R) B(R) B B(Rn ). Es fcil demostrar que la coleccin B es una -lgebra. Asi que a o a (B(R) B(R)) B B(Rn ).

143

Pero ambos extremos de esta ecuacin coinciden, de modo que B = B(Rn ), o y por lo tanto la funcin (X1 , . . . , Xn ) es un vector aleatorio. o Para simplicar la escritura, donde sea posible se usan unicamente vecto res aleatorios bidimensionales, esto es, de la forma (X, Y ). En la mayor a de los casos, las deniciones y resultados son fcilmente extendidos a dia mensiones mayores. Por ejemplo, el siguiente resultado es anlogo al caso a unidimensional y puede extenderse al caso de n dimensiones: un vector aleatorio (X, Y ) : R2 genera el espacio de probabilidad (R2 , B(R2 ), PX,Y ), en donde B(R2 ) es la -lgebra de conjuntos de Borel de R2 , y PX,Y es a una medida de probabilidad denida sobre esta -lgebra, e inducida por el a vector aleatorio de la siguiente forma. Para cualquier B en B(R2 ), PX,Y (B) = P ((X, Y )1 B). Nuestro objetivo es estudiar estas nuevas medidas de probabilidad, o equivalentemente, los vectores aleatorios que las generan. En la mayor de los a casos, aunque no unicamente, consideraremos vectores aleatorios como los que se denen a continuacin. o Definicion. (Vector discreto y continuo). Se dice que el vector (X, Y ) es discreto si cada coordenada es una variable aleatoria discreta, y se dice que es continuo en caso de que cada coordenada lo sea.

144

3.2. Distribucion conjunta

3.2.

Distribucin conjunta o

Como en el caso de variables aleatorias, todo vector aleatorio induce una medida de probabilidad, ahora sobre Rn . Esta medida de probabilidad puede estudiarse, de manera equivalente, mediante la funcin de distribucin o o conjunta denida a continuacin. o Definicion. (Funcion de distribucion conjunta). La funcin de o distribucin de un vector (X, Y ), denotada por F (x, y) : R2 [0, 1], se o dene como sigue F (x, y) = P (X x, Y y).

El nmero F (x, y) es entonces la probabilidad de que el vector aleatorio u tome algn valor en la rectngulo innito (, x] (, y], el cual se u a muestra en la Figura 3.2. En palabras, la funcin F (x, y) es la probabilidad o de que X sea menor o igual a x, y al mismo tiempo Y sea menor o igual a y, esto es simplemente la probabilidad del evento (X x) (Y y).
(x, y)

Figura 3.2: El nmero F (x, y) = P (X x, Y y) es la probabilidad de que el u vector (X, Y ) tome un valor en la regin sombreada. o A la funcin F (x, y) se le conoce tambin como funcin de distribucin bivao e o o riada de X y Y , y en general a la distribucin conjunta de un vector aleatorio o

Cap tulo 3. Vectores aleatorios

145

de cualquier dimensin nita se le llama distribucin multivariada. Natuo o ralmente, en el caso unidimensional, la distribucin se llama univariada. o Cuando sea necesario especicarlo se escribe FX,Y (x, y) en lugar de F (x, y), y es evidente la forma de extender la denicin para el caso de vectores o aleatorios de ms de dos coordenadas. Con el n de mantener la notacin a o simple, en la medida de lo posible se mantiene la correspondencia de las letras, es decir, x es un valor asociado a X, y y es un valor asociado a Y . Las funciones de distribucin conjunta satisfacen propiedades semejantes al o caso unidimensional, se estudian a continuacin algunas de ellas. o Proposicion. Toda funcin de distribucin conjunta F (x, y) satisface o o las siguientes propiedades. 1. 2.
x,y

l m F (x, y) = 1, ambas variables. l m F (x, y) = 0, alguna de las variables.

x,y

3. F (x, y) es no decreciente en cada variable. 4. F (x, y) es continua por la derecha en cada variable. 5. Si a1 < b1 y a2 < b2 , entonces F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 ) 0.

La demostracin de las propiedades (1) a (4) es completamente anloga al o a caso unidimensional y por tanto la omitiremos. Respecto a la propiedad (5) observe que la expresin F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 ) o corresponde a la probabilidad del evento (a1 < X b1 , a2 < Y b2 ). De modo que (5) se traduce simplemente en solicitar que la probabilidad de que el vector (X, Y ) tome valores en el rectngulo (a1 , b1 ] (a2 , b2 ], sea no a negativa. Este rectngulo se muestra en la Figura 3.3. a

146

3.2. Distribucion conjunta

b2

a2

a1

b1

Figura 3.3: La probabilidad asociada al rectngulo (a1 , b1 ] (a2 , b2 ] es P (a1 < a X b1 , a2 < Y b2 ) = F (b1 , b2 ) F (a1 , b2 ) F (b1 , a2 ) + F (a1 , a2 ). Ejercicio. Graque y demuestre que la siguiente funcin es de distribucin. o o (1 ex )(1 ey ) si x, y > 0, otro caso.

F (x, y) =

A diferencia del caso unidimensional, las propiedades (1) a (4) no son sucientes para asegurar que una funcin F (x, y) asigna probabilidad no neo gativa a cualquier rectngulo. El siguiente ejercicio muestra un ejemplo de a esta situacin. Vase tambin el ejercicio 272. o e e Ejercicio. Graque y demuestre que la funcin que aparece abajo no es de o distribucin. Este es un ejemplo de una funcin que tiene el comportamiento o o l mite adecuado en innito, es continua por la derecha y no decreciente en cada variable, pero no es funcin de distribucin pues asigna valores o o negativos a algunas regiones del plano. Por ejemplo calcule la probabilidad del cuadrado (1, 1] (1, 1]. F (x, y) = 0 si x + y < 0, 1 si x + y 0.

Cap tulo 3. Vectores aleatorios

147

Definicion. (Funcion de distribucion conjunta). Una funcin o 2 [0, 1], no necesariamente denida en trminos cualquiera F (x, y) : R e de un vector aleatorio, es una funcin de distribucin conjunta si cumple o o con las cinco propiedades enunciadas en la proposicin anterior. o Ms adelante se mostrarn otros ejemplos concretos de funciones de distria a bucin conjunta. o Para tres dimensiones se tiene la siguiente denicin. Se dice que la funcin o o 3 [0, 1] es una funcin de distribucin si cumple las primeras cuatro F :R o o propiedades anteriores y la quinta propiedad se reemplaza por la siguiente condicin: Para cualesquiera nmeros reales a1 < b1 , a2 < b2 , y a3 < b3 , o u F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 )

+F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 ) F (a1 , a2 , a3 ) 0.

En trminos de vectores aleatorios se puede demostrar que el lado izquierdo e de esta desigualdad corresponde a la probabilidad del evento (a1 < X1 b1 , a2 < X2 b2 , a3 < X3 b3 ), es decir, se trata de la probabilidad de que el vector aleatorio (X1 , X2 , X3 ) tome algn valor dentro del paralelep u pedo que se muestra en la Figura 3.4. La condicin anterior establece entonces o que este nmero debe ser mayor o igual a cero. u Ms generalmente, se tiene la siguiente denicin. a o

148

3.2. Distribucion conjunta z


b3

a3

a2 a1 b1

b2

x Figura 3.4: Regin (a1 , b1 ] (a2 , b2 ] (a3 , b3 ]. o Definicion. (Funcion de distribucion conjunta). Una funcin o F : Rn [0, 1] es una funcin de distribucin si cumple las primeo o ras cuatro propiedades anteriores y, adicionalmente, para cualesquiera nmeros reales a1 < b1 , a2 < b2 , . . ., an < bn , u (1)#a F (x1 , . . . , xn ) 0,

xi {ai ,bi }

en donde #a es el nmero de veces que alguna de las variables xi toma u el valor ai en la evaluacin de la funcin F . o o Nuevamente la suma que aparece en esta denicin corresponde a la proo babilidad del evento (a1 < X1 b1 , . . . , an < Xn bn ), y la condicin o requiere simplemente que este nmero sea no negativo. u Finalmente enunciamos un resultado que establece la importancia de la funcin de distribucin, y cuya demostracin puede ser encontrada por ejemplo o o o en [19]. La prueba no es sencilla pero es anloga al caso unidimensional. a

Cap tulo 3. Vectores aleatorios

149

Proposicion. Sea F : Rn [0, 1] una funcin de distribucin. Entonces o o existe un espacio de probabilidad, y un vector aleatorio, cuya funcin de o distribucin es F . o Es decir, este resultado garantiza la existencia de un espacio de probabilidad (, F , P ) en donde se encuentra denido un vector aleatorio (X1 , . . . , Xn ) con funcin de distribucin la especicada. En lo que resta del cap o o tulo hablaremos de vectores aleatorios suponiendo que existe un espacio de probabilidad base asociado.

3.3.

Densidad conjunta

Como en el caso unidimensional, algunos vectores tienen asociada otra funcin llamada de probabilidad o de densidad, y la cual se dene a continuao cin. o Definicion. (Funcion de probabilidad conjunta). La funcin de o probabilidad de un vector discreto (X, Y ) es la funcin f (x, y) : R2 o [0, 1] dada por f (x, y) = P (X = x, Y = y). A esta funcin tambin se le llama funcin de probabilidad conjunta de o e o las variables X y Y . Es evidente que la funcin de probabilidad de un vector discreto cumple las o siguientes propiedades. a) f (x, y) 0. b)
x,y

f (x, y) = 1.

Rec procamente, toda funcin no negativa f (x, y) : R2 [0, 1] que sea eso

150

3.3. Densidad conjunta

trictamente positiva unicamente en un subconjunto discreto de R2 y que sume uno, se llama funcin de probabilidad conjunta. La denicin de funo o cin de probabilidad en el caso discreto multidimensional es evidente. Es o claro tambin que la correspondiente funcin de distribucin se puede cale o o cular a partir de la funcin de probabilidad de la siguiente forma: o F (x, y) = P (X x, Y y) = f (u, v).
ux vy

Ejemplo. La funcin f (x, y) = 1/4, para x, y = 1, 2, es una funcin de o o probabilidad conjunta pues es no negativa y suma uno, corresponde a la distribucin uniforme sobre el conjunto {1, 2} {1, 2}. La grca se muestra o a en la Figura 3.5. f (x, y)
1/4 2

1 1 2

x Figura 3.5: Funcin de probabilidad f (x, y) = 1/4, para x, y = 1, 2. o La correspondiente funcin de distribucin o o 0 1/4 F (x, y) = f (u, v) = 2/4 2/4 ux vy 1 cuya grca se encuentra en la Figura 3.6. a es si si si si si x < 1 y < 1, o 1 x < 2, 1 y < 2, 1 x < 2, y 2, x 2, 1 y < 2, x 2 y y 2,

Cap tulo 3. Vectores aleatorios F (x, y)

151

2 1 1 2

Figura 3.6: Ejemplo de funcin de distribucin discreta. o o

Ejemplo. La funcin denida por f (x, y) = (1/2)x+y para x, y N, e o idnticamente cero fuera de este conjunto discreto, es una funcin de proe o babilidad bivariada pues es no negativa y suma uno. En efecto,
x,y=1

f (x, y) =

x,y=1

1 2x+y

=(

1 2 ) = 1. 2x x=1

Para el caso de vectores continuos se tiene la siguiente denicin. o

152

3.3. Densidad conjunta

Definicion. (Funcion de densidad conjunta). Sea (X, Y ) un vector continuo con funcin de distribucin F (x, y). Se dice que (X, Y ) es o o absolutamente continuo si existe una funcin no negativa e integrable o f (x, y) : R2 [0, ), tal que, para todo (x, y) en R2 , se cumple la igualdad
x y

F (x, y) =

f (u, v) dv du.

o A la funcin f (x, y) se le denota por fX,Y (x, y), y se le llama funcin de o densidad conjunta de X y Y . As como en el caso unidimensional, no existe realmente unicidad para la funcin de densidad pues basta modicarla en algunos puntos para ser diso tinta pero seguir cumpliendo la igualdad anterior, sin embargo la funcin o de distribucin y por tanto las probabilidades, permanecen sin cambio alo guno. Es claro que la funcin de densidad conjunta f (x, y) de un vector o absolutamente continuo cumple las siguientes propiedades. a) f (x, y) 0. b)

f (x, y) dx dy = 1.

Rec procamente, toda funcin no negativa f : R2 [0, ), que integre o uno, se llama funcin de densidad conjunta. En particular, cuando f (x, y) o es continua, 2 f (x, y) = F (x, y). yx Observe que, en el caso absolutamente continuo y conociendo la funcin de o densidad conjunta, la probabilidad del evento (a X b, c Y d) no cambia si se incluyen o se excluyen los extremos de cada intervalo, y se calcula como la integral doble que se ilustra en la Figura 3.7.

Cap tulo 3. Vectores aleatorios

153

f (x, y)

y
b d

a b

P (a X b, c Y d) =

f (x, y) dy dx
a c

x Figura 3.7: La probabilidad como el volumen bajo una supercie. Ejemplo. La funcin f : R2 [0, ) dada por la siguiente expresin es o o una funcin de densidad pues es no negativa e integra uno. o 1/4 0 si x, y [0, 2], otro caso.

f (x, y) =

Esta funcin de densidad conjunta corresponde a la distribucin uniforme o o del vector (X, Y ) en el cuadrado [0, 2] [0, 2]. La grca se muestra en la a Figura 3.8. Para calcular la correspondiente funcin de distribucin F (x, y) se debe o o calcular la doble integral para los distintos valores de x y y. Esta doble integral toma distintas expresiones en cada una de las cinco regiones que aparecen en la parte izquierda de la Figura 3.9. Despus de algunos clculos e a elementales se encuentra que la funcin de distribucin conjunta tiene la o o

154

3.3. Densidad conjunta

f (x, y)

1/4 2

x Figura 3.8: Funcin de densidad f (x, y) = 1/4, para x, y [0, 2]. o siguiente expresin cuya grca aparece en la parte derecha de la Figura 3.9. o a
x y

F (x, y) = 0 xy/4 x/2 = y/2 1


f (u, v)dvdu si x < 0 y < 0, o si 0 x, y < 2, si 0 x < 2, y 2, si 0 y < 2, x 2, si x 2 y y 2.

Ejercicio. Demuestre que la siguiente funcin es de densidad. Calcule o P (X = Y ), P (X = 1) y P (X + Y = n + 1). Puede usted calcular la

Cap tulo 3. Vectores aleatorios


y x/2 0 2 xy/4 2 0 0 y/2 x 2 2 1

155

F (x, y) y

Figura 3.9: Ejemplo de funcin de distribucin continua bivariada. o o correspondiente funcin de distribucin? o o 4xy si x, y = 1, . . . , n, 2 (n + 1)2 n f (x, y) = 0 otro caso. Ejercicio. Demuestre que la siguiente funcin es de densidad. Encuentre la o correspondiente funcin de distribucin y graque ambas funciones. Calcule o o adems P (1/3 < X < 1, 0 < Y < 1/2), P (Y > X) y P (X > 1/2). a f (x, y) = x+y 0 si 0 < x, y < 1, otro caso.

Ejercicio. Demuestre que la siguiente funcin es de densidad. Encuentre la o correspondiente funcin de distribucin y calcule P (1 < X < 2, 1 < Y < 2), o o P (X > 1) y P (Y + X > 2). f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

156

3.4. Distribucion marginal

3.4.

Distribucin marginal o

Dada la funcin de distribucin F (x, y) de un vector aleatorio (X, Y ), es o o posible obtener la funcin de distribucin de cada variable aleatoria por o o separado mediante el siguiente procedimiento. Definicion. (Funcion de distribucion marginal). Sea (X, Y ) un vector con funcin de distribucin F (x, y). A la funcin o o o F (x) = l F (x, y) m
y

se le conoce como la funcin de distribucin marginal de X. Anlogao o a mente se dene la funcin de distribucin marginal de Y como o o F (y) = l F (x, y). m
x

No es dif vericar que las funciones de distribucin marginales son efeccil o tivamente funciones de distribucin univariadas. En el caso de vectores de o dimensin mayor, se puede obtener la distribucin marginal de cualquier o o subconjunto de variables aleatorios del vector original mediante un procedimiento similar. Ejemplo. En un ejemplo anterior hab amos encontrado la siguiente funcin o

Cap tulo 3. Vectores aleatorios de distribucin conjunta o 0 xy/4 FX,Y (x, y) = x/2 y/2 1 si x < 0 y < 0, o si 0 x, y < 2, si 0 x < 2, y 2, si 0 y < 2, x 2, si x 2 y y 2.

157

Puede usted encontrar ahora FY (y)?

Esta funcin esta denida de manera distinta en cada una de las cinco regioo nes disjuntas y exhaustivas del plano Cartesiano dadas por las condiciones anteriores. Para encontrar, por ejemplo, la funcin de distribucin marginal o o FX (x) simplemente tenemos que hacer la variable y tender a innito en las regiones donde ello sea posible. Ello puede hacerse en las regiones dadas por las condiciones del primer, tercer y quinto rengln de la lista anterior. Esto o da como resultado si x < 0, 0 x/2 si 0 x < 2, FX (x) = 1 si x 2. Ejercicio. Encuentre las funciones de (X, Y ) cuya funcin de distribucin es o o 0 3x2 y/5 + 2xy 3 /5 3x2 /5 + 2x/5 F (x, y) = 3y/5 + 2y 3 /5 1 distribucin marginales del vector o si x < 0 y < 0, o si 0 x < 1 y 0 y < 1, si 0 x < 1 y y 1, si x 1 y 0 y < 1, si x 1 y y 1.

Para el caso de funciones de densidad conjunta, se pueden obtener las funciones de densidad individuales como indica la siguiente denicin. o

158

3.4. Distribucion marginal

Definicion. (Funcion de densidad marginal). Sea (X, Y ) un vector absolutamente continuo con funcin de densidad f (x, y). A la funcin o o f (x) =

f (x, y) dy

se le conoce como la funcin de densidad marginal de X. Anlogamente o a se dene la funcin de densidad marginal de Y como o f (y) =

f (x, y) dx.

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma. Tampoco es dif comprobar que las funciones de densidad marginales son cil efectivamente funciones de densidad univariadas. Las dos deniciones anteriores pueden extenderse de manera evidente cuando se tenga un vector aleatorio de cualquier dimensin nita. Tambin es posible calcular las funo e ciones de densidad y de distribucin de (X, Y ) a partir, por ejemplo, de las o funciones correspondientes del vector (X, Y, Z). Ejercicio. Calcule las funciones de densidad marginales del vector aleatorio discreto (X, Y ) cuya funcin de probabilidad esta dada por la siguiente o tabla. x\y 1 2 3 1 1/45 2/45 3/45 0 4/45 5/45 6/45 1 7/45 8/45 9/45

Ejercicio. Calcule las funciones de densidad marginales del vector aleatorio continuo (X, Y ) cuya funcin de densidad es o f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

Cap tulo 3. Vectores aleatorios

159

Observe que la distribucin conjunta determina de manera unica a las distrio buciones marginales. Sin embargo, si lo que se conoce son las distribuciones marginales, entonces puede haber varias distribuciones conjuntas que produzcan las marginales dadas. La forma de producir la distribucin conjunta o se llama acoplamiento, y la distribucin conjunta obtenida se llama a veo ces distribucin de acoplamiento o cpula. Dos variables aleatorias X y Y o o siempre pueden acoplarse de la forma FX,Y (x, y) = FX (x)FY (y), que es el caso donde se han hecho independientes una de la otra, pero puede haber otras formas de hacerlo. En el siguiente ejemplo se muestra una situacin o concreta en el caso discreto. Ejemplo. Sean X y Y discretas ambas con distribucin uniforme en el o conjunto {0, 1}, es decir, su distribucin de probabilidad es o f (x) = 1/2 si x = 0, 1, 0 otro caso.

Sean a 0 y b 0 tales que a + b = 1/2. Entonces la siguiente densidad conjunta tiene como densidades marginales las especicadas para X y para Y. x\y 0 1 0 a b 1 b a

Observe que esta densidad conjunta es en realidad toda una familia de densidades conjuntas que producen las densidades marginales especicadas. En este caso X y Y son independientes si, y slo si, a = b = 1/4. o

160

3.5. Distribucion condicional

3.5.

Distribucin condicional o

La siguiente denicin es una extensin del concepto elemental de probabio o lidad condicional de eventos. Definicion. (Funcion de densidad condicional). Sea (X, Y ) un vector con funcin de densidad fX,Y (x, y), y sea y tal que fY (y) = 0. A o la funcin o fX,Y (x, y) x fX|Y (x|y) = fY (y) se le conoce como la funcin de densidad condicional de X dado que Y o toma el valor y. No es dif comprobar que esta funcin es efectivamente una funcin de cil o o densidad, tanto en el caso discreto como en el continuo. Observe que el valor y permanece jo y la funcin es vista como una funcin de la variable real o o x, esto puede observarse en el siguiente ejemplo. Ejemplo. Considere la funcin de densidad conjunta o fX,Y (x, y) = 24x(1 y) si 0 < x < y < 1, 0 otro caso.

Es sencillo comprobar que para cualquier valor jo de y en el intervalo (0, 1), la funcin de densidad condicional de X dado Y es la que aparece ms abajo. o a Es tambin inmediato vericar que esta funcin, vista como funcin de x, es e o o de densidad. El valor de y puede entonces considerarse como un parmetro a de esta nueva distribucin. o fX|Y (x|y) = 2x/y 2 si 0 < x < y, 0 otro caso.

Anlogamente puede comprobarse que para cualquier x en (0, 1) jo, a fY |X (y|x) = 2(1 y)/(x 1)2 si x < y < 1, 0 otro caso.

Cap tulo 3. Vectores aleatorios

161

Ejercicio. Calcule las funciones de densidad condicionales fY |X (y|x) y fX|Y (x|y) a partir de la siguiente funcin de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

Se pueden denir tambin funciones de distribucin condicionales de la sie o guiente forma. Definicion. (Funcion de distribucion condicional). Sea (X, Y ) un vector aleatorio absolutamente continuo con funcin de densidad o fX,Y (x, y), y sea y tal que fY (y) = 0. A la funcin o
x

x FX|Y (x|y) =

fX|Y (u|y) du

se le conoce como la funcin de distribucin condicional de X dado que Y o o toma el valor y. Cuando el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente. Nuevamente resulta que la funcin de distribucin condicional es efectivao o mente una funcin de distribucin. En el caso absolutamente continuo y o o suponiendo x fX|Y (x|y) continua, por el teorema fundamental del clcua lo se tiene que fX|Y (x|y) = F (x|y). x X|Y Ejemplo. Considere nuevamente la funcin de densidad conjunta del ejemo plo anterior, fX,Y (x, y) = 24x(1 y), para 0 < x < y < 1. Para y jo en el

162

3.5. Distribucion condicional

intervalo (0, 1) se tiene que si x 0, 0 FX|Y (x|y) = fX|Y (u|y) du = x2 /y 2 si 0 < x < y, 1 si x y.
x

Puede tambin denirse la esperanza condicional de la siguiente forma. e Definicion. Sea (X, Y ) un vector con funcin de distribucin o o FX,Y (x, y), y sea y un valor tal que fY (y) = 0. Si X tiene esperanza nita, entonces se dene E(X | Y = y) =

x dFX|Y (x|y).

En el siguiente cap tulo veremos una denicin mucho ms general de este o a concepto. Ejercicio. Calcule la funcin de distribucin condicional FX|Y (x|y) a partir o o de la funcin de densidad conjunta fX,Y (x, y) = 3(x2 + y 2 )/16, para 0 < o x < y < 2. Calcule adems E(X | Y = y) para cualquier valor de y en el a intervalo (0, 2). Ejercicio. Calcule E(X | Y = y) para y = /4, cuando (X, Y ) es un vector absolutamente continuo con funcin de densidad f (x, y) = (1/2) sen(x + y), o para x, y (0, /2). Ejercicio. Sea (X, Y ) un vector aleatorio tal que X tiene esperanza nita y Y es discreta con valores 0, 1, . . . tal que P (Y = n) > 0 para n = 0, 1, . . . Demuestre que E(X) =
n=0

E(X | Y = n) P (Y = n).

Cap tulo 3. Vectores aleatorios

163

3.6.

Independencia

Podemos ahora denir el importante concepto de independencia de variables aleatorias. Primero deniremos tal concepto para dos variables aleatorias, despus lo haremos para n variables, y nalmente para una coleccin arbie o traria de variables aleatorias. Definicion. (Independencia de dos variables aleatorias). Se dice que X y Y son independientes, y a menudo se escribe X Y , si para cada par de conjuntos de Borel A, B de R, se cumple la igualdad P (X A, Y B) = P (X A) P (X B). (3.1)

En trminos de la siempre existente funcin de distribucin, la independene o o cia de dos variables aleatorias se puede expresar como indica el siguiente resultado. Proposicion. (Independencia de dos variables aleatorias). Las variables aleatorias X y Y son independientes si, y slo si, para cada o 2 se cumple la igualdad (x, y) en R FX,Y (x, y) = FX (x) FY (y). (3.2)

Demostracin. Si X y Y son independientes, entonces tomando A = (, x] o y B = (, y] en (3.1) se obtiene (3.2). Suponga ahora que se cumple (3.2)

164

3.6. Independencia

para cualesquiera x y y en R. Dena la coleccin o A = {A B(R) : P (X A, Y y) = P (X A) P (Y y), y R }. No es dif demostrar que A es una -lgebra y usando la hiptesis resulta cil a o que A = B(R). Sea ahora A un elemento cualquiera jo de B(R). Dena la coleccin o B = {B B(R) : P (X A, Y B) = P (X A) P (Y B) }. Se puede comprobar nuevamente que B es una -lgebra, y de hecho B = a B(R). De esta forma, para cualquier A y B en B(R), se cumple la condicin (3.1). o El concepto de independencia de variables aleatorias es una extensin de o la misma propiedad para eventos. Cuando la funcin de densidad conjunta o existe, la condicin de independencia de X y Y es equivalente a solicitar o que para cualesquiera nmeros reales x y y, se cumpla la identidad u fX,Y (x, y) = fX (x) fY (y). (3.3)

En el caso discreto, la armacin anterior es completamente correcta. Para o el caso continuo hay una observacin tcnica que es necesario mencionar. o e Como en este caso las funciones de densidad pueden ser modicadas sin que cambie la funcin de distribucin asociada, la igualdad (3.3) puede o o 2 , entonces se permite que la igualdad no cumplirse para cada (x, y) R no se cumpla en un conjunto de medida de Lebesgue cero, por ejemplo, un conjunto numerable de parejas (x, y) en R2 , y entonces habr independencia a en el caso continuo si se cumple (3.3), salvo conjuntos de medida de Lebesgue cero. Ejemplo. Sea (X, Y ) un vector aleatorio con funcin de densidad f (x, y) = o 4xy, para 0 x, y 1, y cuya grca aparece en la Figura 3.10. a La funcin de densidad marginal de X se calcula de la siguiente forma. Para o 0 x 1, fX (x) =
1

f (x, y)dy =
0

4xydy = 2x.

Cap tulo 3. Vectores aleatorios

165

f (x, y)
4

x Figura 3.10: Funcin de densidad f (x, y) = 4xy, para 0 x, y 1. o Anlogamente fY (y) = 2y para 0 y 1. En consecuencia, X y Y son ina dependientes pues para cada par (x, y), se cumple fX,Y (x, y) = fX (x) fY (y). Ejercicio. Determine si las variables aleatorias continuas X y Y son independientes cuando su funcin de densidad conjunta es o fX,Y (x, y) = 3(x2 + y 2 )/32 0 si 0 < x, y < 2, otro caso.

El concepto de independencia puede ser extendido claramente al caso de varias variables aleatorias de la forma siguiente.

166

3.6. Independencia

Definicion. (Independencia de varias variables aleatorias). Se dice que las variables X1 , . . . , Xn son independientes si para cualesquiera Borelianos A1 , . . . , An de R, se cumple P (X1 A1 , . . . , Xn An ) = P (X1 A1 ) P (Xn An ). Ms an, una coleccin innita de variables aleatorias es independiente a u o si cualquier subconjunto nito de ella lo es. Usando un procedimiento similar al caso de dos variables aleatorias, puede demostrarse que la condicin de independencia de n variables aleatorias o es equivalente a solicitar que para cualquier vector (x1 , . . . , xn ) en Rn se cumpla la igualdad FX1 ,...,Xn (x1 , . . . , xn ) = FX1 (x1 ) FXn (xn ). Y en trminos de la funcin de densidad, cuando sta exista y salvo un e o e conjunto de medida cero, la condicin es o fX1 ,...,Xn (x1 , . . . , xn ) = fX1 (x1 ) fXn (xn ). Cuando las variables X1 , . . . , Xn son independientes y tomando conjuntos Borelianos adecuados en la denicin general, puede comprobarse que cualo quier subconjunto de estas variables tambin son independientes. El rec e proco, sin embargo, es en general falso como se pide demostrar a continuacin. o Ejercicio. Sean X y Y independientes ambas con distribucin uniforme o en el conjunto {1, 1}. Sea Z = XY . Demuestre que X, Y y Z son independientes dos a dos pero no lo son en su conjunto. Proposicion. Sean X y Y independientes, y sean g y h dos funciones de R en R, Borel medibles. Entonces las variables aleatorias g(X) y h(Y ) tambin son independientes. e

Cap tulo 3. Vectores aleatorios

167

Demostracin. Sean A y B cualesquiera dos conjuntos de Borel de R. Eno tonces P ( g(X) A, h(Y ) B ) = P ( X g1 (A), Y h1 (B) ) = P ( g(X) A ) P ( h(Y ) B ). = P ( X g1 (A) ) P ( Y h1 (B) )

Este resultado puede extenderse fcilmente al caso n-dimensional, y de esta a forma obtener que la composicin de n funciones Borel medibles aplicadas, o respectivamente, a n variables aleatorias independientes, produce nuevamente variables aleatorias independientes. La denicin de independencia de dos variables aleatorias puede extendero se al caso de dos vectores aleatorios de cualquier dimensin de la forma o siguiente. Definicion. (Independencia de dos vectores aleatorios). Se dice que los vectores X = (X1 , . . . , Xn ) y Y = (Y1 , . . . , Ym ) son independientes, si para cada A en B(Rn ), y cada B en B(Rm ), se cumple la igualdad P (X A, Y B) = P (X A) P (Y B). (3.4)

Naturalmente esta denicin puede extenderse un poco ms para incluir la o a independencia de un nmero nito de vectores aleatorios, no necesariamenu te todos de la misma dimensin. Y nuevamente, una coleccin innita de o o vectores aleatorios es independiente si cualquier subcoleccin nita de ellos o lo es. Ejercicio. Demuestre que si los vectores (X1 , . . . , Xn ) y (Y1 , . . . , Ym ) son independientes, entonces las variables Xi y Yj son independientes para cualquier posible valor de los ndices i y j.

168

3.7. Esperanza de una funcion de un vector aleatorio

3.7.

Esperanza de una funcin de un vector o aleatorio

Si (X, Y ) es un vector aleatorio y : R2 R es una funcin Borel medible, o entonces (X, Y ) es una variable aleatoria y el problema nuevamente es encontrar su esperanza. Usando directamente la denicin, la esperanza de o (X, Y ) se calcula del siguiente modo: E[(X, Y )] =

x dF(X,Y ) (x),

pero, as como en el caso unidimensional, ello requiere encontrar primero la distribucin de (X, Y ), lo cual puede ser dif en muchos casos. El o cil siguiente resultado establece una forma alternativa de calcular la esperanza de (X, Y ), sin conocer su distribucin, pero conociendo, por supuesto, la o distribucin del vector (X, Y ). o Teorema (Esperanza de una funcion de un vector aleatorio). Sea (X, Y ) un vector aleatorio, y sea : R2 R una funcin o Borel medible tal que la variable aleatoria (X, Y ) tiene esperanza nita. Entonces E[(X, Y )] =
R2

(x, y) dFX,Y (x, y).

(3.5)

Nuevamente omitiremos la demostracin de este resultado. Observe que se o trata de una integral de Riemann-Stieltjes en dos dimensiones. El incremento de F en el rectngulo (xi1 , xi ] (yj1 , yj ] es a F (xi , yj ) F (xi , yj1 ) F (xi1 , yj ) + F (xi1 , yj1 ). Vase nuevamente la Figura 3.3 para comprobar esta expresin. En el caso e o

Cap tulo 3. Vectores aleatorios cuando X y Y son independientes, este incremento es F (xi )F (yj ) F (xi )F (yj1 ) F (xi1 )F (yj ) + F (xi1 )F (yj1 ) = F (xi ) F (yj ),

169

= (F (xi ) F (xi1 ))(F (yj ) F (yj1 ))

es decir, la integral bidimensional se separa en dos integrales, y se puede escribir E[(X, Y )] = (x, y) dFX (x) dFY (y).
R2

Cuando el vector (X, Y ) es discreto, la frmula (3.5) se reduce a o E[(X, Y )] =


x,y

(x, y) P (X = x, Y = y),

en donde la suma se efecta sobre todos los posibles valores (x, y) del vector. u En este caso la demostracin del teorema resulta no muy complicada, y se o pide dar los detalles en el siguiente ejercicio. Ejercicio. Sea (X, Y ) un vector aleatorio discreto con valores en el cono junto producto {x1 , x2 , . . .} {y1 , y2 , . . .}, y sea : R2 R una funcin Borel medible tal que la variable (X, Y ) tiene esperanza nita. Demuestre que E[(X, Y )] =

(xi , yj ) P (X = xi , Y = yj ).

i=1 j=1

En el caso cuando (X, Y ) es absolutamente continuo, la expresin (3.5) se o escribe E[(X, Y )] = (x, y) fX,Y (x, y) dxdy.
R2

Con ayuda de este resultado podemos ahora demostrar que la esperanza separa sumas.

170

3.7. Esperanza de una funcion de un vector aleatorio

Proposicion. Sean X y Y con esperanza nita. Entonces E(X + Y ) = E(X) + E(Y ).

Demostracin. Sean (x, y) = x + y, 1 (x, y) = x, y 2 (x, y) = y. Entonces o E(X + Y ) = E((X, Y )) =


R2

(x + y) dFX,Y (x, y) x dFX,Y (x, y) + y dFX,Y (x, y)

=
R2

R2

= E(1 (X, Y )) + E(2 (X, Y )) = E(X) + E(Y ).

Proposicion. Sean X y Y independientes, y sean g y h dos funciones Borel medibles tales que g(X) y h(Y ) tienen esperanza nita. Entonces E[g(X)h(Y )] = E[g(X)] E[h(Y )]. En particular, E(X Y ) = E(X) E(Y ).

Demostracin. o E[g(X) h(Y )] =


R2

g(x) h(y) dFX,Y (x, y) g(x) h(y) dFX (x) dFY (y)

=
R2

= E[g(X)] E[h(Y )].

Cap tulo 3. Vectores aleatorios

171

En general, el rec proco de la armacin anterior es falso, es decir, la cono dicin E(XY ) = E(X)E(Y ) no es suciente para poder concluir que X y o Y son independientes. Por ejemplo, considere el vector aleatorio discreto (X, Y ) con funcin de probabilidad o x\y 1 0 1 1 1/5 0 1/5 0 0 1/5 0 1 1/5 0 1/5

Es sencillo vericar que E(XY ) = E(X)E(Y ) = 0, sin embargo X y Y no son independientes pues P (X = 0, Y = 0) = 1/5, mientras que P (X = 0)P (Y = 0) = 1/25. Otros ejemplos de esta misma situacin pueden o encontrarse en el ejercicio 352 en la pgina 203. a

3.8.

Covarianza

En esta seccin se dene y estudia la covarianza entre dos variables aleatoo rias. Una interpretacin de este nmero, ligeramente modicado, ser dada o u a en la siguiente seccin. o Definicion. (Covarianza). La covarianza de X y Y , denotada por Cov(X, Y ), es el nmero u Cov(X, Y ) = E [(X E(X))(Y E(Y ))] .

Para que la denicin anterior tenga sentido es necesario suponer que las o esperanzas E(X), E(Y ) y E(XY ) son nitas. En general cuando se escribe Cov(X, Y ), se suponen tales condiciones. Se revisan a continuacin algunas o propiedades de la covarianza.

172

3.8. Covarianza

Proposicion. Sean X y Y variables aleatorias y sea c una constante. Entonces 1. Cov(X, Y ) = E(XY ) E(X)E(Y ). 2. Cov(X, Y ) = Cov(Y, X). 3. Cov(X, X) = Var(X). 4. Cov(c, Y ) = 0. 5. Cov(cX, Y ) = c Cov(X, Y ). 6. Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ). 7. Si X y Y son independientes, entonces Cov(X, Y ) = 0. 8. En general, Cov(X, Y ) = 0 = X,Y independientes.

Demostracin. o 1. Por la propiedad de linealidad de la esperanza, Cov(X, Y ) = E [(X E(X))(Y E(Y ))] = E(XY ) E(X)E(Y ).

= E [XY Y E(X) XE(Y ) + E(X)E(Y )]

2. - 4. Estas propiedades se siguen directamente de la denicin. o 5. - 6. Esto es consecuencia de la denicin y de la linealidad de la esperanza. o 7. Esta propiedad se obtiene fcilmente de la primera pues E(XY ) = a E(X)E(Y ) cuando X y Y son independientes.

Cap tulo 3. Vectores aleatorios 8. Sea (X, Y ) un vector 1/8 fX,Y (x, y) = 1/2 0 Entonces X y Y 1/4 fX (x) = 1/2 0 aleatorio discreto con funcin de densidad o

173

si (x, y) {(1, 1), (1, 1), (1, 1), (1, 1)}, si (x, y) = (0, 0), otro caso.

Puede entonces comprobarse que Cov(X, Y ) = 0. Sin embargo X y Y no son independientes pues en particular P (X = 0, Y = 0) = 1/2, mientras que P (X = 0)P (Y = 0) = 1/4.

tienen idnticas densidades marginales, e si x {1, 1}, 1/4 si y {1, 1}, si x = 0, fY (y) = 1/2 si y = 0, otro caso. 0 otro caso.

Observe en particular que la covarianza es una funcin bilineal y simtrica. o e Estas propiedades sern de utilidad en la siguiente seccin. Ms adelante a o a demostraremos que, en el caso especial cuando el vector (X, Y ) tiene distribucin normal bivariada, la condicin de covarianza cero implica que estas o o variables son efectivamente independientes. Ejercicio. Sean X y Y independientes. Demuestre que Cov(X + Y, Y ) = Var(Y ).

3.9.

Coeciente de correlacin o

El coeciente de correlacin de dos variables aleatorias es un nmero real o u que mide el grado de dependencia lineal que existe entre ellas. Su denicin o es la siguiente.

174

3.9. Coeficiente de correlacion

Definicion. (Coeficiente de correlacion). El coeciente de correlacin de las variables aleatorias X y Y , denotado por (X, Y ), es el o nmero u Cov(X, Y ) (X, Y ) = . Var(X) Var(Y )

Naturalmente en esta denicin se necesita suponer que las varianzas son o estrictamente positivas y nitas. Vista como funcin de dos variables aleao torias, el coeciente de correlacin es una funcin simtrica pero no es lineal o o e pues no separa sumas ni multiplicaciones por constantes. Ejercicio. Demuestre que, en general, a) (c X, Y ) = c (X, Y ), c constante. b) (X1 + X2 , Y ) = (X1 , Y ) + (X2 , Y ).

La interpretacin dada al coeciente de correlacin se justica a partir de o o los siguientes resultados. Proposicion. El coeciente de correlacin satisface las siguientes proo piedades. 1. Si X y Y son independientes, entonces (X, Y ) = 0. 2. 1 (X, Y ) 1. 3. |(X, Y )| = 1 si, y slo si, existen constantes a y b tales que, con o probabilidad uno, Y = aX + b, con a > 0 si (X, Y ) = 1, y a < 0 si (X, Y ) = 1.

Cap tulo 3. Vectores aleatorios Demostracin. o

175

1. Si X y Y son independientes, entonces Cov(X, Y ) = 0, y por lo tanto (X, Y ) = 0. 2. Suponga primero que X y Y son tales que E(X) = E(Y ) = 0, y Var(X) = Var(Y ) = 1. Para cualquier valor de , 0 Var(X + Y )

= E(X + Y )2 E 2 (X + Y ) = 1 + 2E(XY ) + 2 .

El caso = 1 produce el resultado E(XY ) 1, mientras que para = 1 se obtiene E(XY ) 1. Es decir, 1 E(XY ) 1. Observe que estas desigualdades tambin pueden ser obtenidas a partir de la e desigualdad de Cauchy-Schwarz. Ahora se aplica este resultado a las variables aleatorias (X X )/X y (Y Y )/Y , que evidentemente son centradas y con varianza unitaria. Entonces 1 E( X X Y Y ) 1. X Y

El trmino de enmedio es (X, Y ). e 3. Si X y Y son tales que Y = aX + b con a = 0 y b constantes, entonces (X, Y ) = Cov(X, aX + b) a = . |a| Var(X)Var(aX + b)

Por lo tanto (X, Y ) = 1 cuando a > 0, y (X, Y ) = 1 cuando a < 0. Inversamente, suponga que X y Y son tales que |(X, Y )| = 1. Dena U = (X X )/X y V = (Y Y )/Y . Entonces claramente E(U ) = E(V ) = 0, y Var(U ) = Var(V ) = 1. Por lo tanto (U, V ) = E(U V ). Es fcil ver tambin que |(U, V )| = |(X, Y )| = 1. Si (U, V ) = 1, a e

176
entonces

3.9. Coeficiente de correlacion

Var(U V ) = E(U V )2 E 2 (U V ) = E(U V )2 = 0. = 2(1 E(U V ))

Esto signica que con probabilidad uno, la variable U V es constante. Esto es, para alguna constante c, con probabilidad uno, U V = c. Pero esta constante c debe ser cero pues E(U V ) = 0. Por lo tanto, X X Y Y = , X Y de donde se obtiene Y = Y + (X X )Y /X . Esto establece una relacin lineal directa entre X y Y . En cambio, si (U, V ) = 1, o entonces Var(U + V ) = E(U + V )2 E 2 (U + V ) = E(U + V )2 = 0. Esto signica nuevamente que con probabilidad uno, la variable U + V es constante. Esto es, para alguna constante c, con probabilidad uno, U + V = c. Nuevamente la constante c es cero pues E(U + V ) = 0. Por lo tanto, X X Y Y = , Y Y de donde se obtiene Y = Y (X X )Y /X . Esto establece una relacin lineal, ahora inversa, entre X y Y . Uniendo los ultimos dos o resultados se obtiene que, cuando |(X, Y )| = 1, con probabilidad uno, Y = [ (X, Y ) Y Y ] X + [ Y (X, Y ) X ]. X X = 2(1 + E(U V ))

Cap tulo 3. Vectores aleatorios

177

Ejercicio. Sean X y Y independientes e idnticamente distribuidas. Dee muestre que (X + Y, X Y ) = 0. Definicion. (Correlacion positiva, negativa o nula). Cuando (X, Y ) = 0 se dice que X y Y son no correlacionadas. Cuando |(X, Y )| = 1 se dice que X y Y estn perfectamente correlacionadas a positiva o negativamente, de acuerdo al signo de (X, Y ). Nuevamente observe que, en general, la condicin (X, Y ) = 0 no es suo ciente para poder armar que X y Y son independientes, excepto en el caso normal. Esto es consecuencia del mismo resultado para la covarianza. Ejercicio. Sea X una variable aleatoria discreta con distribucin uniforme o en el conjunto {2, 1, 1, 2}, y dena Y = X 2 . Demuestre que el coeciente de correlacin entre X y Y es cero, y sin embargo X y Y no son o independientes. Adicionalmente en los ejercicios 380 y 381 de la pgina 208 se muestran sia tuaciones concretas de este mismo resultado tanto en el caso discreto como en el continuo. Sin embargo, cuando la distribucin de (X, Y ) es normal y o (X, Y ) = 0, entonces efectivamente se cumple que X y Y son independientes. Demostraremos esto a continuacin. o Proposicion. Si (X, Y ) es un vector con distribucin normal bivariada o tal que (X, Y ) = 0, entonces X y Y son independientes.

Demostracin. Como veremos ms adelante, la funcin de densidad normal o a o

178

3.9. Coeficiente de correlacion

bivariada est dada por la siguiente expresin: a o f (x, y) = 1 21 2 1 2 1 x 1 y 2 y 2 2 x 1 2 exp ( ) 2( )( )+( ) 2) 2(1 1 1 2 2

2 2 en donde 1 = E(X), 1 = Var(X), 2 = E(Y ), 2 = Var(Y ), y (1, 1). Se pueden calcular directamente las funciones de densidad marginales y comprobar que

f (x) = y f (y) =

1
2 21

2 exp[(x 1 )2 /21 ] 2 exp[(y 2 )2 /22 ],

1
2 22

2 2 es decir, X tiene distribucin N (1 , 1 ), y Y tiene distribucin N (2 , 2 ). o o Despus de hacer algunos clculos sencillos se puede demostrar que el coee a ciente de correlacin entre X y Y es , y comprobar nalmente que cuando o este nmero es cero, se verica la igualdad fX,Y (x, y) = fX (x)fY (y), para u cualesquiera valores reales de x y y.

En resumen tenemos la siguiente tabla.

Cap tulo 3. Vectores aleatorios

179

Propiedades del coeficiente de correlacion

(X, Y ) [1, 1]. |(X, Y )| = 1 si, y slo si, Y = aX + b, con probabilidad uno. o Si X Y, entonces (X, Y ) = 0. En general, (X, Y ) = 0 = X Y . Si (X, Y ) tiene dist. normal y (X, Y ) = 0, entonces X Y .

3.10.

Esperanza y varianza de un vector aleatorio

Los conceptos de esperanza y varianza para una variable aleatoria pueden extenderse al caso de vectores aleatorios de cualquier dimensin de la sio guiente forma. Definicion. (Esperanza y varianza de un vector). Sea X el vector aleatorio (X1 , . . . , Xn ). Cuando cada coordenada del vector tiene esperanza nita se dene la esperanza de X como el vector numrico e E(X) = (E(X1 ), . . . , E(Xn )). Si cada coordenada del vector aleatorio tiene segundo momento nito, entonces la varianza de X se dene como la matriz cuadrada Var(X1 ) Cov(X1 , X2 ) Cov(X1 , Xn ) Cov(X2 , X1 ) Var(X2 ) Cov(X2 , Xn ) Var(X) = . . . . . . . . . . Cov(Xn , X1 ) Cov(Xn , X2 ) Var(Xn )
nn

180

3.10. Esperanza y varianza de un vector aleatorio

La varianza de un vector X puede expresarse como sigue E (X E(X))t (X E(X)) , o en donde X t signica transpuesta del vector rengln X. Observe que (X E(X))t es un vector columna de dimensin n1, mientras que (XE(X)) es o un vector rengln de dimensin 1 n. De modo que el producto de estos dos o o vectores, en el orden indicado, resulta en una matriz cuadrada de dimensin o n n cuya entrada (i, j) es E[(Xi E(Xi ))(Xj E(Xj ))] = Cov(Xi , Xj ). Esta matriz tambin se llama matriz de varianzas y covarianzas, y tiene las e siguientes propiedades. Proposicion. La matriz Var(X) es simtrica y positiva denida. Esto e ultimo signica que para cualquier vector = (1 , . . . , n ) de Rn se cum ple la desigualdad Var(X), 0, en donde , denota el producto interior usual de Rn .

Demostracin. La simetr se sigue de la igualdad Cov(Xi , Xj ) = Cov(Xj , Xi ). o a La propiedad de ser positiva denida se obtiene usando la bilinealidad de la covarianza,
n

Var(X),

=
i,j=1 n

Cov(Xi , Xj )i j Cov(i Xi , j Xj )
i,j=1 n n

= Cov(
i=1 n

i Xi ,
j=1

j Xj )

= Var(
i=1

i Xi ) 0.

Cap tulo 3. Vectores aleatorios

181

Se puede tambin denir la matriz de coecientes de correlacin del vector e o X como sigue (X1 , X1 ) (X1 , Xn ) . . . . (X) = . . (Xn , X1 ) (Xn , Xn )
nn

A esta matriz tambin se le llama matriz de correlacin. Cumple la propiee o dad de ser simtrica y tener todos los elementos de la diagonal iguales a e uno.

3.11.

Distribuciones multivariadas discretas

En esta seccin se estudian algunas distribuciones discretas de vectores aleao torios. Estas distribuciones son ejemplos particulares de medidas de probabilidad sobre Rn , para algn valor natural de n. u Distribucion multinomial. Suponga que se tiene un experimento aleatorio con k posibles resultados distintos. Las probabilidades para cada uno de estos resultados son respectivamente p1 , . . . , pk , en donde p1 + + pk = 1. Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior, y dena las variables aleatorias discretas X1 , . . . , Xk , como aquellas que registran el nmero de veces que se obtienen cada uno u de los k posibles resultados en los n ensayos. Observe que la ultima variable Xk est determinada por las anteriores pues Xk = n X1 Xk1 . a o Entonces se dice que el vector X = (X1 , . . . , Xk1 ) tiene una distribucin multinomial(n, p1 , . . . , pk1 ), y su funcin de densidad es o

f (x1 , . . . , xk1 ) =

n x1 xk 0

px1 pxk 1 k

si x1 , . . . , xk = 0, 1, . . . , n con x1 + + xk = n, otro caso.

182

3.11. Distribuciones multivariadas discretas

Los parmetros de esta distribucin son entonces el nmero de ensayos n, a o u y las k 1 probabilidades p1 , . . . , pk1 . El factor que aparece en parntesis e en la funcin de densidad conjunta se conoce como coeciente multinomial o y se dene como sigue n x1 xk = n! . x1 ! xk !

En particular, se dice que el vector (X1 , X2 ) tiene distribucin trinomial con o parmetros (n, p1 , p2 ) si su funcin de densidad es a o f (x1 , x2 ) = n! px1 px2 (1 p1 p2 )nx1 x2 x1 ! x2 ! (n x1 x2 )! 1 2

para x1 , x2 = 0, 1, . . . , n, tales que x1 + x2 n. En el caso general no es dif comprobar que la distribucin marginal de la cil o variable Xi es bin(n, pi ), para i = 1, . . . , k 1. Puede adems demostrarse a que E(X) = (np1 , . . . , npk1 ), y [Var(X)]ij = npi (1 pi ) npi pj si i = j, si i = j.

Observe que cuando unicamente hay dos posibles resultados en cada ensa yo, es decir k = 2, la distribucin multinomial se reduce a la distribucin o o binomial. Distribucion hipergeomtrica multivariada. Suponga que se tienen e N objetos de los cuales N1 son de un primer tipo, N2 son de un segundo tipo y as sucesivamente con Nk objetos de tipo k. Entonces N1 + + Nk = N . Suponga que de la totalidad de objetos se obtiene una muestra sin reemplazo de tamao n, y dena la variables X1 , . . . , Xk , como aquellas que n representan el nmero de objetos seleccionados de cada tipo. Se dice entonu ces que el vector X = (X1 , . . . , Xk ) tiene una distribucin hipergeomtrica o e

Cap tulo 3. Vectores aleatorios multivariada y su funcin de densidad es o N1 x1 N n Nk xk

183

f (x1 , . . . , xk ) =

en donde cada variable xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a la condicin xi Ni , y en donde adems debe cumplirse que o a x1 + + xk = n. Se dice entonces que el vector (X1 , . . . , Xk ) tiene distribucin hipergeomtrica multivariada (N, N1 , . . . , Nk , n). Observe que cuando o e unicamente hay dos tipos de objetos, es decir k = 2, la distribucin hiper o geomtrica multivariada se reduce a la distribucin hipergeomtrica univae o e riada. En la seccin de ejercicios aparecen expresiones para la esperanza y o varianza de esta distribucin. o

3.12.

Distribuciones multivariadas continuas

Ahora estudiamos algunas distribuciones continuas de vectores aleatorios. Distribucion uniforme bivariada. Se dice que las variables aleatorias continuas X y Y tienen una distribucin conjunta uniforme en el rectngulo o a (a, b) (c, d), si su funcin de densidad es o 1 si x (a, b), y (c, d), (b a)(d c) f (x, y) = 0 otro caso.

Se escribe (X, Y ) unif(a, b) (c, d). Se puede observar inmediatamente que las distribuciones marginales son nuevamente uniformes, adems X y a Y siempre son independientes. Es fcil tambin comprobar que E(X, Y ) = a e ((a + b)/2, (c + d)/2), y que Var(X, Y ) = (b a)2 /12 0 0 (d c)2 /12 .

184

3.12. Distribuciones multivariadas continuas

De manera evidente esta distribucin puede extenderse al caso de n dimeno siones conservndose las mismas propiedades mencionadas. a Distribucion normal bivariada. Se dice que las variables aleatorias continuas X y Y tienen una distribucin normal bivariada si su funcin de o o densidad conjunta es

f (x, y) =

21 2 1 2 1 x 1 2 x 1 y 2 y 2 2 exp ( ) 2( )( )+( ) 2(1 2 ) 2 1 2 2

para cualesquiera valores reales de x y y, y en donde 1 < < 1, 1 > 0, 2 > 0, y 1 , 2 son dos constantes reales sin restriccin. Se escribe entonces o 2 , , 2 , ). Cuando = = 0, y = = 1, la (X, Y ) N(1 , 1 2 2 1 2 1 2 distribucin se llama normal bivariada estndar, y su grca se muestra en o a a la Figura 3.11 cuando = 0. En el siguiente ejercicio se enuncian algunas propiedades de esta distribucin. o f (x, y)

o a Figura 3.11: Funcin de densidad normal bivariada estndar.


2 2 Ejercicio. Sea (X, Y ) un vector con distribucin N(1 , 1 , 2 , 2 , ). Deo muestre que

Cap tulo 3. Vectores aleatorios


2 a) X tiene distribucin marginal N(1 , 1 ). o 2 b) Y tiene distribucin marginal N(2 , 2 ). o

185

c) (X, Y ) = . d) X y Y son independientes si, y slo si, = 0. o e) E(X, Y ) = (1 , 2 ). f) Var(X, Y ) =


2 1 1 2 2 1 2 2

Es interesante observar que existen distribuciones bivariadas con densidades marginales normales, pero cuya distribucin conjunta no lo es. En el o ejercicio 398 en la pgina 211 se presenta un ejemplo al respecto. a Distribucion normal multivariada. Se dice que el vector (X1 , . . . , Xn ) tiene una distribucin normal multivariada si su funcin de densidad es o o f (x) = (2)n/2 1 1 exp [ (x )1 (x )t ], 2 det

u en donde x = (x1 , . . . , xn ) y = (1 , . . . , n ) son dos vectores de nmeros reales, es una matriz de dimensin nn positiva denida, es decir, xxt o 0 para cualquier vector x = (x1 , . . . , xn ) de Rn , y 1 es la matriz inversa de . Como es usual, xt denota el vector transpuesto del vector rengln o x. Cuando n = 1 o n = 2, con adecuada, se obtienen las distribuciones normal univariada y bivariada mencionadas antes.

186

3.13. Ejercicios

3.13.

Ejercicios

Vectores aleatorios
269. Sea (, F , P ) un espacio de probabilidad y sea (X1 , . . . , Xn ) : Rn una funcin tal que cada coordenada es una variable aleatoria. o Demuestre que la siguiente coleccin es una sub -lgebra de B(Rn ). o a {B B(Rn ) : (X1 , . . . , Xn )1 B F }.

Distribucin conjunta o
270. Graque y demuestre que las siguientes funciones son de distribucin. o 1 1 a) F (x, y) = (1 ex )( + tan1 y), para x > 0, y R. 2 b) F (x, y) = 1 ex ey + exy , para x, y > 0. 271. Investigue si las siguientes funciones son de distribucin. o a) F (x, y) = 1 exy , para x, y > 0. b) F (x, y) = 1 exy , para x, y > 0.

272. Demuestre que la siguiente funcin no es de distribucin. Extienda o o este resultado al caso n-dimensional. F (x, y, z) = 0 si x + y + z < 0, 1 si x + y + z 0.

273. Demuestre que la siguiente funcin no es de distribucin. o o F (x, y) = m n{1, mx{x, y}} a 0 si x, y > 0, otro caso.

274. Sean F (x) y G(x) dos funciones de distribucin. Demuestre o proporo cione un contraejemplo para las siguientes armaciones.

Cap tulo 3. Vectores aleatorios a) F (x)G(x) es una funcin de distribucin univariada. o o b) F (x)G(y) es una funcin de distribucin bivariada. o o c) F n (x) es una funcin de distribucin univariada. o o d) F n (x)Gm (y) es una funcin de distribucin bivariada. o o

187

275. Sean X y Y dos variables aleatorias, y sean x y y cualesquiera nmeros u reales. Diga falso o verdadero. Demuestre en cada caso. a) P (X > x, Y > y) = 1 P (X x, Y y). c) P (X x) = P (X x, Y x) + P (X x, Y > x). b) P (X x, Y y) P (X x).

d) P (X + Y x) P (X x). e) P (XY < 0) P (X < 0).

276. Sean X y Y variables aleatorias con funcin de distribucin conjunta o o F (x, y). Demuestre que para cualesquiera nmeros reales a < b y u c < d, P (a < X b, c < Y d) = F (b, d) + F (a, c) F (a, d) F (b, c). 277. Sean X1 , X2 y X3 variables aleatorias con funcin de distribucin cono o junta F (x1 , x2 , x3 ). Demuestre que para cualesquiera nmeros reales u a1 < b1 , a2 < b2 y a3 < b3 , P (a1 < X1 b1 , a2 < X2 b2 , a3 < X3 b3 ) +F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 )

= F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 ) F (a1 , a2 , a3 ). 278. Demuestre que para cualquier vector aleatorio (X, Y ) y para cualquier valor real de u, FX,Y (u, u) = FXY (u), es decir, la funcin de distribuo cin del mximo de dos variables aleatorias es la distribucin conjunta o a o evaluada en la diagonal. Extienda este resultado al caso n-dimensional.

188

3.13. Ejercicios

279. Sea (X, Y ) un vector con funcin de distribucin F (x, y), y con diso o tribuciones marginales F (x) y F (y), respectivamente. Demuestre que para todo x y y en R, F (x) + F (y) 1 F (x, y) F (x)F (y).

280. Cotas de Frchet. Sea (X, Y ) un vector con funcin de distribucin e o o F (x, y), y con distribuciones marginales F (x) y F (y), respectivamente. Demuestre que para todo x y y en R, mx{F (x) + F (y) 1, 0} F (x, y) m a n{F (x), F (y)}. 281. Considere el espacio = (0, 1)(0, 1) junto con la -lgebra B((0, 1) a (0, 1)) y P la medida de probabilidad uniforme sobre . Sea (X, Y ) el vector aleatorio denido sobre este espacio de probabilidad dado por X(1 , 2 ) = 1 2 y Y (1 , 2 ) = 1 2 . Demuestre que (X, Y ) es efectivamente un vector aleatorio y encuentre su funcin de distribuo cin. o

Densidad conjunta
282. Demuestre que la funcin de densidad de un vector (X, Y ) absolutao mente continuo puede ser encontrada, a partir de la funcin de distrio bucin, de las siguientes formas alternativas: o a) f (x, y) = 2 P (X > x, Y > y). xy 2 b) f (x, y) = P (X x, Y > y). xy 2 c) f (x, y) = P (X > x, Y y). xy 1 , ab

283. Graque y demuestre que las siguientes funciones son de densidad. a) f (x, y) = para 0 < x < a, 0 < y < b.

Cap tulo 3. Vectores aleatorios b) f (x, y) = 4xy, para 0 x, y 1.

189

d) f (x, y) = 9x2 y 2 /4, para 1 x, y 1. e) f (x, y) = exy , para x, y > 0. f ) f (x, y) = ex , para 0 < y < x. 284. Calcule la constante c que hace a f una funcin de densidad. o a) f (x) = c x, para 0 x 1.

c) f (x, y) = 6x2 y, para 0 x, y 1.

b) f (x, y) = c x, para 0 < y < x < 1. c) f (x, y) = c (x + y), para 0 x, y 1.

d) f (x, y) = c (1 x)(1 y) para 1 < x, y < 1. e) f (x, y) = c x(y x) para 0 < x < y < 1. f ) f (x, y) = c (x2 + 1 xy), para 0 < x < 1, 0 < y < 2. 2

h) f (x, y, z) = c x(y x)(z y), para 0 < x < y < z < 1.

g) f (x, y, z) = c (x + y + z), para 0 x, y, z 1.

i) f (x1 , . . . , xn ) = c (x1 + + xn ), para 0 x1 , . . . , xn 1.

285. Encuentre la funcin de densidad del vector (X, Y ) cuya funcin de o o distribucin es o 1 1 a) F (x, y) = (1 ex )( + tan1 y), para x > 0, y R. 2 b) F (x, y) = 1 ex ey + exy , para x, y > 0. 286. Encuentre la funcin de distribucin del vector (X, Y ) cuya funcin o o o de densidad es a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = exy , para x, y > 0. c) f (x, y) = ey , para 0 < x < y. d) f (x, y) = 2exy , para 0 < x < y.

190

3.13. Ejercicios

287. Sean f (x) y g(x) dos funciones de densidad. Demuestre o proporcione un contraejemplo para las siguientes armaciones: a) x f (x)g(x) es una funcin de densidad univariada. o 288. Sea (X, Y, Z) un vector con funcin de densidad o f (x, y, z) = 3 e(x+y+z) si x, y, z > 0, 0 otro caso,

b) (x, y) f (x)g(y) es una funcin de densidad bivariada. o

en donde es una constante. Calcule P (X < 1, Y > 2, Z < 3), P (X > 2, Y < 1) y P (X + Y + Z < 1). 289. Sean X y Y independientes ambas con distribucin exp(). Encuentre o la funcin de densidad y de distribucin de las variables X Y y X Y , o o cada una de ellas por separado y despus de manera conjunta. e

Distribucin marginal o
290. Suponiendo el caso absolutamente continuo, demuestre que la funcin o de densidad marginal fX (x) = fX,Y (x, y) dy es efectivamente una funcin de densidad univariada. o 291. Demuestre que la funcin de distribucin marginal o o x FX (x) = l FX,Y (x, y) m
y

es efectivamente una funcin de distribucin univariada. o o 292. Encuentre las funciones de distribucin marginales del vector (X, Y ) o cuya funcin de distribucin es o o a) F (x, y) = (1 ex )(1 ey ), para x, y > 0.
2 2

b) F (x, y) = (1 ex )(1 ey ), para x, y > 0.

Cap tulo 3. Vectores aleatorios

191

293. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya funcin de densidad es o 1 a) f (x, y) = , para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy, para 0 < x, y < 1. d) f (x, y) = (x + 2y)/4, para 0 < x < 2 y 0 < y < 1. e) f (x, y) = 2(4x + y)/5, para 0 < x, y < 1. f ) f (x, y) = 1/x, para 0 < y < x < 1. g) f (x, y) = 3/2, para 0 < y < x2 < 1. h) f (x, y) = 2x/y 2 , para 0 < x < 1 y y > 1. 294. Encuentre la constante c que hace a f una funcin de densidad. Eno cuentre adems las funciones de densidad marginales, la funcin de a o distribucin conjunta asociada y las funciones de distribucin margio o nales. a) f (x, y) = c m n{x, y} para 0 < x, y < 1. para 0 < x, y < 1. b) f (x, y) = c mx{x + y 1, 0} a c) f (x, y) = 24x(1 x y), para x, y > 0 y x + y < 1.

295. Sea 0 < a < 1 y dena la funcin f (x, y) = ax (1 a)y , para x, y = o 1, 2, . . . Demuestre que f (x, y) es una funcin de densidad y calcule las o funciones de densidad y de distribucin marginales. Calcule adems o a FX,Y (x, y). 296. Sean a y b dos constantes positivas. Calcule las densidades marginales del vector (X, Y ) con funcin de densidad uniforme en la regin que o o aparece en la Figura 3.12.

Distribucin condicional o
297. Demuestre que la funcin de distribucin condicional x FX|Y (x|y) = o o x o o fX|Y (u|y) du es efectivamente una funcin de distribucin univariada.

192

3.13. Ejercicios
y b x

a b

Figura 3.12: 298. Demuestre que la funcin de densidad condicional x fX|Y (x|y) = o fX,Y (x, y)/fY (y) es efectivamente una funcin de densidad univariada. o En el caso absolutamente continuo compruebe adems que fX|Y (x|y) = a /x FX|Y (x|y). 299. La distribucion exponencial no tiene memoria. Sea X con distribucin exp() y sea t > 0 jo. Demuestre que la distribucin o o condicional de X t, dado que X t, sigue siendo exp(). 300. Calcule las funciones condicionales fX|Y (x|y) y FX|Y (x|y), para las siguientes funciones de densidad. a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy, para 0 < x, y < 1. c) f (x, y) = 24x(1 x y), para x, y > 0 y x + y < 1.

d) f (x, y) = (x + 2y)/4, para 0 < x < 2 y 0 < y < 1. e) f (x, y) = 2(4x + y)/5, para 0 < x, y < 1. f ) f (x, y) = 1/x, para 0 < y < x < 1. g) f (x, y) = xy/25, para 0 < x < 2, 0 < y < 5.

301. Calcule las funciones condicionales FX | Y (x | y) y fX | Y (x | y), para las siguientes funciones de distribucin conjunta. o 1 1 a) F (x, y) = (1 ex )( + tan1 y), para x 0. 2

Cap tulo 3. Vectores aleatorios b) F (x, y) = 1 ex ey + exy , para x, y 0.

193

302. Se hacen tres lanzamientos de una moneda equilibrada cuyos resultados llamaremos cara y cruz. Sea X la variable que denota el nmero de u caras que se obtienen en los dos primeros lanzamientos, y sea Y la variable que denota el nmero de cruces en los dos ultimos lanzamientos. u Calcule fX,Y (x, y), fX (x), fY (y) y fY |X (y|x) para x = 0, 1, 2. 303. Sea (X, Y ) un vector con funcin de densidad f (x, y) = (x + y)/8, o para 0 x, y 2, con grca como se muestra en la Figura 3.13. a Compruebe que f (x, y) es una funcin de densidad y calcule o

f (x, y) y

Figura 3.13: Funcin de densidad f (x, y) = (x + y)/8, para x, y [0, 2]. o a) fX (x). b) fY (y). c) FX,Y (x, y). d) FX (x). e) FY (y). f) fX|Y (x|y). g) fY |X (y|x). h) FX|Y (x|y). j) P (Y > X). k) P (X > 1 | Y < 1). l) P (X > 1). m) P (X + Y > 1). n) P (|X Y | > 1). i) FY |X (y|x).

194

3.13. Ejercicios

304. Sea (X, Y ) un vector con funcin de densidad f (x, y) = 8xy, para o 0 < x < y < 1. Graque y compruebe que f (x, y) es una funcin de o densidad. Calcule adems a a) fX (x). b) fY (y). c) FX,Y (x, y). d) FX (x). e) FY (y). f) fX|Y (x|y). g) fY |X (y|x). h) FX|Y (x|y). j) P (Y < 1/2, X < 1/2). l) P (XY < 1). m) P (X + Y < 1). k) P (Y > 1/2 | X > 1/2). i) FY |X (y|x).

n) P (|X Y | < 1).

305. Sea (X, Y ) un vector con funcin de densidad f (x, y) = 1 (x+y) exy , o 2 para x, y > 0, cuya grca aparece en la Figura 3.14. Compruebe que a f (x, y) es una funcin de densidad y calcule o f (x, y)

x Figura 3.14: Funcin de densidad f (x, y) = 1 (x + y) exy , para x, y > 0. o 2

Cap tulo 3. Vectores aleatorios a) fX (x). b) fY (y). c) FX,Y (x, y). d) FX (x). e) FY (y). f) fX|Y (x|y). g) fY |X (y|x). h) FX|Y (x|y). j) P (0 < X < 1, 0 < Y < 1). k) P (Y > 2 | X < 1). l) P (XY < 1). m) P (X + Y > 1). n) P (|X Y | < 1). i) FY |X (y|x).

195

306. Sea (X, Y ) un vector con funcin de densidad f (x, y) = 4x(1 y), o para 0 < x, y < 1, cuya grca se muestra en la Figura 3.15. a

f (x, y)

Figura 3.15: Funcin de densidad f (x, y) = 4x(1 y), para 0 < x, y < 1. o Compruebe que f (x, y) es efectivamente una funcin de densidad y o calcule

196
a) fX (x). b) fY (y). c) FX,Y (x, y). d) FX (x). e) FY (y). f) fX|Y (x|y). g) fY |X (y|x).

3.13. Ejercicios h) FX|Y (x|y). j) P (X > 1/2). k) P (1/4 < Y < 3/4 | X < 1/2). l) P (Y > X 2 ). n) P (|X 2Y | < 1). m) P (2X Y > 1). i) FY |X (y|x).

307. Sea (X, Y ) un vector con funcin de densidad f (x, y) = 3y, para o 0 < x < y < 1. Compruebe que f (x, y) es efectivamente una funcin o de densidad y calcule a) P (X + Y < 1/2). b) fX (x) y fY (y). c) E(Y ) y E(Y | X = x). 308. Sea (X, Y ) un vector con distribucin uniforme en el conjunto {1, . . . , 6} o {1, . . . , 6}. Calcule a) P (X = Y ). b) P (X + Y 6). c) fX (x) y fY (y). d) E(X | X + Y = 6). 309. Sea (X, Y ) un vector con funcin de densidad dada por la siguiente o tabla x\y -1 0 1 1 .3 .05 .05 2 .05 .2 .05 3 .1 .1 .1 Calcule a) P (X = 2), P (X + Y = 1) y P (Y X).

Cap tulo 3. Vectores aleatorios b) fX (x) y fY (y). d) E(Y | X = x) para x = 1, 2, 3. c) fY | X (y | x) para x = 1, 2, 3.

197

310. Sean X y Y independientes ambas con distribucin exp(). Demuestre o que la distribucin condicional de X dado que X + Y = u, es uniforme o en el intervalo (0, u). 311. Sean A y B dos eventos con probabilidad positiva y sea X una variable con esperanza nita. Demuestre o proporcione un contraejemplo. a) Si A B, entonces E(X | A) E(X | B). b) E(X | A) E(X).

Independencia de variables aleatorias


312. Sean X y Y variables aleatorias discretas con valores en los conjuntos {x1 , x2 , . . .} y {y1 , y2 , . . .}, respectivamente. Demuestre que X y Y son independientes si, y slo si, para cualesquiera valores de los o ndices i, j = 1, 2, . . . P (X = xi , Y = yj ) = P (X = xi ) P (Y = yj ). 313. Sea (X, Y ) un vector aleatorio absolutamente continuo con funcin de o densidad fX,Y (x, y). Demuestre que las variables X y Y son independientes si, y slo si, para casi todo par de nmeros x y y se cumple o u fX,Y (x, y) = fX (x) fY (y). 314. Demuestre la variable aleatoria constante es independiente de cualquier otra variable aleatoria. Inversamente, suponga que X es independiente de cualquier otra variable aleatoria, demuestre que X es constante. 315. Demuestre que los eventos A y B son independientes si, y slo si, las o variables aleatorias indicadoras 1A y 1B lo son.

198

3.13. Ejercicios

316. Demuestre que si tres variables aleatorias son independientes, entonces cualesquiera dos de ellas lo son. Ms generalmente, demuestre que a cualquier subconjunto nito de un conjunto de variables aleatorias independientes tambin lo es. e 317. Sean X y Y independientes. Demuestre que cada uno de los siguientes pares de variables aleatorias tambin son independientes. El siguiente e ejercicio generaliza este resultado. a) X y Y . b) |X| y |Y |.

318. Sean X1 , . . . , Xn independientes, y sean g1 , . . . , gn : R R funciones Borel medibles. Demuestre que las variables g1 (X1 ), . . . , gn (Xn ) son independientes. 319. Demuestre que las variables aleatorias X1 , . . . , Xn son independientes si, y slo si, para cualquier vector (x1 , . . . , xn ) en Rn se cumple o FX1 ,...,Xn (x1 , . . . , xn ) = FX1 (x1 ) FXn (xn ). 320. Sean X1 , . . . , Xn independientes, y sea 1 k < n. Sean g : Rk R y h : Rnk R funciones Borel medibles. Demuestre que las variables aleatorias g(X1 , . . . , Xk ) y h(Xk+1 , . . . , Xn ) son independientes. 321. Sean X y Y dos variables aleatorias independientes. Recuerde las dea n{0, X}. Demuestre que cada niciones X + = mx{0, X} y X = m uno de los siguientes pares de variables aleatorias tambin son indee pendientes. a) X + y Y + . b) X + y Y . c) X y Y + . d) X y Y .

322. Determine si las siguientes son funciones de densidad de variables aleatorias independientes. a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = 2x, para 0 < x, y < 1. c) f (x, y) = 2exy , para 0 < x < y.

Cap tulo 3. Vectores aleatorios d) f (x, y) = exy , para x, y > 0. e) f (x, y) = 3(x2 + y 2 )/8, para x, y [1, 1]. f ) f (x, y) = 3x(1 xy), para 0 < x, y < 1.

199

323. Determine si las siguientes son funciones de distribucin de variables o aleatorias independientes. a) F (x, y) = (1 ex )(1 ey ), para x, y > 0.
2 2

b) F (x, y) = (1 ex )(1 ey ), para x, y > 0.

324. Demuestre que X y Y son independientes si, y slo si, cualquiera de o las siguientes condiciones se cumple: Para cada par de nmeros reales u x y y, a) P (X > x, Y > y) = P (X > x) P (Y > y). b) P (X x, Y > y) = P (X x) P (Y > y). c) P (X > x, Y y) = P (X > x) P (Y y). 325. Demuestre que X y Y son independientes si, y slo si, para cualeso quiera nmeros reales a < b y c < d, u P (a < X b, c < Y d) = P (a < X b) P (c < Y d). 326. Diga falso o verdadero. Demuestre en cada caso. a) X, Y independientes X, Y 2 independientes.

b) X, Y independientes X 2 , Y 2 independientes.

d) X, Y independientes X + Y, X Y independientes. e) X, Y independientes XY, Y independientes. f ) X, Y, Z independientes X + Y, Z independientes.

c) X, Y independientes X + Y, Y independientes.

g) X, Y, Z independientes XY, Z independientes.

200

3.13. Ejercicios

327. Sean X y Y independientes ambas con distribucin normal estndar. o a Demuestre que Z = aX + bY + c tiene distribucin normal cuando o ab = 0. Encuentre la esperanza y varianza de Z. 328. Sean X1 , . . . , Xn variables aleatorias independientes cada una con distribucin Ber(p). Calcule P (X1 + + Xn = k) para k = 0, 1, . . . , n. o 329. Sean X y Y independientes ambas con distribucin unif{1, . . . , n}. Eno cuentre la distribucin del vector (U, V ) = (X + Y, X Y ). Determine o adems si las variables U y V son independientes. a 330. Sean X y Y independientes con valores enteros naturales y con esperanza nita. Demuestre que E(m n{X, Y }) =
n=1

P (X n)P (Y n).

331. Sean X y Y independientes con distribucin Poisson de parmetros o a 1 y 2 respectivamente. Demuestre que la distribucin condicional o de X dado que X + Y = n es bin(n, 1 /(1 + 2 )). 332. Encuentre la funcin de densidad de X + Y cuando X y Y son indeo pendientes con distribucin uniforme en los conjuntos {0, 1, . . . , n} y o {0, 1, . . . , m} respectivamente. 333. Sean X1 , . . . , Xn independientes con distribucin geo(p). Demuestre o que la variable X1 + + Xn tiene distribucin bin neg(n, p). o 334. Sean X y Y independientes. Encuentre la funcin de distribucin de o o Z en trminos de FX (x) y FY (y) cuando e a) Z = mx{X, Y }. a b) Z = m n{X, Y }.

335. Sean X y Y independientes ambas con distribucin exp(), y sea a o una constante. Calcule P (mx{X, Y } aX) y P (m a n{X, Y } aX). 336. Sean X y Y independientes con distribucin exp(1 ) y exp(2 ) reso pectivamente. Demuestre que P (Y > X) = 1 /(1 + 2 ).

Cap tulo 3. Vectores aleatorios

201

337. Sean X y Y independientes e idnticamente distribuidas. Demuestre e que P (Y > X) = 1/2. 338. Sean X y Y variables independientes con distribucin exponencial o con parmetros 1 y 2 respectivamente. Demuestre que m a n{X, Y } tiene distribucin exponencial con parmetro 1 + 2 , y que P (X1 = o a m n{X1 , X2 }) = 1 /(1 + 2 ). Este resultado puede extenderse al caso de n variables independientes exponenciales. 339. Usando la siguiente tabla, construya una funcin de densidad f (x, y) o de un vector discreto (X, Y ), distinta de la densidad uniforme, con la condicin de que X y Y sean independientes. o x\y 0 1 0 1

340. Sea (X, Y ) un vector discreto con distribucin de probabilidad uniforo me en el conjunto {1, . . . , n}{1, . . . , m}, con n y m enteros positivos. Demuestre que X y Y son independientes. 341. Sea (X, Y ) un vector con funcin de densidad f (x, y) = c (1 x), para o 0 < x < y < 1. a) Encuentre el valor de c que hace a f (x, y) una funcin de densidad o y graque esta funcin. o b) Calcule P (X + Y > 1) y P (X 1/2). c) Encuentre las funciones de densidad marginales fX (x) y fY (y).

d) Determine si X y Y son independientes. 342. Sea (X, Y ) un vector aleatorio con funcin de densidad f (x, y) = o c/2x+y , para x = 0, 1, 2, y y = 1, 2. Encuentre el valor de la constante c y determine si X y Y son independientes. Calcule adems las a probabilidades P (X = 1), P (X = 2 | Y = 2) y P (XY = 2). 343. Sea (X, Y ) un vector aleatorio con funcin de densidad f (x, y) = 2, o para 0 < x < y < 1.

202

3.13. Ejercicios a) Graque y demuestre que f (x, y) es una funcin de densidad. o b) Encuentre las funciones de densidad marginales fX (x) y fY (y). c) Determine si X y Y son independientes. d) Calcule P (Y > X) y P (Y > X 2 ).

344. Sea (X, Y ) un vector con funcin de densidad f (x, y) = c |x + y|, para o 1 < x, y < 1. a) Encuentre el valor de la constante c que hace a f (x, y) una funcin o de densidad y graque esta funcin. o b) Calcule P (X > 0), P (XY > 0) y P (0 < X + Y < 1). c) Encuentre las funciones de densidad marginales fX (x) y fY (y). d) Determine si X y Y son independientes. 345. Sean X y Y independientes con distribucin bin(n, p) y bin(m, p), o respectivamente. Demuestre que X+Y tiene distribucin bin(n+m, p). o 346. Sean X y Y independientes con distribucin Poisson con parmetros o a 1 y 2 respectivamente. Demuestre que X + Y tiene distribucin o Poisson(1 + 2 ). 347. Sea (X, Y, Z) un vector aleatorio con funcin de densidad f (x, y, z) = o 8xyz, para 0 < x, y, z < 1. a) Compruebe que f (x, y, z) es una funcin de densidad. o b) Calcule P (X < Y < Z) y P (X + Y + Z < 1). c) Encuentre fX,Y (x, y), fX,Z (x, z) y fY,Z (y, z). d) Determine si X, Y y Z son independientes. 348. Sea (X, Y, Z) un vector aleatorio con funcin de densidad f (x, y, z) = o 24x, para 0 < x < y < z < 1. a) Compruebe que f (x, y, z) es una funcin de densidad. o b) Calcule P (X + Y < 1) y P (Z X > 1/2).

Cap tulo 3. Vectores aleatorios c) Encuentre fX,Y (x, y), fX,Z (x, z) y fY,Z (y, z). d) Determine si X, Y y Z son independientes.

203

349. Sea X1 , X2 , . . . una sucesin de variables aleatorias independientes o cada una con distribucin unif(0, 1). Demuestre que para cualquier o > 0, a l P (mx{X1 , . . . , Xn } 1 /n) = e . m
n

350. Sean X y Y independientes con distribucin Poisson de parmetros o a 1 y 2 respectivamente. Demuestre que E(X | X + Y = n) = n 1 . 1 + 2

351. Encuentre una distribucin conjunta de dos variables aleatorias X y o Y que no sean independientes y que Y tenga distribucin marginal o Ber(p).

Esperanza de una funcin de un vector aleatorio o


352. Demuestre que la condicin E(XY ) = E(X)E(Y ) no implica necesao riamente que X y Y son independientes. Para ello considere cualquiera de los siguientes ejemplos. 1/8 si (x, y) = (1, 1), (1, 1), (1, 1), (1, 1), a) f (x, y) = 1/2 si (x, y) = (0, 0), 0 otro caso. b) f (x, y) = 3(x2 + y 2 )/8, para x, y [1, 1]. c) X con distribucin uniforme en {1, 0, 1} y Y = 1(X=0) . o 353. Demuestre que si las variables X1 , . . . , Xn son independientes e integrables, entonces E(X1 Xn ) = E(X1 ) E(Xn ). 354. Sean X y Y independientes. Diga falso o verdadero justicando en cada caso.

204

3.13. Ejercicios a) Var(X + Y ) = Var(X) + Var(Y ). b) Var(X Y ) = Var(X) Var(Y ). c) Var(XY ) = Var(X)Var(Y ).

355. Sean X y Y variables aleatorias independientes con varianza nita. Demuestre que Var(XY ) = Var(X) Var(Y ) + E 2 (X) Var(Y ) + E 2 (Y ) Var(X). 356. Sean X1 , . . . , Xn independientes con idntica distribucin y con espee o ranza nita. Demuestre que si x es tal que fX1 ++Xn (x) = 0, entonces E(X1 | X1 + + Xn = x) = x . n

357. Sea (X, Y ) un vector aleatorio discreto con funcin de densidad f (x, y) o dada por la siguiente tabla. x\y 1 2 3 -1 .1 .06 .1 0 .05 .2 .05 1 .1 .04 .3

a) Graque f (x, y) y compruebe que efectivamente se trata de una funcin de densidad conjunta. o b) Calcule y graque las densidades marginales fX (x) y fY (y). Verique que ambas funciones son efectivamente de densidad. c) Demuestre que X y Y no son independientes. d) Calcule E(XY ) y fX+Y (u). 358. Sea (X, Y ) un vector discreto con siguiente tabla. x\y 2 1 2/18 2 3/18 3 1/18 funcin de densidad dada por la o 4 3/18 5/18 1/18 6 1/18 1/18 1/18

Cap tulo 3. Vectores aleatorios

205

a) Graque f (x, y) y compruebe que efectivamente es una funcin o de densidad conjunta. b) Calcule y graque las densidades marginales fX (x) y fY (y). Verique que ambas son efectivamente funciones de densidad. c) Demuestre que X y Y no son independientes. d) Calcule E(XY ) y fX+Y (u). 359. Sea (X, Y ) un vector aleatorio con funcin de densidad dada por o f (x, y) = 8xy si 0 < y < x < 1, 0 otro caso.

a) Graque f (x, y) y compruebe que efectivamente es una funcin o de densidad conjunta. b) Encuentre y graque las densidades marginales fX (x) y fY (y). Verique que ambas son efectivamente funciones de densidad. c) Demuestre que X y Y no son independientes. d) Calcule E(XY ) y fX+Y (u).

Esperanza y varianza de un vector


360. Calcule la esperanza y varianza del vector aleatorio (X, Y ) cuya funcin de densidad conjunta es o a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy, para x, y [0, 1].

Covarianza
361. Sea a cualquier nmero real jo. Encuentre variables aleatorias X y u Y tales que Cov(X, Y ) = a,

206

3.13. Ejercicios

362. Diga falso o verdadero. Demuestre en cada caso. a) X 0, Y 0 Cov(X, Y ) 0.

d) Cov(X, Y ) = a, Cov(Y, Z) = a Cov(X, Z) = a. 363. Diga falso o verdadero. Demuestre en cada caso. a) Cov(X, Y ) 0.

c) Cov(X, Y ) > 0, Cov(Y, Z) > 0 Cov(X, Z) > 0.

b) Cov(X, Y ) = 0, Cov(Y, Z) = 0 Cov(X, Z) = 0.

b) Cov(aX, bY ) = ab Cov(X, Y ), con a, b constantes. c) Cov(X, aY + b) = a Cov(X, Y ) + b, con a, b constantes.

364. Demuestre que a) Cov(X, Y ) = E(XY ) E(X)E(Y ). b) Cov(X, Y ) = Cov(Y, X). c) Cov(X, X) = Var(X). d) Cov(X, X) = Var(X). e) Cov(aX + b, Y ) = a Cov(X, Y ), con a, b constantes. f ) Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ). 365. Demuestre que la condicin Cov(X, Y ) = 0 no es suciente para cono cluir que X y Y son independientes. En el texto se proporciona un ejemplo para un vector discreto, construya ahora un ejemplo para un vector continuo. 366. Demuestre que Var(X Y ) = Var(X) + Var(Y ) 2 Cov(X, Y ). 367. Demuestre que
n

a) Var(X1 + + Xn ) =

Var(Xk ) + 2
k=1 j<k

Cov(Xj , Xk ).

Cap tulo 3. Vectores aleatorios


n m n m

207

b) Cov(
i=1

ai Xi ,
j=1

bj Yj ) =
i=1 j=1

ai bj Cov(Xi , Yj ).

368. Sean X1 , . . . , Xn independientes y con varianza nita. Demuestre que


n

Var(X1 + + Xn ) =

Var(Xk ).
k=1

e o 369. Sean X1 , . . . , Xn independientes y con idntica distribucin. Dena X = (X1 + + Xn )/n. Demuestre que para cada k = 1, . . . , n, Cov(Xk X, X) = 0. 370. Sea (X, Y ) con distribucin uniforme en el conjunto {1, . . . , n}{1, . . . , n}. o Demuestre que Cov(X, Y ) = 0. 371. Sea (X, Y ) con distribucin uniforme en el conjunto (a, b) (c, d). o Demuestre que Cov(X, Y ) = 0. 372. Calcule la covarianza de X y Y cuya funcin de densidad conjunta o est dada por la siguiente tabla. a x\y -1 1 -1 1/12 3/12 0 2/12 2/12 1 3/12 1/12

373. Calcule la covarianza de X y Y cuya funcin de densidad conjunta o est dada por la siguiente tabla. a x\y 2 4 6 1 .2 .05 .05 2 .05 .1 .1 3 .15 .15 .15

374. Calcule la covarianza de X y Y , cuya funcin de densidad conjunta es o a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab

208

3.13. Ejercicios b) f (x, y) = 3x2 y, para 1 < x < 1, 0 < y < 1. d) f (x, y) = exy , para x, y > 0. c) f (x, y) = ex /2, para |y| < x.

2 2 375. Sea (X, Y ) un vector con distribucin normal N(X , X , Y , Y , ). o Demuestre que Cov(X, Y ) = X Y .

Coeciente de correlacin o
376. Demuestre nuevamente que 1 (X, Y ) 1, ahora a partir de la desigualdad de Cauchy-Schwarz. 377. Diga falso o verdadero. Demuestre en cada caso. a) (X, Y ) = 0, (Y, Z) = 0 (X, Z) = 0. b) (X, Y ) > 0, (Y, Z) > 0 (X, Z) > 0. c) (X, Y ) < 0, (Y, Z) < 0 (X, Z) < 0.

d) (X, Y ) = 1, (Y, Z) = 1 (X, Z) = 1. f ) (X, Y )(Y, Z) = 1 (X, Z) = 1.

e) (X, Y ) = 1, (Y, Z) = 1 (X, Z) = 1.

g) (X, Y ) = a, (Y, Z) = a (X, Z) = a. 378. Diga falso verdadero. Demuestre en cada caso. a) (X, Y ) = (Y, X). b) (X + a, Y ) = (X, Y ), a constante. c) (aX + b, Y ) = a (X, Y ) + b, a, b constantes. 379. Sea a un nmero cualquiera en [1, 1]. Encuentre variables aleatorias u X y Y tales que (X, Y ) = a. 380. Sean X y Y independientes con distribucin Ber(p) con p = 1/2. o Demuestre que el coeciente de correlacin entre X + Y y |X Y | es o cero, y sin embargo estas variables aleatorias no son independientes.

Cap tulo 3. Vectores aleatorios

209

381. Sea X con distribucin normal estndar. Demuestre que el coeciente o a de correlacin entre X y X 2 es cero, y sin embargo estas variables no o son independientes. Este resultado puede extenderse al caso en el que la distribucin de X cumple la condicin E(X) = E(X 3 ) = 0. o o 382. Sea X una variable aleatoria y sean a y b constantes. Demuestre que a) (X, X) = 1. b) (X, X) = 1. c) (X, aX + b) = signo(a). 383. Demuestre que (aX + b, cY + d) = ac = 0. Recuerde que +1 signo(x) = 1 0 signo(ac) (X, Y ), en donde si x > 0, si x < 0, si x = 0.

384. Calcule el coeciente de correlacin de X y Y cuya funcin de densidad o o conjunta est dada por la siguiente tabla. a x\y 0 1 1 1/8 1/2 2 1/4 1/8

385. Calcule el coeciente de correlacin de X y Y cuya funcin de densidad o o conjunta est dada por la siguiente tabla. a x\y 2 4 6 1 1/9 1/9 1/9 2 1/9 1/9 1/9 3 1/9 1/9 1/9

386. Calcule el coeciente de correlacin de X y Y con distribucin cono o junta uniforme en el conjunto

210

3.13. Ejercicios a) {1, . . . , n} {1, . . . , n}. b) [1, 1] [1, 1].

387. Sea X con distribucin bin(n, p) y sea Y = n X. Demuestre que o Cov(X, Y ) = np(1 p), y por lo tanto (X, Y ) = 1. 388. Calcule el coeciente de correlacin de X y Y cuya funcin de densidad o o conjunta es a) f (x, y) = b) f (x, y) = c) f (x, y) =
1 2 sen(x ex /2,

+ y), para x, y [0, /2]. para |y| < x. para x, y > 0.

exy ,

2 2 389. Sea (X, Y ) un vector con distribucin normal N(X , X , Y , Y , ). o Demuestre que (X, Y ) = .

Distribucin multinomial o
390. Demuestre que la funcin de densidad de la distribucin multinomial o o efectivamente lo es. 391. Sea (X1 , . . . , Xk1 ) un vector con distribucin multinomial de parmeo a tros (n, p1 , . . . , pk1 ). Demuestre que cada coordenada Xi tiene distribucin marginal bin(n, pi ), para i = 1, . . . , k 1. o 392. Sea X = (X1 , . . . , Xk1 ) un vector con distribucin multinomial de o parmetros (n, p1 , . . . , pk1 ). Demuestre que E(X) = (np1 , . . . , npk1 ) a y que npi (1 pi ) si i = j, [Var(X)]ij = npi pj si i = j. Observe que en el caso i = j, el signo negativo en la covarianza indica que cuando una variable crece la otra decrece.

Cap tulo 3. Vectores aleatorios

211

Distribucin hipergeomtrica multivariada o e


393. Demuestre que la funcin de densidad de la distribucin hipergeomtrio o e ca multivariada efectivamente lo es. 394. Sea (X1 , . . . , Xk ) un vector con distribucin hipergeomtrica multivao e riada con parmetros (N, N1 , . . . , Nk , n). Demuestre que cada coordea nada Xi tiene distribucin hipergeomtrica univariada con parmetros o e a (N, Ni , n), para i = 1, . . . , k. 395. Sea X = (X1 , . . . , Xk ) con distribucin hipergeomtrica multivariada o e con parmetros (N, N1 , . . . , Nk , n). Demuestre que a E(X) = (nN1 /N, . . . , nNk /N ), y que n Ni N Ni N n si i = j, N N N 1 [Var(X)]ij = n Ni Nj n N si i = j. N N N 1

Distribucin normal bivariada o

396. Demuestre que la funcin de densidad de la distribucin normal bivao o riada efectivamente lo es.
2 2 397. Sea (X, Y ) un vector con distribucin normal N(1 , 1 , 2 , 2 , ). Deo 2 ), y Y tiene distrimuestre que X tiene distribucin marginal N(1 , 1 o 2 bucin marginal N(2 , 2 ). Vase el siguiente ejercicio para vericar o e que el rec proco de este resultado es falso.

398. Sea f (x, y) la funcin de densidad normal bivariada estndar con = o a 0. Dena 2f (x, y) si xy < 0, g(x, y) = 0 si xy 0. Demuestre que g(x, y) es una funcin de densidad bivariada que no es o normal pero cuyas densidades marginales son normales estndar. a

212

3.13. Ejercicios

2 2 399. Sea (X, Y ) un vector con distribucin normal (X , X , Y , Y , ). Deo muestre que E(X) = (X , Y ), y

Var(X, Y ) =

2 X X Y

X Y 2 Y

2 2 400. Sea (X, Y ) un vector con distribucin normal N(1 , 1 , 2 , 2 , ). Deo muestre que la distribucin condicional de Y dado que X = x es o 2 normal con media 2 + (x 1 )2 /1 y varianza 2 (1 2 ), y que la distribucin condicional de X dado que Y = y es normal con media o 2 1 + (y 2 )1 /2 y varianza 1 (1 2 ).

401. Demuestre que a travs del cambio de variable (u, v) = ((xX )/X , (y e o Y )/Y ), la funcin de densidad normal bivariada se puede escribir como sigue f (u, v) = 1 2 1 2 exp ( 1 1 (u v)2 v 2 ). 2) 2(1 2

Sea c > 0 y dena k = 1/(2c 1 2 ). Demuestre ahora que las l neas de contorno f (u, v) = c son las elipses (u v)2 v2 = 1. 2) + ln k2 ln k2(1 Cuando = 0 las elipses se reducen al c rculo u2 + v 2 = ln k2 .

Cap tulo 4

Esperanza condicional

En este cap tulo se presenta una breve introduccin al concepto de espeo ranza condicional de una variable aleatoria respecto de una -lgebra, y a se estudian algunas de sus propiedades elementales. Consideraremos que se cuenta con un espacio de probabilidad base (, F , P ), y que G es una sub -lgebra de F . Hemos denido antes la esperanza de una variable aleatoria a X como la integral de Riemann-Stieltjes E(X) =

x dFX (x),

sin embargo, para hacer la notacin ms simple en este cap o a tulo, es conveniente en algunas ocasiones adoptar la notacin de la teor de la medida o a y denotar la esperanza de una variable aleatoria X mediante la siguiente integral E(X) =

X dP.

Esto corresponde a la integral de Lebesgue de la funcin medible X respecto o de la medida de probabilidad P . Recordemos que si se conoce la distribucin de un vector (X, Y ) y se toma o un valor y tal que fY (y) = 0, la esperanza condicional de X dado Y = y es

213

214
la funcin o

4.1. Esperanza condicional

y E(X | Y = y) =

x dFX|Y (x|y),

cuando fY (y) = 0. De manera anloga, si A es un evento con probabilidad a positiva y X es una variable aleatoria integrable, la esperanza condicional de X dado A es el nmero u E(X | A) =

x dFX|A (x),

en donde FX|A (x) = P (X x | A) = P (X x, A)/P (A). La esperanza condicional que deniremos en este cap tulo generaliza estos conceptos.

4.1.

Esperanza condicional

He aqui la denicin general. Es importante hacer nfasis que la esperanza o e condicional, a pesar de su nombre, no es un nmero, aunque puede serlo, u sino una variable aleatoria. Definicion. (Esperanza condicional). Sea X una variable aleatoria con esperanza nita, y sea G una sub--lgebra de F . La esperanza cona dicional de X dado G , es una variable aleatoria denotada por E(X | G ), que cumple las siguientes tres propiedades. a) Es G -medible. b) Tiene esperanza nita. c) Para cualquier evento G en G , E( X | G ) dP = X dP.
G

(4.1)

Cap tulo 4. Esperanza condicional

215

Parte de la dicultad para entender esta denicin general es que no se proo porciona una frmula expl o cita para esta variable aleatoria sino unicamente las propiedades que cumple. El objetivo de este cap tulo es encontrar el signicado de esta variable aleatoria, interpretar su signicado y explicar su relacin con el concepto de esperanza condicional elemental, E(X | Y = y), o mencionado antes. Haremos lo anterior principalmente en el caso cuando la -lgebra G es generada por una variable aleatoria discreta. a Usando el teorema de Radon-Nikodym (vase por ejemplo [5]), puede dee mostrarse que esta variable aleatoria existe y es unica casi seguramente, esto signica que si existe otra variable aleatoria que cumple las tres propiedades de la denicin anterior, entonces con probabilidad uno coincide con o E(X | G ). En lo sucesivo cuando se establezca que esta variable aleatoria es igual a alguna otra variable, la igualdad debe entonces entenderse en el sentido casi seguro, es decir, que la igualdad se verica con probabilidad uno. Notacion. a) Cuando la -lgebra G es igual a (Y ), para alguna variable aleaa toria Y , la esperanza condicional se escribe simplemente como E(X | Y ), en lugar de E(X | (Y )). b) Si A es un evento, entonces la esperanza condicional E(1A | G ) se denota por P (A | G ). En la siguiente seccin estudiaremos con ms detalle la variable E(X | Y ) o a cuando Y es una variable aleatoria discreta.

216

4.2. Esperanza condicional: caso discreto

4.2.

Esperanza condicional: caso discreto

Sean X y Y dos variables aleatorias. Suponga que X tiene esperanza nita y que Y es discreta con posibles valores y1 , y2 , . . . La esperanza condicional de X dado el evento (Y = yj ) es el nmero E(X | Y = yj ). Este valor depende u naturalmente del evento (Y = yj ), y podemos considerar que es una funcin o o de los posibles valores yj , o bien que tenemos una funcin denida sobre el espacio muestral de la siguiente forma: Si es tal que Y () = yj , entonces E(X | Y )() = E(X | Y = yj ). Observe que E(X | Y ) toma a lo sumo tantos valores distintos como lo hace la variable Y . Globalmente se puede escribir esta funcin en trminos de o e funciones indicadoras como sigue E(X | Y )() =
j=1

E(X | Y = yj ) 1(Y =yj ) ().

De este modo se construye la funcin E(X | Y ) : R, que resulta ser o una variable aleatoria, y corresponde a un caso particular de la denicin o general enunciada antes. Demostraremos esto a continuacin. o

Cap tulo 4. Esperanza condicional

217

Proposicion. (Esperanza condicional, caso discreto). Sea X una variable aleatoria integrable, y sea Y discreta con valores y1 , y2 , . . . La funcin E(X | Y ) : R dada por o E(X | Y )() = E(X | Y = yj ) si Y () = yj , es una variable aleatoria que cumple las siguientes propiedades. a) Es (Y )-medible. b) Tiene esperanza nita. c) Para cualquier evento G en (Y ), E( X | Y ) dP = X dP.
G

(4.2)

Demostracin. o a) A travs de sus posibles valores la variable aleatoria Y secciona el ese pacio muestral en eventos disjuntos, a saber, (Y = y1 ), (Y = y2 ), . . . La m nima -lgebra respecto de la cual la funcin Y es variable aleaa o toria es (Y ) = {(Y = y1 ), (Y = y2 ) . . .} F . Como E(X | Y ) es constante en cada elemento de la particin, resulta que esta funcin o o es (Y )-medible, y en consecuencia es verdaderamente una variable aleatoria. b) Tomando el evento G como en la tercera propiedad se obtiene que tanto X como E(X | Y ) tienen la misma esperanza. c) Como cada elemento de (Y ) es una unin ajena de elementos de la o forma (Y = yj ), por propiedades de la integral es suciente demos-

218

4.2. Esperanza condicional: caso discreto trar (4.2) para estos eventos simples. Tenemos entonces que
(Y =yj )

E(X | Y )() dP () = E(X | Y = yj ) P (Y = yj ) =

X() dP ( | Y = yj ) P (Y = yj ) X() dP (, Y = yj )

=
(Y =yj )

X() dP ().

Observe la diferencia entre E(X | Y = yj ) y E(X | Y ). El primer trmino es e un posible valor numrico del segundo trmino que es una variable aleatoria, e e sin embargo a ambas expresiones se les llama esperanza condicional. Veremos a continuacin un caso particular de esta variable aleatoria. Demostrao remos que la esperanza condicional puede verse como una generalizacin del o concepto bsico de probabilidad condicional, y tambin puede considerarse a e como una generalizacin del concepto de esperanza. o Proposicion. Sea X con esperanza nita, y sean A y B eventos tales que 0 < P (B) < 1. Entonces 1. E( X | {, } ) = E(X). 2. E( 1A | {, } ) = P (A). 3. E( 1A | {, B, B c , } ) = P (A | B) 1B + P (A | B c ) 1B c .

Demostracin. o 1. Esta igualdad se sigue del hecho que la variable E(X | G ) es medible respecto de G , y de que cualquier funcin medible respecto de la o

Cap tulo 4. Esperanza condicional

219

-lgebra {, } es constante. La tercera condicin en la denicin a o o general de esperanza condicional implica que esta constante debe ser E(X). 2. Esta igualdad es evidentemente un caso particular de la primera. 3. Observe que toda funcin medible respecto de la -lgebra G dada o a por {, B, B c , } es constante tanto en B como en B c . Adems, a
B

E( 1A | G ) dP =

1A dP = P (A B).

Como la variable aleatoria E( 1A | G ) es constante en B, el lado izquierdo es igual a E( 1A | G )() P (B), para cualquier en B. De donde se a obtiene E( 1A | G )() = P (A | B), para cualquier en B. El anlisis es anlogo al considerar el evento B c , y de esto se obtiene la frmula a o enunciada.

Observe en particular que la tercera propiedad dice que si la -lgebra a G es generada por la particin elemental {B, B c }, entonces la esperanza o condicional de 1A es una variable aleatoria que toma dos valores: P (A | B) sobre B, y P (A | B c ) sobre B c . El siguiente ejercicio es una generalizacin o de este resultado. Ejercicio. Sea B1 , . . . , Bn una particin de tal que cada uno de estos o elementos tiene probabilidad estrictamente positiva. Demuestre que para cualquier evento A,
n

E(1A | {B1 , . . . , Bn }) =

i=1

P (A | Bi ) 1Bi .

Ejercicio. Encuentre una distribucin conjunta de dos variables aleatorias o

220

4.2. Esperanza condicional: caso discreto

X y Y de tal forma que E(X | Y ) tenga distribucin Ber(p). o La variable E(X | G ) puede interpretarse como la esperanza condicional de X dada la informacin de la -lgebra G . Ilustraremos esto en el siguiente o a ejemplo. Ejemplo. Considere el experimento aleatorio de lanzar un dado equilibrado e intentar adivinar el resultado que se obtiene. Suponga, por ejemplo, que se apuesta a que se obtiene el nmero 2. Dena los eventos A = {2}, B = u {2, 4, 6} y la coleccin G = {, , B, B c }. Esta -lgebra puede distinguir o a los resultados Cae nmero par, evento B, y Cae nmero impar, evento u u B c . Entonces E(1A | G ) = P (A | B) 1B () + P (A | B c ) 1B c () 1 = 1B () + 0 1B c () 3 1 si B, 3 = 0 si B c .

De esta forma E(1A | G ) es una funcin que reporta las probabilidades de o ganar apostando por el nmero 2 en cada una de las dos situaciones que u la -lgebra G distingue: resultado par o impar. a Si se toma, en cambio, G = 2 con = {1, 2, 3, 4, 5, 6}, es decir, la -lgea bra distingue totalmente el resultado del lanzamiento del dado, entonces deniendo los eventos Bi = {i}, para i = 1, . . . , 6, tenemos
6

E(1A | G ) =

i=1

P (A | Bi ) 1Bi = P (A | A) 1A = 1A .

Es decir, no hay sorpresas, cuando se sabe con precisin el resultado del o experimento, conocemos obviamente la probabilidad de ganar apostando por el numero 2, sta es cero o uno. e

Cap tulo 4. Esperanza condicional

221

4.3.

Algunas propiedades

Veremos ahora algunas propiedades generales de la esperanza condicional, otras propiedades se encuentran en la seccin de ejercicios. Recordemos que o las identidades o desigualdades que se establezcan para la esperanza condicional son vlidas en el sentido casi seguro, es decir, con probabilidad uno a se cumplen las armaciones. En un apndice al nal del texto se encuentra e una lista ms completa de propiedades de esta variable aleatoria. a Proposicion. Sean X y Y variables aleatorias con esperanza nita y sea c una constante. Entonces 1. Si X 0, entonces E(X | G ) 0. 2. E(c X + Y | G ) = c E(X | G ) + E(Y | G ). 3. Si X Y , entonces E(X | G ) E(Y | G ). 4. E(E(X | G )) = E(X). 5. Si X es G -medible, entonces E(X | G ) = X c.s. En particular, E(c | G ) = c. 6. Si G1 G2 , entonces E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ).

Demostracin. o 1. Por contradiccin, suponga que existe G en G con probabilidad eso trictamente positiva tal que E(X | G ) 1G < 0. Entonces tomando esperanzas se obtiene E(X 1G ) < 0. Por otro lado, como X 0, E(X 1G ) 0.

222

4.3. Algunas propiedades

2. Esta igualdad es consecuencia de la linealidad de la esperanza no condicional, junto con (4.1) y la propiedad de unicidad. 3. Esto consecuencia de la primera propiedad y la linealidad aplicadas a la variable Y X 0. 4. Esta propiedad se obtiene tomando G = en la igualdad (4.1). 5. Si X es G -medible, entonces X mismo cumple con las tres propiedades de la denicin de esperanza condicional, por la unicidad se obtiene o la igualdad casi segura. 6. Para todo G G1 G2 ,
G

E(E(X | G1 ) | G2 ) dP =

E(X | G1 ) dP =

X dP.
G

Anlogamente, a E(E(X | G2 ) | G1 ) dP = E(X | G2 ) dP = X dP.


G

En particular observe que la segunda propiedad dice que la esperanza condicional es lineal, mientras que la cuarta propiedad establece que las variables aleatorias X y E(X | G ) tienen la misma esperanza, o en trminos de e informacin, la -lgebra trivial {, } realmente no proporciona ninguna o a informacin adicional del experimento aleatorio y por lo tanto la esperanza o se calcula directamente sobre la variable aleatoria. Ejercicio. Demuestre las siguientes desigualdades: a) | E(X | G ) | E( |X| | G ). b) E |E(X | G )| E( |X| ).

Ejercicio. Sean X y Y independientes cada una con distribucin Ber(p). o Encuentre E(X | X + Y ). Una introduccin a la esperanza condicional ligeramente ms completa a la o a

Cap tulo 4. Esperanza condicional

223

presentada en esta seccin, aunque tambin sencilla y breve, puede encono e trarse en [24]. Un tratamiento ms completo y riguroso puede consultarse a por ejemplo en [18] o [31].

4.4.

Varianza condicional

Usando la esperanza condicional se puede obtener la varianza condicional de una variable aleatoria respecto de una -lgebra de la siguiente forma. a Definicion. (Varianza condicional). Sea X con segundo momento nito, y sea G una sub--lgebra de F . La varianza condicional de X a dado G , denotada por Var(X | G ), se dene como la variable aleatoria Var(X | G ) = E[ (X E(X|G ))2 | G ].

Nuevamente hacemos nfasis en que la varianza condicional no es necesae riamente un nmero sino una variable aleatoria en general, G -medible por u denicin, y como en el caso no condicional, es no negativa. Despus de o e un clculo sencillo se puede comprobar que se reconstruye la varianza no a condicional en el siguiente caso particular: Var(X | {, }) = Var(X). Demostraremos a continuacin algunas propiedades elementales de esta vao riable aleatoria. Otras propiedades se encuentran en la seccin de ejercicios. o

224

4.4. Varianza condicional

Proposicion. Sean X y Y con varianza nita, y sea c una constante. Entonces 1. Var(X | G ) 0. 2. Var(c | G ) = 0. 3. Var(c X | G ) = c2 Var(X | G ). 4. Var(X + c | G ) = Var(X | G ). 5. En general, Var(X + Y | G ) = Var(X | G ) + Var(Y | G ). 6. Var(X | G ) = E(X 2 | G ) E 2 (X | G ). 7. Var(X) = E[Var(X | G )] + Var[E(X | G )].

Demostracin. o 1. 4. Estas propiedades son una consecuencia inmediata de las propiedades ya demostradas de la esperanza condicional. 5. Nuevamente es suciente tomar Y = X para vericar la no igualdad. 6. Esta igualdad se obtiene a partir de la denicin al desarrollar el o cuadrado y utilizar las propiedades de linealidad de la esperanza condicional. 7. Tomando esperanza en la igualdad previa se obtiene E[Var(X | G )] = E(X 2 ) E[E 2 (X | G )]. Por otro lado, Var[E(X | G )] = E[E 2 (X | G )] E 2 [E(X | G )] = E[E 2 (X | G )] E 2 (X). Sumando estas ultimas dos expresiones se obtiene el resultado.

Cap tulo 4. Esperanza condicional

225

Nuevamente cuando la sub--lgebra G es (Y ), para alguna variable aleaa toria Y , entonces Var(X | G ) se escribe Var(X | Y ), y puede tomarse como denicin cualquiera de las siguientes expresiones: o Var(X | Y ) = E( (X E(X | Y ))2 | Y ) E(X 2 | Y ) E 2 (X | Y ).

Ejercicio. Demuestre que la esperanza de la variable Var(X | G ) es: a) E(X 2 ) E(E 2 (X | G )). b) E(X E(X | G ))2 .

226

4.5. Ejercicios

4.5.

Ejercicios
Esperanza condicional

402. Demuestre que si c es una constante, entonces E(c | G ) = c, para cualquier sub--lgebra G . a 403. Sea A un evento. Demuestre que E(1A | {, }) = P (A). 404. Sea X integrable y sea Y constante. Demuestre que E(X | Y ) = E(X). 405. Sea X una variable aleatoria con esperanza nita. Demuestre que E(X | {, }) = E(X). 406. Sean A y B dos eventos tales que 0 < P (B) < 1. Demuestre que E(1A | 1B )() = P (A | B) si B, P (A | B c ) si B. /

407. Sea X con esperanza nita y sea B un evento tal que 0 < P (B) < 1. Demuestre que E(X | {, B, B c , }) = E(X | B) 1B + E(X | B c ) 1B c . 408. Encuentre E(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla. x\y 1 2 -1 2/12 3/12 0 2/12 2/12 1 2/12 1/12

409. Encuentre una distribucin conjunta de dos variables aleatorias X y o Y de tal forma que E(X | Y ) tenga distribucin unif{1, 1}. o 410. Se ha demostrado que si X 0 es integrable, entonces E(X | G ) 0. Demuestre que el rec proco es en general falso. 411. Sea c una constante. Diga falso o verdadero. Demuestre o proporcione un contraejemplo.

Cap tulo 4. Esperanza condicional a) E(X | X) = X. b) E(X 2 | X) = X 2 . c) E(X | X 2 ) = X. d) E(X | cX) = X. e) E(X | X + c) = X.

227

f) E(X | X + Y ) = X.

412. Demuestre que E(E 2 (X | G )) = E(X E(X | G )). 413. Sea B1 , . . . , Bn una particin nita de en donde cada elemento tiene o probabilidad positiva, y sean b1 , . . . , bn constantes cualesquiera. Dena la variable aleatoria discreta
n

Y =
i=1

bi 1Bi .

Sea X con segundo momento nito. Demuestre que la distancia entre X y Y denida por d(X, Y ) = [E(X Y )2 ]1/2 es m nima cuando bi = E(X | Bi ), es decir, cuando la variable Y es la esperanza condicional E(X | Y ). Sugerencia: observe que E(X Y )2 = n E[(X i=1 bi )2 | Bi )P (Bi ), y la suma es m nima si, y slo si, cada sumando lo es. o 414. Desigualdad de Cauchy-Schwarz condicional. Sean X y Y con segundo momento nito. Demuestre que E 2 (XY | G ) E(X 2 | G ) E(Y 2 | G ). Sugerencia: proceda como en la desigualdad de Cauchy-Schwarz en el caso no condicional, vea el ejercicio 191. 415. Desigualdad de Markov condicional. Sea X 0 integrable. Demuestre que para cualquier constante > 0, P (X | G ) 1 E(X | G ).

Sugerencia: Vea la demostracin de la desigualdad de Markov no cono dicional en la pgina 347. a 416. Sean X1 , X2 . . . independientes idnticamente distribuidas y con espee ranza nita. Dena Sn = X1 + +Xn . Demuestre que para 1 k n,

228
a) E(Xk | Sn ) = Sn /n.

4.5. Ejercicios

d) E(Sk | {Sn , Sn+1 , . . .}) = k Sn /n.

c) E(Xk | {Sn , Sn+1 , . . .}) = Sn /n.

b) E(Sk | Sn ) = k Sn /n.

Varianza condicional
417. Demuestre que a) Var(X | {, }) = Var(X).

b) Var(1A | {, }) = P (A)(1 P (A)).

418. Encuentre Var(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla. x\y 1 2 -1 2/12 3/12 0 2/12 2/12 1 2/12 1/12

419. Demuestre que E( Var(X | G ) | G ) = Var(X | G ). 420. Demuestre que Var(X) Var(X | G ). 421. Demuestre que E(X 2 | G ) E 2 (X | G ). 422. Demuestre que a) si X es G -medible, entonces Var(X | G ) = 0. b) Var( Var(X | G ) | G ) = 0. c) si X es G -medible, entonces Var(Var(X | G )) = 0.

Cap tulo 5

Transformaciones

Sea X una variable aleatoria con distribucin conocida, y sea es una o funcin tal que Y = (X) es otra variable aleatoria. Cul es la distribuo a cin de Y ? En este cap o tulo se da respuesta a esta pregunta tanto en el caso unidimensional como en el caso de vectores aleatorios. En particular, se encuentran frmulas expl o citas para la funcin de densidad de la suma, o diferencia, producto y cociente de dos variables aleatorias absolutamente continuas.

5.1.

Transformacin de una variable aleatoria o

En esta seccin se estudian un par de resultados que proveen de frmulas o o para la funcin de densidad de la variable (X), en trminos de la funcin de o e o densidad de X. Grcamente tal transformacin se muestra en la Figura 5.1. a o

229

230

5.1. Transformacion de una variable aleatoria

X() R Y = (X)

(X()) R

Figura 5.1: La composicin Y = X. o Teorema de cambio de variable 1. Sea X una variable aleatoria continua con valores dentro de un intervalo (a, b) R, y con funcin de o densidad fX (x). Sea : (a, b) R una funcin continua, estrictamente o creciente o decreciente, y con inversa diferenciable. Entonces la variable aleatoria Y = (X) toma valores dentro del intervalo (a, b), y tiene funcin de densidad o f (1 (y)) | d 1 (y)| para y (a, b), X dy fY (y) = 0 otro caso. Demostracin. Suponga primero el caso estrictamente creciente. Entonces o para y (a, b), FY (y) = P (Y y) = P ((X) y) = FX (1 (y)).

= P (X 1 (y))

Cap tulo 5. Transformaciones Derivando se obtiene fY (y) = fX (1 (y))

231

decreciente,

d 1 (y). Para estrictamente dy

FY (y) = P (Y y)

= P ((X) y)

= P (X 1 (y)) Entonces fY (y) = fX (1 (y)) [ el resultado enunciado.

= 1 FX (1 (y)). d 1 (y)]. En cualquiera caso se obtiene dy

Por ejemplo, la funcin (x) = ex , denida sobre toda la recta real cumo ple con las condiciones del teorema anterior. Usaremos esta funcin para o mostrar con dos ejemplos la forma de aplicar este resultado.

(x) = ex

Figura 5.2: La transformacin (x) = ex . o Ejemplo. (Distribucion log normal). Sea X con distribucin N(, 2 ), o y sea la funcin estrictamente creciente (x) = ex , con inversa diferenciao ble 1 (y) = ln y. Entonces la variable aleatoria Y = eX toma valores en el intervalo (0, ), y su distribucin se conoce con el nombre de distribucin o o log normal(, 2 ). Su funcin de densidad tiene la siguiente expresin cuya o o

232

5.1. Transformacion de una variable aleatoria

grca ha sido mostrada antes en la Figura 2.24. a (ln y )2 1 exp [ ] 2 2 y 2 2 fY (y) = 0

si y > 0, si y 0.

Ejemplo. (Distribucion log gama). Sea X con distribucin gama(n, ), o x , con inversa diferenciable 1 (y) = ln y. Eny sea nuevamente (x) = e tonces la variable aleatoria Y = eX toma valores en el intervalo (0, ), y su distribucin se conoce como distribucin log gama(n, ). Su funcin de o o o densidad es ( ln y)n1 1 y si y > 0, (n) fY (y) = 0 si y 0. El resultado anterior puede extenderse al caso en el que la transformacin o es estrictamente montona por pedazos. Se enuncia y demuestra a continuao cin este resultado cuando la transformacin se descompone en dos partes o o montonas, siendo fcil la extensin cuando se tiene un mayor nmero de o a o u secciones. Ejercicio. Encuentre la funcin de densidad del cuadrado de una variable o aleatoria con distribucin exp(). o Ejercicio. Sea X con distribucin unif(0, 1) y sea > 0. Demuestre que o

Cap tulo 5. Transformaciones la variable aleatoria Y = (1/) ln X tiene distribucin exp(). o

233

Teorema de cambio de variable 2. Sea X una variable aleatoria continua con valores dentro de un intervalo (a, c) R, y con funcin o de densidad fX (x). Sea : (a, c) R una funcin tal que admite la o descomposicin o (x) = 1 (x) 2 (x) si x (a, b), si x (b, c),

en donde a < b < c, y cada una de las funciones 1 (x) : (a, b) R y 2 (x) : (b, c) R es continua, estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable aleatoria Y = (X) toma valores dentro del intervalo (a, c), y tiene funcin de densidad o fY (y) = fX (1 (y)) | 1 d 1 (y)| 11 (a,b) (y) dy 1 d + fX (1 (y)) | 1 (y)| 12 (b,c) (y). 2 dy 2

Demostracin. La prueba es anloga al caso anterior, unicamente hay que o a hacer el anlisis sobre cada uno de los intervalos de monoton estricta. Para a a cualquier y en R, FY (y) = P (Y y) = P ((X) y)

= P [(1 (X) y) (X (a, b))]

+ P [(2 (X) y) (X (b, c))].

Nos interesa el comportamiento de estas probabilidades como funciones de y, puesto que calcularemos la derivada de ellas para encontrar fY (y). Por ejemplo, la primera probabilidad, vista como funcin de y, es o y P [(1 (X) y) (X (a, b))],

234

5.1. Transformacion de una variable aleatoria

que permanece constante para y 1 (a, b), de modo que, suponiendo por / ejemplo 1 creciente, y para y 1 (a, b), d P [(1 (X) y) (X (a, b))] = dy d P [(X 1 (y)) (X (a, b))] 1 dy d = P [a < X 1 (y)] 1 dy d = FX (1 (y)) 1 dy d 1 = fX (1 (y)) (y). 1 dy 1

De manera anloga se procede respecto del segundo sumando, considerando a tambin el caso cuando se presenta la monoton decreciente. De esta forma e a se obtiene la frmula enunciada. o Ejemplo. Sea X continua con funcin de densidad fX (x). Considere la o 2 , la cual es estrictamente decreciente en (, 0), transformacin (x) = x o y estrictamente creciente en (0, ).
(x) = x2

Figura 5.3: La transformacin (x) = x2 como dos secciones montonas. o o Dena entonces las funciones montonas 1 (x) = x2 sobre (, 0), y o 2 (x) = x2 sobre (0, ). Entonces sus inversas son 1 (y) = y, y 1 1 (y) = y. La variable Y = X 2 tiene por lo tanto funcin de densio 2 dad 1 1 f (y) + f (y) si y > 0, X X 2 y 2 y fY (y) = 0 si y 0.

Cap tulo 5. Transformaciones

235

Ejercicio. Sea X con distribucin uniforme en el intervalo (0, 1). Demueso tre que la funcin de densidad de la variable Y = 4X(1 X) es o 1 si 0 < y < 1, 2 1y f (y) = 0 otro caso. Ejercicio. Sea X con distribucin normal estndar. Demuestre que la vao a riable aleatoria Y = |X| tiene funcin de densidad o 2 y2 /2 e si y > 0, f (y) = 0 si y 0. Ejercicio. Sea X con distribucin uniforme en el intervalo [1, 1]. Encueno tre la funcin de densidad de la variable Y = 1 X 2 . o

5.2.

Transformacin de un vector aleatorio o

Suponga ahora que (X, Y ) es un vector con funcin de densidad conocida, o y (x, y) es una funcin denida en algn subconjunto de R2 y con valores o u en R2 . El problema es encontrar la funcin de densidad del nuevo vector o (X, Y ). Grcamente esta transformacin se ilustra en la Figura 5.4. a o La transformacin (x, y) se escribir como (1 (x, y), 2 (x, y)), y la derivao a da de la primera componente respecto de x, por ejemplo, se escribe x 1 .

236

5.2. Transformacion de un vector aleatorio

(X, Y )

R2
(U, V ) = (X, Y )

R2

Figura 5.4: La composicin (X, Y ). o Teorema de cambio de variable 3. Sea (X, Y ) un vector continuo con valores en I R2 , y con funcin de densidad fX,Y (x, y). Sea o (x, y) : I R2 una funcin continua con inversa 1 (u, v) diferenciao ble. Entonces el vector (U, V ) = (X, Y ) toma valores en (I) y tiene funcin de densidad o fU,V (u, v) = en donde J(u, v) = fX,Y (1 (u, v)) |J(u, v)| para (u, v) (I), otro caso, (5.1)

u 1 v 1 1 1 u 1 v 1 2 2

Una prueba rigurosa de este teorema resulta ser un tanto elaborada y la omitiremos. Sin embargo, puede usarse el siguiente argumento intuitivo para encontrar la frmula enunciada. Sea o (U, V ) = (X, Y ) = (1 (X, Y ), 2 (X, Y )), con inversa (X, Y ) = 1 (U, V ) = (1 (U, V ), 1 (U, V )). 1 2 Sea A el rectngulo de rea innitesimal de esquinas con coordenadas (x, y), (x+ a a dx, y), (x, y + dy) y (x + dx, y + dy). Bajo la transformacin las coordeo nadas de las esquinas del rectngulo A se transforman en las siguientes a

Cap tulo 5. Transformaciones coordenadas: (x, y) (1 (x, y), 2 (x, y)). (x + dx, y) (1 (x + dx, y), 2 (x + dx, y)) . = (1 (x, y) + x 1 (x, y)dx, 2 (x, y) +x 2 (x, y)dx. (x, y + dy) (1 (x, y + dy), 2 (x, y + dy)) . = (1 (x, y) + y 1 (x, y)dy, 2 (x, y) +y 2 (x, y)dy. (x + dx, y + dy) (1 (x + dx, y + dy), 2 (x + dx, y + dy)) . = (1 (x, y) + x 1 (x, y)dx + y 1 (x, y)dy, 2 (x, y) + x 2 (x, y)dx + y 2 (x, y)dy).

237

Grcamente la transformacin de estos puntos se muestra en la Figura 5.5. a o


(1 + y 1 , 2 + y 2 ) y + dy A y (1 , 2 ) x x + dx (A) (1 + x 1 + y 1 , 2 + x 2 + y 2 ) (1 + x 1 , 2 + x 2 )

Figura 5.5: La transformacin aplicada al rectngulo A. o a Entonces P ((X, Y ) A) = P ((U, V ) (A)). Por lo tanto fX,Y (x, y) dxdy = fU,V (u, v) Area de (A).

238
En donde

5.2. Transformacion de un vector aleatorio

Area de (A) = |x 1 y 2 x 2 y 1 | dxdy x 1 y 1 x 2 y 2 = |J(x, y)| dxdy. = dxdy

Adems |J(x, y)| = a

1 . Por lo tanto |J(u, v)| dxdy . |J(u, v)|

fX,Y (x, y) dxdy = fU,V (u, v)

Es decir, fU,V (u, v) = fX,Y (1 (u, v), 1 (u, v))|J(u, v)|. 1 2 Como ejemplo de aplicacin de esta frmula, en las secciones siguientes eno o contraremos expresiones para la funcin de densidad de la suma, diferencia, o producto y cociente de dos variables aleatorias. Las frmulas generales sobre transformaciones encontradas hasta ahora se o resumen en la siguiente tabla, que slo sirve como referencia general pues o no se mencionan las condiciones precisas de su validez.

Transformaciones d 1 (y)|. dy

Y = (X)

fY (y) = fX (1 (y)) |

(U, V ) = (X, Y )

fU,V (u, v) = fX,Y (1 (u, v)) |J(u, v)|, en donde J(u, v) = u 1 1 u 1 2 v 1 1 v 1 2 .

Cap tulo 5. Transformaciones

239

Distribucin de la suma o
El siguiente resultado proporciona una frmula para la funcin de densidad o o de la suma de dos variables aleatorias absolutamente continuas. Proposicion. Sea (X, Y ) un vector absolutamente continuo con funcin o de densidad fX,Y (x, y). Entonces X + Y tiene funcin de densidad o fX+Y (u) =

fX,Y (u v, v) dv.

(5.2)

Demostracin. Sea : R2 R2 la transformacin (x, y) = (x + y, y), con o o inversa 1 (u, v) = (u v, v). El Jacobiano de la transformacin inversa es o J(u, v) = u 1 v 1 1 1 u 1 v 1 2 2 = 1 1 0 1 = 1.

Por la frmula (5.1), fX+Y,Y (u, v) = fX,Y (u v, v). Integrando respecto a o v se obtiene (5.2). Observe que haciendo el cambio de variable z(v) = u v en (5.2) se obtiene la expresin equivalente o fX+Y (u) =

fX,Y (z, u z) dz.

(5.3)

Ello reeja el hecho de que la suma de dos variables aleatorias es conmutativa. En particular, cuando X y Y son independientes, la frmula (5.2) se o reduce a fX+Y (u) = =

fX (u v)fY (v) dv fX (u v) dFY (v).

(5.4)

240

5.2. Transformacion de un vector aleatorio

Integrando respecto de u e intercambiando el orden de las integrales se obtiene la correspondiente funcin de distribucin o o FX+Y (u) =

FX (u v) dFY (v).

Ms generalmente, puede demostrarse que esta frmula es vlida para cuaa o a lesquiera dos variables aleatorias independientes X y Y , incluyendo el caso cuando una de ellas es discreta y la otra continua. En el caso cuando X y Y son discretas, independientes y con valores enteros, es sencillo vericar que la funcin de probabilidad de X + Y es, en completa o analog con (5.4), fX+Y (u) = k fX (u k)fY (k), en donde la suma se a toma sobre todos los posibles valores enteros k que la variable aleatoria Y puede tomar. Ejercicio. Use la frmula anterior para demostrar que si X y Y son indeo pendientes con distribucin bin(n, p) y bin(m, p) respectivamente, entonces o X + Y tiene distribucin bin(n + m, p). o Puede obtenerse la misma frmula (5.2) mediante el procedimiento usual o de encontrar primero la funcin de distribucin de X + Y y despus derio o e var para encontrar la funcin de densidad. El procedimiento se muestra a o continuacin. o FX+Y (u) = P (X + Y u) = = fX,Y (x, y) dy dx
x+yu ux

fX,Y (x, y) dy dx.

La regin de integracin se muestra en la Figura 5.6. o o Derivando respecto a u se obtiene fX+Y (u) =

fX,Y (x, u x) dx,

Cap tulo 5. Transformaciones


y u

241

Figura 5.6: Regin de integracin x + y u. o o que corresponde a la expresin (5.3) equivalente a (5.2). o Ejercicio. Sean X y Y independientes cada una con distribucin normal o estndar. Use (5.2) para demostrar que X + Y tiene distribucin N(0, 2), es a o decir, su funcin de densidad es o 1 2 f (u) = eu /4 . 2

Ejercicio. Encuentre la funcin de densidad de X + Y cuando X y Y o tienen funcin de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 si 0 < x < y < 2, 0 otro caso.

Ejercicio. Sea (X, Y, Z) un vector absolutamente continuo con funcin de o densidad fX,Y,Z (x, y, z). Demuestre que la variable X + Y + Z tiene funcin o de densidad f (u) =

fX,Y,Z (u y z, y, z) dydz.

Aplique esta frmula para encontrar la funcin de densidad de la suma o o de tres variables aleatorias independientes, en donde cada sumando tiene

242

5.2. Transformacion de un vector aleatorio

distribucin unif(0, 1). o Convolucion. La convolucin de dos funciones de densidad continuas f1 o y f2 , es una funcin de densidad denotada por f1 f2 , y denida como sigue o (f1 f2 )(x) =

f1 (x y)f2 (y) dy.

Ms generalmente, la convolucin de dos funciones de distribucin F1 y F2 a o o es la funcin de distribucin o o (F1 F2 )(x) =


F1 (x y)dF2 (y).

En consecuencia, si X y Y son dos variables aleatorias independientes con correspondientes funciones de distribucin FX y FY , entonces la funcin de o o distribucin de la variable X + Y es la convolucin FX FY . No es dif o o cil comprobar que FX FY = FY FX . En particular, la suma de n variables aleatorias independientes todas con la misma funcin de distribucin F tiene o o funcin de distribucin F F , que se escribe simplemente como F n . o o Observe que hemos denotado la convolucin por el mismo s o mbolo, primero cuando los argumentos son funciones de densidad y en el otro cuando son funciones de distribucin. Para el caso de funciones de distribucin absoluo o tamente continuas, se tiene la relacin o d (F1 F2 )(x) = (f1 f2 )(x). dx

Distribucin de la diferencia o
Se encontrar ahora una frmula para la funcin de densidad de la diferencia a o o de dos variables aleatorias.

Cap tulo 5. Transformaciones

243

Proposicion. Sea (X, Y ) un vector absolutamente continuo con funcin o o de densidad fX,Y (x, y). Entonces X Y tiene funcin de densidad fXY (u) =

fX,Y (u + v, v) dv.

(5.5)

Demostracin. Procedemos como en la seccin anterior. Sea : R2 R2 o o la transformacin (x, y) = (x y, y) con inversa 1 (u, v) = (u + v, v). El o Jacobiano de la transformacin inversa es o J(u, v) = u 1 v 1 1 1 u 1 v 1 2 2 = 1 1 0 1 = 1.

Por la frmula (5.1), fXY,Y (u, v) = fX,Y (u + v, v). Integrando respecto a o v se obtiene (5.5). Con el cambio de variable z(v) = u + v en (5.5) se obtiene la expresin o equivalente fXY (u) =

fX,Y (z, z u) dz.

(5.6)

Cuando X y Y son independientes la frmula (5.5) se reduce a o fXY (u) =


fX (u + v)fY (v) dv.

En el caso discreto cuando X y Y son independientes con valores enteros, la variable XY tambin toma valores enteros, y tiene funcin de probabilidad e o fXY (u) =
k

fX (u + k)fY (k),

en donde la suma se toma sobre todos los posibles valores enteros k que Y puede tomar.

244

5.2. Transformacion de un vector aleatorio

Nuevamente se puede demostrar (5.5) mediante el procedimiento usual de encontrar primero la funcin de distribucin y despus derivar para encono o e trar la funcin de densidad. Por denicin, o o FXY (u) = P (X Y u) = =
xyu xu

fX,Y (x, y) dy dx fX,Y (x, y) dy dx.

La regin de integracin aparece en la Figura 5.7. o o


y

Figura 5.7: Regin de integracin x y u. o o Derivando respecto a u se obtiene (5.6) equivalente a (5.5). A partir de la frmula para la suma de dos variables aleatorias se puede construir una o tercera demostracin de (5.5). Por la frmula para la suma, o o fXY (u) = fX+(Y ) (u) =

fX,Y (u v, v) dv.

Haciendo el cambio de variable x = v, se obtiene fXY (u) = =


fX,Y (u + x, x) dx fX,Y (u + x, x) dx.

Cap tulo 5. Transformaciones

245

Ejercicio. Sean X y Y independientes cada una con distribucin normal o estndar. Use (5.5) para demostrar que X Y tiene distribucin N(0, 2), es a o decir, su funcin de densidad es o 1 2 f (u) = eu /4 . 2

Ejercicio. Encuentre la funcin de densidad de Y X cuando X y Y o tienen funcin de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 si 0 < x < y < 2, 0 otro caso.

Ejercicio. Sean X y Y independientes cada una con distribucin normal o estndar. En ejercicios anteriores se ha pedido comprobar que tanto X + Y a como X Y tienen distribucin N(0, 2). Demuestre ahora que X + Y y o X Y son independientes. Ejercicio. Sea (X, Y, Z) un vector absolutamente continuo con funcin de o o densidad fX,Y,Z (x, y, z). Demuestre que la variable X Y Z tiene funcin de densidad fXY Z (u) =

fX,Y,Z (u + y + z, y, z) dydz.

Aplique esta frmula para encontrar la funcin de densidad de X Y Z, o o cuando estas variables son independientes y cada una de ellas tiene distribucin unif(0, 1). o

Distribucin del producto o


Ahora se encontrar una frmula para la funcin de densidad del producto a o o de dos variables aleatorias absolutamente continuas.

246

5.2. Transformacion de un vector aleatorio

Proposicion. Sea (X, Y ) un vector absolutamente continuo con funcin o o de densidad fX,Y (x, y). Entonces XY tiene funcin de densidad fXY (u) =

fX,Y (u/v, v) |1/v| dv.

(5.7)

Demostracin. Se usa nuevamente la frmula (5.1). Sea : R2 R2 la o o transformacin (x, y) = (xy, y) cuya inversa es, para v = 0, 1 (u, v) = o (u/v, v). El Jacobiano de la transformacin inversa es o J(u, v) = u 1 v 1 1 1 u 1 v 1 2 2 = 1/v u/v 2 0 1 = 1/v.

Por la frmula (5.1), para v = 0, fXY,Y (u, v) = fX,Y (u/v, v) |1/v|. Integrano do respecto a v se obtiene (5.7). Haciendo x(v) = u/v en (5.7) se obtiene la expresin equivalente o fXY (u) =

fX,Y (x, u/x) |1/x| dx.

(5.8)

Cuando X y Y son independientes (5.7) se reduce a fXY (u) = fX (u/v)fY (v) |1/v| dv.

Usaremos nuevamente el procedimiento usual de encontrar primero la funcin de distribucin de XY y despus derivar para encontrar la funcin de o o e o densidad. Por denicin, o FXY (u) = P (XY u) = = fX,Y (x, y) dy dx
xyu 0 u/x 0 u/x

fX,Y (x, y) dydx +

fX,Y (x, y) dydx.

Cap tulo 5. Transformaciones La regin de integracin se muestra en la Figura 5.8. o o


y y y

247

u<0

u=0

u>0

Figura 5.8: Regin de integracin xy u. o o Derivando respecto a u,


0

fXY (u) =

fX,Y (x, u/x)(1/x) dydx +


0

fX,Y (x, u/x)(1/x) dydx.

fX,Y (x, u/x)|1/x| dx,

que corresponde a (5.8), equivalente a (5.7). Ejercicio. Encuentre la funcin de densidad de XY cuando X y Y tienen o funcin de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 si 0 < x < y < 2, 0 otro caso.

Ejercicio. Sea (X, Y, Z) un vector absolutamente continuo con funcin de o densidad fX,Y,Z (x, y, z). Demuestre que la variable XY Z tiene funcin de o densidad u 1 f (u) = fX,Y,Z ( , v, w) | | dv dw. vw vw

248

5.2. Transformacion de un vector aleatorio

Aplique este resultado al caso cuando X, Y y Z son independientes cada una de ellas con distribucin unif(0, 1). o

Distribucin del cociente o


Finalmente se encontrar una frmula para el cociente de dos variables a o aleatorias absolutamente continuas. Proposicion. Sea (X, Y ) un vector absolutamente continuo con funcin o de densidad fX,Y (x, y) y tal que Y = 0. Entonces X/Y tiene funcin de o densidad fX/Y (u) = fX,Y (uv, v) |v| dv. (5.9)

Demostracin. Procederemos como en las secciones anteriores. Sea : R2 o R2 la transformacin (x, y) = (x/y, y) para y = 0, y con inversa 1 (u, v) = o (uv, v). El Jacobiano de la transformacin inversa es o J(u, v) = u 1 v 1 1 1 u 1 v 1 2 2 = v u 0 1 = v.

Por la frmula (5.1), fX/Y,Y (u, v) = fX,Y (uv, v) |v|, de donde se obtiene (5.9) o integrando respecto a v. Haciendo x(v) = uv en (5.9) se obtiene la expresin equivalente o fX/Y (u) =

fX,Y (x, x/u) |x/u2 | dx.

(5.10)

Observe nuevamente que cuando X y Y son independientes, el integrando en la frmula (5.9) se escribe como el producto de las densidades marginales. o

Cap tulo 5. Transformaciones

249

Ahora usaremos el procedimiento usual de encontrar primero la funcin de o distribucin y despus derivar para encontrar la funcin de densidad. o e o FX/Y (u) = P (X/Y u) = =
x/yu 0 uy

fX,Y (x, y) dx dy fX,Y (x, y) dx dy +


0 uy

fX,Y (x, y) dx dy.

La regin de integracin se muestra en la Figura 5.9. o o


y y y

u<0

u=0

u>0

Figura 5.9: Regin de integracin x/y u. o o Derivando respecto a u,


0

fX/Y (u) = =

fX,Y (uy, y)y dy +


0

fX,Y (uy, y)y dy

fX,Y (uy, y)|y| dy.

A partir de la frmula para el producto de dos variables aleatorias se puede o construir una tercera demostracin de (5.9) de la siguiente forma. o fX/Y (u) = fX(1/Y ) (u) =

fX,1/Y (u/v, v) |1/v| dv.

250

5.2. Transformacion de un vector aleatorio

Haciendo el cambio de variable x = 1/v se obtiene fX/Y (u) = =


fX,1/Y (ux, 1/x)|x| dx fX,Y (ux, x)|x| dx.

Ejercicio. Sean X y Y independientes con distribucin normal estndar. o a Demuestre que X/Y tiene distribucin Cauchy, es decir, su funcin de deno o sidad es 1 , para < u < . f (u) = (1 + u2 )

Ejercicio. Encuentre la funcin de densidad de X/Y cuando X y Y tienen o funcin de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 si 0 < x < y < 2, 0 otro caso.

Ejercicio. Sea (X, Y, Z) un vector absolutamente continuo con funcin de o densidad fX,Y,Z (x, y, z). Demuestre que la variable X/(Y Z) tiene funcin o de densidad f (u) =

fX,Y,Z (uvw, v, w) |vw| dv dw.

Aplique este resultado al caso cuando X, Y y Z son independientes cada una de ellas con distribucin unif(0, 1). o Las frmulas para la funcin de densidad de las operaciones bsicas entre dos o o a variables aleatorias encontradas en este cap tulo se resumen en la siguiente tabla.

Cap tulo 5. Transformaciones

251

Formulas para la suma, diferencia, producto y cociente de dos variables aleatorias absolutamente continuas

fX+Y (u) = fXY (u) = fXY (u) = fX/Y (u) =


fX,Y (u v, v) dv fX,Y (u + v, v) dv

fX,Y (u/v, v) |1/v| dv

fX,Y (uv, v) |v| dv

252

5.3. Ejercicios

5.3.

Ejercicios
Transformacin de una variable aleatoria o

423. Sea X con distribucin exp(). Encuentre la funcin de densidad y de o o distribucin de la variable Y = 1 exp(X). o 424. Encuentre la distribucin de Y = 1/X cuando X tiene distribucin: o o a) unif(0, 1). b) exp(). 425. Sea X continua con funcin de densidad fX (x). Demuestre que o f|X| (x) = fX (x) + fX (x) 0 si x > 0, si x 0.

426. Sea X con distribucin uniforme en el intervalo (0, 2). Encuentre la o funcin de densidad de la variable o a) Y = sen(X). b) Y = cos(X). 427. Encuentre la distribucin de Y = X n para cada n en N, cuando X o tiene distribucin o a) unif(0, 1). b) unif(1, 1). c) exp(). 428. Sea X con distribucin unif(1, 1). Encuentre la funcin de densidad o o de X 2 . 429. Sea X absolutamente continua con funcin de distribucin F (x). Deo o muestre que Y = F (X) tiene distribucin unif[0, 1]. o

Cap tulo 5. Transformaciones 430. Encuentre la funcin de densidad de Y o de densidad 1/2 fX (x) = 1/(2x2 ) 0

253

= 1/X cuando X tiene funcin o si 0 < x 1, si x > 1, si x 0.

431. Sea X con distribucin unif(a, b). Encuentre la distribucin de la vao o riable aleatoria Y = X/(b X).

Transformacin de un vector aleatorio o


432. Sean X y Y independientes ambas con distribucin unif(0, 1). Encueno tre la funcin de densidad del vector o a) (X, X + Y ). b) (X + Y, X Y ). 433. Sean X y Y independientes ambas con distribucin unif(1, 1). Eno cuentre la funcin de densidad del vector o a) (X + Y, X Y ). b) (X, |Y X|). c) (X Y, Y X). 434. Sea (X, Y ) un vector con distribucin uniforme en el c o rculo unitario 2 + y 2 1}. Encuentre la funcin de densidad del vector {(x, y) : x o (R, ) = ( X 2 + Y 2 , arctan(Y /X)). 435. Sean X y Y independientes cada una con distribucin exp(). Deo muestre que el vector (X, X + Y ) tiene funcin de densidad o f (u, v) = 2 ev si 0 < u < v, 0 otro caso.

436. Sea (X, Y ) con funcin de densidad fX,Y (x, y). Demuestre que la o funcin de densidad del vector (U, V ) = (X + Y, X/(X + Y )) es o fU,V (u, v) = fX,Y (uv, u(1 v))u.

254

5.3. Ejercicios

Distribucin de la suma o
437. Encuentre la funcin de densidad de la suma de dos variables aleatorias o cuya funcin de densidad conjunta es o a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = exy , para x, y > 0. c) f (x, y) = ey , para 0 < x < y. d) f (x, y) = 8xy, para 0 < x < y < 1. e) f (x, y) = 4x(1 y), para 0 < x, y < 1. 438. Encuentre la funcin de densidad de la suma de dos variables aleatoo rias independientes cada una de ellas con distribucin: a) unif(0, 1). o b) exp(). 439. Encuentre la funcin de densidad de la suma de dos variables aleatorias o independientes cada una de ellas con funcin de densidad o a) f (x) = 2x, para 0 < x < 1. b) f (x) = 6x(1 x), para 0 < x < 1. c) f (x) = (1 + x)/2, para 1 < x < 1. 440. Encuentre la funcin de densidad de la suma de dos variables aleatorias o independientes X y Y , tales que a) X tiene distribucin unif(1, 0) y Y tiene distribucin unif(0, 1). o o b) X tiene distribucin unif(0, 1) y Y tiene distribucin exp(). o o 441. Encuentre la funcin de densidad de la suma de dos variables aleatorias o con distribucin conjunta uniforme en el cuadrado (1, 1) (1, 1). o 442. Encuentre la funcin de densidad de la suma de tres variables aleatoo rias con distribucin conjunta uniforme en el cubo (1, 1) (1, 1) o (1, 1).

Cap tulo 5. Transformaciones

255

443. Encuentre la funcin de densidad de la suma de n variables aleatorias o con distribucin conjunta uniforme en el hipercubo o (1, 1) (1, 1) .
n

444. Demuestre que la suma de dos variables aleatorias independientes, cada una de ellas con distribucin normal, tiene nuevamente distribucin o o normal, con media la suma de las medias, y varianza la suma de las varianzas.
2 o 445. Sean X1 , . . . , Xn independientes en donde Xk tiene distribucin N(k , k ) para k = 1, . . . , n. Sean c1 , . . . , cn constantes dadas, no todas cero. Demuestre que n n n

k=1

ck Xk N(

ck k ,
k=1 k=1

2 c2 k ). k

446. Sean X1 , . . . , Xn independientes y con idntica distribucin N(, 2 ). e o Demuestre que la media muestral dada por (X1 + + Xn )/n tiene distribucin N(, 2 /n). o 447. Demuestre que la suma de dos variables aleatorias independientes, cada una de ellas con distribucin exp(), tiene distribucin gama(2, ). o o Ms generalmente, demuestre que la suma de n variables aleatorias a independientes, cada una de ellas con distribucin exp(), tiene diso tribucin gama(n, ). o 448. Demuestre que la suma de dos variables aleatorias independientes con distribucin gama(n, ) y gama(m, ), tiene distribucin gama(n + o o m, ). 449. Sean X y Y son discretas, independientes y con valores enteros. Demuestre que fX+Y (u) = k fX (u k)fY (k), en donde la suma se efecta sobre todos los posibles valores enteros k que la variable aleau toria Y puede tomar.

256

5.3. Ejercicios

450. Sea (X1 , . . . , Xn ) un vector aleatorio absolutamente continuo. Demuestre que la variable X1 + + Xn tiene funcin de densidad o f (u) =

fX1 ,...,Xn (u v2 vn , v2 , . . . , vn ) dv2 dvn .

Aplique esta frmula para encontrar la funcin de densidad de la suma o o de n variables aleatorias independientes, en donde cada sumando tiene distribucin unif(0, 1). o

Distribucin de la diferencia o
451. Encuentre la funcin de densidad de X Y , para (X, Y ) un vector o con funcin de densidad o a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = exy , para x, y > 0. c) f (x, y) = ey , para 0 < x < y. d) f (x, y) = 8xy, para 0 < x < y < 1. e) f (x, y) = 4x(1 y), para 0 < x, y < 1. 452. Encuentre la funcin de densidad de X Y , cuando X y Y son indeo pendientes y ambas con distribucin: a) unif(0, 1). o b) exp(). 453. Encuentre la funcin de densidad de X Y , cuando X y Y son indeo pendientes y ambas con funcin de densidad o a) f (x) = 2x, para 0 < x < 1. b) f (x) = 6x(1 x), para 0 < x < 1. c) f (x) = (1 + x)/2, para 1 < x < 1. 454. Encuentre la funcin de densidad de X Y , cuando X y Y son indeo pendientes y tales que a) X tiene distribucin unif(1, 2) y Y tiene distribucin unif(0, 1). o o

Cap tulo 5. Transformaciones

257

b) X tiene distribucin exp() y Y tiene distribucin unif(0, 1). o o 455. Sea a una constante. Demuestre que la diferencia de dos variables aleatorias independientes ambas con distribucin uniforme en el intervalo o (a 1/2, a + 1/2) tiene funcin de densidad o f (u) = 1 |u| 0 si 1 < u < 1, otro caso.

456. Demuestre que la diferencia de dos variables aleatorias independientes, cada una de ellas con distribucin normal, tiene nuevamente distribuo cin normal, con media la diferencia de las medias, y varianza la suma o de las varianzas. 457. Sean X y Y son discretas, independientes y con valores enteros. Demuestre que fXY (u) = k fX (u + k)fY (k), en donde la suma se efecta sobre todos los posibles valores enteros k que la variable aleau toria Y puede tomar. 458. Sea (X, Y, Z) un vector aleatorio absolutamente continuo. Encuentre una frmula para la funcin de densidad de la variable X + Y Z. o o 459. Sea (X, Y, Z) un vector aleatorio absolutamente continuo. Encuentre una frmula para la funcin de densidad de la variable X Y + Z. o o 460. Sea (X1 , . . . , Xn ) un vector absolutamente continuo con funcin de o densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que la variable X1 X2 Xn tiene funcin de densidad o f (u) =

fX1 ,...,Xn (u + v2 + + vn , v2 , . . . , vn ) dv2 dvn .

Aplique esta frmula al caso cuando las variables X1 , . . . , Xn son ino dependientes y cada una de ellas tiene distribucin unif(0, 1). o

258

5.3. Ejercicios

Distribucin del producto o


461. Encuentre la funcin de densidad del producto de dos variables aleatoo rias independientes ambas con distribucin: a) unif(0, 1). b) exp(). o 462. Encuentre la funcin de densidad del producto de dos variables aleao torias cuya funcin de densidad conjunta es o a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = exy , para x, y > 0. c) f (x, y) = ey , para 0 < x < y. d) f (x, y) = 8xy, para 0 < x < y < 1. e) f (x, y) = 4x(1 y), para 0 < x, y < 1. 463. Encuentre la funcin de densidad del producto de dos variables aleao torias independientes cada una de ellas con funcin de densidad o a) f (x) = 2x, para 0 < x < 1. b) f (x) = 6x(1 x), para 0 < x < 1. c) f (x) = (1 + x)/2, para 1 < x < 1. 464. Encuentre la funcin de densidad del producto de dos variables aleao torias independientes X y Y , tales que a) X tiene distribucin unif(1, 0) y Y tiene distribucin unif(0, 1). o o b) X tiene distribucin unif(0, 1) y Y tiene distribucin exp(). o o o 465. Sea (X1 , . . . , Xn ) un vector absolutamente continuo con funcin de densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que la variable producto X1 Xn tiene funcin de densidad o f (u) =

fX1 ,...,Xn (

u 1 , v2 , . . . , vn ) | | dv2 dvn . v2 vn v2 vn

Aplique este resultado al caso cuando todas las variables son independientes y cada una de ellas tiene distribucin unif(0, 1). o

Cap tulo 5. Transformaciones

259

Distribucin del cociente o


466. Encuentre la funcin de densidad de X/Y para (X, Y ) un vector con o funcin de densidad o 1 para 0 < x < a, 0 < y < b. a) f (x, y) = ab b) f (x, y) = exy , para x, y > 0. c) f (x, y) = ey , para 0 < x < y. d) f (x, y) = 8xy, para 0 < x < y < 1. e) f (x, y) = 4x(1 y), para 0 < x, y < 1. f ) f (x, y) = 2exy , para 0 < x < y. 467. Encuentre la funcin de densidad de X/Y cuando X y Y son indeo pendientes y ambas con distribucin: a) unif(0, 1). b) exp(). o 468. Encuentre la funcin de densidad de X/Y cuando X y Y son indeo pendientes y ambas con funcin de densidad o a) f (x) = 2x, para 0 < x < 1. b) f (x) = 6x(1 x), para 0 < x < 1. c) f (x) = (1 + x)/2, para 1 < x < 1. 469. Encuentre la funcin de densidad de X/Y cuando X y Y son indeo pendientes y son tales que a) X tiene distribucin unif(1, 0) y Y tiene distribucin unif(0, 1). o o b) X tiene distribucin unif(0, 1) y Y tiene distribucin exp(). o o 470. Sean X y Y independientes con distribucin exp(). Encuentre la o funcin de densidad de X/(X + Y ). o 471. Sea (X1 , . . . , Xn ) un vector absolutamente continuo con funcin de o densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que la variable X1 /(X2 Xn ) tiene funcin de densidad o f (u) =

fX1 ,...,Xn (uv2 vn , v2 , . . . , vn ) |v2 vn | dv2 dvn .

260

5.3. Ejercicios Aplique este resultado al caso cuando X, Y y Z son independientes cada una de ellas con distribucin unif(0, 1). o

Cap tulo 6

Distribuciones muestrales y estad sticas de orden

En este cap tulo se estudian algunas distribuciones de probabilidad que surgen en la estad stica y otras reas de aplicacin de la probabilidad. Se a o estudian tambin algunas frmulas para las distribuciones de las estad e o sticas de orden de una muestra aleatoria. Definicion. (Muestra aleatoria). Una muestra aleatoria es una o coleccin de variables aleatorias X1 , . . . , Xn , que cumplen la condicin o de ser independientes y de tener cada una de ellas la misma distribucin. o Al nmero n se le llama tamao de la muestra aleatoria. u n A menudo se escribe m.a. para abreviar el trmino muestra aleatoria, y se e usan las siglas v.a.i.i.d. para denotar el trmino variables aleatorias indepene dientes e idnticamente distribuidas. Por lo tanto, una m.a. es una coleccin e o de v.a.i.i.d. Definicion. (Estad stica). Una estad stica es una variable aleatoria de la forma g(X1 , . . . , Xn ), en donde X1 , . . . , Xn es una muestra aleatoo ria, y g : Rn R es una funcin Borel medible. 261

262
Ejemplo. (Media y varianza muestral). La media muestral es una estad stica denotada por X y denida como sigue 1 X= n
n

Xi .
i=1

Observe que X es una combinacin lineal de los elementos de la m.a. y por o lo tanto es una variable aleatoria. Otro ejemplo importante de estad stica 2 y denida como sigue es la varianza muestral, denotada por S 1 S = n1
2 n i=1

(Xi X)2 .

Observe que en el denominador aparece el nmero de sumandos menos uno. u La media y la varianza muestrales tienen la caracter stica de ser estimadores insesgados para la media y la varianza, respectivamente, de una distribucin o cualquiera. En particular, cuando la muestra aleatoria proviene de una distribucin noro mal, resulta que la media y la varianza muestrales son independientes. Este es un resultado interesante e inesperado, y la demostracin puede encono trarse en [20]. Proposicion. Sea X1 , . . . , Xn una m.a. de la distribucin N(, 2 ). Eno tonces las estad sticas X y S 2 son independientes. Utilizaremos este resultado ms adelante. La proposicin recin enunciada a o e no es vlida para cualquier distribucin de probabilidad, por ejemplo, no es a o dif vericar su no validez para una muestra aleatoria de la distribucin cil o Bernoulli.

Cap tulo 6. Dist. muestrales y estad sticas de orden

263

6.1.

Distribuciones muestrales

Se estudian a continuacin algunas distribuciones que surgen en la estad o stica al considerar funciones de una muestra aleatoria, en particular, la media y la varianza muestral. Distribucion ji-cuadrada. La variable aleatoria continua X tiene una distribucin ji-cuadrada con n > 0 grados de libertad, si su funcin de o o densidad es 1 1 n/2 n/21 x/2 x e si x > 0, (n/2) 2 f (x) = 0 si x 0.

En este caso se escribe X 2 (n). El trmino 2 se lee ji-cuadrada. La e grca de esta funcin de densidad se muestra en la Figura 6.1. a o
f (x)
1 2

n=1 n=2 n=3 n=4 x

Figura 6.1: Funcin de densidad 2 (n). o Puede demostrarse que E(X) = n, y Var(X) = 2n. Observe que la distribucin 2 (n) con n = 2 se reduce a la distribucin exp() con = 1/2. o o La distribucin ji-cuadrada puede encontrarse como indican los siguientes o resultados. Proposicion. Si X N(0, 1), entonces X 2 2 (1).

264

6.1. Distribuciones muestrales

Demostracin. Para x > 0, o 1 1 fX 2 (x) = fX ( x) + fX ( x) 2 x 2 x 1 = fX ( x) x 1 x/2 1 = e x 2 = 1 (1/2) 1 2


1/2

x1/21 ex/2 .

Esta es la funcin de densidad de la distribucin 2 (1). o o La suma de dos o mas variables aleatorias independientes con distribucin jio cuadrada es nuevamente una variable aleatoria ji-cuadrada, y sus grados de libertad son la suma de los grados de libertad de cada uno de los sumandos. Este es el contenido de la siguiente proposicin. o Proposicion. Sean X1 , . . . , Xm independientes tales que cada Xi tiene distribucin 2 (ni ), para i = 1, . . . , m. Entonces o
m i=1

Xi 2 (n1 + + nm ).

Demostracin. Es suciente demostrar el resultado para el caso de dos vao riables aleatorias. Sean X y Y independientes con distribucin ji-cuadrada o con grados de libertad n y m, respectivamente. Este ligero cambio en la

Cap tulo 6. Dist. muestrales y estad sticas de orden notacin evitar el uso de sub o a ndices. Por la frmula (5.2), para u > 0, o
u

265

fX+Y (u) =
0 u

fX (u v)fY (v) dv 1 (n/2) 1 (m/2) 1 2 1 2


n/2

=
0

(u v)n/21 e(uv)/2
m/2

v m/21 ev/2 dv 1 2
(n+m)/2

1 (n/2)(m/2)
u 0

eu/2

(u v)n/21 v m/21 dv.

Haciendo el cambio de variable w(v) = v/u se obtiene fX+Y (u) = 1 (n/2)(m/2)


1 0

1 2

(n+m)/2

eu/2 u(n+m)/21

(1 w)n/21 wm/21 dw.

La integral resultante es B(n/2, m/2). Entonces fX+Y (u) = = B(n/2, m/2) (n/2)(m/2) 1 ((n + m)/2) 1 2 1 2
(n+m)/2

eu/2 u(n+m)/21
(n+m)/2

eu/2 u(n+m)/21 .

Esta es la funcin de densidad de la distribucin 2 (n + m). o o El resultado anterior puede demostrarse de una manera ms simple y elea gante usando la funcin generadora de momentos o la funcin caracter o o stica, presentadas en el siguiente cap tulo.

266

6.1. Distribuciones muestrales

Proposicion. Sean X1 , . . . , Xn independientes cada una con distribucin N(, 2 ). Entonces o


n i=1

(Xi )2 2 (n). 2

Demostracin. Esto es una consecuencia sencilla de las dos proposiciones o anteriores. Como cada una de las variables Xi tiene distribucin N(, 2 ), o para i = 1, . . . , n, entonces (Xi )/ tiene distribucin N(0, 1). Por lo o tanto, (Xi )2 / 2 tiene distribucin 2 (1). En consecuencia, n (Xi o i=1 2 / 2 tiene distribucin 2 (n). ) o Ahora se enuncia un resultado cuya demostracin se pospone hasta que se o cuente con la poderosa herramienta de las funciones generadoras de momentos. Este es el contenido del ejercicio 572 en la pgina 341. a Proposicion. Sean X y Y independientes tales que X tiene distribucin o 2 (n), y X + Y tiene distribucin 2 (m) con m > n. Entonces Y tiene o distribucin 2 (m n). o Con ayuda de esta proposicin se demuestra ahora el siguiente resultado de o particular importancia en estad stica. Proposicion. Sean X1 , . . . , Xn independientes con distribucin o 2 ). Entonces N(, n1 2 S 2 (n 1). 2

Cap tulo 6. Dist. muestrales y estad sticas de orden Demostracin. o


n i=1 n

267

(Xi )2 = =

i=1 n i=1

[(Xi X) + (X )]2 (Xi X)2 + n(X )2 .

Dividiendo entre 2 ,
n i=1

1 n1 2 X (Xi )2 = S + ( )2 . 2 2 / n

El trmino del lado izquierdo tiene distribucin 2 (n), mientras que el see o gundo sumando del lado derecho tiene distribucin 2 (1). Por la proposicin o o anterior, y recordando que X y S 2 son independientes, se concluye que el primer sumando del lado derecho tiene distribucin 2 (n 1). o Distribucion t. La variable aleatoria continua X tiene una distribucin t o de Student con n > 0 grados de libertad si su funcin de densidad est dada o a por ((n + 1)/2) f (x) = (1 + x2 /n)(n+1)/2 , n (n/2) para < x < ,

cuya grca se muestra en la Figura 6.2, cualitativamente es muy parecida a a la densidad normal estndar. a En este caso se escribe X t(n). Esta distribucin apareci por primera o o vez en 1908 en un trabajo publicado por William Gosset bajo el seudnio mo de Student. Cuando el valor del parmetro n es igual a uno se obtiea ne la distribucin Cauchy. Se puede demostrar tambin que E(X) = 0, y o e Var(X) = n/(n 2), para n > 2. La primera igualdad establece que esta distribucin se encuentra siempre centrada en cero para cualquier valor del o parmetro n. Se muestran a continuacin algunas formas en las que surge a o esta distribucin. o

268

6.1. Distribuciones muestrales

f (x) n = 100 n=3 n=1

Figura 6.2: Funcin de densidad t(n). o Proposicion. Sean X N(0, 1) y Y 2 (n) independientes. Entonces X t(n). Y /n

Demostracin. Por independencia, la funcin de densidad conjunta de X y o o Y es, para y > 0, 1 1 2 fX,Y (x, y) = ex /2 (n/2) 2 1 2
n/2

y n/21 ey/2 .

Se aplica la frmula (5.1) para la transformacin (x, y) = (x, x/ y/n), con o o 1 (s, t) = (s, ns2 /t2 ). El Jacobiano de la transformacin inversa es inversa o J(s, t) = Por lo tanto fS,T (s, t) = fX (s)fY (ns2 /t2 ) 2ns2 /t3 = 1 1 2 es /2 (n/2) 2 1 2
n/2

x/s x/t y/s y/t

1 0 2 2ns2 /t3 2sn/t

= 2ns2 /t3 .

nn/21 sn2 ns2 /2t2 e 2ns2 /t3 . tn2

Cap tulo 6. Dist. muestrales y estad sticas de orden Integrando respecto a s, 1 nn/2 fT (t) = 2 2n/21 (n/2)tn+1
0

269

sn es

2 (1+n/t2 )/2

ds.

Ahora efectuamos el cambio de variable r(s) = s2 (1 + n/t2 )/2, de donde obtenemos dr = s(1 + n/t2 )ds, y entonces fT (t) = = 1 nn/2 2 2n/21 (n/2)tn+1 2 1 + n2 2 2t 1 ((n + 1)/2) , n (n/2) (1 + t2 /n)(n+1)/2
(n+1)/2 0

r (n1)/2 er dr

correspondiente a la funcin de densidad de la distribucin t(n). Salvo o o la constante ((n + 1)/2), la ultima integral corresponde a la densidad gama((n + 1)/2, ) con = 1. El siguiente resultado es usado en estad stica para efectuar estimaciones de la media de una poblacin normal cuando la varianza es desconocida. o Proposicion. Sea X1 , . . . , Xn una m.a. de una distribucin N(, 2 ). o Entonces X t(n 1). S/ n

Demostracin. Simplemente se aplica la proposicin recin demostrada a o o e las variables aleatorias independientes X N (0, 1) / n y n1 2 S 2 (n 1). 2

270

6.1. Distribuciones muestrales

Distribucion F. La variable aleatoria continua X tiene una distribucin o F de Snedecor con parmetros n > 0 y m > 0 si su funcin de densidad es a o

Se escribe X F(n, m). En la Figura 6.3 se muestra el comportamiento de esta funcin de densidad. o f (x)
3/4 n=4 m = 100

((n + m)/2) n (n/2) (m/2) m f (x) = 0

n/2

xn/21 1 +

n x m

(n+m)/2

si x > 0, si x 0.

n=1 m=5

x Figura 6.3: Funcin de densidad F (n, m). o Puede demostrarse que E(X) = y Var(X) = m , para m > 2, m2 2m2 (m + n 2) , para m > 4. n(m 2)2 (m 4)

Los siguientes dos resultados indican la forma de obtener esta distribucin. o

Cap tulo 6. Dist. muestrales y estad sticas de orden

271

Proposicion. Sean X 2 (n) y Y 2 (m) independientes. Entonces X/n F(n, m). Y /m

Demostracin. Esta armacin se obtiene directamente de la aplicacin de o o o la frmula para la funcin de densidad del cociente de dos variables aleatoo o rias. Recuerde que para n > 0, fX/n (x) = nfX (nx). Proposicion. Si X t(n), entonces X 2 F(1, n). Demostracin. El resultado se sigue fcilmente de la aplicacin de la sio a o guiente frmula general. Para x > 0, y por la simetr de la distribucin t, o a o 1 1 fX 2 (x) = ( fX ( x) + fX ( x) ) = fX ( x) . 2 x x

6.2.

Estad sticas de orden

Dada una muestra aleatoria X1 , . . . , Xn , podemos evaluar cada una de estas variables en un punto muestral cualquiera y obtener una coleccin de o nmeros reales X1 (), . . . , Xn (). Estos nmeros pueden ser ordenados de u u menor a mayor incluyendo repeticiones. Si X(i) () denota el i-simo nmero e u ordenado, tenemos entonces la coleccin no decreciente de nmeros reales o u X(1) () X(n) ().

272

6.2. Estad sticas de orden

Ahora hacemos variar el argumento y lo que se obtiene son las as lla madas estad sticas de orden. Este proceso de ordenamiento resulta ser de importancia en algunas aplicaciones. Tenemos entonces la siguiente denicin. o Definicion. (Estad sticas de orden). Sea X1 , . . . , Xn una muestra aleatoria. A las variables aleatorias ordenadas n X(1) = m {X1 , . . . , Xn },

X(2) = m {X1 , . . . , Xn } \ {X(1) }, n

n X(3) = m {X1 , . . . , Xn } \ {X(1) , X(2) }, . . . X(n) = mx a {X1 , . . . , Xn },

se les conoce con el nombre de estad sticas de orden. A X(1) se le llama primera estad stica de orden, a X(2) se le llama segunda estad stica de orden, etc. A X(i) se le llama i-sima estad e stica de orden, i = 1, . . . , n. Observe que, aunque los elementos de la muestra aleatoria son variables aleatorias independientes, las estad sticas de orden no lo son, pues deben a mantener la relacin X(1) X(2) X(n) . Observe adems que la io sima estad e stica de orden X(i) no necesariamente es igual a alguna variable de la muestra aleatoria en particular, sino que, en general, es una funcin o de todas las variables de la muestra aleatoria. Nuestro objetivo es encontrar algunas frmulas relacionadas con las distrio buciones de probabilidad de las estad sticas de orden cuando se conoce la distribucin de las variables de la muestra aleatoria, que por simplicidad se o supondr absolutamente continua. En lo que resta del cap a tulo supondremos entonces que X1 , . . . , Xn es una muestra aleatoria en donde cada variable tiene funcin de densidad f (x) y funcin de distribucin F (x). o o o

Cap tulo 6. Dist. muestrales y estad sticas de orden

273

Distribuciones individuales
Comenzamos encontrando la distribucin de la primera y de la ultima eso tad stica de orden de manera individual. Proposicion. Para n 1, 1. fX(1) (x) = nf (x) [1 F (x)]n1 . 2. fX(n) (x) = nf (x) [F (x)]n1 .

Demostracin. o 1. Se calcula primero la funcin de distribucin. o o FX(1) (x) = P (X(1) x) = P (m n{X1 , . . . , Xn } x)

= 1 P (m n{X1 , . . . , Xn } > x) = 1 [P (X1 > x)]n = 1 [1 F (x)]n . Entonces fX(1) (x) = nf (x) [1 F (x)]n1 . 2. Se procede de manera anloga. a FX(n) (x) = P (X(n) x) = P (mx{X1 , . . . , Xn } x) a = P (X1 x, . . . , Xn x) = [P (X1 x)]n = [F (x)]n . Por lo tanto fX(n) (x) = nf (x) [F (x)]n1 . = 1 P (X1 > x, . . . , Xn > x)

274

6.2. Estad sticas de orden

Ejercicio. Compruebe que las expresiones encontradas para fX(1) y fX(n) son efectivamente funciones de densidad. Encuentre en particular las expresiones para estas funciones cuando las variables de la muestra tienen distribucin unif(0, 1). o Ahora se presenta el resultado general acerca de la funcin de densidad de o la i-sima estad e stica de orden. Proposicion. La funcin de densidad de la i-sima estad o e stica de orden es n fX(i) (x) = i f (x)[F (x)]i1 [1 F (x)]ni . i

Demostracin. Para cada i dena la variable aleatoria o Yi = 1(,x] (Xi ) = 1 si Xi x, 0 si Xi > x,

en donde Xi es el i-simo elemento de la muestra aleatoria. Las variables e Y1 , . . . , Yn son independientes y cada una de ellas puede considerarse un ensayo Bernoulli con probabilidad de xito, es decir tomar el valor 1, igual e a P (Xi x) = F (x). Entonces la suma Y1 + + Yn corresponde al nmero u de variables aleatorias Xi que cumplen la condicin Xi x, y por lo tanto o esta suma tiene distribucin bin(n, p), con p = F (x). Entonces o FX(i) (x) = P (X(i) x)
n

= P (Y1 + + Yn i)
j=i

n j

[F (x)]j [1 F (x)]nj .

Cap tulo 6. Dist. muestrales y estad sticas de orden Derivando y despus simplicando, e
n

275

fX(i) (x) =
j=i n

n j

f (x)[F (x)]j1 [1 F (x)]nj1 [j(1 F (x)) (n j)F (x)] jf (x)[F (x)]j1 [1 F (x)]nj n j (n j)f (x)[F (x)]j [1 F (x)]nj1

=
j=i n

n j

j=i

n i

i f (x)[F (x)]i1 [1 F (x)]ni .

Ejercicio. Demuestre que la expresin encontrada para fX(i) (x) es efectio vamente una funcin de densidad. Verique que esta densidad se reduce a o las encontradas antes cuando el ndice i toma los valores 1 o n. En particular, encuentre la funcin de densidad de la i-sima estad o e stica de orden suponiendo que las variables de la muestra tienen distribucin unif(0, 1). o A continuacin se presenta un argumento corto e intuitivo que nos lleva o al mismo resultado. Sea h > 0 arbitrario, y considere los siguientes tres intervalos ajenos (, x], (x, x + h] y (x + h, ).
i1 x 1 x+h ni

La probabilidad de que i 1 variables de la muestra tomen un valor en el intervalo (, x], una de ellas en (x, x + h], y el resto n i en (x + h, ) es, de acuerdo a la distribucin multinomial, o n! [F (x)]i1 [F (x + h) F (x)][1 F (x + h)]ni . (i 1)! 1! (n i)!

276

6.2. Estad sticas de orden

Esta probabilidad es aproximadamente igual a fX(i) (x)h. Dividiendo entre h, y despus haciendo h tender a cero se obtiene nuevamente e fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

Sea X1 , . . . , Xn una muestra aleatoria. A la variable aleatoria R = X(n) X(1) se le conoce como el rango de la muestra. El siguiente resultado provee de una frmula para la funcin de densidad de esta variable. o o Proposicion. Para r > 0, fR (r) = n(n 1)

f (v)f (r + v)[F (r + v) F (v)]n2 dv.

Demostracin. Para x < y, o FX(1) ,X(n) (x, y) = P (X(1) x, X(n) y) = P (X(n) y) P (X(n) y, X(1) > x) = [F (y)]n [F (y) F (x)]n .

= [F (y)]n P (x < X1 y, . . . , x < Xn y) Por lo tanto, fX(1) ,X(n) (x, y) = n(n 1)f (x)f (y)[F (y) F (x)]n2 , para n 2. Ahora se usa la frmula o fY X (u) =

fX,Y (v, u + v) dv

equivalente a (5.5) para la diferencia de dos variables aleatorias. Entonces para r > 0, fX(n) X(1) (r) = n(n 1)

f (v)f (r + v)[F (r + v) F (v)]n2 dv.

Cap tulo 6. Dist. muestrales y estad sticas de orden

277

Ejercicio. Se escogen n puntos al azar con distribucin uniforme en el ino tervalo unitario (0, 1). Demuestre que la funcin de densidad de la distancia o mxima entre cualesquiera dos puntos es a f (r) = n(n 1)r n2 (1 r) 0 si 0 < r < 1, otro caso.

Distribuciones conjuntas
Se presentan a continuacin dos resultados acerca de la distribucin cono o junta de las estad sticas de orden. El primer resultado trata acerca de la distribucin conjunta de todas ellas, despus se considera la distribucin o e o conjunta de cualesquiera dos. Proposicion. Para x1 < < xn , fX(1) ,...,X(n) (x1 , . . . , xn ) = n! f (x1 ) f (xn ).

Demostracin. Se considera la funcin de distribucin conjunta de todas las o o o estad sticas de orden, y despus se deriva n veces para encontrar la funcin e o de densidad. Para x1 < x2 < < xn , FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , X(2) x2 , . . . , X(n) xn ). Como (X(2) x2 ) = (x1 < X(2) x2 ) (X(2) x1 ), se obtiene la expresin o FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , x1 < X(2) x2 , . . . , X(n) xn ) + P (X(1) x1 , X(2) x1 , . . . , X(n) xn ).

278

6.2. Estad sticas de orden

Observe que el segundo sumando no depende de x2 , asi es que al tomar la derivada respecto de esta variable, este trmino desaparece. De manera e anloga procedemos con los eventos (X(3) x3 ) hasta (X(n) xn ). Al nal a se obtiene fX(1) ,...,X(n) (x1 , . . . , xn ) = n P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < X(n) xn ). x1 xn

Como ahora los intervalos involucrados son disjuntos, la distribucin multio nomial asegura que P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < X(n) xn ) = n! P (X1 x1 , x1 < X2 x2 , . . . , xn1 < Xn xn ) = n! F (x1 )[F (x2 ) F (x1 )] [F (xn ) F (xn1 )],

en donde la ultima igualdad se sigue de la independencia e idntica distribu e cin de las variables de la muestra. Ahora solo resta derivar para encontrar o el resultado buscado, siendo ms sencillo encontrar las derivadas en el orden a inverso. Ejercicio. Demuestre que la expresin encontrada para la funcin de deno o sidad conjunta de las estad sticas de orden es efectivamente una funcin de o densidad multivariada. Encuentre adems esta funcin cuando las variables a o de la muestra tienen distribucin unif(0, 1). o La siguiente demostracin es una prueba corta pero no formal del mismo o resultado. Sean x1 < x2 < < xn , y h > 0 sucientemente pequea tal n que los intervalos (x1 , x1 + h], (x2 , x2 + h], . . . , (xn , xn + h] son ajenos. Vase e la Figura 6.4. La probabilidad de que las variables aleatorias tomen valores, cada una de ellas, en uno y slo uno de estos intervalos es, de acuerdo a la distribucin o o multinomial, n! [F (x1 + h) F (x1 )] [F (xn + h) F (xn )]. 1! 1!

Cap tulo 6. Dist. muestrales y estad sticas de orden

279

x1

x2

Figura 6.4:

xn

i1 x

ji1 y

1 y+h

nj

x+h

Figura 6.5: Esta probabilidad es aproximadamente igual a fX(1) ,...,X(n) (x1 , . . . , xn )hn . Dividiendo entre hn , y despus haciendo h tender a cero se obtiene, una vez e mas, fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ). Ahora nos interesa encontrar una frmula para la densidad conjunta de o cualesquiera dos estad sticas de orden. Proposicion. Suponga i < j. Para x < y, fX(i) ,X(j) (x, y) = n i, j i, n j i(j i) f (x)f (y)

[F (x)]i1 [F (y) F (x)]ji1 [1 F (y)]nj .

Para este resultado se presenta unicamente el argumento intuitivo usado antes. Sean x < y y considere los intervalos ajenos (, x], (x, x + h], (x + h, y], (y, y + h], y (y + h, ) para h > 0 sucientemente pequea. vase n e la Figura 6.5. La probabilidad de que i 1 variables de la muestra tomen un valor en

280

6.2. Estad sticas de orden

(, x], una de ellas en (x, x + h], j i + 1 variables en (x + h, y], otra en (y, y + h], y el resto, n j variables, tomen un valor en (y + h, ) es, de acuerdo a la distribucin multinomial, o n! [F (x)]i1 [F (x + h) F (x)] (i 1)! 1! (j i 1)! 1! (n j)!

[F (y) F (x + h)]ji1 [F (y + h) F (y)] [1 F (y + h)]nj . Esta probabilidad es aproximadamente igual a fX(i) ,X(j) (x, y) h2 . Dividiendo entre h2 , y despus haciendo h tender a cero se obtiene la frmula enunciada. e o Ejercicio. Demuestre que la expresin encontrada para la funcin de deno o sidad conjunta de las estad sticas de orden X(i) y X(j) es efectivamente una funcin de densidad bivariada. Encuentre adems esta funcin cuando las o a o variables de la muestra tienen distribucin unif(0, 1). o Las frmulas para las funciones de densidad de las estad o sticas de orden encontradas en este cap tulo se resumen en la siguiente tabla.
Formulas para las funciones de densidad de algunas estad sticas de orden en el caso absolutamente continuo

fX(1) (x) = nf (x) [1 F (x)]n1 fX(n) (x) = nf (x) [F (x)]n1 fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni

fR (r) = n(n 1)

f (v)f (r + v)[F (r + v) F (v)]n2 dv,

para r > 0 en donde R = X(n) X(1)

fX(1) ,...,X(n) (x1 , . . . , xn ) = n! f (x1 ) f (xn ), para x1 < < xn fX(i) ,X(j) (x, y) = n i, j i, n j i(j i) f (x)f (y)[F (x)]i1

[F (y) F (x)]ji1 [1 F (y)]nj , para x < y e i < j

Cap tulo 6. Dist. muestrales y estad sticas de orden

281

6.3.

Ejercicios
Media y varianza muestral

472. Sea X1 , . . . , Xn una muestra aleatoria de una distribucin con media o y varianza 2 . Demuestre que E(X) = y E(S 2 ) = 2 . Estos resultados son de utilidad en estad stica y muestran que X y S 2 son estimadores insesgados para la media y varianza de la distribucin. o 473. Sea X1 , . . . , Xn una m.a. de una distribucin con media y varianza o 2 . Demuestre que Var(X) = 2 /n. Cunto vale Var(S 2 )? a o 474. Sea X1 , . . . , Xn una m.a. de una distribucin Ber(p). Demuestre que y S 2 no son independientes. las estad sticas X

Distribucin 2 o
475. Demuestre que la funcin de densidad de la distribucin 2 (n) efeco o tivamente lo es. En particular, compruebe que la distribucin 2 (n), o con n = 2, se reduce a la distribucin exp() con = 1/2. o 476. Demuestre que la distribucin gama(n/2, ), con = 1/2, se reduce a o la distribucin 2 (n). o 477. Sea X con distribucin 2 (n). Demuestre que o a) E(X) = n. b) E(X m ) = 2m (m + n/2)/(n/2), para m = 1, 2, . . . c) Var(X) = 2n. 478. Sean X1 , . . . , Xn independientes cada una con distribucin N(, 2 ). o Demuestre que (X )2 2 (1). 2 /n

282

6.3. Ejercicios

479. Sean X1 , . . . , Xn independientes cada una con distribucin normal o estndar. Demuestre que a
n i=1

Xi2 2 (n).

480. Sean X1 , . . . , Xn independientes tales que cada variable Xi tiene dis2 tribucin N(i , i ) para i = 1, . . . , n. Demuestre que o
n i=1

(Xi i )2 2 (n). 2 i

481. Sean X y Y independientes ambas con distribucin normal estndar. o a Sean R = X 2 + Y 2 y = tan1 (Y /X). Demuestre que a) R2 tiene distribucin 2 (n) con n = 2 grados de libertad. o b) tan tiene distribucin Cauchy. o c) R y son independientes.

Distribucin t o
482. Demuestre que la funcin de densidad de una variable aleatoria X o con distribucin t(n) efectivamente lo es. Demuestre adems que esta o a funcin tiene un mximo en x = 0 y que o a a) E(X) = 0. b) Var(X) = n/(n 2), para n > 2. Compruebe adems que esta distribucin se reduce a la distribucin a o o Cauchy cuando el valor del parmetro n es uno. a 483. Demuestre que la distribucin t(n+1) tiene momentos nitos de orden o menor o igual a n, pero ningn otro momento de orden superior. u

Cap tulo 6. Dist. muestrales y estad sticas de orden

283

Distribucin F o
484. Demuestre que la funcin de densidad de una variable aleatoria X con o distribucin F(n, m) efectivamente lo es. Demuestre adems que o a a) E(X) = m/(m 2), b) Var(X) = 2m2 (m para m > 2.

+ n 2) , para m > 4 . n(m 2)2 (m 4)

485. Sea X con distribucin F(n, m). Demuestre que Y = 1/X tiene distrio bucin F(m, n), observe el cambio en el orden de los parmetros. Este o a resultado es util para obtener valores de F que no aparecen en tablas de esta distribucin que son comunes en textos de estad o stica. 486. Sea X con distribucin F(n, m). Demuestre que cuando m tiende a o innito la funcin de densidad de nX converge a la funcin de densidad o o 2 (n). de la distribucin o

Estad sticas de orden: distribuciones individuales


487. Sea X1 , . . . , Xn una m.a. de una distribucin unif(0, 1). Demuestre o que la i-sima estad e stica de orden tiene distribucin beta(i, n + 1 i). o Encuentre por lo tanto su esperanza y varianza. 488. Sea X1 , . . . , Xn una m.a. de una distribucin exp(). Encuentre la o funcin de densidad de la i-sima estad o e stica de orden. 489. Sean X(1) , X(2) las estad sticas de orden de una m.a. de tamao dos n de una distribucin N(, 2 ). Demuestre que E[X(1) ] = / y o calcule E[X(2) ]. 490. Sea X1 , . . . , Xn una m.a. de una distribucin F (x). Sea x un nmero o u real cualquiera, y para cada i = 1, . . . , n dena Yi = 1(,x] (Xi ). Demuestre que las variables Y1 , . . . , Yn son independientes, y cada una

284

6.3. Ejercicios de ellas tiene distribucin Ber(p), con p = F (x). Este hecho fue utilio zado en el procedimiento para encontrar la funcin de densidad de la o i-sima estad e stica de orden.

491. Sean X y Y absolutamente continuas e independientes. Dena V = mx{X, Y }. Demuestre que a a) FV (v) = FX (v)FY (v). b) fV (v) = FX (v)fY (v) + fX (v)FY (v). c) fV (v) = 2F (v)f (v), cuando X y X tienen la misma distribucin. o 492. Use el ejercicio anterior para encontrar la funcin de densidad del o mximo de dos variables aleatorias independientes cada una de ellas a con distribucin: a) unif(0, 1). b) exp(). o 493. Sean X y Y absolutamente continuas e independientes. Dena U = m n{X, Y }. Demuestre que a) FU (u) = 1 [1 FX (u)][1 FY (u)]. b) fU (u) = [1 FX (u)]fY (u) + fX (u)[1 FY (u)].

c) fU (u) = 2[1 F (u)]f (u), cuando X y Y tienen la misma distribucin. o 494. Use el ejercicio anterior para encontrar la funcin de densidad del o m nimo de dos variables aleatorias independientes cada una de ellas con distribucin: a) unif(0, 1). b) exp(). o 495. Sean X1 , . . . , Xn variables aleatorias independientes en donde Xk tiene distribucin exp(k ), para k = 1, . . . , n. Demuestre que la variable o m n{X1 , . . . , Xn } tiene distribucin exp(1 + + n ), y que P (Xk = o m n{X1 , . . . , Xn }) = k /(1 + + n ).

Cap tulo 6. Dist. muestrales y estad sticas de orden

285

Estad sticas de orden: distribuciones conjuntas


496. A partir de la frmula para fX(1) ,...,X(n) (x1 , . . . , xn ), calcule la funcin o o de densidad marginal de X(1) , encontrando nuevamente que fX(1) (x) = nf (x)[1 F (x)]n1 . 497. A partir de la frmula para fX(1) ,...,X(n) (x1 , . . . , xn ), calcule la funcin o o de densidad marginal de X(n) , encontrando nuevamente que fX(n) (x) = nf (x)[F (x)]n1 . 498. A partir de la frmula para fX(1) ,...,X(n) (x1 , . . . , xn ), calcule la funcin o o de densidad marginal de X(i) , para i = 1, . . . , n, encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

499. A partir de la frmula para fX(i) ,X(j) (x, y), calcule la funcin de deno o sidad marginal de X(i) , encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i1 [1 F (x)]ni .

500. Sea X1 , . . . , Xn una m.a. de una distribucin unif(1, 1). Encuentre o la funcin de densidad de o a) X(1) y X(2) conjuntamente. b) R = X(n) X(1) . 501. Mediana muestral. La mediana de una muestra aleatoria X1 , . . . , Xn , denotada por Med(X1 , . . . , Xn ), se dene del siguiente modo. Considere las estad sticas de orden X(1) X(2) X(n) , entonces X( n+1 ) si n es impar, 2 Med(X1 , . . . , Xn ) = 1 [X n + X n (2) ( 2 +1) ] si n es par. 2

286

6.3. Ejercicios Encuentre la funcin de densidad de la mediana de una muestra aleao toria de la distribucin unif(0, 1), primero suponiendo que el tamao o n de la muestra n es impar, y despus para n par. e

502. Sea X1 , . . . , Xn una m.a. de una distribucin unif(0, 1). Calcule el o coeciente de correlacin entre X(i) y X(j) . o o 503. Sea X1 , . . . , Xn una m.a. de una distribucin continua F (x) con funcin de densidad f (x). Demuestre directamente que para x < y, o fX(1) ,X(n) (x, y) = n(n 1)f (x)f (y)[F (y) F (x)]n2 . 504. Encuentre la funcin de densidad conjunta de X(1) y X(n) para una o m.a. de tamao n de una distribucin: a) unif(0, 1). n o b) exp(). 505. Calcule la covarianza entre X(1) y X(n) para una m.a. de tamao n de n una distribucin: a) unif(0, 1). o b) exp().

Cap tulo 7

Convergencia

En este cap tulo se presenta una introduccin al tema de convergencia de o variables aleatorias. Histricamente este tema surge a travs de ciertas preo e guntas que se formularon acerca del comportamiento del promedio de va1 riables aleatorias n n Xi cuando n crece a innito. En la ultima parte i=1 del texto estudiaremos algunos resultados importantes sobre este comportamiento limite particular. En este cap tulo estudiaremos distintas formas en que una sucesin innita de variables aleatorias puede converger de manera o general. En la mayor de las situaciones que consideraremos supondremos a que existe un espacio de probabilidad (, F , P ) en donde una sucesin ino nita de variables aleatorias X1 , X2 , . . . estan todas ellas denidas.

7.1.

Tipos de convergencia

Convergencia puntual
Sea X1 , X2 , . . . una sucesin innita de variables aleatorias. Al evaluar cada o una de estas variables en un elemento se obtiene la sucesin numrica o e X1 (), X2 (), . . . Suponga que esta sucesin converge a un cierto nmero o u real denotado por X(). Si lo anterior se cumple para todos y cada uno 287

288

7.1. Tipos de convergencia

de los elementos de , entonces se dice que la sucesin de variables aleatoo rias converge puntualmente, y su l mite es la funcin X : R denida o naturalmente por X() = l n Xn (). Se ha demostrado antes que en m esta situacin la funcin l o o mite X es efectivamente una variable aleatoria. Formalmente se tiene entonces la siguiente denicin. o Definicion. (Convergencia puntual). La sucesin de variables aleao torias X1 , X2 , . . . converge puntualmente a X si para cada en ,
n

l Xn () = X(). m

Ejemplo. Considere el espacio medible ([0, 1], B[0, 1]), y dena la sucesin o n . Como en este caso el esde variables aleatorias continuas Xn () = pacio muestral es un subconjunto de nmeros reales, podemos gracar las u variables aleatorias como en la Figura 7.1.
Xn ()

1 Figura 7.1: Grca de la variable aleatoria Xn () = n . a Entonces para cada [0, 1), la sucesin numrica Xn () converge a 0, o e mientras que para = 1, y para cualquier valor de n, Xn () = 1. De esta manera la sucesin converge puntualmente a la variable aleatoria o X() = 0 si [0, 1), 1 si = 1.

Cap tulo 7. Convergencia

289

Ejercicio. Considere el espacio medible (N, 2N ). Determine si existe convergencia puntual para cada una de las siguientes sucesiones de variables aleatorias discretas. En caso armativo encuentre la variable aleatoria l min{, n} c) Xn () = mx{, n} a te. a) Xn () = mod n b) Xn () = m Una sucesin de variables aleatorias es entonces una sucesin de funciones, o o pero a diferencia de la situacin que se estudia en los cursos de anlisis o a matemtico, el dominio de denicin de estas funciones, es decir, el espacio a o muestral en este caso, no tiene una estructura algebraica excepto la dada por la -lgebra y la medida de probabilidad. La forma en la que se utilia za esta medida de probabilidad es la que determina los distintos tipos de convergencia.

Convergencia casi segura


En algunas situaciones la convergencia puntual resulta ser una condicin o muy fuerte pues se pide la convergencia de la sucesin evaluada en todos y o cada uno de los elementos del espacio muestral. Se puede ser menos estricto y pedir, por ejemplo, que la convergencia se verique en todo el espacio excepto en un subconjunto de probabilidad cero. Definicion. (Convergencia casi segura). La sucesin de variables o aleatorias X1 , X2 , . . . converge casi seguramente a la variable X, si P { : l Xn () = X()} = 1. m
n

Es decir, en la convergencia casi segura se permite que para algunos valores de , la sucesin numrica X1 (), X2 (), . . . pueda no converger, sin emo e bargo el subconjunto de en donde esto suceda debe tener probabilidad

290

7.1. Tipos de convergencia


c.s.

cero. Para indicar la convergencia casi segura se escribe Xn X, o bien l Xn = X c.s. A menudo se utiliza el trmino convergencia casi dondem e n quiera, o bien convergencia casi siempre para denotar este tipo de convergencia. Observe que omitiendo el argumento , la condicin para la convergeno cia casi segura se escribe en la forma ms corta: P ( l n Xn = X ) = 1, a m o simplemente P (Xn X) = 1. Es posible demostrar que el conjunto { : Xn () X()) es medible de modo que tiene sentido aplicar la probabilidad, al respecto vase el ejercicio 506. Puede tambin demostrarse e e que bajo este tipo de convergencia, el l mite es unico casi seguramente, es decir, si Xn converge a X c.s. y tambin converge a Y c.s., entonces X = Y e casi seguramente. Ejemplo. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida uniforme, es decir, la medida de probabilidad de un intervalo es su longitud. Dena la sucesin de variables aleatorias como se muestran en la o Figura 7.2.
Xn () = 1[0,1/n] ()

1/n

Figura 7.2: Grca de la variable aleatoria Xn () = 1[0,1/n] (). a Es decir, la variable Xn tiene distribucin Bernoulli con parmetro p = 1/n, o a y converge casi seguramente a la variable aleatoria constante cero. Para demostrar esto se necesita vericar que P (Xn 0) = 1. Pero esta igualdad es evidente a partir del hecho de que el conjunto { : Xn () 0} es el intervalo (0, 1], el cual tiene probabilidad uno. El punto = 0 es el unico punto muestral para el cual Xn () no converge a cero. Esto demuestra que

Cap tulo 7. Convergencia Xn 0.


c.s.

291

Ejercicio. Sea A un evento cualquiera. Demuestre que la siguiente sucesin o de variables aleatorias no converge para ningn en . u Xn = 1A 1Ac si n es par, si n es impar.

Convergencia en probabilidad
Un tipo de convergencia an menos restrictiva que la convergencia casi u segura es la convergencia en probabilidad la cual se dene a continuacin. o Definicion. (Convergencia en probabilidad). La sucesin de vao riables aleatorias X1 , X2 , . . . converge en probabilidad a X, si para cada > 0, l P { : |Xn () X()| > } = 0. m
n

Para denotar la convergencia en probabilidad se escribe Xn X, y omitiendo el argumento la condicin se escribe l n P ( |Xn X| > ) = 0. o m Nuevamente puede comprobarse que el l mite es unico casi seguramente. Ejemplo. Considere el espacio de probabilidad ((0, 1), B(0, 1), P ), con P la medida uniforme. Dena la sucesin de eventos o A1 = (0, 1/2), A2 = (1/2, 1), A3 = (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1), A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1),

292

7.1. Tipos de convergencia

Sea Xn = 1An . Las grcas de estas primeras variables aleatorias se muesa p tran en la Figura 7.3. Entonces Xn 0 pues para cualquier > 0,
n

l P (|Xn 0| > ) = l P (An ) = 0. m m


n

Por otro lado observe que esta sucesin de variables aleatorias no converge o casi seguramente pues el conjunto { : l Xn () existe} es vac m o.
n

X1

X2

1
X3 X4

1
X5

1 1 1 Figura 7.3: Grcas de las primeras variables aleatorias Xn = 1An . a

En algunos casos la aplicacin de la desigualdad de Chebyshev resulta util o para demostrar este tipo de convergencia como se muestra a continuacin. o o Ejercicio. Sea X1 , X2 , . . . una sucesin de variables aleatorias independientes cada una de ellas con distribucin N(, 2 ) y dena el promedio o n 1 Sn = n i=1 Xi . Use la desigualdad de Chebyshev para demostrar que p Sn . Observe que el mismo argumento funciona para cualquier sucesin de variables aleatorias independientes idnticamente distribuidas con o e varianza nita.

Cap tulo 7. Convergencia

293

Convergencia en media
En este tipo de convergencia se usa la esperanza para determinar la cercan a entre dos variables aleatorias. Definicion. (Convergencia en media). La sucesin de variables o aleatorias integrables X1 , X2 , . . . converge en media a la variable aleatoria integrable X si l E|Xn X| = 0. m
n

A este tipo de convergencia tambin se le llama convergencia en L1 y se le e denota por Xn X, o Xn X. A partir de la denicin de convergencia en media es inmediato preguntarse o si de all se sigue la convergencia de la sucesin de medias. La respuesta es o armativa. Ejercicio. Use la desigualdad de Jensen para demostrar que si Xn X, entonces E(Xn ) E(X).
m m L1

Convergencia en media cuadrtica a


Nuevamente usando el concepto de esperanza pero ahora aplicado al segundo momento se tiene la convergencia en media cuadrtica. Ms adelante a a demostraremos que la convergencia en media cuadrtica implica la convera gencia en media.

294

7.1. Tipos de convergencia

Definicion. (Convergencia en media cuadratica). La sucesin o a de variables aleatorias X1 , X2 , . . . converge en media cuadrtica a X, si
n

l E|Xn X|2 = 0. m

En este tipo de convergencia se presupone que tanto los elementos de la sucesin como el l o mite mismo son variables aleatorias con segundo momento nito. A este tipo de convergencia tambin se le llama convergencia en L2 , e y se le denota por Xn X, o Xn X. En general puede denirse la convergencia en Lk , para cada entero k 1, cuando se cumple la condicin E|Xn X|k 0. Resulta que mientras mayor o es el valor de k, ms restrictiva es la condicin de convergencia. a o
m.c. L2

Convergencia en distribucin o
Este es el tipo de convergencia menos restrictiva de todas las mencionadas. En contextos ms generales se le llama tambin convergencia dbil. a e e Definicion. (Convergencia en distribucion). La sucesin de vao riables aleatorias X1 , X2 , . . . converge en distribucin a X, si para todo o punto x en donde la funcin FX (x) es continua, se cumple que o
n

l FXn (x) = FX (x). m

En este caso se escribe Xn X, o FXn FX , o bien Xn FX . Por ejemplo, si la distribucin l o mite es la distribucin normal estndar, puede o a d escribirse Xn N(0, 1). Observe que para este tipo de convergencia se hace

Cap tulo 7. Convergencia

295

uso slamente de las funciones de distribucin y por lo tanto las variables o o aleatorias correspondientes pueden estar denidas en distintos espacios de probabilidad. La unicidad del l mite no se da en el sentido casi seguro como en los anteriores tipos de convergencia, sino en el sentido ms dbil de a e igualdad de distribuciones. Ejemplo. Considere la sucesin X1 , X2 , . . ., en donde cada Xn tiene distrio d 2 /n). Demostraremos que X 0. Como bucin N(0, o n FXn (x) = 1 2 2 /n
x

eu

2 /2( 2 /n)

du,

e interpretando esta integral como el rea bajo la curva de una funcin de a o densidad normal con media cero y varianza 2 /n, puede comprobarse que si x < 0, 0 1/2 si x = 0, l FXn (x) = m n 1 si x > 0. Grcamente la distribucin l a o mite se muestra en la Figura 7.4. Observe que la variable aleatoria constante X = 0 tiene funcin de distribucin o o FX (x) =
d

0 1

si x < 0, si x 0.
n

punto x donde FX (x) es continua, esto es, para todo x en el conjunto R\{0}. Observe que las funciones FXn (x) no convergen a F (x) cuando x = 0.

Tenemos entonces que Xn 0, pues l FXn (x) = FX (x) para todo m

En la siguiente seccin demostraremos que la convergencia en probabilidad o implica la convergencia en distribucin. El rec o proco en general es falso excepto cuando el l mite es una constante. Este es el contenido del siguiente resultado el cual ser usado ms adelante para demostrar la ley dbil de los a a e grandes nmeros. u

296

7.1. Tipos de convergencia


FXn (x) 1

Figura 7.4: Sucesin y l o mite de las funciones de distribucin FXn (x). o


p

Proposicion. Sea c una constante. Si Xn c, entonces Xn c. Demostracin. La funcin de distribucin de la variable aleatoria constante o o o c es 0 si x < c, F (x) = 1 si x c, que tiene un unico punto de discontinuidad en x = c. Suponga entonces que FXn (x) F (x) para x = c. Para cualquier > 0 se tiene que P (|Xn c| ) = P (Xn c ) + P (Xn c + ) = FXn (c ) + 1 FXn (c + /2).
n

P (Xn c ) + P (Xn > c + /2)

De modo que l P (|Xn c| ) = F (c ) + 1 F (c + /2) = 0. m A manera de resumen y sin mayores precisiones, se presenta en la siguiente tabla las deniciones de los distintos tipos de convergencia mencionados. En la siguiente seccin se estudian las relaciones entre estos tipos de convergeno cia.

Cap tulo 7. Convergencia

297

Convergencia puntual casi segura en media en media cuadrtica a en probabilidad en distribucin o

Definicion Xn () X() para cada en . P (Xn X) = 1. E|Xn X| 0. E|Xn X|2 0. P (|Xn X| > ) 0. FXn (x) FX (x) en puntos de continuidad x de FX .

7.2.

Relaciones entre los tipos de convergencia

En esta seccin se establecen algunas relaciones generales entre los tipos de o convergencia de variables aleatorias mencionados en la seccin anterior. En o la Figura 7.5 se ilustran de manera grca estas relaciones. a En este diagrama la contencin se interpreta como implicacin, por ejemplo, o o la convergencia casi segura implica la convergencia en probabilidad, y sta e a su vez implica la convergencia en distribucin. Estos y otros resultados se o demuestran a continuacin. o Proposicion. Convergencia c.s. convergencia en prob. Demostracin. Sea > 0. Para cada natural n dena los eventos o An =

k=n

(|Xk X| > ).

298

7.2. Relaciones entre los tipos de convergencia

Conv.

casi

segura

Conv. en m. c. Conv. en m.

Conv. en probabilidad Conv. en distribucin o

Figura 7.5: Relacin entre los tipos de convergencia. o Esta sucesin es decreciente y su l o mite es entonces la interseccin de todos o los eventos. Como (|Xn X| > ) An , entonces P (|Xn X| > ) P (An ). Por lo tanto,
n

l P (|Xn X| > ) m

l P (An ) m
n n=1

= P ( l An ) m = P( An )

= P (|Xn X| > , para cada n 1 ) = P ( l Xn = X ) m


n

= 0.

El rec proco de la proposicin anterior es, en general, falso, es decir, la o convergencia en probabilidad no implica necesariamente la convergencia casi

Cap tulo 7. Convergencia

299

siempre. Para comprobar esta armacin se proporciona a continuacin un o o ejemplo. Ejemplo. (En general, conv. en prob. = conv. c.s.). Considere el espacio de probabilidad ((0, 1), B(0, 1), P ), con P la medida uniforme. Dena nuevamente la sucesin de eventos A1 = (0, 1/2), A2 = (1/2, 1), A3 = o (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1), A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1), . . . y con ellos las variables aleatorias Xn = 1An , cuyas grcas aparecen en la Figura 7.3. Hemos comprobado antes que a p Xn 0, sin embargo la sucesin no converge casi seguramente pues Xn (w) o no converge para ningn . u Ejemplo. (En general, conv. en media = convergencia c.s.). m Considere la sucesin de variables Xn del ejemplo anterior. Entonces Xn o 0 pues E|Xn 0| = P (An ) 0. Sin embargo esta sucesin no converge c.s. o El ejemplo anterior sirve tambin para mostrar que, en general, la convere gencia en media cuadrtica no implica la convergencia casi segura. En este a ejemplo se cumple que E|Xn 0|2 0, y sin embargo Xn no converge a 0 c.s. Ejemplo. (En general, conv. c.s. = conv. en media). Considere el espacio ((0, 1), B(0, 1), P ), con P la medida de probabilidad uniforme. Dena la sucesin Xn = n 1(0,1/n) . Entonces Xn converge a cero casi seguo ramente pues P (l Xn = 0) = P () = 1. Sin embargo no hay convergencia m en media pues E|Xn 0| = E(Xn ) = 1 0. Este ejemplo puede ser usado tambin para demostrar que la convergencia e casi segura no implica necesariamente la convergencia en media cuadrtica. a Proposicion. Convergencia en m.c. convergencia en media.

300

7.2. Relaciones entre los tipos de convergencia

Demostracin. La desigualdad de Jensen establece que para u convexa, o u(E(X)) E(u(X)). Tomando u(x) = x2 se obtiene E 2 |Xn X| E|Xn X|2 , de donde se sigue el resultado. Alternativamente la ultima desigualdad es consecuencia de la desigualdad de Cauchy-Schwarz. Ejemplo. (En general, conv. en media = conv. en m.c.) Sea Xn = n 1(0,1/n2 ) sobre el espacio ((0, 1), B(0, 1), P ), con P la medida uniforme. Entonces Xn converge a cero en media pues E|Xn 0| = E(Xn ) = 1/n 0. Sin embargo, no hay convergencia en media cuadrtica pues E|Xn 0|2 = a 2 E(Xn ) = 1 0. Proposicion. Convergencia en media convergencia en prob. Demostracin. Para cada > 0 dena el evento An = (|Xn X| > ). o Entonces E|Xn X| = E(|Xn X| 1An ) + E(|Xn X| 1Ac ) n E(|Xn X| 1An ) P (|Xn X| > ).

Por hiptesis, el lado izquierdo tiende a cero cuando n tiende a innito. Por o lo tanto P (|Xn X| > ) 0. El rec proco del resultado anterior es, en general, falso. Ejemplo. (En general, conv. en prob. = conv. en media). Considere nuevamente el espacio ((0, 1), B(0, 1), P ), con P la medida uniforme, y dena las variables Xn = n 1(0,1/n) . Entonces Xn converge en probabilidad a cero pues para cualquier > 0, P (|Xn 0| > ) = P (Xn > ) = 1/n 0.

Cap tulo 7. Convergencia

301

Sin embargo, la sucesin no converge en media pues E|Xn 0| = E(Xn ) = o 1 0. Proposicion. Convergencia en prob. convergencia en dist. Demostracin. Suponga que Xn X, y sea x un punto de continuidad o de FX (x). Para cualquier > 0, FXn (x) = P (Xn x)
p

= P (Xn x, |Xn X| ) + P (Xn x, |Xn X| > ) P (X x + ) + P (|Xn X| > ).

Por hiptesis el segundo sumando del lado derecho tiende a cero cuando n o tiende a innito. Entonces para cualquier > 0, l sup FXn (x) FX (x + ). m
n

Por la continuidad lateral, l sup FXn (x) FX (x). m


n

Ahora se demuestra la desigualdad inversa. Para cualquier > 0 FX (x ) = P (X x )

P (Xn x) + P (|Xn X| > ).

= P (X x , |Xn X| ) + P (X x , |Xn X| > )

Nuevamente el segundo sumando tiende a cero cuando n tiende a innito. Entonces FX (x ) l inf FXn (x). m
n

Por la continuidad en x, FX (x) l inf FXn (x). m


n

302

7.2. Relaciones entre los tipos de convergencia

En resumen, FX (x) l inf FXn (x) l sup FXn (x) FX (x). m m


n n

El rec proco de la proposicin anterior no siempre es vlido, es decir, la o a convergencia en distribucin no siempre implica la convergencia en probao bilidad. Ejemplo. (En general, conv. en dist. = conv. en prob.) Sea X con distribucin normal estndar, y sea o a Xn = X si n es par, X si n es impar.

FX (x), es decir, Xn X. Sin embargo la sucesin no converge en proo babilidad a X, pues para valores impares de n y para valores pequeos de n > 0, P (|Xn X| > ) = P (2|X| > ) > 1/2. Lo anterior demuestra que l P (|Xn X| > ) = 0. m
n

e Entonces claramente cada una de las variable Xn tambin tiene distribucin normal estndar y por lo tanto para cualquier nmero real x, FXn (x) o a u
d

Esto concluye la vericacin y ejemplos de todas las implicaciones y no o implicaciones que se derivan del diagrama de la Figura 7.5. El lector interesado en profundizar los temas aqui expuestos puede consultar el cap tulo 5 del libro de Karr [18], o el excelente texto de Gut [13], asi como los textos clsicos de teor de la medida [5] o [14], por ejemplo. Los resultados de a a convergencia en espacios de probabilidad aqui mencionados pueden no ser vlidos en espacios de medida ms generales. a a

Cap tulo 7. Convergencia

303

7.3.

Dos resultados importantes de convergencia

Sea X1 , X2 , . . . una sucesin de variables aleatorias con esperanza nita. o Suponga que Xn converge casi seguramente a X. Es natural preguntarse si la sucesin de nmeros E(Xn ) converge a E(X). Tal convergencia numrica o u e equivaldr a poder intercambiar las operaciones de l a mite y esperanza, es decir, l E(Xn ) = E( l Xn ). m m
n n

Por ejemplo, considere el espacio ((0, 1), B(0, 1), P ), con P la medida de probabilidad uniforme. Hemos considerado antes la sucesin de variables o aleatorias Xn = n 1(0,1/n) , cuyo l mite es X = 0 casi seguramente. Sin embargo E(Xn ) es siempre 1 y no converge a E(X) = 0. Este es un ejemplo sencillo en donde no es vlido intercambiar la esperanza y el l a mite. En esta seccin se estudian dos resultados que establecen condiciones bajo las cuales o es vlido este intercambio. a Teorema de convergencia monotona. Sea 0 X1 X2 una sucesin de variables aleatorias convergente casi seguramente a una o variable X. Entonces
n

l E(Xn ) = E(X). m

Demostracin. Como 0 Xn X, entonces 0 E(Xn ) E(X). Por lo o tanto l E(Xn ) E(X). m


n

Ahora resta demostrar la desigualdad contraria. Primero se aproxima a X de la siguiente forma. Sea > 0 arbitrario, y para cada entero k 0 dena el evento Ak = ( k X < (k + 1) ). Esta es una coleccin de eventos o disjuntos dos a dos, cuya unin es . Dena ahora la variable aleatoria o

304

7.3. Dos resultados importantes de convergencia

discreta aproximante Y () = k si k X() < (k + 1).

Observe que Y aproxima a X de la forma: Y X < Y + . O bien X < Y X. Por lo tanto, E(X) E(Y ) E(X). Para cada nmero u natural n dena el evento Bn = (Xn Y ). No es dif comprobar que cil Bn . Por lo tanto, para k jo, Ak Bn Ak cuando n , y entonces P (Ak Bn ) P (Ak ). Ahora considere la variable aleatoria discreta Y 1Bn dada por Y () si Bn , Y 1Bn () = 0 si Bn . / Entonces 0 Y 1Bn Xn , y por lo tanto 0 E(Y 1Bn ) E(Xn ). Entonces
n

l E(Xn ) m = = =

l E(Y 1Bn ) m l m
k=0 k=0 m k=0

E(Y 1Bn Ak ) k P (Bn Ak ) k P (Bn Ak )

l m

n m

l m

k P (Ak ).
k=0

Como esta desigualdad es vlida para cualquier m 0, se obtiene a


n

l E(Xn ) m

k=0

k P (Ak ) = E(Y ) E(X) .


n

Dado que > 0 es arbitrario, se concluye que l E(Xn ) E(X). m El siguiente resultado establece otro tipo de condicin suciente para obteo ner la misma conclusin. o

Cap tulo 7. Convergencia

305

Teorema de convergencia dominada. Sea X1 , X2 , . . . una sucesin o de variables aleatorias para la cual existe otra variable Y integrable tal que |Xn | Y , para n 1. Si l Xn = X c.s., entonces X y Xn son m n integrables y l E(Xn ) = E(X). m
n

Demostracin. Sea Yn = o nf{Xn , Xn+1 , . . .}. Entonces Yn X cuando n . Por lo tanto (Yn + Y ) (X + Y ), en donde Yn + Y 0, pues como Xn Y , entonces Xn Y para toda n, y por lo tanto Yn Y . Por el teorema de convergencia montona, E(Yn + Y ) E(X + Y ). De donde se o obtiene E(Yn ) E(X). Sea ahora Zn = sup{Xn , Xn+1 , . . .}. Entonces Zn X cuando n . Por lo tanto (Y Zn ) (Y X), en donde Y Zn 0, pues como Xn Y para toda n, entonces Zn Y . Por el teorema de convergencia montona, o E(Y Zn ) E(Y X). De donde se obtiene E(Zn ) E(X). Ahora observe que Yn Xn Zn . Por lo tanto E(Yn ) E(Xn ) E(Zn ). Al hacer n tender a innito se obtiene el resultado. Estos dos teoremas son herramientas fuertes en la teor de la probabilidad. a En particular, se usarn en la ultima parte del curso para formalizar algunas a demostraciones.

306

7.4. Ejercicios

7.4.

Ejercicios
Convergencia casi segura

506. Para la convergencia casi segura se pide que el conjunto { : Xn () X()) tenga probabilidad uno. Demuestre la medibilidad de tal conjunto probando que es idntico al evento e

k=1 m=1 n=m

( |Xn X| 1/k ).

507. Demuestre que en la convergencia casi segura, el l mite es unico casi c.s. c.s. seguramente, es decir, si Xn X, y Xn Y , entonces X = Y casi seguramente. Sugerencia: |X Y | |X Xn | + |Xn Y |. 508. Demuestre que si Xn X, entonces aXn + b aX + b, en donde a y b son constantes. 509. Demuestre que si Xn X y Yn Y , entonces a) Xn + Yn X + Y. b) Xn Yn XY.
c.s. c.s. c.s. c.s. c.s. c.s.

510. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ), con P la medida de probabilidad uniforme. Demuestre que la sucesin Xn = n1[0,1/n) o converge casi seguramente a la variable aleatoria constante cero. 511. Condicion equivalente para la convergencia casi segura. c.s. Demuestre que Xn X si, y slo si, para cualquier > 0, o P ( |Xn X| > para una innidad de valores de n ) = 0.

512. Use el ejercicio anterior para demostrar que si para cualquier > 0, c.s. n=1 P (|Xn X| > ) < , entonces Xn X.

Cap tulo 7. Convergencia

307

Convergencia en probabilidad
513. Demuestre que en la convergencia en probabilidad, el l mite es unico p p casi seguramente, es decir, si Xn X, y Xn Y , entonces X = Y casi seguramente. Sugerencia: P (|X Y | > ) P (|X Xn | > /2)+P (|Xn Y | > /2). 514. Considere el espacio de probabilidad ((0, 1], B(0, 1], P ), en donde P es la medida de probabilidad uniforme. Dena las variables aleatorias discretas n k Xn = 1 k1 k . n ( m ,n]
k=1

Demuestre que Xn converge en probabilidad a una variable aleatoria con distribucin uniforme en el intervalo (0, 1]. o 515. Demuestre que si Xn X, entonces aXn + b aX + b, en donde a y b son constantes. 516. Suponga que Xn x y Yn y, en donde x y y son dos nmeros u reales jos. Demuestre que a) Xn + Yn x + y. b) Xn Yn xy.
p p p p p p

c) Si g es continua en x, entonces g(Xn ) g(x).


p p p

517. Demuestre que si Xn X y Yn Y , entonces a) Xn + Yn X + Y . b) Xn Yn XY .


p

518. Sean X1 , X2 , . . . variables aleatorias independientes cada una con distribucin unif[a, b]. Demuestre que cuando n tiende a innito o a) m n{X1 , . . . , Xn } a.
p p

b) mx{X1 , . . . , Xn } b. a

308
p

7.4. Ejercicios
p

2 519. Demuestre que si Xn X, entonces Xn X 2 .

520. Sea c > 0 una constante. Use la desigualdad de Chebyshev para dep mostrar que si Xn tiene distribucin gama(cn, n), entonces Xn c. o

Convergencia en media
521. Demuestre que en la convergencia en media, el l mite es unico casi m m seguramente, es decir, si Xn X, y Xn Y , entonces X = Y casi seguramente. Sugerencia: E|X Y | E|X Xn | + E|Xn Y |. 522. Demuestre que si Xn X, entonces aXn + b aX + b, en donde a y b constantes. 523. Suponga que Xn X y Yn Y . Demuestre que Xn + Yn X + m Y . Proporcione un contraejemplo para la armacin: Xn Yn XY . o
m m m m m

Convergencia en media cuadrtica a


524. Demuestre que en la convergencia en media cuadrtica, el l a mite es m.c. m.c. unico casi seguramente, es decir, si Xn X, y Xn Y , entonces X = Y casi seguramente. Sugerencia: Por la desigualdad cr con r = 2, E|X Y |2 2 (E|X Xn |2 + E|Xn Y |2 ). 525. Demuestre que si Xn X, entonces aXn + b aX + b, en donde a y b son constantes. 526. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn m.c. m.c. X y Yn Y , entonces Xn + Yn X + Y .
m.c. m.c. m.c.

Convergencia en distribucin o
527. Demuestre que en la convergencia en distribucin, el l o mite es unico d d en distribucin, es decir, si Xn X, y Xn Y , entonces X y Y o

Cap tulo 7. Convergencia

309

tienen la misma distribucin. o Sugerencia: |FX (x) FY (x)| |FX (x) FXn (x)| + |FXn (x) FY (x)|. 528. Sea c una constante y suponga que Xn X y Yn Y . Demuestre que a) cXn cX. b) Xn + c X + c. 529. Demuestre que si Xn X y Yn Y , entonces no necesariamente d Xn + Yn X + Y . 530. Demuestre que a) si Xn 0, entonces Xn 0.
d d d d d d p d d d d d d

b) si Xn 0 y Yn 0, entonces Xn + Yn 0. c) si Xn 0 y Yn 0, entonces Xn Yn 0. 531. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) en donde P es la medida de probabilidad uniforme. Demuestre que la sucesin Xn = o 1[0,1/2+1/n) converge en distribucin a la variable aleatoria X = 1[0,1/2] . o 532. Sea Xn con distribucin unif[a 1/n, a + 1/n], en donde a es una o constante. Demuestre que Xn a.
d

533. Sea Xn con distribucin uniforme en el conjunto {0, 1, . . . , n}, y sea o X continua con distribucin uniforme en el intervalo [0, 1]. Demuestre o que
1 n Xn

X.

534. Sea X con distribucin uniforme en el conjunto {0, 1}. Demuestre que o la siguiente sucesin de variables aleatorias converge en distribucin o o pero no converge en probabilidad. Xn = X si n es par, 1 X si n es impar.

310

7.4. Ejercicios

Relaciones entre los tipos de convergencia


535. Otro ejemplo de que la conv. casi segura no implica la conv. en media. Sea X1 , X2 , . . . una sucesin de variables aleatorias o independientes e idnticamente distribuidas tales que para cada nmee u ro natural n, P (Xn = 0) = 1/4, P (Xn = 1) = 1/2 y P (Xn = 2) = 1/4. Dena el producto Yn = X1 X2 Xn . Demuestre que Yn converge a cero, casi seguramente, pero no as en media, ni en media cuadrtica. a 536. Sea A1 , A2 , . . . una sucesin de eventos convergente al evento A. En o qu sentido la sucesin de variables aleatorias 1An converge a 1A ? e o
2 537. Sea Xn con distribucin N(n , n ) y X con distribucin N(, 2 ). Suo o 2 2 , con 2 , 2 > 0. En qu sentido X X? ponga n y n e n n

Cap tulo 8

Funciones generadoras

En este cap tulo se estudia la funcin generadora de probabilidad, la funcin o o generadora de momentos y la funcin caracter o stica. Estas funciones son transformaciones de las distribuciones de probabilidad, y constituyen una herramienta muy util en la teor moderna de la probabilidad. a

8.1.

Funcin generadora de probabilidad o

Definicion. (Funcion generadora de probabilidad). La funcin o generadora de probabilidad de una variable aleatoria X es la funcin o G(t) = E(tX ), denida para valores reales de t tal que la esperanza sea convergente absolutamente. Cuando sea necesario especicarlo se escribe GX (t) en lugar de G(t), y se usan las letras f.g.p. en lugar de funcin generadora de probabilidad. Eso ta funcin se utiliza principalmente, aunque no unicamente, para variables o

311

312

8.1. Funcion generadora de probabilidad

aleatorias con valores enteros. Supondremos tal caso y sin prdida de gee neralidad consideraremos que las variables toman valores en el conjunto {0, 1, . . .}, que corresponde a la mayor de las variables aleatorias discretas a estudiadas en este curso. En tal situacin, o G(t) =
k=0

tk P (X = k).

Es decir, la f.g.p. es una serie de potencias en t, con coecientes dados por la distribucin de probabilidad, por ende el nombre de dicha funcin. Es o o importante observar que el radio de convergencia de esta serie es por lo menos uno, pues para |t| < 1, |G(t)|
k=0

|t| P (X = k)

k=0

P (X = k) = 1.

Calculando la k-sima derivada puede comprobarse adems que a partir de e a la f.g.p. puede reconstruirse la funcin de densidad a travs de la frmula o e o P (X = k) = G(k) (0)/k! Ejemplo. Sea X con distribucin Poisson(). La f.g.p. de X est denida o a para todo valor real de t y puede calcularse de la siguiente forma. G(t) =
k=0

tk e

k = e k!

k=0

(t)k = e et = e(1t) . k!

En la siguiente tabla se muestran ejemplos de funciones generadoras de probabilidad para algunas distribuciones discretas.

Cap tulo 8. Funciones generadoras

313

Distribucion unif{x1 , . . . , xn } Ber(p) bin(n, p) geo(p) Poisson() bin neg(r, p)

Funcion generadora de probabilidad G(t) = (tx1 + + txn )/n G(t) = 1 p + pt G(t) = (1 p + pt)n G(t) = p/[1 t(1 p)] G(t) = e(1t) G(t) = (p/[1 t(1 p)])r

La funcin generadora de probabilidad determina de manera unica a la o distribucin en el siguiente sentido. Si X y Y tienen la misma distribucin o o de probabilidad, entonces naturalmente GX (t) = GY (t), para valores de t donde esta esperanza exista. Inversamente, sean X y Y tales que GX (t) y GY (t) existen y coinciden en algn intervalo no trivial alrededor del cero, u entonces X y Y tienen la misma distribucin. Estas y otras propiedades o generales de la f.g.p. se estudian a continuacin, ms adelante se ilustran o a estos resultados con algunos ejemplos.

314

8.1. Funcion generadora de probabilidad

Proposicion. (Propiedades de la f.g.p.). 1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que GX (t) y GY (t) existen y coinciden en algn intervalo alrededor de u t = 0. Entonces X y Y tienen la misma distribucin de probabilio dad. 2. Si el n-simo momento factorial de X existe, entonces e l m dn GX (t) = E[X(X 1) (X n + 1)]. dtn

t1

3. Sean X y Y independientes con f.g.p. GX (t) y GY (t) respectivamente, entonces GX+Y (t) = GX (t) GY (t).

Demostracin. o 1. Para cada k 0, sean ak = P (X = k) y bk = P (Y = k). La igualdad GX (t) = GY (t) se escribe de la forma:
k=0

tk ak =

k=0

tk bk .

Para que estas dos series de potencias en t coincidan en algn interu valo no trivial alrededor del cero, sus coecientes deben forzosamente coincidir, es decir, ak = bk para cada k 0. Esto signica que las distribuciones de probabilidad coinciden. 2. Como las series de potencia se pueden derivar trmino a trmino cone e

Cap tulo 8. Funciones generadoras servndose el mismo radio de convergencia, se tiene que a G (t) = = = d dt
k=0 k=1 k=0

315

tk P (X = k)

d k t P (X = k) dt k tk1 P (X = k).

Como por hiptesis la esperanza existe, por el lema de Abel (ver o apndice), e
t1

l G (t) = m

kP (X = k) = E(X).

k=1

Para la segunda derivada se tiene G (t) =


k=2

k(k 1)tk2 P (X = k),

de modo que cuando el segundo momento existe, l G (t) = m


k=2

t1

k(k 1)P (X = k) = E(X(X 1)).

De manera anloga se demuestra para las derivadas de orden superior. a 3. Cuando X y Y son independientes, GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX ) E(tY ) = GX (t) GY (t).

Ejemplo. Se ha encontrado que la f.g.p. de una variable aleatoria X con distribucin Poisson() es G(t) = e(1t) . Usando esta funcin encontrao o remos la esperanza y varianza de X. Al derivar una vez se obtiene G (t) =

316

8.2. Funcion generadora de momentos

e(1t) , y al evaluar en t = 1, E(X) = G (1) = . Derivando por segunda vez, G (t) = 2 e(1t) , y en t = 1 se obtiene E(X(X 1)) = G (1) = 2 . Por lo tanto Var(X) = E(X 2 ) E 2 (X) = 2 + 2 = . Debido a la segunda propiedad, a la f.g.p. tambin se le conoce como funcin e o generadora de momentos factoriales. Ahora se muestra el uso de esta funcin o para determinar la distribucin de una variable aleatoria, el procedimiento o es elegante y sencillo. Ejemplo. Suponga que X y Y son independientes con distribucin Poisson(1 ) o y Poisson(2 ), respectivamente. Entonces GX+Y (t) = GX (t) GY (t) = e1 (1t) e2 (1t) = e(1 +2 )(1t) . Esta expresin corresponde a la f.g.p. de la distribucin Poisson con parmeo o a o tro 1 + 2 . Debido a la unicidad, X + Y tiene distribucin Poisson(1 + 2 ). La denicin de funcin generadora de probabilidad puede extenderse al o o caso de vectores aleatorios de la siguiente forma. La f.g.p. del vector (X, Y ) es la funcin GX,Y (s, t) = E(sX tY ), para valores reales de s y t donde o esta esperanza sea absolutamente convergente. Puede demostrarse que las variables X y Y son independientes si, y slo si, GX,Y (s, t) = GX (s) GY (t). o La denicin de f.g.p. para vectores de dimensin mayor es anloga. o o a

8.2.

Funcin generadora de momentos o

Esta es otra funcin que se puede asociar a algunas distribuciones de proo babilidad. Su existencia no est garantizada en todos los casos, pero cuando a existe, determina de manera unica a la distribucin de probabilidad asocia o da, y tiene propiedades semejantes a las de la funcin generadora de probao bilidad. La funcin generadora de momentos se utiliza tanto para variables o aleatorias discretas como continuas.

Cap tulo 8. Funciones generadoras

317

Definicion. (Funcion generadora de momentos). La funcin geo neradora de momentos de la variable aleatoria X es la funcin o M (t) = E(etX ), denida para valores reales de t tales que la esperanza es absolutamente convergente. Nuevamente, cuando sea necesario especicarlo se escribe MX (t) en lugar de M (t), y se usan las letras f.g.m. en lugar del trmino funcin generadora e o de momentos. La parte importante de esta funcin es su existencia en una o vecindad no trivial alrededor del cero. Observe que la f.g.m. y la f.g.p. estn a relacionadas, cuando existen, por la igualdad M (t) = G(et ). Ejemplo. Sea X con distribucin gama(n, ). Entonces la f.g.m. de X puede o calcularse de la siguiente forma. M (t) = (x)n1 ex dx (n) 0 [( t)x]n1 = n ( t)n ( t)e(t)x dx (n) 0 = [/( t)]n . etx

La ultima integral vale uno pues el integrando es la funcin de densidad o de una distribucin gama. Observe que M (t) esta denida unicamente para o valores de t menores que . La siguiente tabla muestra algunos otros ejemplos de funciones generadoras de momentos para ciertas distribuciones continuas.

318

8.2. Funcion generadora de momentos

Distribucion unif(a, b) exp() gama(n, ) N(, 2 ) 2 (n) t(n)

Funcion generadora de momentos M (t) = (ebt eat )/(bt at) M (t) = /( t) M (t) = [/( t)]n M (t) = exp(t + 2 t2 /2) M (t) = (1 2t)n/2 M (t) no existe para t = 0

Se demuestran a continuacin algunas propiedades bsicas de la f.g.m., y o a despus se muestra su utilidad mediante algunos ejemplos. e Proposicion. Sea X con f.g.m. M (t) nita para cada t (s, s), para algn s > 0. Entonces u 1. Todos los momentos de X son nitos. 2. M (t) =
n=0

tn E(X n ). n!

3. M (t) tiene derivadas continuas de cualquier orden en (s, s), y se cumple dn M (t) = E(X n ). dtn t=0

Demostracin. o

Cap tulo 8. Funciones generadoras 1. La prueba se basa en las identidades: E |X|n = n y


0

319

(1 F (x)) xn1 dx + n
0

0 0

F (x) |x|n1 dx, F (x) etx dx,

M (t) = 1 + t

(1 F (x)) etx dx t

en donde, por hiptesis, las dos integrales de M (t) son nitas para o cualquier t (s, s). Demostraremos que cada integral de la expresin o n es menor o igual a la correspondiente integral de M (t). Para de E|X| el caso x > 0 se toma cualquier t (0, s), y entonces (tx)n etx . n! Es decir, xn (n!/tn )etx . De modo que, salvo constantes, la primera integral de E|X|n es menor o igual a la primera integral de M (t), siendo sta ultima nita, la primera tambin. Para el caso x < 0 e e conviene tomar t (s, 0), pues en tal caso tx > 0 y entonces |tx|n e|tx| = etx . n! Es decir, |x|n (n!/|t|n )etx . Ahora la segunda integral de E|X|n es menor o igual a la segunda integral de M (t), siendo sta ultima nita, e la primera tambin. De esta forma todos los momentos de X existen e cuando M (t) es nita en algn intervalo no trivial alrededor del cero. u 2. Se usa la frmula o E(X n ) = n
0

(1 F (x)) xn1 dx n

F (x) xn1 dx.

320

8.2. Funcion generadora de momentos Entonces para cualquier t (s, s), y m 1,


m n=0

tn tn E(X n ) = 1 + n n! n! n=1
m

0 0

(1 F (x)) xn1 dx F (x) xn1 dx


m1 n t

n=1

tn n n!

= 1+t
0

(1 F (x)) F (x)

n=0 m1 n t n n=0

n!

xn dx

n!

x dx.

Usando el teorema de convergencia montona, o el de convergencia o dominada, dependiendo de los valores de t y x, cada una de estas integrales es convergente, para cualquier t (s, s), cuando se hace m tender a innito. De modo que
n=0

tn E(X n ) = 1 + t n! = M (t).

(1 F (x)) etx dx t

F (x) etx dx

3. Dado que M (t) se puede expresar como una serie de potencias en t, diferenciando y evaluando en cero se obtienen los coecientes E(X n ).

Nota importante. El hecho de que el n-simo momento de una variable e aleatoria exista, no implica que ste puede ser hallado a travs de la ne e sima derivada de la f.g.m. evaluada en cero. Es decir, es necesario conocer e la existencia de la f.g.m. para que pueda ser utilizada para obtener los momentos. Por ejemplo, una variable aleatoria con distribucin t(n) tiene o esperanza cero pero su f.g.m. M (t) no existe para t distinto de cero.

Cap tulo 8. Funciones generadoras

321

Ejemplo. Sea X con distribucin gama(n, ). Hemos encontrado antes que o para t < , M (t) = n (t)n . Calcularemos ahora la esperanza y varianza de X con ayuda de la f.g.m. Derivando una vez, M (t) = n n( t)n1 . Al evaluar en t = 0 se obtiene E(X) = n/. Derivando nuevamente, M (t) = n n(n+1)(t)n2 . Por lo tanto E(X 2 ) = M (0) = n(n+1)/2 . Entonces Var(X) = n(n + 1)/2 n2 /2 = n/2 . Ejemplo. Suponga ahora que X y Y son independientes cada una con distribucin gama(n, ) y gama(m, ), respectivamente. Entonces la f.g.m. o de X + Y es MX+Y (t) = MX (t) MY (t) = n ( t)n m ( t)m = n+m ( t)nm . Esta es la expresin de la f.g.m. de la distribucin gama, ahora con parmeo o a tros n+m y . Se concluye entonces X +Y tiene distribucin gama(n+m, ). o Nuevamente, es sencillo demostrar que la funcin generadora de la suma o de dos variables aleatorias independientes es el producto de las funciones generadoras individuales. Proposicion. Sean X y Y son independientes, y cuyas f.g.m. existen en una vecindad no trivial alrededor del cero. Entonces para cualquier t (s, s) para algn s > 0, u MX+Y (t) = MX (t) MY (t).

Demostracin. o MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX ) E(etY ) = MX (t) MY (t).

322

8.2. Funcion generadora de momentos

Es interesante observar que la condicin MX+Y (t) = MX (t) MY (t) no es o suciente para concluir que X y Y son independientes. Ejercicio. Sea (X, Y ) un vector aleatorio con funcin de densidad o f (x, y) = [1 + xy(x2 y 2 )]/4, para 1 < x, y < 1.

Demuestre que X y Y no son independientes y sin embargo se cumple la identidad MX+Y (t) = MX (t) MY (t). Como hemos mencionado antes, no todas las distribuciones de probabilidad permiten calcular la funcin generadora de momentos dentro de un intervalo o no trivial alrededor del cero, ni todos los clculos son tan sencillos como en el a ejemplo mostrado. Por ejemplo, la f.g.m. de la distribucin Cauchy estndar o a no existe para valores de t distintos de cero, esto se pide comprobar en el ejercicio 576. Por otro lado, cuando se tienen dos variables X y Y con la misma distribucin, entonces sus funciones generadoras de momentos coinciden o pues stas de obtienen a travs de la funcin de distribucin comn. Por el e e o o u contrario, si MX (t) = MY (t) en una vecindad no trivial alrededor del cero, entonces puede demostrarse que sus distribuciones coinciden, este resultado y otro relativo a convergencia es el contenido de la siguiente proposicin, o cuya demostracin omitiremos. o Proposicion. 1. (Unicidad). Las variables X y Y tienen la misma distribucin si, o y slo si, MX (t) = MY (t) para valores de t en una vecindad no o trivial alrededor del cero. 2. (Continuidad). Sea X1 , X2 , . . . una sucesin de variables aleatoo rias cuyas funciones generadoras de momentos existen todas ellas en algn intervalo no trivial alrededor del cero. Sea X con f.g.m. u d o MX (t). Entonces Xn X si, y slo si, MXn (t) MX (t). Para el caso de vectores aleatorios se tiene la siguiente denicin. La funo

Cap tulo 8. Funciones generadoras

323

cin generadora de momentos del vector (X, Y ) es la funcin MX,Y (s, t) = o o E(esX etY ), para valores reales de s y t donde esta esperanza sea absolutamente convergente. Puede demostrarse que las variables X y Y son independientes si, y slo si, MX,Y (s, t) = MX (s) MY (t). La denicin de f.g.m. o o para vectores de dimensin mayor es anloga. o a En la seccin de ejercicios se pueden encontrar las funciones generadoras de o momentos de algunas otras distribuciones de probabilidad, tanto discretas como continuas, as como en el primer apndice al nal del libro. e

8.3.

Funcin caracter o stica

Esta es una funcin denida para cada distribucin de probabilidad, y a o o diferencia de las funciones generadoras de probabilidad y de momentos estudiadas antes, siempre existe. Definicion. (Funcion caracter stica). La funcin caracter o stica de la variable aleatoria X es la funcin o (t) = E eitX , denida para cualquier nmero real t. El nmero i es la unidad de los u u nmeros imaginarios. u Observe que la transformacin X eitX lleva una variable aleatoria real X o a una variable aleatoria con valores en los nmeros complejos de la forma u cos(tX) + i sen(tX), en donde cada parte de este nmero complejo es una u variable aleatoria real, es decir, se trata de un vector aleatorio bidimensional como los estudiados anteriormente. La funcin caracter o stica puede entonces escribirse en la forma (t) = E(cos tX) + i E(sen tX). Nuevamente se escribe X (t) cuando sea necesario especicar que se trata de

324

8.3. Funcion caracter stica

la funcin caracter o stica de X, y se escribe simplemente f.c. en lugar de funcin caracterstica. Observe que la f.c., la f.g.m. y la f.g.p. estn relacionadas, o a cuando existen las dos ultimas, por las igualdades (t) = M (it) = G(eit ). Se muestran a continuacin algunos ejemplos de la forma de encontrar la o funcin caracter o stica a partir de una distribucin de probabilidad. o Ejemplo. Sea X con distribucin bin(n, p). Entonces o (t) = E(eitX )
n

=
x=0 n

eitx n x

n x

px (1 p)nx

=
x=0

(peit )x (1 p)nx

= (1 p + peit )n .

Ejemplo. Sea X con distribucin Poisson(). Entonces o (t) = E(eitX ) =


x=0

eitx e

x x!

= e

= e

x=0 (1eit )

(eit )x x! .

Otros ejemplos de funciones caracter sticas de distribuciones discretas se muestra en la siguiente tabla. El lector puede comprobar cada una de estas expresiones.

Cap tulo 8. Funciones generadoras

325

Distribucion Ber(p) bin(n, p) Poisson() geo(p) bin neg(r, p)

Funcion caracter stica (t) = 1 p + peit (t) = (1 p + peit )n (t) = e(1e


it

(t) = p/(1 (1 p)eit ) (t) = [p/(1 (1 p)eit )]r

Ahora se mostrar la forma de encontrar la funcin caracter a o stica para dos distribuciones continuas: la distribucin normal y la distribucin gama. o o Ejemplo. Sea X con distribucin N(, 2 ). Entonces o (t) = E(eitX ) = =

eitx 1

1 2 2

e(x)

2 /2 2

dx dx
2 )]2 /2 2

2 2

e(x

2 2x(it 2 )+2 )/2 2

= e(

2 +(it 2 )2 )/2 2

1 2 2

e[x(it

dx

= eitt

2 2 /2

Observe que el ultimo integrando es la funcin de densidad normal con media o el nmero complejo it 2 , y varianza 2 . El hecho de que esta integral u tambin vale uno puede comprobarse, por ejemplo, usando el principio de e

326

8.3. Funcion caracter stica

continuacin analtica de la teor de variable compleja. o a Ejemplo. Sea X con distribucin gama(n, ). Entonces o (t) = E(eitX ) =
0

eitx

(x)n1 x e dx (n)

(x)n1 e(it)x dx (n) 0 [( it)x]n1 n ( it) e(it)x dx = ( it)n 0 (n) n = ( ) . it = El ultimo integrando es la funcin de densidad de la distribucin gama(n, o o it). Nuevamente usando la teor de variable compleja puede demostrarse a rigurosamente que esta integral tambin vale uno. e La siguiente tabla muestra algunos otros ejemplos de funciones caracter sticas para variables aleatorias continuas.

Distribucion

Funcion caracter stica

unif(a, b) exp() gama(n, ) N(, 2 ) 2 (n) t(n)

(t) = (eibt eiat )/(ibt iat) (t) = /( it) (t) = [/( it)]n

(t) = (1 2it)n/2

(t) = exp(it 2 t2 /2)

(t) = e|t| , cuando n = 1.

Cap tulo 8. Funciones generadoras

327

La existencia de la funcin caracter o stica para cualquier distribucin de o probabilidad se sigue del siguiente resultado. Proposicion. (Existencia). Para cualquier nmero real t, |(t)| 1. u En particular, (0) = 1.

Demostracin. Para cualquier nmero real t, o u |(t)| = |


eitx dF (x)|

|eitx | dF (x) =

dF (x) = 1.

De modo que (t) es un nmero complejo de mdulo menor o igual a uno, u o para cualquier valor de t. Veremos a continuacin algunas otras propiedades o de esta importante funcin. En particular, demostraremos que los momentos o de una variable aleatoria X pueden ser generados, cuando existen, con la f.c. a travs de la frmula (n) (0) = in E(X n ), y como en el caso de las funciones e o generadoras anteriores, cuando X y Y son independientes se cumple que X+Y (t) = X (t) Y (t), no siendo vlido en general el rec a proco. Proposicion. Si X tiene n-simo momento nito, entonces e 1. dn (t) dtn = in E(X n ).
t=0

2. Cuando t 0,
n1

(t) =
k=0

(it)k (it)n E(X k ) + ( E(X n ) + o(1) ). k! n!

(8.1)

Demostracin. o

328

8.3. Funcion caracter stica

1. Para cualquier h distinto de cero, (t + h) (t) h = =


ei(t+h)x eitx dF (x) h eitx eihx 1 dF (x) h (8.2)

= E( eitX Como l m

eihX 1 ). h

h0

eihx 1 = ix, entonces, puntualmente, h l eitX m eihX 1 = iX eitX . h

h0

Comprobaremos que las variables aleatorias de esta sucesin, parameo trizada por h, estan uniformemente acotadas por una variable aleatoria integrable, en efecto, |eitX eihX 1 eihX 1 | = | | h h 1 h iX eisX ds| = | h 0 1 h isX |X| |e | ds h 0 = |X|.

Por hiptesis, E|X| < , de modo que usando el teorema de convero gencia dominada en (8.2) se obtiene d (t) = E[ iX eitX ]. dt Por el mismo procedimiento se encuentra que dn (t) = E[ (iX)n eitX ]. dtn

Cap tulo 8. Funciones generadoras

329

Tomando el l mite cuando t 0 y usando nuevamente el teorema de convergencia dominada, se demuestra nalmente que dn (t) dtn = in E(X n ).
t=0

2. La frmula se sigue del inciso anterior y del siguiente resultado de o anlisis. Si g es una funcin con valores reales o complejos y denida a o en algn intervalo no trivial alrededor del origen con g(n) (0) nita, u entonces cuando t 0, g(t) = g(0)+tg (0)+

t2 tn1 (n1) tn g (0)+ + g (0)+ ( g(n) (0)+o(1) ). 2! (n 1)! n!

En la ultima parte del curso se usar la expansin (8.1) para demostrar la a o ley de los grandes nmeros y el teorema del l u mite central. Para el primer resultado se supondr el primer momento nito y la expansin adquiere la a o expresin (t) = 1 + it( E(X) + o(1) ), cuando t 0. Para el teorema del o l mite central se supondr el segundo momento nito y la expresin que se a o usa es (t) = 1 + it E(X) + ((it)2 /2!)( E(X 2 ) + o(1) ), cuando t 0. Proposicion. Si X y Y son independientes, entonces X+Y (t) = X (t) Y (t).

Demostracin. Por independencia, o X+Y (t) = E(eit(X+Y ) ) = E(eitX eitY ) = E(eitX ) E(eitY ) = X (t) Y (t).

Nota importante. El resultado anterior establece en particular que el producto de dos funciones caracter sticas es nuevamente una funcin caraco ter stica. Por otro lado, es necesario sealar que la condicin X+Y (t) = n o

330

8.3. Funcion caracter stica

X (t) Y (t) no es suciente para concluir que las variables aleatorias X y Y son independientes. Ejercicio. Sea (X, Y ) un vector aleatorio con funcin de densidad o f (x, y) = [1 + xy(x2 y 2 )]/4, para 1 < x, y < 1.

Demuestre que X y Y no son independientes y sin embargo se cumple la identidad X+Y (t) = X (t) Y (t). Otra de las propiedades fundamentales de la funcin caracter o stica es su capacidad de determinar de manera unica a las distribuciones de probabilidad. A este respecto se tienen los siguientes resultados. Proposicion. (Formula de inversion de L`vy). Sea X con funcin e o de distribucin F (x), y funcin caracter o o stica (t). Si x < y son puntos de continuidad de F , entonces F (y) F (x) = l m 1 T 2
T T

eitx eity (t) dt. it

Cuando x y y no necesariamente son puntos de continuidad de F , el lado izquierdo es 1 (F (y) + F (y)) 1 (F (x) + F (x)). 2 2 Demostracin. Para T > 0 sea o I(T ) = = = = 1 2 1 2 1 2 1 2
T T T T T

eitx eity (t) dt it eitx eity [ it


eitz dF (z)] dt dF (z) dt

eit(zx)

T T T

it

eit(zy)

eit(zx) eit(zy) dt dF (z). it

Cap tulo 8. Funciones generadoras

331

El cambio en el orden de integracin es permitido pues el integrando es una o funcin continua y acotada en t [T, T ] y z R, incluyendo cuando t = 0, o pues puede denirse esta funcin de acuerdo a su comportamiento l o mite en ese punto, es decir, l m eit(zx) eit(zy) = y x. it
T T

t0

Desarrollando las exponenciales en trminos de senos y cosenos se obtiene e I(T ) = 1 2


1 ( cos t(z x) + i sen t(z x) it cos t(z y) i sen t(z y) ) dt dF (z),

en donde para cualquier nmero real a, por ser coseno una funcin par, y u o seno una funcin impar, o
T T T

cos(at) dt = 0, t sen(at) dt = 2 t
T 0

y
T

sen(at) dt. t

Por lo tanto I(T ) = 1 2


T

(2
0

sen t(z x) dt 2 t

T 0

sen t(z y) dt ) dF (z). t

El siguiente paso consiste en aplicar el teorema de convergencia dominada cuando T . La integral I(T ) es la esperanza de la variable aleatoria XT = 1 (2 2
T 0

sen t(X x) dt 2 t

T 0

sen t(X y) dt ). t

Nos interesa encontrar el l mite de esta variable cuando T . Para ello se hace uso del siguiente resultado no trivial: si a > 0, T sen at si a < 0, l 2 m dt = signo(a) = T t 0 0 si a = 0.

332

8.3. Funcion caracter stica

Entonces, puntualmente,
T

l XT m

Adems, las variables XT estn acotadas en valor absoluto por una constante a a pues para cualquier nmero real a, u
T

1 ( signo(X x) signo(X y) ) 2 1 1 (X) + 1(x,y) (X) = 2 {x,y} si X < x, 0 1/2 si X = x, = 1 si x < X < y, 1/2 si X = y, 0 si X > y. =

| Por lo tanto
T

sen at dt| sup | t T >0

T 0

sen t dt| < . t

l I(T ) = m = = = =

1 1{x,y} (z) + 1(x,y) (z) ] dF (z) 2 1 1 P (X = x) + P (X = y) + P (x < X < y) 2 2 1 1 P (x < X y) + P (X = x) P (X = y) 2 2 1 1 F (y) F (x) + P (X = x) P (X = y) 2 2 1 1 (F (y) + F (y)) (F (x) + F (x)). 2 2 [

En particular, si x y y son puntos de continuidad de F , entonces el l mite de la integral es igual a F (y) F (x). Como corolario del teorema de inversin demostraremos que la funcin cao o racter stica determina de manera unica a la distribucin de probabilidad. o

Cap tulo 8. Funciones generadoras

333

Teorema de unicidad. Si X y Y son tales que X (t) = Y (t) para todo valor real de t, entonces X y Y tienen la misma distribucin. o

Demostracin. Sea (t) la funcin caracter o o stica comn. Sea z cualquier u nmero real, y sean x y y tales que x < z < y. Haciendo x tender a , y u y z, en la frmula de inversin de L`vy, se obtiene una unica funcin de o o e o distribucin dada por o F (z) = l m l m l m 1 2
T T

yz x T

eitx eity (t) dt. it

Cuando la condicin X (t) = Y (t) slo se cumple en una vecindad del o o cero, no es necesariamente cierto que la distribucin de probabilidad queda o completamente especicada. Vase [13] para un ejemplo al respecto. e En el caso absolutamente continuo se tiene la siguiente frmula expl o cita. Proposicion (Formula de inversion en el caso abs. continuo). Sea X absolutamente continua con funcin de densidad f (x), y funcin o o caracter stica (t). Entonces f (x) = 1 2

eitx (t) dt.

Demostracin. Sean x < y, dos puntos de continuidad de F . Por el teorema o

334

8.3. Funcion caracter stica

de inversin de L`vy, y por el teorema de Fubini, o e F (y) F (x) = = = =


x

1 T 2 l m 1 2 1 2
y

T T

eitx eity (t) dt it

eitx eity (t) dt it


y x

eitx dx (t) dt. eitx (t) dt dx.

1 2

Por lo tanto el integrando debe ser la funcin de densidad de X. o Es necesario sealar que el uso de esta frmula requiere conocer de antemano n o que la funcin caracter o stica proviene de una variable aleatoria absolutamente continua. De aqui surge el problema, que unicamente mencionamos, de encontrar condiciones sobre (t) que garanticen que la correspondiente variable aleatoria es absolutamente continua. Ahora se demuestra un resultado que ser de utilidad en la ultima parte a del curso y que establece que la convergencia en distribucin es equivalente o a la convergencia puntual de las correspondientes funciones caracter sticas. El resultado es vlido como esta enunciado pero slo demostraremos una de a o las implicaciones. Teorema de Continuidad. Sean X, X1 , X2 , . . . variables aleatorias. d Entonces Xn X si, y slo si, Xn (t) X (t). o Demostracin. () Suponga que Xn (t) X (t). Entonces para dos puno tos de continuidad x < y de FX , el teorema de inversin de L`vy establece o e

Cap tulo 8. Funciones generadoras que FX (y) FX (x) = = = 1 T 2 l m 1 T 2 l m


T T T T

335

eitx eity (t) dt. it eitx eity [ l Xn (t) ] dt. m n it

T itx 1 e eity [ Xn (t) ] dt. n T 2 T it = l FXn (y) FXn (x). m

l m l m

Haciendo x tender a se obtiene FX (y) = l FXn (y). m


n

En el siguiente cap tulo usaremos este resultado para demostrar el teorema central del l mite. Finalmente mencionamos la denicin de funcin caraco o ter stica para vectores aleatorios. La f.c. del vector (X, Y ) es la funcin o X,Y (s, t) = E(eisX eitY ), para valores reales de s y t donde esta esperanza sea absolutamente convergente. Nuevamente puede demostrarse que las variables X y Y son independientes si, y slo si, X,Y (s, t) = X (s) Y (t). o De manera anloga puede denirse la funcin caracter a o stica para vectores de dimensin mayor. o

336

8.4. Ejercicios

8.4.

Ejercicios
Funcin generadora de probabilidad o

538. Sea X con varianza nita y con f.g.p. G(t). Demuestre que a) E(X) = G (1). b) E(X 2 ) = G (1) + G (1). c) Var(X) = G (1) + G (1) [G (1)]2 . 539. Sean X y Y independientes, y sean a y b dos constantes. Demuestre que a) P (X = k) = G(k) (0)/k! para k = 0, 1, . . . b) GaX+b (t) = tb GX (ta ). c) GXY (t) = GX (t) GY (1/t). 540. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.p. Gk (t), para k = 1, . . . , n. Demuestre que GX1 ++Xn (t) = G1 (t) Gn (t). 541. Demuestre o proporcione un contraejemplo: Si GX+Y (t) = GX (t) GY (t), para valores de t en algn intervalo no trivial alrededor del u cero, entonces X y Y son independientes. 542. Sea X1 , X2 , . . . una sucesin de v.a.i.i.d. con f.g.p. GX (t). Sea N otra o variable aleatoria con valores en N, independiente de la sucesin y con o f.g.p. GN (t). Sea S = X1 + + XN . Demuestre que a) GS (t) = GN (GX (t)). b) E(S) = E(N )E(X), usando GS (t). c) Var(S) = E 2 (X) Var(N ) + E(N ) Var(X), usando GS (t). 543. Encuentre la funcin generadora de probabilidad, si existe, de una o variable aleatoria con funcin de densidad o

Cap tulo 8. Funciones generadoras 1 , para x = 1, 2, . . . x!(e 1) 1 b) f (x) = , para x = 1, 2, . . . x(x + 1)

337

a) f (x) =

544. Sea X con distribucin Ber(p). Demuestre que o a) G(t) = 1 p + pt.

b) E(X) = p, usando G(t). c) Var(X) = p(1 p), usando G(t).

d) E(X n ) = p, usando G(t).

545. Sea X con distribucin bin(n, p). Demuestre que o a) G(t) = (1 p + pt)n .

b) E(X) = np, usando G(t).

c) Var(X) = np(1 p), usando G(t). 546. Sean X1 , . . . , Xn variables aleatorias independientes, cada una con distribucin Ber(p). Use la f.g.p. para demostrar que la variable X1 + + o Xn tiene distribucin bin(n, p). o 547. Sean X y Y independientes con distribucin bin(n, p) y bin(m, p), o respectivamente. Use la f.g.p. para demostrar que la variable X + Y tiene distribucin bin(n + m, p). o 548. Sea X con distribucin bin(N, p), en donde N es una variable aleatoria o con distribucin bin(n, r). Use la f.g.p. para demostrar que X tiene o distribucin bin(n, rp). o 549. Sea X con distribucin geo(p). Demuestre que o a) G(t) = p/[1 t(1 p)].

b) E(X) = (1 p)/p, usando G(t).

c) Var(X) = (1 p)/p2 , usando G(t).

338

8.4. Ejercicios

550. Sea X con distribucin Poisson(). Demuestre que o a) G(t) = e(1t) . b) E(X) = , usando G(t). c) Var(X) = , usando G(t). 551. Sean X y Y independientes con distribucin Poisson con parmetros o a 1 y 2 respectivamente. Use la f.g.p. para demostrar que la variable X + Y tiene distribucin Poisson(1 + 2 ). o 552. Sea X con distribucin bin neg(r, p). Demuestre que o a) G(t) = [p/(1 t(1 p))]r .

c) Var(X) = r(1 p)/p2 , usando G(t).

b) E(X) = r(1 p)/p, usando G(t).

Funcin generadora de momentos o


553. Encuentre la funcin generadora de momentos, si existe, de una vao riable aleatoria con funcin de densidad o a) f (x) = 1 , para x = 1, 2, . . . x!(e 1)

b) f (x) = e|x| /2, para < x < . 554. Sea X con varianza nita y con f.g.m. M (t). Demuestre que a) E(X) = M (0). b) E(X 2 ) = M (0). c) Var(X) = M (0) (M (0))2 . 555. Sean X y Y independientes e idnticamente distribuidas con f.g.m. e M (t). Demuestre que MXY (t) = M (t) M (t). 556. Sea X con f.g.m. MX (t), y sean a y b dos constantes. Demuestre que MaX+b (t) = etb MX (at).

Cap tulo 8. Funciones generadoras

339

557. Sea X con f.g.m. MX (t). Diga falso o verdadero, demuestre en cada caso. a) MX (t) 0.

b) M2X (t) = MX (2t). c) MX 2 (t) = MX (tX).

558. Sea X con distribucin Ber(p). Demuestre que o a) M (t) = 1 p + pet .

b) E(X) = p, usando M (t). c) E(X n ) = p, usando M (t).

d) Var(X) = p(1 p), usando M (t). 559. Sea X con distribucin bin(n, p). Demuestre que o a) M (t) = (1 p + pet )n .

b) E(X) = np, usando M (t).

c) Var(X) = np(1 p), usando M (t). o 560. Sean X1 , . . . , Xn independientes cada una con distribucin Ber(p). Use la f.g.m. para demostrar que la variable X1 + +Xn tiene distribucin o bin(n, p). 561. Sean X y Y independientes con distribucin bin(n, p) y bin(m, p) reso pectivamente. Use la f.g.m. para demostrar que X + Y tiene distribucin bin(n + m, p). o 562. Sea X con distribucin geo(p). Demuestre que o a) M (t) = p/[1 (1 p)et ].

c) Var(X) = (1 p)/p2 , usando M (t). 563. Sea X con distribucin Poisson(). Demuestre que o

b) E(X) = (1 p)/p, usando M (t).

340

8.4. Ejercicios a) M (t) = exp[(et 1)].

b) M (t) = M (t) + et M (t).

c) E(X) = , usando M (t). d) Var(X) = , usando M (t). e) E[(X )3 ] = , usando M (t). 564. Sea X con distribucin unif(a, b). Demuestre que o a) M (t) = ebt eat . (b a)t b) E(X) = (a + b)/2, usando M (t). c) Var(X) = (b a)2 /12, usando M (t). 565. Sea X con distribucin exp(). Demuestre que o a) M (t) = /( t), para t < . b) E(X) = 1/, usando M (t). c) Var(X) = 1/2 , usando M (t). 566. Sea X con distribucin N(, 2 ). Demuestre que o a) M (t) = exp(t + 2 t2 /2). b) E(X) = , usando M (t). c) Var(X) = 2 , usando M (t).
2 2 567. Sean X y Y independientes con distribucin N(1 , 1 ) y N(2 , 2 ) o respectivamente. Use la f.g.m. para demostrar que X + Y tiene distri2 2 bucin normal con media 1 + 2 y varianza 1 + 2 . o

568. Sea X con distribucin gama(n, ). Demuestre que o a) M (t) = [/( t)]n , para t < . b) E(X) = n/, usando M (t). c) Var(X) = n/2 , usando M (t).

Cap tulo 8. Funciones generadoras

341

569. Sean X y Y independientes ambas con distribucin exp(). Use la o f.g.m. para demostrar que X + Y tiene distribucin gama(2, ). o 570. Sean X y Y independientes con distribucin gama(n, ) y gama(m, ) o respectivamente. Use la f.g.m. para demostrar que la variable X + Y tiene distribucin gama(n + m, ). o 571. Sea X con distribucin 2 (n). Demuestre que o a) M (t) = [1/(1 2t)]n/2 , para t < 1/2. b) E(X) = n, usando M (t). c) Var(X) = 2n, usando M (t). 572. Use la f.g.m. para demostrar que si X y Y son independientes tales que X tiene distribucin 2 (n) y X + Y tiene distribucin 2 (m) con o o 2 (m n). m > n, entonces Y tiene distribucin o 573. Sean X y Y independientes con distribucin 2 (n) y 2 (m) respectio vamente. Use la f.g.m. para demostrar que X + Y tiene distribucin o 2 (n + m). 574. Sea X con distribucin N(, 2 ). Use la f.g.m. para demostrar que o a) X tiene distribucin N(, 2 ). o b) aX + b tiene distribucin N(a + b, a2 2 ), con a = 0. o 2 / 2 tiene distribucin 2 (1). c) (X ) o 575. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.m. Mk (t) para k = 1, . . . , n. Demuestre que MX1 ++Xn (t) = M1 (t) Mn (t). 576. Sea X con distribucin Cauchy estndar. Demuestre que o a MX (t) = 1 si t = 0, si t = 0. 1 si t = 0, si t = 0.

577. Sea X con distribucin t(n). Demuestre que o MX (t) =

342

8.4. Ejercicios

578. Sea n un nmero natural. Demuestre que no existe la f.g.m. de la u siguiente funcin de densidad. Esta distribucin tiene momentos nio o tos de orden 1, 2, . . . , n 1, pero el n-simo momento y superiores no e existen. n/xn+1 si x > 1, f (x) = 0 otro caso.

Funcin caracter o stica


579. Encuentre la funcin caracter o stica de una variable aleatoria con funcin de densidad o a) f (x) = 1 , para x = 1, 2, . . . x!(e 1)

b) f (x) = e|x| /2, para < x < . 580. Sea X con funcin caracter o stica X (t), y sean a y b dos constantes. Demuestre que aX+b (t) = eitb X (at). 581. Demuestre que una funcin de distribucin F (x) es simtrica si, y slo o o e o si, la correspondiente funcin caracter o stica (t) es real. 582. Demuestre que la funcin caracter o stica es una funcin uniformemente o continua, es decir, para todo > 0 existe > 0 tal que para todo t y s con |t s| < , se cumple que |(t) (s)| < . 583. Demuestre que la funcin caracter o stica satisface la igualdad (t) = (t), en donde z denota el complejo conjugado de z. 584. Sean 1 (t) y 2 (t) dos funciones caracter sticas, y sea [0, 1]. Demuestre que la combinacin lineal convexa 1 (t) + (1 )2 (t) es o una funcin caracter o stica. 585. Sean X y Y independientes y con idntica distribucin. Demuestre e o que XY (t) = |X (t)|2 , en este caso la funcin caracter o stica es una funcin real por que la variable X Y es simtrica. o e

Cap tulo 8. Funciones generadoras 586. Sea X con distribucin Ber(p). Demuestre que o a) (t) = 1 p + peit .

343

b) E(X) = p, usando (t).

d) E(X n ) = p, usando (t), con n 1 entero. 587. Sea X con distribucin bin(n, p). Hemos demostrado que la funcin o o caracter stica de esta distribucin es (t) = (1 p + peit )n . Usando o (t) demuestre ahora que a) E(X) = np. b) E(X 2 ) = np(1 p + np). c) Var(X) = np(1 p). 588. Sea X con distribucin Poisson(). Hemos demostrado que la funcin o o caracter stica de esta distribucin es (t) = exp[(1 eit )]. Usando o (t) compruebe que a) E(X) = . b) E(X 2 ) = ( + 1). c) Var(X) = . 589. Sea X con distribucin geo(p). Demuestre que o a) (t) = p/(1 (1 p)eit ).

c) Var(X) = p(1 p), usando (t).

b) E(X) = (1 p)/p, usando (t).

c) Var(X) = (1 p)/p2 , usando (t). 590. Sea X tiene distribucin bin neg(r, p). Demuestre que o a) (t) = [p/(1 (1 p)eit )]r .

c) Var(X) = r(1 p)/p2 , usando (t).

b) E(X) = r(1 p)/p, usando (t).

344

8.4. Ejercicios

591. Sea X con distribucin unif(a, a). Demuestre que (t) = (sen at)/at. o 592. Sea X con distribucin unif(a, b). Demuestre que o a) (t) = [eibt eiat ]/[it(b a)]. b) E(X) = (a + b)/2, usando (t). c) Var(X) = (b a)2 /12, usando (t).

593. Sea X con distribucin N(, 2 ). Hemos demostrado que la funcin o o caracter stica de esta distribucin es (t) = exp (it 2 t2 /2). Usando o (t) compruebe que E(X) = y Var(X) = 2 . 594. Sea X con distribucin normal estndar. Use la funcin caracter o a o stica para demostrar que para n = 0, 1, . . . n! si n es par, n n/2 (n/2)! 2 E(X ) = 0 si n es impar.

595. Sea X con distribucin exp(). Demuestre que (t) = /( it). Use o (t) para comprobar que E(X) = 1/, y Var(X) = 1/2 . 596. Sea X con distribucin gama(n, ). Hemos encontrado que la funcin o o n . Usando (t) caracter stica de esta distribucin es (t) = [/( it)] o compruebe nuevamente que a) E(X) = n/. (m + n) b) E(X m ) = m , (n) c) Var(X) = n/2 .

para m = 0, 1, . . .

597. Sean X y Y independientes ambas con distribucin exp(). Use la o funcin caracter o stica para demostrar que la variable X + Y tiene distribucin gama(2, ). o 598. Sean X y Y independientes con distribucin gama(n, ) y gama(m, ) o respectivamente. Use la funcin caracter o stica para demostrar que la variable X + Y tiene distribucin gama(n + m, ). o

Cap tulo 8. Funciones generadoras

345

599. Sea X con funcin de distribucin F (x) = ex /(1 + ex ). Demuestre o o que F (x) es efectivamente una funcin de distribucin, y calcule su o o funcin caracter o stica asociada. Con ayuda de sta ultima encuentre e la esperanza y la varianza de X. 600. Sean X y Y independientes. Demuestre que XY (t) =

Y (tx) dFX (x) =

X (ty) dFY (y).

601. Mediante el clculo de residuos de la teor de variable compleja puede a a demostrarse que la distribucin Cauchy estndar tiene funcin caraco a o ter stica 1 dx = e|t| . (t) = eitx (1 + x2 ) Suponiendo este resultado, encuentre el error en el siguiente argumento para encontrar la f.g.m. de la distribucin Cauchy: Como o (t) = e|t| y M (t) = (it), entonces M (t) = e|it| = e|t| . El caso es que no existe la f.g.m. para la distribucin Cauchy. o 602. Sean X1 , . . . , Xn independientes cada una de ellas con distribucin o |t| . Cauchy estndar, es decir, la funcin caracter a o stica es (t) = e Use este resultado para demostrar que la v.a. Sn = (X1 + + Xn )/n tiene distribucin Cauchy estndar para cualquier valor de n. o a

Cap tulo 9

Dos teoremas l mite

En este ultimo cap tulo se estudian dos de los teoremas ms importantes en a probabilidad: la ley de los grandes nmeros y el teorema central del l u mite. Antes de ello se revisan algunas desigualdades de inters general. e

9.1.

Algunas desigualdades

Proposicion. (Desigualdad de Markov). Sea X 0 una variable aleatoria con esperanza nita. Para cualquier > 0, P (X ) E(X) .

347

348
Demostracin. o

9.1. Algunas desigualdades

E(X) = E( X 1(X) + X 1(X<) ) E( X 1(X) ) E( 1(X) ) = P (X ).

En palabras, este resultado establece que la probabilidad de que X exceda un valor positivo est acotada superiormente por la media entre . Existen a otras versiones equivalentes de esta desigualdad, por ejemplo, a) P (|X| ) E|X|/. b) P (|X| ) E|X|n /n , con n en N. La siguiente desigualdad ser usada en la siguiente seccin para demostrar a o la ley dbil de los grandes nmeros. e u Proposicion. (Desigualdad de Chebyshev). Sea X una variable aleatoria con media y varianza nita 2 . Para cualquier > 0, P (|X | ) 2 . 2 (9.1)

Demostracin. o 2 = E (X )2 = E (X )2 1(|X|) + (X )2 1(|X|<)

E (X )2 1(|X|) = 2 P (|X | ). E 2 1(|X|)

Cap tulo 9. Dos teoremas l mite

349

En palabras, esta desigualdad dice que la probabilidad de que X diera de su media en mas de est acotada superiormente por la varianza entre a 2 . A este resultado se le conoce tambin con el nombre de desigualdad de e Chebyshev-Bienaym. Existen otras versiones de esta desigualdad equivae lentes a la demostrada, por ejemplo, a) P (|X | ) 1/2 . b) P (|X | < ) 1 1/2 . c) P (|X | < ) 1 2 /2 . Ahora demostraremos una versin de la desigualdad de Chebyshev un poco o ms general. a Proposicion. (Desigualdad de Chebyshev extendida). Sea X una variable aleatoria, y sea g 0 una funcin no decreciente tal que o g(X) es una variable aleatoria con esperanza nita. Para cualquier > 0, P (X ) E[g(X)] . g() (9.2)

Demostracin. o E[g(X)] = E[ g(X) 1(X) + g(X) 1(X<) ] E[ g() 1(X) ] = g()P (X ). E[ g(X) 1(X) ]

350

9.1. Algunas desigualdades

Pafnuty Lvovich Chebyshev (Rusia, 18211894)

Andrei Andreyevich Markov (Rusia, 18561922)

Profesor y alumno. Fuente: Archivo MacTutor, Universidad de St. Andrews.

A partir de la desigualdad anterior y con una funcin g adecuada se pueden o obtener tanto la desigualdad de Chebyshev como la desigualdad de Markov. Proposicion. (Desigualdad de Kolmogorov). Sean X1 , . . . , Xn independientes con media cero y segundo momento nito. Para cualquier > 0, n 1 P ( mx {|X1 + + Xk |} ) 2 a Var(Xk ). k
k=1

Demostracin. Para cada k = 1, . . . , n, dena Sk = X1 + + Xk , cuya o esperanza es cero por hiptesis. Observe que las variables Sk y Sn Sk son o independientes y por lo tanto E(Sk (Sn Sk )) = 0. Dena ahora los eventos disjuntos
k1

Ak = ( |Sk | )

i=1

( |Si | < ),

Cap tulo 9. Dos teoremas l mite

351

en donde en particular A1 = ( |S1 | ). El evento de inters puede escribirse e como A = n Ak . Entonces k=1
n 2 E(Sn )

2 E(Sn 1A ) n k=1 n

=
k=1

2 E(Sn 1Ak )

E( (Sk + (Sn Sk ))2 1Ak )


2 E( (Sk + 2Sk (Sn Sk ) + (Sn Sk )2 ) 1Ak ) n 2 E(Sk 1Ak ) k=1 n

=
k=1 n

k=1

2 E(1Ak )

2 P (Ak )
k=1

= 2 P (A).
2 El resultado se obtiene al observar que E(Sn ) = Var(Sn ) = n k=1 Var(Xk ).

Cuando n = 1 la desigualdad de Kolmogorov se reduce a la desigualdad de Chebyshev. En resumen se tiene la siguiente tabla.

Algunas desigualdades Markov: a) P (X ) E(X)/, para X 0.

b) P (|X| ) E|X|/. Chebyshev:

c) P (|X| ) E|X|n /n . a) P (|X | ) Var(X)/2 . b) P (X ) E[g(X)]/g(),


k

con g 0 no decreciente. 1 2
n

Kolmogorov:

P ( mx{|X1 + + Xk |} ) a

Var(Xk ).
k=1

352

9.2. Ley de los grandes numeros

9.2.

Ley de los grandes n meros u

Este interesante resultado establece que, bajo ciertas condiciones, el promedio de variables aleatorias converge a una constante cuando el nmero de u sumandos crece a innito. Demostraremos dos versiones de esta armacin, o las cuales se distinguen por el tipo de convergencia de la que se trate. La ley dbil establece la convergencia en probabilidad y la ley fuerte dice que e la convergencia es casi segura. La ley fuerte implica entonces la ley dbil. e Existen adems varias generalizaciones de este resultado. a Teorema de Bernoulli. (Ley debil de los grandes numeros). e Sean X1 , X2 , . . . independientes e idnticamente distribuidas con media . Entonces n 1 p Xi . n
i=1

Demostracin. Sea Sn = (X1 + + Xn )/n, y sea (t) la funcin caraco o ter stica de cualquier elemento X de la sucesin. Como X tiene esperanza o nita y por la expansin (8.1), o (t) = 1 + it( + o(1)), cuando t 0. cuando t 0,
d

Por independencia la funcin caracter o stica de Sn es entonces Sn (t) = n (t/n) = ( 1 + i(t/n)( + o(1)) )n ,

Haciendo n se obtiene Sn (t) eit , en donde eit es la funcin o

caracter stica de la variable aleatoria constante . Esto implica que Sn . El resultado se obtiene al recordar que la convergencia en distribucin a una o constante es equivalente a la convergencia en probabilidad. Este mismo resultado puede demostrarse fcilmente a partir de la desiguala dad de Chebyshev bajo la hiptesis adicional de existencia de la varianza. o

Cap tulo 9. Dos teoremas l mite

353

El argumento es el siguiente. Sea nuevamente Sn = (X1 + + Xn )/n. Entonces E(Sn ) = y Var(Sn ) = 2 /n, suponiendo Var(X) = 2 < . La desigualdad de Chebyshev aplicada a la variable Sn asegura que para cualquier > 0 se cumple P (|Sn | ) 2 /n2 . Basta ahora tomar el l mite cuando n tiende a innito para obtener el resultado. Damos a continuacin un ejemplo sencillo de aplicacin de la ley dbil y o o e ms adelante demostramos la ley fuerte. a Ejemplo (Probabilidad frecuentista). Considere un experimento aleatorio cualquiera y sea A un evento. Se efectan realizaciones independientes u del experimento, y se observa en cada ensayo la ocurrencia o no ocurrencia e del evento A. Sea Xk la variable que toma el valor uno si en el k-simo ensayo se observa A, y cero en caso contrario. Entonces las variables X1 , X2 , . . . son independientes cada una con distribucin Ber(p), en donde p es la probabilio dad desconocida del evento A. Por lo tanto E(Xk ) = p y Var(Xk ) = p(1p). La ley dbil de los grandes nmeros asegura que la fraccin de ensayos en e u o los que se observa el evento A converge, en probabilidad, a la constante desconocida p cuando el nmero de ensayos crece a innito. Esta es la deu nicin frecuentista de la probabilidad, y hemos entonces corroborado su o validez con ayuda de la ley de los grandes nmeros. u Ejemplo. A continuacin se muestra grcamente una simulacin en compuo a o tadora del comportamiento del cociente (X1 + + Xn )/n cuando n crece. Se muestra tambin el cdigo MATLAB utilizado, el cual puede ser traducie o do fcilmente a cualquier otro lenguaje de programacin. Se generaron 200 a o valores al azar usando la distribucin discreta Ber(p), con p = 0.5. El comano do binornd(n,p) genera un valor al azar de la distribucin bin(n, p). Los o A datos obtenidos por este paquete fueron luego trasladados a L TEX, usando pstricks, para generar la grca mostrada en la Figura 9.1. Los puntos graa cados fueron unidos por una linea continua para una mejor visualizacin o del comportamiento inicial oscilante y su eventual estabilizacin. o Ejemplo. Esta es otra simulacin en computadora del comportamiento del o cociente (X1 + + Xn )/n cuando n crece, ahora usando la distribucin o

354

9.2. Ley de los grandes numeros

randn(state,150) N=200; S=zeros(1,N); Sn=zeros(1,N); p=0.5; R=binornd(1,p); S(1)=R; Sn(1)=R; 1/2 for j=2:N S(j)=S(j-1)+binornd(1,p); Sn(j)=S(j)/j; end plot([Sn],r-)

Sn /n

100

200

Figura 9.1: Comportamiento del cociente Sn /n cuando n crece cuando las variables Xi tienen distribucin discreta Ber(p), con p = 0.5, y el cdigo MATLAB para o o generar la simulacin. o

continua N(1, 9). El comando randn genera valores al azar de la distribucin normal estndar, de modo que la expresin 1+3*randn corresponde o a o a un valor de la distribucin N(1, 9). Se generaron nuevamente 200 de estos o valores y los resultados de muestran en la Figura 9.2. Es graticante observar las oscilaciones iniciales de dicho cociente y su eventual estabilizacin o hacia la media de la distribucin. o Teorema. (Ley fuerte de los grandes numeros). Sean X1 , X2 , . . . independientes e idnticamente distribuidas con media . Entonces e 1 n
n i=1

Xi .

c.s.

Demostracin. (Suponiendo cuarto momento nito). Dada la idntica diso e tribucin de los elementos de la sucesin, cualquier elemento de sta se o o e denota simplemente por X. Suponga que E|X |2 = 2 y observe que

Cap tulo 9. Dos teoremas l mite

355

randn(state,1500) N=200; S=zeros(1,N); Sn=zeros(1,N); R=1+3*randn; S(1)=R; Sn(1)=R; for j=2:N S(j)=S(j-1)+1+3*randn; Sn(j)=S(j)/j; end plot([Sn],r-)

Sn /n

1 n

100

200

Figura 9.2: Comportamiento del cociente Sn /n cuando n crece usando la distribucin normal con media uno y varianza nueve. o

E(X ) = 0. Entonces por independencia,


n

E|
i=1

(Xi )|4 = nE|X |4 + 3n(n 1) 4 .


n i=1 (Xi )|

Por la desigualdad de Chebyshev (9.2) aplicada a la variable | y la funcin g(x) = x4 se obtiene, para > 0, o
n n

P (|
i=1

(Xi )| > n) E|

i=1

(Xi )|4 /(n)4

= ( nE|X |4 + 3n(n 1) 4 )/(n)4 .


1 Sea el evento An = (| n n Xi | > ). Entonces P (An ) < . Por i=1 n=1 el lema de Borel-Cantelli la probabilidad de que ocurra una innidad de eventos An es cero, es decir, con probabilidad uno, slo un nmero nito de o u estos eventos ocurre. Por lo tanto con probabilidad uno, existe un nmero u natural n a partir del cual ningn evento An se verica. Es decir, u

1 P ( l | m n n

n i=1

Xi | ) = 1.

356

9.2. Ley de los grandes numeros

Como esta armacin vale para cualquier > 0, se cumple que o P ( l m 1 n n


n

Xi = ) = 1.
i=1

Ejemplo. (El problema del mono, nuevamente). Usaremos la ley fuerte de los grandes nmeros para dar otra solucin al problema del mono. u o Considere entonces un mono que escribe caracteres al azar. Nos interesa encontrar la probabilidad de que el mono eventualmente escriba las obras completas de Shakespeare, las cuales, supondremos, tienen una longitud total de N caracteres. Nuevamente se consideran bloques de longitud N de la siguiente forma x1 , . . . , xN , xN +1 , . . . , x2N , . . . Sea Ak el evento correspondiente a que en el k-simo bloque el mono tenga e xito, y sea Xk la variable aleatoria indicadora del evento Ak , es decir, e Xk = 1 si Ak ocurre, 0 si Ak no ocurre.

Se tiene entonces una sucesin de variables aleatorias X1 , X2 , . . . indepeno dientes e idnticamente distribuidas Ber(p), con p = P (Ak ) = (1/m)N , e suponiendo que el total de caracteres disponibles es m. En particular, la media de cada una de estas variables es E(Xk ) = p. Considere ahora la suma X1 + + Xn . Si para algn valor de n esta suma es positiva, signica u que alguno de los sumandos es distinto de cero, y por lo tanto que el mono ha tenido xito. Pero esto es justamente lo que garantiza la ley fuerte de los e grandes nmeros pues u P ( l m 1 n n
n

Xk = p ) = 1.
k=1

Es decir, con probabilidad uno la suma en esta ecuacin es positiva. Esto o implica que debe existir un valor de k tal que Xk = 1, y esto a su vez

Cap tulo 9. Dos teoremas l mite

357

signica que en el k-simo bloque el mono ha tenido xito. Ms an, para e e a u que el promedio que aparece en esta ecuacin sea positivo necesariamente la o suma debe ser innita, y por lo tanto, deben existir una innidad de valores de k tal que Xk = 1. Esto quiere decir que con probabilidad uno el mono escribir una innidad de veces las obras completas de Shakespeare. a

9.3.

Teorema central del l mite

Concluimos el curso con el clebre y famoso teorema central del l e mite. Este resultado es de amplio uso en estad stica y otras ramas de aplicacin de la o probabilidad. Existen muchas versiones y generalizaciones de este teorema pero nos limitaremos a enunciar y demostrar una versin simple y corta. o Un caso particular de este resultado lleva el nombre de A. de Moivre y de P. S. Laplace. Teorema de De Moivre-Laplace. Sea X1 , X2 , . . . una sucesin de o variables aleatorias independientes tal que cada una de ellas tiene distribucin Bernoulli con parmetro p (0, 1). Para cualesquiera nmeros o a u reales a < b, l P ( a < m X1 + + Xn np 1 < b) = 2 np(1 p)
b a

ex

2 /2

dx.

En palabras este resultado establece que la variable aleatoria (X1 + + Xn np)/ np(1 p) converge en distribucin a una variable aleatoria noro mal estndar, una demostracin directa puede ser encontrada en [8]. Este a o teorema fue descubierto por A. de Moivre alrededor de 1733 en el caso cuando las variables aleatorias tienen distribucin Bernoulli con p = 1/2. Aos o n despus P. S. Laplace demostr su validez para valores arbitrarios de p. El e o teorema de de Moivre-Laplace es una caso particular del siguiente resultado fundamental.

358

9.3. Teorema central del l mite

Teorema central del l mite. Sea X1 , X2 . . . una sucesin de vao riables aleatorias independientes e idnticamente distribuidas tales que e para cada natural n, E(Xn ) = y Var(Xn ) = 2 < . Entonces X1 + + Xn n d N(0, 1). n

Demostracin. Observe que o X1 + + Xn n (X1 )/ + + (Xn )/ = , n n en donde cada sumando del numerador en el lado derecho es una variable con media cero y varianza uno. As pues, sin prdida de generalidad, supon e dremos que cada variable de la sucesin tiene media cero y varianza uno. o Considere entonces la suma Zn = (X1 + + Xn )/ n. Se desea probar que
d
2 /2

Zn N(0, 1). Para ello es suciente demostrar que Zn (t) et independencia e idntica distribucin, e o Zn (t) = E( eit(X1 ++Xn )/ n ) = ( X (t/ n) )n ,

. Por

o stica de cualquier elemento de la en donde X (t) es la funcin caracter sucesin, que por la expansin (8.1) adquiere la expresin, cuando t 0, o o o 1 X (t) = 1 t2 (1 + o(1)). 2

Por lo tanto,

t2 (1 + o(1)) )n . 2n 2 Haciendo n se obtiene Zn (t) et /2 . Zn (t) = ( 1

El teorema central del l mite establece entonces que para cualquier nmero u real x, X1 + + Xn n l P ( m x ) = P (Z x), n n

Cap tulo 9. Dos teoremas l mite

359

en donde Z tiene distribucin normal estndar. Observe que la suma X1 + o a + Xn tiene media n y varianza n 2 , de modo que la expresin de o arriba es una especie de estandarizacin de esta variable. Equivalentemente o el resultado puede enunciarse del siguiente modo: (X1 + + Xn )/n d N(0, 1). / n Este teorema fue demostrado rigurosamente por A. M. Lyapunov alrededor de 1901. Observe que no hay ninguna hiptesis adicional sobre la distribuo cin de las variables de la sucesin, es decir, stas pueden tener cualquier o o e distribucin, slo requiriendo la existencia de la media y la varianza. o o

360

9.4. Ejercicios

9.4.

Ejercicios
Desigualdad de Markov

603. Demuestre la desigualdad de Markov siguiendo los siguientes pasos: Suponga X 0, y para > 0 dena X = si X , 0 si X < .

Compruebe que X X. Ahora tome esperanza de ambos lados y calcule E(X ). 604. Use la desigualdad de Markov para demostrar que si X es una variable aleatoria no negativa con esperanza cero, entonces X = 0 casi seguramente. 605. Conv. en media Conv. en probabilidad. Demuestre que la convergencia en media implica la convergencia en probabilidad, usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |Xn X|.

Desigualdad de Chebyshev
606. Conv. en m.c. Conv. en probabilidad. Use la desigualdad de Chebyshev (9.2) para demostrar directamente que la convergencia en media cuadrtica implica la convergencia en probabilidad. a 607. Demuestre la desigualdad de Chebyshev (9.1) usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |X |. 608. Use la desigualdad de Chebyshev para demostrar que si X es una variable aleatoria tal que E(X) = a y Var(X) = 0, entonces X es constante casi seguramente, es decir, P (X = a) = 1.

Cap tulo 9. Dos teoremas l mite

361

609. Sea X con media y varianza 2 . Use la desigualdad de Chebyshev para estimar la probabilidad de que X tome valores entre y + para cualquier > 0 constante. 610. A partir de la desigualdad de Chebyshev extendida (9.2) demuestre la desigualdad de Chebyshev (9.1) y la desigualdad de Markov. 611. Demuestre que P (|X| ) E|X|/, para > 0, a) usando la desigualdad de Chebyshev extendida. b) de manera directa. 612. Demuestre que P (|X| ) E|X|n /n , para > 0 y n N, a) usando la desigualdad de Chebyshev extendida. b) de manera directa. 613. Demuestre que P (X ) E(etX )/et , para > 0 y t > 0, a) usando la desigualdad de Chebyshev extendida. b) de manera directa. 614. Sea X discreta con funcin de probabilidad o 1/18 si x = 1, 1, f (x) = 16/18 si x = 0, 0 otro caso.

Demuestre que el valor exacto de la probabilidad P (|X | 3) coincide con la estimacin dada por la desigualdad de Chebyshev. Este o resultado demuestra que, sin hiptesis adicionales, la cota superior o dada por la desigualdad de Chebyshev es ptima. o

615. Considere la siguiente versin de la desigualdad de Chebyshev o P (|X | < ) 1 1/2 . Encuentre el m nimo valor de > 0 de tal modo que la probabilidad de que una variable aleatoria tome valores entre y + sea al menos 0.90.

362

9.4. Ejercicios

616. Desigualdad de Cantelli. Demuestre que si Var(X) < , entonces para cualquier > 0, P (|X E(X)| > ) 2 Var(X) . 2 + Var(X)

Ley de los grandes nmeros u


617. Use la ley dbil de los grandes nmeros para demostrar que si Xn e u p 1 tiene distribucin bin(n, p), entonces n Xn p, cuando n tiende a o innito. 618. Ley de los grandes numeros en media cuadratica. Demuestre que si X1 , X2 , . . . son independientes con media y varianza 2 , entonces n 1 m.c. Xi . n
i=1

Observe que no se pide la hiptesis de idntica distribucin para las o e o variables aleatorias y que este resultado no es consecuencia de la ley fuerte. 619. Sean X1 , . . . , Xn independientes con distribucin N(, 2 ). El promeo dio (X1 + + Xn )/n tiene distribucin N(, 2 /n) para cualquier o valor de n. Contradice esto la ley de los grandes nmeros? u 620. En el ejercicio 602 se pide usar la funcin caracter o stica para demostrar que si X1 , . . . , Xn son independientes con distribucin Cauchy o estndar, entonces el promedio Sn = (X1 + + Xn )/n tiene distribua cin Cauchy estndar, independientemente del valor de n. Contradice o a esto la ley de los grandes nmeros? u 621. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad de que ambas caras caigan el mismo nmero de veces. Qu le sucede a u e esta probabilidad cuando n tiende a innito? Contradice esto la ley de los grandes nmeros? u

Cap tulo 9. Dos teoremas l mite

363

Teorema central del l mite


622. Use el teorema central del l mite para estimar la probabilidad de obtener mas de 520 guilas en 1000 lanzamientos de una moneda honesta. a 623. Sean X1 , X2 , . . . independientes con distribucin Poisson() con = o 1. Use el teorema central del l mite para demostrar que l m 1 en
n k=0

nk 1 = . k! 2

624. La probabilidad de ocurrencia de un evento en un ensayo es de 0.3. Cul es la probabilidad de que la frecuencia relativa de este evento a en 100 ensayos se encuentre entre 0.2 y 0.5?

Apndice A e

Distribuciones de probabilidad

Se presenta a continuacin una lista en orden alfabtico de algunas distrio e buciones de probabilidad univariadas de uso comn. Como es costumbre, u la funcin de probabilidad o de densidad se denota por f (x), y la funcin o o de distribucin por F (x). Como en el texto, G(t) es la funcin generadora o o de probabilidad, M (t) es la funcin generadora de momentos, y (t) es la o funcin caracter o stica.

Distribucin Bernoulli o
X Ber(p), con p (0, 1). f (x) = px (1 p)1x para x = 0, 1. E(X) = p. Var(X) = p(1 p). G(t) = 1 p + pt. M (t) = 1 p + pet . Este es el modelo ms simple de variable aleatoria y corresponde a la obsera vacin de la ocurrencia o no ocurrencia de un evento. La suma de n variables o independientes Ber(p) tiene distribucin bin(n, p). o 365

366

Distribucin beta o
X beta(a, b) con a > 0, b > 0. f (x) = xa1 (1 x)b1 /B(a, b), para x (0, 1). E(X) = a/(a + b). Var(X) = ab/[(a + b + 1)(a + b)2 ]. Cuando a = 1, b = 2 o a = 2, b = 1 se obtiene la distribucin triangular. o

Distribucin binomial o
X bin(n, p) con n N y p (0, 1). n f (x) = px (1 p)nx para x = 0, 1, . . . , n. x E(X) = np. Var(X) = np(1 p). G(t) = (1 p + pt)n . M (t) = [1 p + pet ]n . Una variable aleatoria binomial registra el nmero de xitos en n ensayos u e independientes Bernoulli en donde en cada ensayo la probabilidad de xito e es p. La suma de dos variables independientes con distribucin bin(n, p) y o bin(m, p) tiene distribucin bin(n + m, p). o

Distribucin binomial negativa o


X bin neg(r, p) con r N y p (0, 1). r+x1 f (x) = pr (1 p)x para x = 0, 1, . . . x E(X) = r(1 p)/p. Var(X) = r(1 p)/p2 . G(t) = [p/(1 t(1 p))]r .

Apndice A. Distribuciones de probabilidad e

367

M (t) = [p/(1 qet )]r . Este es el modelo que se usa para contar el nmero de fracasos antes de u obtener el r-simo xito en una sucesin de ensayos independientes Bernoue e o lli, en donde en cada ensayo la probabilidad de xito es p. La distribucin e o binomial negativa se reduce a la distribucin geomtrica cuando r = 1. o e

Distribucin Cauchy o
X Cauchy(a, b) con a > 0 y b > 0. 1 f (x) = . b[1 + ((x a)/b)2 ] La esperanza, la varianza y cualquier momento no existen. La funcin generadora de momentos no existe para t = 0. o (t) = exp(iat b|t|). Cuando a = 0 y b = 1 se obtiene la distribucin Cauchy estndar, y coincide o a con la distribucin t(n) con n = 1. En este caso, o f (x) = 1/((1 + x2 )), para x R. F (x) = 1/2 + (arctan x)/, para x R.

Distribucin exponencial o
X exp() con > 0. f (x) = ex , para x > 0. F (x) = 1 ex , para x > 0. E(X) = 1/. Var(X) = 1/2 . M (t) = /( t) para t < . (t) = /( it). La suma de n variables independientes exp() tiene distribucin gama(n, ). o

368

Distribucin gama o
X gama(n, ) con n > 0 y > 0. (x)n1 x f (x) = e para x > 0. (n)
n1

F (x) = 1

ex
k=0

(x)k /k!

para x > 0 y n entero.

E(X) = n/. Var(X) = n/2 . M (t) = [/( t)]n , para t < . Cuando n = 1 la distribucin gama se reduce a la distribucin exponeno o cial. Advertencia: para denotar esta distribucin en algunos textos se usa o el s mbolo gama(, n), es decir, el orden de los parmetros es distinto. En a ocasiones se usa el parmetro 1/ en lugar de . a

Distribucin geomtrica o e
X geo(p) con p (0, 1). f (x) = p(1 p)x para x = 0, 1, . . . E(X) = (1 p)/p. Var(X) = (1 p)/p2 . G(t) = p/[1 t(1 p)]. M (t) = p/[1 (1 p)et ]. Esta variable se usa para modelar el nmero de fracasos antes de obtener el u primer xito en una sucesin de ensayos independientes Bernoulli, en donde e o en cada uno de ellos la probabilidad de xito es p. La distribucin geomtrica e o e es un caso particular de la distribucin binomial negativa. o

Apndice A. Distribuciones de probabilidad e

369

Distribucin hipergeomtrica o e
X hipergeo(N, K, n) con N, K, n N y n K N . K N K N f (x) = / para x = 0, 1, . . . , n. x nx n E(X) = nK/N . KN K N n Var(X) = n . N N N 1 Si un conjunto de N elementos se puede separar en dos clases, una clase con K elementos y la otra con N K elementos, y si se seleccionan n elementos de este conjunto, entonces la variable X modela el nmero de elementos u seleccionados de la primera clase.

Distribucin ji-cuadrada o
X 2 (n) con n > 0. 1 1 n/2 n/21 x/2 f (x) = x e para x > 0. (n/2) 2 E(X) = n. Var(X) = 2n. M (t) = (1 2t)n/2 para t < 1/2. (t) = (1 2it)n/2 . Si X tiene distribucin N(0, 1), entonces X 2 tiene distribucin 2 (1). o o

Distribucin log normal o


X log normal(, 2 ) con R y 2 > 0. 1 exp[(ln x )2 /2 2 ] para x > 0. f (x) = x 2 2 E(X) = exp( + 2 /2).

370
E(X n ) = exp(n + n2 2 /2). Var(X) = exp(2 + 2 2 ) exp(2 + 2 ). La funcin generadora de momentos no existe. Si X tiene distribucin o o 2 ), entonces eX tiene distribucin log normal(, 2 ). N(, o

Distribucin normal o
X N(, 2 ) con R y 2 > 0. 2 2 1 e(x) /2 . f (x) = 2 2 E(X) = . Var(X) = 2 . M (t) = exp (t + 2 t2 /2). (t) = exp (it 2 t2 /2). Cuando = 0 y 2 = 1 se obtiene la distribucin normal estndar. La suma o a o diferencia de dos variables independientes con distribucin normal tiene o distribucin normal. o

Distribucin Pareto o
X Pareto(a, b) con a > 0 y b > 0. f (x) = aba /(b + x)a+1 para x > 0. F (x) = 1 [b/(b + x)]a para x > 0. E(X) = b/(a 1) para a > 1. Var(X) = ab2 /[(a 1)2 (a 2)] para a > 2.

Apndice A. Distribuciones de probabilidad e

371

Distribucin Poisson o
X Poisson() con > 0. f (x) = e x /x! para x = 0, 1, . . . E(X) = . Var(X) = . G(t) = e(1t) . M (t) = exp [(et 1)]. La suma de dos variables independientes con distribucin Poisson(1 ) y o Poisson(2 ) tiene distribucin Poisson(1 + 2 ). o

Distribucin t o
X t(n) con n > 0. ((n + 1)/2) f (x) = (1 + x2 /n)(n+1)/2 . n (n/2) E(X) = 0. Var(X) = n/(n 2) para n > 2. M (t) no existe para t = 0. (t) = exp(|t|) , cuando n = 1. La expresin de (t) resulta complicada o para valores n 2.

Distribucin uniforme discreta o


X unif{x1 , . . . , xn } con n N. f (x) = 1/n para x = x1 , . . . , xn . E(X) = (x1 + + xn )/n. Var(X) = [(x1 )2 + + (xn )2 ]/n. G(t) = (tx1 + + txn )/n. M (t) = (ex1 t + + exn t )/n.

372

Distribucin uniforme continua o


X unif(a, b) con a < b. f (x) = 1/(b a) para x (a, b). F (x) = (x a)/(b a) para x (a, b). E(X) = (a + b)/2. Var(X) = (b a)2 /12. M (t) = (ebt eat )/(bt at).

Distribucin Weibull o
X Weibull(r, ) con r > 0 y > 0. r f (x) = e(x) rr xr1 para x > 0. r F (x) = 1 e(x) para x > 0. E(X) = (1 + 1/r)/. Var(X) = [(1 + 2/r) 2 (1 + 1/r)]/2 . Cuando r = 1 se obtiene la distribucin exp(). Cuando r = 2 se obtiene la o distribucin Rayleigh(). o

Apndice B e

Conceptos y resultados varios

El alfabeto griego

A B E , Z H ,

alfa beta gama delta epsilon zeta eta theta

I K M N Oo

iota kapa lambda mu nu xi omikron pi

P , , T , X

rho sigma tau upsilon phi ji chi o psi omega

373

374

Notacin o

B(R) ab ab AB x F (x+) F (x)

: : : : : : :

Conjuntos de Borel de R. mx{a, b}. a m n{a, b}. Independencia de los eventos A y B. Parte entera de x. L mite por la derecha de la funcin F en el punto x. o L mite por la izquierda de la funcin F en el punto x. o

Lema de Abel
Sea a0 , a1 , . . . una sucesin de nmeros reales o complejos tal que la serie o u an es convergente. Dena la funcin G(t) = an tn , la cual es o n=0 n=0 convergente para valores de t por lo menos en el intervalo [0, 1]. El lema de Abel asegura que G(t) es una funcin continua por la izquierda en t = 1, es o decir,
t1

l G(t) = m

an .

n=0

L mite superior e inferior


Sea a1 , a2 , . . . una sucesin innita de nmeros reales. Para cada m natural o u dena bm = {am , am+1 , . . .}, y cm = sup {am , am+1 , . . .}. Claramente nf bm bm+1 , y cm cm+1 . Es decir, ambas sucesiones son montonas, la o primera no decreciente y la segunda no creciente, por lo tanto son convergentes, no excluyendo con ello valores innitos. Al l mite de la sucesin o b1 b2 se le llama lmite inferior, y al l mite de c1 c2 se le

Apndice B. Conceptos y resultados varios e

375

llama lmite superior de la sucesin a1 , a2 , . . .. A estos l o mites se les denota por l inf n an y l supn an , respectivamente. Es inmediato comm m probar que l inf n an l supn an . Adems la sucesin original es m m a o convergente al nmero a si, y slo si, l inf n an = l supn an = a. u o m m Estos conceptos de l mite inferior y superior pueden extenderse al caso de sucesiones de eventos como se muestra en el primer cap tulo de este texto.

Imagen inversa
Sean A y B dos conjuntos. Considere una funcin X : A B. La imagen o inversa de un conjunto B B es un subconjunto de A, denotado por X 1 B, y denido como sigue: X 1 B = {a A : X(a) B}.

X X 1 B A B B

Figura B.1: Imagen inversa. En palabras, la imagen inversa de B es aquella coleccin de elementos de o A tal que al aplicarles la funcin X toman un valor dentro del conjunto o B. Observe que X es una funcin puntual, es decir, lleva puntos de A en o puntos de B, mientras que X 1 es una funcin conjuntista, es decir, lleva o subconjuntos de B en subconjuntos de A. No debe confundirse X 1 con la funcin inversa de X. o El concepto de imagen inversa es usado en este texto para denir a una variable aleatoria como una funcin medible. La imagen inversa cumple las o siguientes propiedades:

376
a) X 1 B = A. b) X 1 (B c ) = (X 1 B)c . c) Si B1 B2 , entonces X 1 B1 X 1 B2 . d) X 1 (B2 B1 ) = X 1 B2 X 1 B1 . e) X 1 ( f) X 1 (
k=1 Bk ) k=1 Bk )

= =

1 B . k k=1 X 1 B . k k=1 X

o g) X(X 1 B) B, la igualdad se cumple si, y slo si, X es sobre. h) A X 1 (XA), la igualdad se cumple si, y slo si, X es inyectiva. o

Si se tienen dos funciones X : A B y Y : B C, entonces para cualquier subconjunto C de C, se cumple (X Y )1 C = X 1 (Y 1 C).

Funcin indicadora o
La funcin indicadora de un conjunto A es la funcin 1A : {0, 1} o o dada por 1 si A, 0 si A. /

1A () =

De este modo la funcin 1A toma el valor uno dentro del conjunto A, y cero o fuera de l. Es sencillo vericar que esta funcin resulta ser una variable e o aleatoria si, y slo si, el conjunto A es un evento. La funcin indicadora o o cumple, entre otras, las siguientes propiedades: a) 1AB = mx {1A , 1B } = 1A + 1B 1A 1B . a

Apndice B. Conceptos y resultados varios e b) 1AB = m {1A , 1B } = 1A 1B . n c) 1Ac = 1 1A . d) 1AB = 1A 1A 1B . e) 1AB = |1A 1B | = |1A 1B |2 = 1A + 1B 2 1A 1B . f) Si A B, entonces 1A 1B .

377

Esperanza condicional
Sea (, F ) un espacio medible. Sean P y Q dos medidas de probabilidad. Se dice que Q es absolutamente continua respecto de P si cada vez que P (A) = 0, necesariamente Q(A) = 0 para cada A en F . En tal caso se escribe Q P . Teorema de Radon-Nikodym. Si Q P , entonces existe una variable aleatoria integrable que es unica P -casi seguramente, y es tal que para cada evento A, Q(A) =
A

dP.

Se escribe = dQ/dP y se le llama la derivada de Radon-Nikodym. Con ayuda de este teorema es fcil demostrar la existencia y unicidad de la a esperanza condicional. Sea (, F , P ) un espacio de probabilidad, sea X una variable aleatoria integrable, y sea G F una sub -lgebra. Para cada A a en G dena Q(A) = X dP.
A

Puede comprobarse que Q P cuando P se restringe a la -lgebra G . a El teorema de Radon-Nikodym garantiza entonces la existencia y unicidad P -casi segura de una variable aleatoria G -medible tal que para cada A en

378
G, X dP =
A A

dP,

A la variable le hemos denotado por E(X | G ). He aqui una lista de algunas de sus propiedades. 1. E(X | G ) es G -medible y tiene esperanza nita. 2.
G

E(X | G ) dP =

X dP,
G

para cualquier G G .

3. E(E(X | G )) = E(X). 4. E(X | {, } ) = E(X). 5. Si B es un evento tal que 0 < P (B) < 1, entonces E(1A | {, B, B c , } ) = P (A | B)1B + P (A | B c )1B c . 6. Si B1 , . . . , Bn es una particin de tal que cada elemento tiene proo babilidad estrictamente positiva, entonces E(X | {B1 , . . . , Bn }) = E(X | B1 ) 1B1 + + E(X | Bn ) 1Bn . 7. E(X + Y | G ) = E(X | G ) + E(Y | G ). 8. Si X 0, entonces E(X | G ) 0. 9. Si X Y , entonces E(X | G ) E(Y | G ). 10. | E(X | G ) | E( |X| | G ). 11. E |E(X | G )| E(|X|). 12. Caso discreto. Si Y toma los valores y1 , y2 , . . . con probabilidad estrictamente positiva, entonces E(X | Y ) = E(X | Y = yi ) 1(Y =yi ) . i=1 13. Caso abs. continuo. Si es tal que Y () = y, entonces E(X | Y )() =

x dFX|Y (x|y),

cuando fY (y) = 0.

Apndice B. Conceptos y resultados varios e

379

14. Si G1 G2 , entonces E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ). 15. Si X es independiente de G , entonces E(X | G ) = E(X). 16. Si X es G -medible, entonces E(X | G ) = X. En particular, E(c | G ) = c. 17. Si G1 y G2 son independientes, entonces E(X | (G1 G2 )) = E(X | G1 ) + E(X | G2 ) E(X). Si adems X es independiente de G2 , entonces a E(X | (G1 G2 )) = E(X | G1 ). 18. Si Xn X, entonces E(Xn | G ) E(X | G ). 19. Teorema de convergencia monotona. Si Xn 0 y Xn X c.s., entonces E(Xn | G ) E(X | G ) c.s. 20. Si XY es integrable y X es G -medible, entonces E(XY | G ) = X E(Y | G ). 21. X es independiente de G si, y slo si, E(f (X) | G ) = E(f (X)) para o cualquier funcin Lebesgue medible f tal que f (X) es integrable. o 22. Desigualdad de Jensen. Si u es convexa y u(X) es integrable, entonces u(E(X | G )) E(u(X) | G ).
m m

380

Tabla de la distribucin normal estndar o a

1 (x) = 2
x 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987 0.9990 0.9993 0.9995 0.9997 0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.9987 0.9991 0.9993 0.9995 0.9997 0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.9987 0.9991 0.9994 0.9995 0.9997 0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.9988 0.9991 0.9994 0.9996 0.9997 0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984 0.9988 0.9992 0.9994 0.9996 0.9997

x
0.05

et

2 /2

dt
0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985 0.9989 0.9992 0.9995 0.9996 0.9997 0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.9990 0.9993 0.9995 0.9996 0.9997 0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8399 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 0.9990 0.9993 0.9995 0.9997 0.9998

0.06 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985 0.9989 0.9992 0.9994 0.9996 0.9997

0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984 0.9989 0.9992 0.9994 0.9996 0.9997

Bibliograf a

[1] Barry R. J. (1981) Probabilidade: Um Curso em Nvel Intermedirio. a IMPA-CNPq. [2] Blake I. F. (1979) An Introduction to Applied Probability. Wiley. [3] Bobrowski A. (2005) Functional Analysis for Probability and Stochastic Processes. Cambridge University Press. [4] Clarke L. E. (1975) Random Variables. Longman. [5] Cohn D. L. (1980) Measure Theory. Birkhuser. a [6] Feller W. (1978) Introduccin a la Teora de las Probabilidades y sus o Aplicaciones. Vol. I y II. Limusa. [7] Fristedt B., Gray L. F. (1996) A Modern Approach to Probability Theory. Birkhuser. a [8] Garc Alvarez M. A. (2005) Introduccin a la Teora de la Probabilia o dad. Primer Curso. Fondo de Cultura Econmica. o [9] Garc Alvarez M. A. (2005) Introduccin a la Teora de la Probabilia o dad. Segundo Curso. Fondo de Cultura Econmica. o [10] Grimmett G. R., Stirzaker D. R. (1982) Probability and Random Processes. Clarendon Press. 381

382

Bibliograf a

[11] Grimmett G. R., Stirzaker D. R. (1986) Probability: an Introduction. Oxford University Press. [12] Grimmett G. R., Stirzaker D. R. (2001) One Thousand Exercises in Probability. Oxford University Press. [13] Gut A. (2005) Probability: a Graduate Course. Springer. [14] Halmos P. R. (1960) Measure Theory. Van Nostrand. [15] Harris B. (1966) Theory of Probability. AddisonWesley. [16] Hoel P., Port S., Stone C. (1971) Probability Theory. Houghton Miin Co. [17] Jacod D., Protter P. (2000) Probability Essentials. SpringerVerlag. [18] Karr A. F. (1993) Probability. SpringerVerlag. [19] Laha R. G., Rohatgi V. K. (1979) Probability Theory. John Wiley & Sons. [20] Miller I., Miller M. (1999) John E. Freunds Mathematical Statistics 6th ed. PrenticeHall. [21] Mood A. M., Graybill F. A., Boes D. C. (1974) Introduction to the Theory of Statistics. McGraw Hill. [22] Parzen E. (1960) Modern Probability Theory and its Applications. Wiley. [23] Resnick S. I. (1999) A Probability Path. Birkhuser. a [24] Rincn L. (2004) Qu es la esperanza condicional? Miscelnea Mao e a temtica. No. 37, Agosto 2004, SMM. a [25] Rincn L. (2006) Sobre el problema del mono que escribe caracteres al o azar. Miscelnea Matemtica. No. 42, SMM. a a

Bibliograf a

383

[26] Romano J. P. , Siegel A. F. (1986) Counterexamples in Probability and Statistics. Chapman & Hall. [27] Rosenthal J. S. (2000) A First Look at Rigorous Probability Theory. World Scientic. [28] Ross S. (1976) A First Course in Probability. Prentice Hall. [29] Villa Morales J. (2005) Introduccin a la Medida e Integracin. Textos o o Universitarios, Ciencias Bsicas. Universidad Autnoma de Aguascaa o lientes. [30] Von Plato J. (1994) Creating Modern Probability. Cambridge University Press. [31] Williams D. (1991) Probability with Martingales. Cambridge University Press. [32] Williams D. (2001) Weighing the Odds: A Course in Probability and Statistics. Cambridge University Press.

Indice

-lgebra, 3 a de Borel de R, 11 de Borel de Rn , 14 generada, 7 producto, 14 Algebra, 9 Acoplamiento, 159 Aditividad nita, 24 Borel-Cantelli, 38 Cpula, 159 o Cociente de Mills., 140 Coeciente de correlacin, 174 o multinomial, 182 Completacin de espacios, 27 o Conjunto Borel medible, 11 Boreliano, 11 de Borel, 11 medible, 3 Continuidad de la prob, 28, 30, 31 Convergencia

casi dondequiera, 290 casi segura, 289 casi siempre, 290 dbil, 294 e de eventos, 16 en distribucin, 294 o en media, 293 en media cuadrtica, 294 a en probabilidad, 291 puntual, 288 Convolucin, 242 o Correlacin o negativa, 177 nula, 177 positiva, 177 Cotas de Frchet, 188 e Covarianza, 171 Cuantil de una v.a., 93 Cuartiles, 93 Desigualdad cr , 128 de Bonferroni, 53 de Boole, 24 de Cantelli, 362 384

Indice de Cauchy-Schwarz, 126 condicional, 227 de Chebyshev, 349 de Hlder, 128 o de Jensen, 127 de Kolmogorov, 350 de Kounias, 54 de Markov, 347 condicional, 227 de Minkowski, 129 Desviacin estndar, 90 o a Distribucin o absolutamente continua, 76 arcoseno, 138 Bernoulli, 95, 365 beta, 103, 366 binomial, 96, 366 binomial negativa, 98, 366 bivariada, 144 Cauchy, 367 continua, 75 de acoplamiento, 159 discreta, 75 exponencial, 101, 367 exponencial doble, 135 F de Snedecor, 270 gama, 101, 368 geomtrica, 96, 368 e hipergeomtrica, 99, 369 e multivariada, 182 ji-cuadrada, 263, 369 log gama, 232 log normal, 106, 231, 369 multimodal, 94 multinomial, 181 multivariada, 145 normal, 104, 370 bivariada, 184 estndar, 105 a multivariada, 185 Pareto, 370 Poisson, 98, 371 Rayleigh, 372 singular, 76, 77 t de Student, 267, 371 trinomial, 182 uniforme bivariada, 183 continua, 101, 372 discreta, 94, 371 unimodal, 94 univariada, 145 Weibull, 372 Ensayo Bernoulli, 95 Error absoluto medio, 129 cuadrtico medio, 123 a Espacio L1 , 126 L2 , 127 de probabilidad, 1, 2 completo, 27 medible, 3 muestral, 2 Esperanza condicional, 214, 377 condicional (evaluada), 162 de un vector, 179

385

386

Indice

de una funcin de un vector, 168 Funcin de probabilidad o o de una funcin de una v.a., 88 o acumulada, 68 de una v.a., 85 conjunta, 149 Estad stica, 261 Funcin generadora o Estad sticas de orden, 272 de momentos, 317 Evento, 2 de momentos factoriales, 316 casi seguro, 80 de probabilidad, 311 compuesto, 2 Igualdad simple, 2 casi segura, 80 Frmula o en distribucin, 80 o de inclusin y exlusin, 51 o o Imagen inversa, 375 Funcin o Independencia beta, 103 de -lgebras, 36 a Borel medible, 61 de clases, 36 de acumulacin de prob, 68 o de eventos, 34 de densidad, 75 de v.a.s, 163 de masa de probabilidad, 75 de vectores, 167 de probabilidad, 75 Integral de Riemann-Stieltjes, 81 gama, 102 L mite inferior indicadora, 376 de eventos, 15 medible, 112 de nmeros, 374 u signo, 111 L mite superior Funcin caracter o stica, 323 de eventos, 15 frmula de inversin, 330, 333 o o de nmeros, 374 u teorema de continuidad, 334 Lema de Abel, 374 teorema de unicidad, 333 Ley de eventos raros, 132 Funcin de densidad, 76 o Ley de los grandes nmeros, 352 u condicional, 160 dbil, 352 e conjunta, 152 en media cuadrtica, 362 a marginal, 158 fuerte, 354 Funcin de distribucin, 68 o o condicional, 161 conjunta, 144 marginal, 156 Matriz de correlacin, 181 o

Indice de covarianzas, 180 Media, 85 muestral, 262 Mediana de una v.a., 93 muestral, 285 Medibilidad, 58 Medida de probabilidad, 2, 20 inducida, 58 inducida por una v.a., 112 Moda de una v.a., 94 Momentos, 92 absolutos, 92 centrales, 92 centrales absolutos, 92 factoriales, 92 Muestra aleatoria, 261 Paradoja de San Petersburgo, 119 Probabilidad axiomtica, 20 a clsica, 21 a condicional, 26 frecuentista, 353 geomtrica, 22 e Problema de los momentos, 92 Rango de una m.a., 276 Regla del producto, 53 Semilgebra, 10 a Teorema

387
central del l mite, 358 de Bayes, 27 de Bernoulli, 352 de cambio de variable, 230, 233, 236 de convergencia dominada, 305 de convergencia montona, 303 o de de Moivre-Laplace, 357 de Poisson, 132 de probabilidad total, 27

Valor esperado, 85 medio, 85 promedio, 85 Variable aleatoria, 58 continua, 75, 76 discreta, 75 mixta, 77 singular, 76, 77 Varianza condicional, 223 de un vector, 179 de una v.a., 90 muestral, 262 Vector aleatorio, 141 continuo, 143 discreto, 143

You might also like