Curso intermedio de PROBABILIDAD

Luis Rinc´n o Departamento de Matem´ticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´xico DF e Versi´n: Octubre 2007 o

Una versi´n actualizada del presente texto se encuentra disponible en formato o electr´nico en la direcci´n http://www.matematicas.unam.mx/lars o o

ii

Contenido

1. Espacios de probabilidad 1.1. Espacios de probabilidad . 1.2. σ-´lgebras . . . . . . . . . a 1.3. Medidas de probabilidad . 1.4. Independencia de eventos 1.5. Lema de Borel-Cantelli . . 1.6. Ejercicios . . . . . . . . .

. . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

1 1 3 20 33 37 42 57 57 68 74 81 84 94 100 108

2. Variables aleatorias 2.1. Variables aleatorias . . . . . . 2.2. Funci´n de distribuci´n . . . o o 2.3. Tipos de variables aleatorias . 2.4. Integral de Riemann-Stieltjes 2.5. Caracter´ ısticas num´ricas . . e 2.6. Distribuciones discretas . . . 2.7. Distribuciones continuas . . . 2.8. Ejercicios . . . . . . . . . . . 3. Vectores aleatorios 3.1. Vectores aleatorios . . . 3.2. Distribuci´n conjunta . o 3.3. Densidad conjunta . . . 3.4. Distribuci´n marginal . o 3.5. Distribuci´n condicional o . . . . . . . . . . . . . . .

141 . 141 . 144 . 149 . 156 . 160

iii

3.6. Independencia . . . . . . . . . . . . . . . . . . . . 3.7. Esperanza de una funci´n de un vector aleatorio o 3.8. Covarianza . . . . . . . . . . . . . . . . . . . . . 3.9. Coeficiente de correlaci´n . . . . . . . . . . . . . o 3.10. Esperanza y varianza de un vector aleatorio . . . 3.11. Distribuciones multivariadas discretas . . . . . . 3.12. Distribuciones multivariadas continuas . . . . . . 3.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 4. Esperanza condicional 4.1. Esperanza condicional 4.2. Esperanza condicional: 4.3. Algunas propiedades . 4.4. Varianza condicional . 4.5. Ejercicios . . . . . . . . . . . . . . . caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

163 168 171 173 179 181 183 186 213 214 216 221 223 226

5. Transformaciones 229 5.1. Transformaci´n de una variable aleatoria . . . . . . . . . . . . 229 o 5.2. Transformaci´n de un vector aleatorio . . . . . . . . . . . . . 235 o 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 6. Dist. muestrales y estad´ ısticas de orden 261 6.1. Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . 263 6.2. Estad´ ısticas de orden . . . . . . . . . . . . . . . . . . . . . . . 271 6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 7. Convergencia 7.1. Tipos de convergencia . . . . . . . . . . . . 7.2. Relaciones entre los tipos de convergencia . 7.3. Dos resultados importantes de convergencia 7.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 287 297 303 306

8. Funciones generadoras 311 8.1. Funci´n generadora de probabilidad . . . . . . . . . . . . . . 311 o 8.2. Funci´n generadora de momentos . . . . . . . . . . . . . . . . 316 o iv

8.3. Funci´n caracter´ o ıstica . . . . . . . . . . . . . . . . . . . . . . 323 8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 9. Dos 9.1. 9.2. 9.3. 9.4. teoremas l´ ımite Algunas desigualdades . . . Ley de los grandes n´meros u Teorema central del l´ ımite . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 347 352 357 360 365 373

A. Distribuciones de probabilidad B. Conceptos y resultados varios

v

vi

Pr´logo o

El presente texto est´ dirigido a estudiantes de mitad de carrera de las a licenciaturas de matem´ticas, actuar´ y ´reas afines. Contiene el material a ıa, a b´sico para un segundo curso de probabilidad, y tiene como origen las notas a de clase del curso semestral de Probabilidad II, que he impartido durante los ultimos a˜os en la Facultad de Ciencias de la UNAM. ´ n El ´nfasis de este segundo curso se centra en la formalizaci´n de algunos e o conceptos estudiados en un primer curso de probabilidad, y en el estudio de vectores aleatorios y sus varios conceptos relacionados. El lector puede comprobar que se hace poco ´nfasis en las aplicaciones, y que la exposici´n e o cubre principalmente el desarrollo matem´tico. El objetivo es que despu´s a e de este curso, el estudiante pueda continuar con facilidad con un curso de estad´ ıstica matem´tica, de procesos estoc´sticos, o tal vez un curso avana a zado de probabilidad o de teor´ de la medida, teniendo como elementos ıa b´sicos los conceptos te´ricos aqu´ desarrollados. En particular se incluye a o ı un cap´ ıtulo sobre esperanza condicional, cuyo uso y aplicaci´n es cada vez o m´s frecuente. Tambi´n se incluye un cap´ a e ıtulo sobre distribuciones muestrales y estad´ ısticas de orden, con aplicaciones inmediatas en temas de la estad´ ıstica matem´tica. a Al final de cada cap´ ıtulo el lector encontrar´ una lista de ejercicios separaa dos por temas. La mayor´ de estos ejercicios son de tipo mec´nico, algunos ıa a de ellos son muy sencillos de modo que el t´rmino ejercicios me parece e justo y adecuado. Pocos de estos ejercicios son originales, la mayor parte de vii

y he buscado plasmar ese gusto en este a A a texto. y el objetivo que siempre tuve en mente estos a˜os fue el tener un n´mero suficiente de ellos para n u presentar algunos en clase. a o Es mi intenci´n mantener en el futuro. usando material ligeramente distinto cada semestre para evitar repeticiones. y las gr´ficas fueron elaboradas usando el paquete pstricks. Este material fue escrito en L TEX.ellos son modificaciones de ejemplos o resultados cl´sicos que se encuentran a en la larga literatura existente. Cualquier correcci´n o comentario acerca de este o trabajo ser´ muy bien recibido en el correo electr´nico que aparece abajo. Durante la exposici´n de los temas o el lector encontrar´ tambi´n algunos otros ejercicios propuestos y algunos a e ejemplos resueltos. La presentaci´n del material mantiene la estructura de las notas de clase. Tambi´n he intentado que la a a o e notaci´n fuera lo m´s simple y m´ o a ınima posible. lo cual ha sido realmente un placer. Personalmente me gustan los libros con im´genes y diagramas. o tal vez orientaci´n breve acerca de un concepto. La o o p´gina web donde puede obtenerse es a viii . En o este sentido. La intenci´n de contar con este material es o la de crear confianza y soltura por parte del alumno en el manejo de los conceptos y notaci´n involucrados. han contribuido al mee joramiento de este texto. alumnos y profesores. un a o o ejemplo. hasta donde me sea posible. quienes a trav´s de sus comentarios y sugerencias. el libro contiene tablas a manera de resumen. y asignar algunos otros para preguntas de examen. u o Agradezco sinceramente a todas aquellas personas. un resultado. y los enunciados est´n enmarcados para su f´cil localizaci´n. Al final del texto aparece una lista de referencias que me permito sugerir al lector consultar para profundizar y a veces precisar en determinados temas. un ejercicio. o y creo que ser´ particularmente util al estudiante con poco tiempo para a ´ leer p´rrafos completos. El n´mero de ejercicios excede lo que o u normalmente puede realizarse en un semestre. corregida y gratuita del presente texto. Algunos de estos textos no han sido mencionados expl´ ıcitamente pero aparecen en la lista por que en alg´n momento he obtenido inspiraci´n de ellos. una o versi´n electr´nica actualizada. dejar otros para trabajo en casa. y quien s´lo busca una definici´n.

mx/lars Por ultimo. Gracias a todos por su confianza y apoyo.matematicas.http://www.unam. ´ en gran medida. Luis Rinc´n o Diciembre 2006 Ciudad Universitaria UNAM lars@fciencias. al excelente ambiente de trabajo y de libertad acad´mica e que he tenido la fortuna de encontrar en el Departamento de Matem´ticas a de la Facultad de Ciencias de la UNAM. me parece importante mencionar que este texto ha sido posible.unam.mx ix .

.

Se entiende por o experimento aleatorio todo aquel experimento tal que cuando se le repite bajo las mismas condiciones iniciales. en donde Ω es un conjunto arbitrario. Espacios de probabilidad El modelo matem´tico creado durante el primer tercio del siglo XX para a estudiar los experimentos aleatorios es el as´ llamado espacio de probabiliı dad. P ). y P es una medida de probabilidad definida sobre F . Bajo estas circunstancias.1. es necesario aceptar que no es posible predecir el resultado de un experimento particular a´n u cuando se le haya efectuado con anterioridad varias veces bajo las mismas condiciones iniciales. el resultado que se obtiene no siempre es el mismo. Explicamos a continuaci´n brevemente cada uno de estos elementos. y en consecuencia se considera aleatorio. F es una σ-´lgebra de a subconjuntos de Ω.Cap´ ıtulo 1 Espacios de probabilidad La teor´ de la probabilidad es la parte de las matem´ticas que se encarga ıa a del estudio de los fen´menos o experimentos aleatorios. denotada usualmente por (Ω. F . o 1 . la teor´ de la probabilidad tiene el objetivo de modelar ıa matem´ticamente cualquier experimento aleatorio de inter´s. a e 1. A menudo. Este modelo consiste de una terna ordenada. y por muy diversas razones.

aunque tal e vez lo correcto sea decir mensurable. se usa el t´rmino medible. a Medida de probabilidad. un evento es simple o elemental si consta de a lo m´s un elemento de Ω. o ´ Definicion. Tenemos entonces formalmente la siguiente definici´n. es decir.1. Una clase o colecci´n no vac´ F de subconjuntos de Ω es o ıa una σ-´lgebra si es cerrada bajo las operaciones de tomar complementos a y uniones numerables. P ). Una funci´n P definida sobre una σ-´lgebra F o a y con valores en el intervalo [0. No existen reglas establecidas para ello y adem´s la posible asige a . A los e a a elementos de una σ-´lgebra se les llama eventos . sucesos. El t´rmino σ-´lgebra se lee “sigma-´lgebra”. 1] es una medida de probabilidad si P (Ω) = 1 y es σ-aditiva. si cumple que P( ∞ An ) = ∞ n=1 P (An ). . al efectuar una vez el experimento aleatorio. El n´mero P (A) representa una forma de medir la posibilidad de observar u la ocurrencia del evento A. . Espacios de probabilidad Espacio muestral. A2 . El conjunto Ω es llamado espacio muestral o espacio muestra. ´ σ-algebra. son elementos de F que cumplen con la condici´n de ser ajenos dos a dos. n=1 o cuando A1 . esto es. o conjuntos mea dibles. y matem´ticamente se le considera entonces como un o a conjunto arbitrario. Un espacio de probabilidad es una terna (Ω. F es una σ-´lgebra de subconjuntos de Ω. (Espacio de probabilidad). En particular. y P es una medida de probabilidad a definida sobre F . Debido a su uso extendido. . El objetivo es asociar un espacio de probabilidad al experimento aleatorio de inter´s. y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti´n. Ai ∩ Aj = ∅ para valores de i y j distintos. F . No es imprescindible darle esta interpreo taci´n al conjunto Ω.2 1. en donde Ω es un conjunto arbitrario. y es compuesto cuando a consta de dos o m´s elementos de Ω.

se puede o ´ e asociar un espacio de probabilidad u otro. A2 . espacio medible. diferencia sim´trica. (σ-algebra.Cap´ ıtulo 1. En este primer cap´ ıtulo se estudian con m´s detalle los conceptos de σ-´lgebra y medida de probabilidad. Espacios de probabilidad 3 naci´n no es unica. pues dependiendo del inter´s del observador. En palabras. . al tomar las operaciones de uni´n. Si A1 . o . Ω ∈ F .2. Estas propiedades garantizan que la colecci´n es cerrada al efectuar las operaciones usuales entre conjuntos. evento). ∈ F . etc. 2. se obtienen nuevamente elementos de la misma e colecci´n. difereno o cia. 1. . entonces Ac ∈ F . entonces ∞ n=1 An ∈ F . Recordemos nuevamente la definici´n de esta estructura. o ´ ´ Definicion. intersecci´n. F ) se le llama espacio medible y a los elementos de F se les llama eventos o conjuntos medibles. a a Empecemos con el primero. Una colecci´n o F de subconjuntos de Ω es una σ-´lgebra si cumple las siguientes cona diciones: 1. complemento. 3. Si A ∈ F . A la pareja (Ω. es o decir. . una σ-´lgebra es una colecci´n de subconjuntos de Ω que no a o es vac´ y que es cerrada bajo las operaciones de tomar complemento y ıa efectuar uniones infinitas numerables. σ-´lgebras a En esta secci´n se estudia el concepto de σ-´lgebra y se define la m´ o a ınima σ-´lgebra generada por una colecci´n arbitraria de subconjuntos del espacio a o muestral.

b) F2 = {∅. Ω}. y los elementos de F representan eventos en el experimento aleatorio. que cada una de las siguientes colecciones es una σ-´lgebra de subconjuntos a de Ω. Sea Ω un conjunto no numerable. En general existen varias σ-´lgebras que pueden asociarse a un conjunto a cualquiera no vac´ Ω como se muestra a continuaci´n. La siguiente colecci´n es una σ-´lgebra de subconjuntos de Ω que contiene expl´ o a ıcitamente a los conjuntos A y B. A. A. y esta ese tructura constituye el dominio de definici´n de una medida de probabilidad. conjunto potencia. y la σ-´lgebra del ultimo inciso a ´ es la m´s grande. B.2. o Cuando el espacio muestral es finito normalmente se toma como σ-´lgebra a el conjunto potencia de Ω. pero para espacio muestrales m´s generales no a siempre puede tomarse esa estructura tan grande. Ω}. en donde A ⊆ Ω. ¿Puede usted verificar tal afirmaci´n con la ayuda o de un diagrama de Venn? F = {∅. a a) F1 = {∅.4 ´ 1. B − A. σ-algebras En probabilidad elemental el conjunto Ω denota el espacio muestral o conjunto de posibles resultados de un experimento aleatorio. (B − A)c . aquellos a los cuales se desea calcular su probabilidad. Ac . Ejemplo. La σ-´lgebra del primer inciso es la σ-´lgebra m´s peque˜a que poa a a n demos asociar a un conjunto cualquiera Ω. ıo o Ejemplo Sea Ω un conjunto cualquiera no vac´ Es inmediato comprobar ıo. es por ello que se estudian estas estructua a n ras. c) F3 = 2Ω . B c . F dada por {A ⊆ Ω : A o A a . Ω} Ejercicio. Sean A y B subconjuntos de Ω tales que A ⊆ B. y deben considerarse entonces σ-´lgebras m´s peque˜as. Una σ-´lgebra es a entonces una estructura que nos permite agrupar ciertos subconjuntos de Ω de inter´s. Ac . Demuestre que la colecci´n o c es finito o numerable} es una σ-´lgebra.

eno . entonces A − B ∈ F . A menudo se usa tambi´n el t´rmino σ-campo en lugar e e de σ-´lgebra. Espacios de probabilidad 5 B C A D Ω E Figura 1. . ıa En la Figura 1. Demostraremos a continuaci´n o o algunas otras propiedades generales de las σ-´lgebras. B ∈ F . ∅ ∈ F . a ´ Proposicion. ∈ F . .Cap´ ıtulo 1. Sea F una σ-´lgebra de subconjuntos de Ω.1: Una σ-´lgebra es una colecci´n F = {A. Como Ω ∈ F y F es una colecci´n cerrada bajo complementos. Demostraci´n. D.1 puede observarse una representaci´n gr´fica de una σo a a ´lgebra como una colecci´n de subconjuntos de Ω.} de subcona o juntos que no es vac´ y que es cerrada bajo complementos y uniones numerables. C. . Si A1 . Si A. . Observe con cuidado el uso y significado de los s´ a ımbolos de contenci´n y pertenencia: A ⊆ Ω y A ∈ F . 3. 2. y A△B ∈ F . El uso de la letra a F para denotar una σ-´lgebra proviene del nombre en ingl´s “field” que a e significa campo. . entonces ∞ n=1 An ∈ F . B. En la secci´n de ejercicios o o se pueden encontrar algunos otros ejemplos de σ-´lgebras. A2 . E. o 1. . Entonces a 1.

´ 1. Una operaci´n de particular o o importancia es aquella en la que se intersectan dos σ-´lgebras produciendo a una nueva σ-´lgebra. Sean F1 y F2 dos σ-´lgebras de subconjuntos de un mismo o a Ω. . . una sucesi´n de elementos en la intersecci´n F1 ∩ F2 . ∈ F2 . A2 . Demostraremos que F1 ∩ F2 es una σ-´lgebra. En la secci´n de ejercicios pueden encontrarse algunas otras deo finiciones de σ-´lgebra equivalentes a la que hemos enunciado. ∈ F . Si A1 . o o ∞ Entonces A1 . Estas proposiciones se siguen de lo demostrado antes y de las definiciones A − B := A ∩ B c . Tomando complementos y usando las leyes de De Morgan se obtiene el resultado. a a) Como F1 y F2 son σ-´lgebras. este es el contenido del siguiente resultado. . Por lo tanto n=1 An ∈ F1 y ∞ ∞ n=1 An ∈ F2 . Por lo tanto ∞ Ac ∈ 1 2 n=1 n F . . es decir. b) Sea A un elemento en F1 ∩ F2 . A2 . . y A△B := (A − B) ∪ (B − A). 3. . entonces Ω ∈ F1 y Ω ∈ F2 . Entonces A ∈ F1 y A ∈ F2 . c) Sea A1 . . n=1 An ∈ F1 ∩ F2 . . . ∈ F1 y A1 . A2 . . es decir. A2 . . . . σ-algebras 2. La proposici´n anterior establece entonces que las σ-´lgebras son estruco a turas tambi´n cerradas bajo las operaciones de diferencia e intersecciones e numerables. y que involua cran las operaciones de la proposici´n anterior.2. Por lo tanto a Ω ∈ F1 ∩ F2 . entonces Ac . Ac ∈ F1 ∩ F2 . o a a Demostraci´n. . La intersecci´n de dos σ-´lgebras es una σ-´lgebra. Por lo tanto Ac ∈ F1 y Ac ∈ F2 . Entonces F1 ∩ F2 es aquella colecci´n de subconjuntos de Ω cuyos eleo mentos pertenecen tanto a F1 como a F2 . a ´ Proposicion. . . ∈ F .6 tonces Ωc = ∅ ∈ F . Ac .

La intersecci´n finita. V´anse por ejemplo los ejercicios 9 y 10 a este respecto.Cap´ ıtulo 1. denotada por σ(C ). Sea C una colecci´n no vac´ de o ıa subconjuntos de Ω. la colecci´n σ(C ) es la intersecci´n de todas aquellas σ-´lgebras o o a que contienen a C . La siguiente pregunta consiste en verificar si la uni´n de dos σo ´lgebras produce nuevamente una σ-´lgebra. ´ ´ Definicion. a Es decir. que para cada t en T se tiene una σ-´lgebra Ft de subconjuntos de Ω. a es la colecci´n o σ(C ) = {F : F es σ-´lgebra y C ⊆ F }. La σ-´lgebra generada por C . En general no es cierto que la uni´n de dos σ-´lgebras produce una o a nueva σ-´lgebra. Observe que como T es un conjunto a a arbitrario. Sea T un conjunto arbitrario distinto del vac´ Suponga o ıo. Por a e otro lado se puede extender la validez de la proposici´n reci´n demostrada o e a intersecciones m´s generales como indica el siguiente resultado. entonces F1 ∩F2 es nuevamente una σ-´lgebra de subconjuntos a de Ω. Sea a F = t∈T Ft . naturalmente m´s peque˜a que F1 y F2 en el sentido F1 ∩ F2 ⊆ a n F1 . F2 . Por la proposici´n anterior sabemos que σ(C ) es una o . (σ-algebra generada). En este caso la respuesta es a a negativa. Espacios de probabilidad 7 Hemos entonces comprobado que si F1 y F2 son dos σ-´lgebras de un mismo a conjunto Ω. a a Demostraci´n. a Lo demostrado anteriormente garantiza que la siguiente definici´n tiene seno tido. infinita numerable o bien arbitraria o de σ-´lgebras es nuevamente una σ-´lgebra. a ´ Proposicion. la σ-´lgebra F es efectivamente una intersecci´n arbitraria de a o σ-´lgebras. Siguiendo los mismos pasos que en la demostraci´n anterior o es f´cil probar que F es una σ-´lgebra.

a Ejemplo. B}. Entonces σ(C2 ) es una σo ´lgebra que contiene a la colecci´n C1 . Sabemos que F ⊆ σ(F ). a Demostraci´n. Las demostraciones son cortas pero requieren a algunos momentos de reflexi´n en una primera lectura. o ´ Proposicion. Sean A. Los siguientes dos resultados son proposiciones sencillas y naturales acerca de σ-´lgebras generadas. Resulta que a la m´ ınima σ-´lgebra que contiene a la colecci´n C es la siguiente. . Entonces σ(C1 ) ⊆ σ(C2 ). A σ(C ) tambi´n se le llama m´nima σ-´lgebra generada por C . (A ∪ B)c .8 ´ 1.2. entonces forzosamente σ(C ) ⊆ F . Ω}. Demostraci´n. B ⊆ Ω con A y B ajenos. B. Ac . a o ´ Proposicion. ¿Puede a o usted demostrar tal afirmaci´n? o σ(C ) = {∅. Por lo tanto σ(C1 ) ⊆ σ(C2 ). A ∪ B. Sean C1 y C2 dos colecciones de subconjuntos de Ω tales que C1 ⊆ C2 . B c . Defina la colecci´n C = {A. Observe que C ⊆ σ(C ) pues a la colecci´n C se le han a˜adido posiblemente algunos otros o n subconjuntos para convertirla en la σ-´lgebra σ(C ). Claramente C1 ⊆ C2 ⊆ σ(C2 ). A. o En general esta colecci´n no es una σ-´lgebra pero podemos a˜adirle algunos o a n subconjuntos de Ω para encontrar la σ-´lgebra generada por C . Esto demuestra la igualdad. Es decir. Si F es una σ-´lgebra. entonces σ(F ) = F . σ-algebras σ-´lgebra. a e ı a y el adjetivo m´nima es claro a partir del hecho de que es la σ-´lgebra m´s ı a a peque˜a que contiene a la colecci´n C . entonces σ(F ) ⊆ F . si F es una σ-´lgebra n o a que contiene a C . Por otro lado como F es una σo a ´lgebra que contiene a F .

en donde C una colecci´n de o subconjuntos de Ω. Una colecci´n A de subconjuntos de Ω es una o a ´lgebra si cumple las siguientes condiciones: 1. entonces k=1 Ak ∈ A . Si A ∈ A . La diferencia entre una ´lgebra y una σ-´lgebra estriba en que para la a a primera se pide que sea una colecci´n cerrada bajo uniones finitas mientras o que la segunda es una colecci´n cerrada bajo uniones infinitas numerables. An ∈ A . o o ´ ´ Definicion. (Algebra). No estudiaremos estas estructuras con detalle pero o a las mencionamos porque desempe˜an un papel importante en la construcn ci´n y extensi´n de medidas de probabilidad.Cap´ ıtulo 1. a a . Ejercicio. 2. y su o a a relaci´n con σ-´lgebras. Demuestre que σ(σ(C )) = σ(C ). en donde C1 y C2 son dos colecciones no vac´ de subconjuntos de Ω. Espacios de probabilidad 9 Ejercicio. . ıas Otras estructuras de subconjuntos En esta secci´n se presentan los conceptos de ´lgebra y semi-´lgebra. Ω ∈ A . Demuestre que σ(C1 ∪ C2 ) = σ( σ(C1 ) ∪ σ(C2 ) ). Si A1 . . o Claramente toda σ-´lgebra es una ´lgebra. entonces Ac ∈ A . . n 3. .

´lgebra y semi´lgebra est´n relacionados como a a a a se muestra en la Figura 1. . En la secci´n de ejercicios se pide demostrar o las implicaciones y no implicaciones que se obtienen de este diagrama.2. An ∈ S tales que los subconjuntos A1 . ´lgebras y semi´lgebras. 2. Ω ∈ S . . entonces existen A2 . . (Semialgebra). . A1 ∈ S son tales que A1 ⊆ A. o a a a A continuaci´n se estudia un ejemplo particular de σ-´lgebra de subconjuno a tos de n´meros reales: la σ-´lgebra de Borel. . . Si A. σ-´lgebras a a ´lgebras semi´lgebras a Figura 1.2: Relaci´n general entre σ-´lgebras. entonces A ∩ B ∈ S . 3. Una colecci´n S de subconjuntos de Ω o es una semi´lgebra si cumple las siguientes condiciones: a 1.10 ´ 1. B ∈ S . Si A. Los conceptos de σ-´lgebra.2. . An son ajenos dos a dos y se cumple que n A= k=1 Ak . . u a . σ-algebras ´ ´ Definicion.

la intersecci´n infinita es un elemento de a o B(R). ´ ´ Definicion. Primeramente observe que los intervalos cerrados [a. en donde o a ≤ b. b) de R. Espacios de probabilidad 11 Conjuntos de Borel Considere la colecci´n de todos los intervalos abiertos (a. b] = n=1 (a − 1 1 . De esta forma se puede asociar la σ-´lgebra B(R) a al conjunto de n´meros reales. Borelianos o conjuntos Borel medibles. A los elementos de B(R) se les llama conjuntos de Borel . B(R)). B(R) = σ { (a. Siendo B(R) una σ-´lgebra. y obtener as´ el espacio medible (R. A la m´ ınima σ-´lgebra generada por esta colecci´n se le llama σa o a ´lgebra de Borel de R. Para cualesquiera n´meros reales a ≤ b. Demostraci´n. b) ⊆ R : a ≤ b } . b] y {a}. b). (a. pues podemos escribirlos en t´rminos de una intersece ci´n numerable de intervalos abiertos de la siguiente forma o ∞ [a. (a. De esta forma se concluye que cada intervalo cerrado es un conjunto . y se le denota por B(R). b] son o conjuntos Borelianos.Cap´ ıtulo 1. son todos elementos de B(R). b]. b). a ´ Proposicion. b + ). u ı Se muestran a continuaci´n algunos elementos expl´ o ıcitos de esta σ-´lgebra. n n Observe que cada elemento de la intersecci´n anterior es un conjunto Boreo liano. [a. (σ-algebra de Borel de R). los intervalos u [a. (−∞. ∞).

∞) = y (−∞. n n Complementos. Adem´s de la definici´n enunciada. intersecciones y uniones numerables de estos conjuntos son todos ellos Borelianos. n (−∞. Demuestre directamente que N. b) y (a. Este es el contenido de la siguiente proposici´n. Ejercicio. n 1 ) ∈ B(R). As mismo tenemos que (a. σ-algebras de Borel. Demuestre adem´s que el conjunto de n´meros irracionales es un conjunto a u de Borel de R. b) = ∞ n=1 ∞ n=1 (a. b] son conjuntos Borelianos. Los conjuntos que constan de un solo n´mero tambi´n son conjuntos Borelianos pues u e {a} = ∞ n=1 (a − 1 1 . a + ). b] = ∞ n=1 ∞ n=1 (a − 1 . Z y Q son elementos de B(R). Por lo tanto [a.2. b) ∈ B(R). (b − n. a + n) ∈ B(R). b + De forma an´loga se puede hacer ver que los intervalos semiabiertos de la a forma [a. existen otras formas equivalentes de a o generar a los conjuntos Borelianos. ∞) ∈ B(R). o . ∞) = y (−∞. Este hecho puede utilizarse para comprobar los siguientes resultados.12 ´ 1.

3.Cap´ ıtulo 1. b] : a ≤ b} ⊆ B(R). 4. σ { (a. ıa Es posible tambi´n considerar la σ-´lgebra de conjuntos de Borel restringie a dos a una porci´n de los n´meros reales como se indica a continuaci´n. 2. Es natural preguntarse si la colecci´n B(R) contiene a todos los subconjuno tos de R. b] : a ≤ b}. es decir. a e 1. Los detalles de estas afirmaciones pueden encontrarse en textos de teor´ de la medida. b] ∈ B(R). o u o . b] : a ≤ b} se verifican ambas contenciones. por lo tanto {[a. b) : a ≤ b }. b] : a ≤ b} ⊆ B(R). Para demostrar que B(R) = σ{[a. De manera equivalente se puede definir a B(R) como la m´ ınima σ-´lgebra a generada por todos los subconjuntos abiertos de R. 5. Las siguientes σ-´lgebras son todas id´nticas a B(R). Espacios de probabilidad 13 ´ Proposicion. σ { [a. b − n ]. b) : b ∈ R }. y por tanto tampoco Borel medibles. Claramente [a. el resto de ellos se o ´ demuestra usando el mismo procedimiento. b) ∈ σ{[a. u o La construcci´n del tal conjunto no es sencilla. La respuesta es negativa. Demostraci´n. ∞) : a ∈ R }. b) = n=1 [a + n . b) : a ≤ b} ⊆ σ{[a. Entonces {(a. En ambos casos la σa ´lgebra generada es B(R). b] : o ∞ 1 1 a ≤ b} pues (a. Ahora se demuestra la contenci´n contraria. b] : a ≤ b }. Sabemos que (a. Se prueba unicamente el primer inciso. σ { (a. Por lo tanto B(R) ⊆ σ{[a. como por ejemplo [5] o [14]. b] : a ≤ b}. Entonces σ{[a. σ { (−∞. y puede obtenerse indirectao mente de la siguiente forma: la colecci´n B(R) est´ contenida en una clase o a m´s amplia llamada la colecci´n de conjuntos Lebesgue medibles de R. b] : a ≤ b }. y se a o demuestra que existen subconjuntos de R que no son Lebesgue medibles. σ { [a. puede demostrarse que existe un subconjunto de los n´meros reales que no pertenece a la colecci´n B(R).

No es dif´ comprobar que la colecci´n B(A) es efectivamente una σ-´lgeıcil o a bra de subconjuntos de A. denotada por a B(A) o por A ∩ B(R). o o a ´ Ejercicio. b) × (c. es decir. Esto es. Demuestre que el producto cartesiano de dos σ-´lgebras no es necesariamente σ-´lgebra. El concepto de σ-´lgebra de Borel de R puede extenderse a dimensioa nes mayores de la siguiente forma. F2 ) son dos espacios medibles. Se define entonces la σ-´lgebra producto como a . se define B(R ´ ´ Definicion. Observe que el nuevo conjunto total es A y no R. B(Rn ) = σ(B(R) × · · · × B(R)). se define como sigue B(A) = {A ∩ B : B ∈ B(R)}. La σ-´lgebra de Borel de A. Mediante un ejemplo muestre que F1 × F2 no necesariamente es una σ-´lgebra de subconjuntos a del espacio producto Ω1 ×Ω2 . (σ-algebra producto). a C = {(a. B(R a o equivalente se puede definir B(R2 ) = σ(B(R) × B(R)). F1 ) y (Ω2 . Sea A ∈ B(R). d) : a ≤ b. Considere la colecci´n C de todas los o rect´ngulos abiertos de R2 . Se definen los conjuntos de Borel de R2 como los elementos de la m´ ınima 2 ) = σ(C ). de modo que debe anteponerse la operaci´n σ a tal colecci´n para convertirla en una σ-´lgebra.2.14 ´ 1. c ≤ d}. En forma an´loga a n ) usando productos cartesianos de intervalos. suponga a a que (Ω1 . De manera σ-´lgebra generada por la colecci´n C . (σ-algebra de Borel de Rn ). En general el producto cartesiano de dos σ-´lgebras no es una σ-´lgebra a a de subconjuntos del espacio producto. σ-algebras ´ Definicion. es decir.

En o o . l´ sup An = ım n→∞ ∞ ∞ Ak . es decir. 15 Ejercicio. pertenece a una infinidad de elementos de la sucesi´n. es decir. l´ inf An = ım n→∞ Ak . ım ım n→∞ n→∞ Tampoco es dif´ verificar que un elemento pertenece al evento l´ ıcil ımite superior si. Sucesiones de eventos En esta secci´n se estudia el concepto de convergencia de una sucesi´n infio o nita de eventos. Estas definiciones son an´logas al caso de sucesiones num´ricas como puede consultarse en un a e ap´ndice al final del texto. n=1 k=n Tanto el l´ ımite superior como el l´ ımite inferior son operaciones bien definidas. Para una sucesi´n de o eventos {An : n ∈ N}. En cada caso. y s´lo si. un conjunto medible. se define el l´ ımite superior y el l´ ımite inferior como sigue: 1. Para enunciar tal concepto necesitaremos antes las definiciones de l´ ımite superior y l´ ımite inferior para conjuntos. d) : a ≤ b. e ´ Definicion. c ≤ d} a coincide con σ(B(R) × B(R)). Espacios de probabilidad σ(F1 × F2 ). b) × (c. el conjunto ´ resultante es siempre un evento. Demuestre que la σ-´lgebra σ {(a. el resultado siempre existe y es unico.Cap´ ıtulo 1. (L´ ımite superior e inferior). n=1 k=n ∞ ∞ 2. Es sencillo tambi´n comprobar que e l´ inf An ⊆ l´ sup An .

2. σ-algebras algunos textos de habla inglesa el evento l´ ımite superior se escribe (An i. Entonces l´ An = {0} pues ım n→∞ l´ sup An = ım n→∞ ∞ ∞ Ak = Ak = ∞ y l´ inf An = ım n→∞ n=1 k=n ∞ ∞ n=1 k=n n=1 ∞ n=1 [−1/n. Sea {An : n ∈ N} una sucesi´n de eventos. Con estos o u conceptos podemos ahora establecer la definici´n de convergencia de una o sucesi´n de eventos. pertenece a todos o los elementos de la sucesi´n excepto un n´mero finito de ellos. Si existe un evento A tal que o ım l´ inf An = l´ sup An = A.o. o Ejemplo. Demuestre que la siguiente sucesi´n de eventos o no es convergente. significan “infinitely often”. y se escribe o l´ An = A. ım Para calcular el posible l´ ımite de una sucesi´n de eventos debemos entonces o calcular el l´ ımite superior y el l´ ımite inferior. An = Ac si n es par. Ejercicio.). .16 ´ 1. 1/n] = {0}. o ´ Definicion. entonces a tal resultado com´n se le llama el l´ u ımite de la sucesi´n. Para cada n´mero natural n defina el conjunto An = [−1/n. 1/n] si n es par. (Convergencia de eventos). 0] u si n es impar.o. A si n es impar. ım n→∞ n→∞ n→∞ entonces se dice que la sucesi´n converge al evento A. y s´lo si. Sea A un evento. {0} = {0}. en donde las letras i. y An = [0. Por otro lado un elemento pertenece al evento l´ ımite inferior si. y cuando el resultado de ambas operaciones coincida.

´ Proposicion. ∞ ∞ Ak = Ak = ∞ ∞ Ak = ∞ k=1 Ak . entonces (observe el valor inicial del o sub´ ındice en las operaciones de uni´n e intersecci´n). y en la secci´n de ejercicios se encuentran o algunos mas. Si A1 ⊇ A2 ⊇ · · · . Espacios de probabilidad 17 Como el ejercicio anterior muestra. no todas las sucesiones de eventos convergen. entonces l´ An = ım n→∞ ∞ n=1 ∞ n=1 An . o o 1. entonces l´ An = ım n→∞ An . o o ∞ k=n ∞ k=n Ak = ∞ k=1 Ak .Cap´ ıtulo 1. y Por lo tanto l´ sup An = ım n→∞ Ak = An . o 1. . M´s adelante presentaremos algunos otros ejemplos cona cretos de sucesiones de eventos. Demostraci´n. Como la sucesi´n es creciente. Sea {An : n ∈ N} una sucesi´n mon´tona de eventos. y l´ inf An = ım n→∞ n=1 k=n ∞ ∞ n=1 k=n n=1 k=1 ∞ n=1 An . Demostramos a continuaci´n que en particular toda sucesi´n mon´too o o na es convergente. Si A1 ⊆ A2 ⊆ · · · . 2.

En este a caso como la sucesi´n es decreciente se tiene que o ∞ k=n ∞ k=n Ak = ∞ k=1 Ak . n=1 ∞ ∞ n=1 k=1 ∞ Ak = ∞ k=1 Ak .2. ∞ ∞ Ak = Ak = y l´ inf An = ım n→∞ n=1 k=n ∞ ∞ n=1 k=n An . y Entonces l´ sup An = ım n→∞ Ak = An . El procedimiento es completamente an´logo al inciso anterior.18 ´ 1. y cuya o uni´n es la uni´n de la sucesi´n original. a a . Este procedimiento de separaci´n o o o o ser´ de utilidad m´s adelante. σ-algebras 2. El siguiente resultado establece que a partir de una sucesi´n de eventos o puede construirse otra sucesi´n cuyos elementos son ajenos dos a dos.

k=1 n−1 Ak ) ∩ (Am − Ac ) ∩ (Am ∩ k Ak ) k=1 m−1 Ac ) k k=1 k=1 An ∩ Ac n 3. si n = m. Esto es evidente a partir de la definici´n de Bn . 3. 2. entonces e n−1 m−1 Bn ∩ Bm = (An − = (An ∩ ⊆ = ∅. Bn ∩ Bm = ∅. y Bn = An − Ak .Cap´ ıtulo 1. Como cada Bn est´ cono a tenido en An . k=1 para n ≥ 2. Entonces la sucesi´n de eventos {Bn : n ∈ N} satisface las siguientes o propiedades: 1. Por el contrario. o 1. Espacios de probabilidad 19 ´ Proposicion. Sea {An : n ∈ N} una sucesi´n de eventos. sea x un elemento en . o 2. ∞ n=1 ∞ n=1 Bn = An . Demostraci´n. Defina o n−1 B1 = A1 . Bn ⊆ An . Consideraremos cada contenci´n por separado. entonces el lado izquierdo es efectivamente un subconjunto del lado derecho. Sin p´rdida de generalidad suponga que n < m.

20 ∞ n=1 An . 3. Entonces / x ∈ An0 − n0 −1 An = Bn0 . En particular.3. n=1 n=1 1. n=1 n=1 Entonces toda funci´n P definida sobre una σ-´lgebra F . la tercera propiedad se conoce con el nombre de σ-aditividad. Kolmogorov en 1933.3. ∈ F son ajenos dos a dos. Una medida de probabilidad es una funci´n P : F → [0. N. esto es. A2 . Sea (Ω. Sea n0 el primer ´ ındice tal que x ∈ An0 y x ∈ Aj para 1 ≤ j ≤ n0 − 1. 2. An ∩ Am = ∅ para n = m. con valores en el o a intervalo [0. Por lo tanto x pertenece a ∞ Bn . P (Ω) = 1. (Probabilidad clasica). Medidas de probabilidad En esta secci´n y en lo que resta del presente cap´ o ıtulo se estudian algunas propiedades de las medidas de probabilidad. entonces P ( ∞ An ) = ∞ P (An ). para cualquier A ∈ F . 1] que o satisface 1. Si A1 . Asocie a este conjunto la σ- . Medidas de probabilidad Entonces existe un ´ ındice n tal que x ∈ An . . P (A) ≥ 0. (Medida de probabilidad). F ) un espacio medible. 1. . ´ Ejemplo. Empezaremos por recordar nuevamente la definici´n de este concepto. 1] y que cumpla los tres postulados anteriores se le llama medida de probabilidad o probabilidad axiom´tica. Estos axiomas fueron establecidos a por A. o ´ Definicion. . Considere un experimento aleatorio con espacio muestral un conjunto finito Ω.

Cap´ ıtulo 1. Espacios de probabilidad

21

a ´lgebra 2Ω , y para cualquier subconjunto A de Ω defina P (A) = #A/#Ω. Entonces P es una medida de probabilidad, y es llamada probabilidad cl´sica. a De acuerdo a esta definici´n, para calcular la probabilidad de un evento es o necesario entonces conocer su cardinalidad. En los inicios de la teor´ de la ıa probabilidad se consideraban unicamente modelos de este tipo, los cuales ´ eran estudiados en el contexto de los juegos de azar. De esta forma de calcular probabilidades surgen muchos y muy variados problemas de conteo, algunos de los cuales pueden no ser f´ciles de resolver. Por ejemplo, si cuatro a parejas se sientan al azar en una mesa circular, ¿cu´l es la probabilidad de a que ninguna persona se siente junto a su pareja? Ejemplo. Considere un experimento aleatorio con espacio muestral el conjunto de n´meros naturales N. Asocie a este conjunto la σ-´lgebra 2N . Para u a cualquier subconjunto A de N defina 1 P (A) = . 2n
n∈A

Es decir, el n´mero natural n tiene asociada la probabilidad 1/2n , como se u muestra en la Figura 1.3. No es dif´ verificar que P es efectivamente una ıcil medida de probabilidad concentrada en el conjunto de n´meros naturales. u
P (X = x) 1 2

x

1

2

3

4

5

u Figura 1.3: Una medida de probabilidad concentrada en los n´meros naturales.

6 ···

Ejemplo. Considere el espacio medible (R, B(R)). Sea f : R → [0, ∞) una funci´n no negativa y continua, tal que su integral sobre el intervalo o

22

1.3. Medidas de probabilidad

(−∞, ∞) es uno. La funci´n P definida para cualquier conjunto de Borel A o por la siguiente integral, es una medida de probabilidad. P (A) =
A

f (x) dx.

o Ejemplo. (Probabilidad geom´trica). Sea Ω ⊆ R2 una regi´n tal que e su ´rea es positiva y finita. Sea F una σ-´lgebra de subconjuntos de Ω a a para los cuales el concepto de ´rea est´ bien definido. Para cada A en F a e ´ ´ defina P (A) = Area (A)/Area (Ω). La funci´n P resulta ser una medida de o probabilidad, y es llamada probabilidad geom´trica. Esta definici´n puede e o extenderse a espacios de dimensi´n mayor de manera evidente. Un ejemplo o en donde se utiliza esta forma de calcular probabilidades es el siguiente: ¿cu´l es la probabilidad de que una dardo lanzado al azar sobre un tablero a circular de radio unitario caiga en el c´ ırculo circunscrito de radio 1/2? En la siguiente secci´n estudiaremos algunas propiedades generales que cumo ple toda medida de probabilidad, y a lo largo del texto consideraremos varios modelos particulares para el c´lculo de probabilidades. a

Propiedades elementales
A partir de los postulados enunciados en la secci´n anterior es posible deo mostrar una extensa serie de propiedades que cumplen todas las medidas de probabilidad. En esta secci´n se estudian algunas propiedades elementales o que posiblemente ya conoce el lector, y m´s adelante se demuestran otras a propiedades ligeramente m´s avanzadas. a

Cap´ ıtulo 1. Espacios de probabilidad

23

´ Proposicion. Sea (Ω, F , P ) un espacio de probabilidad. Entonces 1. P (∅) = 0. 2. Si A1 , . . . , An ∈ F son ajenos dos a dos, entonces
n n

P(
k=1

Ak ) =
k=1

P (Ak ).

3. P (Ac ) = 1 − P (A). 4. Si A ⊆ B, entonces P (B − A) = P (B) − P (A). 5. Si A ⊆ B, entonces P (A) ≤ P (B). 6. 0 ≤ P (A) ≤ 1. 7. P (A ∪ B) = P (A) + P (B) − P (A ∩ B). 8. P (A ∪ B) ≤ P (A) + P (B).

Demostraci´n. o 1. Como ∅ = ∅ ∪ ∅ ∪ · · · , por la σ-aditividad se tiene que P (∅) = ∞ ´ n=1 P (∅), lo cual sucede unicamente cuando P (∅) = 0. 2. Se toma An+1 = An+2 = · · · = ∅, y la igualdad se obtiene al aplicar la σ-aditividad y la propiedad anterior. 3. Se expresa a Ω como la uni´n disjunta A ∪ Ac . Aplicamos P y obteo nemos la igualdad requerida. 4. Escribimos B = A ∪ (B − A). Aplicando P obtenemos P (B) − P (A) = P (B − A). 5. Como la probabilidad de cualquier evento es un n´mero no negativo, u el resultado se sigue de la propiedad anterior.

24

1.3. Medidas de probabilidad 6. La primera desigualdad es el segundo axioma, y la segunda es consecuencia de la propiedad anterior cuando B = Ω y el primer axioma. 7. Descomponemos el evento A ∪ B como la siguiente uni´n de tres eveno tos disjuntos dos a dos: A ∪ B = (A − B) ∪ (A ∩ B) ∪ (B − A) = (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). Por lo tanto P (A ∪ B) = P (A) − P (A ∩ B) + P (A ∩ B) + P (B) − P (A ∩ B). 8. Esta propiedad es consecuencia de la anterior y el segundo axioma.

La propiedad (2) establece que las probabilidades son funciones finitamente aditivas, y la propiedad (5) que son funciones mon´tonas. La desigualdad (8) o dice que las probabilidades son funciones finitamente subaditivas. Veamos algunas otras propiedades. ´ Proposicion. (Desigualdades de Boole). Sea {An : n ∈ N} una sucesi´n de eventos. Entonces o 1. P (

n=1

An ) ≤

∞ n=1

P (An ).
∞ n=1

2. P (

n=1

An ) ≥ 1 −

P (Ac ). n

Demostraci´n. o 1. Tome B1 = A1 , y para n ≥ 2 defina
n−1

Bn = An −

Ak .
k=1

Cap´ ıtulo 1. Espacios de probabilidad

25

Hemos demostrado antes que {Bn : n ∈ N} es una sucesi´n de eventos o disjuntos dos a dos tales que Bn ⊆ An y ∞ An = ∞ Bn . Por lo n=1 n=1 tanto P(

An ) = P ( = ≤
∞ n=1 ∞ n=1

Bn )

n=1

n=1

P (Bn ) P (An ).

2. Esta desigualdad se sigue de la primera al considerar la sucesi´n de o los complementos.

´ Proposicion. Sea {An : n ∈ N} una sucesi´n de eventos. o 1. Si P (An ) = 1 para toda n, entonces P (
∞ n=1 An )

= 1. = 1. = 0.

2. Si P (An ) = 1 para alguna n, entonces P ( 3. Si P (An ) = 0 para alguna n, entonces P ( 4. Si P (An ) = 0 para toda n, entonces P (

∞ n=1 An ) ∞ n=1 An )

∞ n=1 An )

= 0.

Demostraci´n. o

26

1.3. Medidas de probabilidad 1. Por las leyes de De Morgan y la desigualdad de Boole, P(

n=1

An ) = 1 − P ( ≥ 1− = 1.

Ac ) n

n=1

P (Ac ) n

n=1

2. Como An ⊆ 3. Como
∞ n=1

∞ n=1

An , se tiene que 1 = P (An ) ≤ P (

An ).

n=1

An ⊆ An , entonces P (

n=1 ∞

An ) ≤ P (An ) = 0.
∞ n=1

4. Por la desigualdad de Boole, P (

n=1

An ) ≤

P (An ) = 0.

Las propiedades (1) y (4) de la proposici´n anterior pueden interpretarse o de la siguiente forma. Intersectar dos eventos produce en general un evento m´s peque˜o, o por lo menos no mayor a los intersectandos. Sin embargo la a n propiedad (1) establece que la intersecci´n, a´n infinita, de eventos con proo u babilidad uno produce un evento con probabilidad uno. An´logamente, unir a dos eventos produce en general un evento mayor, pero por la propiedad (4), la uni´n, a´n infinita, de eventos con probabilidad cero tiene probabilidad o u cero. Dos de las propiedades elementales m´s conocidas y de amplia aplicaci´n a o son la f´rmula de probabilidad total y la f´rmula de Bayes. Estas f´rmulas o o o hacen uso de la probabilidad condicional de un evento A dado otro evento B definida como sigue P (A | B) := P (A ∪ B)/P (B), cuando P (B) = 0.

Cap´ ıtulo 1. Espacios de probabilidad

27

Ejercicio. (Teorema de probabilidad total). Sea (Ω, F , P ) un espacio de probabilidad, y sea {A1 , A2 , . . .} una partici´n de Ω tal que cada o elemento de la partici´n es un evento con probabilidad estrictamente posio tiva. Demuestre que para cualquier evento B, P (B) =
∞ n=1

P (B | An )P (An ).

Ejercicio. (Teorema de Bayes). Sea (Ω, F , P ) un espacio de probabilidad, y sea A1 , A2 , . . . una partici´n de Ω tal que cada elemento de la o partici´n es un evento con probabilidad estrictamente positiva. Demuestre o que para cualquier evento B tal que P (B) > 0, y para cualquier m ≥ 1 fijo, P (Am | B) =

P (B | Am )P (Am ) P (B|An )P (An )

.

n=1

´ Ejercicio. (Completacion de espacios). Se dice que un espacio de probabilidad (Ω, F , P ) es completo si cada vez que se tenga la situaci´n A ⊆ B o con B ∈ F y P (B) = 0, entonces tambi´n se tiene que A ∈ F y P (A) = 0. e Un espacio de probabilidad (Ω, F , P ) que no es completo puede ser completado de la siguiente forma. Se toma el mismo Ω y se define la colecci´n o ¯ de todos aquellos subconjuntos A ⊆ Ω para los cuales existan B y C en F F con P (C) = 0, tales que B ⊆ A ⊆ B ∪ C. Para tal conjunto A se define ¯ ¯ ¯ P (A) = P (B). Entonces resulta que (Ω, F , P ) es un espacio de probabilidad completo, y se llama la completaci´n de (Ω, F , P ). Verifique esta afirmaci´n o o demostrando los siguientes incisos. ¯ a) F es efectivamente una σ-´lgebra. a ¯ b) F ⊆ F .

28

1.3. Medidas de probabilidad ¯ c) La definici´n de P (A) no depende del subconjunto B asociado, es o decir, la definici´n es unica. o ´

¯ ¯ d) P es una medida de probabilidad sobre F . ¯ e) P (A) = P (A), para cada A en F . ¯ ¯ f) El espacio de probabilidad (Ω, F , P ) es completo. ¯ ¯ g) (Ω, F , P ) es el espacio de probabilidad completo m´s peque˜o que a n contiene a (Ω, F , P ), es decir, si (Ω, F1 , P1 ) es otro espacio de probabilidad completo tal que F ⊆ F1 y P1 = P sobre F , entonces ¯ ¯ ¯ F ⊆ F1 y P = P1 sobre F .

Continuidad
Ahora demostraremos que las medidas de probabilidad son funciones continuas. Primero se prueba este resultado importante para dos tipos de sucesiones particulares, aquellas que son mon´tonas crecientes o decrecientes, o y despu´s se prueba en general. Empezaremos con el caso de sucesiones e crecientes. ´ Proposicion. Sea {An : n ∈ N} una sucesi´n no decreciente de eventos, o esto es, A1 ⊆ A2 ⊆ · · · . Entonces P(

An ) = l´ P (An ). ım
n→∞

n=1

Demostraci´n. Como An ⊆ An+1 , tenemos que P (An ) ≤ P (An+1 ). Por lo o tanto la sucesi´n num´rica {P (An ) : n ∈ N} es no decreciente y acotada o e

Cap´ ıtulo 1. Espacios de probabilidad

29

superiormente por uno. Entonces el l´ ımite de esta sucesi´n existe y el lado o derecho de la igualdad tiene sentido. Defina los eventos B1 = A1 , y Bn = An − An−1 , para n ≥ 2.

La sucesi´n {Bn : n ∈ N} es una colecci´n de eventos disjuntos dos a dos, o o y es tal que

An =

Bn .

n=1

n=1

Por lo tanto P(

An ) = P ( =
∞ n=1

Bn )

n=1

n=1

P (Bn )
∞ n=2 ∞ n=2 ∞ n=2

= P (B1 ) + = P (A1 ) + = P (A1 ) +

P (Bn ) P (An − An−1 ) P (An ) − P (An−1 )
m

= P (A1 ) + l´ ım

m→∞ m→∞

n=2

P (An ) − P (An−1 )

= P (A1 ) + l´ P (Am ) − P (A1 ) ım =
m→∞

l´ P (Am ). ım

30

1.3. Medidas de probabilidad

Las medidas de probabilidad tambi´n son continuas respecto de sucesioe nes no crecientes de eventos. Esta afirmaci´n es el contenido del siguiente o resultado que se demuestra a partir de la proposici´n anterior. o ´ Proposicion. Sea {An : n ∈ N} una sucesi´n no creciente de eventos, o esto es, A1 ⊇ A2 ⊇ · · · . Entonces P(

An ) = l´ P (An ). ım
n→∞

n=1

Demostraci´n. Observe que si An ⊇ An+1 , entonces Ac ⊆ Ac . Por la o n n+1 proposici´n anterior, o P(

Ac ) = l´ P (Ac ). ım n n
n→∞

n=1

Aplicando las leyes de De Morgan, 1 − P(

n=1

An ) = l´ (1 − P (An )), ım
n→∞

de donde se sigue inmediatamente el resultado. Ahora se enuncia un resultado m´s fuerte. Demostraremos que las medidas a de probabilidad son funciones continuas. Esta propiedad es muy util pues ´ permite el c´lculo de probabilidades en procedimientos l´ a ımite, y se encuentra siempre presente de manera impl´ ıcita en toda la teor´ que se desarrolla m´s ıa a adelante.

Cap´ ıtulo 1. Espacios de probabilidad

31

´ Proposicion. (Continuidad de la probabilidad). Sea {An : n ∈ N} una sucesi´n de eventos convergente al evento A. Entonces o
n→∞

l´ P (An ) = P (A). ım

Demostraci´n. La prueba se basa en las siguientes dos desigualdades: o a) l´ sup P (An ) ≤ P (l´ sup An ). ım ım
n→∞ n→∞

b) P (l´ inf An ) ≤ l´ inf P (An ). ım ım
n→∞ n→∞

Como la sucesi´n de eventos es convergente al evento A, entonces el l´ o ımite superior y el l´ ımite inferior son iguales a A. Se sigue entonces de las desigualdades (a) y (b) que ım l´ sup P (An ) ≤ P (l´ sup An ) ım
n→∞ n→∞

= P (A) = P (l´ inf An ) ım
n→∞

≤ l´ inf P (An ). ım
n→∞

De donde se concluye el resultado. Nos concentraremos ahora en demostrar las desigualdades enunciadas. a) Como An ⊆
∞ k=n Ak ,

entonces P (An ) ≤ P (

Ak ),

k=n

32

1.3. Medidas de probabilidad en donde { ∞ Ak : n ∈ N} es una sucesi´n decreciente de eventos. o k=n Tomando el l´ ımite superior se obtiene l´ sup P (An ) ≤ l´ sup P ( ım ım
n→∞ n→∞ ∞

Ak )

=

n→∞

l´ P ( ım

k=n ∞

Ak ) Ak )

= P ( l´ ım = P(

k=n ∞ k=n ∞

n→∞

Ak )

n=1 k=n

= P (l´ sup An ). ım
n→∞

b) Como

∞ k=n Ak

⊆ An , entonces P(
∞ k=n

Ak ) ≤ P (An ),

en donde { ∞ Ak : n ∈ N} es una sucesi´n creciente de eventos. o k=n Tomando el l´ ımite inferior se obtiene l´ inf P (An ) ≥ l´ inf P ( ım ım
n→∞ n→∞ ∞

Ak )

=

n→∞

l´ P ( ım

k=n ∞

Ak ) Ak )

= P ( l´ ım = P(

k=n ∞ k=n ∞

n→∞

Ak )

n=1 k=n

= P (l´ inf An ). ım
n→∞

6} en cada uno de los primeros n lanzamientos del dado. La independencia es un tema central en la teor´ de la probabilidad. Por lo tanto l´ An = ım ∞ n=1 n→∞ An . a 1. Sea An el evento correspondiente a obtener el evento A = {2. Entonces P( ∞ An ) = P ( l´ An ) = l´ P (An ) = l´ ım ım ım 1/2n = 0. 3. Puede demostrarse adem´s que cada una de a a las caras aparecer´ una infinidad de veces con probabilidad uno. cada una de las caras del dado aparecer´ eventualmente. Heu mos demostrado que la probabilidad de tal evento es cero. 4. Independencia de eventos En esta secci´n se define el concepto importante de independencia de eveno tos. 5}. Espacios de probabilidad 33 Ejemplo. Se lanza un dado equilibrado una infinidad de veces. y ayudar´ a a a . De manera natural la independencia aparecer´ con frecuencia a lo largo del texto a partir de ahora.Cap´ ıtulo 1. En consecuencia la probabilidad de que eventualmente aparezca un n´mero impar es uno. ıa y uno de sus rasgos distintivos. entonces la probabilidad de nunca obtener “6” es cero. con probabilidad uno. n→∞ n→∞ n→∞ n=1 El evento ∞ An se interpreta como aquel conjunto de resultados en el n=1 que siempre se obtiene un n´mero par en cada uno de los lanzamientos. ejemplo. Entonces claramente An ⊇ An+1 y P (An ) = 1/2n para cualquier n en N. Por lo tanto. 4.4. 2. u Observe que el argumento presentado funciona de la misma forma cuando el evento A es cualquier subconjunto propio de Ω distinto del vac´ Por ıo. si A = {1.

y se escribe A ⊥ B. Demuestre que un evento es independiente consigo mismo si. (Independencia de dos eventos). Contrario a alguna primera concepci´n intuitiva err´nea. Ejercicio. A menudo aceptar la hip´tesis de que dos eventos son independientes es una o cuesti´n de apreciaci´n por parte del observador. ´ Definicion. Demuestre que un evento que tiene probabilidad cero o uno. La proposici´n contraria tampoco es v´lida. o Ejercicio. La definici´n de independencia puede extenderse a colecciones finitas e ino cluso infinitas de eventos del siguiente modo. es independiente de cualquier otro evento.34 1. La independencia puede o o interpretarse en el sentido de que la ocurrencia de uno de los eventos no proporciona informaci´n que modifique la probabilidad de ocurrencia del o segundo evento.4. Dos eventos A y B son independientes. . e Ejercicio. c) A y B c lo son. incluyendo ´l mismo. Independencia de eventos simplificar el c´lculo de probabilidades. o o el hecho de que dos eventos sean independientes no implica que ellos sean ajenos. y s´lo si. dos eventos ajenos no o a necesariamente son independientes. La definici´n matem´tica es la sia o a guiente. b) Ac y B lo son. a) A y B lo son. su probabilidad es cero o uno. Demuestre que los eventos A y B son independientes si. cuando P (A ∩ B) = P (A)P (B). y s´lo o si.

. C = “Se obtiene el mismo resultado en el 3er. Ac lo son. o n 1 Es posible adem´s demostrar que la independencia dos a dos. .2). no implica en general la independencia tres a tres. . Espacios de probabilidad 35 ´ Definicion. De hecho el n´mero total de igualdades a demostrar es 2n − n − 1. Los eventos A1 . Se lanza una moneda equilibrada tres veces. An son independientes si se cumplen todas y cada una de las siguientes condiciones: P (Ai ∩ Aj ) = P (Ai )P (Aj ). . . una colecci´n infinita de eventos es independiente si a o cualquier subcolecci´n finita lo es. ni viceversa. i. Ejercicio.1) a en la definici´n. k distintos. y sea C = ∅. o Observe que de acuerdo a la definici´n anterior. y 3er. Demuestre que los eventos A. . los eventos Ac . Defina los eventos A = “Se obtiene el mismo resultado en el 1er. y 2do. y 1er.Cap´ ıtulo 1. ¿Puede u usted demostrar esta afirmaci´n? En la siguiente secci´n haremos uso del o o siguiente resultado. . . (Independencia de varios eventos).2) P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ). Demuestre que A. igualo dad (1. . . igualdad (1. i. j. se necesitan verificar o o suponer varias condiciones para que n eventos sean independientes entre s´ ı. B y C son independientes tres a tres pero no son independientes dos . j distintos. . y s´lo si. Ejercicio. . pero no independientes en su conjunto. .1) (1. An son independientes si. lanzamiento”. . B y C son independientes dos a dos. M´s generalmente. P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · P (An ). lanzamiento”. Ejercicio. Demuestre que los eventos A1 . (1. . B = “Se obtiene el mismo resultado en el 2do. lanzamiento”. Sean A y B eventos no independientes.

P ) dado. y que lo hace de manera continua generando una sucesi´n lineal o de caracteres. . . n. . . . (Independencia de clases). ´ Definicion. dos σ-´lgebras F1 y F2 son independientes si para cada A en a F1 y cada B en F2 se cumple que P (A ∩ B) = P (A)P (B). . M´s generalmente. 1. Un mono escribe caracteres al azar en una m´quina de escribir. . F . .4. Demostramos a continuaci´n que la probabilidad de este raro evento es uno. ¿Cu´l es la probabilidad de que eventualmente a a obtenga exactamente. y sin ning´n error. un conjuna to infinito de clases no vac´ de eventos es independiente si cualquier ıas subconjunto finito lo es. Independencia de eventos Tambi´n se tiene la noci´n de independencia entre dos o mas clases de e o eventos. Sea m el total de caracteres disponibles en una m´quina de a escribir. . . . . como siempre se presupone un espacio o de probabilidad (Ω. Cn son independientes si los eventos A1 . An lo son para cualesquiera Ai en Ci . u a u Ejemplo. las obras completas de Shakespeau re? Figura 1. Las clases no vac´ de ıas eventos C1 . y sea N el total de caracteres de los que constan las obras comple- .36 a dos. (El problema del mono). An´logamente a para un n´mero finito de σ-´lgebras o bien un n´mero infinito de ellas. o Imagine entonces que un mono escribe caracteres al azar en una m´quina a de escribir. En particular. i = 1.4: Mono escribiendo al azar. La definici´n es la siguiente.

e 1. es decir la sucesi´n es decreciente. la probabilidad de que eventualmente el mono obtenga ´xito es uno. Segmentamos el arreglo lineal de caracteres generados por el mono en bloques disjuntos de N caracteres. Lema de Borel-Cantelli Concluimos este cap´ ıtulo con el enunciado y demostraci´n del famoso lema o de Borel-Cantelli. Espacios de probabilidad 37 tas de Shakespeare. k=1 en donde el evento se interpreta como aquel en el que el mono nunca tiene ´xito. u Xku · · · aT s hwW · · · pzq Ot · · · N N Para cada n´mero natural k defina el evento Ak correspondiente a que el ku ´simo bloque contiene exactamente. Defina el evento Bk como Ac ∩ · · · ∩ Ac .Cap´ ıtulo 1. El objetivo es demostrar este resultado y con ello poner . es decir. Observe que e Bk+1 ⊆ Bk . las obras completas e de Shakespeare. ım ım k→∞ k→∞ Por lo tanto la probabilidad del evento complemento es uno. M´s adelante e a se presentar´n otras formas de resolver este mismo problema usando el lema a de Borel-Cantelli. Entonces. o bien P (Ac ) = a k o 1 − p. usando la propiedad de continuidad de las medidas e de probabilidad para sucesiones decrecientes. por lo tanto o k→∞ ∞ k=1 Bk l´ Bk = ım ∞ Bk . y despu´s usando la ley fuerte de los grandes n´meros. e u En [25] aparece una estimaci´n del tiempo promedio de espera para que el o mono obtenga el primer ´xito. Por ejemplo. Observe que los eventos Ak son independientes pues los bloques no se sobreponen. y sin error alguno. adem´s P (Ak ) = (1/m)N = p. se tiene que P( ∞ k=1 Bk ) = l´ P (Bk ) = l´ (1 − p)k = 0. que indica la situaci´n en 1 k la que el mono no obtiene ´xito en los primeros k bloques. uno despu´s de otro.5. y e observamos si alg´n bloque contiene las obras de Shakespeare.

Lema de Borel-Cantelli en pr´ctica algunas propiedades de las medidas de probabilidad. son independientes y P (A) = 1.5. Si ∞ n=1 P (An ) < ∞. Para cada n´mero natural n. entonces P (A) = 0. o 1. el lado derecho tiende a cero cuando n tiende n=1 a infinito.38 1. Sea {An : n ∈ N} una sucesi´n de eventos. Es suficiente demostrar que para todo n´mero natural n se cumple la u igualdad P ( ∞ Ak ) = 1. aunque a tambi´n lo usaremos para presentar un par de aplicaciones y para demostrar e la ley fuerte de los grandes n´meros en la ultima parte del curso. . . entonces Demostraci´n. o ım n→∞ 1. 2. Si A1 . u P (A) ≤ P ( ∞ k=n Ak ) ≤ ∞ k=n P (Ak ). A2 . 2. (Lema de Borel-Cantelli). ∞ n=1 P (An ) = ∞. . Como ∞ P (An ) < ∞. u ´ ´ Proposicion. Esto implica que P (A) = 0. pues la intersecci´n numerable de eventos o k=n . y defina A = l´ sup An .

nuevamente). . . .Cap´ ıtulo 1. . El evento Ak se define nuevamente como aquel en el que el mono tiene ´xito e en el k-´simo bloque. el lado derecho tiende a cero cuando m tiende a infinito. Suponga e que N es el total de caracteres de los que constan las obras completas de Shakespeare y considere nuevamente la divisi´n por bloques de longitud N : o x1 . . . . Entonces por la segunda parte del k=1 k=1 . Para cada m > n. xN . ´ o ∞ v´lida para cualquier n´mero real x. puede resolverse tambi´n usando el lema de Borel-Cantelli. . El problema de encontrar la probabilidad de que un mono que escribe caracteres al azar en una m´quina de escribir. . (El problema del mono. xN +1 . Por lo tanto P ( ∞ Ak ) = 1 para cualquier valor de n y entonces P (A) = 1. . eventualmente escriba las obras completas de Shakesa peare. . k=n Ejemplo. Espacios de probabilidad con probabilidad uno tiene probabilidad uno. k=n Para obtener la ultima expresi´n se usa la desigualdad: 1 − x ≤ e−x . constituye una sucesi´n de eventos independientes tales o o que ∞ P (Ak ) = ∞ (1/m)N = ∞. . x2N . A2 . . entonces la probabilidad del evento Ak es (1/m)N . 1 − P( ∞ m 39 k=n Ak ) ≤ 1 − P ( m Ak ) k=n = P( k=n m Ac ) k [1 − P (Ak )] m = k=n ≤ exp(− P (Ak )). Como a u n=1 P (An ) = ∞. y claramente la sucesi´n A1 . Si nuevamente m denota el total de caracteres dispoe nibles. .

Lema de Borel-Cantelli lema de Borel-Cantelli. o .40 1. la probabilidad del l´ ımite superior de la sucesi´n Ak o es uno.5. Use el lema de Borel-Cantelli para calcular la probabilidad de que aparezca una infinidad de veces la sucesi´n particular mencionada. el mono tiene. con probabilidad uno. no uno. . ¿Importa que la moneda sea honesta? o Ejercicio. . . Considere ahora el experimento de lanzar la moneda una infinidad de veces. . sino ¡una infinidad de ´xitos! e Ejercicio. Sea x1 . xn una sucesi´n de resultados consecutivos particular obtenida de lanzar una moneda n veces. Ahora s´lo hay que recordar que el evento l´ supk→∞ Ak correso ım ponde a aquel en el que una infinidad de eventos Ak ocurren. Use el lema de Borel-Cantelli para demostrar que la probabilidad de que cada cara aparezca una infinidad de veces es uno. Se lanza una moneda honesta una infinidad de veces. Es decir.

etc. En 1920 ingres´ a la Universidad Estatal de Mosc´. y fue miembro de varias sociedades y academias cient´ ıficas.Cap´ ıtulo 1. geometr´ topolog´ sistemas din´micos. a los planetas. procesos estoc´sticos. probabilidad. Kolmogorov ten´ particular inter´s en proıa e veer de atenci´n y educaci´n especial a ni˜os con habilidades sobresalientes. A´n a o u siendo estudiante de licenciatura empez´ a publicar trabajos de investigao ci´n graduandose en 1925. . Universidad de St. movimiento de a ıa. Contribuy´ brillantemente en varias ´reas de ıa o a las matem´ticas como: an´lisis. l´gica. Termin´ su doctorado en 1929. y para entono o ces ya ten´ 18 publicaciones. Trabaj´ un tiempo como conductor de treo nes. pues su madre muri´ en o ıa o el parto y su padre fue exiliado. ıa. o o n Recibi´ un sinn´mero de premios y reconocimientos de distintos pa´ o u ıses. Fuente: Archivo MacTutor. Espacios de probabilidad 41 Andrey Nikolaevich Kolmogorov (Rusia 1903–1987) Creci´ bajo el amparo de su t´ Vera Yakovlena. turbulencia. a a a o an´lisis funcional. en donde adem´s o u a de matem´ticas tom´ cursos de metalurgia y sobre historia de Rusia. Andrews.

6. B ∈ F ⇒ A − B ∈ F . . . a 6. A2 . Definicion alternativa de σ-algebra. y s´lo si. An eventos de un espacio muestral Ω. c) Si A1 . 1 ≤ k ≤ n. Sean A1 . . c. 3.42 1. . 4. Encuentre σ(C ). . ∞ n=1 An ∈ F. ´ ´ 2. c}. satisface las siguientes a o propiedades: a) Ω ∈ F . Demuestre que F es una σ-´lgebra de subconjuntos de Ω si.6. Demuestre que F es una σ-´lgebra de subconjuntos de Ω si. Ejercicios 1. Definicion alternativa de σ-algebra. Demuestre que la colecci´n {A ∩ F : F ∈ F } es una σ-´lgebra de o a subconjuntos de A. y s´lo si. entonces ∞ n=1 An ∈ F. b} y B = {b. ∈ F . A2 . Demuestre que el conjunto de elementos de Ω que pertenecen a exactamente k de estos eventos es un evento. Compruebe que F c y F coinciden. ∈ F . Claramente C no es una σ-´lgebra. Demuestre que la colecci´n a o a F c = {F c : F ∈ F } es una σ-´lgebra. d}. Defina la colecci´n o C = {A. B}. o . . Sea Ω = {a. Sea F una σ-´lgebra de subconjuntos de Ω. Se usan los s´ ımbolos FA ´ A ∩ F para denotar a o esta colecci´n. . c) Si A1 . b) A ∈ F ⇒ Ac ∈ F . . y sean A = {a. Ejercicios σ-´lgebras a ´ ´ 1. satisface las siguientes a o propiedades: a) ∅ ∈ F . . . 5. entonces b) A. Sea F una σ-´lgebra de subconjuntos de Ω y sea A un elemento de a F . b.

B ⊆ Ω arbitrarios. . . y sea X : Ω1 → Ω2 una funci´n o en donde (Ω2 . An } es 2n . C} una partici´n de Ω. B. . a Demuestre que F1 ∪ F2 es una σ-´lgebra. Demuestre que F1 ∪ F2 no necesariamente es una σ-´lgebra. Sean F1 y F2 dos σ-´lgebras de subconjuntos de Ω tales que F1 ⊆ F2 . en el caso m´s general. ninguno de ellos es vac´ y la intersecci´n de ıo o cualesquiera dos de ellos es vac´ Demuestre que la cardinalidad de ıa. . ¿Es la diferencia de dos σ-´lgebras una σ-´lgebra? Demuestre o proa a porcione un contraejemplo. a 12. . Sea {A1 . 16. Demuestre que la cardinalidad de σ{A. Sean A. C}. Ω}. An } una partici´n finita de Ω. 15. B ⊆ Ω arbitrarios. t en T se tiene una σ-´lgebra Ft de subconjuntos de Ω. F2 ) es un espacio medible. . Encuentre expl´ o ıcitamente los ocho elementos de σ{A. Sean F1 y F2 dos σ-´lgebras de subconjuntos de Ω. σ{A1 . B} es a lo sumo 16. {3}.Cap´ ıtulo 1. Demuestre a con detalle que t∈T Ft es una σ-´lgebra. B. a 14. 10. la uni´n de todos o o estos conjuntos es Ω. a 11. {1}. es decir. Ω} y F2 = a {∅. B} es. 8. . Para ello considere el a espacio Ω = {1. Sean Ω1 y Ω2 dos conjuntos arbitrarios. . 13. Sea T un conjunto arbitrario distinto del vac´ Suponga que para cada ıo. Sean A. 2}. . Demuestre que toda σ-´lgebra de un espacio muestral finito contiene a un n´mero par de elementos. Sea {A. 3}. Demuestre que la siguiente colecci´n es una σ-´lgebra de subconjuntos de Ω1 : o a X −1 F2 = {X −1 F : F ∈ F2 }. 3} y las σ-´lgebras F1 = {∅. Espacios de probabilidad 43 7. {1. el total de elementos en σ{A. a 9. Por el ejercicio anterior. 2. {2. u 16. Encuentre expl´ ıcitamente todos los elementos de σ{A. B}.

bi ] ⊆ (0. Demuestre que ´ ´ 22.44 1. B ∈ F . a 18. entonces A − B ∈ F .6. Sea Ω un conjunto. Diga falso o verdadero o justificando en cada caso: C ⊆ σ(C ) ⊆ 2Ω . a a a 21. Demuestre que F es una a ´lgebra de subconjuntos de Ω si. Sea Ω = (0. Demuestre que 2Ω es una σ-´lgebra de subconjuntos de Ω y que no existe una σ-´lgebra de subconjuntos de Ω que sea m´s grande. F una σ-´lgebra de subconjuntos de Ω y sea A a un evento cualquiera. a a . b) Si A. bi ] ∩ (aj . bi ]. y s´lo si. i=1 en donde (ai . Sea C una colecci´n de subconjuntos de Ω. Ejercicios 17. ´lgebras y semi´lgebras a a a ´ ´ 20. algebra =⇒ σ-algebra. bj ] = ∅ para i = j y n ∈ N. Demuestre que F es una ´lgebra pero no una σ-´lgebra. cumple las siguientes cono diciones: a) Ω ∈ F . Explique su respuesta. a) Ω ∈ F ´ Ω ⊆ F . o b) A ∈ Ω ´ A ⊆ Ω. a a 19. o d) A ∈ F ´ A ⊆ F . F es σ-´lgebra ⇒ F es ´lgebra ⇒ F es semi´lgebra. 1] y defina la colecci´n F de o subconjuntos de la forma n (ai . 1] con (ai . De cada una de las dos expresiones siguientes determine la que es notacionalmente correcta. Definicion alternativa de algebra. o σ-´lgebras. o c) ∅ ∈ F ´ ∅ ⊆ F .

b) : a. Demuestre que B(R2 ) = σ{(−∞.Cap´ ıtulo 1. b] : b ∈ R}. Sea {An : n ∈ N} una sucesi´n de eventos. 30. n ] : n ∈ N } = σ{ (0. 34. n ] : n ∈ N } = B(0. 26. b] × [c. Justifique su respuesta. n ] : n ∈ N } = B(0. Demuestre que B(R) = σ{(a. 1 1 a) σ{ ( n+1 . ım n→∞ . Sucesiones de eventos 35. c ≤ d}. Espacios de probabilidad 45 23. Conjuntos de Borel 24. 31. 25. ∞) : a ∈ R}. Mediante un contraejemplo demuestre que no toda semi´lgebra es una a a ´lgebra. 28. Diga falso o verdadero. Demuestre que B(R) = σ{(a. b) : a ≤ b}. n ] : n ∈ N }. 1 b) σ{ (0. ∞) : a. 27. Demuestre que B(R) = σ{(−∞. b) : b ∈ R}. b ∈ R}. ∞) : a ∈ R}. Demuestre que o a) l´ sup An es un evento. 1]. ∞) × (b. 32. b ∈ R}. 33. a) × (−∞. 1 1 1 c) σ{ ( n+1 . Sea A ∈ B(R). Demuestre que B(R) = σ{(−∞. 29. Demuestre que B(A) es efectivamente una σ-´lgebra a de subconjuntos de A. Demuestre que B(R) = σ{[a. 1]. Demuestre que B(R) = σ{[a. Demuestre que B(R2 ) = σ{(a. d] : a ≤ b. b] : a ≤ b}. Demuestre que B(R2 ) = σ{[a.

ım ım n n→∞ n→∞ 39. Sea {An : n ∈ N} una sucesi´n de eventos. ım ım n n→∞ n→∞ n→∞ n→∞ b) l´ An = A ⇔ l´ 1An = 1A . {ω ∈ An para toda n excepto un n´mero finito de ellas}. V´ase el o e ap´ndice al final del texto para la definici´n y algunas propiedades de e o esta funci´n. ım ım n n→∞ n→∞ c c) P ( l´ inf An ) = 1 − P ( l´ sup Ac ). ım n→∞ n→∞ 38. ım ım El s´ ımbolo 1A denota la funci´n indicadora del conjunto A. Sea {An : n ∈ N} una sucesi´n de eventos. u 37. o . Demuestre o proporcione un contraejemplo.6. ım ım n→∞ 36. ım ım n n→∞ n→∞ b) ( l´ sup An ) = l´ inf Ac . Ejercicios b) l´ inf An es un evento. Demuestre que o a) ( l´ inf An )c = l´ sup Ac . ım ım n→∞ n→∞ b) l´ inf An ⊆ l´ inf Bn . Demuestre que o a) l´ An = A ⇔ l´ Ac = Ac . a) l´ sup An ⊆ l´ sup Bn . ım ım n n→∞ n→∞ d) P ( l´ sup An ) = 1 − P ( l´ inf Ac ). Demuestre que el evento a) l´ sup An coincide con el conjunto ım b) l´ inf An coincide con el conjunto ım n→∞ n→∞ {ω ∈ An para una infinidad de valores de n}. ım n→∞ n→∞ c) l´ inf An ⊆ l´ sup An . ım ım n→∞ n→∞ ım c) l´ sup An ⊆ l´ inf Bn .46 1. Suponga An ⊆ Bn para cada n en N.

an ]. y l´ Bn = B. b) An = (0. si n es par. Bn si n es par. Sea {an : n ∈ N} una sucesi´n de n´meros no negativos convergente o u al n´mero a ≥ 0. ım c) l´ (An − B) = A − B. b) An = {(x. 43. ım n→∞ a) l´ (An ∩ B) = A ∩ B. 2 + (−1)n ) ⊆ R. Suponga que l´ An = A. Determine si la siguiente ım ım n→∞ n→∞ sucesi´n es convergente. 42. Determine si cada una de las siguientes sucesiones de conjuntos es convergente. Sea An = [0.Cap´ ıtulo 1. Encuentre condiciones sobre los eventos A y B para que la siguiente sucesi´n de eventos sea convergente. ım n→∞ n→∞ n→∞ n→∞ b) l´ (An ∪ B) = A ∪ B. y) ∈ R2 : x2 + y 2 ≤ (1 + 1/n)n }. a) An = ∅ si n es impar. u ım ım n→∞ n→∞ 41. y An = Ω si n es par. Demuestre que las siguientes sucesiones de eventos no son convergentes. c) An = {(x. o Cn = An si n es impar. 45. 44. Calcule l´ inf An y l´ sup An . Espacios de probabilidad 47 40. Suponga que l´ An = A. ım d) l´ (An △B) = A△B. 1 + (−1)n ) ⊆ R. Demuestre que para cualquier evento B. a) An = (1/n. ım . o An = A B si n es impar. y) ∈ R2 : x2 + y 2 ≤ 2 + sen(nπ/2)}.

. Diga falso o verdadero. Suponga que l´ An = A y l´ Bn = B. 1]. ım n→∞ m→∞ n→∞ m→∞ n→∞ m→∞ n→∞ m→∞ b) l´ ım l´ (An ∪ Bm ) = A ∪ B. Determine completamente un espacio de probabilidad (Ω. ım ım n→∞ n→∞ Demuestre en cada caso. a) l´ ım l´ (An ∩ Bm ) = A ∩ B. ım 47. ım ım c) l´ ım l´ (An − Bm ) = A − B. F . u d) extraer dos bolas de una urna en donde hay dos bolas blancas y dos negras. d) l´ ım l´ (An △Bm ) = A△B. ım d) l´ (An △Bn ) = A△B. ım Medidas de probabilidad 48. ım ım n→∞ n→∞ Demuestre en cada caso. e) lanzar una moneda honesta repetidas veces hasta que hayan aparecido ambas caras. Ejercicios 46. b) lanzar un dado equilibrado.48 1. Diga falso o verdadero. a) l´ (An ∩ Bn ) = A ∩ B. P ) para el experimento aleatorio de a) lanzar una moneda equilibrada. c) escoger al azar un n´mero real dentro del intervalo unitario [0. ım n→∞ n→∞ n→∞ n→∞ b) l´ (An ∪ Bn ) = A ∪ B. Suponga que l´ An = A y l´ Bn = B. ım c) l´ (An − Bn ) = A − B.6.

2Ω ). Sea {xn : n ∈ N} una sucesi´n de n´meros reales y sea {an : n ∈ N} otra sucesi´n de n´meros o u o u reales no negativos tal que ∞ an = 1. Demuestre que αP + (1 − α)Q es una medida de probabilidad para cada α en [0. b) (1 + P )/2. 51. Demuestre en cada caso que P es una medida de probabilidad. . Para cada A ∈ 2Ω defina: a) P (A) = k∈A 2k . Investigue en cada caso si P es una medida de probabilidad. e) 4P (1 − P ). . Espacios de probabilidad 49 49. y considere el espacio medible (Ω. Demuestre que la funci´n o n=1 P : B(R) → [0.Cap´ ıtulo 1. d) |P |. Para cada A ∈ 2N defina: a) P (A) = n∈A 2/3n . 52. . √ f) P. Medida de probabilidad discreta. n(n + 1) . 2N ). n}. c) P 2 . 50. Determine si las siguientes funciones son medidas de probabilidad. Sea P una medida de probabilidad. Considere el espacio medible (N. 1]. 53. n∈A b) P (A) = 54. Sean P y Q dos medidas de probabilidad definidas sobre una misma σa ´lgebra. Determine si las siguientes funciones tambi´n son medidas de probabilidad: e a) 1 − P . a) P (Ω) = 1 y P (A) = 0 para cualquier otro evento A. Sea Ω = {1. 1] definida de la siguiente forma es una medida de probabilidad. 1/2n . . b) P (∅) = 0 y P (A) = 1 para cualquier otro evento A. P (A) = ∞ n=1 an 1{n : xn ∈A} (n).

Demuestre que P (A | B) ≥ 1 − P (Ac )/P (B). P2 (A) = P (A | B ∩ C). 3√ x dx. a . sin usar P (Ω) = 1. a Demuestre que la colecci´n {A ∈ F : P (A) = 0 ´ P (A) = 1} es una o o sub σ-´lgebra de F . Considere el espacio medible ((0. a Propiedades elementales 60. Probabilidad condicional. P ) un espacio de probabilidad. Demuestre que P (A ∩ B) − P (A)P (B) = P (Ac )P (B) − P (Ac ∩ B). y sea B un evento con probabilidad estrictamente positiva. Sea (Ω. P (B)} ≤ P (A) ≤ m´x{P (A). 1)). Ejercicios 1 (1 − ). Demuestre que P (∅) = 0. en donde P (B) > 0 y P (C) > 0. 61. es una medida de probabilidad. Demuestre que P (A∩B) ≤ m´ ın{P (A). Sea P una medida de probabilidad definida sobre la σ-´lgebra F . 62. 2 b) P (A) = A 56. Demuestre que para cualquier evento A. 58. Demuestre en cada caso que P es una medida de probabilidad. Para cada A ∈ B(0. toda propiedad v´lida para una medida de a probabilidad es tambi´n v´lida para la probabilidad condicional. B(0. e a 57. F . en donde P (B) > 0. Demuestre que la probabilidad condicional definida para cada A en F como sigue: P (A | B) = P (A ∩ B)/P (B).50 b) P (A) = k∈A 1.6. 1) defina: a) P (A) = A 2x dx. En consecuencia. y sean P1 ( · ) = P ( · | B) y P2 ( · ) = P1 ( · | C). Sea P una medida de probabilidad. 1). P (B)} ≤ P (A∪B). 59. k 55.

64. . Espacios de probabilidad 63. Demuestre que P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ B c ∩ C). Formula de inclusion y exclusion. 65. Demuestre que n n P( i=1 Ai ) = i=1 P (Ai ) − i<j P (Ai ∪ Aj ) + i<j<k P (Ai ∪ Aj ∪ Ak ) − · · · + (−1)n+1 P (A1 ∪ · · · ∪ An ). Demuestre que n n P( i=1 Ai ) = i=1 P (Ai ) − i<j P (Ai ∩ Aj ) + i<j<k P (Ai ∩ Aj ∩ Ak ) − · · · + (−1)n+1 P (A1 ∩ · · · ∩ An ). Demuestre que P( ∞ 51 −P (A ∩ B) − P (A ∩ C) − P (B ∩ C) i=1 Ai ) = P (A1 ) + P (Ac ∩ A2 ) + P (Ac ∩ Ac ∩ A3 ) + · · · 1 1 2 +P (Ac ∩ · · · ∩ Ac ∩ An ) + · · · 1 n−1 ´ ´ ´ 66.Cap´ ıtulo 1. Demuestre que P (A ∪ B ∪ C) = P (A) + P (B) + P (C) +P (A ∩ B ∩ C). 67.

k k=1 69. 70. Diga falso o verdadero. c) P (A ∩ B) ≤ P (A)P (B). e) P (A) = 1 ⇒ P (A ∪ B) = 1. d) P (A) > 0 ⇒ P (A ∩ B) > 0. e) P (A) < 1 ⇒ P (A ∪ B) < 1.6. f ) P (A) < 1 ⇒ P (A ∩ B) < 1. c) P (A) > 0 ⇒ P (A ∪ B) > 0. b) P (A − B) = P (A) − P (A ∩ B). b) P (A) = 0 ⇒ P (A ∩ B) = 0. Demuestre en cada caso. f ) P (A) = 1 ⇒ P (A ∩ B) = 1. h) P (A ∩ B) = 1 ⇒ P (A) = 1.52 n 1. d) P (A ∩ B) = 0 ⇒ P (A) = 0. Demuestre que P ( k=1 Ak ) ≥ 1 − P (Ac ). Demuestre en cada caso. 72. Demuestre que 0 ≤ P (A ∩ B) ≤ P (A) ≤ P (A ∪ B) ≤ P (A) + P (B) ≤ 2. Diga falso o verdadero. a) P (B − A) = P (B) − P (A). c) P (A ∪ B) = 0 ⇒ P (A) = 0. a) P (A) = 0 ⇒ P (A ∪ B) = 0. b) P (A ∪ B) = P (A − B) + P (B − A). 71. g) P (A ∪ B) = 1 ⇒ P (A) = 1. Diga falso o verdadero. a) P (A ∩ B) ≥ P (A) − P (B c ). . Demuestre en cada caso. Ejercicios n 68.

Despu´s de este proceso se obtiene al azar una canica de e la tercera caja. Un dado equilibrado se lanza tres veces consecutivas. u b) se obtenga una misma cara siempre. Demuestre que n n P( i=1 Ai ) ≥ i=1 P (Ai ) − i<j P (Ai ∩ Aj ). encuentre la probabilidad de que ´sta haya e sido obtenida de la primera caja. e) P (A | B) ≤ P (A).Cap´ ıtulo 1. Una segunda caja contiene dos canicas blancas y cuatro negras. y resulta que la suma de los tres n´meros obtenidos es 11. Tanto la moneda como el dado estan equilibrados. Se escoge ´ una caja al azar y se extrae un canica. Encuentre la probabilidad u de que en el primer lanzamiento se haya obtenido un 5. Una primera caja contiene tres canicas blancas y dos negras. En una primera caja se encuentran dos canicas blancas y tres negras. Regla del producto. Espacios de probabilidad d) P (A ∪ B) ≤ P (A) + P (B). Unicamente se conoce que la canica obtenida es blanca. Calcule la probabilidad de que: a) se obtengan ambas caras de la moneda igual n´mero de veces. . Demuestre que P (A1 ∩· · ·∩An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩A2 ) · · · P (An |A1 ∩· · ·∩An−1 ). 74. despu´s se extrae e nuevamente al azar una canica de la segunda caja y se deposita en la tercera caja. e 75. 73. 53 f ) P (A | B) ≥ P (A) ⇒ P (B | A) ≥ P (B). y en una tercera caja hay dos blancas y una negra. 77. Desigualdad de Bonferroni. encuentre la probabilidad de que ´sta sea blanca. en una segunda caja hay tres blancas y cinco negras. De la primera caja se extrae al azar una canica y se deposita en la segunda caja. Se lanza una moneda tantas veces como indica un dado previamente lanzado. 76. 78.

¿Es la independencia de dos eventos una relaci´n de equivalencia? o 85. . Demuestre que la probabilidad de que eventualmente cada una de las dos caras aparezca es uno. c) A ⊥ ∅. Mediante un contraejemplo demuestre que si A y B son independientes.6. entonces tampoco se sigue necesariamente que estos eventos sean independientes. Demuestre que si se efect´a una infinidad de ensayos independientes del experiu mento aleatorio. Ejercicios 79. Sea A un evento con probabilidad estrictamente positiva. entonces no necesariamente son ajenos. 81. 82. a) A ⊥ A. Demuestre tambi´n que e si A y B son ajenos. Se lanza una moneda honesta una infinidad de veces. Diga falso o verdadero. Se lanza un dado equilibrado una infinidad de veces. d) A ⊥ Ω. Demuestre que n n n P( i=1 Ai ) ≤ m´ { ın j i=1 P (Ai ) − i=j i=1 P (Ai ∩ Aj ) }. la probabilidad de que nunca ocurra el evento A es cero. Desigualdad de Kounias. Demuestre o proporcione un contraejemplo. Independencia de eventos 83. Demuestre que la probabilidad de que eventualmente cada una de las seis caras aparezca es uno. 84.54 1. Continuidad 80. b) A ⊥ Ac .

Demuestre que n n 55 P( k=1 Ak ) = 1 − k=1 [1 − P (Ak )]. . An independientes. . Lema de Borel-Cantelli 89. Sea A un evento con probabilidad positiva. una sucesi´n infinita de eventos.Cap´ ıtulo 1. 87. 88. Sean A1 . . 90. la probabilidad de que ocurra una infinidad de veces el evento A. Defina o Bn = ∞ k=n Ak y Cn = ∞ k=n Ak . Demuestre que con probabilidad uno cada una de las seis caras aparece una infinidad de veces. Se lanza un dado equilibrado una infinidad de veces. . Use el lema de BorelCantelli para demostrar que si se efect´a una infinidad de ensayos u independientes del experimento aleatorio. . Espacios de probabilidad 86. es uno. . . En particular. Sean A y B independientes. Demuestre que si Bn y Cn son independientes para cada n. Demuestre que σ{A} y σ{B} son independientes. entonces A tiene probabilidad cero o uno. entonces los eventos l´ ımite superior y l´ ımite inferior de la sucesi´n An tambi´n o e son independientes. Sea A1 . . cuando la sucesi´n An converge al o evento A. A2 .

.

Mediante una variable aleatoria uno puede considerar u que el posible experimento aleatorio en cuesti´n no produce como resultao dos elementos de Ω sino n´meros reales. Se estudian tambi´n algunas o o e distribuciones de probabilidad de variables aleatorias discretas y continuas particulares. 2. P ). Reu a o presenta una traducci´n de cada uno de los resultados del espacio muestral o en n´meros reales. y una vez que enunciemos su ıa definici´n. funci´n de o distribuci´n.Cap´ ıtulo 2 Variables aleatorias En este cap´ ıtulo se estudian los conceptos de variable aleatoria. F .1. el t´rmino aparecer´ con mucha frecuencia a lo largo del curso. Variables aleatorias Una variable aleatoria es una funci´n del espacio muestral en el conjunto de o n´meros reales que adem´s satisface cierta condici´n de medibilidad. o e a 57 . A partir de ahora y en el resto del curso consideraremos como elemento base un espacio de probabilidad (Ω. El concepto de variable aleatoria u es fundamental en la teor´ de la probabilidad. funci´n de densidad y esperanza.

58 2. La o funci´n PX : B(R) → [0. dominio de definici´n de P . B(R)) del siguiente modo: Si B es un conjunto Boreliano definimos PX (B) = P (X −1 B).) es una funci´n de Ω en R tal que la imagen inversa de cualquier o conjunto Boreliano es un elemento de la σ-´lgebra del espacio de probabia lidad. o Gr´ficamente una variable aleatoria puede representarse como se muestra a en la Figura 2. . Recordemos que P o o es una medida de probabilidad definida sobre el espacio medible (Ω.a. X ω Ω X(ω) R Figura 2.2. Esto es. Una variable aleatoria real es una funci´n X : Ω → R tal que para cualquier conjunto Boreliano B. se o cumple que el conjunto X −1 B es un elemento de F . que o o para el caso de variables aleatorias puede ilustrarse gr´ficamente como se a indica en la Figura 2.1. lo cual es posible pues el conjunto X −1 B es un elemento de F . (Variable aleatoria). F ). 1] resulta ser una medida de probabilidad. En un ap´ndice al final del texto aparece una secci´n que contiene e o una discusi´n breve del concepto de imagen inversa de una funci´n. y se le o llama por tanto la medida de probabilidad inducida por la variable aleatoria. entonces podemos trasladar la medida de probabilidad P al espacio medible (R. Explicamos a continuaci´n la raz´n t´cnica por la cual se le pide a una funo o e ci´n X : Ω → R que cumpla la condici´n de medibilidad.1: Una variable aleatoria es una funci´n medible de Ω en R. y o ıa se dice entonces que dicha funci´n es medible respecto de las σ-´lgebras F o a y B(R). Si X es una variable aleatoria.1. una variable aleatoria (a veces se escribe simplemente v. Variables aleatorias ´ Definicion. Esta condici´n se conoce como medibilidad en teor´ de la medida.

incluyendo los par´ntesis. o bien (a < X < b) para denotar el conjunto {ω ∈ Ω : X(ω) ∈ (a. o simplemente por (X ≥ 0). o (X ∈ (a. Este resultado. De este modo se construye el espacio de probabilidad (R. como uno puede imaginar. ∞)). Se le conoce tambi´n con el nombre de distribuci´n o ley de probabilidad de e o X.2: La imagen inversa de un conjunto de Borel. Si B es un conjunto Boreliano. Veamos otro ejemplo. que lo es. PX ). . La siguiente proposici´n establece que no es necesao rio demostrar la condici´n de medibilidad para cualquier conjunto Boreliano o B. para cada x en R. se usan los s´ ımbolos X −1 B y (X ∈ B) para denotar el conjunto {ω ∈ Ω : X(ω) ∈ B}. A menudo se le denota por L(X). e si (a. en la mayor´ de las veces. sino que es suficiente tomar intervalos de la forma (−∞. se puede usar el s´ ımbolo X −1 (a. x]. Para hacer la escritura m´s corta. b) es un intervalo de la recta real. Variables aleatorias 59 X −1 X −1 B Ω B R Figura 2. ıa Para comprobar que una funci´n X : Ω → R es realmente una variable aleao toria. a menudo se omite el argumento a ω de una variable X y se omite tambi´n el t´rmino variable aleatoria para e e X suponiendo. es de suma utilidad y lo usaremos con frecuencia en el resto del cap´ ıtulo. ∞)} puede ser denotado por X −1 [0. b)}.Cap´ ıtulo 2. el conjunto {ω ∈ Ω : X(ω) ∈ [0. b). En muy pocos casos tal condici´n puede comprobarse o de manera tan directa. B(R). b)). la definici´n requiere verificar la condici´n X −1 B ∈ F para cualquier o o conjunto Boreliano B. Por ejemplo. ∞) o (X ∈ [0.

y Entonces claramente C ⊆ B ⊆ B(R). c) Sea B1 . a Esto implica que B = B(R). Entonces ∞ Bn ∈ n=1 B(R) y ∞ X −1 Bn = X −1 ∞ Bn ∈ F . Una funci´n X : Ω → R es una variable aleatoria si. y o s´lo si. existen otras condiciones igualmente equivalentes y utiles.1. Sean B y C las colecciones B = {B ∈ B(R) : X −1 B ∈ F }. Por lo tanto B c ∈ B(R) y X −1 B c = (X −1 B)c ∈ F . para cada n´mero o u natural n. una sucesi´n en B. o (⇒) Si X es variable aleatoria. b) Sea B ∈ B. ´ . B2 . y entonces X es variable aleatoria. C = {(−∞. B c ∈ B. pues R ∈ B(R) y X −1 R = Ω ∈ F.60 2. Por lo tanto σ(C ) = B(R) ⊆ B. Resta entonces hacer ver que B es efectivamente una σ-´lgebra. para cada x en R se cumple que (X ≤ x) ∈ F . . Entonces a B es una σ-´lgebra que contiene a C . . . y la segunda es por definici´n de la colecci´n B. Entonces B ∈ B(R) y X −1 B ∈ F . La primera contenci´n es por o hip´tesis. Es decir. el conjunto (X ≤ x) es un elemento de F . ∞ Bn ∈ n=1 n=1 n=1 B. Bn ∈ B(R) y X −1 Bn ∈ F . Adem´s de la condici´n anterior para demostrar que una funci´n es vaa o o riable aleatoria. Es decir. Variables aleatorias ´ Proposicion. u (⇐) Ahora suponga que para cada real x. o Demostraci´n. a a) Primeramente tenemos que R ∈ B. entonces claramente se cumple que para cualquier n´mero real x el conjunto (X ≤ x) es un elemento de F . x] : x ∈ R}. Es decir. Suponga por o o o un momento que B es una σ-´lgebra de subconjuntos de R.

para cada B en B(R). y s´lo si. por lo tanto X es . o (X ≥ x) ∈ F . entonces se denota por σ(X) a la m´ o ınima σ-´lgebra de a subconjuntos de Ω respecto de la cual X es variable aleatoria. F ) y (R. Para la funci´n o o −1 B = Ω si c ∈ B. ´ Proposicion. Suponga entonces que (Ω. Sea B un elemento cualquiera de B(R). b) de o R. La funci´n constante X = c es una variable aleatoria. para cualquier intervalo (a. Es sencillo probar que tal colecci´n de im´genes inversas es efectivamente o a una σ-´lgebra. a o En particular. F . Ejercicio. a) σ(X) = σ(X 2 ). Diga falso o verdadero. Variables aleatorias 61 Por ejemplo. Demuestre en cada caso. constante X = c se tiene que X / En ambos casos el conjunto X −1 B es un elemento de F . (X < x) ∈ F . se dice que una funci´n g : R → R es Borel medible si o g−1 B ∈ B(R). o Demostraci´n. y claramente X es variable aleatoria si. y X −1 B = ∅ si c ∈ B. La demostraci´n de todas estas aseveraciones es completamente an´loga o a al caso demostrado arriba y se pide desarrollar los detalles en la secci´n de o ejercicios. P ) es un espacio de probabilidad dado. Cualquiera de estas condiciones es necesaria y suficiente para que X sea variable aleatoria.Cap´ ıtulo 2. Todas las variables aleatorias que se consideran a continuaci´n est´n definidas sobre este mismo espacio o a de probabilidad. X es variable aleatoria si para cada x en R. b) σ(X) = σ(−X). Tambi´n es equie valente la condici´n (a < X < b) ∈ F . c) σ(X) = σ(2X). B(R)). σ(X) = { X −1 B : B ∈ B(R) }. o (X > x) ∈ F . Considere ahora los espacios medibles (Ω. σ(X) ⊆ F . A continuaci´n se demuestra que algunas operaciones b´sicas entre variao a bles aleatorias producen nuevas variables aleatorias. Si X es una funci´n de Ω en R. ´ Definicion.

.s. 2. Si c < 0.1.a. Para ello usaremos la igualdad (X + Y > x) = r∈Q (X > r) ∩ (Y > x − r). Si X es variable aleatoria y c es una constante. (2. o Tenemos tres casos: Si c > 0. es un elemento de F . por la proposici´n anterior. x]. la imagen o u inversa del conjunto (−∞. entonces es claro que cX es la constante cero que es v.1). o ´ Proposicion. entonces el conjunto (cX ≤ x) = (X ≤ x/c) es un elemento de F .62 variable aleatoria. De aqui se desprende que ω es un elemento del lado derecho. pues X es v. pues tanto X como Y son variables aleatorias. tenemos u que existe un n´mero racional r tal que X(ω) > r > x − Y (ω). entonces cX tambi´n es variable aleatoria.a.a. (⊆) Sea ω en Ω tal que X(ω) + Y (ω) > x. Entonces X(ω) > x − Y (ω). entonces X + Y es variable aleatoria. Finalmente si c = 0. Variables aleatorias ´ Proposicion. Si X y Y son v.a.1) Es claro que a partir de esta igualdad se concluye que el conjunto (X + Y > x) es un elemento de F . entonces nuevamente el conjunto (cX ≤ x) = (X ≥ x/c) es un elemento de F pues X es v. e Demostraci´n. Resta entonces demoso o trar (2. y la operaci´n de uni´n involucrada es numerable. Comprobaremos que para cada n´mero real x. Como los n´meros racionales son un conjunto denso en R. bajo la funci´n cX. Probaremos que para cada n´mero real x. Demostraci´n. el conjunto (X + o u Y > x) es un elemento de F . Por u lo tanto X(ω) > r y Y (ω) > x − r.

Entonces existe un n´mero racional r0 tal que X(ω) > r0 y Y (ω) > x − r0 . Sean X y Y v. Entonces X/Y es variable aleatoria.Cap´ ıtulo 2. Si X y Y son v. usamos la f´rmula XY = ( (X + Y )2 − (X − Y )2 )/4. u Sumando obtenemos X(ω) + Y (ω) > x. Entonces neo cesitamos probar que para todo n´mero real x. el o producto XY es efectivamente una variable aleatoria. entonces XY es variable aleatoria. X = Y . e ´ Proposicion. y por lo tanto ω es tambi´n e un elemento del lado izquierdo. Por lo demostrado antes. En ambos casos. y √ √ (X 2 ≤ x) = (− x ≤ X ≤ x) si x ≥ 0. Pero esto es cierto pues (X 2 ≤ x) = ∅ si x < 0. el conjunto (X 2 ≤ x) es un elemento de F . Demostraci´n. ı entonces X n es variable aleatoria. ´ Proposicion. Suponga primero el caso particular X = Y .s con Y = 0. Demostraci´n.s. Variables aleatorias 63 (⊇) Sea ahora ω un elemento de r∈Q (X > r) ∩ (Y > x − r).a. Para . Como consecuencia se cumple que si multiplicamos X por s´ misma n veces. Por lo tanto toda funci´n polinomial de o una variable aleatoria es tambi´n variable aleatoria. Como el producto de variables aleatorias es nuevamente una o variable aleatoria.a. Para el caso general. el conjunto (X 2 ≤ x) es u un elemento de F . es suficiente demostrar que 1/Y es variable aleatoria.

Y } a y m´ ın{X.a. y Nuevamente vemos que este conjunto es un elemento de F . y que es un elemento de F puesto que Y es variable aleatoria. Por otro lado. Finalmente cuando y = 0 obtenemos una vez mas un elemento de F pues ( 1 1 1 ≤ 0) = ( ≤ 0. Y > 0) ∪ ( ≤ 0. Y < 0) y y 1 = (Y ≥ ) ∪ (Y < 0). Si X y Y son variables aleatorias. Y > 0) ∪ ( ≤ y. Y < 0) y y 1 = ∅ ∪ (Y ≥ .64 2. si y < 0 tenemos que ( 1 1 1 ≤ y) = ( ≤ y. puesto que Y es v. e . Y < 0) Y Y Y 1 1 = (Y ≥ . Variables aleatorias cualquier n´mero real y > 0 tenemos que u ( 1 1 1 ≤ y) = ( ≤ y. Y < 0) Y Y Y 1 1 = (Y ≤ . Y > 0) ∪ ( ≤ y. ´ Proposicion.1. Y > 0) ∪ (Y ≥ . Y < 0) Y Y Y = ∅ ∪ (Y < 0) = (Y < 0). Y > 0) ∪ (Y ≤ . Y } tambi´n lo son. entonces m´x{X. Y < 0) y 1 = ( ≤ Y < 0).

1}. 65 Como consecuencia se obtiene que tanto X + = m´x{0.  Ω    {−1. de modo que |X| es variable aleatoria. Y ≤ x) = (X ≤ x) ∩ (Y ≤ x). / . Ejemplo. a An´logamente. 1} junto con la σa ´lgebra F = {∅. o u (m´x{X. X} como X − = a − m´ ın{0. / |X|−1 B =  {0} si 0 ∈ B y 1 ∈ B. ´ Proposicion. Alternativamente se puede escribir |X| = X + + X − .  si 0. entonces (|X| ≤ x) = ∅ ∈ F . o Se muestra a continuaci´n que en general el rec´ o ıproco de la proposici´n o anterior es falso. 1} si 0 ∈ B y 1 ∈ B. y por lo expuesto anteriormente obtener la misma conclusi´n. Demostraci´n. Variables aleatorias Demostraci´n. Ω}. {−1.Cap´ ıtulo 2. Y } ≤ x) = (X ≤ x. y si x < o 0. Y } ≥ x) = (X ≥ x. Considere el espacio muestral Ω = {−1. X} son variables aleatorias. a (m´ ın{X. si X : Ω → R es una funci´n tal que |X| es o variable aleatoria. 1 ∈ B. Sea X : Ω → R la funci´n identidad o X(ω) = ω. Si X es variable aleatoria. Si x ≥ 0. /    ∅ si 0. {0}. esto es. Entonces |X| es variable aleatoria pues para cualquier conjunto Boreliano B. Y ≥ x) = (X ≥ x) ∩ (Y ≥ x). entonces (|X| ≤ x) = (−x ≤ X ≤ x). Para cualquier n´mero real x. 1 ∈ B. entonces |X| es variable aleatoria. 0. entonces no necesariamente X es variable aleatoria.

.} e ´ {X1 (ω). Entonces las funciones sup {Xn } e ´ {Xn } son variables n≥0 n≥0 aleatorias. Sin embargo X no es variable aleatoria pues el conjunto X −1 {−1} = {−1} no es un elemento de F . . una sucesi´n infinita de variables aleatoo rias tales que para cada ω en Ω. El siguiente resultado hace uso de las operaciones de l´ ımite superior e inferior para sucesiones num´ricas. ´ Proposicion. . . X2 (ω). (Xn ≥ x). . Demostraci´n. .} ınf ınf son finitos. Sea X1 . los n´meros u sup {X1 (ω). Para cualquier n´mero real x. Variables aleatorias Es decir.1. o u ( sup Xn ≤ x ) = n≥0 ∞ e ( ´ Xn ≥ x ) = ınf n≥0 n=1 ∞ n=1 (Xn ≤ x).66 2. . el lector puede encontrar una revisi´n breve de e o estas operaciones al final del texto. |X|−1 B es un elemento de F . . Ahora consideraremos algunas operaciones l´ ımite en sucesiones infinitas de variables aleatorias. S´lo consideraremos variables aleatorias con valores fio nitos. de modo que impondremos condiciones sobre la finitud del resultado al tomar tales operaciones l´ ımite. . . X2 (ω). X2 .

X2 (ω).Cap´ ıtulo 2. X2 (ω). . . . los n´meros u ım l´ sup {X1 (ω). . Entonces las funciones l´ sup Xn y l´ inf Xn son variables ım ım aleatorias. Sea X1 . los l´ ımites superior e inferior de esta sucesi´n coinciden. . . ım n→∞ k n≥k Finalmente demostramos que el l´ ımite de una sucesi´n de variables aleatoo rias convergente es variable aleatoria. n→∞ n→∞ Demostraci´n. Como el l´ o ımite de Xn existe. . X2 . ım ınf n→∞ k n≥k y ınf l´ inf Xn = sup ( ´ Xn ). . .} ım son finitos. X2 . Entonces ım n→∞ la funci´n l´ Xn es una variable aleatoria. el l´ o ımite de Xn es variable aleatoria. . . una sucesi´n infinita de variables aleatoo rias tales que l´ Xn (ω) existe y es finito para cada ω ∈ Ω. una sucesi´n infinita de variables aleatoo rias tales que para cada ω en Ω. Entonces por lo demostrado antes. . Esto es consecuencia de la proposici´n anterior pues o o l´ sup Xn = ´ ( sup Xn ). ´ Proposicion.} y l´ inf {X1 (ω). o ım n→∞ Demostraci´n. Variables aleatorias 67 ´ Proposicion. Sea X1 . .

o funci´n e o o o de probabilidad acumulada. La funci´n de distribuci´n es importante pues. de manera an´loga. ´ ´ ´ Definicion. En esta secci´n se define esta importante funci´n y se demuestran o o o algunas de sus propiedades.2. o . Apareo cer´ tambi´n la expresi´n F (x−).2. Veremos a continuaci´n algunas propiedades o b´sicas de esta funci´n. Funci´n de distribuci´n o o Toda variable aleatoria tiene asociada una funci´n llamada funci´n de diso o tribuci´n. El argumento de la funci´n es la letra min´scula x que puede o o u tomar cualquier valor real. que significa. definida o como sigue F (x) = P (X ≤ x). toma valores en el intervalo [0. y siendo una probabilidad. el l´ a e o a ımite por la izquierda de la funci´n F en el punto x. pero en general se omite el sub´ ındice X cuando no haya posibilidad de confusi´n. 1]. (Funcion de distribucion). contiene ella toda la informaci´n de la variable aleatoria y la correspono diente medida de probabilidad. Cuando sea necesario especificar la variable aleatoria en cuesti´n se escribe o FX (x). como se ilustrar´ m´s adelano o a a te. Por razones obvias a esta funci´n se le conoce o tambi´n con el nombre de funci´n de acumulaci´n de probabilidad. en una de las cuales aparece la expresi´n F (x+). La funci´n de distribuci´n o o de una variable aleatoria X es la funci´n F (x) : R → [0.68 ´ ´ 2. Funcion de distribucion 2. 1]. a o o que significa el l´ ımite por la derecha de la funci´n F en el punto x. Observe que la funci´n de distribuci´n de una o o variable aleatoria est´ definida sobre la totalidad del conjunto de n´meros a u reales.

4. Sea F (x) la funci´n de distribuci´n de una variable aleao o toria. x2 . o 1. F (x) converge a cero cuando x tiende a menos infinito. Sea ahora {xn : n ∈ N} una sucesi´n cualquiera de n´meros reales o u decreciente a menos infinito. y sean los eventos An = (X ≤ xn ). . entonces F (x1 ) ≤ F (x2 ). 2. una sucesi´n cualquiera de n´meros reales creciente a o u infinito. 2.Cap´ ıtulo 2. Demostraci´n. ım x→−∞ 3. . ım n→∞ Dado que R es un espacio m´trico. Si x1 ≤ x2 . es decir. ım l´ F (x) = 0. F (x+) = F (x). Variables aleatorias 69 ´ Proposicion. Sea x1 . Entonces {An : n ∈ N} es una sucesi´n de eventos creciente cuyo l´ o ımite es Ω. Entonces {An : n ∈ N} es una sucesi´n de eventos decreciente al o conjunto vac´ Nuevamente por la propiedad de continuidad ıo. . x→+∞ l´ F (x) = 1. n→∞ l´ F (xn ) = l´ P (An ) = P (∅) = 0. . y sean los eventos An = (X ≤ xn ). ım ım n→∞ Por lo tanto. Entonces 1. Por la propiedad de continuidad n→∞ ım l´ F (xn ) = l´ P (An ) = P (Ω) = 1. lo anterior implica que F (x) cone verge a uno cuando x tiende a infinito. F (x) es continua por la derecha.

Entonces F (x + xn ) = F (x) + P (x < X ≤ x + xn ). . = P [(X ≤ x1 ) ∪ (x1 < X ≤ x2 )] o u 4. ım n→∞ F (x+) = F (x). Funcion de distribucion F (x1 ) ≤ F (x1 ) + P (x1 < X ≤ x2 ) = P (X ≤ x2 ) = F (x2 ). Sea x1 . Para x1 ≤ x2 . Una funci´n F (x) : R → o [0. P ) y una variable aleatoria X cuya funci´n de distribuci´n es F (x).70 3. (Funcion de distribucion). x2 .2. Es decir ıo. Entono o ces existe un espacio de probabilidad (Ω. F . 1] una funci´n de distribuci´n. ´ Proposicion. una sucesi´n cualquiera de n´meros reales no negativos y decreciente a cero. Se enuncia a continuaci´n este o o o interesante resultado cuya demostraci´n omitiremos y puede encontrarse o por ejemplo en [15]. o o . 1] es llamada funci´n de distribuci´n si cumple las cuatro propiedades o o anteriores. a o o o no haciendo referencia a variables aleatorias ni a espacios de probabilidad particulares. . Se tiene adem´s la siguiente definici´n general de funci´n de distribuci´n. en donde An = (x < X ≤ x + xn ) es una sucesi´n de eventos decreo ciente al conjunto vac´ Por lo tanto l´ F (x + xn ) = F (x). ´ ´ 2. Sea F (x) : R → [0. . Una especie de rec´ ıproco de la ultima proposici´n es v´lido y ello justifica ´ o a la importancia de la funci´n de distribuci´n. ´ ´ ´ Definicion.

o o . o F (x) 1 1 F (x) x x Figura 2. La definici´n de variable aleatoria discreta. Variables aleatorias 71 Por lo tanto basta dar una funci´n de distribuci´n espec´ o o ıfica para saber que existe un cierto espacio de probabilidad y una variable aleatoria definida sobre ´l y cuya funci´n de distribuci´n es la especificada.4. A continuaci´n se presentan algunos ejemplos gr´ficos de funciones de diso a tribuci´n.3 corresponde a la funo a ci´n de distribuci´n de una variable aleatoria discreta. quedando un espacio de probabilidad no especificado en el fondo como elemento base en todas las consideraciones. y la gr´fica de la o o a derecha muestra el comportamiento t´ ıpico de una funci´n de distribuci´n o o continua. o Se demuestran ahora algunas otras propiedades que establecen la forma de calcular probabilidades usando la funci´n de distribuci´n.3: Funciones de distribuci´n discreta y continua. La gr´fica de la izquierda en la Figura 2. Tambi´n pueden presentarse situaciones como la que se muestra e en la Figura 2. Este es el punto de e o o vista que a menudo se adopta en el estudio de las variables aleatorias. y que corresponde al caso de una variable aleatoria mixta.Cap´ ıtulo 2. continua y mixta aparece en la o siguiente secci´n.

P (a ≤ X < b) = F (b−) − F (a−). o 1. 3. P (X < a) = F (a−). Sea X una variable aleatoria con funci´n de distribuci´n o o F (x). Por la propiedad o de continuidad P (X < a) = l´ P (An ) = l´ F (a − xn ) = F (a−). . P (a ≤ X ≤ b) = F (b) − F (a−). Funcion de distribucion F (x) 1 x Figura 2. u 1. ım ım n→∞ n→∞ . P (X = a) = F (a) − F (a−). Para cualesquiera n´meros reales a < b. P (a < X ≤ b) = F (b) − F (a). Entonces {An : n ∈ N} es una sucesi´n de eventos decreciente al evento (X < a).2. x2 . 6. Demostraci´n. 4. Sea x1 . .72 ´ ´ 2. 2. . o o ´ Proposicion. una sucesi´n de n´meros reales positivos y decreciente o u a cero.4: Una funci´n de distribuci´n mixta. 5. P (a < X < b) = F (b−) − F (a). Sea An el evento (X ≤ a − xn ).

cuando F (x) es una funci´n continua y para a < b. la probabilidad P (X = x) es igual a F (x) − F (x−). cuando F (x) es una funci´n continua. que representa el tama˜o del salto o discontinuidad de la funci´n de distribuci´n en el punto n o o x. Esto se muestra en la Figura 2. 3. En consecuencia. Simplemente se escribe P (X = a) = P (X ≤ a) − P (X < a) = F (a) − F (a−).5.Cap´ ıtulo 2. Variables aleatorias 2. Por . Estas igualdades se sigue directamente de las dos primeras. incluir o excluir los extremos o de un intervalo no afecta el valor de la probabilidad de dicho intervalo. o F (b) − F (a) = P (a < X ≤ b) = P (a < X < b) = P (a ≤ X ≤ b) = P (a ≤ X < b). 73 F (x) 1 P (X = x) = F (x) − F (x−) x Figura 2. Es decir. Observe que como F (x) es una funci´n no decreciente y continua por la o derecha.5: Una discontinuidad de F (x) y su significado.– 6.

y mezclas de las dos anteriores.3.3. la probabilidad del evento (X = x) u es cero. Veamos su definici´n. ´ Proposicion. Sea D el conjunto de puntos de discontinuidad de una funo ci´n de distribuci´n F (x). Como D = concluye que D es numerable. se 2. Demostraci´n. n+1 n Cada conjunto Dn tiene a lo sumo n elementos. Finalizamos esta secci´n con un resultado interesante cuya prueba o es sorprendentemente simple. o . para cualquier n´mero real x. Toda funci´n de distribuci´n tiene a lo sumo un n´mero o o u numerable de discontinuidades. continuas. ∞ n=1 Dn .74 2. Tipos de variables aleatorias lo tanto. Tipos de variables aleatorias Las variables aleatorias se clasifican en varios tipos dependiendo de las caracter´ ısticas de la correspondiente funci´n de distribuci´n. Al menos existen o o tres tipos: discretas. Para cada n´mero natural n defina los subcono o u juntos 1 1 Dn = { x ∈ D : < F (x) − F (x−) ≤ }.

2) que cumpla estas dos propiedades se o le llama funci´n de probabilidad. Las distribucioe o nes continuas se clasifican a su vez en distribuciones absolutamente continuas .Cap´ ıtulo 2. A la funci´n f (x) que indica estos incrementos se le llama funci´n de probabilidad de X. Sean x1 . x2 .2) La funci´n de distribuci´n se reconstruye de la forma siguiente o o F (x) = u≤x f (u). La variable aleatoria X se llama discreta si su correspondiente funci´n de distribuci´n F (x) o o es una funci´n constante por pedazos. Rec´ o ıprocamente. o En tal caso tambi´n se dice que la distribuci´n es continua. La variable aleatoria X se llama continua si su correspondiente funci´n de distribuci´n es una o o funci´n continua. . Tambi´n se acostumbra usar el t´rmino o e e funci´n de densidad. Variables aleatorias 75 ´ Definicion. como una analog´ con el caso de variables aleatorias o ıa continuas definidas m´s adelante. Observe que la funci´n de probabilidad f (x) es o una funci´n no negativa que suma uno en el sentido i f (xi ) = 1. . o y se define como sigue f (x) = P (X = x) si x = x1 . (2. . x2 . los puntos de o discontinuidad de F (x). sin que haya necesariamente una variable o aleatoria de por medio. (Variable aleatoria continua). y se le llama tambi´n a o e funci´n de masa de probabilidad. En cada uno de estos puntos el tama˜o de la n o discontinuidad es P (X = xi ) = F (xi ) − F (xi −) > 0. 0 otro caso. . ´ Definicion. . (Variable aleatoria discreta). toda funci´n de la forma (2. Cuando sea necesario especificarlo se esa cribe fX (x) en lugar de f (x). . Veamos ahora el caso continuo. e o o adem´s la funci´n de probabilidad f (x) siempre existe. En este caso se dice tambi´n que la funci´n de distribuci´n es discreta.

3) para cualquier n´mero real x.3) En tal caso a la funci´n f (x) se le llama funci´n de densidad de X. que no existe una funci´n f no negativa e ino o tegrable que cumpla (2. La variable aleatoria continua X con funci´n de distribuci´n F (x) se llama o o absolutamente continua. es decir. a partir de (2. Si X es absolutamente continua con funci´n de o o distribuci´n F (x) y funci´n de densidad continua f (x). ya sea usando una funci´n de densidad o modificaciones de ella que cumplan (2. a Adem´s. la probabilidad de que X tome un valor en el intervalo (a. u ı nos referiremos a la funci´n de densidad como si ´sta fuera unica. b) es a el ´rea bajo la funci´n de densidad sobre dicho intervalo. toda funci´n f (x) no negativa que integre uno en R se o llama funci´n de densidad. o o A´n cuando exista una funci´n no negativa e integrable f que cumpla (2. Rec´ ıprocamente.3). ´ Definicion.6. u o ´sta puede no ser unica. o . Esto se ilustra a o en la Figura 2. En tales situaciones u se dice que la distribuci´n es singular. o Es claro que la funci´n de densidad de una variable aleatoria absolutameno te continua es no negativa y su integral sobre toda la recta real es uno. entonces el teoreo o ma fundamental del c´lculo establece que. (Variable aleatoria absolutamente continua). Tipos de variables aleatorias y distribuciones singulares.76 2. Pueden construirse ejemplos de variables aleatorias continuas que no tienen funci´n de densidad.3).3. y ello o e ´ se justifica por el hecho de que las probabilidades son las mismas. pues basta modificarla en un punto para que sea e ´ ligeramente distinta pero a´n as´ seguir cumpliendo (2. A pesar de ello. F ′ (x) = f (x). si existe una funci´n no negativa e integrable o f tal que para cualquier valor de x se cumple x F (x) = −∞ f (u) du.3). la probabilidad es la misma si se incluyen o excluyen los extremos del intervalo.3). (2.

o su correspondiente funci´n de distribuci´n F (x). ´ Definicion. si x ≤ 0. Las distribuciones singulares son un poco m´s a delicadas de estudiar y no haremos mayor ´nfasis en ellas. No es dif´ encontrar situaciones en donde la variable aleatoria en estudio ıcil es mixta. Sea X una variable aleatoria con funci´n de distribuci´n o o FX (x) = 1 − e−x 0 si x > 0. La distribuci´n de e o Cantor es un ejemplo de este tipo de distribuciones y se construye mediante un proceso l´ ımite. ´ Definicion. singular si F El t´rmino “casi seguramente” que aparece en esta definici´n se refiere a que e o la igualdad se cumple en todos los puntos x excepto en un conjunto cuya medida de Lebesgue es cero. La variable aleatoria continua X. se llama o o ′ (x) = 0 casi seguramente.6: La probabilidad como el ´rea bajo la funci´n de densidad.Cap´ ıtulo 2. Variables aleatorias 77 f (x) b P (X ∈ (a. Una variable aleatoria que no es discreta ni continua se llama variable aleatoria mixta. (Variable aleatoria mixta). Ejemplo (Una variable aleatoria que no es discreta ni continua). . b)) = f (x) dx a x a b a o Figura 2. Los detalles pueden encontrarse en [13] o [19]. el siguiente ejemplo es una muestra de ello. (Variable aleatoria singular).

o Sea Y = m´ ın{X.7: Funciones de distribuci´n de la variable X y la constante M . Puede comprobarse que la funci´n de distribuci´n de o o Y es   0  FY (y) = 1 − e−y   1 si y ≤ 0. si y ≥ M. M }. o se muestran en la Figura 2.78 2.7. Finalmente enunciamos un resultado general cuya demostraci´n puede eno contrarse en [7] o [13]. Es claro que esta funci´n de distribuci´n a o o no es constante por pedazos pues es creciente en el intervalo (0. Tipos de variables aleatorias Como la funci´n FX (x) es continua. M ). y tampoco es continua pues tiene una discontinuidad en y = M .3. Por lo tanto Y es una variable aleatoria que no es discreta ni continua. Sea M > 0 una constante.8. entonces la variable aleatoria X es o continua. con gr´fica como en la Figura 2. si 0 < y < M. . Las gr´ficas de las funciones de distria buci´n de las variables X y la constante M (vista como variable aleatoria). por lo tanto no es discreta. FX (x) FM (x) 1 1 x M x Figura 2.

Considere nuevamente la funci´n de distribuci´n de la variable o o Y = m´ ın{X. En el caso general. eso a ta distribuci´n continua puede a su vez escribirse como otra combinaci´n o o lineal convexa entre una distribuci´n absolutamente continua y una distrio buci´n continua singular. es decir. Esto lleva al resultado general de que cualquier o distribuci´n puede escribirse como una combinaci´n lineal convexa de los o o tres tipos b´sicos de distribuciones.Cap´ ıtulo 2. sin embargo puede descomponerse o en la combinaci´n lineal convexa o FY (y) = e−M F d (y) + (1 − e−M )F c (y). admite la siguiente representaci´n o F (x) = αF d (x) + (1 − α)F c (x). a Ejemplo. ´ Proposicion. M } analizada en el ejemplo anterior. Toda funci´n de distribuci´n F (x) se puede escribir como o o una combinaci´n lineal convexa de una funci´n de distribuci´n discreta o o o F d (x) y otra continua F c (x).8: Funci´n de distribuci´n de la variable Y = m´ o o ın{X. Hemos visto que esta distribuci´n no es discreta ni continua. y o . en donde F d (y) es la distribuci´n discreta de la variable constante M . en donde 0 ≤ α ≤ 1. M }. En todos los casos que consideraremos en este texto la distribuci´n continua o de esta descomposici´n ser´ absolutamente continua. Variables aleatorias FY (y) 79 1 y M Figura 2.

o ´ Definicion. Sin embargo. entonces no necesariamente son iguales casi seguramente. si sus correspondientes o funciones de distribuci´n coinciden. un evento a ocurre casi seguramente si su probabilidad es uno. Tipos de variables aleatorias F c (y) es la distribuci´n continua o   0   1 − e−y c FY (y) =  1 − e−M   1 si y ≤ 0. Igualdad de variables aleatorias Dos variables aleatorias X y Y son estrictamente iguales si para cada ω se cumple X(ω) = Y (ω). otras formas m´s d´biles de a e igualdad que enunciaremos a continuaci´n. M´s generalmente. (Igualdad de variables aleatorias). cuando aparezca una expresi´n de igualo dad entre variables aleatorias. si y ≥ M. si 0 < y < M.s.s. y se escribe X = Y c. y se escribe X = Y . es decir. o entonces son iguales en distribuci´n.. b) iguales en distribuci´n.3. . u d c. sin embargo. es decir. Existen. o bien X = Y . si X y Y son iguales casi seguramente. casi seguro. si X y Y tienen la misma o distribuci´n. Es interesante observar que la igualdad casi segura es m´s fuerte que la a igualdad en distribuci´n. es decir.80 2. A o menos que se indique lo contrario. se considera que la igualdad es v´lida en el a sentido fuerte. Se dice que dos variables aleatorias X y Y son a) iguales casi seguramente. si FX (x) = FY (x) o para cada n´mero real x. si se cumple que P (X = Y ) = 1.

s. y defina Y = −X. Demuestre que si X = Y c. . Ejercicio. b].Cap´ ıtulo 2. a en donde las funciones h(x) y F (x) deben cumplir ciertas condiciones para que la integral tenga sentido y est´ bien definida.s. Esto no es coincidencia pues usaremos las o funciones de distribuci´n como funciones integradoras. Por el contrario. Al integrando h(x) se le o pide inicialmente que sea una funci´n acotada en el intervalo (a. b]. d 2. Sean X y Y dos variables aleatorias. Variables aleatorias 81 Ejercicio.4. Observe que F (x) debe u u cumplir propiedades semejantes a las de una funci´n de distribuci´n. Demuestre que el conjunto (X = Y ) es un evento. d demuestre que si X = Y . y defina o y h(xi ) = ´ {h(x) : xi−1 < x ≤ xi }. y de o o hecho la notaci´n es la misma. mon´tona no decreciente y tal que o F (∞) − F (−∞) < M . auno que despu´s se omitir´ esta condici´n. Integral de Riemann-Stieltjes En esta secci´n se define la integral de Riemann-Stieltjes. A la funci´n integradora F (x) se le e a o o pide que sea continua por la derecha. para alg´n n´mero M > 0. En [15] puede encontrarse una expon sici´n m´s completa y rigurosa de esta integral. Esta es una inteo gral de la forma b h(x) dF (x). entonces no necesariamente X = Y c. Considere por ejemplo la variable X tal que P (X = −1) = P (X = 1) = 1/2. o Presentamos a continuaci´n la definici´n de la integral de Riemann-Stieltjes o o bajo las condiciones arriba se˜aladas.. entonces X = Y . Sea {a = x0 < x1 < · · · < o a xn = b} una partici´n finita del intervalo (a. Esta integral es una e generalizaci´n de la integral usual de Riemann. En consecuencia tiene sentido calcular la probabilidad de tal conjunto. ınf h(xi ) = sup {h(x) : xi−1 < x ≤ xi }.

cuando este l´ ımite existe. Se puede extender la definici´n de esta integral o de la siguiente forma ∞ −∞ b h(x) dF (x) = l´ ım a. h(xi ) [ F (xi ) − F (xi−1 ) ].82 2. b h(x) dF (x) = l´ ım a N →∞ a hN (x) dF (x). ım ım n→∞ n→∞ entonces a este valor com´n se le llama la integral de Riemann-Stieltjes de u la funci´n h(x) respecto de la funci´n F (x) sobre el intervalo (a. b].b→∞ a h(x) dF (x). si h(x) > N. cuando el l´ ımite del lado derecho exista y est´ bien definido. a Y entonces se define Cuando la funci´n h(x) no es acotada o   −N  hN (x) = h(x)   N b se hace uso de la funci´n auxiliar o si h(x) < −N. e . y Sn = i=1 Ahora se toma el l´ ımite cuando n tiende a infinito de tal forma que la longitud m´x{|xi − xi−1 | : 1 ≤ i ≤ n} tienda a cero.4. si |h(x)| ≤ N. Si sucede que a −∞ < l´ S n = l´ S n < ∞. Integral de Riemann-Stieltjes Se define la suma superior e inferior de Riemann-Stieltjes como sigue n Sn = i=1 n ¯ h(xi ) [ F (xi ) − F (xi−1 ) ]. y se le o o denota por b h(x) dF (x).

. a De particular importancia en la teor´ de la probabilidad son los siguientes ıa dos casos particulares. . Variables aleatorias 83 La integral de Riemann-Stieltjes tiene varias propiedades semejantes a la integral de Riemann. El otro caso interesante ocurre cuando h(x) es continua y F (x) es constante excepto en los puntos x1 . integrar respecto de una funci´n de distribuci´n absolutamente o o continua se reduce a efectuar una integral de Riemann. x2 . respectivamente. p(x2 ). Primeo ramente es lineal tanto en el integrando como en el integrador.. . enunciaremos a continuaci´n algunas de ellas. a b) a h(x) d(αF1 (x) + F2 (x)) = α a h(x) dF1 (x) + Cuando h(x) tiene primera derivada continua se cumple la f´rmula o b b c) a h(x) dF (x) = h(b)F (b) − h(a)F (a) − F (x)h′ (x) dx. . Cuando F (x) es diferenciable se tiene la igualdad b b d) a h(x) dF (x) = a h(x)F ′ (x) dx. . Es decir. h(x) dF2 (x). En este caso y suponiendo convergencia. b e) a h(x) dF (x) = ∞ i=1 h(xi ) p(xi ). Finalmente enunciamos la propiedad que ilustra el hecho de que la integral de Riemann es . en donde la funci´n tiene saltos positivos de tama˜o o n p(x1 ). es decir. si α es constante. entonces b b b a) a b (αh1 (x) + h2 (x)) dF (x) = α a b h1 (x) dF (x) + a b h2 (x) dF (x).Cap´ ıtulo 2. Esto significa que integrar respecto de la funci´n de distribuci´n de una o o variable aleatoria discreta se reduce a efectuar una suma. .

yj ). xi ] × a (yj−1 . Por ejemplo.84 2. yj ) es el “incremento” de F en el rect´ngulo (xi−1 . En la siguiente secci´n usaremos las funciones de distribuci´n como funo o ciones integradoras. o 2. entonces b b h(x) dF (x) = α a a h(x) dF d (x) + (1 − α) b a h(x) dF c (x). y) funciones de dos variables. yj ) ∆F (xi . Caracter´ ısticas num´ricas e un caso particular de la integral de Riemann-Stieltjes. varianza y m´s generalmente los momentos de una variable aleatoria. Para a ello haremos uso de la integral de Riemann-Stieltjes mencionada antes. yj ]. d]. y) dF (x.m i=1 j=1 h(xi . sean h(x. En algunos casos usaremos tambi´n la integral de Riemann-Stieltjes en vae rias dimensiones. y) = l´ ım n. Por ahora no es clara la forma de definir este incremento pero retomaremos este concepto una vez que se haya definido a la funci´n de o distribuci´n en dimensiones mayores. . y) y F (x. en donde ∆F (xi . entonces se define o b a c d n m h(x. En particular. Como toda funci´n de distribuci´n F (x) se puede deso o componer en una suma convexa αF d (x) + (1 − α)F c (x). Caracter´ ısticas num´ricas e Se estudian a continuaci´n algunas caracter´ o ısticas num´ricas asociadas a e variables aleatorias.5.5. Cuando F (x) = x se cumple b b f) a h(x) dF (x) = a h(x) dx. b] y sea o {c = y0 < y1 < · · · < ym = d} una partici´n de (c. se definen los conceptos de esperanza. sea {a = x0 < x1 < · · · < xn = b} una partici´n de (a. en donde F d (x) es discreta y F c (x) es continua.

Entonces E(X) = . y con funci´n de probao bilidad f (x) = P (X = x) = 1/2x . . o o La esperanza de X. valor esperado. Si X es absolutamente continua con funci´n de densidad f (x). o ıa Cuando X es discreta con funci´n de probabilidad f (x). se calcula como se indica a continuaci´n. y en tal caso se dice que X es integrable. y se denota por X(ω) dP (ω). 2. A la esperanza se le conoce tambi´n con el nombre de media. su esperanza. . y en general se usa la letra griega µ (mu) para denotarla. denotada por E(X). cuando ∞ −∞ |x| dF (x) < ∞. se calcula como sigue E(X) = x xf (x).Cap´ ıtulo 2. Sea X con funci´n de distribuci´n F (x). Variables aleatorias 85 Esperanza La esperanza de una variable aleatoria es un n´mero que representa el prou medio ponderado de sus posibles valores. entonces su esperanza. (Esperanza). Ω En algunas ocasiones usaremos esta expresi´n para tener compatibilidad en o notaci´n con la teor´ general. .}. a) Sea X con valores en el conjunto {1. si existe. es o ∞ E(X) = −∞ xf (x) dx. se define como el n´mero u E(X) = ∞ −∞ x dF (x). e valor promedio o valor medio. En la teor´ de la medida [5] [14] [29] se define la esperanza de una ıa variable aleatoria o funci´n medible X mediante una integral m´s general o a llamada integral de Lebesgue. para x ≥ 1. si o existe. es decir. o que tiene esperanza finita. o ´ Definicion. cuando esta integral sea absolutamente convergente. Ejemplos.

Ejemplo.5. De acuerdo a las propiedades de la integral de Riemann-Stieltjes. El siguiente ejercicio contiene un par de ejemplos que ilustran esta situaci´n. La integral o suma arriba mencionados pueden no existir y en ese caso se dice que la variable aleatoria no tiene esperanza finita. 2. x ≥ 3. Demuestre que no existe la esperanza de X cuando su funci´n o de probabilidad o de densidad es a) f (x) = 1 . Ejercicio. 2 ≤ x < 3. Caracter´ ısticas num´ricas e = ∞ x x=1 x/2 = 2. a   0    x/4  F (x) = 2/4   1/4 + x/4    1 si si si si si x < 0. x(x + 1) para x = 1. La forma de esta funci´n puede apreciarse m´s f´cilmente a trav´s o o a a e de su gr´fica. b) Sea X continua con funci´n de densidad f (x) = 2x. para 0 < x < 1. para x > 1. 0 ≤ x < 1. V´ase tambi´n el o e e ejercicio 151. la espe- . la cual se muestra en la Figura 2. . . b) f (x) = 1/x2 . . 1 ≤ x < 2.86 ∞ x=1 xf (x) 2. Sea X una variable aleatoria con la siguiente funci´n de distrio buci´n.9. o ∞ 1 Entonces E(X) = −∞ xf (x) dx = 0 x 2x dx = 2/3.

Observe e a la forma mixta en la que esta integral es calculada: en las partes crecientes se calcula como si fuera una distribuci´n continua. la o esperanza de g(X) se calcula del siguiente modo: E[g(X)] = ∞ −∞ x dFg(X) (x).Cap´ ıtulo 2. Variables aleatorias 87 F (x) 1 3/4 2/4 1/4 x 1 2 3 Figura 2. n Con frecuencia surge el problema de calcular esperanzas de funciones de variables aleatorias. pero ello requiere encontrar primero la distribuci´n de g(X). si X es una variable aleatoria y g : R → R es una funci´n Borel medible. o o ranza de X es entonces E(X) = = 0 ∞ −∞ 1 x dF (x) 1 2 1 3 2 dx + 1 ( − ) + 2 ( − ) + 4 4 4 4 4 3 x x 2 1 dx. despu´s se a˜aden los o e n puntos de discontinuidad ponderados por el tama˜o del salto.9: Una funci´n de distribuci´n mixta. Usando directamente la definici´n. es decir. Afortunadamente se cuenta con el siguiente rea sultado que establece una forma muy conveniente de calcular la esperanza de . lo cual puede o no ser f´cil en muchos casos. entonces g(X) es una variable aleatoria y el o problema es encontrar su esperanza. 4 Despu´s de algunos c´lculos se encuentra que la esperanza es 15/4.

cuando X es discreta. Por o o a otro lado. Sea X una variable aleatoria discreta con valores en el conjunto o {x1 . Ejercicio. cuando la o funci´n g es la identidad. o . . y sea g : R → R una funci´n Borel medible tal que g(X) tiene esperanza finita. la demostraci´n del teorema resulta no ser o complicada.}. y sea g : R → R una funci´n Borel o o o medible tal que g(X) tiene esperanza finita. En particular. Entonces E[g(X)] = ∞ −∞ g(x) dFX (x). Caracter´ ısticas num´ricas e g(X). Se establecen a continuaci´n algunas propiedades de la esperanza. se recupera la definici´n b´sica de esperanza. La demostraci´n de este resultado en general no es sencilla y la omitiremos. ´ Teorema. (Esperanza de una funcion de una v. o aunque un camino c´modo que puede adoptarse es aceptar la f´rmula ano o terior como la definici´n de la esperanza de g(X). sin conocer su distribuci´n.a.5. . x2 .88 2.) Sea X con funci´n de distribuci´n FX (x). Demuestre que E[g(X)] = ∞ i=1 g(xi )P (X = xi ). pero suponiendo conocida la distribuci´n o o de X. .

E(c) = c. Si X ≥ 0. Sea Xd con distribuci´n o o o d (x). Sea X con funci´n de distribuci´n F (x). entonces E(X) ≤ E(Y ). en donde α ∈ [0. Sean X y Y discretas ambas con esperanza finita. y o o F c (x) es una funci´n de distribuci´n continua. la cual admite o o la descomposici´n o F (x) = αF d (x) + (1 − α)F c (x). Ejercicio. Las demostraciones de las primeras cuatro propiedades son sencillas pues se siguen directamente de la definici´n.Cap´ ıtulo 2. Variables aleatorias 89 ´ Proposicion. (Propiedades de la esperanza). entonces E(X) ≥ 0. y en tal o caso. E(c X) = c E(X). Entonces 1. y s´lo si. 1]. Sean X y Y con esperanza finita. y sea c una constante. ´ Proposicion. 3. El caso general ser´ demostrado m´s a a adelante. E(X + Y ) = E(X) + E(Y ). Demuestre directamente que E(X + Y ) = E(X) + E(Y ). Si X ≤ Y . tanto Xd como Xc tienen esperanza finita. 4. 5. . Entonces X tiene esperanza F o c finita si. La ultima propiedad es f´cilmeno ´ a te demostrable en el caso discreto. y sea X con distribuci´n F c (x). E(X) = αE(Xd ) + (1 − α)E(Xc ). 2. F d (x) es una funci´n de distribuci´n discreta.

la varianza de X. La varianza se denota regularmente por el s´ 2 (sigma cuadrada). si ´sta existe. Demuestre que la varianza de una variable aleatoria con la siguiente funci´n de densidad no existe. cuando existe. cuando existe. Cuando X es discreta con funci´n de probabilidad f (x) y esperanza finita o µ. A la ra´ cuadrada positiva de Var(X) se le llama σ ız desviaci´n est´ndar. se define como la siguiente esperanza. o Varianza La varianza de una variable aleatoria es una medida del grado de dispersi´n o de los diferentes valores tomados por la variable. denotada por Var(X). Nuevamente hay o a casos en los que la varianza no es finita. entonces la varianza de X. o ´ Definicion. Caracter´ ısticas num´ricas e Este resultado es inmediato de demostrar usando la propiedad de linealidad de la integral de Riemann-Stieltjes respecto de la funci´n integradora. Ejercicio. Si X es absolutamente continua con funci´n de densidad f (x) y o esperanza finita µ. .90 2. (Varianza). La varianza de una variable aleatoria X.5. se calcula como sigue Var(X) = x (x − µ)2 f (x). o f (x) = 2/x3 si x > 1. y se le denota naturalmente por σ. 0 otro caso. y en esa situaciones se dice que la variable aleatoria no tiene varianza. su definici´n es la siguiente. Observe que para calcular la varianza se necesita conocer primero la esperanza. es Var(X) = ∞ 2 ımbolo −∞ (x − µ) f (x) dx. e Var(X) = E (X − E(X))2 .

excepto la o ultima. En general. se siguen directamente de la definici´n y de la propiedad lineal de la ´ o esperanza. o . ´ y verificarse la no igualdad. Var(X + c) = Var(X). 3. y sea c una constante.Cap´ ıtulo 2. Sean X y Y con varianza finita. Var(c X) = c2 Var(X). 5. La demostraci´n de estas propiedades es sencilla pues todas ellas. Demuestre que Var(X) = E(X(X − 1)) − E(X)(E(X) − 1). 6. Momentos Los momentos de una variable aleatoria son n´meros que representan alguu nas caracter´ ısticas de la distribuci´n de probabilidad asociada. Entonces 1. Para la ultima propiedad puede tomarse Y = X. con Var(X) = 0. Ejercicio. Otras propiedades de la varianza aparecen m´s a adelante. (Propiedades de la varianza). Var(X) = E(X 2 ) − E 2 (X). Var(c) = 0. Bajo ciertas o condiciones el conjunto de momentos determinan de manera unica a la dis´ tribuci´n de probabilidad. Variables aleatorias 91 Enunciamos a continuaci´n algunas propiedades de la varianza. Var(X + Y ) = Var(X) + Var(Y ). Var(X) ≥ 0. 4. o ´ Proposicion. 2.

e 4. puede demos´ o trarse que si X es tal que los n´meros E(X). E(X n ) es el n-´simo momento de X. E[(X − µ)n ] es el n-´simo momento central de X. (Momentos). E|X − µ|n es el n-´simo momento central absoluto de X. E|X|n es el n-´simo momento absoluto de X. son todos finitos y u si se cumple que la serie ∞ n t E(X n ) n! n=0 es absolutamente convergente para alg´n t > 0. entonces la sucesi´n de mou o mentos determina de manera unica a la distribuci´n de X. cuando existen. y el segundo momento central es la varianza. . e 2. a El problema de los momentos consiste en determinar condiciones necesarias y suficientes para que los momentos de una variable aleatoria determinen de manera unica su distribuci´n de probabilidad. y a trav´s de las cuales los momentos de e una variable aleatoria pueden ser encontrados. En algunos textos al n-´simo momento se le denota e por µ′ . Las condiciones ´ o mencionadas son suficientes pero no necesarias. e Observe que el primer momento es la esperanza. mientras que el n-´simo momento central es µn . . . E[X(X − 1) · · · (X − n + 1)] es el n-´simo momento factorial de X. . Caracter´ ısticas num´ricas e ´ Definicion. Sea X una variable aleatoria con esperanza µ y sea n un n´mero natural. E(X 2 ).92 2. En el cap´ e ıtulo n sobre funciones generadoras se estudian ciertas funciones asociadas a las distribuciones de probabilidad. el n´mero u u 1.5. e 5. e 3. Cuando existe. Por ejemplo. de manera m´s eficiente.

En general este n´mero no es u necesariamente unico. y P (X ≥ xp ) ≥ 1 − p. y al mismo tiempo acumula a su derecha una probabilidad de por lo menos 1 − p. Usando el concepto de e mediana ejemplificaremos la posible no unicidad de los cuantiles. 1). En e particular al cuantil de orden 1/2 se le llama mediana. La mediana de una variable aleatoria es una medida de tendencia central que permite dividir en dos partes iguales a la distribuci´n de probabilidad o cuando ´sta es continua y estrictamente creciente. Sin embargo. ´ A los cuantiles de orden 1/4. Cualquier n´mero en el intervalo [0. y P (X = 0) = 1/2. y P (X ≥ m) ≥ 1/2. (Cuantil). Se le llama cuantil de orden p de una variable aleatoria X o de su distribuci´n. 1/2 y 3/4 se les llama tambi´n cuartiles. 1] es una mediana u de X. se cumple que el cuantil de cualquier o orden es unico. el cuantil de orden p es aquel n´mero que acumula a su izquierda u una probabilidad mayor o igual a p.Cap´ ıtulo 2. Sea p un n´mero real cualquiera en el intervalo u unitario (0. Sea X es una variable aleatoria discreta tal que P (X = 1) = 1/2. . Es decir. a cualquier n´mero xp que cumpla las condiciones o u P (X ≤ xp ) ≥ p. la mediana es aquel n´mero m que cumple las desigualdades u P (X ≤ m) ≥ 1/2. cuando la correspondiente funci´n de ´ o distribuci´n es estrictamente creciente. Es decir. Variables aleatorias 93 Cuantiles ´ Definicion. Ejemplo.

esto es. . al final del libro. ´ Distribucion uniforme discreta. . La moda de una variable aleatoria o de su distribuci´n.6.6. en situaciones en donde se tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. p3 . Cuando la moda es unica se dice que la distribuci´n es unimodal. y con probabilidades respectivas p1 . Distribuciones discretas Moda La moda es otra caracter´ ıstica num´rica de las variables aleatorias. 2. entonces X tiene una moda en el punto xk si pk−1 ≤ pk ≥ pk+1 . p2 .. discreta o absolutamente continua. o a Por ejemplo. y se e define unicamente para distribuciones discretas o absolutamente continuas ´ de la siguiente forma. Distribuciones discretas En esta secci´n se estudian algunas distribuciones discretas de probabilidad o de uso com´n. Estas distribuciones son ejemplos particulares de medidas u de probabilidad concentradas en un conjunto discreto de n´meros reales. (Moda). Los juegos de loter´ justos son un ejemplo donde puede aplicarse esta disıa . . . u Se presentan estos ejemplos sin hacer mayor ´nfasis en las aplicaciones de e los modelos. En el Ap´ndice A. si X es una variable aleatoria discreta con valores x1 < x2 < x3 < · · · . . es aquel punto donde la o funci´n de densidad tiene un m´ximo local. ´ Definicion. y cuando hay varias modas se ´ o dice que es multimodal. . Esta distribuci´n surge en espacios de o probabilidad equiprobables.94 2. La variable X tiene una distribuci´n o uniforme sobre el conjunto {x1 . xn } si la probabilidad de que X tome cualquiera de estos valores es 1/n. Es evidente que pueden existir varias modas para una misma variable aleatoria. aparecen algunas otras e distribuciones de probabilidad. .

f (x) =  0 otro caso.Cap´ ıtulo 2. . y su funci´n de probabilidad o o es 1/n si x = x1 . . o e u y el resultado fracaso al n´mero 0. Un ensayo Bernoulli es un experimento aleatorio con unicamente dos posibles resultados. la funci´n de probabilidad uniforme sobre el conjunto {1. . Se escribe X ∼ Ber(p) y la o a correspondiente funci´n de probabilidad es o  si x = 0. . . f (x) 1/5 x 1 2 3 4 5 Figura 2. . en el caso general. xn }. . Variables aleatorias 95 tribuci´n. Entonces se dice que X tiene una disu tribuci´n Bernoulli con par´metro p ∈ (0. a a E(X) = y Var(X) = 1 n 1 n n xi . . . . y con probabilidades respectivas p y 1 − p. f (x) = 0 otro caso. Es f´cil ver que.10: Funci´n de probabilidad unif{1. llamados gen´ricamente ´xito ´ e e y fracaso. 5}.  1−p p si x = 1. Se define la variable aleatoria X como aquella funci´n que lleva el resultado ´xito al n´mero 1. 5} o tiene gr´fica como en la Figura 2. 1). Por ejemplo. . . . . .10. Se escribe X ∼ unif{x1 . . i=1 n i=1 (xi − E(X))2 . xn . . o ´ Distribucion Bernoulli.

3 x 0 1 Figura 2. El espacio muestral de este experimento consiste de todas las posibles sucesiones de longitud n de ´xitos y fracasos. y se dice que X tiene una distribuci´n binomial con par´metros n y p. . n. Suponga que se realizan n ensayos independientes Bernoulli en donde la probabilidad de ´xito en cada uno de ellos es e p ∈ (0. o ´ Distribucion geom´trica. . Usando el principio e multiplicativo. Se escribe X ∼ bin(n. . . x f (x) =   0 otro caso. a y Var(X) = p(1 − p).11: Funci´n de probabilidad Ber(p) con p =0.12 se muestra el comportamiento de esta funci´n de probabilidad. o ´ Distribucion binomial. 1. 1).11.7 0. y Var(X) = np(1−p).96 2. Suponga que se tiene una sucesi´n infinita e o de ensayos independientes Bernoulli en donde la probabilidad de ´xito en e . . En particular. entonces la funci´n indicadora 1A es una variable aleatoria con distribuci´n o o Ber(p). . En las gr´ficas de a la Figura 2. es f´cil ver que este conjunto tiene 2n elementos. Se puede demostrar que E(X) = np.6. 1. p).7. . Si ahora se a define la variable aleatoria X como el n´mero de ´xitos en cada una de estas u e sucesiones. o a y su funci´n de probabilidad es o  n   px (1 − p)n−x si x = 0. Es sencillo verificar que E(X) = p. f (x) 0. Distribuciones discretas cuya gr´fica es como en la Figura 2. n. entonces X toma los valores 0. si A es un evento con probabilidad p. .

Variables aleatorias 97 f (x) 0. y su funci´n de o e a o probabilidad es p(1 − p)x 0 si x = 0.4 0. o cada uno de ellos es p ∈ (0. otro caso.1 1 2 3 4 5 6 7 8 9 10 x Figura 2.Cap´ ıtulo 2. .3 0.5 Figura 2. . o Para esta distribuci´n se puede demostrar que E(X) = (1−p)/p. f (x) = f (x) 0. y Var(X) = o (1 − p)/p2 .1 n = 10 p = 0.2 0. .3 0. En algunos textos se define tambi´n la distribuci´n geom´trica e o e .12: Funci´n de probabilidad bin(n.4. Se define X como el n´mero de fracasos u antes de obtener el primer ´xito. Se dice entonces que X tiene una distrie buci´n geom´trica con par´metro p.13: Funci´n de probabilidad geo(p) con p =0.3 x f (x) 0.3 0. Se escribe X ∼ geo(p). 1).2 0. p).2 0.1 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 x n = 10 p = 0. 1.

La variable aleatoria discreta X tiene una distribuci´n Poisson con par´metro λ > 0. Suponga que se tiene una sucesi´n o infinita de ensayos independientes Bernoulli en donde la probabilidad de ´xito en cada ensayo es p ∈ (0. . Se dice entonces que X tiene una distribuci´n e e o binomial negativa con par´metros r y p. Esta distribuci´n fue descubierta por Sime´n Denis Poisson en 1873 como o o l´ ımite de la distribuci´n binomial. . Sea X el n´mero de fracasos antes de e u obtener el r-´simo ´xito.14: Funci´n de probabilidad Poisson(λ) con λ = 2. 1). La gr´fica de la funci´n de a o probabilidad Poisson se muestra en la Figura 2. f (x) 0.2 0. . 2.3 0. p). la funci´n de probabilidad es f (x) = p(1 − p)x−1 . ´ Distribucion Poisson. o La media es entonces 1/p y la varianza es como antes. y su a . Distribuciones discretas como el n´mero de ensayos. 1.98 2. En u e tal caso. otro caso. Puede o e demostrarse que E(X) = λ.14.1 1 2 3 4 5 6 7 8 x Figura 2. Se escribe X ∼ bin neg(r. y se escribe X ∼ Poisson(λ) si su o a funci´n de probabilidad es o  x  e−λ λ x! f (x) =  0 si x = 0. y Var(X) = λ. . para x = 1. (y no el de fracasos). .. o ´ Distribucion binomial negativa. antes del primer ´xito. . al respecto v´ase el ejercicio 223.6.

y Var(X) = r(1−p)/p2 . Para r = 3 y p =0. Suponga que se tiene un conjunto de N e objetos de los cuales K son de una primera clase. n. Suponga que de este conjunto se toma una muestra de tama˜o n. Decimos que X tiene una distribuci´n hipergeom´trica o e con par´metros N .15. Variables aleatorias funci´n de probabilidad es o  r+x−1   x f (x) =   0 99 pr (1 − p)x si x = 0. 1 . . Entonces X puede tomar los valores 0. .2. se escribe X ∼ hipergeo(N. suponiendo n ≤ K.2.Cap´ ıtulo 2. Se puede demostrar que E(X) = r(1−p)/p. f (x) 0.06 0. 1. p) con r = 3 y p =0. Es claro que esta distribuci´n es una generalizaci´n de la distribuci´n geom´trica.04 0. K y n. y N −K son de una segunda clase. otro caso.15: Funci´n de probabilidad bin neg(r. la o o o e cual se obtiene cuando el par´metro r toma el valor 1. . . . n). Se define X como el n´mero de objetos de la primera clase contenidos en u la muestra seleccionada. o ´ Distribucion hipergeom´trica. a la funci´n de probabilidad binomial negativa tiene la forma como en la o Figura 2. . y su funci´n a o de probabilidad es . sin n reemplazo y en donde el orden de los objetos seleccionados no importa. K.02 x 5 10 15 20 25 30 Figura 2.

n. . otro caso. y 0 1 2 3 4 5 Figura 2.1 x N = 20 K=7 n=5        0 N n N −K n−x     si x = 0.16.16: Funci´n de probabilidad hipergeo(N. Algunas otras distribuciones continuas que surgen en la estad´ ıstica ser´n estudiadas en el Cap´ a ıtulo 5. .3 0.4 0. N N N −1 E(X) = n f (x) 0.100         2. n). K. Distribuciones continuas Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias absolutamente continuas. .7. Distribuciones continuas   K x     f (x) = La gr´fica de esta funci´n se muestra en la Figura 2. o 2. 1. Es posible comprobar a o que K .7.2 0. N K N −K N −n Var(X) = n . . .

a ´ Distribucion gama.18. cuando su o funci´n de densidad es o 1 b−a f (x) =  0   si x ∈ (a. Variables aleatorias 101 ´ Distribucion uniforme continua. La variable continua X tiene una distribuci´n exponencial con par´metro λ > 0 y se escribe X ∼ exp(λ) cuando tiene o a funci´n de densidad o λe−λx 0 si x > 0. y Var(X) = (b − a)2 /12. La gr´fica de esta funci´n de densidad se muestra en la Figura 2. En este caso es inmediato verificar que E(X) = (a + b)/2. La variable aleatoria X tiene distribuci´n uniforme en el intervalo (a. y Var(X) = o 1/λ2 . otro caso. b). La variable aleatoria continua X tiene distribuci´n o .17 a o f (x) 1 b−a a b x Figura 2.Cap´ ıtulo 2. f (x) = Para esta distribuci´n es muy sencillo verificar que E(X) = 1/λ. b) y se escribe X ∼ unif(a. Su gr´fica se muestra en la Figura 2. b).17: Funci´n de densidad unif(a. b). o ´ Distribucion exponencial. si x ≤ 0.

19.102 2. b) Γ(n + 1) = n! para n entero positivo.7. para valores de n tal que la integral es convergente. . si x ≤ 0. Distribuciones continuas f (x) λ x Figura 2. c) Γ(2) = Γ(1) = 1. λ). √ d) Γ(1/2) = π. o gama con par´metros n > 0 y λ > 0 si su funci´n de densidad es a o   (λx)n−1 −λx  λe Γ(n) f (x) =   0 si x > 0. El t´rmino Γ(n) es la funci´n gama definida como sigue e o Γ(n) = 0 ∞ tn−1 e−t dt. Esta funci´n satisface o las siguientes propiedades: a) Γ(n + 1) = nΓ(n). En tal caso se escribe X ∼ gama(n.18: Funci´n de densidad exp(λ). La gr´fica de esta funci´n se muestra a o en la Figura 2.

El t´rmino B(a. n). a ´ Distribucion beta. o Nota. B(a. En ocasiones se usa el o par´metro 1/θ en lugar de λ. 3). λ) a o se reduce a la distribuci´n exp(λ). λ=5 f (x) λ=4 λ=3 f (x) n=5 n=7 n = 10 x n=5 λ=3 x Figura 2. En la Figura 2. y se a e o . Variables aleatorias 103 Observe que cuando el par´metro n toma el valor 1. es decir.19: Funci´n de densidad gama(n. b) cuando su funci´n de a o densidad es  1   xa−1 (1 − x)b−1 si 0 < x < 1. b) se conoce como la funci´n beta. y se escribe X ∼ beta(a. b) f (x) =   0 otro caso. λ). los par´metros son a los mismos pero se presentan en el orden contrario. La variable continua X tiene distribuci´n beta con o par´metros a > 0 y b > 0. y Var(X) = n/λ2 . la distribuci´n gama(n.20 se ilustra la forma de esta funci´n para varios valores o de los par´metros.Cap´ ıtulo 2. En ıa o a algunos otros textos aparece como gama(λ. Puede entonces haber confusi´n cuando se escribe por ejemplo gama(2. Resolviendo un par de integrales se puede o demostrar que E(X) = n/λ. La terminolog´ usada para esta distribuci´n no es est´ndar.

a+b ab y Var(X) = . b) = B(b. Γ(a + b) f (x) 3 2 1 a=2 b=6 a=4 b=4 a=6 b=2 a=1 b=1 x 1 Figura 2. o Por simetr´ se tiene que si X tiene distribuci´n beta(a.20: Funci´n de densidad beta(a. Esta es posiblemente la distribuci´n de probabio lidad de mayor importancia.7. b). Para esta distribuci´n se tiene que o o a E(X) = . 2 2πσ .104 2. Se dice que la variable aleatoria continua X tiene una distribuci´n normal o Gausiana si su funci´n de densidad es o o 1 2 2 f (x) = √ e−(x−µ) /2σ . b) = Γ(a)Γ(b) . b) = 0 xa−1 (1 − x)b−1 dx. entonces 1 − X ıa o tiene distribuci´n beta(b. Distribuciones continuas define para a > 0 y b > 0 como sigue 1 B(a. a). o a) B(a. a). b). (a + b + 1)(a + b)2 ´ Distribucion normal. b) B(a. Esta funci´n satisface las siguientes propiedades.

f (x) σ x µ Figura 2. σ2 ). No es dif´ demostrar que E(X) = µ.22. 2π Es posible transformar una variable aleatoria normal no est´ndar en una a .22: Funci´n de densidad N(µ. σ 2 variando x Figura 2. σ2 ) variando los par´metros.21: Funci´n de densidad N(µ. o f (x) f (x) x µ variando. En este caso se escribe a X ∼ N(µ. y Var(X) = σ 2 . en ella a o se muestra el significado geom´trico de los par´metros.Cap´ ıtulo 2.21. o a En particular se dice que X tiene una distribuci´n normal est´ndar si µ = 0 o a 2 = 1. La ıcil gr´fica de la funci´n de densidad normal aparece en la Figura 2. σ 2 constante µ constante. Cuando se hacen e a variar estos par´metros la funci´n de densidad cambia como se ilustra en la a o Figura 2. En este caso particular. σ 2 ). Variables aleatorias 105 en donde µ ∈ R y σ 2 > 0 son dos par´metros. la funci´n de densidad se reduce a la y σ o expresi´n m´s sencilla o a 1 2 f (x) = √ e−x /2 .

En una tabla al final del texto pueden encontrarse estos valores aproximados. σ 2 ). 2π Φ(x) x ´ Figura 2. σ 2 ) ⇐⇒ Z = X −µ ∼ N(0. 1). En particular la funci´n Φ(x) denota la funci´n o a o o de distribuci´n de una variable aleatoria normal est´ndar.7. o o Los valores de esta funci´n no pueden encontrarse de manera expl´ o ıcita. y su funci´n de o o densidad es  (ln y − µ)2   √1 exp (− ) si y > 0. X ∼ N(µ. o a x Φ(x) = P (Z ≤ x) = −∞ 1 2 √ e−u /2 du. ´ Distribucion log normal. Distribuciones continuas est´ndar mediante la siguiente operaci´n llamada estandarizaci´n.106 2. σ Com´nmente se usa la letra Z para denotar una variable aleatoria con disu tribuci´n normal est´ndar. entonces la o variable Y = eX tiene una distribuci´n log normal(µ. σ 2 ). es decir. o ´ Proposicion.23: Area cubierta por la funci´n de distribuci´n Φ(x) = P (Z ≤ x). La dea o o mostraci´n de este resultado es elemental y se deja como ejercicio. 2σ 2 y 2πσ 2 f (y) =   0 si y ≤ 0. asi es que se usan m´todos num´ricos para aproximar la integral para distintos e e valores de x. . Si X tiene distribuci´n N(µ.

σ2 ) con µ = 3 y σ2 = 2. Se a o puede demostrar que E(Y ) = exp(µ + σ 2 /2). .025 y 5 10 15 20 25 Figura 2.24.24: Funci´n de densidad log normal(µ. y Var(Y ) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ).Cap´ ıtulo 2. Variables aleatorias 107 La gr´fica de esta funci´n de densidad se muestra en la Figura 2. f (y) 0. o Algunas otras distribuciones continuas de inter´s se encuentran en el cap´ e ıtulo sobre distribuciones muestrales.

Demuestre que X es variable aleatoria si. Por lo tanto toda funci´n medible respecto de esta σ-´lgebra en A o a toma a lo sumo dos valores distintos. y s´lo si. y s´lo si. Ω}. Demuestre que la funci´n identidad X(ω) = ω no es variable aleatoria o cuando Ω = {1. . y considere el espacio meo dible (Ω. . . {1}. Demuestre que X es variable aleatoria si.8. 93. Sea A1 . y s´lo si. 95.8. 3} y F = {∅. y s´lo si. F ) un espacio medible tal que F = {∅. Demuestre que X es variable aleatoria si. Ejercicios 2. X es constante. Demuestre que X es variable aleatoria si. . (X < x) ∈ F para o cada n´mero real x. . X es constante en cada elemento de la o partici´n. Considere la funci´n o identidad X(ω) = ω. o o 94. F ). 92. Ac } con A ⊆ Ω. {0}. A. (a < X < b) ∈ F o para cada intervalo (a.108 2. En consecuencia. Demuestre que toda funci´n medible X : Ω → R es constante en A y o c . 1} y F = {∅. Ejercicios Variables aleatorias 91. con F = {∅. (X > x) ∈ F para o cada n´mero real x. 1}. . y s´lo si. . u 98. An }. {2. . An una partici´n finita de Ω. y s´lo si. {−1. Ω}. Sea (Ω. 3}. con F = σ{A1 . . El siguiente ejercicio generaliza este resultado. Demuestre que X : Ω → R es variable aleatoria si. Ω}. Ω. X toma a lo sumo n valores distintos. Demuestre que la funci´n X : Ω → R es variable aleatoria si. o 96. b) de R. u 97. 0. Considere el espacio medible (Ω. Demuestre que X 2 es variable aleatoria pero X no lo es. u 99. 2. . Sea Ω = {−1. (X ≥ x) ∈ F para o cada n´mero real x. F ).

Sea A ⊆ Ω. entonces tambi´n lo son X n y 2X 3 − 5X. Sean X y Y variables aleatorias. tanto X + = o m´x{0.a. y s´lo si. Sean A. 105. X}. c}. lo son. denotada por ⌊X⌋.a. B son medibles. Sea c una constante y X una variable aleatoria. X} como X − = − m´ a ın{0. Demuestre directamente que tanto m´x{X. 102. Demuestre que X es variable aleatoria si. es decir. Demuestre directamente que las siguientes funciones tambi´n son variables aleatorias: e cX. m´x{X. 107. B medibles ⇒ 1A + 1B es v. Y } como m´ a ın{X. b dos n´meros reales u distintos. a) A. 109. . 104. toma un n´mero numerable de valores. es una variable aleatoria discreta. Demuestre directamente que la diferencia de dos variables aleatorias es variable aleatoria. Sean A. m´ a ın{X.a. Variables aleatorias 109 100. B ⊆ Ω. ⇒ A. b) 1A + 1B es v. Demuestre en cada caso. Demuestre que el conjunto de variables aleatorias definidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y producto por escalares. 101. V´ase el o e ap´ndice al final del texto para la definici´n y algunas propiedades de e o la funci´n indicadora. Y } son variables aleatorias. Demuestre que a1A + b1B es v. e 106. el conjunto A es medible. u 103. Demuestre que la funci´n indicadora 1A : Ω → R es o variable aleatoria si. B subconjuntos disjuntos de Ω y sean a. Demuestre directamente que si X es variable aleatoria. X + c. ⇔ A. Demuestre que la parte entera de X. c}. Sea X una variable aleatoria cualquiera. y s´lo si. o 108.Cap´ ıtulo 2. B son medibles. Diga falso o verdadero.

Xn variables aleatorias. 113. Sugerencia: Demuestre que la colecci´n B = {B ∈ B(R) : o g−1 B ∈ B(R)} coincide con B(R) usando los siguientes dos resultados: (1) Dada una funci´n continua de R en R. 112. 1A − 1B y 1A 1B son variables aleatorias. 117. Demuestre que g(X) = g ◦ X : Ω → R es tambi´n una variable e aleatoria. . y cos X son variables aleatorias. 111. Demuestre que los conjuntos (X ≤ Y ≤ Z). sen X. Y y Z tres variables aleatorias. y sean 1A y 1B las correspondientes funciones indicadoras. Proporcione un ejemplo en el que X 2 es o variable aleatoria pero |X| no lo es. . (X − Y > 0). . Demuestre que las funciones eX .110 2. . . . . Sean X. Demuestre que los conjuntos (X ≤ Y ). Sean X1 . . 116. y sean a1 . . Demuestre que . ⇔ A1 . .8. Sea X una variable aleatoria y g : R → R una funci´n Borel medio ble. . (X = Y = Z) y (X > Y > Z) son eventos. 114. Sean X y Y dos variables aleatorias. . Sean A1 . Ejercicios Una de estas implicaciones resulta falsa cuando se omite la condici´n o de que los n´meros a y b son distintos. . la imagen inversa o de un conjunto abierto es nuevamente un conjunto abierto. (X − Y < 1). . Sean A y B dos eventos. ¿Cu´l de ellas es? u a 110. an constantes distintas. (2) Todo conjunto abierto de R distinto del vac´ puede expresarse como una ıo uni´n numerable de intervalos abiertos.a. An son medibles. (X = Y ). An subconjuntos disjuntos de Ω. o 115. . . Sea X : Ω → R una funci´n. Directamente de la definici´n demuestre que las funciones o 1A + 1B . Demuestre que n i=1 ai 1Ai es v. Sea X una variable aleatoria. (X ≥ Y ) y (X = Y ) son eventos.

y s´lo si. 119. ¯ (Xi − X)2 es v. Sea X una variable aleatoria con valores en el conjunto {0. . y es la m´ ınima σ-´lgebra respecto de la cual a X es variable aleatoria. Demuestre que (X)10 es tambi´n o e variable aleatoria. entonces signo(X) tambi´n e lo es. . Se define la funci´n signo como sigue o   +1 −1 signo(x) =  0 si x > 0.  b si X > b. si x = 0. Demuestre que las siguientes funciones son variables aleatorias. P ) un espacio de probabilidad. y sea X : Ω → R una funci´n. Sea (Ω.}. A esta colecci´n a o o se le denota por σ(X). 0 si |X| > a. c) Y = X si |X| ≤ a. b) Y = X si a ≤ X ≤ b.a. F . Variables aleatorias 1 ¯ a) X = n b) S2 n 111 Xi i=1 n i=1 es v. 121. Demuestre que la colecci´n {X −1 B : B ∈ B(R)} es una sub o o σ-´lgebra de F si. .Cap´ ıtulo 2. a si X ≥ a. ¿Es cierto el rec´ ıproco? 120. 1 = n−1 118. 1. Demuestre que si X es variable aleatoria. . Sea X una variable aleatoria. X es variable aleatoria. si x < 0.a. suponiendo a > 0.   a si X < a. y sean a < b dos constantes. Sea (X)10 el valor de X m´dulo 10. a) Y = X si X < a.

si x > 0. o a) F (x) = b) F (x) = 1 − e−x 0 e−1/x 0 2  si x < −1. d) F (x) = ex /(ex + e−x ). para x ∈ R. A esta e funci´n se le llama medida de probabilidad inducida por X. si x ≤ 0. si x > 0. y sea X : Ω1 → Ω2 una funci´n medible. Medida de probabilidad inducida. a) σ(cX) = σ(X).112 2. Grafique y demuestre que las siguientes funciones son de distribuci´n. Sea c una constante distinta de cero. si x > 0. o para cualquier A en F2 se cumple que X −1 A ∈ F1 . Investigue si las siguientes funciones son de distribuci´n. 1 − (1 + x)e−x 0 125. o a) F (x) = b) F (x) = 1 − e−x 0 si x > 0. 1] es tambi´n una medida de probabilidad. Funci´n de distribuci´n o o 124.  0 c) F (x) = (x + 1)/2 si x ∈ [−1. si x ≤ 0. Ejercicios 122. c) σ(X) = σ(X 2 ).8. F1 ) y (Ω2 . si x ≤ 0. F2 ) dos espacios medibles.  1 si x > 1. c) F (x) = ex /(1 + ex ). es decir. 1]. Suponga que P : F1 → [0. y sea X una variable aleatoria. para x ∈ R. Demuestre que P ◦ X −1 : F2 → [0. Demuestre o proporcione un contraejemplo. 1] es una medida de probabilidad. b) σ(X + c) = σ(X). Sean (Ω1 . si x ≤ 0. o 123. .

   1 si x ≥ 4. Sean F (x) y G(x) dos funciones de distribuci´n. P (X = 4) y P (X ≥ 3). Demuestre que esta funci´n cumple todas o las propiedades de una funci´n de distribuci´n. P (4 < X < 6) y P (X = 2). P (X > 1). Sea F (x) una funci´n de distribuci´n continua. En la escuela rusa de probabilidad se define la funci´n de distribuci´n o o de una variable aleatoria X como G(x) = P (X < x). b) F (x) + G(x). o a) aF (x) + (1 − a)G(x). Grafique F (x) o o y demuestre que es efectivamente una funci´n de distribuci´n.5 si 1 ≤ x < 3. Calcule o o adem´s P (X ≤ 1). o 128.  0    0.Cap´ ıtulo 2.   0. 129. 130. P (0 < X < 3). 2 1 − 4/x si x ≥ 2. las siguientes funciones tambi´n son de e distribuci´n. a F (x) = 0 si x < 2. Variables aleatorias 113 126.9 si 3 ≤ x < 4. con 0 ≤ a ≤ 1. .  F (x) = 0. 2 G(x) d) . Sea X con funci´n de distribuci´n la especificada abajo. Determine si las sio guientes funciones son de distribuci´n. Calcule o o adem´s P (X ≤ 4). Demuestre que pao o ra cualquier entero n ≥ 1. Grafique F (x) o o y demuestre que es efectivamente una funci´n de distribuci´n. c) F (x)G(x). P (X = 1).2 si 0 ≤ x < 1. a  si x < 0. 1 + F (x) 127. Sea X con funci´n de distribuci´n la especificada abajo. Observe el signo “<” en lugar de “≤”. excepto que ahora la o o continuidad es por la izquierda.

con a. h) Y = −X. deo o muestre en cada caso. a si X ≥ a. X}. Demuestre que .   a si X < a. 2 2 132. Diga falso o verdadero. 0 si |X| > a. f ) Y = X − = − m´ X. b) Y = e g) Y = |X|. con a > 0. b constantes. d) Y = X 2 . a) F (x) = P (X < x) + P (X = x). c) Y = X si |X| ≤ a. c) Y = e−X .114 a) [F (x)]n . Sea X con funci´n de distribuci´n F (x). e) Y = X + = m´x{0. 2. o o Calcule la funci´n de distribuci´n de Y en t´rminos de la funci´n o o e o de distribuci´n de X. c) 1 − P (X < x) − P (X > x) = P (X = x). Sea X con funci´n de distribuci´n FX (x). a j) Y = cos X.  b si X > b. b) Y = X si a ≤ X ≤ b. y sean a < b dos constantes. 1 1 d) F (x) − P (X = x) = (F (x) + F (x−)). b) 1 − F (x) = P (X ≥ x). i) Y = sen X.8. Para todo x ∈ R. Sean F (x) y G(x) dos funciones de distribuci´n continuas y estrictao mente crecientes. Ejercicios 131. 134. b) 1 − [1 − F (x)]n . Encuentre la funci´n de distribuci´n de la variable Y en t´rminos de o o e la funci´n de distribuci´n de X cuando o o ın{0. X}. a) Y = X si X < a. a) Y = aX + b. 133. y muestre gr´ficamente el comportamiento de o a FY (y) en los puntos a y b.

c ex . Encuentre la constante c que hace a f (x) una funci´n de probabilidad. c f ) f (x) = √ . . y son o tales que X ≤ Y . o a) f (x) = c x2 . para 0 < x < 1. para 0 < x < 1. para x = 1. para x = 1. para x = 1. Encuentre la constante c que hace a f (x) una funci´n de densidad. P (X = x0 ) = 0. o o 2 . . . c) f (x) = c x−2 . 2. .Cap´ ıtulo 2. Encuentre la correspondiente funci´n de distribuci´n y demuestre que ´sta es o o e efectivamente una funci´n de distribuci´n. 135. Demuestre que las siguientes funciones son de densidad. Sea X con funci´n de distribuci´n F (x). c) f (x) = c/x!. entonces Y = G−1 (F (X)) o o tiene funci´n de distribuci´n G(x). entonces existen variables aleatorias X y Y cuyas funciones de distribuci´n son F (x) y G(x) respectivamente. 2. para x ∈ R. . entonces F −1 (y) ≤ G−1 (y). o a) f (x) = c . x(x + 1) b) f (x) = c e−x . Variables aleatorias a) si F (x) ≥ G(x). 2. b) f (x) = c xe−2x . . 137. para x > 1. d) f (x) = (1 + ex )2 e) f (x) = c x(1 − x). . Grafique ambas funciones. . para 0 < x < 1. o o c) si F (x) ≥ G(x). 1 + x2 138. Sugerencia: Use el inciso anterior. para x ∈ R. 115 b) si X tiene funci´n de distribuci´n F (x). . Tipos de variables aleatorias 136. para x > 0. Demuestre que F (x) es cono o o tinua en x = x0 si. y s´lo si. 1 − x2 c g) f (x) = .

para x ∈ (0. 1). 1). f ) f (x) = e|x| /2. Ejercicios a) f (x) = 2x. d) F (x) = 2 −∞   0 b) F (x) = x  1 si x ≤ 0. si 0 < x < 1. Demuestre en cada caso. Diga falso o verdadero. para x ∈ (0. e) f (x) = 1/(1 − x)2 . Demuestre que las siguientes funciones son de distribuci´n. m). y sea Y = aX +b con a y b constantes. Demuestre que si a = 0. b) f (x) = 3x2 /2. entonces fY (y) = 1 fX ((y − b)/a). para x ∈ (0. para x ∈ R. 1 x −|u| e du.8. o a) F (x) = 0 1 si x < 0. 2). Sea X absolutamente continua. c) f (x) = 1 − x/2. |a| . o o 142. d) f (x) = 2x/m2 . para x ∈ (0. Encueno tre la correspondiente funci´n de densidad y compruebe que ´sta es o e efectivamente una funci´n de densidad. con m > 0. Grafique ambas funciones. a) Toda funci´n de densidad es acotada. o Demuestre que f (x + c) es tambi´n una funci´n de densidad. 1/2). 139. o b) Toda funci´n de distribuci´n es acotada. e o 141. si x ≥ 1. si x ≥ 0. para x ∈ (−1. c) F (x) = ex /(1 + ex ). Sea f (x) una funci´n de densidad y sea c una constante cualquiera.116 2. 140.

u ∞ −∞ F n (x) dF m (x) = m . Esto lleva a la conclusi´n de que o ∞ A ) = 0. Demuestre que u ∞ −∞ 1{a} (x) dF (x) = P (X = a).b) (x) dF (x) = P (a < X < b). 147. Ahora compruebe que los P (An ) = 0 y por lo tanto P (∪n=1 n eventos (X > 0) y ∪∞ An coinciden. Variables aleatorias 117 Igualdad de variables aleatorias 143. Sea X una variable aleatoria con funci´n de distribuci´n F .Cap´ ıtulo 2. Alternativamente puede usarse n=1 la desigualdad de Markov (ver p´gina 347). ¿Cumple tal propiedad la igualdad en distrio buci´n? o 144.s. Demuestre que la igualdad casi segura de variables aleatorias es una relaci´n de equivalencia. Demuestre o o que para cualesquiera n´meros naturales n y m. y sea a o o cualquier n´mero real. Sea F una funci´n de distribuci´n absolutamente continua. y sea o o (a. 146. Sea X ≥ 0 tal que E(X) = 0. n+m . a Integral de Riemann-Stieltjes 145. Sea X una variable aleatoria con funci´n de distribuci´n F . Compruebe que E(X) ≥ E(X · 1An ) ≥ P (An )/n. b) ⊆ R. Demuestre que X = 0 c. Demuestre que ∞ −∞ 1(a. Sugerencia: Para cada natural n defina el evento An = (X ≥ 1/n).

para x ∈ Z \ {0}. Sean X y Y con esperanza finita. d) Si X ≥ 0. −1. entonces E(X) ≤ E(Y ). . Calcule la esperanza de una variable aleatoria cuya funci´n de distrio buci´n es o 1 − e−x /2 si x > 1. . F (x) = 0 si x ≤ 1. para x = −2. 1. 1 . entonces E(X) ≥ 0. para x ∈ R.118 Esperanza 2. . 0. Ejercicios 148. b) E(cX) = cE(X). 151. π(1 + x2 ) . 149.8. e) Si X ≤ Y . y sea c una constante. 2. d) f (x) = e−|x| /2. Demuestre que a) E(c) = c. Calcule la esperanza de X cuya funci´n de probabilidad o de densidad o es a) f (x) = 1/5. c) E(X + c) = E(X) + c. para x ∈ R. b) f (x) = e−1 /x!. 150. Demuestre que no existe la esperanza de X cuando su funci´n de o probabilidad o de densidad es a) f (x) = b) f (x) = 3 π 2 x2 . 1. para −1 < x < 1. para x = 0. 2. c) f (x) = |x|. f ) |E(X)| ≤ E|X|.

Si un jugador lanza la moneda y requiere de n lanzamientos para que se cumpla la condici´n. b) E(m´x{X. Demuestre que a) E(m´ ın{X. Demuestre que a) l´ ım b) l´ ım E(X n+1 ) = xk . Sea X una variable aleatoria discreta con esperanza finita. pero en este ejercicio se a pide obtener el resultado sin usar dicha desigualdad. . ¿Cu´l debe ser el o a pago inicial justo para ingresar a este juego? o o 153. Un juego consiste en lanzar una moneda equilibrada repetidas veces hasta que una de las caras.Cap´ ıtulo 2. E(X | Ai )P (Ai ). . entonces recibe 2n unidades monetarias. discreta y con esperanza finita. Y }) ≤ m´ ın{E(X). . Y }) ≥ m´x{E(X). Sea {A1 . Para cualquier evento A con probabilidad positiva defina E(X | A) = Demuestre que E(X) = ∞ i=1 x xP (X = x | A). 154. 156. seleccionada previamente. Sean X y Y con esperanza finita. Este resultado puede ser demostrado usando la desigualdad de Jensen (ver p´gina 127). Variables aleatorias 119 152. a a 155. n→∞ E(X n ) n n→∞ E(X n ) = x1 . Sea X > 0. . E(Y )} ≤ E(X). La paradoja de San Petersburgo. E(Y )} ≥ E(X).} una colecci´n de eventos que forman una partici´n de Ω tal que cada elemento de la partici´n tiene probabilidad estrico tamente positiva. Demuestre directamente que E(X)E(1/X) ≥ 1. Sea X discreta con valores no negativos x1 ≤ x2 ≤ · · · ≤ xk . aparezca por primera vez. A2 .

v´ase [4]. ım El rec´ ıproco sin embargo es falso. u se cumple la desigualdad P (X ≥ k) ≤ pk . Deo o muestre que E(X) = 0 ∞ 0 [1 − F (x)]dx − F (x)dx. Ejercicios 157. Demuestre u que ∞ n=1 (n − 1)1An ≤ X < ∞ n1An . o 158. Para cada n´mero natural n defina el evento An = (n − 1 ≤ X < n). . Sea X ≥ 0 con esperanza finita no necesariamente discreta. n=1 Ahora demuestre las desigualdades ∞ n=1 P (X ≥ n) ≤ E(X) < 1 + ∞ n=1 P (X ≥ n). y con esperanza finita. entonces E(X) = (1 − p)/p.8. Sea X con funci´n de distribuci´n F (x). Sea X discreta con valores 0.. 160. . para cada k = 0. ım x→∞ b) x→−∞ l´ x F (x) = 0. . . entonces a) l´ x (1 − F (x)) = 0. −∞ . 1). Sea X ≥ 0 con esperanza finita. 1. n=0 Use esta f´rmula para demostrar que o a) si X tiene distribuci´n geo(p). Demuestre que E(X) = ∞ n=1 P (X ≥ n) = ∞ P (X > n). 1. . 159. Demuestre que si X tiene o o esperanza finita.120 2. y con esperanza finita. . e 161. o b) si X tiene distribuci´n Poisson(λ). Sea X con funci´n de distribuci´n F (x). Demuestre que E(X) ≤ 1/(1 − p). entonces E(X) = λ. y suponga que para alg´n p ∈ (0.

164. . 163. entonces E(X) = n/λ. µ y G(y) =  0 si y ≤ 0.25: La esperanza como la diferencia de dos ´reas. Demuestre que µ Demuestre que la esperanza de esta distribuci´n es 2 E(X 2 )/µ. Demuestre que la siguiente funci´n es de distribuci´n. Sea X con funci´n de distribuci´n continua F (x). o b) si X tiene distribuci´n gama(n.Cap´ ıtulo 2. Variables aleatorias 121 Gr´ficamente estas integrales pueden interpretarse como se indica en a la Figura 2. entonces E(X) = 1/λ. Sea X una variable aleatoria no negativa con funci´n de distribuci´n o o continua F (x) y con esperanza finita µ. λ). Sugerencia: Considere X tal que P (X = −1) = 1/2. o o  ∞  1− 1 (1 − F (x)) dx si y > 0. o 162. Demuestre que la condici´n E(X) = 0 no implica que X es sim´trica o e alrededor de cero. supoo niendo que el segundo momento de X es finito. F (x)dx = −∞ ∞ µ [1 − F (x)]dx. F (x) 1 + − x a Figura 2. y con esperanza o o finita µ.25. Use esta f´rmula para demostrar que o a) si X tiene distribuci´n exp(λ).

27.8. P (X = 1) = 1/4 y P (X = 2) = 1/8. Demuestre que si X = 0 c. Sean X y Y con esperanza finita tales que X = Y c. o o 166.122 2.26: Una funci´n de distribuci´n continua.27: Una funci´n de distribuci´n mixta. o o 167. o que no sea sim´trica? e 165. a o F (x) 1 1/2 x −3 −2 −1 1 2 3 Figura 2.26. . o a F (x) 1 3/4 2/4 1/4 x 1 2 3 Figura 2. entonces E(X) = 0. 168. Calcule la esperanza de una variable aleatoria con funci´n de distrio buci´n dada por la gr´fica de la Figura 2.s.. Ejercicios P (X = 0) = 1/8. ¿Puede usted construir un ejemplo de una distribuci´n continua con esperanza cero. Calcule y grafique o a adem´s la correspondiente funci´n de densidad. Demuestre que E(X) = E(Y ). Calcule la esperanza de una variable aleatoria con funci´n de distribuo ci´n continua dada por la gr´fica de la Figura 2.s.

. a) Var(X) ≥ 0. b) 0 ≤ Var(X) ≤ (b − a)2 /4. Variables aleatorias 123 Varianza 169. 2. b]. para −1 < x < 1. Demuestre que g(u) se minimiza cuando u = a E(X). Sea X con valores en [a. Sea X con varianza finita y sea c una constante. c) Var(X + c) = Var(X). Use la desigualdad de Chebyshev para demostrar que Var(X) = 0 si. 174. para cualquier valor real de u. para x = −2. Sea X con segundo momento finito. Var(X) ≤ E[(X − u)2 ]. Demuestre que E(X − c)2 = Var(X) + (E(X) − c)2 . d) f (x) = e−|x| /2. b) Var(cX) = c2 Var(X). 0. Demuestre que a) a ≤ E(X) ≤ b. 2. 170. Calcule la varianza de X cuya funci´n de probabilidad o de densidad o es a) f (x) = 1/5. o 172. b) f (x) = e−1 /x!. ´ ´ 173. c) f (x) = |x|. y s´lo si. 171. 1.Cap´ ıtulo 2. Minimizacion del error cuadratico medio. X es constante. . 1. para x = 0. d) Var(X) = E(X 2 ) − E 2 (X). A la funci´n g(u) = E[(X − u)2 ] se le conoce como o error cuadr´tico medio. En consecuencia. . para x ∈ R. Demuestre las siguientes propiedades de la varianza. −1. . Sean X y Y con varianza finita y sea c una constante.

. Y }). demuestre en cada caso. Demuestre que Var(XY ) = Var(X) Var(Y ) + E 2 (X) Var(Y ) + E 2 (Y ) Var(X). a) Var(X + c) = Var(X − c). a) E(m´ ın{X. a b) Var(X + Y ) ≤ 2 ( Var(X) + Var(Y ) ). a 178. Diga si las siguientes desigualdades son falsas o verdaderas. y sea c una constante cualquiera. a}) ≤ Var(X) ≤ Var(m´x{X. 180. c) Var(X + Y ) ≤ Var(X) + Var(Y ). b) Var(|X|) ≤ Var(X). a) Var(m´ ın{X. b) Var(X) ≤ E(X 2 ). a b) Var(m´ ın{X. Sugerencia: Var(|X − µ|) ≥ 0. c) Var(|X − c|) ≤ Var(X). Demuestre que E|X − µ| ≤ σ. Y }) ≤ Var(X) ≤ Var(m´x{X. a}).8. 176. Calcule la varianza de una variable aleatoria cuya funci´n de distrio buci´n est´ dada por la gr´fica de la Figura 2. demuestre en cada caso. Sea X una variable aleatoria con varianza finita. entonces Var(X) ≤ Var(Y ). y sea a una constante. Diga falso o verdadero. 177. Demuestre en cada caso. a) Si X ≤ Y . demuestre en cada caso. Diga si las siguientes afirmaciones son falsas o verdaderas. c) E 2 (X) ≤ E(X 2 ). 179. Diga si las siguientes afirmaciones son falsas o verdaderas. Sea X con media µ y varianza σ 2 . a}). Sean X y Y con varianza finita. Sea X con varianza finita. o a a 181. a}) ≤ E(X) ≤ E(m´x{X.124 2. Ejercicios 175.28. Sean X y Y independientes y con segundo momento finito.

2. 185. 184. −1. Sea X con distribuci´n sim´trica alrededor de x = 0.Cap´ ıtulo 2. Momentos 183. . Este resultado u establece que si el n-´simo momento de una variable aleatoria es fie nito. 1. u E(X 4 ) ≤ E(X − a)4 . 2. Demuestre que para cualquier e n´mero natural m ≤ n. c) f (x) = |x|. para x = 0. e Sugerencia: |X|m = |X|m · 1(|X|≤1) + |X|m · 1(|X|>1) . Demuestre que | Var(X) − Var(Y )| ≤ Var(X ± Y ) ≤ Var(X) + Var(Y ). .28: Una funci´n de distribuci´n mixta. y con cuarto o e momento finito. b) f (x) = e−1 /x!. para x = −2. Sea X con n-´simo momento finito. 1. 0. para x ∈ R. . entonces todos los momentos anteriores a n tambi´n son finitos. para −1 < x < 1. o o 182. Sean X y Y con segundo momento finito. d) f (x) = e−|x| /2. Demuestre que para cualquier n´mero real a. . se cumple E|X|m ≤ E|X|n . Variables aleatorias 125 F (x) 1 3/4 1/4 x −3 −2 −1 1 2 3 4 Figura 2. Calcule el n-´simo momento de una variable aleatoria cuya funci´n de e o probabilidad o de densidad es a) f (x) = 1/5.

Desarrolle el cuadrado y encuentre una ecuaci´n cuadr´tio a ca en t. es un espacio vectorial. Demuestre que o a) E(1A ) = E(1n ) = P (A). y con segundo momento finito. ¿Qu´ puede decir de su discriminante? e . Sean X y Y con segundo momento finito. . Ejercicios 186. Sea X discreta con valores en el conjunto {0. Desigualdad de Cauchy-Schwarz. 1. A b) Var(1A ) = P (A)(1 − P (A)) ≤ 1/4. Demuestre que E 2 (XY ) ≤ E(X 2 )E(Y 2 ). Para resolver este ejercicio suponga v´lida la propiedad de a linealidad de la esperanza. Espacio L1 . Demuestre que E(X 2 ) = ∞ n=1 (2n − 1)P (X ≥ n). Demuestre que e E |X|n = n ∞ 0 0 −∞ xn−1 (1 − F (x)) dx + n |x|n−1 F (x) dx. Demuestre que E(X 2 ) = 2 0 ∞ xP (X > x) dx. 189. 187.8. 191. . Sea 1A la funci´n indicadora de un evento A. 190. Demuestre que el espacio L1 (Ω.126 2. F . Sugerencia: Para cualquier valor real de t. Sea X ≥ 0 continua y con segundo momento finito. Tal propiedad ser´ demostrada m´s adea a lante. .}. P ) consistente de todas las variables aleatorias X tales que E|X| < ∞. 188. la esperanza de (tX +Y )2 es no negativa. Sea X con n-´simo momento finito.

Vea e o o el siguiente ejercicio para algunos ejemplos particulares de funciones convexas. X}). Desigualdad de Jensen. Esto se muestra en la Figura 2. b) E 2 (X) ≤ E(X 2 ).29: Convexidad. Variables aleatorias u(x) u(a) + (x − a)m u(a) x 127 a Figura 2. 194. para todo x. Sea u una funci´n convexa. 193. Sugerencia: La funci´n u es convexa si para cada a existe un n´mero o u m tal que u(x) ≥ u(a) + (x − a)m. Espacio L2 . Use la desigualdad de Jensen para demostrar que a) eE(X) ≤ E(eX ). a a a constante. y para cualquier t en o el intervalo [0. y sea X una o variable aleatoria con esperanza finita. Alternativamente. Sea X con esperanza finita. una funci´n u es convexa si u(tx + o (1 − t)y) ≤ tu(x) + (1 − t)u(y). 1].29. c) m´x{a.Cap´ ıtulo 2. F . Debe suponerse adem´s que el n´mero tx + (1 − a u t)y pertenece tambi´n al dominio de definici´n de la funci´n. Demuestre que u(E(X)) ≤ E(u(X)). es un espacio vectorial. P ) consistente de todas las variables aleatorias X tales que E|X|2 < ∞. . Use la desigualdad de Cauchy-Schwarz para demostrar que el espacio L2 (Ω. 192. para cualesquiera par de n´meros u x y y dentro del dominio de definici´n de u. E(X)} ≤ E{m´x{a.

196. demuestre a que para cualesquiera n´meros reales x y y. pero el n-´simo momento y e superiores no existen. Sugerencia: Use la desigualdad |xy| ≤ |x|r /r + |y|s /s. este resultado establece que si X y Y tienen r-´simo e momento absoluto finito.8. El caso r = s = 2 corresponde a la desigualdad de Cauchy-Schwarz. Sea X una variable aleatoria con funci´n de densidad dada por o f (x) = n/xn+1 0 si x > 1.128 d) 1 ≤ E(1/X). 195. es decir. y para r y s con las condiciones u mencionadas. en donde cr es una constante dada por cr = 1 2r−1 si 0 < r ≤ 1. E |X + Y |r ≤ cr ( E|X|r + E|Y |r ). 2. n − 1. v´lida para cada t ≥ 0. Desigualdad cr . Sean r y s dos n´meros reales tales que u r > 1 y 1/r + 1/s = 1. entonces X+Y tambi´n. En particular. v´lida para a cualesquiera n´meros reales x y y. Ejercicios suponiendo X > 0. existe k > 0 tal que P (|X| ≤ k) = 1. . si r > 1. 197. Demuestre que si X es una variable aleatoria acotada casi seguramente. Demuestre adem´s que tal variable aleatoria tiene a a momentos finitos de orden 1. Demuestre que E |XY | ≤ (E |X|r )1/r (E |Y |s )1/s . E(X) 2. Demuestre que esta funci´n es de densidad para cualquier valor natural o del par´metro n. |x + y|r ≤ cr ( |x|r + |y|r ). Demuestre que para cada r > 0. entonces todos los momentos de X existen. otro caso. . . . Sugerencia: A partir e de la identidad (1+t)r = cr (1+ tr ). . u ¨ 198. Desigualdad de Holder.

u es cualquier a o otra mediana de X. Calcule los cuartiles de la distribuci´n exponencial de par´metro λ. o a ´ 202. n}. ahora use la desigualdad de H¨lder. . . Demuestre que si m una mediana de X. n}. E 1/r |X + Y |r ≤ E 1/r |X|r + E 1/r |Y |r . Desigualdad de Minkowski. entonces para cualquier n´mero real u. . . A la funci´n g(u) = o E |X − u| se le conoce como error absoluto medio. o a 201. Demuestre que |m − E(X)| ≤ 2 Var(X).Cap´ ıtulo 2. Calcule los cuartiles de la distribuci´n normal est´ndar. Sea X una variable aleatoria con segundo momento finito y sea m una de sus medianas. y s´lo si. Demuestre adem´s que la igualdad se cumple si. . . Se escogen al azar y de manera independiente dos n´meros a y b u dentro del conjunto {1. u E |X − m| ≤ E |X − u|. Minimizacion del error absoluto medio. o Cuantiles 200. Demuestre que o a) E(X) = (n + 1)/2. . b) E(X 2 ) = (n + 1)(2n + 1)/6. Sea X con distribuci´n unif{1. Demuestre que la probabilidad de que el cociente a/b sea menor o igual a uno es (n + 1)/2n. 203. Demuestre que para cada r ≥ 1. Distribuci´n uniforme discreta o 204. Variables aleatorias 199. 129 Sugerencia: E |X + Y |r ≤ E (|X| · |X + Y |r−1 ) + E (|Y | · |X + Y |r−1 ). . c) Var(X) = (n2 − 1)/12. 205. .

}) = (1 − (1 − 2p)n ).8. 212. Sea X con distribuci´n bin(n. e) E(X − np)4 = 3n2 p2 (1 − p)2 + np(1 − p)(1 − 6(1 − p)p). p). Use el teorema del binomio para comprobar que la funci´n de probao bilidad de la distribuci´n bin(n. Ejercicios Distribuci´n Bernoulli o 206. p). p) efectivamente lo es. 1−p x+1 b) P (X = x − 1) P (X = x + 1) ≤ P 2 (X = x). Demuestre que o a) P (X = x + 1) = p n−x P (X = x). Demuestre que E(X n ) = p. Demuestre que o 1 a) P (X ∈ {1. para cada o n ≥ 1. Sea X con distribuci´n bin(n. d) E(X − np)3 = np(1 − p)(1 − 2p). 3. o 211. o 209. b) E(X 2 ) = np(1 − p + np). Obtenga adem´s la correspondiente funci´n de a o distribuci´n. o 207. En particular. 5. Sea X con distribuci´n Ber(p). Distribuci´n binomial o 208. c) Var(X) = np(1 − p). Sea X con distribuci´n bin(n. Demuestre que Y = n − X tiene o distribuci´n bin(n. 1 − p). 2 . Sea X con distribuci´n bin(n. compruebe que Var(X) = p(1 − p). 210. Demuestre que o a) E(X) = np. Compruebe que la funci´n de probabilidad de la distribuci´n Ber(p) o o efectivamente lo es. .130 2. p). Grafique ambas funciones. . p). .

b) Var(X) = (1 − p)/p2 . 216.}) = (1 + (1 − 2p)n ). . 1. Sea X una variable aleatoria discreta con valores en {0. si x < 0. 218.Cap´ ıtulo 2. . . Sea X con dise tribuci´n geo(p). o Use este resultado y la f´rmula del ejercicio 157 para demostrar que o E(X) = (1 − p)/p. Demuestre que la correspondiente funci´n de diso tribuci´n es o F (x) = 1 − (1 − p)⌊x⌋+1 0 si x ≥ 0. 2 213. 1. Se lanza una moneda equilibrada 6 veces. Variables aleatorias 131 1 b) P (X ∈ {0. Esta es la unica distribuci´n discreta con tal propiedad. Demuestre que para cualesquiera x. o 215. ´ 217. . . . Demuestre que o a) E(X) = (1 − p)/p. La distribucion geom´trica no tiene memoria. 4. . . y = 0. 1) tal que X tiene distribuci´n u o geo(p). Sea X con distribuci´n geo(p). La expresi´n ⌊x⌋ denota la parte entera de x. . . Demuestre que existe un n´mero p ∈ (0. Distribuci´n geom´trica o e 214. Sea X con distribuci´n geo(p). se cumple la igualdad P (X ≥ x + y | X ≥ x) = P (X ≥ y). y = 0. Compruebe que la funci´n de probabilidad de la distribuci´n geo(p) o o efectivamente lo es. Demuestre que P (X ≥ n) = (1 − p)n . Calcule la probabilidad de que cada cara se obtenga exactamente 3 veces. . compare con ´ o el siguiente ejercicio. 1. .} y tal que para cualquier x. . o P (X ≥ x + y | X ≥ x) = P (X ≥ y). 2.

Demuestre que para cada k = 0. Sea X con distribuci´n Poisson(λ). . . x+1 b) P (X = x − 1) P (X = x + 1) ≤ P 2 (X = x). b) E(X 2 ) = λ(λ + 1). . k! n→∞ A este resultado tambi´n se le conoce con el nombre de ley de eventos e raros. . . 2. binomial a la dist.}) = (1 + e−2λ ). Ejercicios Distribuci´n Poisson o 219. . 222.132 2. l´ P (Xn = k) = e−λ ım λk . . 2 223.}) = (1 − e−2λ ). Compruebe que la funci´n de probabilidad de la distribuci´n Poisson(λ) o o efectivamente lo es. 4. d) E(X 3 ) = λE(X + 1)2 . c) Var(X) = λ. λ/n) con λ > 0. 220. 221. sea Xn con distribuci´n o bin(n. 3. Sea X con distribuci´n Poisson(λ). Para cada entero positivo n. . Poisson). . Demuestre que o a) P (X = x + 1) = λ P (X = x). Teorema de Poisson (Convergencia de la dist. Demuestre que o a) E(X) = λ. Demuestre que o 1 a) P (X ∈ {1. 2 1 b) P (X ∈ {0. 1. Sea X con distribuci´n Poisson(λ).8. 5. .

b) o o efectivamente lo es. e ´ 228. p). Calcule adem´s la correspondiente funci´n de disa o tribuci´n. l´ P (Xn = k) = e−λ ım λk . n). K. 226. una sucesi´n de variables tal que cada una de o ellas tiene distribuci´n bin neg(n. Distribuci´n uniforme continua o 229. Demuestre que cuano do N y K tienden a infinito de tal forma que K/N → p. Sea X1 . p) con p = n/(λ + n) para alg´n o u λ > 0. Poisson. 225. X2 . Compruebe que la funci´n de probabilidad de la distribuci´n hipero o geom´trica efectivamente lo es. Grafique ambas funciones. Demuestre que o a) E(X) = r(1 − p)/p. 1. . Sea X con distribuci´n bin neg(r. Compruebe que la funci´n de probabilidad de la distribuci´n bin neg(r. Variables aleatorias 133 Distribuci´n binomial negativa o 224. binomial. p) o o efectivamente lo es. Sea X con distribuci´n hipergeo(N. Demuestre que para cada k = 0. hipergeometrica a la dist.K→∞ l´ ım P (X = x) = n x px (1 − p)n−x . .Cap´ ıtulo 2. b) Var(X) = r(1 − p)/p2 . k! n→∞ Distribuci´n hipergeom´trica o e 227. . Convergencia de la dist. binomial negativa a la dist. . . . entonces N. o . Convergencia de la dist. Compruebe que la funci´n de densidad de la distribuci´n unif(a.

Sea X con distribuci´n unif(−1. . b). . 1) y sea 0 < p < 1. . y > 0. 1). 1. a F (x + y) − F (y) = F (x)(1 − F (y)). 1. 1). Distribuci´n exponencial o 236. 1). 2. Sea X con distribuci´n unif(0. si n es impar. bn+1 − an+1 b) E(X n ) = . Demuestre que o a) E(X) = (a + b)/2. b) Y = 4X(1 − X). Demuestre que Y tiene distribuci´n uniforme en el o conjunto {0. Obtenga la distribuci´n de o o a) Y = 10X − 5. La o expresi´n ⌊x⌋ denota la parte entera de x.134 2. . Demuestre que E(X n ) = 1/(n + 1). . Ejercicios 230. Demuestre que la correspondiente funci´n de distrio buci´n es o 1 − e−λx si x > 0. 9}. Compruebe que la funci´n de densidad de la distribuci´n exp(λ) efeco o tivamente lo es. Demuestre adem´s que para cualquier x. (n + 1)(b − a) c) Var(X) = (b − a)2 /12. 233. Sea X con distribuci´n unif(a. . Demuestre que la o variable aleatoria Y = ⌊ln X/ ln(1 − p)⌋ tiene distribuci´n geo(p). 231. . Defina a Y como el primer d´ o ıgito decimal de X. 1). . 234. o 232. o 235. o E(X n ) = 1/n + 1 0 si n es par. Sea X con distribuci´n unif(0. Demuestre que para n = 0. Sea X con distribuci´n unif(0. Sea X con distribuci´n unif(0.8. F (x) = 0 si x ≤ 0.

240. y la o varianza es 1/λ2 . Calcule la esperanza y varianza de la variable m´ ın{X.Cap´ ıtulo 2. 242. La distribuci´n exponencial es la unica distribuci´n absolutamente o ´ o continua que satisface esta propiedad. Demuestre que la esperanza de la distribuci´n exp(λ) es 1/λ. y sea a una constante positiva. Se dice que la variable X tiene una distribuci´n exponencial bilateral o (o exponencial doble) con par´metro λ > 0 si su funci´n de densidad a o es 1 f (x) = λe−λ|x| . Variables aleatorias 135 237. Sea X con distribuci´n exp(λ). al respecto ver el siguiente ejercicio. Sea a > 0. para x ∈ R. Sea X una variable aleatoria con funci´n de distribuci´n continua o o F (x). Demuestre que la variable aleatoria Y = − ln F (X) tiene distribuci´n exponencial con o par´metro λ = 1. es 2/λ 243. 239. ´ 238. ∞). La distribucion exponencial no tiene memoria. y la varianza o 2. a}. Sea X una variable aleatoria con distribuci´n exponencial de par´meo a tro λ. Demuestre que existe una constante λ > 0 tal que X tiene distribuci´n o exp(λ). 2 Demuestre que la esperanza de esta distribuci´n es cero. y > 0 se cumple P (X ≥ x + y | X ≥ x) = P (X ≥ y). Demuestre que o P (X ≥ x + y | X ≥ x) = P (X ≥ y). Demuestre que si X se distribuye exp(λ). estrictamente creciente y tal que 0 < F (x) < 1. . entonces aX se distribuye exp(λ/a). y tal que para cualesquiera x. a 241. Sea X una variable aleatoria absolutamente continua con valores en el intervalo (0.

Demuestre que si X se distribuye gama(n. c) Γ(2) = Γ(1) = 1. λ) o o efectivamente lo es. 1 · 3 · 5 · · · (2n − 1) √ e) Γ(n + 1/2) = π 2n para n entero. . λ). o a) Γ(n + 1) = nΓ(n). λ). b) Γ(n + 1) = n! para n entero. Sea X con distribuci´n gama(n. Recuerde que la funci´n gama se define para cada valor de n tal que o la siguiente integral es convergente Γ(n) = 0 ∞ tn−1 e−t dt. 247. Sea a > 0. λ). entonces aX se distribuye gama(n. . Demuestre que la funci´n de diso o tribuci´n de X es o  n−1  (λx)k  1− e−λx si x > 0. . λ Γ(n) c) Var(X) = n/λ2 . 1. λ/a).136 Distribuci´n gama o 2. Demuestre que esta funci´n cumple las siguientes propiedades. para m = 0. 246. Demuestre que o a) E(X) = n/λ. o 245. √ d) Γ(1/2) = π. Sea X con distribuci´n gama(n. 248. . Compruebe que la funci´n de densidad de la distribuci´n gama(n. Ejercicios 244. F (x) = k! k=0   0 si x ≤ 0. Verifique adem´s que esta distribuci´n se reduce a o a la distribuci´n exp(λ) cuando n = 1.8. Γ(m + n) b) E(X m ) = m .

b . b) o o efectivamente lo es. b > 0 de la forma o 1 B(a. 1) cuando a = b = 1. o 250. Demuestre que esta funci´n cumple las siguientes propiedades. a). Var(X) E(X)(1 − E(X)) c) a + b = − 1. d) B(1. b) = a B(a. Sea X con distribuci´n beta(a. b) = B(b. o a) B(a. Demuestre que o a) E(X) = a . Var(X) E(X)(1 − E(X)) b) b = (1 − E(X)) [ − 1 ]. c) B(a. b).Cap´ ıtulo 2. b + 1). Variables aleatorias 137 Distribuci´n beta o 249. Sea X con distribuci´n beta(a. b) b) E(X n ) = . a+b B(a + n. b). B(a. Var(X) 252. 1) = 1/a. Compruebe que la funci´n de densidad de la distribuci´n beta(a. Verifique adem´s que esta distribuci´n se reduce a o a la distribuci´n unif(0. b) = Γ(a)Γ(b)/Γ(a + b). b) = 1/b. b) = 0 xa−1 (1 − x)b−1 dx. b) B(a. b) ab c) Var(X) = . Recuerde que la funci´n beta se define para cada a. (a + b + 1)(a + b)2 251. e) B(a + 1. Demuestre que o a) a = E(X) [ E(X)(1 − E(X)) − 1 ].

e c) alcanza su m´ximo en x = µ. b). o   0 F (x) = xa  1 Demuestre que para a > 0 y b = 1. 1/2) = π. si 0 < x < 1. 256. Sea X con distribuci´n beta(a. Ejercicios a B(a. si x ≤ 0. a . o  si x ≤ 0. o c) Demuestre directamente que E(X) = 1/2. 253. o Distribuci´n normal o 257. b) = 2. b + 1) = a+b h) B(1/2. o b) es sim´trica respecto de x = µ.8. a+b b B(a. b) Demuestre directamente que f (x) es una funci´n de densidad. b). 255. o a) Calcule y grafique f (x). y Var(X) = 1/8. b). 1 − X tiene o o distribuci´n beta(b.138 f ) B(a + 1. 254. Demuestre que la funci´n de densidad de la distribuci´n N(µ. σ 2 ) o o a) es efectivamente una funci´n de densidad. si x ≥ 1. 1/2).  0 F (x) = 1 − (1 − x)b si 0 < x < 1.  1 si x ≥ 1. y s´lo si. a). Sea X con distribuci´n beta(a. b) si. Demuestre que X tiene distribuci´n beta(a. g) B(a. Demuestre que para a = 1 y b > 0. Sea X con distribuci´n beta(1/2. b). En este caso se dice que X o tiene una distribuci´n arcoseno.

σ 2 ). 264.Cap´ ıtulo 2. σ 2 ).9545. c) P (µ − 3σ < X < µ + 3σ) = 0. Demuestre que para cada o a n = 0. Sea X con distribuci´n N(µ. . 1. Encuentre los par´metros coo a rrespondientes. Sea X con distribuci´n normal est´ndar. o a . Variables aleatorias d) tiene puntos de inflexi´n en x = µ ± σ. ¿Ser´ cierto que si Y tiene a √ distribuci´n. o 139 258.9973. . 1. Demuestre que E(X) = µ y Var(X) = o 2. σ 2 ). Demuestre que para cada n = 0. Rec´ una distribuci´n χ o ıprocamente. 2. σ 2 ).  n!  si n es par. Demuestre que X 2 tiene o a 2 (1).68269. Demuestre que la variable aleatoria o −X tambi´n tiene una distribuci´n normal. Encuentre los par´metros e o a correspondientes. Encuentre la funci´n de densidad de la variable aleatoria |X|. . si n es impar. σ 259. 260. Sea X con distribuci´n normal est´ndar. . tiene una distribuci´n normal. b) P (µ − 2σ < X < µ + 2σ) = 0. Demuestre que Y = aX + b. Sea X con distribuci´n N(µ. 262. cuando o X tiene distribuci´n normal est´ndar. Sea X con distribuci´n N(µ. 1)? o o 265. o E|X − µ|n = 1 · 3 · 5 · · · (n − 1)σ n 0 si n es par. con o a = 0. Sea X con distribuci´n N(µ. . σ 2 ). n n/2 (n/2)! E(X ) = 2  0 si n es impar. Demuestre que o a) P (µ − σ < X < µ + σ) = 0. Sea X con distribuci´n N(µ. 261. . 263. χ2 (1) entonces Y tiene distribuci´n N(0.

1 1 − Φ(x) 1 1 3 1 b) − 3 < < − 3 + 5.8. Sea φ(x) la funci´n de densidad de la diso tribuci´n normal est´ndar. . Sea X con distribuci´n log normal(µ. Ejercicios 266. σ 2 ). Distribuci´n log normal o 267. El cociente de Mills. c) E(ln X) = µ. Demuestre que o a) E(X) = exp(µ + σ 2 /2). x x φ(x) x x x para x > 0. Demuestre que o a) φ′ (x) + xφ(x) = 0. 268. y sea Φ(x) la correspondiente funci´n de o a o distribuci´n. Demuestre que la funci´n de densidad de una distribuci´n log normal(µ. d) Var(ln X) = σ 2 . σ 2 ) o o efectivamente lo es.140 2. b) Var(X) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ).

.Cap´ ıtulo 3 Vectores aleatorios En este cap´ ıtulo se extiende el concepto de variable aleatoria con valores reales a variables aleatorias con valores en Rn . . . Vectores aleatorios Recuerde que hemos supuesto que se tiene siempre como elemento base un espacio de probabilidad (Ω. . ´ Definicion. se cumple que la imagen inversa X −1 B es un elemento de F . a tales funciones las llamaremos vectores aleatorios. 3. Un vector aleatorio es una funci´n o X : Ω → Rn tal que para cualquier conjunto B en B(Rn ).1. ´ste o e puede representar de la forma X = (X1 . Xn ) en donde cada coordenada es una funci´n de Ω en R. P ). Dado entonces que un vector aleatorio es una funci´n de Ω en Rn . F . Demostraremos a continuaci´n que la condici´n o o o que aparece en la definici´n anterior es equivalente a solicitar que cada o 141 . Estudiaremos adem´s varios conceptos importantes a relacionados con estas funciones. (Vector aleatorio).

cada coordenada es una variable aleatoria. es correcto definir un vector aleatorio simplemente como un vector de variables aleatorias. es un elemento . . . . la imagen inversa del conjunto B × R × · · · × R pertenece a F . y s´lo si. . . Xn ) un vector aleatorio. . entonces existe un espacio de probabilidad. . el espacio de probabilidad producto. Esto demuestra que X1 es variable aleatoria. . Xn ) ω Ω (X1 (ω). Xn ) : Ω → Rn es un vector aleatoo rio si.1. . en donde cada factor de este producto es un Boreliano de R. . En particular. Puede demostrarse adem´s que si se parte de e a n espacios de probabilidad en donde est´n definidas n variables aleatorias a respectivamente. . . Una funci´n (X1 . o Demostraci´n. . . La imagen inversa de o cualquier conjunto de Borel de Rn es entonces un elemento de la σ-´lgea bra del espacio de probabilidad. . . De manera an´loga se procede con las otras coora denadas del vector. Suponga ahora que cada coordenada de una funci´n o (X1 . . . . los conjuntos de Borel de Rn de la forma B1 × · · · × Bn . . en donde el vector aleatorio est´ definido. . Xn (ω)) Rn Figura 3.142 3.1: Un vector aleatorio es una funci´n de Ω en Rn . para cualquier Boreliano B de R. o ´ Proposicion. . Xn )−1 B ∈ F }. Xn ) : Ω → Rn es una variable aleatoria.1. Considere la colecci´n o B = {B ∈ B(Rn ) : (X1 . Vectores aleatorios coordenada de este vector sea una variable aleatoria. . En consecuencia. V´ase la Figura 3. a (X1 . −1 Pero esta imagen inversa es simplemente X1 B. Sea (X1 . Como cada coordenada es una variable aleatoria. .

las definiciones y resultados son f´cilmente extendidos a dia mensiones mayores. Y ) es discreto si cada coordenada es una variable aleatoria discreta. o y por lo tanto la funci´n (X1 . En la mayor´ de los ıa casos. En la mayor´ ıa de los casos. Y ) : Ω → R2 genera el espacio de probabilidad (R2 . o ´ Definicion. de la forma (X. Xn ) es un vector aleatorio. Entonces o B(R) × · · · × B(R) ⊆ B ⊆ B(Rn ).Cap´ ıtulo 3. donde sea posible se usan unicamente vecto´ res aleatorios bidimensionales. . Y )−1 B). Por ejemplo. B(R2 ). Es f´cil demostrar que la colecci´n B es una σ-´lgebra. o equivalentemente. e inducida por el a vector aleatorio de la siguiente forma. Nuestro objetivo es estudiar estas nuevas medidas de probabilidad. esto es. el siguiente resultado es an´logo al caso a unidimensional y puede extenderse al caso de n dimensiones: un vector aleatorio (X. o Para simplificar la escritura. PX. . Se dice que el vector (X. y se dice que es continuo en caso de que cada coordenada lo sea. . en donde B(R2 ) es la σ-´lgebra de conjuntos de Borel de R2 . PX. (Vector discreto y continuo). Vectores aleatorios de la colecci´n B. Y ). Para cualquier B en B(R2 ). .Y ). aunque no unicamente. .Y (B) = P ((X. de modo que B = B(Rn ). y PX.Y es a una medida de probabilidad definida sobre esta σ-´lgebra. 143 Pero ambos extremos de esta ecuaci´n coinciden. los vectores aleatorios que las generan. Asi que a o a σ(B(R) × · · · × B(R)) ⊆ B ⊆ B(Rn ). consideraremos vectores aleatorios como los ´ que se definen a continuaci´n.

En palabras. (x. El n´mero F (x.144 ´ 3. y) = P (X ≤ x. la funci´n F (x. mediante la funci´n de distribuci´n o o conjunta definida a continuaci´n.2. de manera equivalente. x] × (−∞.2. ahora sobre Rn . todo vector aleatorio induce una medida de probabilidad. Distribucion conjunta 3. Y ≤ y). y) es la probabilidad o de que X sea menor o igual a x. y) : R2 → [0. o ´ ´ ´ Definicion. el cual se u a muestra en la Figura 3. y) = P (X ≤ x. 1].2: El n´mero F (x. esto es simplemente la probabilidad del evento (X ≤ x) ∩ (Y ≤ y). y en general a la distribuci´n conjunta de un vector aleatorio o . y) es entonces la probabilidad de que el vector aleatorio u tome alg´n valor en la rect´ngulo infinito (−∞. y) se le conoce tambi´n como funci´n de distribuci´n bivao e o o riada de X y Y . y al mismo tiempo Y sea menor o igual a y. o A la funci´n F (x.2. y) Figura 3. (Funcion de distribucion conjunta). y]. Esta medida de probabilidad puede estudiarse. Y ) tome un valor en la regi´n sombreada. Y ). se o define como sigue F (x. Y ≤ y) es la probabilidad de que el u vector (X. Distribuci´n conjunta o Como en el caso de variables aleatorias. La funci´n de o distribuci´n de un vector (X. denotada por F (x.

b2 ) − F (b1 .Cap´ ıtulo 3. y) es continua por la derecha en cada variable. La demostraci´n de las propiedades (1) a (4) es completamente an´loga al o a caso unidimensional y por tanto la omitiremos. sea no a negativa. y) en lugar de F (x. a2 ) + F (a1 . Toda funci´n de distribuci´n conjunta F (x. se estudian a continuaci´n algunas de ellas. y) es no decreciente en cada variable. Este rect´ngulo se muestra en la Figura 3.3. Las funciones de distribuci´n conjunta satisfacen propiedades semejantes al o caso unidimensional. F (x. 1. b2 ) − F (b1 . y) satisface o o las siguientes propiedades. Y ) tome valores en el rect´ngulo (a1 .Y (x. o ´ Proposicion. a2 < Y ≤ b2 ). x. en el caso unidimensional. Vectores aleatorios 145 de cualquier dimensi´n finita se le llama distribuci´n multivariada. entonces F (b1 . x es un valor asociado a X.y→−∞ 3. Respecto a la propiedad (5) observe que la expresi´n F (b1 . 4. b2 ) − F (a1 . Si a1 < b1 y a2 < b2 . la distribuci´n se llama univariada. l´ ım F (x. es decir. 2. Natuo o ralmente. b1 ] × (a2 . b2 ) − F (a1 . 5. x.y→∞ l´ ım F (x. alguna de las variables. F (x. a . y es evidente la forma de extender la definici´n para el caso de vectores o aleatorios de m´s de dos coordenadas. y) = 0. a2 ) ≥ 0. o Cuando sea necesario especificarlo se escribe FX. y). y y es un valor asociado a Y . b2 ]. ambas variables. Con el fin de mantener la notaci´n a o simple. De modo que (5) se traduce simplemente en solicitar que la probabilidad de que el vector (X. a2 ) o corresponde a la probabilidad del evento (a1 < X ≤ b1 . y) = 1. en la medida de lo posible se mantiene la correspondencia de las letras. a2 ) + F (a1 .

F (x. pero no es funci´n de distribuci´n pues asigna valores o o negativos a algunas regiones del plano. a2 < Y ≤ b2 ) = F (b1 . El siguiente ejercicio muestra un ejemplo de a esta situaci´n. V´ase tambi´n el ejercicio 272. a2 ) + F (a1 . y) = 0 si x + y < 0. Distribucion conjunta b2 a2 a1 b1 Figura 3. Grafique y demuestre que la siguiente funci´n es de distribuci´n. las propiedades (1) a (4) no son suficientes para asegurar que una funci´n F (x. es continua por la derecha y no decreciente en cada variable. o o (1 − e−x )(1 − e−y ) si x. F (x. b2 ) − F (b1 . y > 0. Ejercicio. 1]. a2 ). b2 ) − F (a1 . b2 ] es P (a1 < a X ≤ b1 . b1 ] × (a2 .146 ´ 3. o e e Ejercicio. y) = 0 A diferencia del caso unidimensional. y) asigna probabilidad no neo gativa a cualquier rect´ngulo. .2. otro caso. Por ejemplo calcule la probabilidad del cuadrado (−1. 1] × (−1. Grafique y demuestre que la funci´n que aparece abajo no es de o distribuci´n. Este es un ejemplo de una funci´n que tiene el comportamiento o o l´ ımite adecuado en infinito.3: La probabilidad asociada al rect´ngulo (a1 . 1 si x + y ≥ 0.

b3 ) + F (a1 . Una funci´n o 2 → [0. b2 . o u F (b1 . se trata de la probabilidad de que el vector aleatorio (X1 . a3 ) + F (b1 . es decir. b3 ) − F (a1 . 1] es una funci´n de distribuci´n si cumple las primeras cuatro F :R o o propiedades anteriores y la quinta propiedad se reemplaza por la siguiente condici´n: Para cualesquiera n´meros reales a1 < b1 . 1]. X2 . Vectores aleatorios 147 ´ ´ ´ Definicion. a2 . b3 ) − F (b1 . no necesariamente definida en t´rminos cualquiera F (x. a o . a2 < X2 ≤ b2 . es una funci´n de distribuci´n conjunta si cumple o o con las cinco propiedades enunciadas en la proposici´n anterior. a2 . a2 . a2 . Se dice que la funci´n o o 3 → [0. En t´rminos de vectores aleatorios se puede demostrar que el lado izquierdo e de esta desigualdad corresponde a la probabilidad del evento (a1 < X1 ≤ b1 . se tiene la siguiente definici´n. o Para tres dimensiones se tiene la siguiente definici´n. o M´s adelante se mostrar´n otros ejemplos concretos de funciones de distria a buci´n conjunta. La condici´n anterior establece entonces o que este n´mero debe ser mayor o igual a cero. a3 ) −F (a1 . b2 . a2 < b2 . X3 ) tome alg´n valor dentro del paralelep´ u ıpedo que se muestra en la Figura 3. y a3 < b3 . (Funcion de distribucion conjunta). b2 . a3 ) +F (a1 . a3 ) ≥ 0.4.Cap´ ıtulo 3. y) : R e de un vector aleatorio. a3 < X3 ≤ b3 ). b3 ) − F (b1 . u M´s generalmente. b2 .

adicionalmente. b2 ] × (a3 . . . a2 < b2 . an < Xn ≤ bn ).148 ´ 3. . y cuya demostraci´n puede ser encontrada por ejemplo o o o en [19].4: Regi´n (a1 .bi } en donde #a es el n´mero de veces que alguna de las variables xi toma u el valor ai en la evaluaci´n de la funci´n F . . a . La prueba no es sencilla pero es an´loga al caso unidimensional. o ´ ´ ´ Definicion. . . y la condici´n o requiere simplemente que este n´mero sea no negativo. (Funcion de distribucion conjunta). xn ) ≥ 0.. . an < bn . Distribucion conjunta z b3 a3 a2 a1 b1 b2 y x Figura 3. u Finalmente enunciamos un resultado que establece la importancia de la funci´n de distribuci´n.2. Una funci´n o F : Rn → [0. . xi ∈{ai . para cualesquiera n´meros reales a1 < b1 . . b3 ]. . 1] es una funci´n de distribuci´n si cumple las primeo o ras cuatro propiedades anteriores y. . u (−1)#a F (x1 . b1 ] × (a2 . o o Nuevamente la suma que aparece en esta definici´n corresponde a la proo babilidad del evento (a1 < X1 ≤ b1 .

A esta funci´n tambi´n se le llama funci´n de probabilidad conjunta de o e o las variables X y Y . Sea F : Rn → [0. y) : R2 → o [0. y) = 1. y un vector aleatorio. 1] una funci´n de distribuci´n. . Vectores aleatorios 149 ´ Proposicion. cuya funci´n de o distribuci´n es F . b) x. este resultado garantiza la existencia de un espacio de probabilidad (Ω. . Rec´ ıprocamente. Y ) es la funci´n f (x. Y = y).Cap´ ıtulo 3.y f (x. Densidad conjunta Como en el caso unidimensional. 3. o ´ ´ Definicion. En lo que resta del cap´ o o ıtulo hablaremos de vectores aleatorios suponiendo que existe un espacio de probabilidad base asociado. La funci´n de o probabilidad de un vector discreto (X. . y) ≥ 0. (Funcion de probabilidad conjunta). . 1] que sea eso . algunos vectores tienen asociada otra funci´n llamada de probabilidad o de densidad.3. y) : R2 → [0. toda funci´n no negativa f (x. Es evidente que la funci´n de probabilidad de un vector discreto cumple las o siguientes propiedades. o Es decir. 1] dada por f (x. y) = P (X = x. y la cual se define a continuao ci´n. a) f (x. F . P ) en donde se encuentra definido un vector aleatorio (X1 . Entonces o o existe un espacio de probabilidad. Xn ) con funci´n de distribuci´n la especificada.

. 2.150 3. y = 1. v) = 2/4   2/4 u≤x v≤y    1 cuya gr´fica se encuentra en la Figura 3. se llama funci´n de probabilidad conjunta.5. y) 1/4 2 1 1 2 y x Figura 3. x ≥ 2 y y ≥ 2. Y ≤ y) = f (u. La funci´n f (x. La definici´n de funo o ci´n de probabilidad en el caso discreto multidimensional es evidente. 2}. 2}× {1. y) = P (X ≤ x. y) = f (u. 1 ≤ x < 2. o La correspondiente funci´n de distribuci´n o o   0    1/4  F (x. Densidad conjunta trictamente positiva unicamente en un subconjunto discreto de R2 y que ´ sume uno.3. corresponde a la distribuci´n uniforme sobre el conjunto {1. La gr´fica se muestra o a en la Figura 3. 2. para x. Es o claro tambi´n que la correspondiente funci´n de distribuci´n se puede cale o o cular a partir de la funci´n de probabilidad de la siguiente forma: o F (x. 1 ≤ y < 2. 1 ≤ y < 2. para x. y) = 1/4. f (x.6. u≤x v≤y Ejemplo. y) = 1/4. x ≥ 2. o 1 ≤ x < 2. v). y ≥ 2. a es si si si si si x < 1 ´ y < 1.5: Funci´n de probabilidad f (x. es una funci´n de o o probabilidad conjunta pues es no negativa y suma uno. y = 1.

La funci´n definida por f (x.6: Ejemplo de funci´n de distribuci´n discreta. y) = (1/2)x+y para x. y) 151 y 2 1 1 2 x Figura 3. o . es una funci´n de proe o babilidad bivariada pues es no negativa y suma uno. ∞ x. y) = ∞ x. o o Ejemplo. e o id´nticamente cero fuera de este conjunto discreto. En efecto.y=1 f (x.Cap´ ıtulo 3. Vectores aleatorios F (x.y=1 1 2x+y =( 1 2 ) = 1. y ∈ N. 2x x=1 ∞ Para el caso de vectores continuos se tiene la siguiente definici´n.

la probabilidad del evento (a ≤ X ≤ b. y se le llama funci´n de o densidad conjunta de X y Y . cuando f (x. y). y) = −∞ −∞ f (u. Y ) un vector continuo con funci´n de distribuci´n F (x. se llama funci´n de densidad conjunta. y) en R2 . b) ∞ ∞ f (x. y).7. . permanecen sin cambio alo guno. y) se le denota por fX. o A la funci´n f (x. se cumple la igualdad x y F (x. toda funci´n no negativa f : R2 → [0. −∞ −∞ Rec´ ıprocamente.152 3. Densidad conjunta ´ ´ Definicion. c ≤ Y ≤ d) no cambia si se incluyen o se excluyen los extremos de cada intervalo. ∞). Se dice que (X. que integre o uno. Es claro que la funci´n de densidad conjunta f (x. y) ≥ 0. y) dx dy = 1. y).Y (x. sin embargo la funci´n o de distribuci´n y por tanto las probabilidades. v) dv du. para todo (x. ∞). a) f (x. As´ como en el caso unidimensional. En particular. tal que. no existe realmente unicidad para la ı funci´n de densidad pues basta modificarla en algunos puntos para ser diso tinta pero seguir cumpliendo la igualdad anterior. Y ) es o o absolutamente continuo si existe una funci´n no negativa e integrable o f (x. y) o es continua. y se calcula como la integral doble que se ilustra en la Figura 3. en el caso absolutamente continuo y conociendo la funci´n de o densidad conjunta. y) de un vector o absolutamente continuo cumple las siguientes propiedades. ∂y∂x Observe que. y) = F (x. y) : R2 → [0.3. (Funcion de densidad conjunta). Sea (X. ∂2 f (x.

y ∈ [0. f (x. 2].Cap´ ıtulo 3.8. y) = Esta funci´n de densidad conjunta corresponde a la distribuci´n uniforme o o del vector (X. Esta doble integral toma distintas expresiones en cada una de las cinco regiones que aparecen en la parte izquierda de la Figura 3. otro caso. Despu´s de algunos c´lculos e a elementales se encuentra que la funci´n de distribuci´n conjunta tiene la o o . Y ) en el cuadrado [0. 2]. Para calcular la correspondiente funci´n de distribuci´n F (x. o 1/4 0 si x. La funci´n f : R2 → [0. c ≤ Y ≤ d) = f (x. 2] × [0. y) dy dx a c x Figura 3. y) c d y b d a b P (a ≤ X ≤ b.7: La probabilidad como el volumen bajo una superficie. Vectores aleatorios 153 f (x. ∞) dada por la siguiente expresi´n es o o una funci´n de densidad pues es no negativa e integra uno. La gr´fica se muestra en la a Figura 3. Ejemplo.9. y) se debe o o calcular la doble integral para los distintos valores de x y y.

y ∈ [0. P (X = 1) y P (X + Y = n + 1). y ≥ 2. para x. Calcule o P (X = Y ). si 0 ≤ y < 2. o a x y F (x. y) = 1/4. Densidad conjunta f (x. o si 0 ≤ x. o siguiente expresi´n cuya gr´fica aparece en la parte derecha de la Figura 3. x ≥ 2.3. si 0 ≤ x < 2.9. Ejercicio. ¿Puede usted calcular la . Demuestre que la siguiente funci´n es de densidad. y) 1/4 2 y 2 x Figura 3. 2]. y) =   0      xy/4    x/2 =     y/2      1 −∞ −∞ f (u.154 3. si x ≥ 2 y y ≥ 2. v)dvdu si x < 0 ´ y < 0. y < 2.8: Funci´n de densidad f (x.

a f (x. Encuentre la o correspondiente funci´n de distribuci´n y grafique ambas funciones. o o correspondiente funci´n de distribuci´n? o o  4xy   si x. Ejercicio. Encuentre la o correspondiente funci´n de distribuci´n y calcule P (1 < X < 2. . 1 < Y < 2). Demuestre que la siguiente funci´n es de densidad. Vectores aleatorios y x/2 0 2 xy/4 2 0 0 y/2 x 2 2 1 155 F (x. n. f (x. y < 1.Cap´ ıtulo 3. Ejercicio. P (Y > X) y P (X > 1/2). . o o P (X > 1) y P (Y + X > 2). . 0 < Y < 1/2). . y) =   0 otro caso. y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2.9: Ejemplo de funci´n de distribuci´n continua bivariada. Calcule o o adem´s P (1/3 < X < 1. Demuestre que la siguiente funci´n es de densidad. 2 (n + 1)2 n f (x. . y = 1. y) y x Figura 3. y) = x+y 0 si 0 < x. otro caso. otro caso.

y) de un vector aleatorio (X. y). En el caso de vectores de o dimensi´n mayor.156 ´ 3. An´logao o a mente se define la funci´n de distribuci´n marginal de Y como o o F (y) = l´ F (x. En un ejemplo anterior hab´ ıamos encontrado la siguiente funci´n o . ım x→∞ No es dif´ verificar que las funciones de distribuci´n marginales son efecıcil o tivamente funciones de distribuci´n univariadas. Distribuci´n marginal o Dada la funci´n de distribuci´n F (x. y) ım y→∞ se le conoce como la funci´n de distribuci´n marginal de X. A la funci´n o o o F (x) = l´ F (x. se puede obtener la distribuci´n marginal de cualquier o o subconjunto de variables aleatorios del vector original mediante un procedimiento similar.4. es o o posible obtener la funci´n de distribuci´n de cada variable aleatoria por o o separado mediante el siguiente procedimiento. ´ ´ ´ Definicion. (Funcion de distribucion marginal). Sea (X. y). Y ). Ejemplo.4. Distribucion marginal 3. Y ) un vector con funci´n de distribuci´n F (x.

y < 2. se pueden obtener las funciones de densidad individuales como indica la siguiente definici´n. o . Ejercicio. Encuentre las funciones de (X. Para el caso de funciones de densidad conjunta. y) = x/2     y/2      1 si x < 0 ´ y < 0. y) =    3y/5 + 2y 3 /5     1 distribuci´n marginales del vector o si x < 0 ´ y < 0. o si 0 ≤ x. Esto o da como resultado  si x < 0. si 0 ≤ y < 2. si 0 ≤ x < 2.  0   x/2 si 0 ≤ x < 2. la funci´n de distribuci´n marginal o o FX (x) simplemente tenemos que hacer la variable y tender a infinito en las regiones donde ello sea posible. si 0 ≤ x < 1 y y ≥ 1. si x ≥ 2 y y ≥ 2. tercer y quinto rengl´n de la lista anterior. FX (x) =    1 si x ≥ 2.Cap´ ıtulo 3.Y (x. Vectores aleatorios de distribuci´n conjunta o   0      xy/4    FX. o si 0 ≤ x < 1 y 0 ≤ y < 1. si x ≥ 1 y 0 ≤ y < 1. Y ) cuya funci´n de distribuci´n es o o   0     3x2 y/5 + 2xy 3 /5   3x2 /5 + 2x/5 F (x. por ejemplo. si x ≥ 1 y y ≥ 1. y ≥ 2. x ≥ 2. Para encontrar. Ello puede hacerse en las regiones dadas por las condiciones del primer. 157 ¿Puede usted encontrar ahora FY (y)? Esta funci´n esta definida de manera distinta en cada una de las cinco regioo nes disjuntas y exhaustivas del plano Cartesiano dadas por las condiciones anteriores.

158

´ 3.4. Distribucion marginal

´ ´ Definicion. (Funcion de densidad marginal). Sea (X, Y ) un vector absolutamente continuo con funci´n de densidad f (x, y). A la funci´n o o f (x) =
∞ −∞

f (x, y) dy

se le conoce como la funci´n de densidad marginal de X. An´logamente o a se define la funci´n de densidad marginal de Y como o f (y) =
∞ −∞

f (x, y) dx.

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma. Tampoco es dif´ comprobar que las funciones de densidad marginales son ıcil efectivamente funciones de densidad univariadas. Las dos definiciones anteriores pueden extenderse de manera evidente cuando se tenga un vector aleatorio de cualquier dimensi´n finita. Tambi´n es posible calcular las funo e ciones de densidad y de distribuci´n de (X, Y ) a partir, por ejemplo, de las o funciones correspondientes del vector (X, Y, Z). Ejercicio. Calcule las funciones de densidad marginales del vector aleatorio discreto (X, Y ) cuya funci´n de probabilidad esta dada por la siguiente o tabla. x\y 1 2 3 −1 1/45 2/45 3/45 0 4/45 5/45 6/45 1 7/45 8/45 9/45

Ejercicio. Calcule las funciones de densidad marginales del vector aleatorio continuo (X, Y ) cuya funci´n de densidad es o f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

Cap´ ıtulo 3. Vectores aleatorios

159

Observe que la distribuci´n conjunta determina de manera unica a las distrio ´ buciones marginales. Sin embargo, si lo que se conoce son las distribuciones marginales, entonces puede haber varias distribuciones conjuntas que produzcan las marginales dadas. La forma de producir la distribuci´n conjunta o se llama acoplamiento, y la distribuci´n conjunta obtenida se llama a veo ces distribuci´n de acoplamiento o c´pula. Dos variables aleatorias X y Y o o siempre pueden acoplarse de la forma FX,Y (x, y) = FX (x)FY (y), que es el caso donde se han hecho independientes una de la otra, pero puede haber otras formas de hacerlo. En el siguiente ejemplo se muestra una situaci´n o concreta en el caso discreto. Ejemplo. Sean X y Y discretas ambas con distribuci´n uniforme en el o conjunto {0, 1}, es decir, su distribuci´n de probabilidad es o f (x) = 1/2 si x = 0, 1, 0 otro caso.

Sean a ≥ 0 y b ≥ 0 tales que a + b = 1/2. Entonces la siguiente densidad conjunta tiene como densidades marginales las especificadas para X y para Y. x\y 0 1 0 a b 1 b a

Observe que esta densidad conjunta es en realidad toda una familia de densidades conjuntas que producen las densidades marginales especificadas. En este caso X y Y son independientes si, y s´lo si, a = b = 1/4. o

160

´ 3.5. Distribucion condicional

3.5.

Distribuci´n condicional o

La siguiente definici´n es una extensi´n del concepto elemental de probabio o lidad condicional de eventos. ´ ´ Definicion. (Funcion de densidad condicional). Sea (X, Y ) un vector con funci´n de densidad fX,Y (x, y), y sea y tal que fY (y) = 0. A o la funci´n o fX,Y (x, y) x → fX|Y (x|y) = fY (y) se le conoce como la funci´n de densidad condicional de X dado que Y o toma el valor y. No es dif´ comprobar que esta funci´n es efectivamente una funci´n de ıcil o o densidad, tanto en el caso discreto como en el continuo. Observe que el valor y permanece fijo y la funci´n es vista como una funci´n de la variable real o o x, esto puede observarse en el siguiente ejemplo. Ejemplo. Considere la funci´n de densidad conjunta o fX,Y (x, y) = 24x(1 − y) si 0 < x < y < 1, 0 otro caso.

Es sencillo comprobar que para cualquier valor fijo de y en el intervalo (0, 1), la funci´n de densidad condicional de X dado Y es la que aparece m´s abajo. o a Es tambi´n inmediato verificar que esta funci´n, vista como funci´n de x, es e o o de densidad. El valor de y puede entonces considerarse como un par´metro a de esta nueva distribuci´n. o fX|Y (x|y) = 2x/y 2 si 0 < x < y, 0 otro caso.

An´logamente puede comprobarse que para cualquier x en (0, 1) fijo, a fY |X (y|x) = 2(1 − y)/(x − 1)2 si x < y < 1, 0 otro caso.

Cap´ ıtulo 3. Vectores aleatorios

161

Ejercicio. Calcule las funciones de densidad condicionales fY |X (y|x) y fX|Y (x|y) a partir de la siguiente funci´n de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

Se pueden definir tambi´n funciones de distribuci´n condicionales de la sie o guiente forma. ´ ´ ´ Definicion. (Funcion de distribucion condicional). Sea (X, Y ) un vector aleatorio absolutamente continuo con funci´n de densidad o fX,Y (x, y), y sea y tal que fY (y) = 0. A la funci´n o
x

x → FX|Y (x|y) =

−∞

fX|Y (u|y) du

se le conoce como la funci´n de distribuci´n condicional de X dado que Y o o toma el valor y. Cuando el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente. Nuevamente resulta que la funci´n de distribuci´n condicional es efectivao o mente una funci´n de distribuci´n. En el caso absolutamente continuo y o o suponiendo x → fX|Y (x|y) continua, por el teorema fundamental del c´lcua lo se tiene que ∂ fX|Y (x|y) = F (x|y). ∂x X|Y Ejemplo. Considere nuevamente la funci´n de densidad conjunta del ejemo plo anterior, fX,Y (x, y) = 24x(1 − y), para 0 < x < y < 1. Para y fijo en el

162

´ 3.5. Distribucion condicional

intervalo (0, 1) se tiene que  si x ≤ 0,  0 FX|Y (x|y) = fX|Y (u|y) du = x2 /y 2 si 0 < x < y,  −∞ 1 si x ≥ y.
x

Puede tambi´n definirse la esperanza condicional de la siguiente forma. e ´ Definicion. Sea (X, Y ) un vector con funci´n de distribuci´n o o FX,Y (x, y), y sea y un valor tal que fY (y) = 0. Si X tiene esperanza finita, entonces se define E(X | Y = y) =
∞ −∞

x dFX|Y (x|y).

En el siguiente cap´ ıtulo veremos una definici´n mucho m´s general de este o a concepto. Ejercicio. Calcule la funci´n de distribuci´n condicional FX|Y (x|y) a partir o o de la funci´n de densidad conjunta fX,Y (x, y) = 3(x2 + y 2 )/16, para 0 < o x < y < 2. Calcule adem´s E(X | Y = y) para cualquier valor de y en el a intervalo (0, 2). Ejercicio. Calcule E(X | Y = y) para y = π/4, cuando (X, Y ) es un vector absolutamente continuo con funci´n de densidad f (x, y) = (1/2) sen(x + y), o para x, y ∈ (0, π/2). Ejercicio. Sea (X, Y ) un vector aleatorio tal que X tiene esperanza finita y Y es discreta con valores 0, 1, . . . tal que P (Y = n) > 0 para n = 0, 1, . . . Demuestre que E(X) =
∞ n=0

E(X | Y = n) P (Y = n).

Cap´ ıtulo 3. Vectores aleatorios

163

3.6.

Independencia

Podemos ahora definir el importante concepto de independencia de variables aleatorias. Primero definiremos tal concepto para dos variables aleatorias, despu´s lo haremos para n variables, y finalmente para una colecci´n arbie o traria de variables aleatorias. ´ Definicion. (Independencia de dos variables aleatorias). Se dice que X y Y son independientes, y a menudo se escribe X ⊥ Y , si para cada par de conjuntos de Borel A, B de R, se cumple la igualdad P (X ∈ A, Y ∈ B) = P (X ∈ A) P (X ∈ B). (3.1)

En t´rminos de la siempre existente funci´n de distribuci´n, la independene o o cia de dos variables aleatorias se puede expresar como indica el siguiente resultado. ´ Proposicion. (Independencia de dos variables aleatorias). Las variables aleatorias X y Y son independientes si, y s´lo si, para cada o 2 se cumple la igualdad (x, y) en R FX,Y (x, y) = FX (x) FY (y). (3.2)

Demostraci´n. Si X y Y son independientes, entonces tomando A = (−∞, x] o y B = (−∞, y] en (3.1) se obtiene (3.2). Suponga ahora que se cumple (3.2)

164

3.6. Independencia

para cualesquiera x y y en R. Defina la colecci´n o A = {A ∈ B(R) : P (X ∈ A, Y ≤ y) = P (X ∈ A) P (Y ≤ y), ∀ y ∈ R }. No es dif´ demostrar que A es una σ-´lgebra y usando la hip´tesis resulta ıcil a o que A = B(R). Sea ahora A un elemento cualquiera fijo de B(R). Defina la colecci´n o B = {B ∈ B(R) : P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B) }. Se puede comprobar nuevamente que B es una σ-´lgebra, y de hecho B = a B(R). De esta forma, para cualquier A y B en B(R), se cumple la condici´n (3.1). o El concepto de independencia de variables aleatorias es una extensi´n de o la misma propiedad para eventos. Cuando la funci´n de densidad conjunta o existe, la condici´n de independencia de X y Y es equivalente a solicitar o que para cualesquiera n´meros reales x y y, se cumpla la identidad u fX,Y (x, y) = fX (x) fY (y). (3.3)

En el caso discreto, la afirmaci´n anterior es completamente correcta. Para o el caso continuo hay una observaci´n t´cnica que es necesario mencionar. o e Como en este caso las funciones de densidad pueden ser modificadas sin que cambie la funci´n de distribuci´n asociada, la igualdad (3.3) puede o o 2 , entonces se permite que la igualdad no cumplirse para cada (x, y) ∈ R no se cumpla en un conjunto de medida de Lebesgue cero, por ejemplo, un conjunto numerable de parejas (x, y) en R2 , y entonces habr´ independencia a en el caso continuo si se cumple (3.3), salvo conjuntos de medida de Lebesgue cero. Ejemplo. Sea (X, Y ) un vector aleatorio con funci´n de densidad f (x, y) = o 4xy, para 0 ≤ x, y ≤ 1, y cuya gr´fica aparece en la Figura 3.10. a La funci´n de densidad marginal de X se calcula de la siguiente forma. Para o 0 ≤ x ≤ 1, fX (x) =
∞ 1

f (x, y)dy =
0

4xydy = 2x.

−∞

Cap´ ıtulo 3. y) = 3(x2 + y 2 )/32 0 si 0 < x. y). se cumple fX. y) 4 y 1 x Figura 3. . otro caso. y < 2. Ejercicio. El concepto de independencia puede ser extendido claramente al caso de varias variables aleatorias de la forma siguiente.Y (x. En consecuencia. para 0 ≤ x. y) = 4xy. Determine si las variables aleatorias continuas X y Y son independientes cuando su funci´n de densidad conjunta es o fX. X y Y son ina dependientes pues para cada par (x. y) = fX (x) fY (y). o An´logamente fY (y) = 2y para 0 ≤ y ≤ 1. Vectores aleatorios 165 f (x. y ≤ 1.10: Funci´n de densidad f (x.Y (x.

. . Sea Z = XY . . Xn ∈ An ) = P (X1 ∈ A1 ) · · · P (Xn ∈ An ). . puede comprobarse que cualo quier subconjunto de estas variables tambi´n son independientes. . M´s a´n. . . una colecci´n infinita de variables aleatorias es independiente a u o si cualquier subconjunto finito de ella lo es.. 1}. . Entonces las variables aleatorias g(X) y h(Y ) tambi´n son independientes. . . El rec´ e ıproco. xn ) = fX1 (x1 ) · · · fXn (xn ). . o Ejercicio. . cuando ´sta exista y salvo un e o e conjunto de medida cero.166 3. .. . .. es en general falso como se pide demostrar a continuaci´n. .6. . se cumple P (X1 ∈ A1 .. Borel medibles. Independencia ´ Definicion. Se dice que las variables X1 . puede demostrarse que la condici´n de independencia de n variables aleatorias o es equivalente a solicitar que para cualquier vector (x1 . .Xn (x1 .. . sin embargo. . . . . . An de R. . . Usando un procedimiento similar al caso de dos variables aleatorias. e .. la condici´n es o fX1 . xn ) en Rn se cumpla la igualdad FX1 . (Independencia de varias variables aleatorias). Xn son independientes y tomando conjuntos Borelianos adecuados en la definici´n general. Xn son independientes si para cualesquiera Borelianos A1 . xn ) = FX1 (x1 ) · · · FXn (xn ). Sean X y Y independientes..Xn (x1 . Sean X y Y independientes ambas con distribuci´n uniforme o en el conjunto {−1. Demuestre que X. Cuando las variables X1 . Y y Z son independientes dos a dos pero no lo son en su conjunto. ´ Proposicion. Y en t´rminos de la funci´n de densidad.. . . y sean g y h dos funciones de R en R.

Ym ) son independientes. Eno tonces P ( g(X) ∈ A. . Se dice que los vectores X = (X1 . . una colecci´n infinita de o o vectores aleatorios es independiente si cualquier subcolecci´n finita de ellos o lo es. Xn ) y Y = (Y1 . ´ Definicion. . . Ym ) son independientes. . Y ∈ B) = P (X ∈ A) P (Y ∈ B). (Independencia de dos vectores aleatorios).4) Naturalmente esta definici´n puede extenderse un poco m´s para incluir la o a independencia de un n´mero finito de vectores aleatorios. produce nuevamente variables aleatorias independientes. Xn ) y (Y1 . Demuestre que si los vectores (X1 .Cap´ ıtulo 3. y cada B en B(Rm ). . Vectores aleatorios 167 Demostraci´n. y de esta a forma obtener que la composici´n de n funciones Borel medibles aplicadas. se cumple la igualdad P (X ∈ A. La definici´n de independencia de dos variables aleatorias puede extendero se al caso de dos vectores aleatorios de cualquier dimensi´n de la forma o siguiente. . . h(Y ) ∈ B ) = P ( X ∈ g−1 (A). (3. Y ∈ h−1 (B) ) = P ( g(X) ∈ A ) P ( h(Y ) ∈ B ). entonces las variables Xi y Yj son independientes para cualquier posible valor de los ´ ındices i y j. . . = P ( X ∈ g−1 (A) ) P ( Y ∈ h−1 (B) ) Este resultado puede extenderse f´cilmente al caso n-dimensional. no necesariamenu te todos de la misma dimensi´n. . si para cada A en B(Rn ). . . . . Sean A y B cualesquiera dos conjuntos de Borel de R. a n variables aleatorias independientes. . . Y nuevamente. Ejercicio. o respectivamente.

Y ) es una variable aleatoria y el problema nuevamente es encontrar su esperanza. Y ) es un vector aleatorio y ϕ : R2 → R es una funci´n Borel medible. Y ). Y ) tiene esperanza finita. yj ) − F (xi . y sea ϕ : R2 → R una funci´n o Borel medible tal que la variable aleatoria ϕ(X. En el caso e o .3 para comprobar esta expresi´n. Esperanza de una funcion de un vector aleatorio 3. V´ase nuevamente la Figura 3. Y )] = R2 ϕ(x. o entonces ϕ(X. la esperanza de o ϕ(X. Esperanza de una funci´n de un vector o aleatorio Si (X.Y ) (x). Observe que se o trata de una integral de Riemann-Stieltjes en dos dimensiones. El “incremento” de F en el rect´ngulo (xi−1 .Y (x. xi ] × (yj−1 . lo cual puede ser dif´ en muchos casos. El o ıcil siguiente resultado establece una forma alternativa de calcular la esperanza de ϕ(X. pero. (3. yj ) + F (xi−1 . Y ) un vector aleatorio. Usando directamente la definici´n. Y ). yj−1 ) − F (xi−1 .7.168 ´ 3. y). sin conocer su distribuci´n. la o distribuci´n del vector (X. o ´ Teorema (Esperanza de una funcion de un vector aleatorio). as´ como en el caso unidimensional. yj ] es a F (xi .7. y) dFX. Y ) se calcula del siguiente modo: E[ϕ(X. Sea (X. ello requiere encontrar primero ı la distribuci´n de ϕ(X. Entonces E[ϕ(X. por supuesto. yj−1 ). Y )] = ∞ −∞ x dFϕ(X. pero conociendo. Y ).5) Nuevamente omitiremos la demostraci´n de este resultado.

y) dFX (x) dFY (y). Sea (X. y se puede escribir E[ϕ(X. . Y = yj ). Ejercicio. R2 Con ayuda de este resultado podemos ahora demostrar que la esperanza separa sumas. . Y )] = ϕ(x. y2 . yj ) P (X = xi . i=1 j=1 En el caso cuando (X. en donde la suma se efect´a sobre todos los posibles valores (x.} × {y1 . Y )] = ϕ(x. Demuestre que E[ϕ(X. la f´rmula (3. y) del vector. Y )] = x. y se o pide dar los detalles en el siguiente ejercicio. 169 = (F (xi ) − F (xi−1 ))(F (yj ) − F (yj−1 )) es decir. u En este caso la demostraci´n del teorema resulta no muy complicada. y) fX. este incremento es F (xi )F (yj ) − F (xi )F (yj−1 ) − F (xi−1 )F (yj ) + F (xi−1 )F (yj−1 ) = ∆F (xi ) ∆F (yj ). Y )] = ∞ ∞ ϕ(xi . la expresi´n (3. Y = y).y ϕ(x. . y) P (X = x. Y ) es discreto. . R2 Cuando el vector (X. Y ) tiene esperanza finita. y sea ϕ : R2 → R una funci´n Borel medible tal que la variable ϕ(X.Cap´ ıtulo 3.5) se reduce a o E[ϕ(X. .5) se o escribe E[ϕ(X.Y (x. Vectores aleatorios cuando X y Y son independientes. . .}. y) dxdy. Y ) es absolutamente continuo. la integral bidimensional se separa en dos integrales. Y ) un vector aleatorio discreto con valores en el cono junto producto {x1 . x2 .

Entonces o E(X + Y ) = E(ϕ(X. Entonces E[g(X)h(Y )] = E[g(X)] E[h(Y )]. Demostraci´n. y sean g y h dos funciones Borel medibles tales que g(X) y h(Y ) tienen esperanza finita. Y )) = R2 (x + y) dFX. E(X Y ) = E(X) E(Y ).7. Y )) + E(ϕ2 (X. y) = x. ´ Proposicion. Esperanza de una funcion de un vector aleatorio ´ Proposicion. Sean X y Y independientes. y) = x + y. Demostraci´n.170 ´ 3. Entonces E(X + Y ) = E(X) + E(Y ). o E[g(X) h(Y )] = R2 g(x) h(y) dFX.Y (x. y) x dFX. y ϕ2 (x. En particular. ϕ1 (x. Sean X y Y con esperanza finita. y) = R2 R2 = E(ϕ1 (X. Sean ϕ(x. y) g(x) h(y) dFX (x) dFY (y) = R2 = E[g(X)] E[h(Y )]. . Y )) = E(X) + E(Y ).Y (x. y) = y. y) + y dFX.Y (x.Y (x.

Por ejemplo. . Se revisan a continuaci´n algunas o propiedades de la covarianza. Y = 0) = 1/5.8. La covarianza de X y Y . denotada por Cov(X. Covarianza En esta secci´n se define y estudia la covarianza entre dos variables aleatoo rias. se suponen tales condiciones. Otros ejemplos de esta misma situaci´n pueden o encontrarse en el ejercicio 352 en la p´gina 203. el rec´ ıproco de la afirmaci´n anterior es falso. Y ). Vectores aleatorios 171 En general. a 3. E(Y ) y E(XY ) son finitas. Y ) = E [(X − E(X))(Y − E(Y ))] . considere el vector aleatorio discreto (X. es el n´mero u Cov(X.Cap´ ıtulo 3. ser´ dada o u a en la siguiente secci´n. Y ). En general cuando se escribe Cov(X. la cono dici´n E(XY ) = E(X)E(Y ) no es suficiente para poder concluir que X y o Y son independientes. sin embargo X y Y no son independientes pues P (X = 0. (Covarianza). Una interpretaci´n de este n´mero. ligeramente modificado. Para que la definici´n anterior tenga sentido es necesario suponer que las o esperanzas E(X). es decir. o ´ Definicion. mientras que P (X = 0)P (Y = 0) = 1/25. Y ) con funci´n de probabilidad o x\y −1 0 1 −1 1/5 0 1/5 0 0 1/5 0 1 1/5 0 1/5 Es sencillo verificar que E(XY ) = E(X)E(Y ) = 0.

Y ) = Cov(X1 . Y ) = 0. 8. Cov(X. X) = Var(X). X). Cov(X. Y ) = 0 =⇒ X. . 5. Y ) = 0. 6. Sean X y Y variables aleatorias y sea c una constante. Cov(cX. Y ) = E [(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y ). Demostraci´n. Cov(X. 7. Cov(X1 + X2 . 2.Y independientes. o 7. 3. . Si X y Y son independientes. . Y ) + Cov(X2 . Cov(X. Cov(X. = E [XY − Y E(X) − XE(Y ) + E(X)E(Y )] 2. En general. Estas propiedades se siguen directamente de la definici´n.172 3.6.4. o 5. Esto es consecuencia de la definici´n y de la linealidad de la esperanza. entonces Cov(X. o 1. Y ). Esta propiedad se obtiene f´cilmente de la primera pues E(XY ) = a E(X)E(Y ) cuando X y Y son independientes. Por la propiedad de linealidad de la esperanza. Y ) = c Cov(X.8. Covarianza ´ Proposicion. Y ). Entonces 1. Y ) = E(XY ) − E(X)E(Y ). Cov(c. Y ) = Cov(Y. 4.

1}. M´s adelante a o a demostraremos que. 1)}. Y ) un vector   1/8 fX.Cap´ ıtulo 3. y) = 1/2  0 Entonces X y Y   1/4 fX (x) = 1/2  0 aleatorio discreto con funci´n de densidad o 173 si (x. Sea (X. −1). en el caso especial cuando el vector (X. 3.  1/4 si y ∈ {−1. −1). Observe en particular que la covarianza es una funci´n bilineal y sim´trica. si (x. Y = 0) = 1/2. Sin embargo X y Y no son independientes pues en particular P (X = 0. la condici´n de covarianza cero implica que estas o o variables son efectivamente independientes. Vectores aleatorios 8.Y (x. (1. mientras que P (X = 0)P (Y = 0) = 1/4. Y ) tiene distribuci´n normal bivariada. (−1. Y ) = 0. si x = 0. 1}. tienen id´nticas densidades marginales. Coeficiente de correlaci´n o El coeficiente de correlaci´n de dos variables aleatorias es un n´mero real o u que mide el grado de dependencia lineal que existe entre ellas. Sean X y Y independientes. Su definici´n o es la siguiente. Y ) = Var(Y ). 1). e  si x ∈ {−1. Demuestre que Cov(X + Y. Ejercicio. Puede entonces comprobarse que Cov(X. fY (y) = 1/2 si y = 0. o e Estas propiedades ser´n de utilidad en la siguiente secci´n.  otro caso. y) = (0. y) ∈ {(−1. otro caso. 0). 0 otro caso.9. . (1.

Y ) ρ(X. y a < 0 si ρ(X. es el o n´mero u Cov(X. y s´lo si. Y )| = 1 si. −1 ≤ ρ(X. Y ) = c ρ(X. El coeficiente de correlaci´n satisface las siguientes proo piedades. . Var(X) Var(Y ) Naturalmente en esta definici´n se necesita suponer que las varianzas son o estrictamente positivas y finitas. Y ). ´ Proposicion. a) ρ(c X. Y ) = 0. |ρ(X. Y ) = −1. denotado por ρ(X. Y ) = 1. Coeficiente de correlacion ´ ´ Definicion. Demuestre que. Vista como funci´n de dos variables aleao torias. Y ) ≤ 1.9. Y ) + ρ(X2 . Y ) = . 1.174 ´ 3. Y ) = ρ(X1 . 3. con o probabilidad uno. Y = aX + b. c constante. La interpretaci´n dada al coeficiente de correlaci´n se justifica a partir de o o los siguientes resultados. Ejercicio. el coeficiente de correlaci´n es una funci´n sim´trica pero no es lineal o o e pues no separa sumas ni multiplicaciones por constantes. existen constantes a y b tales que. b) ρ(X1 + X2 . (Coeficiente de correlacion). Y ). El coeficiente de correlaci´n de las variables aleatorias X y Y . en general. Si X y Y son independientes. 2. Y ). con a > 0 si ρ(X. entonces ρ(X.

Es f´cil ver tambi´n que |ρ(U. Por lo tanto ρ(U.Cap´ ıtulo 3. Y )| = 1. 2. mientras que para λ = −1 se obtiene E(XY ) ≤ 1. Si X y Y son independientes. Y ) = 0. y Var(X) = Var(Y ) = 1. Entonces claramente E(U ) = E(V ) = 0. Es decir. σX σY El t´rmino de enmedio es ρ(X. Y ). Si ρ(U. que evidentemente son centradas y con varianza unitaria. aX + b) a = . V ) = E(U V ). o 175 1. y ρ(X. Vectores aleatorios Demostraci´n. El caso λ = 1 produce el resultado E(XY ) ≥ −1. Observe que estas desigualdades tambi´n pueden ser obtenidas a partir de la e desigualdad de Cauchy-Schwarz. 0 ≤ Var(X + λY ) = E(X + λY )2 − E 2 (X + λY ) = 1 + 2λE(XY ) + λ2 . y Var(U ) = Var(V ) = 1. entonces ρ(X. Inversamente. entonces Cov(X. Para cualquier valor de λ. V )| = |ρ(X. y por lo tanto ρ(X. suponga que X y Y son tales que |ρ(X. Ahora se aplica este resultado a las variables aleatorias (X − µX )/σX y (Y − µY )/σY . a e . Entonces −1 ≤ E( X − µX Y − µY ) ≤ 1. −1 ≤ E(XY ) ≤ 1. |a| Var(X)Var(aX + b) Por lo tanto ρ(X. V ) = 1. Y ) = 1 cuando a > 0. Defina U = (X − µX )/σX y V = (Y − µY )/σY . Si X y Y son tales que Y = aX + b con a = 0 y b constantes. Suponga primero que X y Y son tales que E(X) = E(Y ) = 0. Y )| = 1. Y ) = Cov(X. Y ) = −1 cuando a < 0. Y ) = 0. e 3.

Coeficiente de correlacion Var(U − V ) = E(U − V )2 − E 2 (U − V ) = E(U − V )2 = 0. σX σX = 2(1 + E(U V )) .176 entonces ´ 3. o entonces Var(U + V ) = E(U + V )2 − E 2 (U + V ) = E(U + V )2 = 0. V ) = −1. Uniendo los ultimos dos o ´ resultados se obtiene que. Por lo tanto. cuando |ρ(X. la variable U + V es constante. Esto establece una relaci´n lineal directa entre X y Y . ahora inversa. Y = [ ρ(X. Por lo tanto. Esto significa nuevamente que con probabilidad uno. para alguna constante c. X − µX Y − µY =− . Y )| = 1. con probabilidad uno. Y ) µX ]. con probabilidad uno. σY σY de donde se obtiene Y = µY − (X − µX )σY /σX .9. U + V = c. Nuevamente la constante c es cero pues E(U + V ) = 0. la variable U −V es constante. para alguna constante c. = 2(1 − E(U V )) Esto significa que con probabilidad uno. entre X y Y . Y ) σY σY ] X + [ µY − ρ(X. si ρ(U. X − µX Y − µY = . Esto es. Esto es. En cambio. Pero esta constante c debe ser cero pues E(U − V ) = 0. con probabilidad uno. U − V = c. σX σY de donde se obtiene Y = µY + (X − µX )σY /σX . Esto establece una relaci´n lineal.

Y ) = 0. Y ) = 0 se dice que X y Y son no correlacionadas. negativa o nula). Como veremos m´s adelante. Demostraremos esto a continuaci´n. 1. entonces efectivamente se cumple que X y Y son independientes. Dee muestre que ρ(X + Y. Cuando |ρ(X. Sea X una variable aleatoria discreta con distribuci´n uniforme o en el conjunto {−2. Ejercicio. Demuestre que el coeficiente de correlaci´n entre X y Y es cero. de acuerdo al signo de ρ(X. Esto es consecuencia del mismo resultado para la covarianza. Y ) es un vector con distribuci´n normal bivariada o tal que ρ(X. Si (X. Nuevamente observe que. la condici´n ρ(X. Y ) = 0 no es sufio ciente para poder afirmar que X y Y son independientes. Y ) = 0. y sin embargo X y Y no son o independientes. (Correlacion positiva. Sean X y Y independientes e id´nticamente distribuidas. Y )| = 1 se dice que X y Y est´n perfectamente correlacionadas a positiva o negativamente. 2}. Y ). X − Y ) = 0. en general. Vectores aleatorios 177 Ejercicio. Demostraci´n. o ´ Proposicion. cuando la distribuci´n de (X. Adicionalmente en los ejercicios 380 y 381 de la p´gina 208 se muestran sia tuaciones concretas de este mismo resultado tanto en el caso discreto como en el continuo. Y ) es normal y o ρ(X. −1. la funci´n de densidad normal o a o . y defina Y = X 2 . Cuando ρ(X. entonces X y Y son independientes. ´ ´ Definicion.Cap´ ıtulo 3. excepto en el caso normal. Sin embargo.

1 2 2πσ2 2 2 es decir. . µ2 = E(Y ). Se pueden calcular directamente las funciones de densidad marginales y comprobar que f (x) = y f (y) = 1 2 2πσ1 2 exp[−(x − µ1 )2 /2σ1 ] 2 exp[−(y − µ2 )2 /2σ2 ].178 ´ 3. para u cualesquiera valores reales de x y y. y Y tiene distribuci´n N (µ2 . 1). σ1 = Var(X). se verifica la igualdad fX. y) = fX (x)fY (y). o o Despu´s de hacer algunos c´lculos sencillos se puede demostrar que el coefie a ciente de correlaci´n entre X y Y es ρ. En resumen tenemos la siguiente tabla. σ2 = Var(Y ). σ2 ).9. y) = 1 2πσ1 σ2 1 − ρ2 1 x − µ1 y − µ2 y − µ2 2 x − µ1 2 exp − ( ) − 2ρ( )( )+( ) 2) 2(1 − ρ σ1 σ1 σ2 σ2 .Y (x. Coeficiente de correlacion bivariada est´ dada por la siguiente expresi´n: a o f (x. y ρ ∈ (−1. y comprobar finalmente que cuando o este n´mero es cero. σ1 ). X tiene distribuci´n N (µ1 . 2 2 en donde µ1 = E(X).

(Esperanza y varianza de un vector). Xn ). . Si cada coordenada del vector aleatorio tiene segundo momento finito. Y ) = 0. Cuando cada coordenada del vector tiene esperanza finita se define la esperanza de X como el vector num´rico e E(X) = (E(X1 ). . Si (X. y s´lo si. . Y ) = 0 =⇒ X ⊥ Y . Vectores aleatorios 179 ´ Propiedades del coeficiente de correlacion ρ(X. Y ) tiene dist. X2 ) · · · Var(Xn ) n×n . . X2 ) · · · Cov(X1 . entonces la varianza de X se define como la matriz cuadrada   Var(X1 ) Cov(X1 . 3. . normal y ρ(X.Cap´ ıtulo 3. Y )| = 1 si. . .10.  . Sea X el vector aleatorio (X1 . X1 ) Cov(Xn . . . Xn )    Var(X) =  . . . Y = aX + b. Cov(Xn . Xn )  Cov(X2 . ´ Definicion. entonces ρ(X. . Y ) ∈ [−1. . ρ(X. o Si X ⊥ Y. X1 ) Var(X2 ) · · · Cov(X2 . |ρ(X. con probabilidad uno. E(Xn )). entonces X ⊥ Y . 1]. Y ) = 0.   . . En general. Esperanza y varianza de un vector aleatorio Los conceptos de esperanza y varianza para una variable aleatoria pueden extenderse al caso de vectores aleatorios de cualquier dimensi´n de la sio guiente forma. .

´ Proposicion. θn ) de Rn se cum´ ple la desigualdad Var(X)θ. Esta matriz tambi´n se llama matriz de varianzas y covarianzas. mientras que (X−E(X)) es o un vector rengl´n de dimensi´n 1 × n. j) es E[(Xi − E(Xi ))(Xj − E(Xj ))] = Cov(Xi . Observe que (X − E(X))t es un vector columna de dimensi´n n×1. o ıa La propiedad de ser positiva definida se obtiene usando la bilinealidad de la covarianza. . θ = i. resulta en una matriz cuadrada de dimensi´n o n × n cuya entrada (i. en el orden indicado. Esto e ultimo significa que para cualquier vector θ = (θ1 . De modo que el producto de estos dos o o vectores. La matriz Var(X) es sim´trica y positiva definida. θj Xj ) i. o en donde X t significa transpuesta del vector rengl´n X. . Xj ). Esperanza y varianza de un vector aleatorio La varianza de un vector X puede expresarse como sigue E (X − E(X))t (X − E(X)) .180 3. Xj ) = Cov(Xj . . en donde ·. La simetr´ se sigue de la igualdad Cov(Xi . j=1 θj Xj ) = Var( i=1 θi Xi ) ≥ 0.j=1 n Cov(Xi . n Var(X)θ. Xi ). .j=1 n n = = Cov( i=1 n θi Xi . y tiene las e siguientes propiedades. Xj )θi θj Cov(θi Xi .10. · denota el producto interior usual de Rn . θ ≥ 0. Demostraci´n. .

. pk−1 ). a o Entonces se dice que el vector X = (X1 . Xk . . . . Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior. . Suponga que se tiene un experimento aleatorio con k posibles resultados distintos. . . . . 1. . Xn )   . . u ´ Distribucion multinomial. . ρ(X) =   . Distribuciones multivariadas discretas En esta secci´n se estudian algunas distribuciones discretas de vectores aleao torios. Vectores aleatorios 181 Se puede tambi´n definir la matriz de coeficientes de correlaci´n del vector e o X como sigue   ρ(X1 .11. Las probabilidades para cada uno de estos resultados son respectivamente p1 . Xn ) n×n A esta matriz tambi´n se le llama matriz de correlaci´n. . . y defina las variables aleatorias discretas X1 . . . para alg´n valor natural de n. . 3. en donde p1 + · · · + pk = 1. . ρ(Xn . . X1 ) · · · ρ(Xn . . X1 ) · · · ρ(X1 . como aquellas que registran el n´mero de veces que se obtienen cada uno u de los k posibles resultados en los n ensayos. Xk−1 ) tiene una distribuci´n multinomial(n. . . . Estas distribuciones son ejemplos particulares de medidas de probabilidad sobre Rn .Cap´ ıtulo 3. n con x1 + · · · + xk = n. . p1 . xk−1 ) =        n x1 · · · xk 0 px1 · · · pxk 1 k si x1 . . . xk = 0. otro caso. Observe que la ultima variable ´ Xk est´ determinada por las anteriores pues Xk = n − X1 − · · · − Xk−1 . y su funci´n de densidad es o f (x1 . . . . pk . Cumple la propiee o dad de ser sim´trica y tener todos los elementos de la diagonal iguales a e uno. . . . .

. . . ´ Distribucion hipergeom´trica multivariada. y [Var(X)]ij = npi (1 − pi ) −npi pj si i = j. . . es decir k = 2.11. . Puede adem´s demostrarse a que E(X) = (np1 . x2 ) = n! px1 px2 (1 − p1 − p2 )n−x1 −x2 x1 ! x2 ! (n − x1 − x2 )! 1 2 para x1 . n. para i = 1. Xk . Suponga que se tienen e N objetos de los cuales N1 son de un primer tipo. . la distribuci´n multinomial se reduce a la distribuci´n o o binomial. . p1 . X2 ) tiene distribuci´n trinomial con o par´metros (n. Se dice entonu ces que el vector X = (X1 . . Entonces N1 + · · · + Nk = N . . 1. ı Suponga que de la totalidad de objetos se obtiene una muestra sin reemplazo de tama˜o n. . . . N2 son de un segundo tipo y as´ sucesivamente con Nk objetos de tipo k. pk−1 . . . . a o u y las k − 1 probabilidades p1 . tales que x1 + x2 ≤ n. y defina la variables X1 . x1 ! · · · xk ! En particular. . Xk ) tiene una distribuci´n hipergeom´trica o e . En el caso general no es dif´ comprobar que la distribuci´n marginal de la ıcil o variable Xi es bin(n. . Distribuciones multivariadas discretas Los par´metros de esta distribuci´n son entonces el n´mero de ensayos n. pi ). . . se dice que el vector (X1 . Observe que cuando unicamente hay dos posibles resultados en cada ensa´ yo. npk−1 ). p2 ) si su funci´n de densidad es a o f (x1 . . . El factor que aparece en par´ntesis e en la funci´n de densidad conjunta se conoce como coeficiente multinomial o y se define como sigue n x1 · · · xk = n! . como aquellas que n representan el n´mero de objetos seleccionados de cada tipo. si i = j. . . k − 1.182 3. x2 = 0.

.12. xk ) = . y en donde adem´s debe cumplirse que o a x1 + · · · + xk = n. . Nk . en donde cada variable xi toma valores en el conjunto {0. si su funci´n de densidad es o  1   si x ∈ (a. o 3. Es f´cil tambi´n comprobar que E(X. Y ) ∼ unif(a. Y ) = (b − a)2 /12 0 0 (d − c)2 /12 . . Observe que cuando o e unicamente hay dos tipos de objetos. . n} pero sujeto a la condici´n xi ≤ Ni . . Se escribe (X. . Se puede observar inmediatamente que las distribuciones marginales son nuevamente uniformes. Distribuciones multivariadas continuas Ahora estudiamos algunas distribuciones continuas de vectores aleatorios. . d). . . En la secci´n de ejercicios aparecen expresiones para la esperanza y o varianza de esta distribuci´n. n). (b − a)(d − c) f (x. Xk ) tiene distribuci´n hipergeom´trica multivariada (N. N1 . Se dice entonces que el vector (X1 . . . Se dice que las variables aleatorias continuas X y Y tienen una distribuci´n conjunta uniforme en el rect´ngulo o a (a. b) × (c. y que Var(X. Vectores aleatorios multivariada y su funci´n de densidad es o N1 x1 ··· N n Nk xk 183 f (x1 . . adem´s X y a Y siempre son independientes. 1. . ´ Distribucion uniforme bivariada. . Y ) = a e ((a + b)/2. (c + d)/2). . y ∈ (c. d). la distribuci´n hiper´ o geom´trica multivariada se reduce a la distribuci´n hipergeom´trica univae o e riada. . d). b). es decir k = 2. b) × (c. .Cap´ ıtulo 3. y) =   0 otro caso.

184

3.12. Distribuciones multivariadas continuas

De manera evidente esta distribuci´n puede extenderse al caso de n dimeno siones conserv´ndose las mismas propiedades mencionadas. a ´ Distribucion normal bivariada. Se dice que las variables aleatorias continuas X y Y tienen una distribuci´n normal bivariada si su funci´n de o o densidad conjunta es

f (x, y) =

1

2πσ1 σ2 1 − ρ2 1 x − µ1 2 x − µ1 y − µ2 y − µ2 2 exp − ( ) − 2ρ( )( )+( ) 2(1 − ρ2 ) σ2 σ1 σ2 σ2

,

para cualesquiera valores reales de x y y, y en donde −1 < ρ < 1, σ1 > 0, σ2 > 0, y µ1 , µ2 son dos constantes reales sin restricci´n. Se escribe entonces o 2 , µ , σ 2 , ρ). Cuando µ = µ = 0, y σ = σ = 1, la (X, Y ) ∼ N(µ1 , σ1 2 2 1 2 1 2 distribuci´n se llama normal bivariada est´ndar, y su gr´fica se muestra en o a a la Figura 3.11 cuando ρ = 0. En el siguiente ejercicio se enuncian algunas propiedades de esta distribuci´n. o f (x, y)

x

y

o a Figura 3.11: Funci´n de densidad normal bivariada est´ndar.
2 2 Ejercicio. Sea (X, Y ) un vector con distribuci´n N(µ1 , σ1 , µ2 , σ2 , ρ). Deo muestre que

Cap´ ıtulo 3. Vectores aleatorios
2 a) X tiene distribuci´n marginal N(µ1 , σ1 ). o 2 b) Y tiene distribuci´n marginal N(µ2 , σ2 ). o

185

c) ρ(X, Y ) = ρ. d) X y Y son independientes si, y s´lo si, ρ = 0. o e) E(X, Y ) = (µ1 , µ2 ). f) Var(X, Y ) =
2 σ1 ρσ1 σ2 2 ρσ1 σ2 σ2

.

Es interesante observar que existen distribuciones bivariadas con densidades marginales normales, pero cuya distribuci´n conjunta no lo es. En el o ejercicio 398 en la p´gina 211 se presenta un ejemplo al respecto. a ´ Distribucion normal multivariada. Se dice que el vector (X1 , . . . , Xn ) tiene una distribuci´n normal multivariada si su funci´n de densidad es o o f (x) = (2π)n/2 1 √ 1 exp [− (x − µ)Σ−1 (x − µ)t ], 2 det Σ

u en donde x = (x1 , . . . , xn ) y µ = (µ1 , . . . , µn ) son dos vectores de n´meros reales, Σ es una matriz de dimensi´n n×n positiva definida, es decir, xΣxt ≥ o 0 para cualquier vector x = (x1 , . . . , xn ) de Rn , y Σ−1 es la matriz inversa de Σ. Como es usual, xt denota el vector transpuesto del vector rengl´n o x. Cuando n = 1 o n = 2, con Σ adecuada, se obtienen las distribuciones normal univariada y bivariada mencionadas antes.

186

3.13. Ejercicios

3.13.

Ejercicios

Vectores aleatorios
269. Sea (Ω, F , P ) un espacio de probabilidad y sea (X1 , . . . , Xn ) : Ω → Rn una funci´n tal que cada coordenada es una variable aleatoria. o Demuestre que la siguiente colecci´n es una sub σ-´lgebra de B(Rn ). o a {B ∈ B(Rn ) : (X1 , . . . , Xn )−1 B ∈ F }.

Distribuci´n conjunta o
270. Grafique y demuestre que las siguientes funciones son de distribuci´n. o 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y), para x > 0, y ∈ R. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y , para x, y > 0. 271. Investigue si las siguientes funciones son de distribuci´n. o a) F (x, y) = 1 − e−xy , para x, y > 0. b) F (x, y) = 1 − e−x−y , para x, y > 0.

272. Demuestre que la siguiente funci´n no es de distribuci´n. Extienda o o este resultado al caso n-dimensional. F (x, y, z) = 0 si x + y + z < 0, 1 si x + y + z ≥ 0.

273. Demuestre que la siguiente funci´n no es de distribuci´n. o o F (x, y) = m´ ın{1, m´x{x, y}} a 0 si x, y > 0, otro caso.

274. Sean F (x) y G(x) dos funciones de distribuci´n. Demuestre o proporo cione un contraejemplo para las siguientes afirmaciones.

Cap´ ıtulo 3. Vectores aleatorios a) F (x)G(x) es una funci´n de distribuci´n univariada. o o b) F (x)G(y) es una funci´n de distribuci´n bivariada. o o c) F n (x) es una funci´n de distribuci´n univariada. o o d) F n (x)Gm (y) es una funci´n de distribuci´n bivariada. o o

187

275. Sean X y Y dos variables aleatorias, y sean x y y cualesquiera n´meros u reales. Diga falso o verdadero. Demuestre en cada caso. a) P (X > x, Y > y) = 1 − P (X ≤ x, Y ≤ y). c) P (X ≤ x) = P (X ≤ x, Y ≤ x) + P (X ≤ x, Y > x). b) P (X ≤ x, Y ≤ y) ≤ P (X ≤ x).

d) P (X + Y ≤ x) ≤ P (X ≤ x). e) P (XY < 0) ≤ P (X < 0).

276. Sean X y Y variables aleatorias con funci´n de distribuci´n conjunta o o F (x, y). Demuestre que para cualesquiera n´meros reales a < b y u c < d, P (a < X ≤ b, c < Y ≤ d) = F (b, d) + F (a, c) − F (a, d) − F (b, c). 277. Sean X1 , X2 y X3 variables aleatorias con funci´n de distribuci´n cono o junta F (x1 , x2 , x3 ). Demuestre que para cualesquiera n´meros reales u a1 < b1 , a2 < b2 y a3 < b3 , P (a1 < X1 ≤ b1 , a2 < X2 ≤ b2 , a3 < X3 ≤ b3 ) +F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 )

= F (b1 , b2 , b3 ) − F (a1 , b2 , b3 ) − F (b1 , a2 , b3 ) − F (b1 , b2 , a3 ) −F (a1 , a2 , a3 ). 278. Demuestre que para cualquier vector aleatorio (X, Y ) y para cualquier valor real de u, FX,Y (u, u) = FX∨Y (u), es decir, la funci´n de distribuo ci´n del m´ximo de dos variables aleatorias es la distribuci´n conjunta o a o evaluada en la diagonal. Extienda este resultado al caso n-dimensional.

188

3.13. Ejercicios

279. Sea (X, Y ) un vector con funci´n de distribuci´n F (x, y), y con diso o tribuciones marginales F (x) y F (y), respectivamente. Demuestre que para todo x y y en R, F (x) + F (y) − 1 ≤ F (x, y) ≤ F (x)F (y).

280. Cotas de Fr´chet. Sea (X, Y ) un vector con funci´n de distribuci´n e o o F (x, y), y con distribuciones marginales F (x) y F (y), respectivamente. Demuestre que para todo x y y en R, m´x{F (x) + F (y) − 1, 0} ≤ F (x, y) ≤ m´ a ın{F (x), F (y)}. 281. Considere el espacio Ω = (0, 1)×(0, 1) junto con la σ-´lgebra B((0, 1)× a (0, 1)) y P la medida de probabilidad uniforme sobre Ω. Sea (X, Y ) el vector aleatorio definido sobre este espacio de probabilidad dado por X(ω1 , ω2 ) = ω1 ∧ ω2 y Y (ω1 , ω2 ) = ω1 ∨ ω2 . Demuestre que (X, Y ) es efectivamente un vector aleatorio y encuentre su funci´n de distribuo ci´n. o

Densidad conjunta
282. Demuestre que la funci´n de densidad de un vector (X, Y ) absolutao mente continuo puede ser encontrada, a partir de la funci´n de distrio buci´n, de las siguientes formas alternativas: o a) f (x, y) = ∂2 P (X > x, Y > y). ∂x∂y ∂2 b) f (x, y) = − P (X ≤ x, Y > y). ∂x∂y ∂2 c) f (x, y) = − P (X > x, Y ≤ y). ∂x∂y 1 , ab

283. Grafique y demuestre que las siguientes funciones son de densidad. a) f (x, y) = para 0 < x < a, 0 < y < b.

Cap´ ıtulo 3. Vectores aleatorios b) f (x, y) = 4xy, para 0 ≤ x, y ≤ 1.

189

d) f (x, y) = 9x2 y 2 /4, para −1 ≤ x, y ≤ 1. e) f (x, y) = e−x−y , para x, y > 0. f ) f (x, y) = e−x , para 0 < y < x. 284. Calcule la constante c que hace a f una funci´n de densidad. o a) f (x) = c x, para 0 ≤ x ≤ 1.

c) f (x, y) = 6x2 y, para 0 ≤ x, y ≤ 1.

b) f (x, y) = c x, para 0 < y < x < 1. c) f (x, y) = c (x + y), para 0 ≤ x, y ≤ 1.

d) f (x, y) = c (1 − x)(1 − y) para −1 < x, y < 1. e) f (x, y) = c x(y − x) para 0 < x < y < 1. f ) f (x, y) = c (x2 + 1 xy), para 0 < x < 1, 0 < y < 2. 2

h) f (x, y, z) = c x(y − x)(z − y), para 0 < x < y < z < 1.

g) f (x, y, z) = c (x + y + z), para 0 ≤ x, y, z ≤ 1.

i) f (x1 , . . . , xn ) = c (x1 + · · · + xn ), para 0 ≤ x1 , . . . , xn ≤ 1.

285. Encuentre la funci´n de densidad del vector (X, Y ) cuya funci´n de o o distribuci´n es o 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y), para x > 0, y ∈ R. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y , para x, y > 0. 286. Encuentre la funci´n de distribuci´n del vector (X, Y ) cuya funci´n o o o de densidad es a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y , para x, y > 0. c) f (x, y) = e−y , para 0 < x < y. d) f (x, y) = 2e−x−y , para 0 < x < y.

190

3.13. Ejercicios

287. Sean f (x) y g(x) dos funciones de densidad. Demuestre o proporcione un contraejemplo para las siguientes afirmaciones: a) x → f (x)g(x) es una funci´n de densidad univariada. o 288. Sea (X, Y, Z) un vector con funci´n de densidad o f (x, y, z) = λ3 e−λ(x+y+z) si x, y, z > 0, 0 otro caso,

b) (x, y) → f (x)g(y) es una funci´n de densidad bivariada. o

en donde λ es una constante. Calcule P (X < 1, Y > 2, Z < 3), P (X > 2, Y < 1) y P (X + Y + Z < 1). 289. Sean X y Y independientes ambas con distribuci´n exp(λ). Encuentre o la funci´n de densidad y de distribuci´n de las variables X ∧Y y X ∨Y , o o cada una de ellas por separado y despu´s de manera conjunta. e

Distribuci´n marginal o
290. Suponiendo el caso absolutamente continuo, demuestre que la funci´n o ∞ de densidad marginal fX (x) = −∞ fX,Y (x, y) dy es efectivamente una funci´n de densidad univariada. o 291. Demuestre que la funci´n de distribuci´n marginal o o x → FX (x) = l´ FX,Y (x, y) ım
y→∞

es efectivamente una funci´n de distribuci´n univariada. o o 292. Encuentre las funciones de distribuci´n marginales del vector (X, Y ) o cuya funci´n de distribuci´n es o o a) F (x, y) = (1 − e−x )(1 − e−y ), para x, y > 0.
2 2

b) F (x, y) = (1 − e−x )(1 − e−y ), para x, y > 0.

g) f (x. y) = . y < 1. la funci´n de a o distribuci´n conjunta asociada y las funciones de distribuci´n margio o nales. d) f (x. para 0 < x < a.12. Calcule adem´s o a FX. Demuestre que f (x. y} para 0 < x. Encuentre las funciones de densidad marginales del vector (X. para 0 < x. y). Demuestre que la funci´n de distribuci´n condicional x → FX|Y (x|y) = o o x o o −∞ fX|Y (u|y) du es efectivamente una funci´n de distribuci´n univariada. y) = (x + 2y)/4. . Y ) cuya funci´n de densidad es o 1 a) f (x. y) = 2(4x + y)/5.Y (x. para 0 < x. Calcule las densidades marginales del vector (X. 296. h) f (x. y = o 1. y) = 24x(1 − x − y). Distribuci´n condicional o 297. para x. b) f (x. y) = c m´ ın{x. para 0 < y < x < 1. 0} a c) f (x. 0 < y < b. para 0 < x. ab b) f (x. . y) = 1/x. para x. y) = ax (1 − a)y . para 0 < y < x2 < 1.Cap´ ıtulo 3. y < 1. Sea 0 < a < 1 y defina la funci´n f (x. Vectores aleatorios 191 293. para 0 < x < 1 y y > 1. y) = 4xy. e) f (x. 2. Eno cuentre adem´s las funciones de densidad marginales. f ) f (x. . y) = 2x/y 2 . 294. 295. Y ) con funci´n de densidad uniforme en la regi´n que o o aparece en la Figura 3. y < 1. y) = 3/2. Encuentre la constante c que hace a f una funci´n de densidad. Sean a y b dos constantes positivas. y) es una funci´n de densidad y calcule las o funciones de densidad y de distribuci´n marginales. a) f (x. y < 1. y > 0 y x + y < 1. y) = c m´x{x + y − 1. para 0 < x < 2 y 0 < y < 1. .

y) = 24x(1 − x − y). y < 1.Y (x. para las siguientes funciones de distribuci´n conjunta. y) = xy/25. d) f (x. 300. para las siguientes funciones de densidad. Sea X con distribuci´n exp(λ) y sea t > 0 fijo. o En el caso absolutamente continuo compruebe adem´s que fX|Y (x|y) = a ∂/∂x FX|Y (x|y).192 3. 301. sigue siendo exp(λ). y > 0 y x + y < 1.13. y) = 4xy. para 0 < x < 2 y 0 < y < 1. 2 π . para 0 < x < 2. para 0 < x. 0 < y < 5. o 1 1 a) F (x.12: 298. f ) f (x. Calcule las funciones condicionales fX|Y (x|y) y FX|Y (x|y). y < 1. y) = 2(4x + y)/5. para 0 < y < x < 1. La distribucion exponencial no tiene memoria. a) f (x. Ejercicios y b x −a −b a Figura 3. ´ 299. c) f (x. g) f (x. Calcule las funciones condicionales FX | Y (x | y) y fX | Y (x | y). y) = (1 − e−x )( + tan−1 y). 0 < y < b. y) = 1 . y) = (x + 2y)/4. para x. y) = 1/x. para x ≥ 0. ab b) f (x. e) f (x. y)/fY (y) es efectivamente una funci´n de densidad univariada. para 0 < x. dado que X ≥ t. Demuestre que la funci´n de densidad condicional x → fX|Y (x|y) = o fX. Demuestre que la distribuci´n o o condicional de X − t. para 0 < x < a.

f) fX|Y (x|y). Sea X la variable que denota el n´mero de u caras que se obtienen en los dos primeros lanzamientos. y ≤ 2. h) FX|Y (x|y). 303. y) = (x + y)/8. n) P (|X − Y | > 1). y) es una funci´n de densidad y calcule o f (x. fY (y) y fY |X (y|x) para x = 0. Vectores aleatorios b) F (x. b) fY (y). 2. .Y (x. k) P (X > 1 | Y < 1). l) P (X > 1). y) = (x + y)/8. d) FX (x). m) P (X + Y > 1). Sea (X. i) FY |X (y|x). y sea Y la variable que denota el n´mero de cruces en los dos ultimos lanzamientos. 1.13: Funci´n de densidad f (x. j) P (Y > X). y). con gr´fica como se muestra en la Figura 3. Y ) un vector con funci´n de densidad f (x.13. y ∈ [0. g) fY |X (y|x).Cap´ ıtulo 3. Se hacen tres lanzamientos de una moneda equilibrada cuyos resultados llamaremos cara y cruz. a Compruebe que f (x. u ´ Calcule fX. y) y 2 2 x Figura 3. 2].Y (x. o para 0 ≤ x. 193 302. y) = 1 − e−x − e−y + e−x−y . o a) fX (x). para x. c) FX. e) FY (y). y). para x. y ≥ 0. fX (x).

y) = 1 (x + y) e−x−y . y) y x Figura 3. f) fX|Y (x|y). Grafique y compruebe que f (x. Sea (X. o 2 . l) P (XY < 1). Y ) un vector con funci´n de densidad f (x. y) es una funci´n de densidad y calcule o f (x.Y (x. y) = 1 (x+y) e−x−y . b) fY (y). y). y) = 8xy. k) P (Y > 1/2 | X > 1/2). para x. Ejercicios 304. o 2 para x. X < 1/2).14. j) P (Y < 1/2. i) FY |X (y|x). Sea (X. Compruebe que a f (x. y) es una funci´n de o densidad. y > 0.13. para o 0 < x < y < 1. n) P (|X − Y | < 1).14: Funci´n de densidad f (x. cuya gr´fica aparece en la Figura 3. c) FX. 305. h) FX|Y (x|y). Y ) un vector con funci´n de densidad f (x.194 3. d) FX (x). Calcule adem´s a a) fX (x). y > 0. g) fY |X (y|x). e) FY (y). m) P (X + Y < 1).

y) = 4x(1 − y).15: Funci´n de densidad f (x. o para 0 < x.Y (x. g) fY |X (y|x). Sea (X. y) 1 1 x y Figura 3. f) fX|Y (x|y). y). b) fY (y). para 0 < x. d) FX (x). e) FY (y). i) FY |X (y|x).15. y) es efectivamente una funci´n de densidad y o calcule . n) P (|X − Y | < 1). o Compruebe que f (x. Vectores aleatorios a) fX (x). l) P (XY < 1). y) = 4x(1 − y). k) P (Y > 2 | X < 1). 195 306. m) P (X + Y > 1).Cap´ ıtulo 3. a f (x. c) FX. h) FX|Y (x|y). j) P (0 < X < 1. 0 < Y < 1). y < 1. Y ) un vector con funci´n de densidad f (x. cuya gr´fica se muestra en la Figura 3. y < 1.

j) P (X > 1/2). Y ) un vector con funci´n de densidad dada por la siguiente o tabla x\y -1 0 1 1 . k) P (1/4 < Y < 3/4 | X < 1/2). g) fY |X (y|x).196 a) fX (x). y) = 3y.1 Calcule a) P (X = 2). Calcule a) P (X = Y ).05 . e) FY (y). 6}. .05 . c) E(Y ) y E(Y | X = x).05 3 . . Sea (X. 6}× o {1. i) FY |X (y|x). . c) fX (x) y fY (y). m) P (2X − Y > 1). para o 0 < x < y < 1. . b) fX (x) y fY (y). . . 3. b) P (X + Y ≤ 6). y) es efectivamente una funci´n o de densidad y calcule a) P (X + Y < 1/2).1 .2 . Y ) un vector con distribuci´n uniforme en el conjunto {1. Compruebe que f (x. f) fX|Y (x|y).13. l) P (Y > X 2 ). Sea (X. b) fY (y). P (X + Y = 1) y P (Y ≤ X). Ejercicios h) FX|Y (x|y).05 2 . n) P (|X − 2Y | < 1). d) FX (x).3 . . 308. . y).Y (x. 307. d) E(X | X + Y = 6). Sea (X. 309.1 . c) FX. . Y ) un vector con funci´n de densidad f (x.

3. Y ) un vector aleatorio absolutamente continuo con funci´n de o densidad fX.Cap´ ıtulo 3. y s´lo si. a) Si A ⊆ B. 313. . y). Sea (X. . para casi todo par de n´meros x y y se cumple o u fX. Vectores aleatorios b) fX (x) y fY (y). Demuestre que los eventos A y B son independientes si. entonces E(X | A) ≤ E(X | B). Sean A y B dos eventos con probabilidad positiva y sea X una variable con esperanza finita. y s´lo si.}. 2. 3. las o variables aleatorias indicadoras 1A y 1B lo son. . suponga que X es independiente de cualquier otra variable aleatoria. Sean X y Y variables aleatorias discretas con valores en los conjuntos {x1 . es uniforme o en el intervalo (0. 314. d) E(Y | X = x) para x = 1. x2 . y) = fX (x) fY (y). u). P (X = xi . 2. . Demuestre que las variables X y Y son independientes si. respectivamente. 315. Sean X y Y independientes ambas con distribuci´n exp(λ). 311. y2 . demuestre que X es constante. . .Y (x. c) fY | X (y | x) para x = 1. Demuestre o proporcione un contraejemplo. Y = yj ) = P (X = xi ) P (Y = yj ). . . 197 310. Demuestre o que la distribuci´n condicional de X dado que X + Y = u.} y {y1 . b) E(X | A) ≤ E(X). y s´lo si. Demuestre la variable aleatoria constante es independiente de cualquier otra variable aleatoria. Inversamente.Y (x. Demuestre que X y Y son independientes si. j = 1. para cualesquiera valores de los ´ o ındices i. . . 2. Independencia de variables aleatorias 312.

Xn ) son independientes. . Demuestre que cada uno de los siguientes pares de variables aleatorias tambi´n son independientes. 0 < y < b. y) = 2e−x−y . . a) X + y Y + . Sean X1 . a) f (x. para 0 < x < y. e 317. . 321. . para 0 < x < a. Demuestre que las variables g1 (X1 ). para 0 < x. . . Demuestre que si tres variables aleatorias son independientes. xn ) en Rn se cumple o FX1 .. y sea 1 ≤ k < n. c) X − y Y + . . y < 1. . .. . . a) X y − Y . Demuestre que cada niciones X + = m´x{0. . . . . . . Sean X1 .. Sean g : Rk → R y h : Rn−k → R funciones Borel medibles. . . y sean g1 . 322.. 320. y) = 2x. . . El siguiente e ejercicio generaliza este resultado. demuestre que a cualquier subconjunto finito de un conjunto de variables aleatorias independientes tambi´n lo es. . . y s´lo si. Xn independientes. . M´s generalmente. Ejercicios 316. .13. d) X − y Y − . y) = 1 . . para cualquier vector (x1 . Sean X y Y dos variables aleatorias independientes. . Xn independientes. c) f (x. entonces cualesquiera dos de ellas lo son. . Xn son independientes si. Xk ) y h(Xk+1 . . ab b) f (x. .Xn (x1 . . . gn (Xn ) son independientes. . . . 318. . Recuerde las defia ın{0. Determine si las siguientes son funciones de densidad de variables aleatorias independientes. X}. . Demuestre que las variables aleatorias X1 . gn : R → R funciones Borel medibles. b) X + y Y − . X} y X − = − m´ uno de los siguientes pares de variables aleatorias tambi´n son indee pendientes.198 3. Demuestre que las variables aleatorias g(X1 . Sean X y Y independientes. 319. xn ) = FX1 (x1 ) · · · FXn (xn ). b) |X| y |Y |.

a) P (X > x. Demuestre que X y Y son independientes si. 2 2 b) F (x. Y ≤ y) = P (X > x) P (Y ≤ y). y < 1. Z independientes. c) P (X > x. Demuestre que X y Y son independientes si. Y independientes ⇔ X + Y. 326. para x. Y > y) = P (X > x) P (Y > y). para cualeso quiera n´meros reales a < b y c < d. Y > y) = P (X ≤ x) P (Y > y). Determine si las siguientes son funciones de distribuci´n de variables o aleatorias independientes. Z independientes ⇔ X + Y. Demuestre en cada caso. Y 2 independientes. Y independientes ⇔ X 2 . 325. Y 2 independientes. a) F (x. Y independientes ⇔ X + Y. Y independientes ⇔ X. 1]. . e) X. c) X. y > 0. Y. y > 0. g) X. Z independientes ⇔ XY.Cap´ ıtulo 3. para x. cualquiera de o las siguientes condiciones se cumple: Para cada par de n´meros reales u x y y. para x. y ∈ [−1. f ) f (x. Z independientes. Y independientes ⇔ XY. Y independientes. y) = e−x−y . para x. f ) X. Diga falso o verdadero. Vectores aleatorios d) f (x. y) = (1 − e−x )(1 − e−y ). d) X. X − Y independientes. b) P (X ≤ x. a) X. y) = 3(x2 + y 2 )/8. u P (a < X ≤ b. 324. y s´lo si. 199 323. y) = (1 − e−x )(1 − e−y ). b) X. Y independientes. e) f (x. Y. y > 0. c < Y ≤ d) = P (a < X ≤ b) P (c < Y ≤ d). para 0 < x. y) = 3x(1 − xy). y s´lo si.

Sean X y Y independientes. 335. Eno cuentre la distribuci´n del vector (U. . 1. Demuestre que P (Y > X) = λ1 /(λ1 + λ2 ). Y }. . a b) Z = m´ ın{X. Encuentre la funci´n de densidad de X + Y cuando X y Y son indeo pendientes con distribuci´n uniforme en los conjuntos {0. . Xn variables aleatorias independientes cada una con distribuci´n Ber(p). . . Sean X y Y independientes ambas con distribuci´n unif{1. . Sean X y Y independientes ambas con distribuci´n exp(λ). Ejercicios 327. . λ1 /(λ1 + λ2 )). . . o 329. p). n}. Encuentre la esperanza y varianza de Z. Determine o adem´s si las variables U y V son independientes. 328. . y sea a o una constante. V ) = (X + Y. .13. 1. Sean X y Y independientes con distribuci´n exp(λ1 ) y exp(λ2 ) reso pectivamente. Sean X y Y independientes ambas con distribuci´n normal est´ndar. o a Demuestre que Z = aX + bY + c tiene distribuci´n normal cuando o ab = 0. . Sean X1 . Y } ≤ aX) y P (m´ a ın{X. . . . 331. . Xn independientes con distribuci´n geo(p). Demuestre que la distribuci´n condicional o de X dado que X + Y = n es bin(n. Y }. Calcule P (X1 + · · · + Xn = k) para k = 0. o 334. a 330. Demuestre que E(m´ ın{X. 333. . . 336. X − Y ). Encuentre la funci´n de distribuci´n de o o Z en t´rminos de FX (x) y FY (y) cuando e a) Z = m´x{X. Y }) = ∞ n=1 P (X ≥ n)P (Y ≥ n). . n} y o {0. . . m} respectivamente. . Calcule P (m´x{X. . . Sean X y Y independientes con valores enteros naturales y con esperanza finita. Demuestre o que la variable X1 + · · · + Xn tiene distribuci´n bin neg(n. 1.200 3. Y } ≤ aX). 332. n. . Sean X1 . Sean X y Y independientes con distribuci´n Poisson de par´metros o a λ1 y λ2 respectivamente.

n}×{1. y) o de un vector discreto (X. Demuestre que X y Y son independientes. Demuestre que m´ a ın{X. . 339. 2. y) una funci´n de densidad o y grafique esta funci´n. Sean X y Y variables independientes con distribuci´n exponencial o con par´metros λ1 y λ2 respectivamente. 338. . Y ) un vector aleatorio con funci´n de densidad f (x. m}. o para 0 < x < y < 1. con n y m enteros positivos. Sea (X. Calcule adem´s las a probabilidades P (X = 1). para o 0 < x < y < 1. con la condici´n de que X y Y sean independientes. Y ) un vector con funci´n de densidad f (x. Y } tiene distribuci´n exponencial con par´metro λ1 + λ2 . c) Encuentre las funciones de densidad marginales fX (x) y fY (y). Este resultado puede extenderse al caso de n variables independientes exponenciales. o b) Calcule P (X + Y > 1) y P (X ≤ 1/2). y) = o c/2x+y . . Sea (X. Vectores aleatorios 201 337. a) Encuentre el valor de c que hace a f (x. y) = 2. Usando la siguiente tabla.Cap´ ıtulo 3. 343. Y ) un vector discreto con distribuci´n de probabilidad uniforo me en el conjunto {1. Sean X y Y independientes e id´nticamente distribuidas. Sea (X. X2 }) = λ1 /(λ1 + λ2 ). . 341. Demuestre e que P (Y > X) = 1/2. o x\y 0 1 0 · · 1 · · 340. 2. d) Determine si X y Y son independientes. construya una funci´n de densidad f (x. Y ). 342. y que P (X1 = o a m´ ın{X1 . . Sea (X. 1. y) = c (1 − x). . . P (X = 2 | Y = 2) y P (XY = 2). distinta de la densidad uniforme. para x = 0. Encuentre el valor de la constante c y determine si X y Y son independientes. y y = 1. Y ) un vector aleatorio con funci´n de densidad f (x. . .

p) y bin(m. z) es una funci´n de densidad. c) Determine si X y Y son independientes. a) Compruebe que f (x. c) Encuentre fX. Y.Z (y. y) es una funci´n de densidad. o b) Calcule P (X > 0). Sea (X. z) = o 24x. y) = c |x + y|. 348. d) Calcule P (Y > X) y P (Y > X 2 ).Z (x. fX. o b) Calcule P (X + Y < 1) y P (Z − X > 1/2).13. 347.202 3. y. o b) Encuentre las funciones de densidad marginales fX (x) y fY (y). Sean X y Y independientes con distribuci´n Poisson con par´metros o a λ1 y λ2 respectivamente. Z) un vector aleatorio con funci´n de densidad f (x. p). y < 1. z) = o 8xyz.Y (x. z < 1. Demuestre que X+Y tiene distribuci´n bin(n+m. 344. Sea (X. y. y). Sea (X. a) Compruebe que f (x. a) Encuentre el valor de la constante c que hace a f (x. Y. Z) un vector aleatorio con funci´n de densidad f (x. z). para o −1 < x. z) es una funci´n de densidad. Y y Z son independientes. 345. o respectivamente. o b) Calcule P (X < Y < Z) y P (X + Y + Z < 1). para 0 < x < y < z < 1. o 346. Ejercicios a) Grafique y demuestre que f (x. Demuestre que X + Y tiene distribuci´n o Poisson(λ1 + λ2 ). . para 0 < x. y. d) Determine si X. y) una funci´n o de densidad y grafique esta funci´n. P (XY > 0) y P (0 < X + Y < 1). c) Encuentre las funciones de densidad marginales fX (x) y fY (y). z) y fY. Y ) un vector con funci´n de densidad f (x. Sean X y Y independientes con distribuci´n bin(n. p). y. y. d) Determine si X y Y son independientes.

Y y Z son independientes. b) f (x. y) = 3(x2 + y 2 )/8. y) = (1. . a l´ P (m´x{X1 . Demuestre que E(X | X + Y = n) = n · λ1 . z) y fY.Y (x. Diga falso o verdadero justificando en cada caso. (1. −1). 0). . . Sea X1 .  0 otro caso. . −1).Cap´ ıtulo 3. Xn son independientes e integrables. 203 349. (−1. c) X con distribuci´n uniforme en {−1.Z (y. 1} y Y = 1(X=0) . Encuentre una distribuci´n conjunta de dos variables aleatorias X y o Y que no sean independientes y que Y tenga distribuci´n marginal o Ber(p). . . Sean X y Y independientes con distribuci´n Poisson de par´metros o a λ1 y λ2 respectivamente. 354. . . y ∈ [−1. Demuestre que la condici´n E(XY ) = E(X)E(Y ) no implica necesao riamente que X y Y son independientes. Sean X y Y independientes. Vectores aleatorios c) Encuentre fX. 1). 0. Esperanza de una funci´n de un vector aleatorio o 352. y). y) = 1/2 si (x. Demuestre que para cualquier o λ > 0.   1/8 si (x. d) Determine si X. a) f (x. ım n→∞ 350. 1]. . X2 .Z (x. o 353. λ1 + λ2 351. fX. z). entonces E(X1 · · · Xn ) = E(X1 ) · · · E(Xn ). . . una sucesi´n de variables aleatorias independientes o cada una con distribuci´n unif(0. y) = (0. Para ello considere cualquiera de los siguientes ejemplos. (−1. Demuestre que si las variables X1 . para x. 1). Xn } ≤ 1 − λ/n) = e−λ . 1). .

05 . Xn independientes con id´ntica distribuci´n y con espee o ranza finita.1 0 . .06 . y) y compruebe que efectivamente se trata de una funci´n de densidad conjunta. Demuestre que Var(XY ) = Var(X) Var(Y ) + E 2 (X) Var(Y ) + E 2 (Y ) Var(X).04 .1 . . Verifique que ambas funciones son efectivamente de densidad. o b) Calcule y grafique las densidades marginales fX (x) y fY (y).2 .3 a) Grafique f (x. 356. x\y 1 2 3 -1 . entonces E(X1 | X1 + · · · + Xn = x) = x . 355. Y ) un vector discreto con siguiente tabla. Sea (X.05 1 . . Sea (X. c) Var(XY ) = Var(X)Var(Y ). x\y 2 1 2/18 2 3/18 3 1/18 funci´n de densidad dada por la o 4 3/18 5/18 1/18 6 1/18 1/18 1/18 . y) o dada por la siguiente tabla. n 357. d) Calcule E(XY ) y fX+Y (u). .204 3.1 . Sean X y Y variables aleatorias independientes con varianza finita. Sean X1 . 358. c) Demuestre que X y Y no son independientes. Demuestre que si x es tal que fX1 +···+Xn (x) = 0. Y ) un vector aleatorio discreto con funci´n de densidad f (x. Ejercicios a) Var(X + Y ) = Var(X) + Var(Y ). b) Var(X − Y ) = Var(X) − Var(Y ).13.

a) Grafique f (x. 1]. ab b) f (x. y) = 4xy. d) Calcule E(XY ) y fX+Y (u). y) = 8xy si 0 < y < x < 1. y) y compruebe que efectivamente es una funci´n o de densidad conjunta. Esperanza y varianza de un vector 360. Y ) = a. c) Demuestre que X y Y no son independientes. Verifique que ambas son efectivamente funciones de densidad. Covarianza 361. Verifique que ambas son efectivamente funciones de densidad. para x. para 0 < x < a. . 0 < y < b. Sea (X. b) Encuentre y grafique las densidades marginales fX (x) y fY (y). Y ) un vector aleatorio con funci´n de densidad dada por o f (x. y) = 1 .Cap´ ıtulo 3. 0 otro caso. Sea a cualquier n´mero real fijo. Calcule la esperanza y varianza del vector aleatorio (X. d) Calcule E(XY ) y fX+Y (u). Vectores aleatorios 205 a) Grafique f (x. y) y compruebe que efectivamente es una funci´n o de densidad conjunta. 359. b) Calcule y grafique las densidades marginales fX (x) y fY (y). y ∈ [0. Y ) cuya funci´n de densidad conjunta es o a) f (x. c) Demuestre que X y Y no son independientes. Encuentre variables aleatorias X y u Y tales que Cov(X.

b constantes. 366. 365. e) Cov(aX + b. a) Cov(X. c) Cov(X. Y ) = 0.13. b constantes. X) = Var(X). Z) = 0 ⇒ Cov(X. Y ) = E(XY ) − E(X)E(Y ). c) Cov(X. Demuestre que Var(X ± Y ) = Var(X) + Var(Y ) ± 2 Cov(X. Y ) + Cov(X2 . b) Cov(X. con a. Z) = a ⇒ Cov(X. b constantes. Y ). Z) > 0 ⇒ Cov(X. Diga falso o verdadero. 364. En el texto se proporciona un ejemplo para un vector discreto. X). Demuestre que a) Cov(X. Y ≥ 0 ⇒ Cov(X. −X) = −Var(X). Demuestre en cada caso. d) Cov(X. bY ) = ab Cov(X. Xk ). 367. Y ). Z) = 0. Demuestre que n a) Var(X1 + · · · + Xn ) = Var(Xk ) + 2 k=1 j<k Cov(Xj . a) X ≥ 0. con a. Diga falso o verdadero. Y ) = Cov(X1 . con a. Y ) > 0. c) Cov(X. 363. Y ) ≥ 0. Demuestre en cada caso. b) Cov(aX. Y ) = a Cov(X. Y ). . b) Cov(X. Y ). construya ahora un ejemplo para un vector continuo. Cov(Y. Y ) = a. Cov(Y. Cov(Y. Ejercicios 362. Y ) + b. Y ) = Cov(Y.206 3. aY + b) = a Cov(X. Y ) ≥ 0. Z) > 0. Z) = a. Y ) = 0 no es suficiente para cono cluir que X y Y son independientes. f ) Cov(X1 + X2 . d) Cov(X. Demuestre que la condici´n Cov(X.

a x\y 2 4 6 1 . d). o Demuestre que Cov(X. n. . Calcule la covarianza de X y Y cuya funci´n de densidad conjunta o est´ dada por la siguiente tabla.05 . . k=1 e o 369.05 2 . j=1 bj Yj ) = i=1 j=1 ai bj Cov(Xi . 370. cuya funci´n de densidad conjunta es o a) f (x. . Y ) con distribuci´n uniforme en el conjunto {1.2 . . 0 < y < b. 368. n}×{1. Calcule la covarianza de X y Y cuya funci´n de densidad conjunta o est´ dada por la siguiente tabla. Vectores aleatorios n m n m 207 b) Cov( i=1 ai Xi . Y ) = 0. . Sea (X. 372. Y ) = 0. . . o Demuestre que Cov(X. . . Sea (X. a x\y -1 1 -1 1/12 3/12 0 2/12 2/12 1 3/12 1/12 373.Cap´ ıtulo 3. Sean X1 . Yj ). n}.15 .1 . Y ) con distribuci´n uniforme en el conjunto (a. Sean X1 . . Xn independientes y con id´ntica distribuci´n. . Calcule la covarianza de X y Y . . . .1 3 . Demuestre que para cada k = 1. . Defina ¯ X = (X1 + · · · + Xn )/n. ab . ¯ ¯ Cov(Xk − X. y) = 1 . . . 371. X) = 0. b) × (c.05 . . Xn independientes y con varianza finita. . . para 0 < x < a.15 374. Demuestre que n Var(X1 + · · · + Xn ) = Var(Xk ).15 .

Sean X y Y independientes con distribuci´n Ber(p) con p = 1/2. 380. a) ρ(X. o Demuestre que el coeficiente de correlaci´n entre X + Y y |X − Y | es o cero.208 3. d) ρ(X. c) f (x. Z) = 0. y) = 3x2 y. a. Y ) = ρ(X. Z) = a ⇒ ρ(X. ρ(Y. Z) > 0 ⇒ ρ(X. Coeficiente de correlaci´n o 376. b) ρ(X + a. Y ) = a. o Demuestre que Cov(X. Y ) > 0. ρ(Y. Demuestre en cada caso. f ) ρ(X. X). Demuestre en cada caso. Demuestre nuevamente que −1 ≤ ρ(X. σY . 379. b) ρ(X. ρ(Y. Encuentre variables aleatorias u X y Y tales que ρ(X. 1]. ahora a partir de la desigualdad de Cauchy-Schwarz. y) = e−x /2. Z) < 0 ⇒ ρ(X. d) f (x. ρ(Y. Z) = −1. σX . . para − 1 < x < 1. y sin embargo estas variables aleatorias no son independientes. Sea a un n´mero cualquiera en [−1. Y ) = ρ(Y. 2 2 375. y) = e−x−y . e) ρ(X. Y )ρ(Y. y > 0. Z) = a. Diga falso o verdadero. ρ(Y. b constantes. 0 < y < 1. ρ(Y. g) ρ(X. Z) = −1. Z) = 1.13. Y ) = a ρ(X. Y ) = 1. Z) > 0. Ejercicios b) f (x. Y ) + b. c) ρ(aX + b. Y ) un vector con distribuci´n normal N(µX . Z) = −1 ⇒ ρ(X. µY . 377. Z) = 0 ⇒ ρ(X. Y ). 378. Y ) = 0. Sea (X. para |y| < x. Z) = −1 ⇒ ρ(X. Y ) = ρ σX σY . Z) = 1 ⇒ ρ(X. Diga falso verdadero. Y ) < 0. para x. Z) < 0. Y ) ≤ 1. Y ) = −1. c) ρ(X. a constante. Y ) = a. a) ρ(X. ρ).

b) ρ(X. 384. Recuerde que   +1 signo(x) = −1  0 signo(ac) · ρ(X. Demuestre que ρ(aX + b. Demuestre que el coeficiente o a de correlaci´n entre X y X 2 es cero. o o 382. c) ρ(X. 383. X) = 1.Cap´ ıtulo 3. Sea X con distribuci´n normal est´ndar. si x = 0. Demuestre que a) ρ(X. Y ). aX + b) = signo(a). si x < 0. −X) = −1. y sin embargo estas variables no o son independientes. Vectores aleatorios 209 381. en donde si x > 0. cY + d) = ac = 0. Sea X una variable aleatoria y sean a y b constantes. Calcule el coeficiente de correlaci´n de X y Y con distribuci´n cono o junta uniforme en el conjunto . Calcule el coeficiente de correlaci´n de X y Y cuya funci´n de densidad o o conjunta est´ dada por la siguiente tabla. Calcule el coeficiente de correlaci´n de X y Y cuya funci´n de densidad o o conjunta est´ dada por la siguiente tabla. a x\y 0 1 1 1/8 1/2 2 1/4 1/8 385. Este resultado puede extenderse al caso en el que la distribuci´n de X cumple la condici´n E(X) = E(X 3 ) = 0. a x\y 2 4 6 1 1/9 1/9 1/9 2 1/9 1/9 1/9 3 1/9 1/9 1/9 386.

Observe que en el caso i = j. 1]. . . pi ). para x. . . . Demuestre que E(X) = (np1 . . . 387. Calcule el coeficiente de correlaci´n de X y Y cuya funci´n de densidad o o conjunta es a) f (x.13. pk−1 ). 388. . . Distribuci´n multinomial o 390. npk−1 ) a y que npi (1 − pi ) si i = j. . . Y ) un vector con distribuci´n normal N(µX . . y) = c) f (x. b) [−1. Demuestre que cada coordenada Xi tiene distribuci´n marginal bin(n. y > 0. k − 1. Sea (X1 . y ∈ [0. . . p1 . [Var(X)]ij = −npi pj si i = j. pk−1 ). Demuestre que la funci´n de densidad de la distribuci´n multinomial o o efectivamente lo es. e−x−y . o Demuestre que ρ(X. para |y| < x. o 392. µY . . π/2]. . ρ).210 3. Ejercicios a) {1. + y). n}. . Xk−1 ) un vector con distribuci´n multinomial de o par´metros (n. 1] × [−1. Sea X = (X1 . . Sea X con distribuci´n bin(n. . 391. . p) y sea Y = n − X. . . . . el signo negativo en la covarianza indica que cuando una variable crece la otra decrece. Y ) = −np(1 − p). y por lo tanto ρ(X. . . Sea (X. . para i = 1. Y ) = ρ. y) = 1 2 sen(x e−x /2. . . Xk−1 ) un vector con distribuci´n multinomial de par´meo a tros (n. . Demuestre que o Cov(X. p1 . Y ) = −1. 2 2 389. . n} × {1. para x. σX . y) = b) f (x. . . σY .

394. µ2 . N N N −1 Distribuci´n normal bivariada o 396. σ2 ). Sea (X. . Sea X = (X1 . . Ni . y que   n · Ni · N − Ni · N − n si i = j. g(x. . . Defina 2f (x. Demuestre que a E(X) = (nN1 /N. 395. Nk . Y ) un vector con distribuci´n normal N(µ1 . . n). n). Deo 2 ). V´ase el siguiente ejercicio para verificar o e que el rec´ ıproco de este resultado es falso. 2 2 397. .    N N N −1 [Var(X)]ij =    n · Ni · Nj · n − N  si i = j. . . Sea (X1 . . . N1 . . Nk . Sea f (x. σ1 o 2 buci´n marginal N(µ2 . N1 . σ1 . . y) = 0 si xy ≥ 0. nNk /N ). y Y tiene distrimuestre que X tiene distribuci´n marginal N(µ1 . . . . y) es una funci´n de densidad bivariada que no es o normal pero cuyas densidades marginales son normales est´ndar. Demuestre que la funci´n de densidad de la distribuci´n hipergeom´trio o e ca multivariada efectivamente lo es. . 398. n). Vectores aleatorios 211 Distribuci´n hipergeom´trica multivariada o e 393. Demuestre que g(x. . y) la funci´n de densidad normal bivariada est´ndar con ρ = o a 0. Xk ) con distribuci´n hipergeom´trica multivariada o e con par´metros (N. σ2 . para i = 1. ρ). . . k. a . Xk ) un vector con distribuci´n hipergeom´trica multivao e riada con par´metros (N. . . y) si xy < 0.Cap´ ıtulo 3. . Demuestre que la funci´n de densidad de la distribuci´n normal bivao o riada efectivamente lo es. . Demuestre que cada coordea nada Xi tiene distribuci´n hipergeom´trica univariada con par´metros o e a (N. .

Deo muestre que E(X) = (µX . µY ). Demuestre ahora que las l´ ıneas de contorno f (u. y que la distribuci´n condicional de X dado que Y = y es normal con media o 2 µ1 + ρ(y − µ2 )σ1 /σ2 y varianza σ1 (1 − ρ2 ). (y− e o µY )/σY ). v) = ((x−µX )/σX . Sea (X. v) = c son las elipses (u − ρv)2 v2 = 1. Ejercicios 2 2 399. Y ) = 2 σX ρ σX σY ρ σX σY 2 σY . σY . ρ). .13. Deo muestre que la distribuci´n condicional de Y dado que X = x es o 2 normal con media µ2 + ρ(x − µ1 )σ2 /σ1 y varianza σ2 (1 − ρ2 ). µ2 . y Var(X. la funci´n de densidad normal bivariada se puede escribir como sigue f (u.212 3. 2) + ln k2 ln k2(1−ρ Cuando ρ = 0 las elipses se reducen al c´ ırculo u2 + v 2 = ln k2 . v) = 1 2π 1− ρ2 exp ( − 1 1 (u − ρv)2 − v 2 ). µY . 2 2 400. 2) 2(1 − ρ 2 Sea c > 0 y defina k = 1/(2πc 1 − ρ2 ). ρ). σ1 . Sea (X. 401. Y ) un vector con distribuci´n normal N(µ1 . Demuestre que a trav´s del cambio de variable (u. Y ) un vector con distribuci´n normal (µX . σX . σ2 .

la esperanza condicional de X dado Y = y es 213 . para hacer la notaci´n m´s simple en este cap´ o a ıtulo. Consideraremos que se cuenta con un espacio de probabilidad base (Ω. F . Hemos definido antes la esperanza de una variable aleatoria a X como la integral de Riemann-Stieltjes E(X) = ∞ −∞ x dFX (x). y a se estudian algunas de sus propiedades elementales. Esto corresponde a la integral de Lebesgue de la funci´n medible X respecto o de la medida de probabilidad P . P ). es conveniente en algunas ocasiones adoptar la notaci´n de la teor´ de la medida o ıa y denotar la esperanza de una variable aleatoria X mediante la siguiente integral E(X) = Ω X dP. y que G es una sub σ-´lgebra de F . Recordemos que si se conoce la distribuci´n de un vector (X. Y ) y se toma o un valor y tal que fY (y) = 0. sin embargo.Cap´ ıtulo 4 Esperanza condicional En este cap´ ıtulo se presenta una breve introducci´n al concepto de espeo ranza condicional de una variable aleatoria respecto de una σ-´lgebra.

a pesar de su nombre. De manera an´loga. b) Tiene esperanza finita. Es importante hacer ´nfasis que la esperanza o e condicional.1) G .1. es una variable aleatoria denotada por E(X | G ). A)/P (A). Sea X una variable aleatoria con esperanza finita. y sea G una sub-σ-´lgebra de F . no es un n´mero. Esperanza condicional He aqui la definici´n general. c) Para cualquier evento G en G . La esperanza condicional que definiremos en este cap´ ıtulo generaliza estos conceptos. que cumple las siguientes tres propiedades. Esperanza condicional y → E(X | Y = y) = ∞ −∞ x dFX|Y (x|y). a) Es G -medible. cuando fY (y) = 0. (Esperanza condicional).214 la funci´n o 4. ´ Definicion. si A es un evento con probabilidad a positiva y X es una variable aleatoria integrable.1. E( X | G ) dP = X dP. en donde FX|A (x) = P (X ≤ x | A) = P (X ≤ x. u sino una variable aleatoria. G (4. La esperanza cona dicional de X dado G . aunque puede serlo. la esperanza condicional de X dado A es el n´mero u E(X | A) = ∞ −∞ x dFX|A (x). 4.

la esperanza condicional se escribe simplemente como E(X | Y ). El objetivo de este cap´ ıtulo es encontrar el significado de esta variable aleatoria. entonces con probabilidad uno coincide con o E(X | G ). puede dee mostrarse que esta variable aleatoria existe y es unica casi seguramente. E(X | Y = y).Cap´ ıtulo 4. interpretar su significado y explicar su relaci´n con el concepto de esperanza condicional elemental. ´ Notacion. a) Cuando la σ-´lgebra G es igual a σ(Y ). que la igualdad se verifica con probabilidad uno. . En lo sucesivo cuando se establezca que esta variable aleatoria es igual a alguna otra variable. la igualdad debe entonces entenderse en el sentido casi seguro. es decir. para alguna variable aleaa toria Y . a Usando el teorema de Radon-Nikodym (v´ase por ejemplo [5]). entonces la esperanza condicional E(1A | G ) se denota por P (A | G ). b) Si A es un evento. en lugar de E(X | σ(Y )). Haremos lo anterior principalmente en el caso cuando la σ-´lgebra G es generada por una variable aleatoria discreta. o mencionado antes. Esperanza condicional 215 Parte de la dificultad para entender esta definici´n general es que no se proo porciona una f´rmula expl´ o ıcita para esta variable aleatoria sino unicamente ´ las propiedades que cumple. ´ esto significa que si existe otra variable aleatoria que cumple las tres propiedades de la definici´n anterior. En la siguiente secci´n estudiaremos con m´s detalle la variable E(X | Y ) o a cuando Y es una variable aleatoria discreta.

entonces ω → E(X | Y )(ω) = E(X | Y = yj ). De este modo se construye la funci´n E(X | Y ) : Ω → R. y2 . Esperanza condicional: caso discreto 4. Observe que E(X | Y ) toma a lo sumo tantos valores distintos como lo hace la variable Y . y corresponde a un caso particular de la definici´n o general enunciada antes. o .216 4. y podemos considerar que es una funci´n o o de los posibles valores yj . . Demostraremos esto a continuaci´n. Suponga que X tiene esperanza finita y que Y es discreta con posibles valores y1 . que resulta ser o una variable aleatoria. . La esperanza condicional de X dado el evento (Y = yj ) es el n´mero E(X | Y = yj ).2. Globalmente se puede escribir esta funci´n en t´rminos de o e funciones indicadoras como sigue E(X | Y )(ω) = ∞ j=1 E(X | Y = yj ) 1(Y =yj ) (ω). Esperanza condicional: caso discreto Sean X y Y dos variables aleatorias. o bien que tenemos una funci´n definida sobre el espacio muestral de la siguiente forma: Si ω es tal que Y (ω) = yj . .2. Este valor depende u naturalmente del evento (Y = yj ).

y en consecuencia es verdaderamente una variable aleatoria. (Y = y2 ) . b) Tiene esperanza finita. . . . Como E(X | Y ) es constante en cada elemento de la partici´n. G (4. Esperanza condicional 217 ´ Proposicion. y2 . o a) A trav´s de sus posibles valores la variable aleatoria Y secciona el ese pacio muestral Ω en eventos disjuntos. La m´ ınima σ-´lgebra respecto de la cual la funci´n Y es variable aleaa o toria es σ(Y ) = σ{(Y = y1 ). . . . caso discreto). La funci´n E(X | Y ) : Ω → R dada por o ω → E(X | Y )(ω) = E(X | Y = yj ) si Y (ω) = yj .2) G Demostraci´n. c) Para cualquier evento G en σ(Y ). b) Tomando el evento G como Ω en la tercera propiedad se obtiene que tanto X como E(X | Y ) tienen la misma esperanza. (Y = y1 ). es una variable aleatoria que cumple las siguientes propiedades. a) Es σ(Y )-medible. a saber. y sea Y discreta con valores y1 .Cap´ ıtulo 4. (Esperanza condicional. por propiedades de la integral es suficiente demos- . . E( X | Y ) dP = X dP. (Y = y2 ).} ⊆ F . . resulta que esta funci´n o o es σ(Y )-medible. Sea X una variable aleatoria integrable. c) Como cada elemento de σ(Y ) es una uni´n ajena de elementos de la o forma (Y = yj ).

Y = yj ) = Ω = (Y =yj ) X(ω) dP (ω). Veremos a continuaci´n un caso particular de esta variable aleatoria. El primer t´rmino es e un posible valor num´rico del segundo t´rmino que es una variable aleatoria. y de que cualquier funci´n medible respecto de la o . y tambi´n puede considerarse a e como una generalizaci´n del concepto de esperanza. o 1. Ω} ) = P (A). Esta igualdad se sigue del hecho que la variable E(X | G ) es medible respecto de G . 3. Demostraci´n. E( 1A | {∅. Tenemos entonces que (Y =yj ) E(X | Y )(ω) dP (ω) = E(X | Y = yj ) P (Y = yj ) = Ω X(ω) dP (ω | Y = yj ) P (Y = yj ) X(ω) dP (ω. E( 1A | {∅.2) para estos eventos simples. 2.218 4. B c . Esperanza condicional: caso discreto trar (4. e e sin embargo a ambas expresiones se les llama esperanza condicional. Demostrao remos que la esperanza condicional puede verse como una generalizaci´n del o concepto b´sico de probabilidad condicional. y sean A y B eventos tales que 0 < P (B) < 1. o ´ Proposicion. Observe la diferencia entre E(X | Y = yj ) y E(X | Y ). Ω} ) = E(X).2. Ω} ) = P (A | B) 1B + P (A | B c ) 1B c . E( X | {∅. Sea X con esperanza finita. Entonces 1. B.

Sea B1 . . a B E( 1A | G ) dP = B 1A dP = P (A ∩ B). n E(1A | σ{B1 . . Ejercicio. y P (A | B c ) sobre B c . El an´lisis es an´logo al considerar el evento B c . La tercera condici´n en la definici´n a o o general de esperanza condicional implica que esta constante debe ser E(X). Observe en particular que la tercera propiedad dice que si la σ-´lgebra a G es generada por la partici´n elemental {B. para cualquier ω en B. Adem´s. y de esto se obtiene la f´rmula a o enunciada.Cap´ ıtulo 4. Ω} es constante tanto en B como en B c . El siguiente ejercicio es una generalizaci´n o de este resultado. . B c . . Encuentre una distribuci´n conjunta de dos variables aleatorias o . 2. . B. 3. B c }. Demuestre que para cualquier evento A. Bn una partici´n de Ω tal que cada uno de estos o elementos tiene probabilidad estrictamente positiva. entonces la esperanza o condicional de 1A es una variable aleatoria que toma dos valores: P (A | B) sobre B. Bn }) = i=1 P (A | Bi ) 1Bi . para cualquier ω en B. Observe que toda funci´n medible respecto de la σ-´lgebra G dada o a por {∅. . . el lado izquierdo es igual a E( 1A | G )(ω) P (B). Esta igualdad es evidentemente un caso particular de la primera. Esperanza condicional 219 σ-´lgebra {∅. De donde se a obtiene E( 1A | G )(ω) = P (A | B). . Ejercicio. Ω} es constante. Como la variable aleatoria E( 1A | G ) es constante en B.

tenemos 6 E(1A | G ) = i=1 P (A | Bi ) 1Bi = P (A | A) 1A = 1A . evento u u B c . 4.220 4. . para i = 1.2. Esperanza condicional: caso discreto X y Y de tal forma que E(X | Y ) tenga distribuci´n Ber(p). Ω. G = 2Ω con Ω = {1. 5. . Esta σ-´lgebra puede distinguir o a los resultados ”Cae n´mero par”. que se apuesta a que se obtiene el n´mero ”2”. 6}. 6} y la colecci´n G = {∅. . por ejemplo. no hay sorpresas. Es decir. conocemos obviamente la probabilidad de ganar apostando por el numero ”2”. B = u {2. De esta forma E(1A | G ) es una funci´n que reporta las probabilidades de o ganar apostando por el n´mero ”2” en cada una de las dos situaciones que u la σ-´lgebra G distingue: resultado par o impar. 2. entonces definiendo los eventos Bi = {i}. Suponga. en cambio. es decir. evento B. Ejemplo. Entonces E(1A | G ) = P (A | B) 1B (ω) + P (A | B c ) 1B c (ω) 1 = 1B (ω) + 0 1B c (ω) 3   1 si ω ∈ B. 3. 6. B. cuando se sabe con precisi´n el resultado del o experimento. 4. . o La variable E(X | G ) puede interpretarse como la esperanza condicional de X dada la informaci´n de la σ-´lgebra G . B c }. ´sta es cero o uno. y ”Cae n´mero impar”. Considere el experimento aleatorio de lanzar un dado equilibrado e intentar adivinar el resultado que se obtiene. la σ-´lgea bra ”distingue” totalmente el resultado del lanzamiento del dado. 3 =  0 si ω ∈ B c . Ilustraremos esto en el siguiente o a ejemplo. e . a Si se toma. Defina los eventos A = {2}.

Por contradicci´n. 5. entonces E(X | G ) ≤ E(Y | G ). Algunas propiedades Veremos ahora algunas propiedades generales de la esperanza condicional. Si X ≥ 0. Recordemos que o las identidades o desigualdades que se establezcan para la esperanza condicional son v´lidas en el sentido casi seguro. Por otro lado. Entonces 1. Entonces tomando esperanzas se obtiene E(X · 1G ) < 0. suponga que existe G en G con probabilidad eso trictamente positiva tal que E(X | G ) · 1G < 0.Cap´ ıtulo 4. Si G1 ⊆ G2 . con probabilidad uno a se cumplen las afirmaciones. Demostraci´n. 3. E(c X + Y | G ) = c E(X | G ) + E(Y | G ). 4. En particular. Si X ≤ Y . Si X es G -medible. o 1. entonces E(X | G ) ≥ 0. Sean X y Y variables aleatorias con esperanza finita y sea c una constante.s. como X ≥ 0. E(E(X | G )) = E(X). En un ap´ndice al final del texto se encuentra e una lista m´s completa de propiedades de esta variable aleatoria. es decir.3. E(X · 1G ) ≥ 0. . a ´ Proposicion. 2. Esperanza condicional 221 4. otras propiedades se encuentran en la secci´n de ejercicios. 6. entonces E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ). E(c | G ) = c. entonces E(X | G ) = X c.

mientras que la cuarta propiedad establece que las variables aleatorias X y E(X | G ) tienen la misma esperanza. 4. 5. Una introducci´n a la esperanza condicional ligeramente m´s completa a la o a . G E(E(X | G1 ) | G2 ) dP = G E(X | G1 ) dP = X dP.1) y la propiedad de unicidad. Esto consecuencia de la primera propiedad y la linealidad aplicadas a la variable Y − X ≥ 0. 3. Sean X y Y independientes cada una con distribuci´n Ber(p). G G G En particular observe que la segunda propiedad dice que la esperanza condicional es lineal. entonces X mismo cumple con las tres propiedades de la definici´n de esperanza condicional. Ejercicio.222 4.3. por la unicidad se obtiene o la igualdad casi segura. Ω} realmente no proporciona ninguna o a informaci´n adicional del experimento aleatorio y por lo tanto la esperanza o se calcula directamente sobre la variable aleatoria. Esta igualdad es consecuencia de la linealidad de la esperanza no condicional. Para todo G ∈ G1 ⊆ G2 . Esta propiedad se obtiene tomando G = Ω en la igualdad (4. b) E |E(X | G )| ≤ E( |X| ). Ejercicio.1). la σ-´lgebra trivial {∅. Si X es G -medible. Demuestre las siguientes desigualdades: a) | E(X | G ) | ≤ E( |X| | G ). o en t´rminos de e informaci´n. 6. a E(E(X | G2 ) | G1 ) dP = E(X | G2 ) dP = X dP. o Encuentre E(X | X + Y ). Algunas propiedades 2. junto con (4. G An´logamente.

denotada por Var(X | G ). Varianza condicional Usando la esperanza condicional se puede obtener la varianza condicional de una variable aleatoria respecto de una σ-´lgebra de la siguiente forma. Otras propiedades se encuentran en la secci´n de ejercicios. se define como la variable aleatoria Var(X | G ) = E[ (X − E(X|G ))2 | G ]. Ω}) = Var(X). G -medible por u definici´n. (Varianza condicional). Despu´s de o e un c´lculo sencillo se puede comprobar que se reconstruye la varianza no a condicional en el siguiente caso particular: Var(X | {∅. La varianza condicional de X a dado G . y como en el caso no condicional. o .4. y sea G una sub-σ-´lgebra de F . a ´ Definicion. Nuevamente hacemos ´nfasis en que la varianza condicional no es necesae riamente un n´mero sino una variable aleatoria en general. Demostraremos a continuaci´n algunas propiedades elementales de esta vao riable aleatoria. 4. Esperanza condicional 223 presentada en esta secci´n. es no negativa. Sea X con segundo momento finito. puede encono e trarse en [24].Cap´ ıtulo 4. Un tratamiento m´s completo y riguroso puede consultarse a por ejemplo en [18] o [31]. aunque tambi´n sencilla y breve.

Var[E(X | G )] = E[E 2 (X | G )] − E 2 [E(X | G )] = E[E 2 (X | G )] − E 2 (X). 7. Tomando esperanza en la igualdad previa se obtiene E[Var(X | G )] = E(X 2 ) − E[E 2 (X | G )]. o 1. 6. Var(X | G ) ≥ 0. Var(X + Y | G ) = Var(X | G ) + Var(Y | G ). 4. Var(c X | G ) = c2 Var(X | G ). En general. Nuevamente es suficiente tomar Y = X para verificar la no igualdad. 3. Varianza condicional ´ Proposicion. 5. Var(X + c | G ) = Var(X | G ). Sean X y Y con varianza finita. 2. Entonces 1. 7. Por otro lado. y sea c una constante. Sumando estas ultimas dos expresiones se obtiene el resultado. Var(X) = E[Var(X | G )] + Var[E(X | G )]. Estas propiedades son una consecuencia inmediata de las propiedades ya demostradas de la esperanza condicional. Var(X | G ) = E(X 2 | G ) − E 2 (X | G ). 6. 5.4. – 4. ´ . Demostraci´n. Esta igualdad se obtiene a partir de la definici´n al desarrollar el o cuadrado y utilizar las propiedades de linealidad de la esperanza condicional.224 4. Var(c | G ) = 0.

entonces Var(X | G ) se escribe Var(X | Y ). Ejercicio.Cap´ ıtulo 4. Esperanza condicional 225 Nuevamente cuando la sub-σ-´lgebra G es σ(Y ). para alguna variable aleaa toria Y . b) E(X − E(X | G ))2 . . y puede tomarse como definici´n cualquiera de las siguientes expresiones: o Var(X | Y ) = E( (X − E(X | Y ))2 | Y ) E(X 2 | Y ) − E 2 (X | Y ). Demuestre que la esperanza de la variable Var(X | G ) es: a) E(X 2 ) − E(E 2 (X | G )).

Sea c una constante. Demuestre que E(1A | 1B )(ω) = P (A | B) si ω ∈ B.5. . a 403. Demuestre o proporcione un contraejemplo. Encuentre E(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla. Demuestre que E(X | {∅. Demuestre que si c es una constante. Demuestre que E(1A | {∅. 405.5. Ω}) = E(X | B) 1B + E(X | B c ) 1B c . Demuestre que el rec´ ıproco es en general falso. P (A | B c ) si ω ∈ B. Demuestre que E(X | {∅. Sea A un evento. Ejercicios 4. B. Ω}) = E(X). Demuestre que E(X | Y ) = E(X). B c . entonces E(c | G ) = c. x\y 1 2 -1 2/12 3/12 0 2/12 2/12 1 2/12 1/12 409. Se ha demostrado que si X ≥ 0 es integrable. Diga falso o verdadero. para cualquier sub-σ-´lgebra G . Ω}) = P (A). 411. Sean A y B dos eventos tales que 0 < P (B) < 1. Sea X una variable aleatoria con esperanza finita. Ejercicios Esperanza condicional 402. 404. entonces E(X | G ) ≥ 0. Sea X con esperanza finita y sea B un evento tal que 0 < P (B) < 1. 406. 1}. / 407. 408. Sea X integrable y sea Y constante.226 4. Encuentre una distribuci´n conjunta de dos variables aleatorias X y o Y de tal forma que E(X | Y ) tenga distribuci´n unif{−1. o 410.

. Sea B1 . Y ) = [E(X − Y )2 ]1/2 es m´ ınima cuando bi = E(X | Bi ). 412. y la suma es m´ ınima si. Demuestre que E 2 (XY | G ) ≤ E(X 2 | G ) E(Y 2 | G ). d) E(X | cX) = X.Cap´ ıtulo 4. b) E(X 2 | X) = X 2 . . . ǫ Sugerencia: Vea la demostraci´n de la desigualdad de Markov no cono dicional en la p´gina 347. c) E(X | X 2 ) = X. cada sumando lo es. independientes id´nticamente distribuidas y con espee ranza finita. . Sean X1 . cuando la variable Y es la esperanza condicional E(X | Y ). Demuestre que E(E 2 (X | G )) = E(X E(X | G )). . 415. P (X ≥ ǫ | G ) ≤ 1 E(X | G ). . Bn una partici´n finita de Ω en donde cada elemento tiene o probabilidad positiva. y sean b1 . . Defina Sn = X1 +· · ·+Xn . a 416. bn constantes cualesquiera. . Sugerencia: proceda como en la desigualdad de Cauchy-Schwarz en el caso no condicional. . 413. Demuestre que para cualquier constante ǫ > 0. Sea X ≥ 0 integrable. Demuestre que la distancia entre X y Y definida por d(X. e) E(X | X + c) = X. X2 . Demuestre que para 1 ≤ k ≤ n. 227 f) E(X | X + Y ) = X. Sugerencia: observe que E(X − Y )2 = n E[(X − i=1 bi )2 | Bi )P (Bi ). Esperanza condicional a) E(X | X) = X. o 414. . Defina la variable aleatoria discreta n Y = i=1 bi 1Bi . y s´lo si. Desigualdad de Markov condicional. . vea el ejercicio 191. es decir. Desigualdad de Cauchy-Schwarz condicional. Sea X con segundo momento finito. Sean X y Y con segundo momento finito.

418. . Sn+1 . b) Var(1A | {∅. Ω}) = P (A)(1 − P (A)). x\y 1 2 -1 2/12 3/12 0 2/12 2/12 1 2/12 1/12 419.}) = Sn /n. entonces Var(X | G ) = 0. 420. Ejercicios d) E(Sk | σ{Sn . Ω}) = Var(X). . c) E(Xk | σ{Sn . Demuestre que E( Var(X | G ) | G ) = Var(X | G ). entonces Var(Var(X | G )) = 0. c) si X es G -medible. . b) Var( Var(X | G ) | G ) = 0.228 a) E(Xk | Sn ) = Sn /n. 422. Demuestre que a) Var(X | {∅. Demuestre que E(X 2 | G ) ≥ E 2 (X | G ). Sn+1 . . . . 4. Demuestre que a) si X es G -medible. . Demuestre que Var(X) ≥ Var(X | G ). b) E(Sk | Sn ) = k Sn /n. 421.}) = k Sn /n. Varianza condicional 417.5. Encuentre Var(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla.

se encuentran f´rmulas expl´ o ıcitas para la funci´n de densidad de la suma. a o 229 . en t´rminos de la funci´n de o e o densidad de X. o diferencia.1. 5. Gr´ficamente tal transformaci´n se muestra en la Figura 5.Cap´ ıtulo 5 Transformaciones Sea X una variable aleatoria con distribuci´n conocida. Transformaci´n de una variable aleatoria o En esta secci´n se estudian un par de resultados que proveen de f´rmulas o o para la funci´n de densidad de la variable ϕ(X). producto y cociente de dos variables aleatorias absolutamente continuas. y sea ϕ es una o funci´n tal que Y = ϕ(X) es otra variable aleatoria.1. En particular. ¿Cu´l es la distribuo a ci´n de Y ? En este cap´ o ıtulo se da respuesta a esta pregunta tanto en el caso unidimensional como en el caso de vectores aleatorios.

b) → R una funci´n continua. b). Sea X una variable aleatoria continua con valores dentro de un intervalo (a. Suponga primero el caso ϕ estrictamente creciente. y con inversa diferenciable. Demostraci´n.1. Transformacion de una variable aleatoria X ϕ ω Ω X(ω) R Y = ϕ(X) ϕ(X(ω)) R Figura 5. b). o Teorema de cambio de variable 1.1: La composici´n Y = ϕ ◦ X. b) ⊆ R. Entonces la variable aleatoria Y = ϕ(X) toma valores dentro del intervalo ϕ(a. FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y) = FX (ϕ−1 (y)). y con funci´n de o densidad fX (x). Sea ϕ : (a. b). estrictamente o creciente o decreciente. Entonces o para y ∈ ϕ(a.230 ´ 5. = P (X ≤ ϕ−1 (y)) . y tiene funci´n de densidad o   f (ϕ−1 (y)) | d ϕ−1 (y)| para y ∈ ϕ(a. X dy fY (y) =  0 otro caso.

ϕ(x) = ex x Figura 5. definida sobre toda la recta real cumo ple con las condiciones del teorema anterior. σ 2 ). con inversa diferenciao ble ϕ−1 (y) = ln y. o ´ Ejemplo. Sea X con distribuci´n N(µ. Para ϕ estrictamente dy FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y) = P (X ≥ ϕ−1 (y)) Entonces fY (y) = fX (ϕ−1 (y)) · [− el resultado enunciado. o y sea ϕ la funci´n estrictamente creciente ϕ(x) = ex . y su distribuci´n se conoce con el nombre de distribuci´n o o log normal(µ.2: La transformaci´n ϕ(x) = ex . Transformaciones Derivando se obtiene fY (y) = fX (ϕ−1 (y)) · 231 decreciente. Su funci´n de densidad tiene la siguiente expresi´n cuya o o . la funci´n ϕ(x) = ex . En cualquiera caso se obtiene dy Por ejemplo. Usaremos esta funci´n para o mostrar con dos ejemplos la forma de aplicar este resultado. ∞). (Distribucion log normal). = 1 − FX (ϕ−1 (y)). d −1 ϕ (y)].Cap´ ıtulo 5. Entonces la variable aleatoria Y = eX toma valores en el intervalo (0. σ 2 ). d −1 ϕ (y).

con inversa diferenciable ϕ−1 (y) = ln y. Eny sea nuevamente ϕ(x) = e tonces la variable aleatoria Y = eX toma valores en el intervalo (0. Γ(n) fY (y) =   0 si y ≤ 0.24. Su funci´n de o o o densidad es   (λ ln y)n−1 −λ−1  λy si y > 0. a  (ln y − µ)2   √1 exp [− ] 2σ 2 y 2πσ 2 fY (y) =   0 si y > 0. Encuentre la funci´n de densidad del cuadrado de una variable o aleatoria con distribuci´n exp(λ). Demuestre que o . si y ≤ 0. Transformacion de una variable aleatoria gr´fica ha sido mostrada antes en la Figura 2. λ). o x .1.232 ´ 5. (Distribucion log gama). siendo f´cil la extensi´n cuando se tiene un mayor n´mero de o a o u secciones. Sea X con distribuci´n gama(n. 1) y sea λ > 0. o Ejercicio. Se enuncia y demuestra a continuao ci´n este resultado cuando la transformaci´n se descompone en dos partes o o mon´tonas. λ). ´ Ejemplo. Ejercicio. y su distribuci´n se conoce como distribuci´n log gama(n. El resultado anterior puede extenderse al caso en el que la transformaci´n ϕ o es estrictamente mon´tona por pedazos. Sea X con distribuci´n unif(0. ∞).

Para a ıa cualquier y en R.c) (y). o 233 Teorema de cambio de variable 2. Transformaciones la variable aleatoria Y = −(1/λ) ln X tiene distribuci´n exp(λ). estrictamente creciente o decreciente. b) → R y ϕ2 (x) : (b. La prueba es an´loga al caso anterior. b))] + P [(ϕ2 (X) ≤ y) ∩ (X ∈ (b. c) ⊆ R.b) (y) dy 1 d + fX (ϕ−1 (y)) | ϕ−1 (y)| · 1ϕ2 (b. . y cada una de las funciones ϕ1 (x) : (a. Por ejemplo. b))]. Sea X una variable aleatoria continua con valores dentro de un intervalo (a. FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y) = P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a. si x ∈ (b. c) → R es continua. c) → R una funci´n tal que admite la o descomposici´n o ϕ(x) = ϕ1 (x) ϕ2 (x) si x ∈ (a. c))]. 2 dy 2 Demostraci´n. es o y → P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a. vista como funci´n de y. y tiene funci´n de densidad o fY (y) = fX (ϕ−1 (y)) | 1 d −1 ϕ (y)| · 1ϕ1 (a. unicamente hay que o a ´ hacer el an´lisis sobre cada uno de los intervalos de monoton´ estricta. y con inversa diferenciable. c). b). c). en donde a < b < c. Sea ϕ : (a.Cap´ ıtulo 5. Entonces la variable aleatoria Y = ϕ(X) toma valores dentro del intervalo ϕ(a. puesto que calcularemos la derivada de ellas para encontrar fY (y). la primera probabilidad. y con funci´n o de densidad fX (x). Nos interesa el comportamiento de estas probabilidades como funciones de y.

Transformacion de una variable aleatoria que permanece constante para y ∈ ϕ1 (a. ∞). b))] = dy d P [(X ≤ ϕ−1 (y)) ∩ (X ∈ (a. o o Defina entonces las funciones mon´tonas ϕ1 (x) = x2 sobre (−∞. y o √ ϕ2 (x) = x2 sobre (0. de modo que. y 1 √ ϕ−1 (y) = y. b))] 1 dy d = P [a < X ≤ ϕ−1 (y)] 1 dy d = FX (ϕ−1 (y)) 1 dy d −1 = fX (ϕ−1 (y)) ϕ (y). La variable Y = X 2 tiene por lo tanto funci´n de densio 2 dad  1 1  f (−√y) √ + f (√y) √ si y > 0.234 ´ 5. ϕ(x) = x2 ϕ1 ϕ2 x Figura 5. suponiendo por / ejemplo ϕ1 creciente. X X 2 y 2 y fY (y) =  0 si y ≤ 0. Considere la o 2 . la cual es estrictamente decreciente en (−∞. Sea X continua con funci´n de densidad fX (x). transformaci´n ϕ(x) = x o y estrictamente creciente en (0. ∞).1. b). 1 dy 1 De manera an´loga se procede respecto del segundo sumando. De esta forma e ıa se obtiene la f´rmula enunciada. o Ejemplo. d P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a.3: La transformaci´n ϕ(x) = x2 como dos secciones mon´tonas. Entonces sus inversas son ϕ−1 (y) = − y. y para y ∈ ϕ1 (a. considerando a tambi´n el caso cuando se presenta la monoton´ decreciente. b). 0). . 0).

Demueso tre que la funci´n de densidad de la variable Y = 4X(1 − X) es o   √1 si 0 < y < 1. Sea X con distribuci´n uniforme en el intervalo (0. Encueno √ tre la funci´n de densidad de la variable Y = 1 − X 2 . 1). a o La transformaci´n ϕ(x. por ejemplo.Cap´ ıtulo 5. o 5. El problema es encontrar la funci´n de densidad del nuevo vector o ϕ(X. y)). y) es una funci´n definida en alg´n subconjunto de R2 y con valores o u en R2 . Gr´ficamente esta transformaci´n se ilustra en la Figura 5. Transformaciones 235 Ejercicio.2. Ejercicio. y) se escribir´ como (ϕ1 (x. Ejercicio. Demuestre que la vao a riable aleatoria Y = |X| tiene funci´n de densidad o   2 −y2 /2  e si y > 0. o y ϕ(x. Y ) es un vector con funci´n de densidad conocida. π f (y) =   0 si y ≤ 0. . Sea X con distribuci´n uniforme en el intervalo [−1. 1]. Y ). Sea X con distribuci´n normal est´ndar. Transformaci´n de un vector aleatorio o Suponga ahora que (X. ϕ2 (x. se escribe ∂x ϕ1 . y). 2 1−y f (y) =  0 otro caso.4. y la derivao a da de la primera componente respecto de x.

y + dy). Entonces el vector (U. (x+ a a dx. y). puede usarse el siguiente argumento intuitivo para encontrar la f´rmula enunciada. Y ) = ϕ−1 (U. con inversa (X. Sea o (U. V ) = ϕ(X. Y ) un vector continuo con valores en I ⊆ R2 .Y (x. Sea (X. Y ) = (ϕ1 (X. v) ∈ ϕ(I). y). V ) = ϕ(X. V )). Y ) toma valores en ϕ(I) y tiene funci´n de densidad o fU. Una prueba rigurosa de este teorema resulta ser un tanto elaborada y la omitiremos. Y ). v) = fX.2. v) = en donde J(u.4: La composici´n ϕ ◦ (X. 1 2 Sea A el rect´ngulo de ´rea infinitesimal de esquinas con coordenadas (x. ϕ−1 (U. (x.1) 0 ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 . Bajo la transformaci´n ϕ las coordeo nadas de las esquinas del rect´ngulo A se transforman en las siguientes a . v) diferenciao ble. V ) = ϕ(X. y + dy) y (x + dx. y) : I → R2 una funci´n continua con inversa ϕ−1 (u. Y ). o Teorema de cambio de variable 3. Sea o ϕ(x. V ). otro caso. v)) |J(u. y con funci´n de densidad fX.V (u.Y (ϕ−1 (u. v)| para (u.236 ´ 5. Sin embargo. ϕ2 (X. Y )). (5. Transformacion de un vector aleatorio (X. y). Y ) ϕ Ω R2 (U. V ) = (ϕ−1 (U. Y ) R2 Figura 5.

y)dx + ∂y ϕ1 (x. y)dy. y)). = (ϕ1 (x. (x + dx.5: La transformaci´n ϕ aplicada al rect´ngulo A. ϕ2 (x.V (u. = (ϕ1 (x. y + dy)) . Y ) ∈ A) = P ((U. y)dy. y + dy). y) + ∂y ϕ1 (x. y) → (ϕ1 (x + dx. ϕ2 + ∂x ϕ2 + ∂y ϕ2 ) (ϕ1 + ∂x ϕ1 . y). a o (ϕ1 + ∂y ϕ1 . = (ϕ1 (x. y) + ∂x ϕ2 (x. y + dy) → (ϕ1 (x. ϕ2 ) x x + dx ϕ ϕ(A) (ϕ1 + ∂x ϕ1 + ∂y ϕ1 . ϕ2 (x + dx. ϕ2 (x. y) +∂y ϕ2 (x. y) dxdy = fU. y)dy). y) +∂x ϕ2 (x. Por lo tanto ´ fX. y)dx + ∂y ϕ2 (x.Y (x. Transformaciones coordenadas: (x. y)dx. y + dy)) . y + dy). v) × “Area de ϕ(A)”. (x. y) + ∂x ϕ1 (x. ϕ2 (x + dx.Cap´ ıtulo 5.5. V ) ∈ ϕ(A)). y) → (ϕ1 (x. y)) . ϕ2 (x. 237 Gr´ficamente la transformaci´n de estos puntos se muestra en la Figura 5. ϕ2 + ∂y ϕ2 ) y + dy A y (ϕ1 . y) + ∂x ϕ1 (x. ϕ2 (x. ϕ2 + ∂x ϕ2 ) Figura 5. y)dx. y). o a Entonces P ((X. ϕ2 (x. . (x + dx. y + dy) → (ϕ1 (x + dx. y)dy.

fU. v)|.V (u. en donde J(u. v) = fX. v))|J(u.2.Y (x.V (u. y) dxdy = fU. diferencia. v). Transformaciones d −1 ϕ (y)|.Y (ϕ−1 (u. y)| = a 1 . 1 2 Como ejemplo de aplicaci´n de esta f´rmula. |J(u. Por lo tanto |J(u. ϕ−1 (u. v) = fX.Y (ϕ−1 (u. Y ) fU. y)| dxdy. v) = ∂u ϕ−1 1 ∂u ϕ−1 2 ∂v ϕ−1 1 ∂v ϕ−1 2 . en las secciones siguientes eno o contraremos expresiones para la funci´n de densidad de la suma. = dxdy Adem´s |J(x. v)| fX. v)|. que s´lo sirve como referencia general pues o no se mencionan las condiciones precisas de su validez. dy Y = ϕ(X) ⇒ fY (y) = fX (ϕ−1 (y)) | ⇒ (U. Transformacion de un vector aleatorio ´ “Area de ϕ(A)” = |∂x ϕ1 · ∂y ϕ2 − ∂x ϕ2 · ∂y ϕ1 | dxdy ∂x ϕ1 ∂y ϕ1 ∂x ϕ2 ∂y ϕ2 = |J(x.238 En donde ´ 5. . v)| dxdy .V (u. Las f´rmulas generales sobre transformaciones encontradas hasta ahora se o resumen en la siguiente tabla. V ) = ϕ(X. v)) |J(u. v) Es decir. o producto y cociente de dos variables aleatorias.

v).4) .2). Transformaciones 239 Distribuci´n de la suma o El siguiente resultado proporciona una f´rmula para la funci´n de densidad o o de la suma de dos variables aleatorias absolutamente continuas. Por la f´rmula (5. y) = (x + y.1). u − z) dz.3) Ello refleja el hecho de que la suma de dos variables aleatorias es conmutativa. y). v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = 1 −1 0 1 = 1. v). (5.Y (z. la f´rmula (5.Cap´ ıtulo 5. v) dv. v) = (u − v. ´ Proposicion. Entonces X + Y tiene funci´n de densidad o fX+Y (u) = ∞ −∞ fX.Y (u − v. (5. Sea ϕ : R2 → R2 la transformaci´n ϕ(x. En particular. Integrando respecto a o v se obtiene (5. v) = fX.Y (u. Observe que haciendo el cambio de variable z(v) = u − v en (5.2) se obtiene la expresi´n equivalente o fX+Y (u) = ∞ −∞ fX. Y ) un vector absolutamente continuo con funci´n o de densidad fX. (5. con o o inversa ϕ−1 (u. cuando X y Y son independientes. y). El Jacobiano de la transformaci´n inversa es o J(u.Y (x. Sea (X.Y (u − v. fX+Y.2) se o reduce a fX+Y (u) = = ∞ −∞ ∞ −∞ fX (u − v)fY (v) dv fX (u − v) dFY (v).2) Demostraci´n.

en donde la suma se ıa toma sobre todos los posibles valores enteros k que la variable aleatoria Y puede tomar. p) respectivamente. Use la f´rmula anterior para demostrar que si X y Y son indeo pendientes con distribuci´n bin(n. o Puede obtenerse la misma f´rmula (5. y) dy dx. y) dy dx x+y≤u ∞ u−x −∞ −∞ fX. La regi´n de integraci´n se muestra en la Figura 5. fX+Y (u) = k fX (u − k)fY (k). puede demostrarse que esta f´rmula es v´lida para cuaa o a lesquiera dos variables aleatorias independientes X y Y .Y (x. incluyendo el caso cuando una de ellas es discreta y la otra continua. . u − x) dx.4).Y (x.2. en completa o analog´ con (5. En el caso cuando X y Y son discretas. o o Derivando respecto a u se obtiene fX+Y (u) = ∞ −∞ fX. Transformacion de un vector aleatorio Integrando respecto de u e intercambiando el orden de las integrales se obtiene la correspondiente funci´n de distribuci´n o o FX+Y (u) = ∞ −∞ FX (u − v) dFY (v). entonces o X + Y tiene distribuci´n bin(n + m. El procedimiento se muestra a o continuaci´n. o FX+Y (u) = P (X + Y ≤ u) = = fX.2) mediante el procedimiento usual o de encontrar primero la funci´n de distribuci´n de X + Y y despu´s derio o e var para encontrar la funci´n de densidad. Ejercicio. p) y bin(m. p). M´s generalmente.Y (x. independientes y con valores enteros.240 ´ 5.6. es sencillo verificar que la funci´n de probabilidad de X + Y es.

y) = 3(x2 + y 2 )/16 si 0 < x < y < 2.Z (u − y − z. 2 π Ejercicio. y. Sea (X. en donde cada sumando tiene . y. Ejercicio. Sean X y Y independientes cada una con distribuci´n normal o est´ndar.Cap´ ıtulo 5. o Ejercicio. Z) un vector absolutamente continuo con funci´n de o densidad fX. su funci´n de densidad es o 1 2 f (u) = √ e−u /4 . z). Aplique esta f´rmula para encontrar la funci´n de densidad de la suma o o de tres variables aleatorias independientes.2). 0 otro caso. Transformaciones y u 241 x Figura 5. Demuestre que la variable X + Y + Z tiene funci´n o de densidad f (u) = ∞ −∞ ∞ −∞ fX.Y.6: Regi´n de integraci´n x + y ≤ u. o o que corresponde a la expresi´n (5. Encuentre la funci´n de densidad de X + Y cuando X y Y o tienen funci´n de densidad conjunta o f (x.Z (x. Y.Y.2) para demostrar que X + Y tiene distribuci´n N(0.3) equivalente a (5. Use (5. z) dydz. 2). es a o decir.

primero cuando los argumentos son funciones de densidad y en el otro cuando son funciones de distribuci´n. Para el caso de funciones de distribuci´n absoluo o tamente continuas. y definida como sigue o (f1 ∗ f2 )(x) = ∞ −∞ f1 (x − y)f2 (y) dy. 1). la suma de n variables aleatorias independientes todas con la misma funci´n de distribuci´n F tiene o o funci´n de distribuci´n F ∗ · · · ∗ F . se tiene la relaci´n o d (F1 ∗ F2 )(x) = (f1 ∗ f2 )(x). si X y Y son dos variables aleatorias independientes con correspondientes funciones de distribuci´n FX y FY . No es dif´ o o ıcil comprobar que FX ∗ FY = FY ∗ FX . Transformacion de un vector aleatorio distribuci´n unif(0. la convoluci´n de dos funciones de distribuci´n F1 y F2 a o o es la funci´n de distribuci´n o o (F1 ∗ F2 )(x) = ∞ −∞ F1 (x − y)dF2 (y). M´s generalmente. es una funci´n de densidad denotada por f1 ∗ f2 . o ´ Convolucion.2. entonces la funci´n de o o distribuci´n de la variable X + Y es la convoluci´n FX ∗ FY . En consecuencia. que se escribe simplemente como F ∗n . En particular. .242 ´ 5. La convoluci´n de dos funciones de densidad continuas f1 o y f2 . dx Distribuci´n de la diferencia o Se encontrar´ ahora una f´rmula para la funci´n de densidad de la diferencia a o o de dos variables aleatorias. o o Observe que hemos denotado la convoluci´n por el mismo s´ o ımbolo.

Y (u. en donde la suma se toma sobre todos los posibles valores enteros k que Y puede tomar. . v) = (u + v. y) = (x − y. Con el cambio de variable z(v) = u + v en (5. Sea (X. Y ) un vector absolutamente continuo con funci´n o o de densidad fX. z − u) dz. Por la f´rmula (5. v). El o Jacobiano de la transformaci´n inversa es o J(u. Integrando respecto a o v se obtiene (5. v).5) se reduce a o fX−Y (u) = ∞ −∞ fX (u + v)fY (v) dv. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = 1 1 0 1 = 1.6) Cuando X y Y son independientes la f´rmula (5.Y (u + v.5) Demostraci´n.Y (u + v.Y (x. Entonces X − Y tiene funci´n de densidad fX−Y (u) = ∞ −∞ fX. Procedemos como en la secci´n anterior. (5.Y (z. y tiene funci´n de probabilidad e o fX−Y (u) = k fX (u + k)fY (k).5) se obtiene la expresi´n o equivalente fX−Y (u) = ∞ −∞ fX.5).1). y) con inversa ϕ−1 (u. v) = fX. En el caso discreto cuando X y Y son independientes con valores enteros. Sea ϕ : R2 → R2 o o la transformaci´n ϕ(x. y). (5.Cap´ ıtulo 5. v) dv. la variable X−Y tambi´n toma valores enteros. fX−Y. Transformaciones 243 ´ Proposicion.

Haciendo el cambio de variable x = −v.Y (x.244 ´ 5.−Y (u + x. y) dy dx.7: Regi´n de integraci´n x − y ≤ u.7. Por definici´n. o o fX−Y (u) = fX+(−Y ) (u) = ∞ −∞ fX. o o FX−Y (u) = P (X − Y ≤ u) = = x−y≤u ∞ ∞ −∞ x−u fX.5).5).Y (u + x. −x) dx fX. v) dv. x) dx.Y (x. A partir de la f´rmula para la suma de dos variables aleatorias se puede construir una o tercera demostraci´n de (5.2. se obtiene fX−Y (u) = = ∞ −∞ ∞ −∞ fX.5) mediante el procedimiento usual de encontrar primero la funci´n de distribuci´n y despu´s derivar para encono o e trar la funci´n de densidad. y) dy dx fX. La regi´n de integraci´n aparece en la Figura 5. .−Y (u − v. Transformacion de un vector aleatorio Nuevamente se puede demostrar (5.6) equivalente a (5. Por la f´rmula para la suma. o o y u x Figura 5. o o Derivando respecto a u se obtiene (5.

Use (5. y. o Distribuci´n del producto o Ahora se encontrar´ una f´rmula para la funci´n de densidad del producto a o o de dos variables aleatorias absolutamente continuas. . 2). En ejercicios anteriores se ha pedido comprobar que tanto X + Y a como X − Y tienen distribuci´n N(0. su funci´n de densidad es o 1 2 f (u) = √ e−u /4 . 2). y. Aplique esta f´rmula para encontrar la funci´n de densidad de X − Y − Z. Ejercicio. z). es a o decir. o o cuando estas variables son independientes y cada una de ellas tiene distribuci´n unif(0.Y.Z (x. Sea (X. Z) un vector absolutamente continuo con funci´n de o o densidad fX. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2. Sean X y Y independientes cada una con distribuci´n normal o est´ndar. Demuestre ahora que X + Y y o X − Y son independientes.Y.Z (u + y + z. 0 otro caso. Transformaciones 245 Ejercicio.Cap´ ıtulo 5. Encuentre la funci´n de densidad de Y − X cuando X y Y o tienen funci´n de densidad conjunta o f (x. z) dydz. Demuestre que la variable X − Y − Z tiene funci´n de densidad fX−Y −Z (u) = ∞ −∞ ∞ −∞ fX. Ejercicio. Sean X y Y independientes cada una con distribuci´n normal o est´ndar. 2 π Ejercicio. 1).5) para demostrar que X − Y tiene distribuci´n N(0. Y.

v) |1/v|.Y (u/v. ϕ−1 (u.1). Se usa nuevamente la f´rmula (5. Haciendo x(v) = u/v en (5. Por la f´rmula (5. v) |1/v| dv. Transformacion de un vector aleatorio ´ Proposicion. para v = 0. y) cuya inversa es.7) Demostraci´n. El Jacobiano de la transformaci´n inversa es o J(u. para v = 0. y). Sea ϕ : R2 → R2 la o o transformaci´n ϕ(x.8) Cuando X y Y son independientes (5. Integrano do respecto a v se obtiene (5. Y ) un vector absolutamente continuo con funci´n o o de densidad fX.Y (x. y) dydx. −∞ .1). u/x) |1/x| dx.Y (x. o FXY (u) = P (XY ≤ u) = = fX. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = 1/v u/v 2 0 1 = 1/v.Y (x. (5.7) se reduce a fXY (u) = fX (u/v)fY (v) |1/v| dv. v) = o (u/v.Y (u/v.Y (x. v). y) dydx + fX. Entonces XY tiene funci´n de densidad fXY (u) = ∞ −∞ fX. y) = (xy.Y (x. v) = fX.246 ´ 5.Y (u.7). Usaremos nuevamente el procedimiento usual de encontrar primero la funci´n de distribuci´n de XY y despu´s derivar para encontrar la funci´n de o o e o densidad. fXY. y) dy dx xy≤u 0 ∞ −∞ u/x ∞ 0 u/x fX.2. Sea (X.7) se obtiene la expresi´n equivalente o fXY (u) = ∞ −∞ ∞ −∞ fX. Por definici´n. (5.

8).Y. w) | | dv dw.Cap´ ıtulo 5.8: Regi´n de integraci´n xy ≤ u. u/x)(−1/x) dydx + ∞ 0 fX. 0 fXY (u) = −∞ fX. Transformaciones La regi´n de integraci´n se muestra en la Figura 5. Z) un vector absolutamente continuo con funci´n de o densidad fX. v. Sea (X. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2. 0 otro caso. Ejercicio. Demuestre que la variable XY Z tiene funci´n de o densidad ∞ ∞ u 1 f (u) = fX.Y (x. z).Z ( .7). que corresponde a (5.8. u/x)(1/x) dydx. Y. u/x)|1/x| dx. equivalente a (5. o o y y y 247 x x x u<0 u=0 u>0 Figura 5.Y.Y (x. = ∞ −∞ fX. Ejercicio. o o Derivando respecto a u.Y (x. y. vw vw −∞ −∞ .Z (x. Encuentre la funci´n de densidad de XY cuando X y Y tienen o funci´n de densidad conjunta o f (x.

Y (uv. el integrando en la f´rmula (5. Transformacion de un vector aleatorio Aplique este resultado al caso cuando X. El Jacobiano de la transformaci´n inversa es o J(u.2. v).1). x/u) |x/u2 | dx.9) se escribe como el producto de las densidades marginales. o . de donde se obtiene (5.10) Observe nuevamente que cuando X y Y son independientes. Por la f´rmula (5.248 ´ 5. y) y tal que Y = 0. o Distribuci´n del cociente o Finalmente se encontrar´ una f´rmula para el cociente de dos variables a o aleatorias absolutamente continuas. Haciendo x(v) = uv en (5.Y (x.9) −∞ Demostraci´n. (5. y con inversa ϕ−1 (u.9) o integrando respecto a v. (5.Y (u. ´ Proposicion.Y (uv. Sea ϕ : R2 → o R2 la transformaci´n ϕ(x. 1). fX/Y. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = v u 0 1 = v. v) |v|.Y (x. v) = fX. Entonces X/Y tiene funci´n de o densidad ∞ fX/Y (u) = fX. y) para y = 0. v) = o (uv. Y ) un vector absolutamente continuo con funci´n o de densidad fX.9) se obtiene la expresi´n equivalente o fX/Y (u) = ∞ −∞ fX. y) = (x/y. Procederemos como en las secciones anteriores. v) |v| dv. Y y Z son independientes cada una de ellas con distribuci´n unif(0. Sea (X.

Transformaciones 249 Ahora usaremos el procedimiento usual de encontrar primero la funci´n de o distribuci´n y despu´s derivar para encontrar la funci´n de densidad. y) dx dy. y)y dy fX. 0 fX/Y (u) = − = fX. v) |1/v| dv. y)|y| dy.Y (uy. −∞ A partir de la f´rmula para el producto de dos variables aleatorias se puede o construir una tercera demostraci´n de (5. o fX/Y (u) = fX·(1/Y ) (u) = ∞ −∞ fX.9: Regi´n de integraci´n x/y ≤ u. o e o FX/Y (u) = P (X/Y ≤ u) = = x/y≤u 0 ∞ −∞ uy fX.Y (uy.Cap´ ıtulo 5.Y (x.Y (uy. .Y (x. o o y y y x x x u<0 u=0 u>0 Figura 5.9. y)y dy + −∞ ∞ 0 ∞ fX. −∞ La regi´n de integraci´n se muestra en la Figura 5. o o Derivando respecto a u. y) dx dy + 0 ∞ uy fX.Y (x.1/Y (u/v.9) de la siguiente forma. y) dx dy fX.

1/Y (ux. Transformacion de un vector aleatorio Haciendo el cambio de variable x = 1/v se obtiene fX/Y (u) = = ∞ −∞ ∞ −∞ fX. x)|x| dx. z). Sean X y Y independientes con distribuci´n normal est´ndar. y.Y. v. es decir. Ejercicio. . f (u) = π(1 + u2 ) Ejercicio. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2. Y. o Las f´rmulas para la funci´n de densidad de las operaciones b´sicas entre dos o o a variables aleatorias encontradas en este cap´ ıtulo se resumen en la siguiente tabla. para − ∞ < u < ∞.Z (uvw. o a Demuestre que X/Y tiene distribuci´n Cauchy. 1/x)|x| dx fX. Y y Z son independientes cada una de ellas con distribuci´n unif(0. Z) un vector absolutamente continuo con funci´n de o densidad fX.Y.Z (x. 0 otro caso. Demuestre que la variable X/(Y Z) tiene funci´n o de densidad f (u) = ∞ −∞ ∞ −∞ fX.Y (ux.2. 1).250 ´ 5. su funci´n de deno o sidad es 1 . Ejercicio. Aplique este resultado al caso cuando X. Sea (X. Encuentre la funci´n de densidad de X/Y cuando X y Y tienen o funci´n de densidad conjunta o f (x. w) |vw| dv dw.

producto y cociente de dos variables aleatorias absolutamente continuas ∞ −∞ fX+Y (u) = fX−Y (u) = fXY (u) = fX/Y (u) = ∞ −∞ fX.Cap´ ıtulo 5. v) |v| dv .Y (u/v.Y (uv. v) |1/v| dv ∞ −∞ fX.Y (u + v.Y (u − v. Transformaciones 251 ´ Formulas para la suma. v) dv fX. diferencia. v) dv ∞ −∞ fX.

1). Encuentre la distribuci´n de Y = X n para cada n en N. b) unif(−1. b) Y = cos(X). si x ≤ 0. Encuentre la o funci´n de densidad de la variable o a) Y = sen(X).252 5. 427. b) exp(λ). Encuentre la funci´n de densidad o o de X 2 . 1].3.3. Encuentre la distribuci´n de Y = 1/X cuando X tiene distribuci´n: o o a) unif(0. o . o 424. Ejercicios Transformaci´n de una variable aleatoria o 423. Sea X con distribuci´n uniforme en el intervalo (0. Demuestre que o f|X| (x) = fX (−x) + fX (x) 0 si x > 0. 426. Sea X continua con funci´n de densidad fX (x). c) exp(λ). Sea X absolutamente continua con funci´n de distribuci´n F (x). 2π). Ejercicios 5. cuando X o tiene distribuci´n o a) unif(0. 1). 1). 425. 429. Encuentre la funci´n de densidad y de o o distribuci´n de la variable Y = 1 − exp(−λX). Sea X con distribuci´n exp(λ). 1). Sea X con distribuci´n unif(−1. Deo o muestre que Y = F (X) tiene distribuci´n unif[0. 428.

Demuestre que la o funci´n de densidad del vector (U.Y (x. Sean X y Y independientes cada una con distribuci´n exp(λ). 1). v) = fX. Sea (X. X/(X + Y )) es o fU. V ) = (X + Y. 435. arctan(Y /X)). Encuentre la funci´n de densidad de Y o de densidad   1/2 fX (x) = 1/(2x2 )  0 253 = 1/X cuando X tiene funci´n o si 0 < x ≤ 1. v) = λ2 e−λv si 0 < u < v. u(1 − v))u. 431. si x > 1. y). Encuentre la distribuci´n de la vao o riable aleatoria Y = X/(b − X). y) : x o (R. c) (X − Y. 1). Y ) un vector con distribuci´n uniforme en el c´ o ırculo unitario 2 + y 2 ≤ 1}. 436. |Y − X|). X − Y ). X + Y ) tiene funci´n de densidad o f (u. 434. Sea X con distribuci´n unif(a. b). 433. Transformaciones 430. Θ) = ( X 2 + Y 2 . Y ) con funci´n de densidad fX. b) (X. Encueno tre la funci´n de densidad del vector o a) (X. 0 otro caso.Cap´ ıtulo 5. b) (X + Y. Sean X y Y independientes ambas con distribuci´n unif(−1. Sean X y Y independientes ambas con distribuci´n unif(0.V (u. Encuentre la funci´n de densidad del vector {(x. si x ≤ 0. Transformaci´n de un vector aleatorio o 432. X + Y ).Y (uv. . Deo muestre que el vector (X. Y − X). Eno cuentre la funci´n de densidad del vector o a) (X + Y. Sea (X. X − Y ).

0) y Y tiene distribuci´n unif(0. Ejercicios Distribuci´n de la suma o 437. 1) × (−1.3. 440. para 0 < x < 1. y) = e−y . 1) × o (−1. Encuentre la funci´n de densidad de la suma de dos variables aleatorias o independientes cada una de ellas con funci´n de densidad o a) f (x) = 2x. 0 < y < b. para x. y) = 4x(1 − y). y < 1. 1). Encuentre la funci´n de densidad de la suma de dos variables aleatorias o independientes X y Y . para 0 < x < 1. 1). . Encuentre la funci´n de densidad de la suma de dos variables aleatorias o con distribuci´n conjunta uniforme en el cuadrado (−1. ab b) f (x.254 5. Encuentre la funci´n de densidad de la suma de tres variables aleatoo rias con distribuci´n conjunta uniforme en el cubo (−1. 1) y Y tiene distribuci´n exp(λ). Encuentre la funci´n de densidad de la suma de dos variables aleatoo rias independientes cada una de ellas con distribuci´n: a) unif(0. c) f (x. 438. b) f (x) = 6x(1 − x). e) f (x. para 0 < x < y. 1). para 0 < x < a. y) = e−x−y . para 0 < x. o 442. tales que a) X tiene distribuci´n unif(−1. c) f (x) = (1 + x)/2. para 0 < x < y < 1. d) f (x. Encuentre la funci´n de densidad de la suma de dos variables aleatorias o cuya funci´n de densidad conjunta es o a) f (x. y) = 1 . para −1 < x < 1. o b) exp(λ). o o 441. o o b) X tiene distribuci´n unif(0. 439. 1). 1) × (−1. y > 0. y) = 8xy.

Sean X1 . . y varianza la suma de las varianzas. Xn independientes y con id´ntica distribuci´n N(µ. cada una de ellas con distribuci´n exp(λ). Demuestre que n n n k=1 ck Xk ∼ N( ck µk . λ) y gama(m. . .Cap´ ıtulo 5. cada una de ellas con distribuci´n normal. Demuestre que fX+Y (u) = k fX (u − k)fY (k). k 446. Demuestre que la suma de dos variables aleatorias independientes con distribuci´n gama(n. Demuestre que la suma de dos variables aleatorias independientes. . independientes y con valores enteros. Sean X1 . . con media la suma de las medias. . λ). . e o Demuestre que la media muestral dada por (X1 + · · · + Xn )/n tiene distribuci´n N(µ. cada una de ellas con distribuci´n exp(λ). . . tiene nuevamente distribuci´n o o normal. 1) . o 448. tiene diso tribuci´n gama(n. Transformaciones 255 443. . . . . Xn independientes en donde Xk tiene distribuci´n N(µk . tiene distribuci´n gama(n + o o m. . cn constantes dadas. σ 2 ). o 447. no todas cero. demuestre que la suma de n variables aleatorias a independientes. Sean c1 . . Demuestre que la suma de dos variables aleatorias independientes. Sean X y Y son discretas. en donde la suma se efect´a sobre todos los posibles valores enteros k que la variable aleau toria Y puede tomar. λ). 449. n 444. λ). . σk ) para k = 1. k=1 k=1 2 c2 σk ). σ 2 /n). tiene distribuci´n gama(2. . 2 o 445. Encuentre la funci´n de densidad de la suma de n variables aleatorias o con distribuci´n conjunta uniforme en el hipercubo o (−1. o o M´s generalmente. λ). 1) × · · · × (−1. n.

452. Xn ) un vector aleatorio absolutamente continuo. y) = 1 . cuando X y Y son indeo pendientes y ambas con distribuci´n: a) unif(0.. y < 1.. en donde cada sumando tiene distribuci´n unif(0. y) = 4x(1 − y).Xn (u − v2 − · · · − vn . 0 < y < b. y) = 8xy. Sea (X1 . b) f (x) = 6x(1 − x). . v2 . para x. Encuentre la funci´n de densidad de X − Y . 2) y Y tiene distribuci´n unif(0. para 0 < x < 1. . cuando X y Y son indeo pendientes y ambas con funci´n de densidad o a) f (x) = 2x. cuando X y Y son indeo pendientes y tales que a) X tiene distribuci´n unif(1. para 0 < x < a. c) f (x) = (1 + x)/2. Ejercicios 450. para 0 < x < y. para −1 < x < 1.. 1). . . y) = e−x−y . y) = e−y . Y ) un vector o con funci´n de densidad o a) f (x. c) f (x. Encuentre la funci´n de densidad de X − Y . y > 0.256 5. 453. ab b) f (x. . . Demuestre que la variable X1 + · · · + Xn tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 . para 0 < x. . o b) exp(λ). d) f (x. vn ) dv2 · · · dvn . Encuentre la funci´n de densidad de X − Y . Aplique esta f´rmula para encontrar la funci´n de densidad de la suma o o de n variables aleatorias independientes. o Distribuci´n de la diferencia o 451. para (X. 454. e) f (x.. 1).3. para 0 < x < y < 1. 1). Encuentre la funci´n de densidad de X − Y . . o o . para 0 < x < 1.

Aplique esta f´rmula al caso cuando las variables X1 . Sea (X..Cap´ ıtulo 5. otro caso. .. . xn ). y varianza la suma o de las varianzas.. 1). o o 455. 456.Xn (u + v2 + · · · + vn . . Z) un vector aleatorio absolutamente continuo. . tiene nuevamente distribuo ci´n normal. Sea (X. Sea a una constante. Y. Demuestre que la diferencia de dos variables aleatorias independientes.. en donde la suma se efect´a sobre todos los posibles valores enteros k que la variable aleau toria Y puede tomar. v2 . Demuestre que la diferencia de dos variables aleatorias independientes ambas con distribuci´n uniforme en el intervalo o (a − 1/2. . . . Y.. o . Sea (X1 . . Encuentre una f´rmula para la funci´n de densidad de la variable X + Y − Z. vn ) dv2 · · · dvn . . cada una de ellas con distribuci´n normal. . con media la diferencia de las medias.Xn (x1 . 458. Demuestre que la variable X1 − X2 − · · · − Xn tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 . .. o o 459. independientes y con valores enteros.. . . o o 460. Demuestre que fX−Y (u) = k fX (u + k)fY (k). . Xn son ino dependientes y cada una de ellas tiene distribuci´n unif(0. 1). Encuentre una f´rmula para la funci´n de densidad de la variable X − Y + Z. Sean X y Y son discretas. Transformaciones 257 b) X tiene distribuci´n exp(λ) y Y tiene distribuci´n unif(0. Z) un vector aleatorio absolutamente continuo. . 457. .. Xn ) un vector absolutamente continuo con funci´n de o densidad fX1 . a + 1/2) tiene funci´n de densidad o f (u) = 1 − |u| 0 si − 1 < u < 1.

1) y Y tiene distribuci´n exp(λ). e) f (x. . .3. o . c) f (x. d) f (x. .. xn ). Encuentre la funci´n de densidad del producto de dos variables aleatoo rias independientes ambas con distribuci´n: a) unif(0.. Demuestre que la variable producto X1 · · · Xn tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 .. para 0 < x < y. o o b) X tiene distribuci´n unif(0. para x. . . 1). vn ) | | dv2 · · · dvn . 1). y) = 4x(1 − y). 0) y Y tiene distribuci´n unif(0. Encuentre la funci´n de densidad del producto de dos variables aleao torias independientes cada una de ellas con funci´n de densidad o a) f (x) = 2x.. para 0 < x < a. y > 0. b) exp(λ). y) = 1 .Xn ( u 1 . Encuentre la funci´n de densidad del producto de dos variables aleao torias independientes X y Y . b) f (x) = 6x(1 − x). . ab b) f (x. Ejercicios Distribuci´n del producto o 461. para 0 < x < 1. 463. . y) = 8xy.. 464. c) f (x) = (1 + x)/2.. para 0 < x < 1.. para 0 < x < y < 1. y) = e−y . 1). o o o 465. v2 · · · vn v2 · · · vn Aplique este resultado al caso cuando todas las variables son independientes y cada una de ellas tiene distribuci´n unif(0. o 462. . v2 . . para −1 < x < 1. Sea (X1 . tales que a) X tiene distribuci´n unif(−1. y) = e−x−y .Xn (x1 . . Xn ) un vector absolutamente continuo con funci´n de densidad fX1 ..258 5. . 0 < y < b. y < 1. . para 0 < x. Encuentre la funci´n de densidad del producto de dos variables aleao torias cuya funci´n de densidad conjunta es o a) f (x.

Encuentre la funci´n de densidad de X/Y cuando X y Y son indeo pendientes y son tales que a) X tiene distribuci´n unif(−1. Transformaciones 259 Distribuci´n del cociente o 466.. .. Y ) un vector con o funci´n de densidad o 1 para 0 < x < a. para 0 < x < 1. 0) y Y tiene distribuci´n unif(0. Xn ) un vector absolutamente continuo con funci´n de o densidad fX1 . a) f (x. .. Encuentre la funci´n de densidad de X/Y cuando X y Y son indeo pendientes y ambas con funci´n de densidad o a) f (x) = 2x.. y) = 8xy. b) f (x) = 6x(1 − x). 1) y Y tiene distribuci´n exp(λ). Sea (X1 . vn ) |v2 · · · vn | dv2 · · · dvn . . 0 < y < b. Demuestre que la variable X1 /(X2 · · · Xn ) tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 . y) = 2e−x−y . y) = e−y . Encuentre la o funci´n de densidad de X/(X + Y ). para 0 < x < y. y < 1. d) f (x. . para 0 < x. Encuentre la funci´n de densidad de X/Y para (X.Cap´ ıtulo 5. o 468. y) = e−x−y . y) = 4x(1 − y). o o b) X tiene distribuci´n unif(0. . .. . 1).Xn (x1 . 467. o 471. ..Xn (uv2 · · · vn . v2 . o o 470. xn ). 1). Encuentre la funci´n de densidad de X/Y cuando X y Y son indeo pendientes y ambas con distribuci´n: a) unif(0. y) = ab b) f (x. e) f (x.. 469. . . c) f (x. c) f (x) = (1 + x)/2. . . para 0 < x < y. b) exp(λ).. para x. . para −1 < x < 1. para 0 < x < y < 1. para 0 < x < 1. f ) f (x. Sean X y Y independientes con distribuci´n exp(λ). y > 0.

3.260 5. Ejercicios Aplique este resultado al caso cuando X. 1). Y y Z son independientes cada una de ellas con distribuci´n unif(0. o .

a. Xn . . u n A menudo se escribe m.i.a.d. . para abreviar el t´rmino muestra aleatoria.d. es una colecci´n e o de v.i. y g : Rn → R es una funci´n Borel medible.a. Xn es una muestra aleatoo ria.i. y se e usan las siglas v. . Xn ). . en donde X1 . Una estad´ ıstica es una variable aleatoria de la forma g(X1 . una m. . (Muestra aleatoria). . que cumplen la condici´n o de ser independientes y de tener cada una de ellas la misma distribuci´n. Por lo tanto. ´ Definicion. ´ Definicion. 261 . para denotar el t´rmino variables aleatorias indepene dientes e id´nticamente distribuidas. .a. o Al n´mero n se le llama tama˜o de la muestra aleatoria. (Estad´ ıstica). .i. . . Se a o estudian tambi´n algunas f´rmulas para las distribuciones de las estad´ e o ısticas de orden de una muestra aleatoria.Cap´ ıtulo 6 Distribuciones muestrales y estad´ ısticas de orden En este cap´ ıtulo se estudian algunas distribuciones de probabilidad que surgen en la estad´ ıstica y otras ´reas de aplicaci´n de la probabilidad. . Una muestra aleatoria es una o colecci´n de variables aleatorias X1 . .

y la demostraci´n puede encono trarse en [20]. ´ Proposicion. En particular. Sea X1 . La proposici´n reci´n enunciada a o e no es v´lida para cualquier distribuci´n de probabilidad. y por o lo tanto es una variable aleatoria. . cuando la muestra aleatoria proviene de una distribuci´n noro mal. . Este es un resultado interesante e inesperado.a. de la distribuci´n N(µ. Utilizaremos este resultado m´s adelante. por ejemplo. de una distribuci´n o cualquiera. σ 2 ). Xn una m. denotada por S 1 S = n−1 2 n i=1 ¯ (Xi − X)2 . Eno ¯ tonces las estad´ ısticas X y S 2 son independientes. Observe que en el denominador aparece el n´mero de sumandos menos uno. . resulta que la media y la varianza muestrales son independientes. u La media y la varianza muestrales tienen la caracter´ ıstica de ser estimadores insesgados para la media y la varianza. Otro ejemplo importante de estad´ ıstica 2 y definida como sigue es la varianza muestral. La media muestral es una ¯ estad´ ıstica denotada por X y definida como sigue 1 ¯ X= n n Xi . . (Media y varianza muestral). respectivamente. no es a o dif´ verificar su no validez para una muestra aleatoria de la distribuci´n ıcil o Bernoulli. i=1 ¯ Observe que X es una combinaci´n lineal de los elementos de la m. .262 Ejemplo.a.

La variable aleatoria continua X tiene una distribuci´n ji-cuadrada con n > 0 grados de libertad. ´ Proposicion. si su funci´n de o o densidad es   1 1 n/2 n/2−1 −x/2  x e si x > 0.1.1: Funci´n de densidad χ2 (n). en particular. 1). ´ Distribucion ji-cuadrada. El t´rmino χ2 se lee ji-cuadrada. a o f (x) 1 2 n=1 n=2 n=3 n=4 x Figura 6. y Var(X) = 2n. Observe que la distribuci´n χ2 (n) con n = 2 se reduce a la distribuci´n exp(λ) con λ = 1/2. la media y la varianza muestral. Dist.1. La e gr´fica de esta funci´n de densidad se muestra en la Figura 6.Cap´ ıtulo 6. muestrales y estad´ ısticas de orden 263 6. . Γ(n/2) 2 f (x) =   0 si x ≤ 0. o o La distribuci´n ji-cuadrada puede encontrarse como indican los siguientes o resultados. En este caso se escribe X ∼ χ2 (n). Distribuciones muestrales Se estudian a continuaci´n algunas distribuciones que surgen en la estad´ o ıstica al considerar funciones de una muestra aleatoria. entonces X 2 ∼ χ2 (1). Si X ∼ N(0. o Puede demostrarse que E(X) = n.

. para i = 1. m. Demostraci´n. .1. . o ´ Proposicion. Esta es la funci´n de densidad de la distribuci´n χ2 (1). respectivamente. Xm independientes tales que cada Xi tiene distribuci´n χ2 (ni ). . Este ligero cambio en la . Sean X1 . . Este es el contenido de la siguiente proposici´n. . . o o La suma de dos o mas variables aleatorias independientes con distribuci´n jio cuadrada es nuevamente una variable aleatoria ji-cuadrada.264 6. Distribuciones muestrales Demostraci´n. Es suficiente demostrar el resultado para el caso de dos vao riables aleatorias. . o √ √ 1 1 fX 2 (x) = fX ( x) √ + fX (− x) √ 2 x 2 x √ 1 = fX ( x) √ x 1 −x/2 1 √ = √ e x 2π = 1 Γ(1/2) 1 2 1/2 x1/2−1 e−x/2 . y sus grados de libertad son la suma de los grados de libertad de cada uno de los sumandos. Sean X y Y independientes con distribuci´n ji-cuadrada o con grados de libertad n y m. Para x > 0. Entonces o m i=1 Xi ∼ χ2 (n1 + · · · + nm ).

o u 265 fX+Y (u) = 0 u fX (u − v)fY (v) dv 1 Γ(n/2) 1 Γ(m/2) 1 2 1 2 n/2 = 0 (u − v)n/2−1 e−(u−v)/2 m/2 v m/2−1 e−v/2 dv 1 2 (n+m)/2 = 1 Γ(n/2)Γ(m/2) u 0 e−u/2 (u − v)n/2−1 v m/2−1 dv. Haciendo el cambio de variable w(v) = v/u se obtiene fX+Y (u) = 1 Γ(n/2)Γ(m/2) 1 0 1 2 (n+m)/2 e−u/2 u(n+m)/2−1 (1 − w)n/2−1 wm/2−1 dw. Esta es la funci´n de densidad de la distribuci´n χ2 (n + m).Cap´ ıtulo 6. Dist. . para u > 0. Por la f´rmula (5. o o El resultado anterior puede demostrarse de una manera m´s simple y elea gante usando la funci´n generadora de momentos o la funci´n caracter´ o o ıstica.2). m/2) Γ(n/2)Γ(m/2) 1 Γ((n + m)/2) 1 2 1 2 (n+m)/2 e−u/2 u(n+m)/2−1 (n+m)/2 e−u/2 u(n+m)/2−1 . Entonces fX+Y (u) = = B(n/2. muestrales y estad´ ısticas de orden notaci´n evitar´ el uso de sub´ o a ındices. m/2). La integral resultante es B(n/2. presentadas en el siguiente cap´ ıtulo.

Sean X1 . Como cada una de las variables Xi tiene distribuci´n N(µ.1. . o para i = 1. ´ Proposicion. . Entonces Y tiene o distribuci´n χ2 (m − n). . Esto es una consecuencia sencilla de las dos proposiciones o anteriores. Este es el contenido del ejercicio 572 en la p´gina 341. . σ 2 ). (Xi − µ)2 /σ 2 tiene distribuci´n χ2 (1). . σ n−1 2 S ∼ χ2 (n − 1). . y X + Y tiene distribuci´n χ2 (m) con m > n. Xn independientes con distribuci´n o 2 ). Distribuciones muestrales ´ Proposicion. . 1). Entonces o n i=1 (Xi − µ)2 ∼ χ2 (n). σ2 Demostraci´n. o Con ayuda de esta proposici´n se demuestra ahora el siguiente resultado de o particular importancia en estad´ ıstica. µ) o Ahora se enuncia un resultado cuya demostraci´n se pospone hasta que se o cuente con la poderosa herramienta de las funciones generadoras de momentos. Entonces N(µ. Sean X1 . Sean X y Y independientes tales que X tiene distribuci´n o χ2 (n). . . entonces (Xi − µ)/σ tiene distribuci´n N(0. n (Xi − o i=1 2 /σ 2 tiene distribuci´n χ2 (n). a ´ Proposicion. . Por lo o tanto. n. . σ 2 ). σ2 .266 6. . En consecuencia. Xn independientes cada una con distribuci´n N(µ.

para n > 2. o ´ Distribucion t. Por la proposici´n o o ¯ anterior. y recordando que X y S 2 son independientes. cualitativamente es muy parecida a a la densidad normal est´ndar. La variable aleatoria continua X tiene una distribuci´n t o de Student con n > 0 grados de libertad si su funci´n de densidad est´ dada o a por Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . Se muestran a continuaci´n algunas formas en las que surge a o esta distribuci´n. nπ Γ(n/2) para − ∞ < x < ∞. Cuando el valor del par´metro n es igual a uno se obtiea ne la distribuci´n Cauchy. a En este caso se escribe X ∼ t(n). muestrales y estad´ ısticas de orden Demostraci´n. o . se concluye que el primer sumando del lado derecho tiene distribuci´n χ2 (n − 1). cuya gr´fica se muestra en la Figura 6. Dist. mientras que el see o gundo sumando del lado derecho tiene distribuci´n χ2 (1). n i=1 ¯ 1 n−1 2 X −µ (Xi − µ)2 = S + ( √ )2 . y o e Var(X) = n/(n − 2).2. Esta distribuci´n apareci´ por primera o o vez en 1908 en un trabajo publicado por William Gosset bajo el seud´nio mo de Student.Cap´ ıtulo 6. σ2 σ2 σ/ n El t´rmino del lado izquierdo tiene distribuci´n χ2 (n). Dividiendo entre σ 2 . La primera igualdad establece que esta distribuci´n se encuentra siempre centrada en cero para cualquier valor del o par´metro n. Se puede demostrar tambi´n que E(X) = 0. o n i=1 n 267 (Xi − µ)2 = = i=1 n i=1 ¯ ¯ [(Xi − X) + (X − µ)]2 ¯ ¯ (Xi − X)2 + n(X − µ)2 .

Y /n Demostraci´n. nn/2−1 sn−2 −ns2 /2t2 e 2ns2 /t3 . x/ y/n). con o o −1 (s. ns2 /t2 ). Se aplica la f´rmula (5.268 6. para y > 0.T (s. Distribuciones muestrales f (x) n = 100 n=3 n=1 x Figura 6. o ´ Proposicion.2: Funci´n de densidad t(n). Sean X ∼ N(0. tn−2 . El Jacobiano de la transformaci´n inversa es inversa ϕ o J(s. la funci´n de densidad conjunta de X y o o Y es. t) = fX (s)fY (ns2 /t2 ) · 2ns2 /t3 = 1 1 2 √ e−s /2 Γ(n/2) 2π 1 2 n/2 ∂x/∂s ∂x/∂t ∂y/∂s ∂y/∂t = 1 0 2 −2ns2 /t3 2sn/t = −2ns2 /t3 .1.1) para la transformaci´n ϕ(x. y) = (x. Entonces X ∼ t(n). y) = √ e−x /2 Γ(n/2) 2π 1 2 n/2 y n/2−1 e−y/2 . 1) y Y ∼ χ2 (n) independientes. t) = (s.Y (x. 1 1 2 fX. Por independencia. t) = Por lo tanto fS.

de donde obtenemos dr = s(1 + n/t2 )ds. la ultima integral corresponde a la densidad ´ gama((n + 1)/2. El siguiente resultado es usado en estad´ ıstica para efectuar estimaciones de la media de una poblaci´n normal cuando la varianza es desconocida. S/ n Demostraci´n. Simplemente se aplica la proposici´n reci´n demostrada a o o e las variables aleatorias independientes ¯ X −µ √ ∼ N (0. . o ´ Proposicion. σ 2 ).a. Ahora efectuamos el cambio de variable r(s) = s2 (1 + n/t2 )/2. λ) con λ = 1. σ2 . de una distribuci´n N(µ. muestrales y estad´ ısticas de orden Integrando respecto a s. o Entonces ¯ X −µ √ ∼ t(n − 1). y entonces fT (t) = = 1 nn/2 √ 2π 2n/2−1 Γ(n/2)tn+1 2 1 + n2 2 2t 1 Γ((n + 1)/2) √ . . Xn una m. Dist. nπ Γ(n/2) (1 + t2 /n)(n+1)/2 ∞ (n+1)/2 0 r (n−1)/2 e−r dr correspondiente a la funci´n de densidad de la distribuci´n t(n). Sea X1 . 1) σ/ n y n−1 2 S ∼ χ2 (n − 1). .Cap´ ıtulo 6. 1 nn/2 fT (t) = √ 2π 2n/2−1 Γ(n/2)tn+1 ∞ 0 269 sn e−s 2 (1+n/t2 )/2 ds. . Salvo o o la constante Γ((n + 1)/2).

o . En la Figura 6. para m > 2. para m > 4. Distribuciones muestrales ´ Distribucion F.270 6. o f (x) 3/4 n=4 m = 100   Γ((n + m)/2) n  Γ(n/2) Γ(m/2) m f (x) =   0 n/2 xn/2−1 1 + n x m −(n+m)/2 si x > 0. m−2 2m2 (m + n − 2) . m). n=1 m=5 x Figura 6.1. m).3 se muestra el comportamiento de esta funci´n de densidad. si x ≤ 0. o Puede demostrarse que E(X) = y Var(X) = m . La variable aleatoria continua X tiene una distribuci´n o F de Snedecor con par´metros n > 0 y m > 0 si su funci´n de densidad es a o Se escribe X ∼ F(n. n(m − 2)2 (m − 4) Los siguientes dos resultados indican la forma de obtener esta distribuci´n.3: Funci´n de densidad F (n.

Cap´ ıtulo 6. fX/n (x) = nfX (nx). Esta afirmaci´n se obtiene directamente de la aplicaci´n de o o o la f´rmula para la funci´n de densidad del cociente de dos variables aleatoo o rias. m). Dist. Estad´ ısticas de orden Dada una muestra aleatoria X1 . n). Xn (ω). Demostraci´n. Estos n´meros pueden ser ordenados de u u menor a mayor incluyendo repeticiones. . . o ıa o √ √ √ 1 1 fX 2 (x) = ( fX ( x) + fX (− x) ) √ = fX ( x) √ .2. Recuerde que para n > 0. Si X ∼ t(n). . 2 x x 6. El resultado se sigue f´cilmente de la aplicaci´n de la sio a o guiente f´rmula general. y por la simetr´ de la distribuci´n t. Para x > 0. . Entonces X/n ∼ F(n. entonces X 2 ∼ F(1. Sean X ∼ χ2 (n) y Y ∼ χ2 (m) independientes. . . Si X(i) (ω) denota el i-´simo n´mero e u ordenado. . muestrales y estad´ ısticas de orden 271 ´ Proposicion. podemos evaluar cada una de estas variables en un punto muestral ω cualquiera y obtener una colecci´n de o n´meros reales X1 (ω). ´ Proposicion. Xn . . . tenemos entonces la colecci´n no decreciente de n´meros reales o u X(1) (ω) ≤ · · · ≤ X(n) (ω). Y /m Demostraci´n.

. Tenemos entonces la siguiente definici´n. A las variables aleatorias ordenadas ın X(1) = m´ {X1 . . se les conoce con el nombre de estad´ ısticas de orden. . . . pues deben a mantener la relaci´n X(1) ≤ X(2) ≤ · · · ≤ X(n) . Este proceso de ordenamiento resulta ser de importancia en algunas aplicaciones. etc. X(n) = m´x a {X1 . . . . a X(2) se le llama segunda estad´ ıstica de orden. en general. aunque los elementos de la muestra aleatoria son variables aleatorias independientes. sino que. En lo que resta del cap´ a ıtulo supondremos entonces que X1 . Xn } \ {X(1) . . . Nuestro objetivo es encontrar algunas f´rmulas relacionadas con las distrio buciones de probabilidad de las estad´ ısticas de orden cuando se conoce la distribuci´n de las variables de la muestra aleatoria. . . A X(1) se le llama primera estad´ ıstica de orden. . . . . Sea X1 . Xn }. . . . i = 1. . . ın ın X(3) = m´ {X1 . X(2) = m´ {X1 . . . las estad´ ısticas de orden no lo son. Xn }. . (Estad´ ısticas de orden). Estad´ ısticas de orden Ahora hacemos variar el argumento ω y lo que se obtiene son las as´ llaı madas estad´ ısticas de orden. Observe adem´s que la io ´sima estad´ e ıstica de orden X(i) no necesariamente es igual a alguna variable de la muestra aleatoria en particular. Xn una muestra aleatoria.272 6. .2. . . . . o ´ Definicion. o o o . n. que por simplicidad se o supondr´ absolutamente continua. Xn } \ {X(1) }. X(2) }. . A X(i) se le llama i-´sima estad´ e ıstica de orden. es una funci´n o de todas las variables de la muestra aleatoria. Observe que. . Xn es una muestra aleatoria en donde cada variable tiene funci´n de densidad f (x) y funci´n de distribuci´n F (x).

. Para n ≥ 1. . . o 1. Xn } ≤ x) = 1 − P (m´ ın{X1 . fX(1) (x) = nf (x) [1 − F (x)]n−1 . . 1. . . . . . . . = 1 − P (X1 > x. 2. . . o o FX(1) (x) = P (X(1) ≤ x) = P (m´ ın{X1 . . . Se calcula primero la funci´n de distribuci´n. . muestrales y estad´ ısticas de orden 273 Distribuciones individuales Comenzamos encontrando la distribuci´n de la primera y de la ultima eso ´ tad´ ıstica de orden de manera individual. Demostraci´n. Xn } > x) = 1 − [P (X1 > x)]n = 1 − [1 − F (x)]n . ´ Proposicion. Dist. . Entonces fX(1) (x) = nf (x) [1 − F (x)]n−1 . Xn } ≤ x) a = P (X1 ≤ x. . Xn ≤ x) = [P (X1 ≤ x)]n = [F (x)]n . a FX(n) (x) = P (X(n) ≤ x) = P (m´x{X1 . . Por lo tanto fX(n) (x) = nf (x) [F (x)]n−1 . Se procede de manera an´loga. . fX(n) (x) = nf (x) [F (x)]n−1 . Xn > x) .Cap´ ıtulo 6. 2.

Las variables e Y1 . ´ Proposicion. Entonces la suma Y1 + · · · + Yn corresponde al n´mero u de variables aleatorias Xi que cumplen la condici´n Xi ≤ x. y por lo tanto o esta suma tiene distribuci´n bin(n. . i Demostraci´n. o Ahora se presenta el resultado general acerca de la funci´n de densidad de o la i-´sima estad´ e ıstica de orden. Encuentre en particular las expresiones para estas funciones cuando las variables de la muestra tienen distribuci´n unif(0.274 6. Estad´ ısticas de orden Ejercicio. . . . Yn son independientes y cada una de ellas puede considerarse un ensayo Bernoulli con probabilidad de ´xito. igual e a P (Xi ≤ x) = F (x). con p = F (x). es decir tomar el valor 1. La funci´n de densidad de la i-´sima estad´ o e ıstica de orden es n fX(i) (x) = i f (x)[F (x)]i−1 [1 − F (x)]n−i .x] (Xi ) = 1 si Xi ≤ x. Para cada i defina la variable aleatoria o Yi = 1(−∞. 1). en donde Xi es el i-´simo elemento de la muestra aleatoria. p).2. Entonces o FX(i) (x) = P (X(i) ≤ x) n = P (Y1 + · · · + Yn ≥ i) j=i = n j [F (x)]j [1 − F (x)]n−j . Compruebe que las expresiones encontradas para fX(1) y fX(n) son efectivamente funciones de densidad. 0 si Xi > x. .

Ejercicio. y considere los siguientes tres intervalos ajenos (−∞. ∞) es. Demuestre que la expresi´n encontrada para fX(i) (x) es efectio vamente una funci´n de densidad. y el resto n − i en (x + h. x + h] y (x + h. ∞). muestrales y estad´ ısticas de orden Derivando y despu´s simplificando. Dist. Verifique que esta densidad se reduce a o las encontradas antes cuando el ´ ındice i toma los valores 1 o n. x + h]. e n 275 fX(i) (x) = j=i n n j f (x)[F (x)]j−1 [1 − F (x)]n−j−1 [j(1 − F (x)) − (n − j)F (x)] jf (x)[F (x)]j−1 [1 − F (x)]n−j n j (n − j)f (x)[F (x)]j [1 − F (x)]n−j−1 = j=i n n j − = j=i n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . o A continuaci´n se presenta un argumento corto e intuitivo que nos lleva o al mismo resultado. x].Cap´ ıtulo 6. o n! [F (x)]i−1 [F (x + h) − F (x)][1 − F (x + h)]n−i . x]. i−1 x 1 x+h n−i La probabilidad de que i − 1 variables de la muestra tomen un valor en el intervalo (−∞. de acuerdo a la distribuci´n multinomial. 1). (x. Sea h > 0 arbitrario. encuentre la funci´n de densidad de la i-´sima estad´ o e ıstica de orden suponiendo que las variables de la muestra tienen distribuci´n unif(0. En particular. (i − 1)! 1! (n − i)! . una de ellas en (x.

Xn una muestra aleatoria.2.X(n) (x. y despu´s haciendo h tender a cero se obtiene nuevamente e fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . para n ≥ 2. Para x < y. = [F (y)]n − P (x < X1 ≤ y. . Para r > 0. . . X(n) ≤ y) = P (X(n) ≤ y) − P (X(n) ≤ y. . Estad´ ısticas de orden Esta probabilidad es aproximadamente igual a fX(i) (x)h. A la variable aleatoria R = X(n) − X(1) se le conoce como el rango de la muestra. o o ´ Proposicion. Entonces para r > 0. El siguiente resultado provee de una f´rmula para la funci´n de densidad de esta variable. X(1) > x) = [F (y)]n − [F (y) − F (x)]n . Demostraci´n. y) = P (X(1) ≤ x. fR (r) = n(n − 1) ∞ −∞ f (v)f (r + v)[F (r + v) − F (v)]n−2 dv. fX(1) . fX(n) −X(1) (r) = n(n − 1) ∞ −∞ f (v)f (r + v)[F (r + v) − F (v)]n−2 dv. x < Xn ≤ y) Por lo tanto. Ahora se usa la f´rmula o fY −X (u) = ∞ fX.X(n) (x. .5) para la diferencia de dos variables aleatorias. u + v) dv −∞ equivalente a (5. . . Dividiendo entre h. o FX(1) . Sea X1 . . .276 6. y) = n(n − 1)f (x)f (y)[F (y) − F (x)]n−2 .Y (v.

muestrales y estad´ ısticas de orden 277 Ejercicio. ´ Proposicion. FX(1) .. Para x1 < x2 < · · · < xn ... Demostraci´n. X(n) ≤ xn ) + P (X(1) ≤ x1 .Cap´ ıtulo 6. 1). se obtiene la expresi´n o FX(1) .X(n) (x1 .. . Se escogen n puntos al azar con distribuci´n uniforme en el ino tervalo unitario (0. .. . . xn ) = n! f (x1 ) · · · f (xn ). otro caso. . x1 < X(2) ≤ x2 . Como (X(2) ≤ x2 ) = (x1 < X(2) ≤ x2 ) ∪ (X(2) ≤ x1 ). X(2) ≤ x2 . . . . . .X(n) (x1 . Dist. X(2) ≤ x1 . . fX(1) . . . xn ) = P (X(1) ≤ x1 . . X(n) ≤ xn ).. xn ) = P (X(1) ≤ x1 .. y despu´s se deriva n veces para encontrar la funci´n e o de densidad. El primer resultado trata acerca de la distribuci´n conjunta de todas ellas. . . Distribuciones conjuntas Se presentan a continuaci´n dos resultados acerca de la distribuci´n cono o junta de las estad´ ısticas de orden.. .. . Para x1 < · · · < xn . . despu´s se considera la distribuci´n o e o conjunta de cualesquiera dos. . Demuestre que la funci´n de densidad de la distancia o m´xima entre cualesquiera dos puntos es a f (r) = n(n − 1)r n−2 (1 − r) 0 si 0 < r < 1... X(n) ≤ xn ). . Se considera la funci´n de distribuci´n conjunta de todas las o o o estad´ ısticas de orden.X(n) (x1 . .. . . .

xn−1 < Xn ≤ xn ) = n! F (x1 )[F (x2 ) − F (x1 )] · · · [F (xn ) − F (xn−1 )]. este t´rmino desaparece. (xn .X(n) (x1 .2. y h > 0 suficientemente peque˜a tal n que los intervalos (x1 . . xn + h] son ajenos. Encuentre adem´s esta funci´n cuando las variables a o de la muestra tienen distribuci´n unif(0. xn−1 < X(n) ≤ xn ).. Ejercicio. . 1! · · · 1! . (x2 . n! [F (x1 + h) − F (x1 )] · · · [F (xn + h) − F (xn )].278 6. Sean x1 < x2 < · · · < xn . . asi es que al tomar la derivada respecto de esta variable. . . . o La siguiente demostraci´n es una prueba corta pero no formal del mismo o resultado. Demuestre que la expresi´n encontrada para la funci´n de deno o sidad conjunta de las estad´ ısticas de orden es efectivamente una funci´n de o densidad multivariada.. cada una de ellas. . xn−1 < X(n) ≤ xn ) = n! P (X1 ≤ x1 . x1 + h]. . . x1 < X(2) ≤ x2 . . . x1 < X2 ≤ x2 .. en donde la ultima igualdad se sigue de la independencia e id´ntica distribu´ e ci´n de las variables de la muestra.. x1 < X(2) ≤ x2 .4. de acuerdo a la distribuci´n o o multinomial. . en uno y s´lo uno de estos intervalos es. Ahora solo resta derivar para encontrar o el resultado buscado. ∂x1 · · · ∂xn Como ahora los intervalos involucrados son disjuntos. . V´ase e la Figura 6. Estad´ ısticas de orden Observe que el segundo sumando no depende de x2 . . xn ) = ∂n P (X(1) ≤ x1 . . siendo m´s sencillo encontrar las derivadas en el orden a inverso. La probabilidad de que las variables aleatorias tomen valores. . . 1). la distribuci´n multio nomial asegura que P (X(1) ≤ x1 . x2 + h]. De manera e an´loga procedemos con los eventos (X(3) ≤ x3 ) hasta (X(n) ≤ xn ). . . . Al final a se obtiene fX(1) .

n − j i(j − i) f (x)f (y) [F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j . Sean x < y y considere los intervalos ajenos (−∞. (y. .X(n) (x1 . . ´ Proposicion. (x + h.5. y]. v´ase n e la Figura 6.X(n) (x1 .. fX(i) . Dividiendo entre hn .. (x.. .. Para este resultado se presenta unicamente el argumento intuitivo usado ´ antes. una vez e mas. .X(j) (x. y + h].. muestrales y estad´ ısticas de orden 279 x1 x2 ······ Figura 6. y (y + h. Para x < y. j − i. x].4: xn i−1 x 1 j−i−1 y 1 y+h n−j x+h Figura 6. x + h]. xn ) = n!f (x1 ) · · · f (xn ). y) = n i. y despu´s haciendo h tender a cero se obtiene. Ahora nos interesa encontrar una f´rmula para la densidad conjunta de o cualesquiera dos estad´ ısticas de orden. Suponga i < j. xn )hn . La probabilidad de que i − 1 variables de la muestra tomen un valor en . .5: Esta probabilidad es aproximadamente igual a fX(1) . ∞) para h > 0 suficientemente peque˜a. . .. . Dist... fX(1) .Cap´ ıtulo 6.

X(j) (x. y) = n i. Encuentre adem´s esta funci´n cuando las o a o variables de la muestra tienen distribuci´n unif(0. n − j variables. Dividiendo entre h2 .280 6. xn ) = n! f (x1 ) · · · f (xn ). Estad´ ısticas de orden (−∞. tomen un valor en (y + h. o n! [F (x)]i−1 [F (x + h) − F (x)] (i − 1)! 1! (j − i − 1)! 1! (n − j)! [F (y) − F (x + h)]j−i−1 [F (y + h) − F (y)] [1 − F (y + h)]n−j . Demuestre que la expresi´n encontrada para la funci´n de deno o sidad conjunta de las estad´ ısticas de orden X(i) y X(j) es efectivamente una funci´n de densidad bivariada.X(j) (x. y].. ´ Formulas para las funciones de densidad de algunas estad´ ısticas de orden en el caso absolutamente continuo fX(1) (x) = nf (x) [1 − F (x)]n−1 fX(n) (x) = nf (x) [F (x)]n−1 fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i ∞ −∞ fR (r) = n(n − 1) f (v)f (r + v)[F (r + v) − F (v)]n−2 dv. para r > 0 en donde R = X(n) − X(1) fX(1) . y) h2 .. de acuerdo a la distribuci´n multinomial. ∞) es. y despu´s haciendo h tender a cero se obtiene la f´rmula enunciada. otra en (y. x + h].X(n) (x1 . o Las f´rmulas para las funciones de densidad de las estad´ o ısticas de orden encontradas en este cap´ ıtulo se resumen en la siguiente tabla.. . . Esta probabilidad es aproximadamente igual a fX(i) . y + h]. . j − i. j − i + 1 variables en (x + h. para x < y e i < j .2. . y el resto. e o Ejercicio. para x1 < · · · < xn fX(i) . 1). n − j i(j − i) f (x)f (y)[F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j .. x]. una de ellas en (x.

Sea X1 . λ). se reduce a o la distribuci´n χ2 (n). Estos ¯ resultados son de utilidad en estad´ ıstica y muestran que X y S 2 son estimadores insesgados para la media y varianza de la distribuci´n. Sea X1 . Xn una muestra aleatoria de una distribuci´n con media o ¯ µ y varianza σ 2 . 2. Demuestre que la funci´n de densidad de la distribuci´n χ2 (n) efeco o tivamente lo es. . . o con n = 2. c) Var(X) = 2n. 478.Cap´ ıtulo 6. . . o 473. las estad´ ısticas X Distribuci´n χ2 o 475. compruebe que la distribuci´n χ2 (n). Demuestre que ¯ y S 2 no son independientes. . . . o Demuestre que ¯ (X − µ)2 ∼ χ2 (1).a. Sea X1 . Ejercicios Media y varianza muestral 472. Demuestre que la distribuci´n gama(n/2. . o 476. para m = 1.3.a. . con λ = 1/2. ¿Cu´nto vale Var(S 2 )? ¯ σ a o 474. σ 2 /n . . . Dist. Demuestre que o a) E(X) = n. En particular. Sean X1 . Demuestre que Var(X) = σ 2 /n. σ 2 ). de una distribuci´n Ber(p). b) E(X m ) = 2m Γ(m + n/2)/Γ(n/2). . . . o 477. Xn una m. . muestrales y estad´ ısticas de orden 281 6. se reduce a la distribuci´n exp(λ) con λ = 1/2. de una distribuci´n con media µ y varianza o 2 . Xn una m. . . Xn independientes cada una con distribuci´n N(µ. Demuestre que E(X) = µ y E(S 2 ) = σ 2 . . . Sea X con distribuci´n χ2 (n).

. Demuestre que la distribuci´n t(n+1) tiene momentos finitos de orden o menor o igual a n.3. σi ) para i = 1. a 483. Compruebe adem´s que esta distribuci´n se reduce a la distribuci´n a o o Cauchy cuando el valor del par´metro n es uno. . . Sean X1 . para n > 2. . pero ning´n otro momento de orden superior. 480. Demuestre adem´s que esta o a funci´n tiene un m´ximo en x = 0 y que o a a) E(X) = 0. Demuestre que a n i=1 Xi2 ∼ χ2 (n). Demuestre que la funci´n de densidad de una variable aleatoria X o con distribuci´n t(n) efectivamente lo es. Xn independientes cada una con distribuci´n normal o est´ndar.282 6. Ejercicios 479. 2 σi 481. . Demuestre que a) R2 tiene distribuci´n χ2 (n) con n = 2 grados de libertad. u . b) Var(X) = n/(n − 2). Xn independientes tales que cada variable Xi tiene dis2 tribuci´n N(µi . . o b) tan θ tiene distribuci´n Cauchy. Distribuci´n t o 482. . . o c) R y θ son independientes. . . . . Sean X y Y independientes ambas con distribuci´n normal est´ndar. Sean X1 . n. o a √ Sean R = X 2 + Y 2 y θ = tan−1 (Y /X). Demuestre que o n i=1 (Xi − µi )2 ∼ χ2 (n).

Sea X1 . . Demuestre que E[X(1) ] = µ − σ/ π y o calcule E[X(2) ]. . 486. .a. Xn una m. Demuestre adem´s que o a a) E(X) = m/(m − 2).a. y cada una . Sea X1 . . Sea X con distribuci´n F(n. Sea X1 . . . de tama˜o dos n √ de una distribuci´n N(µ. muestrales y estad´ ısticas de orden 283 Distribuci´n F o 484. de una distribuci´n F (x). Encuentre la o funci´n de densidad de la i-´sima estad´ o e ıstica de orden. o Encuentre por lo tanto su esperanza y varianza. 489. Demuestre que Y = 1/X tiene distrio buci´n F(m. 490. Xn una m. . Demuestre o que la i-´sima estad´ e ıstica de orden tiene distribuci´n beta(i. . b) Var(X) = 2m2 (m para m > 2. y para cada i = 1. . Sea x un n´mero o u real cualquiera. observe el cambio en el orden de los par´metros.Cap´ ıtulo 6. . 488.a. n defina Yi = 1(−∞. Xn una m. para m > 4 . . . . Este o a resultado es util para obtener valores de F que no aparecen en tablas ´ de esta distribuci´n que son comunes en textos de estad´ o ıstica. . de la distribuci´n χ o Estad´ ısticas de orden: distribuciones individuales 487. + n − 2) . m). de una distribuci´n exp(λ). Sean X(1) .a. Demuestre que la funci´n de densidad de una variable aleatoria X con o distribuci´n F(n. σ 2 ). Demuestre que las variables Y1 . n + 1 − i). 1). n(m − 2)2 (m − 4) 485. . de una distribuci´n unif(0. . Demuestre que cuando m tiende a o infinito la funci´n de densidad de nX converge a la funci´n de densidad o o 2 (n). Sea X con distribuci´n F(n. Yn son independientes. . m) efectivamente lo es. X(2) las estad´ ısticas de orden de una m. . n). .x] (Xi ). Dist. . m).

. . Y }. Este hecho fue utilio zado en el procedimiento para encontrar la funci´n de densidad de la o i-´sima estad´ e ıstica de orden. Xn }) = λk /(λ1 + · · · + λn ). c) fV (v) = 2F (v)f (v). Defina U = m´ ın{X. .3. 1).284 6. o 495. Xn variables aleatorias independientes en donde Xk tiene distribuci´n exp(λk ). Ejercicios de ellas tiene distribuci´n Ber(p). . n. . . . . Demuestre que a a) FV (v) = FX (v)FY (v). . Defina V = m´x{X. o 493. y que P (Xk = o m´ ın{X1 . Sean X1 . Demuestre que la variable o m´ ın{X1 . Y }. Sean X y Y absolutamente continuas e independientes. o 494. . . . cuando X y Y tienen la misma distribuci´n. Demuestre que a) FU (u) = 1 − [1 − FX (u)][1 − FY (u)]. cuando X y X tienen la misma distribuci´n. b) fV (v) = FX (v)fY (v) + fX (v)FY (v). c) fU (u) = 2[1 − F (u)]f (u). . . o 492. Use el ejercicio anterior para encontrar la funci´n de densidad del o m´ximo de dos variables aleatorias independientes cada una de ellas a con distribuci´n: a) unif(0. Xn } tiene distribuci´n exp(λ1 + · · · + λn ). Sean X y Y absolutamente continuas e independientes. b) exp(λ). con p = F (x). . b) fU (u) = [1 − FX (u)]fY (u) + fX (u)[1 − FY (u)]. . . Use el ejercicio anterior para encontrar la funci´n de densidad del o m´ ınimo de dos variables aleatorias independientes cada una de ellas con distribuci´n: a) unif(0. 1). para k = 1. b) exp(λ). 491.

500.X(n) (x1 . 1)... b) R = X(n) − X(1) .... 498. Xn ) =  1 [X n + X n  (2) ( 2 +1) ] si n es par. Mediana muestral. . . . encontrando nuevamente que fX(1) (x) = nf (x)[1 − F (x)]n−1 . . Xn .Cap´ ıtulo 6. calcule la funci´n de deno o sidad marginal de X(i) . denotada por Med(X1 .X(j) (x. . xn ). Encuentre o la funci´n de densidad de o a) X(1) y X(2) conjuntamente.a. calcule la funci´n o o de densidad marginal de X(n) . . . . encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . . y). xn ). calcule la funci´n o o de densidad marginal de X(i) . Sea X1 . . La mediana de una muestra aleatoria X1 . . 2 . A partir de la f´rmula para fX(1) .  2 Med(X1 . . . de una distribuci´n unif(−1. . ... . . A partir de la f´rmula para fX(1) .X(n) (x1 . 501. . se define del siguiente modo. para i = 1. calcule la funci´n o o de densidad marginal de X(1) . . encontrando nuevamente que fX(n) (x) = nf (x)[F (x)]n−1 . xn ).X(n) (x1 . . muestrales y estad´ ısticas de orden 285 Estad´ ısticas de orden: distribuciones conjuntas 496.. . . 497. . Xn ). . Considere las estad´ ısticas de orden X(1) ≤ X(2) ≤ · · · ≤ X(n) . entonces   X( n+1 ) si n es impar. Dist. 499. A partir de la f´rmula para fX(1) ... . Xn una m. .. A partir de la f´rmula para fX(i) .. . . . . . . n. encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i .

a.3. . . 1). de tama˜o n de n una distribuci´n: a) unif(0. Calcule el o coeficiente de correlaci´n entre X(i) y X(j) . primero suponiendo que el tama˜o o n de la muestra n es impar. o b) exp(λ). n o b) exp(λ). . . Encuentre la funci´n de densidad conjunta de X(1) y X(n) para una o m. o fX(1) .a. Demuestre directamente que para x < y. . Sea X1 . de una distribuci´n continua F (x) con funci´n de densidad f (x).286 6. . o o 503.X(n) (x. Xn una m. y despu´s para n par. 504. Xn una m. 1). . Sea X1 .a. 1). . de una distribuci´n unif(0.a. Ejercicios Encuentre la funci´n de densidad de la mediana de una muestra aleao toria de la distribuci´n unif(0. . 1). 505. e 502. de tama˜o n de una distribuci´n: a) unif(0. Calcule la covarianza entre X(1) y X(n) para una m. y) = n(n − 1)f (x)f (y)[F (y) − F (x)]n−2 .

una sucesi´n infinita de variables aleatorias. . estan todas ellas definidas. Hist´ricamente este tema surge a trav´s de ciertas preo e guntas que se formularon acerca del comportamiento del promedio de va1 riables aleatorias n n Xi cuando n crece a infinito. . X2 (ω).1. . . P ) en donde una sucesi´n ino finita de variables aleatorias X1 . En este cap´ ıtulo estudiaremos distintas formas en que una sucesi´n infinita de variables aleatorias puede converger de manera o general.Cap´ ıtulo 7 Convergencia En este cap´ ıtulo se presenta una introducci´n al tema de convergencia de o variables aleatorias. Al evaluar cada o una de estas variables en un elemento ω se obtiene la sucesi´n num´rica o e X1 (ω). . . Suponga que esta sucesi´n converge a un cierto n´mero o u real denotado por X(ω). En la ultima parte ´ i=1 del texto estudiaremos algunos resultados importantes sobre este comportamiento limite particular. 7. Si lo anterior se cumple para todos y cada uno 287 . En la mayor´ de las situaciones que consideraremos supondremos ıa que existe un espacio de probabilidad (Ω. F . Tipos de convergencia Convergencia puntual Sea X1 . X2 . . . . X2 .

. 1). Xn (ω) = 1. podemos graficar las u variables aleatorias como en la Figura 7. y su l´ ımite es la funci´n X : Ω → R definida o naturalmente por X(ω) = l´ n→∞ Xn (ω). Xn (ω) 1 ω 1 Figura 7. converge puntualmente a X si para cada ω en Ω. . La sucesi´n de variables aleao torias X1 . n→∞ l´ Xn (ω) = X(ω). Como en este caso el esde variables aleatorias continuas Xn (ω) = ω pacio muestral es un subconjunto de n´meros reales. Se ha demostrado antes que en ım esta situaci´n la funci´n l´ o o ımite X es efectivamente una variable aleatoria.1. 1]. y para cualquier valor de n. X2 . . Formalmente se tiene entonces la siguiente definici´n. y defina la sucesi´n o n . ım Ejemplo. Considere el espacio medible ([0. B[0.288 7. a Entonces para cada ω ∈ [0. 1]).1. 1 si ω = 1. De esta manera la sucesi´n converge puntualmente a la variable aleatoria o X(ω) = 0 si ω ∈ [0. Tipos de convergencia de los elementos de Ω. la sucesi´n num´rica Xn (ω) converge a 0.1: Gr´fica de la variable aleatoria Xn (ω) = ω n . 1). (Convergencia puntual). entonces se dice que la sucesi´n de variables aleatoo rias converge puntualmente. . o e mientras que para ω = 1. o ´ Definicion.

a) Xn (ω) = ω mod n b) Xn (ω) = m´ Una sucesi´n de variables aleatorias es entonces una sucesi´n de funciones. X2 . Convergencia 289 Ejercicio. . si P {ω ∈ Ω : l´ Xn (ω) = X(ω)} = 1. La sucesi´n de variables o aleatorias X1 . el dominio de definici´n de estas funciones. que la convergencia se verifique en todo el espacio Ω excepto en un subconjunto de probabilidad cero. 2N ). X2 (ω). o o pero a diferencia de la situaci´n que se estudia en los cursos de an´lisis o a matem´tico. el espacio a o muestral en este caso. En caso afirmativo encuentre la variable aleatoria l´ ımiın{ω. en la convergencia casi segura se permite que para algunos valores de ω. la sucesi´n num´rica X1 (ω). Convergencia casi segura En algunas situaciones la convergencia puntual resulta ser una condici´n o muy fuerte pues se pide la convergencia de la sucesi´n evaluada en todos y o cada uno de los elementos del espacio muestral. pueda no converger. no tiene una estructura algebraica excepto la dada por la σ-´lgebra y la medida de probabilidad. Se puede ser menos estricto y pedir. . ´ Definicion. La forma en la que se utilia za esta medida de probabilidad es la que determina los distintos tipos de convergencia. n} c) Xn (ω) = m´x{ω.Cap´ ıtulo 7. . es decir. . Determine si existe convergencia puntual para cada una de las siguientes sucesiones de variables aleatorias discretas. (Convergencia casi segura). Considere el espacio medible (N. . . por ejemplo. ım n→∞ Es decir. converge casi seguramente a la variable X. n} a te. sin emo e bargo el subconjunto de Ω en donde esto suceda debe tener probabilidad .

o bien l´ Xn = X c. Puede tambi´n demostrarse e e que bajo este tipo de convergencia. Xn (ω) = 1[0.290 7. y tambi´n converge a Y c. el l´ ımite es unico casi seguramente. 1]. 1]. Observe que omitiendo el argumento ω. si Xn converge a X c. al respecto v´ase el ejercicio 506. el cual tiene probabilidad uno.1. es ´ decir. Ejemplo. Para indicar la convergencia casi segura se escribe Xn −→ X. El punto ω = 0 es el unico ´ punto muestral para el cual Xn (ω) no converge a cero.. entonces X = Y e casi seguramente. Para demostrar esto se necesita verificar que P (Xn → 0) = 1. o a y converge casi seguramente a la variable aleatoria constante cero.1/n] (ω) 1 ω 1/n 1 Figura 7.s.s. a ım o simplemente P (Xn → X) = 1. la medida de probabilidad de un intervalo es su longitud.s. cero. es decir. la condici´n para la convergeno cia casi segura se escribe en la forma m´s corta: P ( l´ n→∞ Xn = X ) = 1. B[0. Pero esta igualdad es evidente a partir del hecho de que el conjunto {ω ∈ Ω : Xn (ω) → 0} es el intervalo (0.1/n] (ω). la variable Xn tiene distribuci´n Bernoulli con par´metro p = 1/n.2. Considere el espacio de probabilidad ([0. Es posible demostrar que el conjunto {ω ∈ Ω : Xn (ω) → X(ω)) es medible de modo que tiene sentido aplicar la probabilidad.s. Esto demuestra que . P ) con P la medida uniforme. o bien convergencia casi siempre para denotar este tipo de convergencia. Defina la sucesi´n de variables aleatorias como se muestran en la o Figura 7.2: Gr´fica de la variable aleatoria Xn (ω) = 1[0. Tipos de convergencia c. a Es decir. 1]. A menudo se utiliza el t´rmino convergencia casi dondeım e n→∞ quiera.

s. A8 = (2/4. 3/4). A5 = (2/3. . ······ p . X2 . 1). si n es impar. con P la medida uniforme. si para cada ǫ > 0. 1). A4 = (1/3. A6 = (0. 1/4). l´ P {ω ∈ Ω : |Xn (ω) − X(ω)| > ǫ} = 0. Convergencia Xn −→ 0. Convergencia en probabilidad Un tipo de convergencia a´n menos restrictiva que la convergencia casi u segura es la convergencia en probabilidad la cual se define a continuaci´n. Demuestre que la siguiente sucesi´n o de variables aleatorias no converge para ning´n ω en Ω. . Considere el espacio de probabilidad ((0. converge en probabilidad a X. A2 = (1/2. Sea A un evento cualquiera. 1). B(0. Defina la sucesi´n de eventos o A1 = (0. c. 1/3). A3 = (0. o ´ Definicion. y omitiendo el argumento ω la condici´n se escribe l´ n→∞ P ( |Xn −X| > ǫ ) = 0. u Xn = 1A 1Ac si n es par. 2/4). . 2/3). 1/2). La sucesi´n de vao riables aleatorias X1 . P ).Cap´ ıtulo 7. ım n→∞ Para denotar la convergencia en probabilidad se escribe Xn −→ X. 1). A9 = (3/4. o ım Nuevamente puede comprobarse que el l´ ımite es unico casi seguramente. A7 = (1/4. (Convergencia en probabilidad). ´ Ejemplo. 291 Ejercicio. 1).

1. Observe que el mismo argumento funciona para cualquier sucesi´n de variables aleatorias independientes id´nticamente distribuidas con o e varianza finita. Tipos de convergencia Sea Xn = 1An .3. . . n→∞ l´ P (|Xn − 0| > ǫ) = l´ P (An ) = 0.3: Gr´ficas de las primeras variables aleatorias Xn = 1An . Use la desigualdad de Chebyshev para demostrar que p Sn → µ. a En algunos casos la aplicaci´n de la desigualdad de Chebyshev resulta util o ´ para demostrar este tipo de convergencia como se muestra a continuaci´n. ım ım n→∞ Por otro lado observe que esta sucesi´n de variables aleatorias no converge o casi seguramente pues el conjunto {ω ∈ Ω : l´ Xn (ω) existe} es vac´ ım ıo. Sea X1 . . X2 . Las gr´ficas de estas primeras variables aleatorias se muesa p tran en la Figura 7. o o Ejercicio. .292 7. σ 2 ) y defina el promedio o n 1 Sn = n i=1 Xi . n→∞ X1 X2 1 1 1 X3 X4 1 X5 1 1 1 1 1 1 Figura 7. Entonces Xn −→ 0 pues para cualquier ǫ > 0. una sucesi´n de variables aleatorias independientes cada una de ellas con distribuci´n N(µ.

ım n→∞ A este tipo de convergencia tambi´n se le llama convergencia en L1 y se le e denota por Xn −→ X. . X2 .Cap´ ıtulo 7. (Convergencia en media). Ejercicio. m m L1 Convergencia en media cuadr´tica a Nuevamente usando el concepto de esperanza pero ahora aplicado al segundo momento se tiene la convergencia en media cuadr´tica. . M´s adelante a a demostraremos que la convergencia en media cuadr´tica implica la convera gencia en media. La respuesta es ı o afirmativa. entonces E(Xn ) → E(X). . ´ Definicion. Convergencia 293 Convergencia en media En este tipo de convergencia se usa la esperanza para determinar la cercan´ ıa entre dos variables aleatorias. Use la desigualdad de Jensen para demostrar que si Xn → X. A partir de la definici´n de convergencia en media es inmediato preguntarse o si de all´ se sigue la convergencia de la sucesi´n de medias. La sucesi´n de variables o aleatorias integrables X1 . . o Xn −→ X. converge en media a la variable aleatoria integrable X si l´ E|Xn − X| = 0.

A este tipo de convergencia tambi´n se le llama convergencia en L2 . . ım En este caso se escribe Xn → X. converge en media cuadr´tica a X.294 7. . La sucesi´n o a de variables aleatorias X1 . La sucesi´n de vao riables aleatorias X1 . puede o a d escribirse Xn → N(0. (Convergencia en media cuadratica). En contextos m´s generales se le llama tambi´n convergencia d´bil.1. o bien Xn → FX . X2 . Por ejemplo. . cuando se cumple la condici´n E|Xn −X|k → 0. En general puede definirse la convergencia en Lk . . a e e ´ ´ Definicion. e y se le denota por Xn −→ X. 1). . ım En este tipo de convergencia se presupone que tanto los elementos de la sucesi´n como el l´ o ımite mismo son variables aleatorias con segundo momento finito. a o m. X2 . (Convergencia en distribucion). . Tipos de convergencia ´ ´ Definicion. si n→∞ l´ E|Xn − X|2 = 0. Resulta que mientras mayor o es el valor de k. o FXn → FX .c. se cumple que o n→∞ l´ FXn (x) = FX (x). Observe que para este tipo de convergencia se hace d d d . converge en distribuci´n a X. L2 Convergencia en distribuci´n o Este es el tipo de convergencia menos restrictiva de todas las mencionadas. si la distribuci´n l´ o ımite es la distribuci´n normal est´ndar. si para todo o punto x en donde la funci´n FX (x) es continua. m´s restrictiva es la condici´n de convergencia. o Xn −→ X. para cada entero k ≥ 1.

El rec´ o ıproco en general es falso excepto cuando el l´ ımite es una constante. X2 . σ o n FXn (x) = 1 2πσ 2 /n x −∞ e−u 2 /2(σ 2 /n) du. Considere la sucesi´n X1 . Convergencia 295 uso s´lamente de las funciones de distribuci´n y por lo tanto las variables o o aleatorias correspondientes pueden estar definidas en distintos espacios de probabilidad. La unicidad del l´ ımite no se da en el sentido casi seguro como en los anteriores tipos de convergencia. si x ≥ 0. e interpretando esta integral como el ´rea bajo la curva de una funci´n de a o densidad normal con media cero y varianza σ 2 /n. l´ FXn (x) = ım n→∞  1 si x > 0.4. Este es el contenido del siguiente resultado el cual ser´ usado m´s adelante para demostrar la ley d´bil de los a a e grandes n´meros. sino en el sentido m´s d´bil de a e igualdad de distribuciones. Ejemplo. . en donde cada Xn tiene distrio d 2 /n). Tenemos entonces que Xn −→ 0. Observe que las funciones FXn (x) no convergen a F (x) cuando x = 0. u . n→∞ punto x donde FX (x) es continua. esto es. Como buci´n N(0.Cap´ ıtulo 7. puede comprobarse que  si x < 0.  0 1/2 si x = 0. Observe que la variable aleatoria constante X = 0 tiene funci´n de distribuci´n o o FX (x) = d 0 1 si x < 0. Demostraremos que X → 0. pues l´ FXn (x) = FX (x) para todo ım En la siguiente secci´n demostraremos que la convergencia en probabilidad o implica la convergencia en distribuci´n. . . Gr´ficamente la distribuci´n l´ a o ımite se muestra en la Figura 7. para todo x en el conjunto R\{0}..

La funci´n de distribuci´n de la variable aleatoria constante o o o c es 0 si x < c.296 7. . Sea c una constante. Si Xn −→ c. ım A manera de resumen y sin mayores precisiones. Demostraci´n. o p ´ Proposicion.4: Sucesi´n y l´ o ımite de las funciones de distribuci´n FXn (x). que tiene un unico punto de discontinuidad en x = c. Tipos de convergencia FXn (x) 1 x Figura 7. se presenta en la siguiente tabla las definiciones de los distintos tipos de convergencia mencionados. F (x) = 1 si x ≥ c. Suponga entonces que ´ FXn (x) → F (x) para x = c. entonces Xn −→ c.1. n→∞ d ≤ P (Xn ≤ c − ǫ) + P (Xn > c + ǫ/2) De modo que l´ P (|Xn − c| ≥ ǫ) = F (c − ǫ) + 1 − F (c + ǫ/2) = 0. En la siguiente secci´n se estudian las relaciones entre estos tipos de convergeno cia. Para cualquier ǫ > 0 se tiene que P (|Xn − c| ≥ ǫ) = P (Xn ≤ c − ǫ) + P (Xn ≥ c + ǫ) = FXn (c − ǫ) + 1 − FXn (c + ǫ/2).

P (|Xn − X| > ǫ) → 0. Relaciones entre los tipos de convergencia En esta secci´n se establecen algunas relaciones generales entre los tipos de o convergencia de variables aleatorias mencionados en la secci´n anterior.2. a En este diagrama la contenci´n se interpreta como implicaci´n. por ejemplo. y ´sta e a su vez implica la convergencia en distribuci´n. E|Xn − X| → 0. FXn (x) → FX (x) en puntos de continuidad x de FX . E|Xn − X|2 → 0. Estos y otros resultados se o demuestran a continuaci´n. ⇒ convergencia en prob. Convergencia c.s. En o la Figura 7. . 7. Demostraci´n. o ´ Proposicion.5 se ilustran de manera gr´fica estas relaciones.Cap´ ıtulo 7. Para cada natural n defina los eventos o An = ∞ k=n (|Xk − X| > ǫ). Convergencia 297 Convergencia puntual casi segura en media en media cuadr´tica a en probabilidad en distribuci´n o ´ Definicion Xn (ω) → X(ω) para cada ω en Ω. o o la convergencia casi segura implica la convergencia en probabilidad. P (Xn → X) = 1. Sea ǫ > 0.

es decir. n→∞ l´ P (|Xn − X| > ǫ) ≤ ım n→∞ l´ P (An ) ım n→∞ ∞ n=1 = P ( l´ An ) ım = P( An ) = P (|Xn − X| > ǫ. en general. en probabilidad Conv.298 7. casi segura Conv. Conv.5: Relaci´n entre los tipos de convergencia. Por lo tanto. c. Conv. Relaciones entre los tipos de convergencia Conv. Como (|Xn −X| > ǫ) ⊆ An . en m. en m. entonces P (|Xn −X| > ǫ) ≤ P (An ). la o convergencia en probabilidad no implica necesariamente la convergencia casi . para cada n ≥ 1 ) = P ( l´ Xn = X ) ım n→∞ = 0.2. El rec´ ıproco de la proposici´n anterior es. o Esta sucesi´n es decreciente y su l´ o ımite es entonces la intersecci´n de todos o los eventos. falso. en distribuci´n o Figura 7.

cuyas gr´ficas aparecen en la Figura 7.s. B(0. Defina la sucesi´n Xn = n 1(0. P ). Hemos comprobado antes que a p Xn −→ 0. Entonces Xn −→ o 0 pues E|Xn − 0| = P (An ) → 0.). A2 = (1/2. En este a ejemplo se cumple que E|Xn − 0|2 → 0. ⇒ convergencia en media. 1). Convergencia en m. c. 2/4).s. a ´ Proposicion.c. 1). A5 = (2/3. (En general. conv. 1). y sin embargo Xn no converge a 0 c. sin embargo la sucesi´n no converge casi seguramente pues Xn (w) o no converge para ning´n ω. 1/3). . la convere gencia en media cuadr´tica no implica la convergencia casi segura. Sin embargo esta sucesi´n no converge c.s. (En general. =⇒ conv. P ). Considere el espacio de probabilidad ((0. A8 = (2/4. Entonces Xn converge a cero casi seguo ramente pues P (l´ Xn = 0) = P (Ω) = 1. B(0. 1). m Considere la sucesi´n de variables Xn del ejemplo anterior. A3 = o (0. .1/n) .s.s. 1).3. (En general. A9 = (3/4. 1/4). =⇒ conv. u Ejemplo. en media).). con P la medida de probabilidad uniforme. 3/4). Sin embargo no hay convergencia ım en media pues E|Xn − 0| = E(Xn ) = 1 −→ 0. . c. Este ejemplo puede ser usado tambi´n para demostrar que la convergencia e casi segura no implica necesariamente la convergencia en media cuadr´tica. 1). Para comprobar esta afirmaci´n se proporciona a continuaci´n un o o ejemplo. Convergencia 299 siempre. en prob. Defina nuevamente la sucesi´n de eventos A1 = (0. o El ejemplo anterior sirve tambi´n para mostrar que.Cap´ ıtulo 7. A6 = (0. 2/3). conv. con P la medida uniforme. . A4 = (1/3. Ejemplo. 1/2). en media =⇒ convergencia c. A7 = (1/4. Ejemplo. Considere el espacio ((0. conv. en general. y con ellos las variables aleatorias Xn = 1An . 1).

1). 1). no hay convergencia en media cuadr´tica pues E|Xn − 0|2 = a 2 E(Xn ) = 1 −→ 0. con P la medida uniforme.300 7. 1). en media).2.c. y defina las variables Xn = n 1(0. Entonces Xn converge en probabilidad a cero pues para cualquier ǫ > 0. B(0. Ejemplo. Tomando u(x) = x2 se obtiene E 2 |Xn − X| ≤ E|Xn − X|2 . falso. Considere nuevamente el espacio ((0. El rec´ ıproco del resultado anterior es. (En general. Relaciones entre los tipos de convergencia Demostraci´n. en media =⇒ conv.1/n2 ) sobre el espacio ((0. Sin embargo. Por hip´tesis.) Sea Xn = n 1(0. Ejemplo. Para cada ǫ > 0 defina el evento An = (|Xn − X| > ǫ). con P la medida uniforme. Alternativamente la ultima desigualdad es consecuencia ´ de la desigualdad de Cauchy-Schwarz. =⇒ conv. o u(E(X)) ≤ E(u(X)). Demostraci´n. B(0.1/n) . en m. . conv. en prob. P ). Por o lo tanto P (|Xn − X| > ǫ) → 0. Convergencia en media ⇒ convergencia en prob. P (|Xn − 0| > ǫ) = P (Xn > ǫ) = 1/n → 0. o Entonces E|Xn − X| = E(|Xn − X| 1An ) + E(|Xn − X| 1Ac ) n ≥ E(|Xn − X| 1An ) ≥ ǫ P (|Xn − X| > ǫ). en general. Entonces Xn converge a cero en media pues E|Xn − 0| = E(Xn ) = 1/n → 0. conv. P ). ´ Proposicion. La desigualdad de Jensen establece que para u convexa. 1). el lado izquierdo tiende a cero cuando n tiende a infinito. de donde se sigue el resultado. (En general.

= P (X ≤ x − ǫ. ım n→∞ Por la continuidad lateral. y sea x un punto de continuidad o de FX (x). la sucesi´n no converge en media pues E|Xn − 0| = E(Xn ) = o 1 −→ 0. Demostraci´n. ım n→∞ . FX (x) ≤ l´ inf FXn (x). Convergencia 301 Sin embargo. ´ Proposicion. Para cualquier ǫ > 0 FX (x − ǫ) = P (X ≤ x − ǫ) ≤ P (Xn ≤ x) + P (|Xn − X| > ǫ). Entonces FX (x − ǫ) ≤ l´ inf FXn (x). |Xn − X| ≤ ǫ) + P (X ≤ x − ǫ. ⇒ convergencia en dist. |Xn − X| > ǫ) ≤ P (X ≤ x + ǫ) + P (|Xn − X| > ǫ). Por hip´tesis el segundo sumando del lado derecho tiende a cero cuando n o tiende a infinito. Suponga que Xn −→ X. |Xn − X| > ǫ) Nuevamente el segundo sumando tiende a cero cuando n tiende a infinito. ım n→∞ Por la continuidad en x. Entonces para cualquier ǫ > 0. l´ sup FXn (x) ≤ FX (x). Convergencia en prob. FXn (x) = P (Xn ≤ x) p = P (Xn ≤ x. |Xn − X| ≤ ǫ) + P (Xn ≤ x. Para cualquier ǫ > 0. l´ sup FXn (x) ≤ FX (x + ǫ).Cap´ ıtulo 7. ım n→∞ Ahora se demuestra la desigualdad inversa.

es decir.) Sea X con distribuci´n normal est´ndar. FXn (x) → o a u d Esto concluye la verificaci´n y ejemplos de todas las implicaciones y no o implicaciones que se derivan del diagrama de la Figura 7. y sea o a Xn = X si n es par. ım n→∞ e Entonces claramente cada una de las variable Xn tambi´n tiene distribuci´n normal est´ndar y por lo tanto para cualquier n´mero real x. El lector interesado en profundizar los temas aqui expuestos puede consultar el cap´ ıtulo 5 del libro de Karr [18]. en dist.302 7. ım ım n→∞ n→∞ El rec´ ıproco de la proposici´n anterior no siempre es v´lido. Xn −→ X. o el excelente texto de Gut [13]. la o a convergencia en distribuci´n no siempre implica la convergencia en probao bilidad. Los resultados de a ıa convergencia en espacios de probabilidad aqui mencionados pueden no ser v´lidos en espacios de medida m´s generales. FX (x). P (|Xn − X| > ǫ) = P (2|X| > ǫ) > 1/2. FX (x) ≤ l´ inf FXn (x) ≤ l´ sup FXn (x) ≤ FX (x). =⇒ conv. (En general. por ejemplo. Lo anterior demuestra que l´ P (|Xn − X| > ǫ) = 0.2. Relaciones entre los tipos de convergencia En resumen. a a .5. es decir. asi como los textos cl´sicos de teor´ de la medida [5] o [14]. conv. pues para valores impares de n y para valores peque˜os de n ǫ > 0. Sin embargo la sucesi´n no converge en proo babilidad a X. en prob. −X si n es impar. Ejemplo.

Este es un ejemplo sencillo en donde no es v´lido intercambiar la esperanza y el l´ a ımite.1/n) . a ´ Teorema de convergencia monotona. Sea 0 ≤ X1 ≤ X2 ≤ · · · una sucesi´n de variables aleatorias convergente casi seguramente a una o variable X. Es natural preguntarse si la sucesi´n de n´meros E(Xn ) converge a E(X). Tal convergencia num´rica o u e equivaldr´ a poder intercambiar las operaciones de l´ ıa ımite y esperanza. considere el espacio ((0. ım n→∞ Ahora resta demostrar la desigualdad contraria. En esta secci´n se estudian dos resultados que establecen condiciones bajo las cuales o es v´lido este intercambio. Esta es una colecci´n de eventos o disjuntos dos a dos. Primero se aproxima a X de la siguiente forma. Convergencia 303 7. Sea ǫ > 0 arbitrario. con P la medida de probabilidad uniforme. es decir. 1). ım Demostraci´n. . una sucesi´n de variables aleatorias con esperanza finita. Sin embargo E(Xn ) es siempre 1 y no converge a E(X) = 0. cuyo l´ ımite es X = 0 casi seguramente. Dos resultados importantes de convergencia Sea X1 . . cuya uni´n es Ω. Por lo o tanto l´ E(Xn ) ≤ E(X). entonces 0 ≤ E(Xn ) ≤ E(X). X2 . P ). l´ E(Xn ) = E( l´ Xn ). ım ım n→∞ n→∞ Por ejemplo. Entonces n→∞ l´ E(Xn ) = E(X).3. Defina ahora la variable aleatoria o . . y para cada entero k ≥ 0 defina el evento Ak = ( kǫ ≤ X < (k + 1)ǫ ). 1). Como 0 ≤ Xn ≤ X. B(0. Hemos considerado antes la sucesi´n de variables o aleatorias Xn = n 1(0. o Suponga que Xn converge casi seguramente a X.Cap´ ıtulo 7.

y entonces P (Ak ∩ Bn ) ր P (Ak ). k=0 Como esta desigualdad es v´lida para cualquier m ≥ 0. ım El siguiente resultado establece otro tipo de condici´n suficiente para obteo ner la misma conclusi´n. / Entonces 0 ≤ Y 1Bn ≤ Xn . o . y por lo tanto 0 ≤ E(Y 1Bn ) ≤ E(Xn ).304 7. E(X) − ǫ ≤ E(Y ) ≤ E(X). Entonces n→∞ l´ E(Xn ) ≥ ım = = ≥ = n→∞ l´ E(Y 1Bn ) ım l´ ım ∞ k=0 ∞ k=0 m k=0 n→∞ E(Y 1Bn ∩Ak ) kǫ P (Bn ∩ Ak ) kǫ P (Bn ∩ Ak ) n→∞ l´ ım n→∞ m l´ ım kǫ P (Ak ). No es dif´ comprobar que ıcil Bn ր Ω. Y 1Bn (ω) = 0 si ω ∈ Bn . Por lo tanto. Observe que Y aproxima a X de la forma: Y ≤ X < Y + ǫ. Ahora considere la variable aleatoria discreta Y 1Bn dada por Y (ω) si ω ∈ Bn . Dos resultados importantes de convergencia discreta aproximante Y (ω) = kǫ si kǫ ≤ X(ω) < (k + 1)ǫ. para k fijo. Por lo tanto. Para cada n´mero u natural n defina el evento Bn = (Xn ≥ Y ).3. se concluye que l´ E(Xn ) ≥ E(X). Ak ∩ Bn ր Ak cuando n → ∞. se obtiene a n→∞ l´ E(Xn ) ≥ ım ∞ k=0 kǫ P (Ak ) = E(Y ) ≥ E(X) − ǫ. n→∞ Dado que ǫ > 0 es arbitrario. O bien X − ǫ < Y ≤ X.

Sea X1 . De donde se obtiene E(Zn ) ց E(X). entonces X y Xn son ım n→∞ integrables y l´ E(Xn ) = E(X). . . . Sea Yn = ´ o ınf{Xn . Estos dos teoremas son herramientas fuertes en la teor´ de la probabilidad. pues como −Xn ≤ Y . . para n ≥ 1. X2 . . en donde Y − Zn ≥ 0. Xn+1 . Convergencia 305 Teorema de convergencia dominada.}. Por lo tanto (Yn + Y ) ր (X + Y ). una sucesi´n o de variables aleatorias para la cual existe otra variable Y integrable tal que |Xn | ≤ Y . Por lo tanto (Y − Zn ) ր (Y − X). pues como Xn ≤ Y para toda n. ıa En particular. entonces Xn ≥ −Y para toda n. .}. y por lo tanto Yn ≥ −Y . Xn+1 . Si l´ Xn = X c. en donde Yn + Y ≥ 0. Por el teorema de convergencia mon´tona. ım n→∞ Demostraci´n. Sea ahora Zn = sup{Xn .s. Ahora observe que Yn ≤ Xn ≤ Zn . se usar´n en la ultima parte del curso para formalizar algunas a ´ demostraciones.Cap´ ıtulo 7. . De donde se o obtiene E(Yn ) ր E(X). . o E(Y − Zn ) ր E(Y − X).. entonces Zn ≤ Y . Entonces Yn ր X cuando n → ∞. . Entonces Zn ց X cuando n → ∞. Al hacer n tender a infinito se obtiene el resultado. Por el teorema de convergencia mon´tona. . E(Yn + Y ) ր E(X + Y ). Por lo tanto E(Yn ) ≤ E(Xn ) ≤ E(Zn ).

y s´lo si. b) Xn Yn −→ XY. seguramente.s. c. Para la convergencia casi segura se pide que el conjunto {ω ∈ Ω : Xn (ω) → X(ω)) tenga probabilidad uno. c. .s.4. entonces a) Xn + Yn −→ X + Y. Sugerencia: |X − Y | ≤ |X − Xn | + |Xn − Y |. c. 1]. entonces Xn −→ X. 512. c. 508. Demuestre la medibilidad de tal conjunto probando que es id´ntico al evento e ∞ ∞ ∞ k=1 m=1 n=m ( |Xn − X| ≤ 1/k ). Demuestre que si Xn −→ X. Considere el espacio de probabilidad ([0. P ). y Xn −→ Y . Demuestre que si Xn −→ X y Yn −→ Y .s. si Xn −→ X. c. el l´ ımite es unico casi ´ c. 1]. o P ( |Xn − X| > ǫ para una infinidad de valores de n ) = 0. B[0.s.4.s.s. Condicion equivalente para la convergencia casi segura. c.s. entonces X = Y casi seguramente. Demuestre que Xn −→ X si. ´ 511. 509. Demuestre que la sucesi´n Xn = n1[0. Ejercicios Convergencia casi segura 506. c. con P la medida de probabilidad uniforme.s.1/n) o converge casi seguramente a la variable aleatoria constante cero. Ejercicios 7. es decir. entonces aXn + b −→ aX + b. 510. c.s.s. Use el ejercicio anterior para demostrar que si para cualquier ǫ > 0. 507. para cualquier ǫ > 0. en donde a y b son constantes. ∞ n=1 P (|Xn − X| > ǫ) < ∞. Demuestre que en la convergencia casi segura. c.306 7.

n] k=1 Demuestre que Xn converge en probabilidad a una variable aleatoria con distribuci´n uniforme en el intervalo (0. p p b) m´x{X1 . p p p p 517. . Sugerencia: P (|X −Y | > ǫ) ≤ P (|X −Xn | > ǫ/2)+P (|Xn −Y | > ǫ/2). variables aleatorias independientes cada una con distribuci´n unif[a. entonces X = Y casi seguramente. Xn } −→ b. Demuestre que si Xn −→ X y Yn −→ Y . . Demuestre que cuando n tiende a infinito o a) m´ ın{X1 . . . entonces a) Xn + Yn −→ X + Y . b) Xn Yn −→ XY . b) Xn Yn −→ xy. si Xn −→ X. 516. 1]. Demuestre que a) Xn + Yn −→ x + y. el l´ ımite es unico ´ p p casi seguramente. entonces aXn + b −→ aX + b. a . . . Suponga que Xn −→ x y Yn −→ y. 514. . y Xn −→ Y .Cap´ ıtulo 7. n ( m . . p p p p p p c) Si g es continua en x. X2 . Sean X1 . . Demuestre que si Xn −→ X. en donde x y y son dos n´meros u reales fijos. B(0. Convergencia 307 Convergencia en probabilidad 513. o 515. p 518. Demuestre que en la convergencia en probabilidad. Xn } −→ a. Defina las variables aleatorias discretas n k Xn = 1 k−1 k . en donde P es la medida de probabilidad uniforme. en donde a y b son constantes. entonces g(Xn ) −→ g(x). . Considere el espacio de probabilidad ((0. . P ). b]. 1]. 1]. es decir.

Demuestre que si Xn −→ X. m. 522. 520. entonces X = Y casi seguramente.c. entonces Xn + Yn −→ X + Y . Demuestre que en la convergencia en media. entonces Xn −→ c. Suponga que Xn −→ X y Yn −→ Y . 523. E|X − Y |2 ≤ 2 (E|X − Xn |2 + E|Xn − Y |2 ). X y Yn −→ Y . entonces Xn −→ X 2 . 525.c. el l´ ımite es unico casi ´ m m seguramente. entonces aXn + b −→ aX + b. es decir. Sea c > 0 una constante. Proporcione un contraejemplo para la afirmaci´n: Xn Yn −→ XY . Demuestre que si Xn −→ X. m. y Xn −→ Y . Demuestre que en la convergencia en distribuci´n. y Xn −→ Y . Convergencia en distribuci´n o 527. si Xn −→ X. entonces X y Y o . y Xn −→ Y . Demuestre que en la convergencia en media cuadr´tica. el l´ o ımite es unico ´ d d en distribuci´n. el l´ a ımite es m. en donde a y b son constantes. es decir. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn −→ m.c. m. Ejercicios p 2 519. si Xn −→ X. o m m m m m Convergencia en media cuadr´tica a 524. en donde a y b constantes. n).c. Use la desigualdad de Chebyshev para dep mostrar que si Xn tiene distribuci´n gama(cn. Demuestre que si Xn −→ X. unico casi seguramente. entonces ´ X = Y casi seguramente. Demuestre que Xn + Yn −→ X + m Y . si Xn −→ X. m.c.308 p 7. entonces aXn + b −→ aX + b. es decir. Sugerencia: Por la desigualdad cr con r = 2.c. 526. o Convergencia en media 521. m. Sugerencia: E|X − Y | ≤ E|X − Xn | + E|Xn − Y |.c.4.

1]. entonces no necesariamente d Xn + Yn −→ X + Y . P ) en donde P es la medida de probabilidad uniforme. Xn = X si n es par.1/2] . Sea X con distribuci´n uniforme en el conjunto {0. n}. 1]. 1. Sea Xn con distribuci´n uniforme en el conjunto {0. . d d d d d d p d d d d d d b) si Xn −→ 0 y Yn −→ 0. Considere el espacio de probabilidad ([0. a + 1/n]. o 532. 1 − X si n es impar. Demuestre que a) si Xn −→ 0. Demuestre que a) cXn −→ cX. 529. Demuestre que Xn −→ a. d 534. c) si Xn −→ 0 y Yn −→ 0. 528. Demuestre que si Xn −→ X y Yn −→ Y . .1/2+1/n) converge en distribuci´n a la variable aleatoria X = 1[0. 1}. Demuestre que la sucesi´n Xn = o 1[0. . y sea o X continua con distribuci´n uniforme en el intervalo [0. entonces Xn −→ 0. Sea c una constante y suponga que Xn −→ X y Yn −→ Y . 531. d d 533. Convergencia 309 tienen la misma distribuci´n. entonces Xn Yn −→ 0. o Sugerencia: |FX (x) − FY (x)| ≤ |FX (x) − FXn (x)| + |FXn (x) − FY (x)|. en donde a es una o constante. entonces Xn + Yn −→ 0. Demuestre que o la siguiente sucesi´n de variables aleatorias converge en distribuci´n o o pero no converge en probabilidad. Sea Xn con distribuci´n unif[a − 1/n. B[0. 1]. . Demuestre o que 1 n Xn −→ X. . b) Xn + c −→ X + c.Cap´ ıtulo 7. 530.

σ 2 > 0. Ejercicios Relaciones entre los tipos de convergencia 535. Otro ejemplo de que la conv. . Defina el producto Yn = X1 X2 · · · Xn . P (Xn = 1) = 1/2 y P (Xn = 2) = 1/4. σ 2 ). . en media. ı a 536. pero no as´ en media. . A2 . . Sea A1 . Demuestre que Yn converge a cero. .4. una sucesi´n de variables aleatorias o independientes e id´nticamente distribuidas tales que para cada n´mee u ro natural n. casi segura no implica la conv. ¿En o qu´ sentido la sucesi´n de variables aleatorias 1An converge a 1A ? e o 2 537. Suo o 2 → σ 2 . ni en media cuadr´tica. X2 . ¿En qu´ sentido X → X? ponga µn → µ y σn e n n . con σ 2 . Sea X1 . P (Xn = 0) = 1/4. casi seguramente. Sea Xn con distribuci´n N(µn . σn ) y X con distribuci´n N(µ. .310 7. una sucesi´n de eventos convergente al evento A.

aunque no unicamente.1. definida para valores reales de t tal que la esperanza sea convergente absolutamente. Funci´n generadora de probabilidad o ´ ´ Definicion. ´ ıa 8.Cap´ ıtulo 8 Funciones generadoras En este cap´ ıtulo se estudia la funci´n generadora de probabilidad. para variables o ´ 311 .p. y constituyen una herramienta muy util en la teor´ moderna de la probabilidad. y se usan las letras f. La funci´n o generadora de probabilidad de una variable aleatoria X es la funci´n o G(t) = E(tX ).g. Cuando sea necesario especificarlo se escribe GX (t) en lugar de G(t). Estas funciones son transformaciones de las distribuciones de probabilidad. Eso ta funci´n se utiliza principalmente. (Funcion generadora de probabilidad). en lugar de funci´n generadora de probabilidad. la funci´n o o generadora de momentos y la funci´n caracter´ o ıstica.

es una serie de potencias en t. por ende el nombre de dicha funci´n.p.1. . La f. la f. o G(t) = ∞ k=0 tk P (X = k).g. . pues para |t| < 1. puede reconstruirse la funci´n de densidad a trav´s de la f´rmula o e o P (X = k) = G(k) (0)/k! Ejemplo. Es decir. G(t) = ∞ k=0 tk e−λ λk = e−λ k! ∞ k=0 (λt)k = e−λ eλt = e−λ(1−t) . Supondremos tal caso y sin p´rdida de gee neralidad consideraremos que las variables toman valores en el conjunto {0. de X est´ definida o a para todo valor real de t y puede calcularse de la siguiente forma. 1.p. Funcion generadora de probabilidad aleatorias con valores enteros.g. con coeficientes dados por la distribuci´n de probabilidad. k! En la siguiente tabla se muestran ejemplos de funciones generadoras de probabilidad para algunas distribuciones discretas. que corresponde a la mayor´ de las variables aleatorias discretas ıa estudiadas en este curso. Sea X con distribuci´n Poisson(λ). .p.}. Es o o importante observar que el radio de convergencia de esta serie es por lo menos uno. |G(t)| ≤ ∞ k=0 |t| P (X = k) ≤ k ∞ k=0 P (X = k) = 1. .g. Calculando la k-´sima derivada puede comprobarse adem´s que a partir de e a la f.312 ´ 8. En tal situaci´n.

se estudian a continuaci´n.Cap´ ıtulo 8. para valores de t donde esta esperanza exista. . . . xn } Ber(p) bin(n. p) ´ Funcion generadora de probabilidad G(t) = (tx1 + · · · + txn )/n G(t) = 1 − p + pt G(t) = (1 − p + pt)n G(t) = p/[1 − t(1 − p)] G(t) = e−λ(1−t) G(t) = (p/[1 − t(1 − p)])r La funci´n generadora de probabilidad determina de manera unica a la o ´ distribuci´n en el siguiente sentido. Inversamente. Si X y Y tienen la misma distribuci´n o o de probabilidad. Estas y otras propiedades o generales de la f. entonces naturalmente GX (t) = GY (t). . u entonces X y Y tienen la misma distribuci´n. p) geo(p) Poisson(λ) bin neg(r. m´s adelante se ilustran o a estos resultados con algunos ejemplos. Funciones generadoras 313 ´ Distribucion unif{x1 . sean X y Y tales que GX (t) y GY (t) existen y coinciden en alg´n intervalo no trivial alrededor del cero. .g.p.

Si el n-´simo momento factorial de X existe. 2.314 ´ 8. Para que estas dos series de potencias en t coincidan en alg´n interu valo no trivial alrededor del cero.). . entonces GX+Y (t) = GX (t) GY (t). Entonces X y Y tienen la misma distribuci´n de probabilio dad.1.p. Sean X y Y independientes con f. entonces e l´ ım dn GX (t) = E[X(X − 1) · · · (X − n + 1)]. GX (t) y GY (t) respectivamente. 1. dtn tր1 3. Esto significa que las distribuciones de probabilidad coinciden. es decir. Funcion generadora de probabilidad ´ Proposicion.p. . o 1.} tales que GX (t) y GY (t) existen y coinciden en alg´n intervalo alrededor de u t = 0. Para cada k ≥ 0. sean ak = P (X = k) y bk = P (Y = k). ak = bk para cada k ≥ 0. . 1. Sean X y Y variables aleatorias con valores en {0. La igualdad GX (t) = GY (t) se escribe de la forma: ∞ k=0 tk ak = ∞ k=0 tk bk .g. Como las series de potencia se pueden derivar t´rmino a t´rmino cone e . sus coeficientes deben forzosamente coincidir. Demostraci´n. 2.g. (Propiedades de la f.

Se ha encontrado que la f. Al derivar una vez se obtiene G′ (t) = .Cap´ ıtulo 8. Como por hip´tesis la esperanza existe. De manera an´loga se demuestra para las derivadas de orden superior. de modo que cuando el segundo momento existe. se tiene que a G′ (t) = = = d dt ∞ k=0 ∞ k=1 ∞ k=0 315 tk P (X = k) d k t P (X = k) dt k tk−1 P (X = k). Usando esta funci´n encontrao o remos la esperanza y varianza de X. por el lema de Abel (ver o ap´ndice).g. Funciones generadoras serv´ndose el mismo radio de convergencia. a 3. de una variable aleatoria X con distribuci´n Poisson(λ) es G(t) = e−λ(1−t) .p. e tր1 l´ G′ (t) = ım ∞ kP (X = k) = E(X). Ejemplo. Cuando X y Y son independientes. l´ G′′ (t) = ım ∞ k=2 tր1 k(k − 1)P (X = k) = E(X(X − 1)). GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX ) E(tY ) = GX (t) GY (t). k=1 Para la segunda derivada se tiene G′′ (t) = ∞ k=2 k(k − 1)tk−2 P (X = k).

para valores reales de s y t donde o esta esperanza sea absolutamente convergente. G′′ (t) = λ2 e−λ(1−t) .p.p. tambi´n se le conoce como funci´n e o generadora de momentos factoriales. La definici´n de funci´n generadora de probabilidad puede extenderse al o o caso de vectores aleatorios de la siguiente forma. y s´lo si. La funci´n generadora de momentos se utiliza tanto para variables o aleatorias discretas como continuas. determina de manera unica a la distribuci´n de probabilidad asocia´ o da. Ejemplo. E(X) = G′ (1) = λ. Suponga que X y Y son independientes con distribuci´n Poisson(λ1 ) o y Poisson(λ2 ). GX. de la distribuci´n Poisson con par´meo o a o tro λ1 + λ2 .Y (s. y al evaluar en t = 1.g. . Y ) es la funci´n GX. X + Y tiene distribuci´n Poisson(λ1 + λ2 ). o La definici´n de f. o o a 8.p. Puede demostrarse que las variables X y Y son independientes si. t) = GX (s) GY (t). a la f. y en t = 1 se obtiene E(X(X − 1)) = G′′ (1) = λ2 . La f.p. Funcion generadora de momentos λe−λ(1−t) . Esta expresi´n corresponde a la f. Entonces GX+Y (t) = GX (t) GY (t) = e−λ1 (1−t) e−λ2 (1−t) = e−(λ1 +λ2 )(1−t) . del vector (X. Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = λ2 + λ − λ2 = λ.2.Y (s. y tiene propiedades semejantes a las de la funci´n generadora de probao bilidad. Debido a la unicidad. el procedimiento o es elegante y sencillo. Debido a la segunda propiedad.g. Funci´n generadora de momentos o Esta es otra funci´n que se puede asociar a algunas distribuciones de proo babilidad. Su existencia no est´ garantizada en todos los casos.g.g.2. Derivando por segunda vez. pero cuando a existe.316 ´ 8. respectivamente. t) = E(sX tY ). para vectores de dimensi´n mayor es an´loga. Ahora se muestra el uso de esta funci´n o para determinar la distribuci´n de una variable aleatoria.

Observe que M (t) esta definida unicamente para o ´ valores de t menores que λ. . y se usan las letras f. en lugar del t´rmino funci´n generadora e o de momentos.Cap´ ıtulo 8.g. Entonces la f. Funciones generadoras 317 ´ ´ Definicion. La siguiente tabla muestra algunos otros ejemplos de funciones generadoras de momentos para ciertas distribuciones continuas. est´n a relacionadas.p. Observe que la f.g.m. cuando existen.g.m. y la f. La parte importante de esta funci´n es su existencia en una o vecindad no trivial alrededor del cero. cuando sea necesario especificarlo se escribe MX (t) en lugar de M (t). definida para valores reales de t tales que la esperanza es absolutamente convergente. etx ∞ La ultima integral vale uno pues el integrando es la funci´n de densidad ´ o de una distribuci´n gama. Ejemplo. La funci´n geo neradora de momentos de la variable aleatoria X es la funci´n o M (t) = E(etX ). de X puede o calcularse de la siguiente forma. Nuevamente.g.m. λ). M (t) = (λx)n−1 λe−λx dx Γ(n) 0 ∞ [(λ − t)x]n−1 = λn (λ − t)−n (λ − t)e−(λ−t)x dx Γ(n) 0 = [λ/(λ − t)]n . por la igualdad M (t) = G(et ). (Funcion generadora de momentos). Sea X con distribuci´n gama(n.

b) exp(λ) gama(n.2. Entonces u 1. Sea X con f. s). σ 2 ) χ2 (n) t(n) ´ Funcion generadora de momentos M (t) = (ebt − eat )/(bt − at) M (t) = λ/(λ − t) M (t) = [λ/(λ − t)]n M (t) = exp(µt + σ 2 t2 /2) M (t) = (1 − 2t)−n/2 M (t) no existe para t = 0 Se demuestran a continuaci´n algunas propiedades b´sicas de la f. Funcion generadora de momentos ´ Distribucion unif(a.m. s). M (t) finita para cada t ∈ (−s. M (t) tiene derivadas continuas de cualquier orden en (−s. Todos los momentos de X son finitos.g. 2. dtn t=0 Demostraci´n. M (t) = ∞ n=0 tn E(X n ). o . n! 3. λ) N(µ. e ´ Proposicion.g. para alg´n s > 0.m.. y o a despu´s se muestra su utilidad mediante algunos ejemplos. y se cumple dn M (t) = E(X n ).318 ´ 8.

xn ≤ (n!/tn )etx . Para de E|X| el caso x > 0 se toma cualquier t ∈ (0. n! Es decir. De modo que. Para el caso x < 0 e ´ e conviene tomar t ∈ (−s. F (x) etx dx. las dos integrales de M (t) son finitas para o cualquier t ∈ (−s. s). Se usa la f´rmula o E(X n ) = n 0 ∞ (1 − F (x)) xn−1 dx − n 0 −∞ F (x) xn−1 dx. por hip´tesis. salvo constantes. la primera integral de E|X|n es menor o igual a la primera integral de M (t). s). |x|n ≤ (n!/|t|n )etx . la primera tambi´n. M (t) = 1 + t (1 − F (x)) etx dx − t −∞ en donde. siendo ´sta ultima finita. y entonces (tx)n ≤ etx . Demostraremos que cada integral de la expresi´n o n es menor o igual a la correspondiente integral de M (t).Cap´ ıtulo 8. La prueba se basa en las identidades: E |X|n = n y ∞ 0 319 (1 − F (x)) xn−1 dx + n ∞ 0 0 −∞ 0 F (x) |x|n−1 dx. . Funciones generadoras 1. siendo ´sta ultima finita. Ahora la segunda integral de E|X|n es menor o igual a la segunda integral de M (t). 0). n! Es decir. e ´ la primera tambi´n. pues en tal caso tx > 0 y entonces |tx|n ≤ e|tx| = etx . De esta forma todos los momentos de X existen e cuando M (t) es finita en alg´n intervalo no trivial alrededor del cero. u 2.

evaluada en cero. es necesario conocer e la existencia de la f. s).320 ´ 8. dependiendo de los valores de t y x. y m ≥ 1. .m. o el de convergencia o dominada. una variable aleatoria con distribuci´n t(n) tiene o esperanza cero pero su f. para que pueda ser utilizada para obtener los momentos. cada una de estas integrales es convergente. s). m n=0 tn tn E(X n ) = 1 + n n! n! n=1 m m ∞ 0 0 (1 − F (x)) xn−1 dx F (x) xn−1 dx m−1 n t − n=1 tn n n! −∞ = 1+t 0 ∞ (1 − F (x)) F (x) 0 −t n=0 m−1 n t n n=0 n! xn dx −∞ n! x dx.2.g. Es decir.g. Usando el teorema de convergencia mon´tona.m. ∞ 0 (1 − F (x)) etx dx − t 0 −∞ F (x) etx dx 3. para cualquier t ∈ (−s. diferenciando y evaluando en cero se obtienen los coeficientes E(X n ). De modo que ∞ n=0 tn E(X n ) = 1 + t n! = M (t).g. Funcion generadora de momentos Entonces para cualquier t ∈ (−s. Dado que M (t) se puede expresar como una serie de potencias en t. cuando se hace m tender a infinito. El hecho de que el n-´simo momento de una variable e aleatoria exista. Nota importante. Por ejemplo. M (t) no existe para t distinto de cero.m. no implica que ´ste puede ser hallado a trav´s de la ne e ´sima derivada de la f.

respectivamente. . Al evaluar en t = 0 se obtiene E(X) = n/λ.g. Esta es la expresi´n de la f. existen en una vecindad no trivial alrededor del cero. o Nuevamente. ´ Proposicion.g. Derivando una vez. Se concluye entonces X +Y tiene distribuci´n gama(n+m. es sencillo demostrar que la funci´n generadora de la suma o de dos variables aleatorias independientes es el producto de las funciones generadoras individuales. Funciones generadoras 321 Ejemplo. o MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX ) E(etY ) = MX (t) MY (t). Hemos encontrado antes que o para t < λ. ahora con par´meo o a tros n+m y λ. u MX+Y (t) = MX (t) MY (t). Demostraci´n. o de X + Y es MX+Y (t) = MX (t) MY (t) = λn (λ − t)−n λm (λ − t)−m = λn+m (λ − t)−n−m . Suponga ahora que X y Y son independientes cada una con distribuci´n gama(n. λ). Por lo tanto E(X 2 ) = M ′′ (0) = n(n+1)/λ2 . Entonces Var(X) = n(n + 1)/λ2 − n2 /λ2 = n/λ2 .g.m.m. λ). Calcularemos ahora la esperanza y varianza de X con ayuda de la f. M ′ (t) = λn n(λ − t)−n−1 . Ejemplo.g. Entonces la f.Cap´ ıtulo 8. M (t) = λn (λ−t)−n .m. y cuyas f. Entonces para cualquier t ∈ (−s. Derivando nuevamente. de la distribuci´n gama. M ′′ (t) = λn n(n+1)(λ−t)−n−2 .m. Sean X y Y son independientes. Sea X con distribuci´n gama(n. s) para alg´n s > 0. λ) y gama(m. λ).

para − 1 < x. Demuestre que X y Y no son independientes y sin embargo se cumple la identidad MX+Y (t) = MX (t) MY (t).m. entonces sus funciones generadoras de momentos coinciden o pues ´stas de obtienen a trav´s de la funci´n de distribuci´n com´n. Por ejemplo.2. o cuya demostraci´n omitiremos. o ´ Proposicion. u d o MX (t). ni todos los c´lculos son tan sencillos como en el a ejemplo mostrado. una sucesi´n de variables aleatoo rias cuyas funciones generadoras de momentos existen todas ellas en alg´n intervalo no trivial alrededor del cero.322 ´ 8. (Continuidad). Por otro lado. Funcion generadora de momentos Es interesante observar que la condici´n MX+Y (t) = MX (t) MY (t) no es o suficiente para concluir que X y Y son independientes. Y ) un vector aleatorio con funci´n de densidad o f (x. X2 . cuando se tienen dos variables X y Y con la misma distribuci´n. 2. . . Para el caso de vectores aleatorios se tiene la siguiente definici´n. 1. Como hemos mencionado antes. Sea (X.g. Por el e e o o u contrario. de la distribuci´n Cauchy est´ndar o a no existe para valores de t distintos de cero. y < 1. MX (t) = MY (t) para valores de t en una vecindad no o trivial alrededor del cero. este resultado y otro relativo a convergencia es el contenido de la siguiente proposici´n. Sea X con f. entonces puede demostrarse que sus distribuciones coinciden. . si MX (t) = MY (t) en una vecindad no trivial alrededor del cero. esto se pide comprobar en el ejercicio 576.g. y s´lo si. y) = [1 + xy(x2 − y 2 )]/4. MXn (t) → MX (t). Las variables X y Y tienen la misma distribuci´n si. Entonces Xn → X si.m. no todas las distribuciones de probabilidad permiten calcular la funci´n generadora de momentos dentro de un intervalo o no trivial alrededor del cero. La funo . Ejercicio. Sea X1 . la f. o y s´lo si. (Unicidad).

es decir. tanto discretas como continuas. Funci´n caracter´ o ıstica Esta es una funci´n definida para cada distribuci´n de probabilidad. t) = MX (s) MY (t). La funci´n caracter´ o ıstica puede entonces escribirse en la forma φ(t) = E(cos tX) + i E(sen tX).3. y a o o diferencia de las funciones generadoras de probabilidad y de momentos estudiadas antes. ´ ´ Definicion.Y (s.Y (s. u Observe que la transformaci´n X → eitX lleva una variable aleatoria real X o a una variable aleatoria con valores en los n´meros complejos de la forma u cos(tX) + i sen(tX). Puede demostrarse que las variables X y Y son independientes si. La definici´n de f. se trata de un vector aleatorio bidimensional como los estudiados anteriormente. ı e 8. as´ como en el primer ap´ndice al final del libro. o o para vectores de dimensi´n mayor es an´loga. en donde cada parte de este n´mero complejo es una u variable aleatoria real. (Funcion caracter´ ıstica).Cap´ ıtulo 8. y s´lo si. Nuevamente se escribe φX (t) cuando sea necesario especificar que se trata de . El n´mero i es la unidad de los u u n´meros imaginarios. Funciones generadoras 323 ci´n generadora de momentos del vector (X. o a En la secci´n de ejercicios se pueden encontrar las funciones generadoras de o momentos de algunas otras distribuciones de probabilidad. Y ) es la funci´n MX. siempre existe.m. para valores reales de s y t donde esta esperanza sea absolutamente convergente. definida para cualquier n´mero real t.g. La funci´n caracter´ o ıstica de la variable aleatoria X es la funci´n o φ(t) = E eitX . MX. t) = o o E(esX etY ).

o ı a cuando existen las dos ultimas. en lugar de funci´n caracter´stica. y se escribe simplemente f..324 ´ 8. p).p. Entonces o φ(t) = E(eitX ) = ∞ x=0 eitx e−λ ∞ λx x! = e −λ = e x=0 −λ(1−eit ) (λeit )x x! .c. o Ejemplo. est´n relacionadas. Sea X con distribuci´n bin(n. por las igualdades φ(t) = M (it) = G(eit ). Ejemplo. . Funcion caracter´ ıstica la funci´n caracter´ o ıstica de X. y la f.m.g.3. El lector puede comprobar cada una de estas expresiones. la f. Sea X con distribuci´n Poisson(λ).c.g. Entonces o φ(t) = E(eitX ) n = x=0 n eitx n x n x px (1 − p)n−x = x=0 (peit )x (1 − p)n−x = (1 − p + peit )n . Otros ejemplos de funciones caracter´ ısticas de distribuciones discretas se muestra en la siguiente tabla. ´ Se muestran a continuaci´n algunos ejemplos de la forma de encontrar la o funci´n caracter´ o ıstica a partir de una distribuci´n de probabilidad. Observe que la f.

Entonces o φ(t) = E(eitX ) = = ∞ −∞ ∞ −∞ eitx √ √ 1 1 2πσ 2 e−(x−µ) 2 /2σ 2 dx dx 2 )]2 /2σ 2 2πσ 2 e−(x 2 −2x(µ−itσ 2 )+µ2 )/2σ 2 = e(−µ 2 +(µ−itσ 2 )2 )/2σ 2 ∞ −∞ √ 1 2πσ 2 e−[x−(µ−itσ dx = eitµ−t 2 σ 2 /2 . σ 2 ). p) ´ Funcion caracter´ ıstica φ(t) = 1 − p + peit φ(t) = (1 − p + peit )n φ(t) = e−λ(1−e it ) φ(t) = p/(1 − (1 − p)eit ) φ(t) = [p/(1 − (1 − p)eit )]r Ahora se mostrar´ la forma de encontrar la funci´n caracter´ a o ıstica para dos distribuciones continuas: la distribuci´n normal y la distribuci´n gama. Funciones generadoras 325 ´ Distribucion Ber(p) bin(n. y varianza σ 2 . p) Poisson(λ) geo(p) bin neg(r. por ejemplo. Sea X con distribuci´n N(µ.Cap´ ıtulo 8. El hecho de que esta integral u tambi´n vale uno puede comprobarse. usando el principio de e . Observe que el ultimo integrando es la funci´n de densidad normal con media ´ o el n´mero complejo µ − itσ 2 . o o Ejemplo.

e La siguiente tabla muestra algunos otros ejemplos de funciones caracter´ ısticas para variables aleatorias continuas. λ) N(µ. Funcion caracter´ ıstica continuaci´n anal´tica de la teor´ de variable compleja. λ − it = El ultimo integrando es la funci´n de densidad de la distribuci´n gama(n. Nuevamente usando la teor´ de variable compleja puede demostrarse ıa rigurosamente que esta integral tambi´n vale uno. cuando n = 1. Sea X con distribuci´n gama(n. Entonces o φ(t) = E(eitX ) = 0 ∞ ∞ eitx (λx)n−1 −λx λe dx Γ(n) λ (λx)n−1 e−(λ−it)x dx Γ(n) 0 ∞ [(λ − it)x]n−1 λn (λ − it) e−(λ−it)x dx = (λ − it)n 0 Γ(n) λ n = ( ) .3. ´ Distribucion ´ Funcion caracter´ ıstica unif(a. . o ı ıa Ejemplo. λ− ´ o o it).326 ´ 8. b) exp(λ) gama(n. σ 2 ) χ2 (n) t(n) φ(t) = (eibt − eiat )/(ibt − iat) φ(t) = λ/(λ − it) φ(t) = [λ/(λ − it)]n φ(t) = (1 − 2it)−n/2 φ(t) = exp(iµt − σ 2 t2 /2) φ(t) = e−|t| . λ).

Si X tiene n-´simo momento finito. u o para cualquier valor de t. De modo que φ(t) es un n´mero complejo de m´dulo menor o igual a uno. (Existencia). Cuando t → 0. u En particular. En particular. t=0 2. ´ Proposicion. Para cualquier n´mero real t. n−1 φ(t) = k=0 (it)k (it)n E(X k ) + ( E(X n ) + o(1) ). o . ´ Proposicion. y como en el caso de las funciones e o generadoras anteriores. dn φ(t) dtn = in E(X n ). demostraremos que los momentos o de una variable aleatoria X pueden ser generados.1) Demostraci´n. |φ(t)| ≤ 1. Veremos a continuaci´n algunas otras propiedades o de esta importante funci´n. Demostraci´n.Cap´ ıtulo 8.c. cuando existen. k! n! (8. φ(0) = 1. cuando X y Y son independientes se cumple que φX+Y (t) = φX (t) φY (t). no siendo v´lido en general el rec´ a ıproco. o u |φ(t)| = | ∞ −∞ eitx dF (x)| ≤ ∞ −∞ |eitx | dF (x) = ∞ −∞ dF (x) = 1. entonces e 1. Para cualquier n´mero real t. Funciones generadoras 327 La existencia de la funci´n caracter´ o ıstica para cualquier distribuci´n de o probabilidad se sigue del siguiente resultado. a trav´s de la f´rmula φ(n) (0) = in E(X n ). con la f.

dt Por el mismo procedimiento se encuentra que dn φ(t) = E[ (iX)n eitX ].3. h h→0 eihx − 1 = ix. entonces. parameo trizada por h. en efecto. Por hip´tesis. de modo que usando el teorema de convero gencia dominada en (8. estan uniformemente acotadas por una variable aleatoria integrable. Para cualquier h distinto de cero.328 ´ 8. h h→0 Comprobaremos que las variables aleatorias de esta sucesi´n. puntualmente.2) se obtiene d φ(t) = E[ iX eitX ]. Funcion caracter´ ıstica 1. h l´ eitX ım eihX − 1 = iX eitX . |eitX eihX − 1 eihX − 1 | = | | h h 1 h iX eisX ds| = | h 0 1 h isX ≤ |X| |e | ds h 0 = |X|. E|X| < ∞. dtn .2) = E( eitX Como l´ ım eihX − 1 ). φ(t + h) − φ(t) h = = ∞ −∞ ∞ −∞ ei(t+h)x − eitx dF (x) h eitx eihx − 1 dF (x) h (8.

g(t) = g(0)+tg′ (0)+ t2 ′′ tn−1 (n−1) tn g (0)+· · ·+ g (0)+ ( g(n) (0)+o(1) ). El resultado anterior establece en particular que el producto de dos funciones caracter´ ısticas es nuevamente una funci´n caraco ter´ ıstica. Para el teorema del o l´ ımite central se supondr´ el segundo momento finito y la expresi´n que se a o usa es φ(t) = 1 + it E(X) + ((it)2 /2!)( E(X 2 ) + o(1) ). Por independencia. Por otro lado. Funciones generadoras 329 Tomando el l´ ımite cuando t → 0 y usando nuevamente el teorema de convergencia dominada. es necesario se˜alar que la condici´n φX+Y (t) = n o . Para el primer resultado se supondr´ el primer momento finito y la expansi´n adquiere la a o expresi´n φ(t) = 1 + it( E(X) + o(1) ). o φX+Y (t) = E(eit(X+Y ) ) = E(eitX eitY ) = E(eitX ) E(eitY ) = φX (t) φY (t). cuando t → 0. Nota importante. La f´rmula se sigue del inciso anterior y del siguiente resultado de o an´lisis.1) para demostrar la ´ a o ley de los grandes n´meros y el teorema del l´ u ımite central. 2! (n − 1)! n! En la ultima parte del curso se usar´ la expansi´n (8. ´ Proposicion. se demuestra finalmente que dn φ(t) dtn = in E(X n ). Si X y Y son independientes. cuando t → 0. Demostraci´n. Si g es una funci´n con valores reales o complejos y definida a o en alg´n intervalo no trivial alrededor del origen con g(n) (0) finita.Cap´ ıtulo 8. t=0 2. u entonces cuando t → 0. entonces φX+Y (t) = φX (t) φY (t).

Sea X con funci´n e o de distribuci´n F (x). Otra de las propiedades fundamentales de la funci´n caracter´ o ıstica es su capacidad de determinar de manera unica a las distribuciones de probabilidad. el lado izquierdo es 1 (F (y) + F (y−)) − 1 (F (x) + F (x−)).3. ´ ´ ´ Proposicion. y) = [1 + xy(x2 − y 2 )]/4. it Cuando x y y no necesariamente son puntos de continuidad de F . it . 2 2 Demostraci´n. Funcion caracter´ ıstica φX (t) φY (t) no es suficiente para concluir que las variables aleatorias X y Y son independientes. Para T > 0 sea o I(T ) = = = = 1 2π 1 2π 1 2π 1 2π T −T T −T T e−itx − e−ity φ(t) dt it e−itx − e−ity [ it ∞ ∞ eitz dF (z)] dt dF (z) dt eit(z−x) −T −∞ ∞ T −∞ −T − it −∞ eit(z−y) eit(z−x) − eit(z−y) dt dF (z). ´ A este respecto se tienen los siguientes resultados. y funci´n caracter´ o o ıstica φ(t). Y ) un vector aleatorio con funci´n de densidad o f (x. Si x < y son puntos de continuidad de F . Demuestre que X y Y no son independientes y sin embargo se cumple la identidad φX+Y (t) = φX (t) φY (t). y < 1.330 ´ 8. Sea (X. (Formula de inversion de L`vy). Ejercicio. entonces F (y) − F (x) = l´ ım 1 T →∞ 2π T −T e−itx − e−ity φ(t) dt. para − 1 < x.

T ] y z ∈ R. o pues puede definirse esta funci´n de acuerdo a su comportamiento l´ o ımite en ese punto. La integral I(T ) es la esperanza de la variable aleatoria XT = 1 (2 2π T 0 sen t(X − x) dt − 2 t T 0 sen t(X − y) dt ). t sen(at) dt = 2 t T 0 y −T sen(at) dt. es decir. l´ 2 ım dt = π signo(a) =  T →∞ t 0 0 si a = 0. o T −T T cos(at) dt = 0. Para ello se hace uso del siguiente resultado no trivial:  si a > 0. . l´ ım eit(z−x) − eit(z−y) = y − x. t Por lo tanto I(T ) = 1 2π ∞ −∞ T (2 0 sen t(z − x) dt − 2 t T 0 sen t(z − y) dt ) dF (z). incluyendo cuando t = 0. y u o seno una funci´n impar. en donde para cualquier n´mero real a.Cap´ ıtulo 8.  π T sen at −π si a < 0. t El siguiente paso consiste en aplicar el teorema de convergencia dominada cuando T → ∞. Funciones generadoras 331 El cambio en el orden de integraci´n es permitido pues el integrando es una o funci´n continua y acotada en t ∈ [−T. t Nos interesa encontrar el l´ ımite de esta variable cuando T → ∞. it T −T t→0 Desarrollando las exponenciales en t´rminos de senos y cosenos se obtiene e I(T ) = 1 2π ∞ −∞ 1 ( cos t(z − x) + i sen t(z − x) it − cos t(z − y) − i sen t(z − y) ) dt dF (z). por ser coseno una funci´n par.

Como corolario del teorema de inversi´n demostraremos que la funci´n cao o racter´ ıstica determina de manera unica a la distribuci´n de probabilidad.332 ´ 8.y} (z) + 1(x. entonces el l´ ımite de la integral es igual a F (y) − F (x). puntualmente. 2 2 [ ∞ En particular. u T 1 ( π signo(X − x) − π signo(X − y) ) 2π 1 1 (X) + 1(x. ´ o . Funcion caracter´ ıstica Entonces.y) (z) ] dF (z) −∞ 2 1 1 P (X = x) + P (X = y) + P (x < X < y) 2 2 1 1 P (x < X ≤ y) + P (X = x) − P (X = y) 2 2 1 1 F (y) − F (x) + P (X = x) − P (X = y) 2 2 1 1 (F (y) + F (y−)) − (F (x) + F (x−)).    0 si X > y. = | Por lo tanto T →∞ 0 sen at dt| ≤ sup | t T >0 T 0 sen t dt| < ∞. t l´ I(T ) = ım = = = = 1 1{x.  = 1 si x < X < y.y}  si X < x. T →∞ l´ XT ım Adem´s. las variables XT est´n acotadas en valor absoluto por una constante a a pues para cualquier n´mero real a.y) (X) = 2 {x.  0    1/2 si X = x.   1/2 si X = y. si x y y son puntos de continuidad de F .3.

no es necesariamente cierto que la distribuci´n de probabilidad queda o completamente especificada. Entonces f (x) = 1 2π ∞ −∞ e−itx φ(t) dt. dos puntos de continuidad de F . Haciendo x tender a −∞. y u y ց z. Sea z cualquier u n´mero real. Sean x < y.Cap´ ıtulo 8. Por el teorema o . en la f´rmula de inversi´n de L`vy. it Cuando la condici´n φX (t) = φY (t) s´lo se cumple en una vecindad del o o cero. V´ase [13] para un ejemplo al respecto. e En el caso absolutamente continuo se tiene la siguiente f´rmula expl´ o ıcita. ´ ´ ´ Proposicion (Formula de inversion en el caso abs. se obtiene una unica funci´n de o o e ´ o distribuci´n dada por o F (z) = l´ ım l´ ım l´ ım 1 2π T −T yցz xց−∞ T →∞ e−itx − e−ity φ(t) dt. y sean x y y tales que x < z < y. entonces X y Y tienen la misma distribuci´n. Si X y Y son tales que φX (t) = φY (t) para todo valor real de t. Sea X absolutamente continua con funci´n de densidad f (x). Funciones generadoras 333 Teorema de unicidad. Demostraci´n. Sea φ(t) la funci´n caracter´ o o ıstica com´n. o Demostraci´n. y funci´n o o caracter´ ıstica φ(t). continuo).

el teorema de inversi´n de L`vy establece o e . (⇐) Suponga que φXn (t) → φX (t). . o Demostraci´n. y s´lo si. . Entonces para dos puno tos de continuidad x < y de FX .334 ´ 8. De aqui surge el problema. X1 . d Entonces Xn → X si. El resultado es v´lido como esta enunciado pero s´lo demostraremos una de a o las implicaciones. Ahora se demuestra un resultado que ser´ de utilidad en la ultima parte a ´ del curso y que establece que la convergencia en distribuci´n es equivalente o a la convergencia puntual de las correspondientes funciones caracter´ ısticas. variables aleatorias. Funcion caracter´ ıstica de inversi´n de L`vy. o e F (y) − F (x) = = = = x 1 T →∞ 2π l´ ım 1 2π 1 2π y ∞ −∞ ∞ −∞ T −T e−itx − e−ity φ(t) dt it e−itx − e−ity φ(t) dt it y x ∞ −∞ e−itx dx φ(t) dt. 1 2π Por lo tanto el integrando debe ser la funci´n de densidad de X. o Es necesario se˜alar que el uso de esta f´rmula requiere conocer de antemano n o que la funci´n caracter´ o ıstica proviene de una variable aleatoria absolutamente continua. e−itx φ(t) dt dx. Teorema de Continuidad. y por el teorema de Fubini. φXn (t) → φX (t). X2 . Sean X. .3. que unicamente mencionamos. ´ de encontrar condiciones sobre φ(t) que garanticen que la correspondiente variable aleatoria es absolutamente continua.

ım n→∞ En el siguiente cap´ ıtulo usaremos este resultado para demostrar el teorema central del l´ ımite.Cap´ ıtulo 8. o De manera an´loga puede definirse la funci´n caracter´ a o ıstica para vectores de dimensi´n mayor. para valores reales de s y t donde esta esperanza sea absolutamente convergente. n→∞ T →∞ 2π −T it = l´ FXn (y) − FXn (x). y s´lo si. Y ) es la funci´n o φX. t) = φX (s) φY (t). Funciones generadoras que FX (y) − FX (x) = = = 1 T →∞ 2π l´ ım 1 T →∞ 2π l´ ım T −T T −T 335 e−itx − e−ity φ(t) dt. it e−itx − e−ity [ l´ φXn (t) ] dt. Nuevamente puede demostrarse que las variables X y Y son independientes si. φX. t) = E(eisX eitY ).c. La f. del vector (X. ım l´ ım l´ ım n→∞ Haciendo x tender a −∞ se obtiene FX (y) = l´ FXn (y). ım n→∞ it T −itx 1 e − e−ity [ φXn (t) ] dt. Finalmente mencionamos la definici´n de funci´n caraco o ter´ ıstica para vectores aleatorios. o .Y (s.Y (s.

. y sean a y b dos constantes. Sea X1 . b) E(X 2 ) = G′′ (1−) + G′ (1−).p. . 543. usando GS (t). Demuestre que GX1 +···+Xn (t) = G1 (t) · · · Gn (t). Xn independientes tales que Xk tiene f. usando GS (t).i.g. 539. GX (t). . c) Var(S) = E 2 (X) Var(N ) + E(N ) Var(X). X2 . c) Var(X) = G′′ (1−) + G′ (1−) − [G′ (1−)]2 . . Sea S = X1 + · · · + XN .i. Sean X y Y independientes. Sea N otra o variable aleatoria con valores en N. Ejercicios Funci´n generadora de probabilidad o 538. con f. b) E(S) = E(N )E(X). Demuestre que a) P (X = k) = G(k) (0)/k! para k = 0. GN (t). Demuestre que a) GS (t) = GN (GX (t)). para valores de t en alg´n intervalo no trivial alrededor del u cero.p. Gk (t). .d.g.g. si existe. .p. . . de una o variable aleatoria con funci´n de densidad o .4. entonces X y Y son independientes. una sucesi´n de v. . 541.g. 540. . Demuestre o proporcione un contraejemplo: Si GX+Y (t) = GX (t) · GY (t). para k = 1. Demuestre que a) E(X) = G′ (1−). 1.4. G(t). Ejercicios 8. . Sea X con varianza finita y con f. 542.p.a. Encuentre la funci´n generadora de probabilidad. . . n. b) GaX+b (t) = tb GX (ta ). . independiente de la sucesi´n y con o f. Sean X1 .336 8. c) GX−Y (t) = GX (t) GY (1/t).

usando G(t). 546.g. Sea X con distribuci´n bin(N. Use la f. en donde N es una variable aleatoria o con distribuci´n bin(n. Use la f. . p). Demuestre que o a) G(t) = p/[1 − t(1 − p)]. usando G(t). o 549. Demuestre que o a) G(t) = (1 − p + pt)n . x!(e − 1) 1 b) f (x) = .p. . para x = 1.p. p). . para demostrar que la variable X1 +· · ·+ o Xn tiene distribuci´n bin(n. . . c) Var(X) = p(1 − p). c) Var(X) = np(1 − p). usando G(t). Demuestre que o a) G(t) = 1 − p + pt. 2. c) Var(X) = (1 − p)/p2 .p. usando G(t). Funciones generadoras 1 .Cap´ ıtulo 8. p). usando G(t). o 547. Xn variables aleatorias independientes. x(x + 1) 337 a) f (x) = 544. Sea X con distribuci´n bin(n. rp). p). . o respectivamente. usando G(t). b) E(X) = (1 − p)/p. o 548. usando G(t). Use la f. . b) E(X) = np. . . 2. r). cada una con distribuci´n Ber(p). Sean X y Y independientes con distribuci´n bin(n. para x = 1. p) y bin(m. para demostrar que X tiene o distribuci´n bin(n. para demostrar que la variable X + Y tiene distribuci´n bin(n + m.g. Sean X1 .g. b) E(X) = p. d) E(X n ) = p. . p). 545. Sea X con distribuci´n geo(p). Sea X con distribuci´n Ber(p). .

Funci´n generadora de momentos o 553. Sean X y Y independientes con distribuci´n Poisson con par´metros o a λ1 y λ2 respectivamente.m. de una vao riable aleatoria con funci´n de densidad o a) f (x) = 1 . Encuentre la funci´n generadora de momentos. . Sean X y Y independientes e id´nticamente distribuidas con f. c) Var(X) = r(1 − p)/p2 . para demostrar que la variable X + Y tiene distribuci´n Poisson(λ1 + λ2 ). o 552.g. p). MX (t). Use la f. para −∞ < x < ∞. . Demuestre que o a) G(t) = [p/(1 − t(1 − p))]r . . usando G(t). Ejercicios 550.g. usando G(t). si existe. c) Var(X) = M ′′ (0) − (M ′ (0))2 . Sea X con varianza finita y con f. M (t). b) E(X) = r(1 − p)/p. 556. Demuestre que MX−Y (t) = M (t) M (−t). x!(e − 1) b) f (x) = e−|x| /2. usando G(t). 551.g.g. para x = 1.338 8. Sea X con f. Demuestre que a) E(X) = M ′ (0). 555. e M (t). b) E(X 2 ) = M ′′ (0). Sea X con distribuci´n Poisson(λ). Demuestre que MaX+b (t) = etb MX (at). 554. usando G(t). 2.m. . b) E(X) = λ.4. Sea X con distribuci´n bin neg(r.m. y sean a y b dos constantes. Demuestre que o a) G(t) = e−λ(1−t) . c) Var(X) = λ.p.

g. MX (t). Demuestre que o a) M (t) = 1 − p + pet . Sean X y Y independientes con distribuci´n bin(n. 558. . b) E(X) = np. Sea X con distribuci´n Poisson(λ). usando M (t). a) MX (t) ≥ 0. Xn independientes cada una con distribuci´n Ber(p). p). usando M (t). o 560. usando M (t). Use la f. usando M (t). Sea X con distribuci´n geo(p). c) MX 2 (t) = MX (tX). demuestre en cada caso. c) Var(X) = (1 − p)/p2 . d) Var(X) = p(1 − p). Diga falso o verdadero. Demuestre que o b) E(X) = (1 − p)/p.m. usando M (t). p). b) E(X) = p. . c) Var(X) = np(1 − p). Sea X con f. . p) reso pectivamente. para demostrar que X + Y tiene distribuci´n bin(n + m.Cap´ ıtulo 8. o 562. 561. c) E(X n ) = p. para demostrar que la variable X1 +· · ·+Xn tiene distribuci´n o bin(n.m. Sean X1 .g. Sea X con distribuci´n Ber(p). usando M (t).m. 559. Sea X con distribuci´n bin(n. . . usando M (t). Demuestre que o a) M (t) = (1 − p + pet )n . 563. Use la f. p). b) M2X (t) = MX (2t). Demuestre que o a) M (t) = p/[1 − (1 − p)et ].g. Funciones generadoras 339 557. p) y bin(m.

Demuestre que o a) M (t) = ebt − eat . λ). b).m. 564. c) Var(X) = n/λ2 . usando M (t). (b − a)t b) E(X) = (a + b)/2. d) Var(X) = λ. Demuestre que o a) M (t) = [λ/(λ − t)]n . 566. Ejercicios a) M (t) = exp[λ(et − 1)]. Sea X con distribuci´n N(µ. Sea X con distribuci´n exp(λ). c) E(X) = λ. e) E[(X − λ)3 ] = λ. b) E(X) = 1/λ.g.340 8.4. b) E(X) = µ. Sea X con distribuci´n gama(n. b) E(X) = n/λ. usando M (t). o 568. . σ1 ) y N(µ2 . para t < λ. usando M (t). usando M (t). c) Var(X) = 1/λ2 . c) Var(X) = (b − a)2 /12. usando M (t). usando M (t). c) Var(X) = σ 2 . Demuestre que o a) M (t) = λ/(λ − t). para t < λ. para demostrar que X + Y tiene distri2 2 buci´n normal con media µ1 + µ2 y varianza σ1 + σ2 . Sean X y Y independientes con distribuci´n N(µ1 . usando M (t). usando M (t). σ2 ) o respectivamente. b) M ′′ (t) = M ′ (t) + λet M ′ (t). 565. usando M (t). Sea X con distribuci´n unif(a. σ 2 ). Use la f. usando M (t). Demuestre que o a) M (t) = exp(µt + σ 2 t2 /2). usando M (t). 2 2 567.

n. Use la o f. Demuestre que o a) M (t) = [1/(1 − 2t)]n/2 . a2 σ 2 ). Xn independientes tales que Xk tiene f.Cap´ ıtulo 8. Use la f. λ) o respectivamente. para demostrar que la variable X + Y tiene distribuci´n gama(n + m. c) Var(X) = 2n. Use la f. Sea X con distribuci´n N(µ. σ 2 ). para demostrar que X + Y tiene distribuci´n o 2 (n + m).m. con a = 0. c) (X − µ) o 575. Demuestre que MX1 +···+Xn (t) = M1 (t) · · · Mn (t). para demostrar que o a) −X tiene distribuci´n N(−µ. 1 si t = 0.g. . b) E(X) = n.g. Funciones generadoras 341 569. . Sea X con distribuci´n Cauchy est´ndar. Sean X1 . . λ). 577. o b) aX + b tiene distribuci´n N(aµ + b. . o 570. Sean X y Y independientes ambas con distribuci´n exp(λ).m. Demuestre que o MX (t) = . 576.g. . m > n. Sean X y Y independientes con distribuci´n χ2 (n) y χ2 (m) respectio vamente. . . Mk (t) para k = 1. para demostrar que si X y Y son independientes tales que X tiene distribuci´n χ2 (n) y X + Y tiene distribuci´n χ2 (m) con o o 2 (m − n). Use la f.m. ∞ si t = 0. Use la f.g. σ 2 ). entonces Y tiene distribuci´n χ o 573. Sea X con distribuci´n χ2 (n). Demuestre que o a MX (t) = 1 si t = 0.g. para demostrar que X + Y tiene distribuci´n gama(2.m. o 571. λ) y gama(m. χ 574. usando M (t). . usando M (t). λ). Sean X y Y independientes con distribuci´n gama(n. Sea X con distribuci´n t(n). ∞ si t = 0.m. o 2 /σ 2 tiene distribuci´n χ2 (1).g. 572.m. para t < 1/2.

1]. n − 1. la correspondiente funci´n caracter´ o ıstica φ(t) es real. 583. en este caso la funci´n caracter´ o ıstica es una funci´n real por que la variable X − Y es sim´trica. Sean X y Y independientes y con id´ntica distribuci´n. Sea X con funci´n caracter´ o ıstica φX (t). . 2. para −∞ < x < ∞. . . Demuestre que la combinaci´n lineal convexa αφ1 (t) + (1 − α)φ2 (t) es o una funci´n caracter´ o ıstica. Sean φ1 (t) y φ2 (t) dos funciones caracter´ ısticas. . Demuestre que φaX+b (t) = eitb φX (at). para x = 1. y sea α ∈ [0. Esta distribuci´n tiene momentos finio o tos de orden 1. 580. es decir. de la u siguiente funci´n de densidad. Demuestre que la funci´n caracter´ o ıstica satisface la igualdad φ(−t) = φ(t). para todo ǫ > 0 existe δ > 0 tal que para todo t y s con |t − s| < δ. f (x) = 0 otro caso. 584. . Funci´n caracter´ o ıstica 579. Demuestre e o que φX−Y (t) = |φX (t)|2 . Demuestre que no existe la f. 581. .4. o e . Ejercicios 578. y sean a y b dos constantes.342 8. x!(e − 1) b) f (x) = e−|x| /2. pero el n-´simo momento y superiores no e existen. Demuestre que la funci´n caracter´ o ıstica es una funci´n uniformemente o continua. 2. Demuestre que una funci´n de distribuci´n F (x) es sim´trica si.g. en donde z denota el complejo conjugado de z. 585. Sea n un n´mero natural. . se cumple que |φ(t) − φ(s)| < ǫ. n/xn+1 si x > 1. Encuentre la funci´n caracter´ o ıstica de una variable aleatoria con funci´n de densidad o a) f (x) = 1 .m. y s´lo o o e o si. 582.

587. b) E(X) = (1 − p)/p. usando φ(t). . Sea X tiene distribuci´n bin neg(r. usando φ(t). Sea X con distribuci´n geo(p). Demuestre que o a) φ(t) = [p/(1 − (1 − p)eit )]r . p). usando φ(t). 343 b) E(X) = p. Hemos demostrado que la funci´n o o caracter´ ıstica de esta distribuci´n es φ(t) = (1 − p + peit )n . Demuestre que o a) φ(t) = p/(1 − (1 − p)eit ). b) E(X 2 ) = λ(λ + 1). 589. usando φ(t). c) Var(X) = r(1 − p)/p2 . c) Var(X) = (1 − p)/p2 . Usando o φ(t) demuestre ahora que a) E(X) = np. 588. Sea X con distribuci´n Poisson(λ). b) E(X 2 ) = np(1 − p + np). b) E(X) = r(1 − p)/p. c) Var(X) = np(1 − p). c) Var(X) = λ. Hemos demostrado que la funci´n o o caracter´ ıstica de esta distribuci´n es φ(t) = exp[−λ(1 − eit )]. p). usando φ(t). Sea X con distribuci´n Ber(p). Funciones generadoras 586. d) E(X n ) = p. Sea X con distribuci´n bin(n. Demuestre que o a) φ(t) = 1 − p + peit . usando φ(t). Usando o φ(t) compruebe que a) E(X) = λ. c) Var(X) = p(1 − p). 590.Cap´ ıtulo 8. usando φ(t). con n ≥ 1 entero.

Sean X y Y independientes ambas con distribuci´n exp(λ). usando φ(t). . Use la o funci´n caracter´ o ıstica para demostrar que la variable X + Y tiene distribuci´n gama(2.344 8. Sea X con distribuci´n N(µ. . b). 593. Γ(m + n) b) E(X m ) = m .4. λ). y Var(X) = 1/λ2 . 596. 594. Demuestre que o a) φ(t) = [eibt − eiat ]/[it(b − a)]. c) Var(X) = (b − a)2 /12. Sea X con distribuci´n exp(λ). o . . Sea X con distribuci´n normal est´ndar. Demuestre que φ(t) = (sen at)/at. λ). Sean X y Y independientes con distribuci´n gama(n. Usando φ(t) caracter´ ıstica de esta distribuci´n es φ(t) = [λ/(λ − it)] o compruebe nuevamente que a) E(X) = n/λ. Hemos demostrado que la funci´n o o caracter´ ıstica de esta distribuci´n es φ(t) = exp (iµt−σ 2 t2 /2). . Ejercicios 591. λ). λ) o respectivamente. 1. o 592. 1. usando φ(t). Usando o φ(t) compruebe que E(X) = µ y Var(X) = σ 2 . Demuestre que φ(t) = λ/(λ − it). 597. a). λ) y gama(m. Sea X con distribuci´n unif(a. Use o φ(t) para comprobar que E(X) = 1/λ. λ Γ(n) c) Var(X) = n/λ2 . Hemos encontrado que la funci´n o o n . Sea X con distribuci´n unif(−a. . b) E(X) = (a + b)/2. Use la funci´n caracter´ o a o ıstica para demostrar que para n = 0. σ 2 ). Sea X con distribuci´n gama(n. n n/2 (n/2)! 2 E(X ) =  0 si n es impar. para m = 0. o 598. . 595. Use la funci´n caracter´ o ıstica para demostrar que la variable X + Y tiene distribuci´n gama(n + m.  n!  si n es par.

Sean X1 . o a . o 602. φ(t) = eitx π(1 + x2 ) −∞ Suponiendo este resultado.” El caso es que no existe la f. la funci´n caracter´ a o ıstica es φ(t) = e Use este resultado para demostrar que la v. Demuestre que φXY (t) = ∞ −∞ φY (tx) dFX (x) = ∞ −∞ φX (ty) dFY (y). Sea X con funci´n de distribuci´n F (x) = ex /(1 + ex ). . y calcule su o o funci´n caracter´ o ıstica asociada. Con ayuda de ´sta ultima encuentre e ´ la esperanza y la varianza de X. .g. Cauchy est´ndar. 600. de la distribuci´n Cauchy: “Como o φ(t) = e−|t| y M (t) = φ(−it). es decir.m. Mediante el c´lculo de residuos de la teor´ de variable compleja puede a ıa demostrarse que la distribuci´n Cauchy est´ndar tiene funci´n caraco a o ter´ ıstica ∞ 1 dx = e−|t| . para la distribuci´n Cauchy. . Sn = (X1 + · · · + Xn )/n tiene distribuci´n Cauchy est´ndar para cualquier valor de n. Xn independientes cada una de ellas con distribuci´n o −|t| .g. . Sean X y Y independientes. Funciones generadoras 345 599.a. entonces M (t) = e−|−it| = e−|t| . encuentre el error en el siguiente argumento para encontrar la f.m. 601. Demuestre o o que F (x) es efectivamente una funci´n de distribuci´n.Cap´ ıtulo 8.

.

ǫ 347 .1. Para cualquier ǫ > 0. e 9. Antes de ello se revisan algunas desigualdades de inter´s general. Sea X ≥ 0 una variable aleatoria con esperanza finita. Algunas desigualdades ´ Proposicion.Cap´ ıtulo 9 Dos teoremas l´ ımite En este ultimo cap´ ´ ıtulo se estudian dos de los teoremas m´s importantes en a probabilidad: la ley de los grandes n´meros y el teorema central del l´ u ımite. P (X ≥ ǫ) ≤ E(X) . (Desigualdad de Markov).

e u ´ Proposicion. Para cualquier ǫ > 0.348 Demostraci´n. b) P (|X| ≥ ǫ) ≤ E|X|n /ǫn . (Desigualdad de Chebyshev). a) P (|X| ≥ ǫ) ≤ E|X|/ǫ. o 9. La siguiente desigualdad ser´ usada en la siguiente secci´n para demostrar a o la ley d´bil de los grandes n´meros. ǫ2 (9. Algunas desigualdades E(X) = E( X 1(X≥ǫ) + X 1(X<ǫ) ) ≥ E( X 1(X≥ǫ) ) ≥ E( ǫ 1(X≥ǫ) ) = ǫ P (X ≥ ǫ). con n en N. Existen a otras versiones equivalentes de esta desigualdad.1. este resultado establece que la probabilidad de que X exceda un valor ǫ positivo est´ acotada superiormente por la media entre ǫ. En palabras. por ejemplo. ≥ E ǫ2 1(|X−µ|≥ǫ) .1) Demostraci´n. o σ 2 = E (X − µ)2 = E (X − µ)2 1(|X−µ|≥ǫ) + (X − µ)2 1(|X−µ|<ǫ) ≥ E (X − µ)2 1(|X−µ|≥ǫ) = ǫ2 P (|X − µ| ≥ ǫ). Sea X una variable aleatoria con media µ y varianza finita σ 2 . P (|X − µ| ≥ ǫ) ≤ σ2 .

Existen otras versiones de esta desigualdad equivae lentes a la demostrada. Ahora demostraremos una versi´n de la desigualdad de Chebyshev un poco o m´s general. o E[g(X)] = E[ g(X) 1(X≥ǫ) + g(X) 1(X<ǫ) ] ≥ E[ g(ǫ) 1(X≥ǫ) ] = g(ǫ)P (X ≥ ǫ). Sea X una variable aleatoria. ≥ E[ g(X) 1(X≥ǫ) ] . a) P (|X − µ| ≥ ǫσ) ≤ 1/ǫ2 .2) Demostraci´n. c) P (|X − µ| < ǫ) ≥ 1 − σ 2 /ǫ2 . Para cualquier ǫ > 0.Cap´ ıtulo 9. por ejemplo. g(ǫ) (9. y sea g ≥ 0 una funci´n no decreciente tal que o g(X) es una variable aleatoria con esperanza finita. b) P (|X − µ| < ǫσ) ≥ 1 − 1/ǫ2 . A este resultado se le conoce tambi´n con el nombre de desigualdad de ǫ e Chebyshev-Bienaym´. Dos teoremas l´ ımite 349 En palabras. esta desigualdad dice que la probabilidad de que X difiera de su media en mas de ǫ est´ acotada superiormente por la varianza entre a 2 . (Desigualdad de Chebyshev extendida). P (X ≥ ǫ) ≤ E[g(X)] . a ´ Proposicion.

Defina ahora los eventos disjuntos k−1 Ak = ( |Sk | ≥ ǫ ) ∩ i=1 ( |Si | < ǫ ). . . k ǫ k=1 Demostraci´n. Fuente: Archivo MacTutor. n. A partir de la desigualdad anterior y con una funci´n g adecuada se pueden o obtener tanto la desigualdad de Chebyshev como la desigualdad de Markov. . . Universidad de St. 1821–1894) Andrei Andreyevich Markov (Rusia.350 9. Sean X1 . . defina Sk = X1 + · · · + Xk . (Desigualdad de Kolmogorov). Xn independientes con media cero y segundo momento finito. . 1856–1922) Profesor y alumno. Para cualquier ǫ > 0. . cuya o esperanza es cero por hip´tesis. ´ Proposicion. Andrews. . n 1 P ( m´x {|X1 + · · · + Xk |} ≥ ǫ ) ≤ 2 a Var(Xk ). . Observe que las variables Sk y Sn − Sk son o independientes y por lo tanto E(Sk (Sn − Sk )) = 0. Para cada k = 1.1. Algunas desigualdades Pafnuty Lvovich Chebyshev (Rusia.

Entonces k=1 n 2 E(Sn ) ≥ = 2 E(Sn 1A ) n k=1 n = k=1 2 E(Sn 1Ak ) E( (Sk + (Sn − Sk ))2 1Ak ) 2 E( (Sk + 2Sk (Sn − Sk ) + (Sn − Sk )2 ) 1Ak ) n 2 E(Sk 1Ak ) ≥ k=1 n = k=1 n ≥ k=1 ǫ2 E(1Ak ) ≥ ǫ2 P (Ak ) k=1 = ǫ2 P (A). 2 El resultado se obtiene al observar que E(Sn ) = Var(Sn ) = n k=1 Var(Xk ). Dos teoremas l´ ımite 351 en donde en particular A1 = ( |S1 | ≥ ǫ ). Chebyshev: c) P (|X| ≥ ǫ) ≤ E|X|n /ǫn . b) P (|X| ≥ ǫ) ≤ E|X|/ǫ. Algunas desigualdades Markov: a) P (X ≥ ǫ) ≤ E(X)/ǫ. En resumen se tiene la siguiente tabla.Cap´ ıtulo 9. k con g ≥ 0 no decreciente. k=1 . Cuando n = 1 la desigualdad de Kolmogorov se reduce a la desigualdad de Chebyshev. para X ≥ 0. b) P (X ≥ ǫ) ≤ E[g(X)]/g(ǫ). a) P (|X − µ| ≥ ǫ) ≤ Var(X)/ǫ2 . 1 ǫ2 n Kolmogorov: P ( m´x{|X1 + · · · + Xk |} ≥ ǫ ) ≤ a Var(Xk ). El evento de inter´s puede escribirse e como A = n Ak .

cuando t → 0. Esto implica que Sn → µ. Ley de los grandes n´ meros u Este interesante resultado establece que. n i=1 Demostraci´n. . El resultado se obtiene al recordar que la convergencia en distribuci´n a una o constante es equivalente a la convergencia en probabilidad. Haciendo n → ∞ se obtiene φSn (t) → eiµt . independientes e id´nticamente distribuidas con media µ. Sea Sn = (X1 + · · · + Xn )/n. bajo ciertas condiciones. Entonces n 1 p Xi −→ µ.2. . Como X tiene esperanza o finita µ y por la expansi´n (8. Este mismo resultado puede demostrarse f´cilmente a partir de la desiguala dad de Chebyshev bajo la hip´tesis adicional de existencia de la varianza. . a ´ ´ Teorema de Bernoulli. o las cuales se distinguen por el tipo de convergencia de la que se trate. cuando t → 0. e Existen adem´s varias generalizaciones de este resultado. e Sean X1 . o . o φ(t) = 1 + it(µ + o(1)). (Ley debil de los grandes numeros). La ley d´bil establece la convergencia en probabilidad y la ley fuerte dice que e la convergencia es casi segura.2. y sea φ(t) la funci´n caraco o ter´ ıstica de cualquier elemento X de la sucesi´n. Ley de los grandes numeros 9. d Por independencia la funci´n caracter´ o ıstica de Sn es entonces φSn (t) = φn (t/n) = ( 1 + i(t/n)(µ + o(1)) )n . X2 . Demostraremos dos versiones de esta afirmaci´n.1).352 ´ 9. en donde eiµt es la funci´n o caracter´ ıstica de la variable aleatoria constante µ. La ley fuerte implica entonces la ley d´bil. el promedio de variables aleatorias converge a una constante cuando el n´mero de u sumandos crece a infinito.

en probabilidad.5. a Ejemplo (Probabilidad frecuentista). y hemos entonces corroborado su o validez con ayuda de la ley de los grandes n´meros.p)” genera un valor al azar de la distribuci´n bin(n. Considere un experimento aleatorio cualquiera y sea A un evento. Basta ahora tomar el l´ ımite cuando n tiende a infinito para obtener el resultado. La desigualdad de Chebyshev aplicada a la variable Sn asegura que para cualquier ǫ > 0 se cumple P (|Sn − µ| ≥ ǫ) ≤ σ 2 /nǫ2 . ahora usando la distribuci´n o . usando pstricks. El comano do “binornd(n. el cual puede ser traducie o do f´cilmente a cualquier otro lenguaje de programaci´n. Se efect´an realizaciones independientes u del experimento. Sea Xk la variable que toma el valor uno si en el k-´simo ensayo se observa A. Entonces las variables X1 . son independientes cada una con distribuci´n Ber(p). Por lo tanto E(Xk ) = p y Var(Xk ) = p(1−p). con p = 0. a la constante desconocida p cuando el n´mero de ensayos crece a infinito. A continuaci´n se muestra gr´ficamente una simulaci´n en compuo a o tadora del comportamiento del cociente (X1 + · · · + Xn )/n cuando n crece.1. Esta es otra simulaci´n en computadora del comportamiento del o cociente (X1 + · · · + Xn )/n cuando n crece. Sea nuevamente Sn = (X1 + · · · + Xn )/n. X2 . . suponiendo Var(X) = σ 2 < ∞. Damos a continuaci´n un ejemplo sencillo de aplicaci´n de la ley d´bil y o o e m´s adelante demostramos la ley fuerte. o Ejemplo. Esta es la deu finici´n frecuentista de la probabilidad. para generar la gr´fica mostrada en la Figura 9. Se generaron 200 a o valores al azar usando la distribuci´n discreta Ber(p). Los o A datos obtenidos por este paquete fueron luego trasladados a L TEX. Entonces E(Sn ) = µ y Var(Sn ) = σ 2 /n. . La ley d´bil de los grandes n´meros asegura que la fracci´n de ensayos en e u o los que se observa el evento A converge. Dos teoremas l´ ımite 353 El argumento es el siguiente. Se muestra tambi´n el c´digo MATLAB utilizado. y se observa en cada ensayo la ocurrencia o no ocurrencia e del evento A. y cero en caso contrario. p). u Ejemplo. en donde p es la probabilio dad desconocida del evento A.Cap´ ıtulo 9. . Los puntos graa ficados fueron unidos por una linea continua para una mejor visualizaci´n o del comportamiento inicial oscilante y su eventual estabilizaci´n.

5.1: Comportamiento del cociente Sn /n cuando n crece cuando las variables Xi tienen distribuci´n discreta Ber(p). . p=0.N). Sean X1 .p). R=binornd(1.354 ´ 9. Sn(j)=S(j)/j.p). independientes e id´nticamente distribuidas con media µ. . Sn=zeros(1. (Suponiendo cuarto momento finito).2. 9). Se generaron nuevamente 200 de estos o valores y los resultados de muestran en la Figura 9.’r-’) Sn /n 100 200 n Figura 9.2. Suponga que E|X − µ|2 = σ 2 y observe que . S=zeros(1. 1/2 for j=2:N S(j)=S(j-1)+binornd(1. Sn(1)=R.5. (Ley fuerte de los grandes numeros). Demostraci´n.150) N=200. S(1)=R. end plot([Sn].N). o continua N(1. Es gratificante observar las oscilaciones iniciales de dicho cociente y su eventual estabilizaci´n o hacia la media de la distribuci´n. cualquier elemento de ´sta se o o e denota simplemente por X. o ´ Teorema. Dada la id´ntica diso e tribuci´n de los elementos de la sucesi´n. X2 . Entonces e 1 n n i=1 Xi −→ µ. con p = 0. c. . de modo que la expresi´n “1+3*randn” corresponde o a o a un valor de la distribuci´n N(1.s. y el c´digo MATLAB para o o generar la simulaci´n. El comando “randn” genera valores al azar de la distribuci´n normal est´ndar. Ley de los grandes numeros randn(’state’. 9).

.N).1500) N=200. u 1 P ( l´ | ım n→∞ n n i=1 Xi − µ| ≤ ǫ ) = 1. para ǫ > 0. es decir. S=zeros(1. o n n P (| i=1 (Xi − µ)| > nǫ) ≤ E| i=1 (Xi − µ)|4 /(nǫ)4 = ( nE|X − µ|4 + 3n(n − 1)σ 4 )/(nǫ)4 . Por i=1 n=1 el lema de Borel-Cantelli la probabilidad de que ocurra una infinidad de eventos An es cero. Sn=zeros(1. existe un n´mero u natural n a partir del cual ning´n evento An se verifica.N). Es decir. Entonces por independencia. Dos teoremas l´ ımite 355 randn(’state’. 1 Sea el evento An = (| n n Xi − µ| > ǫ). end plot([Sn]. n i=1 (Xi −µ)| Por la desigualdad de Chebyshev (9. Por lo tanto con probabilidad uno.Cap´ ıtulo 9. n E| i=1 (Xi − µ)|4 = nE|X − µ|4 + 3n(n − 1)σ 4 .2: Comportamiento del cociente Sn /n cuando n crece usando la distribuci´n normal con media uno y varianza nueve. S(1)=R. Entonces ∞ P (An ) < ∞. Sn(j)=S(j)/j. R=1+3*randn. s´lo un n´mero finito de o u estos eventos ocurre.2) aplicada a la variable | y la funci´n g(x) = x4 se obtiene. o E(X − µ) = 0. con probabilidad uno. for j=2:N S(j)=S(j-1)+1+3*randn.’r-’) Sn /n 1 n 100 200 Figura 9. Sn(1)=R.

356 ´ 9. . e suponiendo que el total de caracteres disponibles es m. . i=1 Ejemplo. . x2N . k=1 Es decir. tienen una longitud total de N caracteres. (El problema del mono. Considere ahora la suma X1 + · · · + Xn . xN +1 . Se tiene entonces una sucesi´n de variables aleatorias X1 . Esto o implica que debe existir un valor de k tal que Xk = 1. Nuevamente se consideran bloques de longitud N de la siguiente forma x1 . . es decir. Sea Ak el evento correspondiente a que en el k-´simo bloque el mono tenga e ´xito. xN . En particular. Si para alg´n valor de n esta suma es positiva. significa u que alguno de los sumandos es distinto de cero. nuevamente). e Xk = 1 si Ak ocurre. u o Considere entonces un mono que escribe caracteres al azar. . la media de cada una de estas variables es E(Xk ) = p. y por lo tanto que el mono ha tenido ´xito. X2 . 0 si Ak no ocurre. indepeno dientes e id´nticamente distribuidas Ber(p). Usaremos la ley fuerte de los grandes n´meros para dar otra soluci´n al problema del mono. . Ley de los grandes numeros Como esta afirmaci´n vale para cualquier ǫ > 0. . . las cuales. .2. Pero esto es justamente lo que garantiza la ley fuerte de los e grandes n´meros pues u P ( l´ ım 1 n→∞ n n Xk = p ) = 1. . supondremos. . se cumple que o P ( l´ ım 1 n→∞ n n Xi = µ ) = 1. . con p = P (Ak ) = (1/m)N . y sea Xk la variable aleatoria indicadora del evento Ak . con probabilidad uno la suma en esta ecuaci´n es positiva. Nos interesa encontrar la probabilidad de que el mono eventualmente escriba las obras completas de Shakespeare. . . y esto a su vez .

S. . Este resultado es de amplio uso en estad´ ıstica y otras ramas de aplicaci´n de la o probabilidad. a 9. Dos teoremas l´ ımite 357 significa que en el k-´simo bloque el mono ha tenido ´xito. A˜os o n despu´s P. S. de Moivre alrededor de 1733 en el caso cuando las variables aleatorias tienen distribuci´n Bernoulli con p = 1/2. de Moivre y de P. X2 . Existen muchas versiones y generalizaciones de este teorema pero nos limitaremos a enunciar y demostrar una versi´n simple y corta.3. para e e a u que el promedio que aparece en esta ecuaci´n sea positivo necesariamente la o suma debe ser infinita. Sea X1 . 1). Este a o teorema fue descubierto por A. . l´ P ( a < ım X1 + · · · + Xn − np 1 < b) = √ 2π np(1 − p) b a n→∞ e−x 2 /2 dx. Para cualesquiera n´meros o a u reales a < b. o Un caso particular de este resultado lleva el nombre de A. M´s a´n. deben existir una infinidad de valores de k tal que Xk = 1. una sucesi´n de o variables aleatorias independientes tal que cada una de ellas tiene distribuci´n Bernoulli con par´metro p ∈ (0. Teorema de De Moivre-Laplace. y por lo tanto. Teorema central del l´ ımite Concluimos el curso con el c´lebre y famoso teorema central del l´ e ımite. El e o teorema de de Moivre-Laplace es una caso particular del siguiente resultado fundamental. una demostraci´n directa puede ser encontrada en [8]. . En palabras este resultado establece que la variable aleatoria (X1 + · · · + Xn − np)/ np(1 − p) converge en distribuci´n a una variable aleatoria noro mal est´ndar. Esto quiere decir que con probabilidad uno el mono escribir´ una infinidad de veces las obras completas de Shakespeare. .Cap´ ıtulo 9. Laplace demostr´ su validez para valores arbitrarios de p. Laplace.

X2 . 1). X1 + · · · + Xn − nµ √ l´ P ( ım ≤ x ) = P (Z ≤ x). Observe que o X1 + · · · + Xn − nµ (X1 − µ)/σ + · · · + (Xn − µ)/σ √ √ = . e o √ √ φZn (t) = E( eit(X1 +···+Xn )/ n ) = ( φX (t/ n) )n .358 9. Teorema central del l´ ımite Teorema central del l´ ımite.1) adquiere la expresi´n. . As´ pues. una sucesi´n de vao riables aleatorias independientes e id´nticamente distribuidas tales que e para cada natural n. . n→∞ nσ . 2n 2 Haciendo n → ∞ se obtiene φZn (t) → e−t /2 . sin p´rdida de generalidad. suponı e dremos que cada variable de la sucesi´n tiene media cero y varianza uno.3. nσ Demostraci´n. φZn (t) = ( 1 − El teorema central del l´ ımite establece entonces que para cualquier n´mero u real x. Se desea probar que d 2 /2 Zn → N(0. cuando t → 0. Por o ıstica de cualquier elemento de la en donde φX (t) es la funci´n caracter´ sucesi´n. nσ n en donde cada sumando del numerador en el lado derecho es una variable con media cero y varianza uno. Sea X1 . o o o 1 φX (t) = 1 − t2 (1 + o(1)). o √ Considere entonces la suma Zn = (X1 + · · · + Xn )/ n. Entonces X1 + · · · + Xn − nµ d √ −→ N(0. que por la expansi´n (8. E(Xn ) = µ y Var(Xn ) = σ 2 < ∞. Para ello es suficiente demostrar que φZn (t) → e−t independencia e id´ntica distribuci´n. . 2 Por lo tanto. t2 (1 + o(1)) )n . 1).

´stas pueden tener cualquier o o e distribuci´n. Dos teoremas l´ ımite 359 en donde Z tiene distribuci´n normal est´ndar.Cap´ ıtulo 9. M. Observe que la suma X1 + o a · · · + Xn tiene media nµ y varianza nσ 2 . de modo que la expresi´n de o arriba es una especie de estandarizaci´n de esta variable. 1). Observe que no hay ninguna hip´tesis adicional sobre la distribuo ci´n de las variables de la sucesi´n. s´lo requiriendo la existencia de la media y la varianza. σ/ n Este teorema fue demostrado rigurosamente por A. Equivalentemente o el resultado puede enunciarse del siguiente modo: (X1 + · · · + Xn )/n − µ d √ −→ N(0. Lyapunov alrededor de 1901. o o . es decir.

605. Ahora tome esperanza de ambos lados y calcule E(Xǫ ). Ejercicios Desigualdad de Markov 603. en probabilidad. Desigualdad de Chebyshev 606. en media ⇒ Conv. Use la desigualdad de Chebyshev (9. Use la desigualdad de Chebyshev para demostrar que si X es una variable aleatoria tal que E(X) = a y Var(X) = 0. Compruebe que Xǫ ≤ X. usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |Xn − X|.2) para demostrar directamente que la convergencia en media cuadr´tica implica la convergencia en probabilidad. Conv. Use la desigualdad de Markov para demostrar que si X es una variable aleatoria no negativa con esperanza cero. entonces X es constante casi seguramente. Ejercicios 9. .4.c. 608. a 607. Demuestre la desigualdad de Markov siguiendo los siguientes pasos: Suponga X ≥ 0. 604. entonces X = 0 casi seguramente.1) usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |X − µ|. Demuestre que la convergencia en media implica la convergencia en probabilidad. 0 si X < ǫ. en probabilidad.360 9. Demuestre la desigualdad de Chebyshev (9. Conv. en m. es decir. P (X = a) = 1.4. ⇒ Conv. y para ǫ > 0 defina Xǫ = ǫ si X ≥ ǫ.

614. Considere la siguiente versi´n de la desigualdad de Chebyshev o P (|X − µ| < ǫσ) ≥ 1 − 1/ǫ2 . Demuestre que P (X ≥ ǫ) ≤ E(etX )/eǫt .1) y la desigualdad de Markov. 1. para ǫ > 0 y t > 0.2) demuestre la desigualdad de Chebyshev (9. Demuestre que el valor exacto de la probabilidad P (|X − µ| ≥ 3σ) coincide con la estimaci´n dada por la desigualdad de Chebyshev. 613. Sea X discreta con funci´n de probabilidad o   1/18 si x = −1. Use la desigualdad de Chebyshev para estimar la probabilidad de que X tome valores entre µ − ǫσ y µ + ǫσ para cualquier ǫ > 0 constante. Dos teoremas l´ ımite 361 609.90. 612. . b) de manera directa. b) de manera directa. 611. sin hip´tesis adicionales.Cap´ ıtulo 9. f (x) = 16/18 si x = 0. A partir de la desigualdad de Chebyshev extendida (9. la cota superior o dada por la desigualdad de Chebyshev es ´ptima. a) usando la desigualdad de Chebyshev extendida.  0 otro caso. a) usando la desigualdad de Chebyshev extendida. Sea X con media µ y varianza σ 2 . 610. b) de manera directa. para ǫ > 0. Encuentre el m´ ınimo valor de ǫ > 0 de tal modo que la probabilidad de que una variable aleatoria tome valores entre µ − ǫσ y µ + ǫσ sea al menos 0. o 615. Demuestre que P (|X| ≥ ǫ) ≤ E|X|n /ǫn . Demuestre que P (|X| ≥ ǫ) ≤ E|X|/ǫ. Este o resultado demuestra que. a) usando la desigualdad de Chebyshev extendida. para ǫ > 0 y n ∈ N.

σ 2 /n) para cualquier o valor de n. . son independientes con media µ y varianza σ 2 . entonces n Xn −→ p. . P (|X − E(X)| > ǫ) ≤ 2 Var(X) . Ley de los grandes numeros en media cuadratica. ¿Qu´ le sucede a u e esta probabilidad cuando n tiende a infinito? ¿Contradice esto la ley de los grandes n´meros? u . Desigualdad de Cantelli. Xn independientes con distribuci´n N(µ.c. p). cuando n tiende a o infinito. independientemente del valor de n. . . Use la ley d´bil de los grandes n´meros para demostrar que si Xn e u p 1 tiene distribuci´n bin(n. . Calcule la probabilidad de que ambas caras caigan el mismo n´mero de veces. X2 .4. Sean X1 . Se lanza una moneda equilibrada 2n veces. . El promeo dio (X1 + · · · + Xn )/n tiene distribuci´n N(µ. ´ ´ 618. entonces para cualquier ǫ > 0. Xi −→ µ. . En el ejercicio 602 se pide usar la funci´n caracter´ o ıstica para demostrar que si X1 . Demuestre que si Var(X) < ∞. Ejercicios 616. Xn son independientes con distribuci´n Cauchy o est´ndar. entonces n 1 m. . . ¿Contradice o a esto la ley de los grandes n´meros? u 621. 619. entonces el promedio Sn = (X1 + · · · + Xn )/n tiene distribua ci´n Cauchy est´ndar. . ǫ2 + Var(X) Ley de los grandes n´meros u 617.362 9. Demuestre que si X1 . ¿Contradice esto la ley de los grandes n´meros? u 620. . σ 2 ). n i=1 Observe que no se pide la hip´tesis de id´ntica distribuci´n para las o e o variables aleatorias y que este resultado no es consecuencia de la ley fuerte.

independientes con distribuci´n Poisson(λ) con λ = o 1. k! 2 624.5? . . . a 623. Use el teorema central del l´ ımite para demostrar que l´ ım 1 en n k=0 n→∞ nk 1 = . Use el teorema central del l´ ımite para estimar la probabilidad de obtener mas de 520 ´guilas en 1000 lanzamientos de una moneda honesta.Cap´ ıtulo 9.2 y 0. . X2 . Dos teoremas l´ ımite 363 Teorema central del l´ ımite 622. La probabilidad de ocurrencia de un evento en un ensayo es de 0.3. ¿Cu´l es la probabilidad de que la frecuencia relativa de este evento a en 100 ensayos se encuentre entre 0. Sean X1 .

.

Este es el modelo m´s simple de variable aleatoria y corresponde a la obsera vaci´n de la ocurrencia o no ocurrencia de un evento. con p ∈ (0. p). M (t) es la funci´n generadora de momentos. G(t) = 1 − p + pt. u la funci´n de probabilidad o de densidad se denota por f (x). y φ(t) es la o funci´n caracter´ o ıstica. E(X) = p. Var(X) = p(1 − p). y la funci´n o o de distribuci´n por F (x). M (t) = 1 − p + pet . Como en el texto. o 365 . 1). f (x) = px (1 − p)1−x para x = 0. G(t) es la funci´n generadora o o de probabilidad. La suma de n variables o independientes Ber(p) tiene distribuci´n bin(n. Distribuci´n Bernoulli o X ∼ Ber(p).Ap´ndice A e Distribuciones de probabilidad Se presenta a continuaci´n una lista en orden alfab´tico de algunas distrio e buciones de probabilidad univariadas de uso com´n. 1. Como es costumbre.

para x ∈ (0. p). b) con a > 0. Var(X) = np(1 − p). 1. Cuando a = 1. La suma de dos variables independientes con distribuci´n bin(n. p) con n ∈ N y p ∈ (0. x E(X) = np. f (x) = xa−1 (1 − x)b−1 /B(a. 1). n f (x) = px (1 − p)n−x para x = 0. p) con r ∈ N y p ∈ (0. 1). 1. M (t) = [1 − p + pet ]n . b > 0. G(t) = (1 − p + pt)n . Var(X) = ab/[(a + b + 1)(a + b)2 ]. E(X) = a/(a + b). . . . . o Distribuci´n binomial o X ∼ bin(n.366 Distribuci´n beta o X ∼ beta(a. G(t) = [p/(1 − t(1 − p))]r . p) tiene distribuci´n bin(n + m. Var(X) = r(1 − p)/p2 . n. r+x−1 f (x) = pr (1 − p)x para x = 0. o Distribuci´n binomial negativa o X ∼ bin neg(r. 1). . b = 2 o a = 2. . x E(X) = r(1 − p)/p. Una variable aleatoria binomial registra el n´mero de ´xitos en n ensayos u e independientes Bernoulli en donde en cada ensayo la probabilidad de ´xito e es p. . b = 1 se obtiene la distribuci´n triangular. b). . p) y o bin(m.

Este es el modelo que se usa para contar el n´mero de fracasos antes de u obtener el r-´simo ´xito en una sucesi´n de ensayos independientes Bernoue e o lli. Var(X) = 1/λ2 . En este caso.Ap´ndice A. para x > 0. para x ∈ R. La suma de n variables independientes exp(λ) tiene distribuci´n gama(n. o φ(t) = exp(iat − b|t|). Cuando a = 0 y b = 1 se obtiene la distribuci´n Cauchy est´ndar. o . M (t) = λ/(λ − t) para t < λ. para x > 0. o e Distribuci´n Cauchy o X ∼ Cauchy(a. λ). o f (x) = 1/(π(1 + x2 )). para x ∈ R. en donde en cada ensayo la probabilidad de ´xito es p. E(X) = 1/λ. F (x) = 1 − e−λx . y coincide o a con la distribuci´n t(n) con n = 1. φ(t) = λ/(λ − it). bπ[1 + ((x − a)/b)2 ] La esperanza. la varianza y cualquier momento no existen. F (x) = 1/2 + (arctan x)/π. Distribuci´n exponencial o X ∼ exp(λ) con λ > 0. f (x) = λe−λx . 1 f (x) = . Distribuciones de probabilidad e 367 M (t) = [p/(1 − qet )]r . b) con a > 0 y b > 0. La distribuci´n e o binomial negativa se reduce a la distribuci´n geom´trica cuando r = 1. La funci´n generadora de momentos no existe para t = 0.

E(X) = n/λ. Var(X) = n/λ2 . M (t) = p/[1 − (1 − p)et ]. a Distribuci´n geom´trica o e X ∼ geo(p) con p ∈ (0. (λx)n−1 −λx f (x) = λe para x > 0. 1. En a ocasiones se usa el par´metro 1/θ en lugar de λ. Cuando n = 1 la distribuci´n gama se reduce a la distribuci´n exponeno o cial. para t < λ. . n). es decir. f (x) = p(1 − p)x para x = 0. Γ(n) n−1 F (x) = 1 − e−λx k=0 (λx)k /k! para x > 0 y n entero. . . Advertencia: para denotar esta distribuci´n en algunos textos se usa o el s´ ımbolo gama(λ. Esta variable se usa para modelar el n´mero de fracasos antes de obtener el u primer ´xito en una sucesi´n de ensayos independientes Bernoulli. G(t) = p/[1 − t(1 − p)]. M (t) = [λ/(λ − t)]n .368 Distribuci´n gama o X ∼ gama(n. o . E(X) = (1 − p)/p. 1). el orden de los par´metros es distinto. λ) con n > 0 y λ > 0. Var(X) = (1 − p)/p2 . La distribuci´n geom´trica e o e es un caso particular de la distribuci´n binomial negativa. en donde e o en cada uno de ellos la probabilidad de ´xito es p.

K. 1). una clase con K elementos y la otra con N − K elementos. y si se seleccionan n elementos de este conjunto. . K N −K N f (x) = / para x = 0. σ 2 ) con µ ∈ R y σ 2 > 0. .Ap´ndice A. x n−x n E(X) = nK/N . 1 1 n/2 n/2−1 −x/2 f (x) = x e para x > 0. Var(X) = 2n. o o Distribuci´n log normal o X ∼ log normal(µ. Distribuci´n ji-cuadrada o X ∼ χ2 (n) con n > 0. n ∈ N y n ≤ K ≤ N . M (t) = (1 − 2t)−n/2 para t < 1/2. Γ(n/2) 2 E(X) = n. . 1. K. . φ(t) = (1 − 2it)−n/2 . 1 exp[−(ln x − µ)2 /2σ 2 ] para x > 0. entonces X 2 tiene distribuci´n χ2 (1). Si X tiene distribuci´n N(0. KN −K N −n Var(X) = n . n) con N. Distribuciones de probabilidad e 369 Distribuci´n hipergeom´trica o e X ∼ hipergeo(N. entonces la variable X modela el n´mero de elementos u seleccionados de la primera clase. . n. f (x) = √ x 2πσ 2 E(X) = exp(µ + σ 2 /2). N N N −1 Si un conjunto de N elementos se puede separar en dos clases.

La funci´n generadora de momentos no existe. Cuando µ = 0 y σ 2 = 1 se obtiene la distribuci´n normal est´ndar. La suma o a o diferencia de dos variables independientes con distribuci´n normal tiene o distribuci´n normal. o Distribuci´n Pareto o X ∼ Pareto(a. φ(t) = exp (iµt − σ 2 t2 /2). entonces eX tiene distribuci´n log normal(µ. Var(X) = ab2 /[(a − 1)2 (a − 2)] para a > 2. σ o Distribuci´n normal o X ∼ N(µ. f (x) = aba /(b + x)a+1 para x > 0. Var(X) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ).370 E(X n ) = exp(nµ + n2 σ 2 /2). F (x) = 1 − [b/(b + x)]a para x > 0. Si X tiene distribuci´n o o 2 ). . M (t) = exp (µt + σ 2 t2 /2). Var(X) = σ 2 . σ 2 ). 2 2 1 e−(x−µ) /2σ . f (x) = √ 2 2πσ E(X) = µ. b) con a > 0 y b > 0. σ 2 ) con µ ∈ R y σ 2 > 0. N(µ. E(X) = b/(a − 1) para a > 1.

f (x) = e−λ λx /x! para x = 0. . . . E(X) = (x1 + · · · + xn )/n. . Var(X) = [(x1 − µ)2 + · · · + (xn − µ)2 ]/n. M (t) = (ex1 t + · · · + exn t )/n. . φ(t) = exp(−|t|) . xn . . o Distribuci´n t o X ∼ t(n) con n > 0. . Distribuci´n uniforme discreta o X ∼ unif{x1 . La suma de dos variables independientes con distribuci´n Poisson(λ1 ) y o Poisson(λ2 ) tiene distribuci´n Poisson(λ1 + λ2 ). cuando n = 1. . E(X) = λ. M (t) = exp [λ(et − 1)]. . . Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . Var(X) = λ. La expresi´n de φ(t) resulta complicada o para valores n ≥ 2. Distribuciones de probabilidad e 371 Distribuci´n Poisson o X ∼ Poisson(λ) con λ > 0. Var(X) = n/(n − 2) para n > 2. . nπ Γ(n/2) E(X) = 0. f (x) = 1/n para x = x1 . G(t) = e−λ(1−t) . 1. M (t) no existe para t = 0.Ap´ndice A. . G(t) = (tx1 + · · · + txn )/n. xn } con n ∈ N.

Cuando r = 2 se obtiene la o distribuci´n Rayleigh(λ). r f (x) = e−(λx) rλr xr−1 para x > 0. E(X) = (a + b)/2. b) con a < b. M (t) = (ebt − eat )/(bt − at). F (x) = (x − a)/(b − a) para x ∈ (a. o .372 Distribuci´n uniforme continua o X ∼ unif(a. f (x) = 1/(b − a) para x ∈ (a. Distribuci´n Weibull o X ∼ Weibull(r. E(X) = Γ(1 + 1/r)/λ. λ) con r > 0 y λ > 0. b). Cuando r = 1 se obtiene la distribuci´n exp(λ). b). Var(X) = [Γ(1 + 2/r) − Γ2 (1 + 1/r)]/λ2 . r F (x) = 1 − e−(λx) para x > 0. Var(X) = (b − a)2 /12.

ϕ X χ Ψψ Ωω rho sigma tau upsilon phi ji ´ chi o psi omega 373 .Ap´ndice B e Conceptos y resultados varios El alfabeto griego Aα Bβ Γγ ∆δ E ǫ. ̺ Σ σ. ε Zζ H η Θ θ. ς T τ Υυ Φ φ. ϑ alfa beta gama delta epsilon zeta eta theta Iι Kκ Λλ M µ Nν Ξξ Oo Ππ iota kapa lambda mu nu xi omikron pi P ρ.

una sucesi´n infinita de n´meros reales. o L´ ımite por la izquierda de la funci´n F en el punto x. o Lema de Abel Sea a0 . y al l´ ı ımite de c1 ≥ c2 ≥ · · · se le . . Claramente ınf bm ≤ bm+1 . am+1 . . Parte entera de x. .}. no excluyendo con ello valores infinitos. la o primera no decreciente y la segunda no creciente. y cm ≥ cm+1 . por lo tanto son convergentes. a1 . . . Defina la funci´n G(t) = ∞ an tn . Al l´ ımite de la sucesi´n o b1 ≤ b2 ≤ · · · se le llama l´mite inferior. . ambas sucesiones son mon´tonas.374 Notaci´n o B(R) a∨b a∧b A⊥B ⌊x⌋ F (x+) F (x−) : : : : : : : Conjuntos de Borel de R. y cm = sup {am . . a2 . n=0 L´ ımite superior e inferior Sea a1 . tր1 l´ G(t) = ım ∞ an . am+1 . . b}. L´ ımite por la derecha de la funci´n F en el punto x.}. . m´x{a. El lema de Abel asegura que G(t) es una funci´n continua por la izquierda en t = 1. 1]. Es decir. Independencia de los eventos A y B. Para cada m natural o u defina bm = ´ {am . b}. . . a m´ ın{a. la cual es o n=0 n=0 convergente para valores de t por lo menos en el intervalo [0. es o decir. . una sucesi´n de n´meros reales o complejos tal que la serie o u ∞ an es convergente.

es decir. A estos l´ ı o ımites se les denota por l´ inf n→∞ an y l´ supn→∞ an . Observe que X es una funci´n puntual. Conceptos y resultados varios e 375 llama l´mite superior de la sucesi´n a1 . a2 . La imagen inversa cumple las o siguientes propiedades: . Considere una funci´n X : A → B. lleva puntos de A en o puntos de B. mientras que X −1 es una funci´n conjuntista. respectivamente. .. y definido como sigue: X −1 B = {a ∈ A : X(a) ∈ B}. No debe confundirse X −1 con la funci´n inversa de X. Es inmediato comım ım probar que l´ inf n→∞ an ≤ l´ supn→∞ an . es decir. X X −1 B A B B Figura B. denotado por X −1 B. . y s´lo si.Ap´ndice B. Imagen inversa Sean A y B dos conjuntos. . En palabras. La imagen o inversa de un conjunto B ⊆ B es un subconjunto de A. u o ım ım Estos conceptos de l´ ımite inferior y superior pueden extenderse al caso de sucesiones de eventos como se muestra en el primer cap´ ıtulo de este texto. Adem´s la sucesi´n original es ım ım a o convergente al n´mero a si. l´ inf n→∞ an = l´ supn→∞ an = a.1: Imagen inversa. la imagen inversa de B es aquella colecci´n de elementos de o A tal que al aplicarles la funci´n X toman un valor dentro del conjunto o B. lleva o subconjuntos de B en subconjuntos de A. o El concepto de imagen inversa es usado en este texto para definir a una variable aleatoria como una funci´n medible.

y s´lo si. Es sencillo verificar que esta funci´n resulta ser una variable e o aleatoria si. Funci´n indicadora o La funci´n indicadora de un conjunto A ⊆ Ω es la funci´n 1A : Ω → {0. 0 si ω ∈ A. c) Si B1 ⊆ B2 . se cumple (X ◦ Y )−1 C = X −1 (Y −1 C). el conjunto A es un evento. h) A ⊆ X −1 (XA). b) X −1 (B c ) = (X −1 B)c . la igualdad se cumple si. k k=1 X ∞ −1 B . k k=1 X o g) X(X −1 B) ⊆ B. 1B } = 1A + 1B − 1A · 1B . la igualdad se cumple si. e) X −1 ( f) X −1 ( ∞ k=1 Bk ) ∞ k=1 Bk ) = = ∞ −1 B . entonces para cualquier subconjunto C de C. las siguientes propiedades: a) 1A∪B = m´x {1A . d) X −1 (B2 − B1 ) = X −1 B2 − X −1 B1 . / 1A (ω) = De este modo la funci´n 1A toma el valor uno dentro del conjunto A.376 a) X −1 B = A. o Si se tienen dos funciones X : A → B y Y : B → C. La funci´n indicadora o o cumple. a . y s´lo si. y s´lo si. 1} o o dada por 1 si ω ∈ A. entre otras. entonces X −1 B1 ⊆ X −1 B2 . X es inyectiva. X es sobre. y cero o fuera de ´l.

Teorema de Radon-Nikodym. Q(A) = A ξ dP. Con ayuda de este teorema es f´cil demostrar la existencia y unicidad de la a esperanza condicional.Ap´ndice B. En tal caso se escribe Q ≪ P . sea X una variable aleatoria integrable. ın c) 1Ac = 1 − 1A . d) 1A−B = 1A − 1A · 1B . necesariamente Q(A) = 0 para cada A en F . f) Si A ⊆ B. Para cada A a en G defina Q(A) = X dP. A Puede comprobarse que Q ≪ P cuando P se restringe a la σ-´lgebra G . 377 Esperanza condicional Sea (Ω. Si Q ≪ P . P ) un espacio de probabilidad. Se dice que Q es absolutamente continua respecto de P si cada vez que P (A) = 0. entonces 1A ≤ 1B . entonces existe una variable aleatoria integrable ξ que es unica P -casi seguramente. e) 1A△B = |1A − 1B | = |1A − 1B |2 = 1A + 1B − 2 · 1A · 1B . y es tal que para ´ cada evento A. 1B } = 1A · 1B . Conceptos y resultados varios e b) 1A∩B = m´ {1A . Sean P y Q dos medidas de probabilidad. y sea G ⊆ F una sub σ-´lgebra. F . a El teorema de Radon-Nikodym garantiza entonces la existencia y unicidad P -casi segura de una variable aleatoria G -medible ξ tal que para cada A en . F ) un espacio medible. Sea (Ω. Se escribe ξ = dQ/dP y se le llama la derivada de Radon-Nikodym.

8. i=1 13. . E |E(X | G )| ≤ E(|X|). 11. Ω} ) = E(X). 9. Ω} ) = P (A | B)1B + P (A | B c )1B c . . Bn es una partici´n de Ω tal que cada elemento tiene proo babilidad estrictamente positiva. y2 . B c . 5. He aqui una lista de algunas de sus propiedades. Caso abs. 1. entonces E(X | Y )(ω) = ∞ −∞ x dFX|Y (x|y). entonces E(X | G ) ≥ 0. 3. G E(X | G ) dP = X dP. E(X | G ) es G -medible y tiene esperanza finita. Si X ≥ 0. Si B es un evento tal que 0 < P (B) < 1. 2. E(X | {∅. 4. Si ω es tal que Y (ω) = y. . 10. A la variable ξ le hemos denotado por E(X | G ). . Si B1 . entonces E(X | Y ) = ∞ E(X | Y = yi ) 1(Y =yi ) . con probabilidad estrictamente positiva. . . cuando fY (y) = 0. Bn }) = E(X | B1 ) · 1B1 + · · · + E(X | Bn ) · 1Bn . continuo. Si X ≤ Y . entonces E(1A | {∅. Caso discreto. . X dP = A A ξ dP. G para cualquier G ∈ G . . . 7. 12. E(αX + Y | G ) = α E(X | G ) + E(Y | G ). 6. entonces E(X | G ) ≤ E(Y | G ). | E(X | G ) | ≤ E( |X| | G ). Si Y toma los valores y1 . . B.378 G. . . entonces E(X | σ{B1 . E(E(X | G )) = E(X).

18. entonces E(XY | G ) = X E(Y | G ). Desigualdad de Jensen. o 22. entonces E(Xn | G ) ր E(X | G ) c. y s´lo si.s. 21. En particular. entonces E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ). Teorema de convergencia monotona.. Conceptos y resultados varios e 379 14. Si adem´s X es independiente de G2 . E(c | G ) = c. ´ 19. Si Xn −→ X. 15. entonces E(X | G ) = E(X). entonces E(X | σ(G1 ∪ G2 )) = E(X | G1 ) + E(X | G2 ) − E(X). Si X es G -medible. 20. Si XY es integrable y X es G -medible. E(f (X) | G ) = E(f (X)) para o cualquier funci´n Lebesgue medible f tal que f (X) es integrable. m m . 17. Si G1 y G2 son independientes. Si u es convexa y u(X) es integrable. Si X es independiente de G . Si G1 ⊆ G2 . entonces u(E(X | G )) ≤ E(u(X) | G ). X es independiente de G si. Si Xn ≥ 0 y Xn ր X c. 16.Ap´ndice B. entonces E(X | G ) = X. entonces a E(X | σ(G1 ∪ G2 )) = E(X | G1 ).s. entonces E(Xn | G ) −→ E(X | G ).

9370 0.9952 0.09 0.9706 0.9968 0.9951 0.8485 0.9854 0.9896 0.9115 0.9986 0.8830 0.9332 0.9993 0.9192 0.00 0.7357 0.9987 0.9345 0.9995 0.8643 0.9904 0.9988 0.9495 0.9970 0.6103 0.9943 0.5000 0.9986 0.0 3.9830 0.6 1.9162 0.7019 0.7995 0.9693 0.8 0.6331 0.9959 0.9066 0.7 1.9911 0.5478 0.2 2.9875 0.05 e−t 2 /2 dt 0.9971 0.5987 0.8599 0.7224 0.9279 0.1 3.9545 0.9962 0.8315 0.7939 0.9990 0.9484 0.6517 0.9756 0.8729 0.6915 0.5910 0.9319 0.7852 0.9994 0.7088 0.4 0.9985 0.9599 0.7454 0.9995 0.9846 0.7486 0.9976 0.9767 0.6217 0.5199 0.8531 0.9998 0.9871 0.9993 0.8980 0.9994 0.9987 0.9969 0.8186 0.6 0.9960 0.0 0.9994 0.9977 0.9936 0.9918 0.5160 0.3 0.5080 0.9842 0.9649 0.7517 0.8051 0.9671 0.9821 0.9997 0.9992 0.5040 0.9989 0.9981 0.5319 0.9967 0.9812 0.8790 0.7157 0.6700 0.9901 0.9997 0.9177 0.9946 0.9861 0.3 2.06 0.7910 0.8749 0.6179 0.9394 0.6736 0.8340 0.9995 0.7389 0.9949 0.9082 0.9996 0.7324 0.8078 0.08 0.9994 0.7549 0.9978 0.9997 0.6808 0.9997 0.8508 0.02 0.4 1.9032 0.1 1.9983 0.5675 0.7794 0.8289 0.8770 0.7123 0.7881 0.9761 0.9452 0.9997 0.9236 0.9803 0.9996 0.9996 0.9991 0.9984 0.8 2.6368 0.7611 0.7291 0.8997 0.7580 0.9738 0.9995 0.9207 0.9991 0.1 0.8686 0.9979 0.9996 0.9966 0.7734 0.5636 0.1 2.9772 0.9884 0.9948 0.9890 0.9418 0.8264 0.9974 0.9988 0.5793 0.9099 0.9817 0.5596 0.9997 0.7967 0.9987 0.9656 0.9965 0.8106 0.4 0.9788 0.9015 0.9953 0.9798 0.9591 0.8944 0.6 2.8365 0.9515 0.9222 0.9265 0.4 2.5557 0.5948 0.9554 0.9 3.9961 0.9608 0.9664 0.9251 0.9 2.9992 0.8810 0.9920 0.9994 0.9406 0.7 0.8238 0.9941 0.9989 0.3 1.9906 0.7 2.9993 0.6141 0.5832 0.9778 0.9868 0.9887 0.6591 0.5714 0.9049 0.6985 0.9977 0.9474 0.9744 0.7642 0.6664 0.6879 0.5871 0.6950 0.5517 0.7422 0.9463 0.9963 0.8438 0.9441 0.7673 0.5359 0.9981 0.9980 0.8888 0.9864 0.03 0.8621 0.9573 0.6064 0.9505 0.9699 0.5753 0.8869 0.9925 0.9 1.9850 0.9991 0.9713 0.5120 0.5 1.7190 0.6406 0.7823 0.8159 0.9992 0.9974 0.9997 x −∞ 0.5239 0.9996 0.9525 0.9989 0.9793 0.9826 0.9945 0.9898 0.9932 0.9972 0.9808 0.9834 0.9382 0.8554 0.5 2.5398 0.9857 0.9429 0.9996 0.01 0.5279 0.9964 0.9973 0.6026 0.5 0.6293 0.9975 0.3 3.8413 0.9979 0.9641 0.8849 0.7257 0.9750 0.9582 0.6844 0.2 0.8962 0.9990 0.9726 0.9838 0.2 3.9984 0.9131 0.8577 0.9678 0.9940 0.7764 0.9927 0.9938 0.0 2.2 1.9931 0.8665 0.9564 0.9292 0.9929 0.9913 0.5438 0.9686 0.8023 0.04 0.380 Tabla de la distribuci´n normal est´ndar o a x 1 Φ(x) = √ 2π x 0.9625 0.9357 0.8907 0.6628 0.9893 0.8399 0.9990 0.9147 0.07 0.9934 0.9719 0.9992 0.9982 0.9878 0.9955 0.9997 0.8 1.7054 0.8212 0.6772 0.9993 0.9997 .8461 0.6255 0.9732 0.6443 0.7704 0.9922 0.6554 0.9909 0.9306 0.9881 0.9616 0.0 1.9985 0.9995 0.8925 0.9995 0.9783 0.9916 0.9957 0.6480 0.9633 0.9535 0.8708 0.9982 0.9997 0.8133 0.9956 0.

(2005) Introducci´n a la Teor´a de la Probabiliıa ´ o ı dad. Birkh¨user.. Cambridge University Press. Wiley. A. a [6] Feller W. Primer Curso. L. Fondo de Cultura Econ´mica. E. [5] Cohn D. J. (1982) Probability and Random Processes. [7] Fristedt B. (1975) Random Variables. (2005) Introducci´n a la Teor´a de la Probabiliıa ´ o ı dad. (1996) A Modern Approach to Probability Theory. Fondo de Cultura Econ´mica. Longman. a [8] Garc´ Alvarez M. (1978) Introducci´n a la Teor´a de las Probabilidades y sus o ı Aplicaciones. [2] Blake I. F. o [9] Garc´ Alvarez M. R. F. (1979) An Introduction to Applied Probability. Stirzaker D. o [10] Grimmett G. 381 . A. (2005) Functional Analysis for Probability and Stochastic Processes. Birkh¨user. Gray L. (1981) Probabilidade: Um Curso em N´vel Intermedi´rio. Segundo Curso.Bibliograf´ ıa [1] Barry R. I y II. R. Vol. [4] Clarke L. Clarendon Press. [3] Bobrowski A. (1980) Measure Theory. ı a IMPA-CNPq. Limusa..

Prentice–Hall. Agosto 2004. (2001) One Thousand Exercises in Probability. C. (2004) ¿Qu´ es la esperanza condicional? Miscel´nea Mao e a tem´tica. (2006) Sobre el problema del mono que escribe caracteres al o azar. 37. John Wiley & Sons. 42. I. Wiley. Springer–Verlag. Stirzaker D. [14] Halmos P. Graybill F. a [24] Rinc´n L. [12] Grimmett G. (1979) Probability Theory. [19] Laha R. [23] Resnick S. R. Stirzaker D. Springer–Verlag.. (1960) Measure Theory. G. Birkh¨user.. Oxford University Press. [17] Jacod D. [13] Gut A. Rohatgi V. Freund’s Mathematical Statistics 6th ed. R. [15] Harris B. Van Nostrand. R. [18] Karr A.. Protter P. (2005) Probability: a Graduate Course. [20] Miller I. A. R. (1971) Probability Theory. [22] Parzen E.. Miller M. Springer. (1966) Theory of Probability. Houghton Mifflin Co. [16] Hoel P... K. Oxford University Press.. SMM. (1999) A Probability Path. a [25] Rinc´n L. No... (1999) John E.382 Bibliograf´ ıa [11] Grimmett G. (1974) Introduction to the Theory of Statistics. F. Boes D. (1960) Modern Probability Theory and its Applications. Addison–Wesley. R. a a . M. Port S. No. (1993) Probability. SMM. (1986) Probability: an Introduction. Stone C. McGraw Hill. (2000) Probability Essentials. [21] Mood A. Miscel´nea Matem´tica.

(2005) Introducci´n a la Medida e Integraci´n. Ciencias B´sicas. (2001) Weighing the Odds: A Course in Probability and Statistics. [32] Williams D. Cambridge University Press. Universidad Aut´noma de Aguascaa o lientes. (1986) Counterexamples in Probability and Statistics. P. [28] Ross S. (1991) Probability with Martingales. Chapman & Hall. [27] Rosenthal J. Siegel A. World Scientific. (1976) A First Course in Probability. (2000) A First Look at Rigorous Probability Theory. [30] Von Plato J. [29] Villa Morales J. [31] Williams D. F. (1994) Creating Modern Probability. Prentice Hall. Textos o o Universitarios. S. . Cambridge University Press.Bibliograf´ ıa 383 [26] Romano J. . Cambridge University Press.

24 de Cantelli.. 11 de Borel. 38 C´pula. 159 Aditividad finita. 11 de Borel de Rn . 28. 294 e de eventos. 24 Borel-Cantelli. 31 Convergencia casi dondequiera. 11 Boreliano. 27 o Conjunto Borel medible. 140 Coeficiente de correlaci´n. 159 o Cociente de Mills. 182 Completaci´n de espacios. 9 Acoplamiento. 171 Cuantil de una v. 11 medible. 93 Desigualdad cr .a. 177 Cotas de Fr´chet. 290 casi segura. 7 producto. 3 Continuidad de la prob. 177 nula. 290 d´bil. 3 a de Borel de R. 242 o Correlaci´n o negativa. 288 Convoluci´n. 289 casi siempre. 291 puntual. 188 e Covarianza. 128 de Bonferroni. 294 o en media. 294 a en probabilidad. 362 384 . 293 en media cuadr´tica. 14 ´ Algebra. 53 de Boole. 93 Cuartiles.´ Indice σ-´lgebra. 177 positiva.. 174 o multinomial. 16 en distribuci´n. 14 generada. 30.

76 arcoseno. 181 multivariada. 182 ji-cuadrada. 162 de un vector. 368 geom´trica. 366 binomial negativa. 366 binomial. 370 bivariada. 184 est´ndar. 54 de Markov. 227 de Chebyshev. 369 multimodal. 183 continua. 366 bivariada. 101. 3 muestral. 377 condicional (evaluada). 372 singular. 135 F de Snedecor. 372 Ensayo Bernoulli. 90 o a Distribuci´n o absolutamente continua. 96. 104. 232 log normal. 75 de acoplamiento. 98. 138 Bernoulli. 371 unimodal. 368 e hipergeom´trica. 227 de Minkowski. 372 discreta. 2 Esperanza condicional. 350 de Kounias. 128 o de Jensen. 103. 370 Poisson. 126 condicional. 2 completo.´ Indice de Cauchy-Schwarz. 145 Weibull. 1. 106. 185 Pareto. 365 beta. 76. 75 exponencial. 159 discreta. 77 t de Student. 349 de H¨lder. 179 385 . 127 de probabilidad. 127 de Kolmogorov. 123 a Espacio L1 . 94 univariada. 96. 126 L2 . 267. 214. 129 cuadr´tico medio. 98. 145 normal. 367 continua. 101. 95. 369 log gama. 99. 231. 263. 182 uniforme bivariada. 95 Error absoluto medio. 101. 367 exponencial doble. 347 condicional. 94. 94 multinomial. 270 gama. 27 medible. 369 e multivariada. 371 trinomial. 144 Cauchy. 129 Desviaci´n est´ndar. 371 Rayleigh. 105 a multivariada.

15 medible. 132 Funci´n de densidad. 316 casi seguro. 272 de momentos. 376 de eventos. 81 gama. 161 conjunta.. 2 Igualdad simple. 160 d´bil. 34 de densidad. 374 teorema de unicidad. 80 F´rmula o en distribuci´n. 2 de momentos factoriales. 75 de v. 80 de probabilidad. 144 marginal. 374 u teorema de continuidad. 15 f´rmula de inversi´n. 68 de una v. 330. 323 de eventos. 362 a marginal.a.a. 354 Funci´n de distribuci´n. 51 o o Imagen inversa. 88 o acumulada. 103 de σ-´lgebras. 156 Matriz de correlaci´n. 149 Estad´ ıstica. 261 Funci´n generadora o Estad´ ısticas de orden. 61 de clases.. 68 o de eventos. 317 Evento. 181 o .s. 334 Lema de Abel. 102 L´ ımite inferior indicadora.a. 311 compuesto. 111 L´ ımite superior Funci´n caracter´ o ıstica.386 ´ Indice de una funci´n de un vector. 36 de acumulaci´n de prob. 352 e conjunta. 36 a Borel medible. 152 en media cuadr´tica. 75 Integral de Riemann-Stieltjes. 112 de n´meros. 352 u condicional. 163 de masa de probabilidad. 76 o Ley de los grandes n´meros. 168 Funci´n de probabilidad o o de una funci´n de una v. 333 Ley de eventos raros. 375 Funci´n o Independencia beta. 85 conjunta. 158 fuerte. 68 o o condicional. 2 casi segura. 167 de probabilidad. 374 u signo. 80 o de inclusi´n y exlusi´n. 75 de vectores. 333 o o de n´meros.

94 Momentos. 357 de Poisson. 353 geom´trica. 92 absolutos.. 276 Regla del producto.a. 27 Valor esperado. 305 de convergencia mon´tona. 262 Mediana de una v. 261 Paradoja de San Petersburgo. 85 Variable aleatoria. 76. 85 promedio.. 58 inducida por una v. 76 discreta. 27 de Bernoulli. 77 singular.´ Indice de covarianzas. 112 Moda de una v. 85 muestral. 21 a condicional.. 180 Media.a. 119 Probabilidad axiom´tica. 236 de convergencia dominada. 223 de un vector.a. 262 Vector aleatorio.a. 179 de una v. 303 o de de Moivre-Laplace. 22 e Problema de los momentos. 58 Medida de probabilidad. 26 frecuentista. 20 inducida.. 92 Muestra aleatoria. 53 Semi´lgebra. 92 factoriales. 92 Rango de una m. 141 continuo. 75. 58 continua. 10 a Teorema 387 central del l´ ımite. 143 discreto.. 233. 358 de Bayes. 93 muestral. 20 a cl´sica. 75 mixta. 92 centrales. 143 . 132 de probabilidad total. 352 de cambio de variable. 92 centrales absolutos.a. 90 muestral. 77 Varianza condicional. 85 medio. 285 Medibilidad. 2. 230.

Sign up to vote on this title
UsefulNot useful