Curso intermedio de PROBABILIDAD

Luis Rinc´n o Departamento de Matem´ticas a Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´xico DF e Versi´n: Octubre 2007 o

Una versi´n actualizada del presente texto se encuentra disponible en formato o electr´nico en la direcci´n http://www.matematicas.unam.mx/lars o o

ii

Contenido

1. Espacios de probabilidad 1.1. Espacios de probabilidad . 1.2. σ-´lgebras . . . . . . . . . a 1.3. Medidas de probabilidad . 1.4. Independencia de eventos 1.5. Lema de Borel-Cantelli . . 1.6. Ejercicios . . . . . . . . .

. . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

1 1 3 20 33 37 42 57 57 68 74 81 84 94 100 108

2. Variables aleatorias 2.1. Variables aleatorias . . . . . . 2.2. Funci´n de distribuci´n . . . o o 2.3. Tipos de variables aleatorias . 2.4. Integral de Riemann-Stieltjes 2.5. Caracter´ ısticas num´ricas . . e 2.6. Distribuciones discretas . . . 2.7. Distribuciones continuas . . . 2.8. Ejercicios . . . . . . . . . . . 3. Vectores aleatorios 3.1. Vectores aleatorios . . . 3.2. Distribuci´n conjunta . o 3.3. Densidad conjunta . . . 3.4. Distribuci´n marginal . o 3.5. Distribuci´n condicional o . . . . . . . . . . . . . . .

141 . 141 . 144 . 149 . 156 . 160

iii

3.6. Independencia . . . . . . . . . . . . . . . . . . . . 3.7. Esperanza de una funci´n de un vector aleatorio o 3.8. Covarianza . . . . . . . . . . . . . . . . . . . . . 3.9. Coeficiente de correlaci´n . . . . . . . . . . . . . o 3.10. Esperanza y varianza de un vector aleatorio . . . 3.11. Distribuciones multivariadas discretas . . . . . . 3.12. Distribuciones multivariadas continuas . . . . . . 3.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 4. Esperanza condicional 4.1. Esperanza condicional 4.2. Esperanza condicional: 4.3. Algunas propiedades . 4.4. Varianza condicional . 4.5. Ejercicios . . . . . . . . . . . . . . . caso discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

163 168 171 173 179 181 183 186 213 214 216 221 223 226

5. Transformaciones 229 5.1. Transformaci´n de una variable aleatoria . . . . . . . . . . . . 229 o 5.2. Transformaci´n de un vector aleatorio . . . . . . . . . . . . . 235 o 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 6. Dist. muestrales y estad´ ısticas de orden 261 6.1. Distribuciones muestrales . . . . . . . . . . . . . . . . . . . . 263 6.2. Estad´ ısticas de orden . . . . . . . . . . . . . . . . . . . . . . . 271 6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 7. Convergencia 7.1. Tipos de convergencia . . . . . . . . . . . . 7.2. Relaciones entre los tipos de convergencia . 7.3. Dos resultados importantes de convergencia 7.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 287 297 303 306

8. Funciones generadoras 311 8.1. Funci´n generadora de probabilidad . . . . . . . . . . . . . . 311 o 8.2. Funci´n generadora de momentos . . . . . . . . . . . . . . . . 316 o iv

8.3. Funci´n caracter´ o ıstica . . . . . . . . . . . . . . . . . . . . . . 323 8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336 9. Dos 9.1. 9.2. 9.3. 9.4. teoremas l´ ımite Algunas desigualdades . . . Ley de los grandes n´meros u Teorema central del l´ ımite . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 347 352 357 360 365 373

A. Distribuciones de probabilidad B. Conceptos y resultados varios

v

vi

Pr´logo o

El presente texto est´ dirigido a estudiantes de mitad de carrera de las a licenciaturas de matem´ticas, actuar´ y ´reas afines. Contiene el material a ıa, a b´sico para un segundo curso de probabilidad, y tiene como origen las notas a de clase del curso semestral de Probabilidad II, que he impartido durante los ultimos a˜os en la Facultad de Ciencias de la UNAM. ´ n El ´nfasis de este segundo curso se centra en la formalizaci´n de algunos e o conceptos estudiados en un primer curso de probabilidad, y en el estudio de vectores aleatorios y sus varios conceptos relacionados. El lector puede comprobar que se hace poco ´nfasis en las aplicaciones, y que la exposici´n e o cubre principalmente el desarrollo matem´tico. El objetivo es que despu´s a e de este curso, el estudiante pueda continuar con facilidad con un curso de estad´ ıstica matem´tica, de procesos estoc´sticos, o tal vez un curso avana a zado de probabilidad o de teor´ de la medida, teniendo como elementos ıa b´sicos los conceptos te´ricos aqu´ desarrollados. En particular se incluye a o ı un cap´ ıtulo sobre esperanza condicional, cuyo uso y aplicaci´n es cada vez o m´s frecuente. Tambi´n se incluye un cap´ a e ıtulo sobre distribuciones muestrales y estad´ ısticas de orden, con aplicaciones inmediatas en temas de la estad´ ıstica matem´tica. a Al final de cada cap´ ıtulo el lector encontrar´ una lista de ejercicios separaa dos por temas. La mayor´ de estos ejercicios son de tipo mec´nico, algunos ıa a de ellos son muy sencillos de modo que el t´rmino ejercicios me parece e justo y adecuado. Pocos de estos ejercicios son originales, la mayor parte de vii

y las gr´ficas fueron elaboradas usando el paquete pstricks. y he buscado plasmar ese gusto en este a A a texto. un resultado. El n´mero de ejercicios excede lo que o u normalmente puede realizarse en un semestre. Personalmente me gustan los libros con im´genes y diagramas. En o este sentido. La intenci´n de contar con este material es o la de crear confianza y soltura por parte del alumno en el manejo de los conceptos y notaci´n involucrados. o y creo que ser´ particularmente util al estudiante con poco tiempo para a ´ leer p´rrafos completos. Tambi´n he intentado que la a a o e notaci´n fuera lo m´s simple y m´ o a ınima posible. Algunos de estos textos no han sido mencionados expl´ ıcitamente pero aparecen en la lista por que en alg´n momento he obtenido inspiraci´n de ellos. o tal vez orientaci´n breve acerca de un concepto. han contribuido al mee joramiento de este texto. y asignar algunos otros para preguntas de examen.ellos son modificaciones de ejemplos o resultados cl´sicos que se encuentran a en la larga literatura existente. un ejercicio. y el objetivo que siempre tuve en mente estos a˜os fue el tener un n´mero suficiente de ellos para n u presentar algunos en clase. u o Agradezco sinceramente a todas aquellas personas. dejar otros para trabajo en casa. alumnos y profesores. Al final del texto aparece una lista de referencias que me permito sugerir al lector consultar para profundizar y a veces precisar en determinados temas. lo cual ha sido realmente un placer. una o versi´n electr´nica actualizada. hasta donde me sea posible. usando material ligeramente distinto cada semestre para evitar repeticiones. Durante la exposici´n de los temas o el lector encontrar´ tambi´n algunos otros ejercicios propuestos y algunos a e ejemplos resueltos. y los enunciados est´n enmarcados para su f´cil localizaci´n. corregida y gratuita del presente texto. Este material fue escrito en L TEX. Cualquier correcci´n o comentario acerca de este o trabajo ser´ muy bien recibido en el correo electr´nico que aparece abajo. un a o o ejemplo. quienes a trav´s de sus comentarios y sugerencias. a o Es mi intenci´n mantener en el futuro. La o o p´gina web donde puede obtenerse es a viii . La presentaci´n del material mantiene la estructura de las notas de clase. y quien s´lo busca una definici´n. el libro contiene tablas a manera de resumen.

mx/lars Por ultimo.unam. Gracias a todos por su confianza y apoyo. ´ en gran medida.http://www.unam.mx ix .matematicas. me parece importante mencionar que este texto ha sido posible. al excelente ambiente de trabajo y de libertad acad´mica e que he tenido la fortuna de encontrar en el Departamento de Matem´ticas a de la Facultad de Ciencias de la UNAM. Luis Rinc´n o Diciembre 2006 Ciudad Universitaria UNAM lars@fciencias.

.

Espacios de probabilidad El modelo matem´tico creado durante el primer tercio del siglo XX para a estudiar los experimentos aleatorios es el as´ llamado espacio de probabiliı dad.1. y P es una medida de probabilidad definida sobre F . F es una σ-´lgebra de a subconjuntos de Ω. denotada usualmente por (Ω.Cap´ ıtulo 1 Espacios de probabilidad La teor´ de la probabilidad es la parte de las matem´ticas que se encarga ıa a del estudio de los fen´menos o experimentos aleatorios. la teor´ de la probabilidad tiene el objetivo de modelar ıa matem´ticamente cualquier experimento aleatorio de inter´s. Se entiende por o experimento aleatorio todo aquel experimento tal que cuando se le repite bajo las mismas condiciones iniciales. en donde Ω es un conjunto arbitrario. y en consecuencia se considera aleatorio. F . Bajo estas circunstancias. P ). Explicamos a continuaci´n brevemente cada uno de estos elementos. el resultado que se obtiene no siempre es el mismo. es necesario aceptar que no es posible predecir el resultado de un experimento particular a´n u cuando se le haya efectuado con anterioridad varias veces bajo las mismas condiciones iniciales. Este modelo consiste de una terna ordenada. o 1 . A menudo. a e 1. y por muy diversas razones.

Una funci´n P definida sobre una σ-´lgebra F o a y con valores en el intervalo [0. se usa el t´rmino medible. en donde Ω es un conjunto arbitrario. a Medida de probabilidad. . El conjunto Ω es llamado espacio muestral o espacio muestra.1. aunque tal e vez lo correcto sea decir mensurable. En particular. es decir.2 1. Tenemos entonces formalmente la siguiente definici´n. si cumple que P( ∞ An ) = ∞ n=1 P (An ). o conjuntos mea dibles. El n´mero P (A) representa una forma de medir la posibilidad de observar u la ocurrencia del evento A. F es una σ-´lgebra de subconjuntos de Ω. A2 . Ai ∩ Aj = ∅ para valores de i y j distintos. y es compuesto cuando a consta de dos o m´s elementos de Ω. y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti´n. Debido a su uso extendido. son elementos de F que cumplen con la condici´n de ser ajenos dos a dos. n=1 o cuando A1 . Espacios de probabilidad Espacio muestral. . ´ σ-algebra. (Espacio de probabilidad). y P es una medida de probabilidad a definida sobre F . El t´rmino σ-´lgebra se lee “sigma-´lgebra”. No existen reglas establecidas para ello y adem´s la posible asige a . Un espacio de probabilidad es una terna (Ω. El objetivo es asociar un espacio de probabilidad al experimento aleatorio de inter´s. F . A los e a a elementos de una σ-´lgebra se les llama eventos . . o ´ Definicion. P ). esto es. Una clase o colecci´n no vac´ F de subconjuntos de Ω es o ıa una σ-´lgebra si es cerrada bajo las operaciones de tomar complementos a y uniones numerables. y matem´ticamente se le considera entonces como un o a conjunto arbitrario. 1] es una medida de probabilidad si P (Ω) = 1 y es σ-aditiva. sucesos. un evento es simple o elemental si consta de a lo m´s un elemento de Ω. No es imprescindible darle esta interpreo taci´n al conjunto Ω. al efectuar una vez el experimento aleatorio.

evento). . una σ-´lgebra es una colecci´n de subconjuntos de Ω que no a o es vac´ y que es cerrada bajo las operaciones de tomar complemento y ıa efectuar uniones infinitas numerables. se puede o ´ e asociar un espacio de probabilidad u otro. Recordemos nuevamente la definici´n de esta estructura. A2 . . 2. Estas propiedades garantizan que la colecci´n es cerrada al efectuar las operaciones usuales entre conjuntos. ∈ F . entonces Ac ∈ F . 3. complemento. Una colecci´n o F de subconjuntos de Ω es una σ-´lgebra si cumple las siguientes cona diciones: 1. es o decir. se obtienen nuevamente elementos de la misma e colecci´n. diferencia sim´trica. Si A1 . al tomar las operaciones de uni´n.2. a a Empecemos con el primero. o ´ ´ Definicion. 1. espacio medible. En palabras. A la pareja (Ω. σ-´lgebras a En esta secci´n se estudia el concepto de σ-´lgebra y se define la m´ o a ınima σ-´lgebra generada por una colecci´n arbitraria de subconjuntos del espacio a o muestral. F ) se le llama espacio medible y a los elementos de F se les llama eventos o conjuntos medibles. (σ-algebra. intersecci´n. entonces ∞ n=1 An ∈ F . En este primer cap´ ıtulo se estudian con m´s detalle los conceptos de σ-´lgebra y medida de probabilidad. Espacios de probabilidad 3 naci´n no es unica. o . difereno o cia. Ω ∈ F . . etc.Cap´ ıtulo 1. pues dependiendo del inter´s del observador. Si A ∈ F .

Sea Ω un conjunto no numerable.2. Ac . F dada por {A ⊆ Ω : A o A a . Ω} Ejercicio. en donde A ⊆ Ω. a a) F1 = {∅. conjunto potencia. o Cuando el espacio muestral es finito normalmente se toma como σ-´lgebra a el conjunto potencia de Ω. Demuestre que la colecci´n o c es finito o numerable} es una σ-´lgebra. b) F2 = {∅. B c . que cada una de las siguientes colecciones es una σ-´lgebra de subconjuntos a de Ω. es por ello que se estudian estas estructua a n ras. B − A. A. Sean A y B subconjuntos de Ω tales que A ⊆ B. Ac . y esta ese tructura constituye el dominio de definici´n de una medida de probabilidad. Una σ-´lgebra es a entonces una estructura que nos permite agrupar ciertos subconjuntos de Ω de inter´s. ¿Puede usted verificar tal afirmaci´n con la ayuda o de un diagrama de Venn? F = {∅. pero para espacio muestrales m´s generales no a siempre puede tomarse esa estructura tan grande. c) F3 = 2Ω . y deben considerarse entonces σ-´lgebras m´s peque˜as. σ-algebras En probabilidad elemental el conjunto Ω denota el espacio muestral o conjunto de posibles resultados de un experimento aleatorio. Ejemplo. B. Ω}. aquellos a los cuales se desea calcular su probabilidad. La σ-´lgebra del primer inciso es la σ-´lgebra m´s peque˜a que poa a a n demos asociar a un conjunto cualquiera Ω. (B − A)c . y los elementos de F representan eventos en el experimento aleatorio.4 ´ 1. Ω}. ıo o Ejemplo Sea Ω un conjunto cualquiera no vac´ Es inmediato comprobar ıo. y la σ-´lgebra del ultimo inciso a ´ es la m´s grande. En general existen varias σ-´lgebras que pueden asociarse a un conjunto a cualquiera no vac´ Ω como se muestra a continuaci´n. La siguiente colecci´n es una σ-´lgebra de subconjuntos de Ω que contiene expl´ o a ıcitamente a los conjuntos A y B. A.

∈ F . A menudo se usa tambi´n el t´rmino σ-campo en lugar e e de σ-´lgebra. El uso de la letra a F para denotar una σ-´lgebra proviene del nombre en ingl´s “field” que a e significa campo. Demostraremos a continuaci´n o o algunas otras propiedades generales de las σ-´lgebras. o 1. 3.} de subcona o juntos que no es vac´ y que es cerrada bajo complementos y uniones numerables. ıa En la Figura 1. En la secci´n de ejercicios o o se pueden encontrar algunos otros ejemplos de σ-´lgebras. Como Ω ∈ F y F es una colecci´n cerrada bajo complementos. . Sea F una σ-´lgebra de subconjuntos de Ω. Observe con cuidado el uso y significado de los s´ a ımbolos de contenci´n y pertenencia: A ⊆ Ω y A ∈ F . . Demostraci´n. C. . ∅ ∈ F . B ∈ F . 2. A2 . Si A1 . a ´ Proposicion.1: Una σ-´lgebra es una colecci´n F = {A.1 puede observarse una representaci´n gr´fica de una σo a a ´lgebra como una colecci´n de subconjuntos de Ω. E. . eno . y A△B ∈ F . . Entonces a 1. Espacios de probabilidad 5 B C A D Ω E Figura 1. D. . entonces ∞ n=1 An ∈ F . Si A.Cap´ ıtulo 1. B. entonces A − B ∈ F .

σ-algebras 2. es decir. ∈ F . ´ 1. . A2 . 3. La intersecci´n de dos σ-´lgebras es una σ-´lgebra. Por lo tanto ∞ Ac ∈ 1 2 n=1 n F .2. a a) Como F1 y F2 son σ-´lgebras. este es el contenido del siguiente resultado. .6 tonces Ωc = ∅ ∈ F . . . . entonces Ac . o a a Demostraci´n. La proposici´n anterior establece entonces que las σ-´lgebras son estruco a turas tambi´n cerradas bajo las operaciones de diferencia e intersecciones e numerables. Tomando complementos y usando las leyes de De Morgan se obtiene el resultado. y que involua cran las operaciones de la proposici´n anterior. ∈ F . . n=1 An ∈ F1 ∩ F2 . b) Sea A un elemento en F1 ∩ F2 . o o ∞ Entonces A1 . . Por lo tanto Ac ∈ F1 y Ac ∈ F2 . Si A1 . a ´ Proposicion. A2 . Ac ∈ F1 ∩ F2 . . entonces Ω ∈ F1 y Ω ∈ F2 . Entonces F1 ∩ F2 es aquella colecci´n de subconjuntos de Ω cuyos eleo mentos pertenecen tanto a F1 como a F2 . . Sean F1 y F2 dos σ-´lgebras de subconjuntos de un mismo o a Ω. Estas proposiciones se siguen de lo demostrado antes y de las definiciones A − B := A ∩ B c . es decir. A2 . En la secci´n de ejercicios pueden encontrarse algunas otras deo finiciones de σ-´lgebra equivalentes a la que hemos enunciado. una sucesi´n de elementos en la intersecci´n F1 ∩ F2 . Entonces A ∈ F1 y A ∈ F2 . . . Ac . y A△B := (A − B) ∪ (B − A). ∈ F2 . . . . Una operaci´n de particular o o importancia es aquella en la que se intersectan dos σ-´lgebras produciendo a una nueva σ-´lgebra. . Por lo tanto a Ω ∈ F1 ∩ F2 . Demostraremos que F1 ∩ F2 es una σ-´lgebra. . ∈ F1 y A1 . c) Sea A1 . Por lo tanto n=1 An ∈ F1 y ∞ ∞ n=1 An ∈ F2 . A2 .

a Es decir. denotada por σ(C ). F2 . La intersecci´n finita. Sea C una colecci´n no vac´ de o ıa subconjuntos de Ω. naturalmente m´s peque˜a que F1 y F2 en el sentido F1 ∩ F2 ⊆ a n F1 . En general no es cierto que la uni´n de dos σ-´lgebras produce una o a nueva σ-´lgebra. a ´ Proposicion. entonces F1 ∩F2 es nuevamente una σ-´lgebra de subconjuntos a de Ω.Cap´ ıtulo 1. Sea T un conjunto arbitrario distinto del vac´ Suponga o ıo. Por a e otro lado se puede extender la validez de la proposici´n reci´n demostrada o e a intersecciones m´s generales como indica el siguiente resultado. V´anse por ejemplo los ejercicios 9 y 10 a este respecto. Observe que como T es un conjunto a a arbitrario. que para cada t en T se tiene una σ-´lgebra Ft de subconjuntos de Ω. La σ-´lgebra generada por C . Por la proposici´n anterior sabemos que σ(C ) es una o . Sea a F = t∈T Ft . En este caso la respuesta es a a negativa. La siguiente pregunta consiste en verificar si la uni´n de dos σo ´lgebras produce nuevamente una σ-´lgebra. a es la colecci´n o σ(C ) = {F : F es σ-´lgebra y C ⊆ F }. Espacios de probabilidad 7 Hemos entonces comprobado que si F1 y F2 son dos σ-´lgebras de un mismo a conjunto Ω. (σ-algebra generada). a a Demostraci´n. la σ-´lgebra F es efectivamente una intersecci´n arbitraria de a o σ-´lgebras. a Lo demostrado anteriormente garantiza que la siguiente definici´n tiene seno tido. infinita numerable o bien arbitraria o de σ-´lgebras es nuevamente una σ-´lgebra. ´ ´ Definicion. Siguiendo los mismos pasos que en la demostraci´n anterior o es f´cil probar que F es una σ-´lgebra. la colecci´n σ(C ) es la intersecci´n de todas aquellas σ-´lgebras o o a que contienen a C .

¿Puede a o usted demostrar tal afirmaci´n? o σ(C ) = {∅. B c . si F es una σ-´lgebra n o a que contiene a C . a e ı a y el adjetivo m´nima es claro a partir del hecho de que es la σ-´lgebra m´s ı a a peque˜a que contiene a la colecci´n C .2. Los siguientes dos resultados son proposiciones sencillas y naturales acerca de σ-´lgebras generadas. A ∪ B. Ac . Sean C1 y C2 dos colecciones de subconjuntos de Ω tales que C1 ⊆ C2 . B. Es decir. Entonces σ(C1 ) ⊆ σ(C2 ). Las demostraciones son cortas pero requieren a algunos momentos de reflexi´n en una primera lectura. entonces σ(F ) ⊆ F . Observe que C ⊆ σ(C ) pues a la colecci´n C se le han a˜adido posiblemente algunos otros o n subconjuntos para convertirla en la σ-´lgebra σ(C ). A. σ-algebras σ-´lgebra. B}. Sean A. entonces σ(F ) = F . o En general esta colecci´n no es una σ-´lgebra pero podemos a˜adirle algunos o a n subconjuntos de Ω para encontrar la σ-´lgebra generada por C . Demostraci´n. a Ejemplo. A σ(C ) tambi´n se le llama m´nima σ-´lgebra generada por C . (A ∪ B)c . Defina la colecci´n C = {A. o ´ Proposicion. . B ⊆ Ω con A y B ajenos.8 ´ 1. Sabemos que F ⊆ σ(F ). Resulta que a la m´ ınima σ-´lgebra que contiene a la colecci´n C es la siguiente. Entonces σ(C2 ) es una σo ´lgebra que contiene a la colecci´n C1 . a Demostraci´n. a o ´ Proposicion. Ω}. Si F es una σ-´lgebra. Por otro lado como F es una σo a ´lgebra que contiene a F . entonces forzosamente σ(C ) ⊆ F . Claramente C1 ⊆ C2 ⊆ σ(C2 ). Esto demuestra la igualdad. Por lo tanto σ(C1 ) ⊆ σ(C2 ).

. o o ´ ´ Definicion. y su o a a relaci´n con σ-´lgebras. Demuestre que σ(σ(C )) = σ(C ). en donde C1 y C2 son dos colecciones no vac´ de subconjuntos de Ω. Si A1 . . Demuestre que σ(C1 ∪ C2 ) = σ( σ(C1 ) ∪ σ(C2 ) ). No estudiaremos estas estructuras con detalle pero o a las mencionamos porque desempe˜an un papel importante en la construcn ci´n y extensi´n de medidas de probabilidad. Ejercicio. An ∈ A . .Cap´ ıtulo 1. o Claramente toda σ-´lgebra es una ´lgebra. Una colecci´n A de subconjuntos de Ω es una o a ´lgebra si cumple las siguientes condiciones: 1. n 3. Espacios de probabilidad 9 Ejercicio. a a . entonces k=1 Ak ∈ A . ıas Otras estructuras de subconjuntos En esta secci´n se presentan los conceptos de ´lgebra y semi-´lgebra. 2. . en donde C una colecci´n de o subconjuntos de Ω. entonces Ac ∈ A . Si A ∈ A . (Algebra). La diferencia entre una ´lgebra y una σ-´lgebra estriba en que para la a a primera se pide que sea una colecci´n cerrada bajo uniones finitas mientras o que la segunda es una colecci´n cerrada bajo uniones infinitas numerables. Ω ∈ A .

3. .10 ´ 1. Si A. . o a a a A continuaci´n se estudia un ejemplo particular de σ-´lgebra de subconjuno a tos de n´meros reales: la σ-´lgebra de Borel. . An son ajenos dos a dos y se cumple que n A= k=1 Ak . .2: Relaci´n general entre σ-´lgebras. B ∈ S . A1 ∈ S son tales que A1 ⊆ A. u a . En la secci´n de ejercicios se pide demostrar o las implicaciones y no implicaciones que se obtienen de este diagrama.2.2. (Semialgebra). . . ´lgebra y semi´lgebra est´n relacionados como a a a a se muestra en la Figura 1. Ω ∈ S . Los conceptos de σ-´lgebra. σ-algebras ´ ´ Definicion. 2. An ∈ S tales que los subconjuntos A1 . ´lgebras y semi´lgebras. entonces existen A2 . σ-´lgebras a a ´lgebras semi´lgebras a Figura 1. Si A. Una colecci´n S de subconjuntos de Ω o es una semi´lgebra si cumple las siguientes condiciones: a 1. . . entonces A ∩ B ∈ S .

(a. los intervalos u [a. Siendo B(R) una σ-´lgebra. y se le denota por B(R). a ´ Proposicion. De esta forma se puede asociar la σ-´lgebra B(R) a al conjunto de n´meros reales. B(R) = σ { (a.Cap´ ıtulo 1. ´ ´ Definicion. b). Primeramente observe que los intervalos cerrados [a. Demostraci´n. ∞). b). (−∞. (a. De esta forma se concluye que cada intervalo cerrado es un conjunto . A la m´ ınima σ-´lgebra generada por esta colecci´n se le llama σa o a ´lgebra de Borel de R. y obtener as´ el espacio medible (R. pues podemos escribirlos en t´rminos de una intersece ci´n numerable de intervalos abiertos de la siguiente forma o ∞ [a. b] y {a}. A los elementos de B(R) se les llama conjuntos de Borel . b]. la intersecci´n infinita es un elemento de a o B(R). b] = n=1 (a − 1 1 . b) de R. (σ-algebra de Borel de R). b) ⊆ R : a ≤ b } . son todos elementos de B(R). Espacios de probabilidad 11 Conjuntos de Borel Considere la colecci´n de todos los intervalos abiertos (a. n n Observe que cada elemento de la intersecci´n anterior es un conjunto Boreo liano. b + ). u ı Se muestran a continuaci´n algunos elementos expl´ o ıcitos de esta σ-´lgebra. B(R)). [a. en donde o a ≤ b. b] son o conjuntos Borelianos. Borelianos o conjuntos Borel medibles. Para cualesquiera n´meros reales a ≤ b.

Los conjuntos que constan de un solo n´mero tambi´n son conjuntos Borelianos pues u e {a} = ∞ n=1 (a − 1 1 . Adem´s de la definici´n enunciada. a + n) ∈ B(R). b) y (a. b] = ∞ n=1 ∞ n=1 (a − 1 . o . (b − n. Este hecho puede utilizarse para comprobar los siguientes resultados. Por lo tanto [a.2. Este es el contenido de la siguiente proposici´n. n 1 ) ∈ B(R). intersecciones y uniones numerables de estos conjuntos son todos ellos Borelianos. a + ). Z y Q son elementos de B(R). b] son conjuntos Borelianos. n n Complementos. ∞) = y (−∞. b) ∈ B(R). Demuestre adem´s que el conjunto de n´meros irracionales es un conjunto a u de Borel de R. n (−∞. σ-algebras de Borel. existen otras formas equivalentes de a o generar a los conjuntos Borelianos.12 ´ 1. As mismo tenemos que (a. Demuestre directamente que N. Ejercicio. ∞) = y (−∞. ∞) ∈ B(R). b) = ∞ n=1 ∞ n=1 (a. b + De forma an´loga se puede hacer ver que los intervalos semiabiertos de la a forma [a.

σ { (a. b) : b ∈ R }. Para demostrar que B(R) = σ{[a. b) : a ≤ b} ⊆ σ{[a. σ { [a. 4. Sabemos que (a. Claramente [a. b] : a ≤ b} ⊆ B(R). como por ejemplo [5] o [14]. Entonces {(a. el resto de ellos se o ´ demuestra usando el mismo procedimiento. y por tanto tampoco Borel medibles. Los detalles de estas afirmaciones pueden encontrarse en textos de teor´ de la medida. b] : o ∞ 1 1 a ≤ b} pues (a. b) : a ≤ b }. Ahora se demuestra la contenci´n contraria. y puede obtenerse indirectao mente de la siguiente forma: la colecci´n B(R) est´ contenida en una clase o a m´s amplia llamada la colecci´n de conjuntos Lebesgue medibles de R. 2. u o La construcci´n del tal conjunto no es sencilla. La respuesta es negativa. σ { (−∞. 5. σ { [a. b] : a ≤ b} se verifican ambas contenciones. b] : a ≤ b }. b] : a ≤ b}. 3. Espacios de probabilidad 13 ´ Proposicion. b] ∈ B(R). b] : a ≤ b} ⊆ B(R). Las siguientes σ-´lgebras son todas id´nticas a B(R). b) ∈ σ{[a. b) = n=1 [a + n . b − n ]. ıa Es posible tambi´n considerar la σ-´lgebra de conjuntos de Borel restringie a dos a una porci´n de los n´meros reales como se indica a continuaci´n. De manera equivalente se puede definir a B(R) como la m´ ınima σ-´lgebra a generada por todos los subconjuntos abiertos de R. b] : a ≤ b }.Cap´ ıtulo 1. Se prueba unicamente el primer inciso. En ambos casos la σa ´lgebra generada es B(R). o u o . Demostraci´n. y se a o demuestra que existen subconjuntos de R que no son Lebesgue medibles. a e 1. Por lo tanto B(R) ⊆ σ{[a. b] : a ≤ b}. por lo tanto {[a. puede demostrarse que existe un subconjunto de los n´meros reales que no pertenece a la colecci´n B(R). Es natural preguntarse si la colecci´n B(R) contiene a todos los subconjuno tos de R. σ { (a. Entonces σ{[a. es decir. ∞) : a ∈ R }.

Observe que el nuevo conjunto total es A y no R. Sea A ∈ B(R). b) × (c. Se definen los conjuntos de Borel de R2 como los elementos de la m´ ınima 2 ) = σ(C ). La σ-´lgebra de Borel de A. o o a ´ Ejercicio. Se define entonces la σ-´lgebra producto como a . es decir. De manera σ-´lgebra generada por la colecci´n C .2. σ-algebras ´ Definicion. Demuestre que el producto cartesiano de dos σ-´lgebras no es necesariamente σ-´lgebra. Mediante un ejemplo muestre que F1 × F2 no necesariamente es una σ-´lgebra de subconjuntos a del espacio producto Ω1 ×Ω2 . En forma an´loga a n ) usando productos cartesianos de intervalos. denotada por a B(A) o por A ∩ B(R). F1 ) y (Ω2 . es decir. B(Rn ) = σ(B(R) × · · · × B(R)). de modo que debe anteponerse la operaci´n σ a tal colecci´n para convertirla en una σ-´lgebra. El concepto de σ-´lgebra de Borel de R puede extenderse a dimensioa nes mayores de la siguiente forma. d) : a ≤ b. En general el producto cartesiano de dos σ-´lgebras no es una σ-´lgebra a a de subconjuntos del espacio producto. (σ-algebra de Borel de Rn ). (σ-algebra producto). c ≤ d}. No es dif´ comprobar que la colecci´n B(A) es efectivamente una σ-´lgeıcil o a bra de subconjuntos de A. B(R a o equivalente se puede definir B(R2 ) = σ(B(R) × B(R)). Esto es. se define como sigue B(A) = {A ∩ B : B ∈ B(R)}. a C = {(a.14 ´ 1. suponga a a que (Ω1 . se define B(R ´ ´ Definicion. Considere la colecci´n C de todas los o rect´ngulos abiertos de R2 . F2 ) son dos espacios medibles.

e ´ Definicion. Espacios de probabilidad σ(F1 × F2 ). Es sencillo tambi´n comprobar que e l´ inf An ⊆ l´ sup An . En o o . n=1 k=n ∞ ∞ 2. el resultado siempre existe y es unico. pertenece a una infinidad de elementos de la sucesi´n. es decir. n=1 k=n Tanto el l´ ımite superior como el l´ ımite inferior son operaciones bien definidas. Para una sucesi´n de o eventos {An : n ∈ N}. y s´lo si. Para enunciar tal concepto necesitaremos antes las definiciones de l´ ımite superior y l´ ımite inferior para conjuntos. Demuestre que la σ-´lgebra σ {(a. Estas definiciones son an´logas al caso de sucesiones num´ricas como puede consultarse en un a e ap´ndice al final del texto. es decir.Cap´ ıtulo 1. se define el l´ ımite superior y el l´ ımite inferior como sigue: 1. ım ım n→∞ n→∞ Tampoco es dif´ verificar que un elemento pertenece al evento l´ ıcil ımite superior si. (L´ ımite superior e inferior). l´ inf An = ım n→∞ Ak . el conjunto ´ resultante es siempre un evento. Sucesiones de eventos En esta secci´n se estudia el concepto de convergencia de una sucesi´n infio o nita de eventos. b) × (c. 15 Ejercicio. En cada caso. d) : a ≤ b. un conjunto medible. l´ sup An = ım n→∞ ∞ ∞ Ak . c ≤ d} a coincide con σ(B(R) × B(R)).

y An = [0. Entonces l´ An = {0} pues ım n→∞ l´ sup An = ım n→∞ ∞ ∞ Ak = Ak = ∞ y l´ inf An = ım n→∞ n=1 k=n ∞ ∞ n=1 k=n n=1 ∞ n=1 [−1/n. A si n es impar. (Convergencia de eventos). Si existe un evento A tal que o ım l´ inf An = l´ sup An = A. σ-algebras algunos textos de habla inglesa el evento l´ ımite superior se escribe (An i. Sea {An : n ∈ N} una sucesi´n de eventos. pertenece a todos o los elementos de la sucesi´n excepto un n´mero finito de ellos. y se escribe o l´ An = A.2. entonces a tal resultado com´n se le llama el l´ u ımite de la sucesi´n. . ım n→∞ n→∞ n→∞ entonces se dice que la sucesi´n converge al evento A.o. {0} = {0}. Ejercicio. An = Ac si n es par. Por otro lado un elemento pertenece al evento l´ ımite inferior si.o. 1/n] = {0}. Para cada n´mero natural n defina el conjunto An = [−1/n.). significan “infinitely often”. ım Para calcular el posible l´ ımite de una sucesi´n de eventos debemos entonces o calcular el l´ ımite superior y el l´ ımite inferior.16 ´ 1. o Ejemplo. Con estos o u conceptos podemos ahora establecer la definici´n de convergencia de una o sucesi´n de eventos. Demuestre que la siguiente sucesi´n de eventos o no es convergente. 1/n] si n es par. y cuando el resultado de ambas operaciones coincida. y s´lo si. o ´ Definicion. 0] u si n es impar. Sea A un evento. en donde las letras i.

Si A1 ⊆ A2 ⊆ · · · .Cap´ ıtulo 1. o 1. . Si A1 ⊇ A2 ⊇ · · · . Demostraci´n. ´ Proposicion. Como la sucesi´n es creciente. y l´ inf An = ım n→∞ n=1 k=n ∞ ∞ n=1 k=n n=1 k=1 ∞ n=1 An . M´s adelante presentaremos algunos otros ejemplos cona cretos de sucesiones de eventos. Demostramos a continuaci´n que en particular toda sucesi´n mon´too o o na es convergente. entonces (observe el valor inicial del o sub´ ındice en las operaciones de uni´n e intersecci´n). ∞ ∞ Ak = Ak = ∞ ∞ Ak = ∞ k=1 Ak . y en la secci´n de ejercicios se encuentran o algunos mas. entonces l´ An = ım n→∞ An . o o 1. Sea {An : n ∈ N} una sucesi´n mon´tona de eventos. 2. o o ∞ k=n ∞ k=n Ak = ∞ k=1 Ak . no todas las sucesiones de eventos convergen. y Por lo tanto l´ sup An = ım n→∞ Ak = An . entonces l´ An = ım n→∞ ∞ n=1 ∞ n=1 An . Espacios de probabilidad 17 Como el ejercicio anterior muestra.

y Entonces l´ sup An = ım n→∞ Ak = An .18 ´ 1. En este a caso como la sucesi´n es decreciente se tiene que o ∞ k=n ∞ k=n Ak = ∞ k=1 Ak . n=1 ∞ ∞ n=1 k=1 ∞ Ak = ∞ k=1 Ak . ∞ ∞ Ak = Ak = y l´ inf An = ım n→∞ n=1 k=n ∞ ∞ n=1 k=n An . σ-algebras 2.2. Este procedimiento de separaci´n o o o o ser´ de utilidad m´s adelante. a a . y cuya o uni´n es la uni´n de la sucesi´n original. El procedimiento es completamente an´logo al inciso anterior. El siguiente resultado establece que a partir de una sucesi´n de eventos o puede construirse otra sucesi´n cuyos elementos son ajenos dos a dos.

Consideraremos cada contenci´n por separado. Sea {An : n ∈ N} una sucesi´n de eventos. Sin p´rdida de generalidad suponga que n < m.Cap´ ıtulo 1. Bn ∩ Bm = ∅. ∞ n=1 ∞ n=1 Bn = An . sea x un elemento en . entonces el lado izquierdo es efectivamente un subconjunto del lado derecho. k=1 n−1 Ak ) ∩ (Am − Ac ) ∩ (Am ∩ k Ak ) k=1 m−1 Ac ) k k=1 k=1 An ∩ Ac n 3. Como cada Bn est´ cono a tenido en An . 2. o 1. y Bn = An − Ak . k=1 para n ≥ 2. o 2. Esto es evidente a partir de la definici´n de Bn . si n = m. Demostraci´n. Por el contrario. Espacios de probabilidad 19 ´ Proposicion. Entonces la sucesi´n de eventos {Bn : n ∈ N} satisface las siguientes o propiedades: 1. Defina o n−1 B1 = A1 . Bn ⊆ An . 3. entonces e n−1 m−1 Bn ∩ Bm = (An − = (An ∩ ⊆ = ∅.

Sea (Ω. Por lo tanto x pertenece a ∞ Bn . F ) un espacio medible. Asocie a este conjunto la σ- . Medidas de probabilidad Entonces existe un ´ ındice n tal que x ∈ An . entonces P ( ∞ An ) = ∞ P (An ). Medidas de probabilidad En esta secci´n y en lo que resta del presente cap´ o ıtulo se estudian algunas propiedades de las medidas de probabilidad. Estos axiomas fueron establecidos a por A.20 ∞ n=1 An . con valores en el o a intervalo [0. ´ Ejemplo. . . Entonces / x ∈ An0 − n0 −1 An = Bn0 . Sea n0 el primer ´ ındice tal que x ∈ An0 y x ∈ Aj para 1 ≤ j ≤ n0 − 1. n=1 n=1 Entonces toda funci´n P definida sobre una σ-´lgebra F . (Probabilidad clasica). o ´ Definicion. Empezaremos por recordar nuevamente la definici´n de este concepto. En particular. para cualquier A ∈ F . P (A) ≥ 0. N. An ∩ Am = ∅ para n = m. 1] y que cumpla los tres postulados anteriores se le llama medida de probabilidad o probabilidad axiom´tica. (Medida de probabilidad). Una medida de probabilidad es una funci´n P : F → [0. 2. la tercera propiedad se conoce con el nombre de σ-aditividad. 3. n=1 n=1 1. Si A1 .3.3. 1. esto es. Considere un experimento aleatorio con espacio muestral un conjunto finito Ω. Kolmogorov en 1933. ∈ F son ajenos dos a dos. A2 . 1] que o satisface 1. P (Ω) = 1. .

Cap´ ıtulo 1. Espacios de probabilidad

21

a ´lgebra 2Ω , y para cualquier subconjunto A de Ω defina P (A) = #A/#Ω. Entonces P es una medida de probabilidad, y es llamada probabilidad cl´sica. a De acuerdo a esta definici´n, para calcular la probabilidad de un evento es o necesario entonces conocer su cardinalidad. En los inicios de la teor´ de la ıa probabilidad se consideraban unicamente modelos de este tipo, los cuales ´ eran estudiados en el contexto de los juegos de azar. De esta forma de calcular probabilidades surgen muchos y muy variados problemas de conteo, algunos de los cuales pueden no ser f´ciles de resolver. Por ejemplo, si cuatro a parejas se sientan al azar en una mesa circular, ¿cu´l es la probabilidad de a que ninguna persona se siente junto a su pareja? Ejemplo. Considere un experimento aleatorio con espacio muestral el conjunto de n´meros naturales N. Asocie a este conjunto la σ-´lgebra 2N . Para u a cualquier subconjunto A de N defina 1 P (A) = . 2n
n∈A

Es decir, el n´mero natural n tiene asociada la probabilidad 1/2n , como se u muestra en la Figura 1.3. No es dif´ verificar que P es efectivamente una ıcil medida de probabilidad concentrada en el conjunto de n´meros naturales. u
P (X = x) 1 2

x

1

2

3

4

5

u Figura 1.3: Una medida de probabilidad concentrada en los n´meros naturales.

6 ···

Ejemplo. Considere el espacio medible (R, B(R)). Sea f : R → [0, ∞) una funci´n no negativa y continua, tal que su integral sobre el intervalo o

22

1.3. Medidas de probabilidad

(−∞, ∞) es uno. La funci´n P definida para cualquier conjunto de Borel A o por la siguiente integral, es una medida de probabilidad. P (A) =
A

f (x) dx.

o Ejemplo. (Probabilidad geom´trica). Sea Ω ⊆ R2 una regi´n tal que e su ´rea es positiva y finita. Sea F una σ-´lgebra de subconjuntos de Ω a a para los cuales el concepto de ´rea est´ bien definido. Para cada A en F a e ´ ´ defina P (A) = Area (A)/Area (Ω). La funci´n P resulta ser una medida de o probabilidad, y es llamada probabilidad geom´trica. Esta definici´n puede e o extenderse a espacios de dimensi´n mayor de manera evidente. Un ejemplo o en donde se utiliza esta forma de calcular probabilidades es el siguiente: ¿cu´l es la probabilidad de que una dardo lanzado al azar sobre un tablero a circular de radio unitario caiga en el c´ ırculo circunscrito de radio 1/2? En la siguiente secci´n estudiaremos algunas propiedades generales que cumo ple toda medida de probabilidad, y a lo largo del texto consideraremos varios modelos particulares para el c´lculo de probabilidades. a

Propiedades elementales
A partir de los postulados enunciados en la secci´n anterior es posible deo mostrar una extensa serie de propiedades que cumplen todas las medidas de probabilidad. En esta secci´n se estudian algunas propiedades elementales o que posiblemente ya conoce el lector, y m´s adelante se demuestran otras a propiedades ligeramente m´s avanzadas. a

Cap´ ıtulo 1. Espacios de probabilidad

23

´ Proposicion. Sea (Ω, F , P ) un espacio de probabilidad. Entonces 1. P (∅) = 0. 2. Si A1 , . . . , An ∈ F son ajenos dos a dos, entonces
n n

P(
k=1

Ak ) =
k=1

P (Ak ).

3. P (Ac ) = 1 − P (A). 4. Si A ⊆ B, entonces P (B − A) = P (B) − P (A). 5. Si A ⊆ B, entonces P (A) ≤ P (B). 6. 0 ≤ P (A) ≤ 1. 7. P (A ∪ B) = P (A) + P (B) − P (A ∩ B). 8. P (A ∪ B) ≤ P (A) + P (B).

Demostraci´n. o 1. Como ∅ = ∅ ∪ ∅ ∪ · · · , por la σ-aditividad se tiene que P (∅) = ∞ ´ n=1 P (∅), lo cual sucede unicamente cuando P (∅) = 0. 2. Se toma An+1 = An+2 = · · · = ∅, y la igualdad se obtiene al aplicar la σ-aditividad y la propiedad anterior. 3. Se expresa a Ω como la uni´n disjunta A ∪ Ac . Aplicamos P y obteo nemos la igualdad requerida. 4. Escribimos B = A ∪ (B − A). Aplicando P obtenemos P (B) − P (A) = P (B − A). 5. Como la probabilidad de cualquier evento es un n´mero no negativo, u el resultado se sigue de la propiedad anterior.

24

1.3. Medidas de probabilidad 6. La primera desigualdad es el segundo axioma, y la segunda es consecuencia de la propiedad anterior cuando B = Ω y el primer axioma. 7. Descomponemos el evento A ∪ B como la siguiente uni´n de tres eveno tos disjuntos dos a dos: A ∪ B = (A − B) ∪ (A ∩ B) ∪ (B − A) = (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). Por lo tanto P (A ∪ B) = P (A) − P (A ∩ B) + P (A ∩ B) + P (B) − P (A ∩ B). 8. Esta propiedad es consecuencia de la anterior y el segundo axioma.

La propiedad (2) establece que las probabilidades son funciones finitamente aditivas, y la propiedad (5) que son funciones mon´tonas. La desigualdad (8) o dice que las probabilidades son funciones finitamente subaditivas. Veamos algunas otras propiedades. ´ Proposicion. (Desigualdades de Boole). Sea {An : n ∈ N} una sucesi´n de eventos. Entonces o 1. P (

n=1

An ) ≤

∞ n=1

P (An ).
∞ n=1

2. P (

n=1

An ) ≥ 1 −

P (Ac ). n

Demostraci´n. o 1. Tome B1 = A1 , y para n ≥ 2 defina
n−1

Bn = An −

Ak .
k=1

Cap´ ıtulo 1. Espacios de probabilidad

25

Hemos demostrado antes que {Bn : n ∈ N} es una sucesi´n de eventos o disjuntos dos a dos tales que Bn ⊆ An y ∞ An = ∞ Bn . Por lo n=1 n=1 tanto P(

An ) = P ( = ≤
∞ n=1 ∞ n=1

Bn )

n=1

n=1

P (Bn ) P (An ).

2. Esta desigualdad se sigue de la primera al considerar la sucesi´n de o los complementos.

´ Proposicion. Sea {An : n ∈ N} una sucesi´n de eventos. o 1. Si P (An ) = 1 para toda n, entonces P (
∞ n=1 An )

= 1. = 1. = 0.

2. Si P (An ) = 1 para alguna n, entonces P ( 3. Si P (An ) = 0 para alguna n, entonces P ( 4. Si P (An ) = 0 para toda n, entonces P (

∞ n=1 An ) ∞ n=1 An )

∞ n=1 An )

= 0.

Demostraci´n. o

26

1.3. Medidas de probabilidad 1. Por las leyes de De Morgan y la desigualdad de Boole, P(

n=1

An ) = 1 − P ( ≥ 1− = 1.

Ac ) n

n=1

P (Ac ) n

n=1

2. Como An ⊆ 3. Como
∞ n=1

∞ n=1

An , se tiene que 1 = P (An ) ≤ P (

An ).

n=1

An ⊆ An , entonces P (

n=1 ∞

An ) ≤ P (An ) = 0.
∞ n=1

4. Por la desigualdad de Boole, P (

n=1

An ) ≤

P (An ) = 0.

Las propiedades (1) y (4) de la proposici´n anterior pueden interpretarse o de la siguiente forma. Intersectar dos eventos produce en general un evento m´s peque˜o, o por lo menos no mayor a los intersectandos. Sin embargo la a n propiedad (1) establece que la intersecci´n, a´n infinita, de eventos con proo u babilidad uno produce un evento con probabilidad uno. An´logamente, unir a dos eventos produce en general un evento mayor, pero por la propiedad (4), la uni´n, a´n infinita, de eventos con probabilidad cero tiene probabilidad o u cero. Dos de las propiedades elementales m´s conocidas y de amplia aplicaci´n a o son la f´rmula de probabilidad total y la f´rmula de Bayes. Estas f´rmulas o o o hacen uso de la probabilidad condicional de un evento A dado otro evento B definida como sigue P (A | B) := P (A ∪ B)/P (B), cuando P (B) = 0.

Cap´ ıtulo 1. Espacios de probabilidad

27

Ejercicio. (Teorema de probabilidad total). Sea (Ω, F , P ) un espacio de probabilidad, y sea {A1 , A2 , . . .} una partici´n de Ω tal que cada o elemento de la partici´n es un evento con probabilidad estrictamente posio tiva. Demuestre que para cualquier evento B, P (B) =
∞ n=1

P (B | An )P (An ).

Ejercicio. (Teorema de Bayes). Sea (Ω, F , P ) un espacio de probabilidad, y sea A1 , A2 , . . . una partici´n de Ω tal que cada elemento de la o partici´n es un evento con probabilidad estrictamente positiva. Demuestre o que para cualquier evento B tal que P (B) > 0, y para cualquier m ≥ 1 fijo, P (Am | B) =

P (B | Am )P (Am ) P (B|An )P (An )

.

n=1

´ Ejercicio. (Completacion de espacios). Se dice que un espacio de probabilidad (Ω, F , P ) es completo si cada vez que se tenga la situaci´n A ⊆ B o con B ∈ F y P (B) = 0, entonces tambi´n se tiene que A ∈ F y P (A) = 0. e Un espacio de probabilidad (Ω, F , P ) que no es completo puede ser completado de la siguiente forma. Se toma el mismo Ω y se define la colecci´n o ¯ de todos aquellos subconjuntos A ⊆ Ω para los cuales existan B y C en F F con P (C) = 0, tales que B ⊆ A ⊆ B ∪ C. Para tal conjunto A se define ¯ ¯ ¯ P (A) = P (B). Entonces resulta que (Ω, F , P ) es un espacio de probabilidad completo, y se llama la completaci´n de (Ω, F , P ). Verifique esta afirmaci´n o o demostrando los siguientes incisos. ¯ a) F es efectivamente una σ-´lgebra. a ¯ b) F ⊆ F .

28

1.3. Medidas de probabilidad ¯ c) La definici´n de P (A) no depende del subconjunto B asociado, es o decir, la definici´n es unica. o ´

¯ ¯ d) P es una medida de probabilidad sobre F . ¯ e) P (A) = P (A), para cada A en F . ¯ ¯ f) El espacio de probabilidad (Ω, F , P ) es completo. ¯ ¯ g) (Ω, F , P ) es el espacio de probabilidad completo m´s peque˜o que a n contiene a (Ω, F , P ), es decir, si (Ω, F1 , P1 ) es otro espacio de probabilidad completo tal que F ⊆ F1 y P1 = P sobre F , entonces ¯ ¯ ¯ F ⊆ F1 y P = P1 sobre F .

Continuidad
Ahora demostraremos que las medidas de probabilidad son funciones continuas. Primero se prueba este resultado importante para dos tipos de sucesiones particulares, aquellas que son mon´tonas crecientes o decrecientes, o y despu´s se prueba en general. Empezaremos con el caso de sucesiones e crecientes. ´ Proposicion. Sea {An : n ∈ N} una sucesi´n no decreciente de eventos, o esto es, A1 ⊆ A2 ⊆ · · · . Entonces P(

An ) = l´ P (An ). ım
n→∞

n=1

Demostraci´n. Como An ⊆ An+1 , tenemos que P (An ) ≤ P (An+1 ). Por lo o tanto la sucesi´n num´rica {P (An ) : n ∈ N} es no decreciente y acotada o e

Cap´ ıtulo 1. Espacios de probabilidad

29

superiormente por uno. Entonces el l´ ımite de esta sucesi´n existe y el lado o derecho de la igualdad tiene sentido. Defina los eventos B1 = A1 , y Bn = An − An−1 , para n ≥ 2.

La sucesi´n {Bn : n ∈ N} es una colecci´n de eventos disjuntos dos a dos, o o y es tal que

An =

Bn .

n=1

n=1

Por lo tanto P(

An ) = P ( =
∞ n=1

Bn )

n=1

n=1

P (Bn )
∞ n=2 ∞ n=2 ∞ n=2

= P (B1 ) + = P (A1 ) + = P (A1 ) +

P (Bn ) P (An − An−1 ) P (An ) − P (An−1 )
m

= P (A1 ) + l´ ım

m→∞ m→∞

n=2

P (An ) − P (An−1 )

= P (A1 ) + l´ P (Am ) − P (A1 ) ım =
m→∞

l´ P (Am ). ım

30

1.3. Medidas de probabilidad

Las medidas de probabilidad tambi´n son continuas respecto de sucesioe nes no crecientes de eventos. Esta afirmaci´n es el contenido del siguiente o resultado que se demuestra a partir de la proposici´n anterior. o ´ Proposicion. Sea {An : n ∈ N} una sucesi´n no creciente de eventos, o esto es, A1 ⊇ A2 ⊇ · · · . Entonces P(

An ) = l´ P (An ). ım
n→∞

n=1

Demostraci´n. Observe que si An ⊇ An+1 , entonces Ac ⊆ Ac . Por la o n n+1 proposici´n anterior, o P(

Ac ) = l´ P (Ac ). ım n n
n→∞

n=1

Aplicando las leyes de De Morgan, 1 − P(

n=1

An ) = l´ (1 − P (An )), ım
n→∞

de donde se sigue inmediatamente el resultado. Ahora se enuncia un resultado m´s fuerte. Demostraremos que las medidas a de probabilidad son funciones continuas. Esta propiedad es muy util pues ´ permite el c´lculo de probabilidades en procedimientos l´ a ımite, y se encuentra siempre presente de manera impl´ ıcita en toda la teor´ que se desarrolla m´s ıa a adelante.

Cap´ ıtulo 1. Espacios de probabilidad

31

´ Proposicion. (Continuidad de la probabilidad). Sea {An : n ∈ N} una sucesi´n de eventos convergente al evento A. Entonces o
n→∞

l´ P (An ) = P (A). ım

Demostraci´n. La prueba se basa en las siguientes dos desigualdades: o a) l´ sup P (An ) ≤ P (l´ sup An ). ım ım
n→∞ n→∞

b) P (l´ inf An ) ≤ l´ inf P (An ). ım ım
n→∞ n→∞

Como la sucesi´n de eventos es convergente al evento A, entonces el l´ o ımite superior y el l´ ımite inferior son iguales a A. Se sigue entonces de las desigualdades (a) y (b) que ım l´ sup P (An ) ≤ P (l´ sup An ) ım
n→∞ n→∞

= P (A) = P (l´ inf An ) ım
n→∞

≤ l´ inf P (An ). ım
n→∞

De donde se concluye el resultado. Nos concentraremos ahora en demostrar las desigualdades enunciadas. a) Como An ⊆
∞ k=n Ak ,

entonces P (An ) ≤ P (

Ak ),

k=n

32

1.3. Medidas de probabilidad en donde { ∞ Ak : n ∈ N} es una sucesi´n decreciente de eventos. o k=n Tomando el l´ ımite superior se obtiene l´ sup P (An ) ≤ l´ sup P ( ım ım
n→∞ n→∞ ∞

Ak )

=

n→∞

l´ P ( ım

k=n ∞

Ak ) Ak )

= P ( l´ ım = P(

k=n ∞ k=n ∞

n→∞

Ak )

n=1 k=n

= P (l´ sup An ). ım
n→∞

b) Como

∞ k=n Ak

⊆ An , entonces P(
∞ k=n

Ak ) ≤ P (An ),

en donde { ∞ Ak : n ∈ N} es una sucesi´n creciente de eventos. o k=n Tomando el l´ ımite inferior se obtiene l´ inf P (An ) ≥ l´ inf P ( ım ım
n→∞ n→∞ ∞

Ak )

=

n→∞

l´ P ( ım

k=n ∞

Ak ) Ak )

= P ( l´ ım = P(

k=n ∞ k=n ∞

n→∞

Ak )

n=1 k=n

= P (l´ inf An ). ım
n→∞

entonces la probabilidad de nunca obtener “6” es cero. u Observe que el argumento presentado funciona de la misma forma cuando el evento A es cualquier subconjunto propio de Ω distinto del vac´ Por ıo. Se lanza un dado equilibrado una infinidad de veces. Por lo tanto l´ An = ım ∞ n=1 n→∞ An . Heu mos demostrado que la probabilidad de tal evento es cero. Independencia de eventos En esta secci´n se define el concepto importante de independencia de eveno tos. a 1. cada una de las caras del dado aparecer´ eventualmente. 4. y ayudar´ a a a . 4. con probabilidad uno.4. En consecuencia la probabilidad de que eventualmente aparezca un n´mero impar es uno. si A = {1. n→∞ n→∞ n→∞ n=1 El evento ∞ An se interpreta como aquel conjunto de resultados en el n=1 que siempre se obtiene un n´mero par en cada uno de los lanzamientos. 3. Por lo tanto. Sea An el evento correspondiente a obtener el evento A = {2. Espacios de probabilidad 33 Ejemplo. De manera natural la independencia aparecer´ con frecuencia a lo largo del texto a partir de ahora. Puede demostrarse adem´s que cada una de a a las caras aparecer´ una infinidad de veces con probabilidad uno. ejemplo. 6} en cada uno de los primeros n lanzamientos del dado. La independencia es un tema central en la teor´ de la probabilidad. Entonces P( ∞ An ) = P ( l´ An ) = l´ P (An ) = l´ ım ım ım 1/2n = 0. ıa y uno de sus rasgos distintivos.Cap´ ıtulo 1. 2. 5}. Entonces claramente An ⊇ An+1 y P (An ) = 1/2n para cualquier n en N.

b) Ac y B lo son. Independencia de eventos simplificar el c´lculo de probabilidades.4. Dos eventos A y B son independientes. y s´lo o si. y s´lo si. A menudo aceptar la hip´tesis de que dos eventos son independientes es una o cuesti´n de apreciaci´n por parte del observador.34 1. Contrario a alguna primera concepci´n intuitiva err´nea. es independiente de cualquier otro evento. La proposici´n contraria tampoco es v´lida. La independencia puede o o interpretarse en el sentido de que la ocurrencia de uno de los eventos no proporciona informaci´n que modifique la probabilidad de ocurrencia del o segundo evento. a) A y B lo son. ´ Definicion. dos eventos ajenos no o a necesariamente son independientes. e Ejercicio. o Ejercicio. y se escribe A ⊥ B. o o el hecho de que dos eventos sean independientes no implica que ellos sean ajenos. Demuestre que un evento es independiente consigo mismo si. Demuestre que un evento que tiene probabilidad cero o uno. c) A y B c lo son. cuando P (A ∩ B) = P (A)P (B). . (Independencia de dos eventos). Demuestre que los eventos A y B son independientes si. Ejercicio. su probabilidad es cero o uno. La definici´n matem´tica es la sia o a guiente. La definici´n de independencia puede extenderse a colecciones finitas e ino cluso infinitas de eventos del siguiente modo. incluyendo ´l mismo.

lanzamiento”. no implica en general la independencia tres a tres. . Ejercicio. Demuestre que los eventos A1 . Espacios de probabilidad 35 ´ Definicion. igualo dad (1. igualdad (1. M´s generalmente. De hecho el n´mero total de igualdades a demostrar es 2n − n − 1. . j. (Independencia de varios eventos). Ejercicio. B y C son independientes dos a dos. y 2do. . Se lanza una moneda equilibrada tres veces. j distintos. B y C son independientes tres a tres pero no son independientes dos .Cap´ ıtulo 1. ni viceversa. . Defina los eventos A = “Se obtiene el mismo resultado en el 1er. . pero no independientes en su conjunto. y 3er. (1. . . . Los eventos A1 . lanzamiento”.1) (1. Ejercicio. y sea C = ∅. ¿Puede u usted demostrar esta afirmaci´n? En la siguiente secci´n haremos uso del o o siguiente resultado. los eventos Ac . C = “Se obtiene el mismo resultado en el 3er. . An son independientes si. .1) a en la definici´n. Demuestre que los eventos A. o n 1 Es posible adem´s demostrar que la independencia dos a dos. . k distintos. Demuestre que A. Sean A y B eventos no independientes. B = “Se obtiene el mismo resultado en el 2do. una colecci´n infinita de eventos es independiente si a o cualquier subcolecci´n finita lo es.2). . i. y 1er. . . i.2) P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ). y s´lo si. se necesitan verificar o o suponer varias condiciones para que n eventos sean independientes entre s´ ı. lanzamiento”. Ac lo son. . An son independientes si se cumplen todas y cada una de las siguientes condiciones: P (Ai ∩ Aj ) = P (Ai )P (Aj ). o Observe que de acuerdo a la definici´n anterior. P (A1 ∩ · · · ∩ An ) = P (A1 ) · · · P (An ).

o Imagine entonces que un mono escribe caracteres al azar en una m´quina a de escribir. M´s generalmente. y sea N el total de caracteres de los que constan las obras comple- . u a u Ejemplo. . un conjuna to infinito de clases no vac´ de eventos es independiente si cualquier ıas subconjunto finito lo es. Un mono escribe caracteres al azar en una m´quina de escribir. dos σ-´lgebras F1 y F2 son independientes si para cada A en a F1 y cada B en F2 se cumple que P (A ∩ B) = P (A)P (B). . como siempre se presupone un espacio o de probabilidad (Ω. . . (Independencia de clases). Sea m el total de caracteres disponibles en una m´quina de a escribir. F . y sin ning´n error. . i = 1. (El problema del mono). las obras completas de Shakespeau re? Figura 1. ´ Definicion. 1. . Demostramos a continuaci´n que la probabilidad de este raro evento es uno. Cn son independientes si los eventos A1 . An´logamente a para un n´mero finito de σ-´lgebras o bien un n´mero infinito de ellas. . Independencia de eventos Tambi´n se tiene la noci´n de independencia entre dos o mas clases de e o eventos.4: Mono escribiendo al azar. En particular. . ¿Cu´l es la probabilidad de que eventualmente a a obtenga exactamente. . . . y que lo hace de manera continua generando una sucesi´n lineal o de caracteres. . La definici´n es la siguiente. An lo son para cualesquiera Ai en Ci . P ) dado. n.4. Las clases no vac´ de ıas eventos C1 .36 a dos.

uno despu´s de otro. Lema de Borel-Cantelli Concluimos este cap´ ıtulo con el enunciado y demostraci´n del famoso lema o de Borel-Cantelli. M´s adelante e a se presentar´n otras formas de resolver este mismo problema usando el lema a de Borel-Cantelli. y e observamos si alg´n bloque contiene las obras de Shakespeare. se tiene que P( ∞ k=1 Bk ) = l´ P (Bk ) = l´ (1 − p)k = 0. e u En [25] aparece una estimaci´n del tiempo promedio de espera para que el o mono obtenga el primer ´xito. es decir. y despu´s usando la ley fuerte de los grandes n´meros. ım ım k→∞ k→∞ Por lo tanto la probabilidad del evento complemento es uno. u Xku · · · aT s hwW · · · pzq Ot · · · N N Para cada n´mero natural k defina el evento Ak correspondiente a que el ku ´simo bloque contiene exactamente.Cap´ ıtulo 1. es decir la sucesi´n es decreciente. Espacios de probabilidad 37 tas de Shakespeare. por lo tanto o k→∞ ∞ k=1 Bk l´ Bk = ım ∞ Bk . Defina el evento Bk como Ac ∩ · · · ∩ Ac . adem´s P (Ak ) = (1/m)N = p. Entonces. usando la propiedad de continuidad de las medidas e de probabilidad para sucesiones decrecientes. o bien P (Ac ) = a k o 1 − p. e 1. la probabilidad de que eventualmente el mono obtenga ´xito es uno. Observe que los eventos Ak son independientes pues los bloques no se sobreponen. k=1 en donde el evento se interpreta como aquel en el que el mono nunca tiene ´xito. Segmentamos el arreglo lineal de caracteres generados por el mono en bloques disjuntos de N caracteres. Por ejemplo. las obras completas e de Shakespeare. que indica la situaci´n en 1 k la que el mono no obtiene ´xito en los primeros k bloques. Observe que e Bk+1 ⊆ Bk . El objetivo es demostrar este resultado y con ello poner .5. y sin error alguno.

. Si ∞ n=1 P (An ) < ∞. ∞ n=1 P (An ) = ∞. Si A1 . A2 . . Es suficiente demostrar que para todo n´mero natural n se cumple la u igualdad P ( ∞ Ak ) = 1. 2. o ım n→∞ 1. Como ∞ P (An ) < ∞. 2. (Lema de Borel-Cantelli).5. Para cada n´mero natural n. son independientes y P (A) = 1. pues la intersecci´n numerable de eventos o k=n . u ´ ´ Proposicion. entonces Demostraci´n. Sea {An : n ∈ N} una sucesi´n de eventos. . el lado derecho tiende a cero cuando n tiende n=1 a infinito.38 1. o 1. entonces P (A) = 0. y defina A = l´ sup An . Lema de Borel-Cantelli en pr´ctica algunas propiedades de las medidas de probabilidad. aunque a tambi´n lo usaremos para presentar un par de aplicaciones y para demostrar e la ley fuerte de los grandes n´meros en la ultima parte del curso. Esto implica que P (A) = 0. u P (A) ≤ P ( ∞ k=n Ak ) ≤ ∞ k=n P (Ak ).

xN +1 . 1 − P( ∞ m 39 k=n Ak ) ≤ 1 − P ( m Ak ) k=n = P( k=n m Ac ) k [1 − P (Ak )] m = k=n ≤ exp(− P (Ak )). Suponga e que N es el total de caracteres de los que constan las obras completas de Shakespeare y considere nuevamente la divisi´n por bloques de longitud N : o x1 . . . Por lo tanto P ( ∞ Ak ) = 1 para cualquier valor de n y entonces P (A) = 1. k=n Para obtener la ultima expresi´n se usa la desigualdad: 1 − x ≤ e−x . . Espacios de probabilidad con probabilidad uno tiene probabilidad uno. y claramente la sucesi´n A1 . entonces la probabilidad del evento Ak es (1/m)N . Para cada m > n. . . puede resolverse tambi´n usando el lema de Borel-Cantelli. x2N . Si nuevamente m denota el total de caracteres dispoe nibles. (El problema del mono. . constituye una sucesi´n de eventos independientes tales o o que ∞ P (Ak ) = ∞ (1/m)N = ∞. eventualmente escriba las obras completas de Shakesa peare. . Como a u n=1 P (An ) = ∞. k=n Ejemplo. A2 . xN . el lado derecho tiende a cero cuando m tiende a infinito. . ´ o ∞ v´lida para cualquier n´mero real x. nuevamente). Entonces por la segunda parte del k=1 k=1 . . .Cap´ ıtulo 1. . . . El evento Ak se define nuevamente como aquel en el que el mono tiene ´xito e en el k-´simo bloque. El problema de encontrar la probabilidad de que un mono que escribe caracteres al azar en una m´quina de escribir. .

Se lanza una moneda honesta una infinidad de veces. con probabilidad uno. ¿Importa que la moneda sea honesta? o Ejercicio. Sea x1 . la probabilidad del l´ ımite superior de la sucesi´n Ak o es uno. Es decir.40 1. Use el lema de Borel-Cantelli para calcular la probabilidad de que aparezca una infinidad de veces la sucesi´n particular mencionada. . no uno. Considere ahora el experimento de lanzar la moneda una infinidad de veces. o . el mono tiene. .5. sino ¡una infinidad de ´xitos! e Ejercicio. Use el lema de Borel-Cantelli para demostrar que la probabilidad de que cada cara aparezca una infinidad de veces es uno. Lema de Borel-Cantelli lema de Borel-Cantelli. . xn una sucesi´n de resultados consecutivos particular obtenida de lanzar una moneda n veces. Ahora s´lo hay que recordar que el evento l´ supk→∞ Ak correso ım ponde a aquel en el que una infinidad de eventos Ak ocurren. .

Fuente: Archivo MacTutor. pues su madre muri´ en o ıa o el parto y su padre fue exiliado. probabilidad. Termin´ su doctorado en 1929. A´n a o u siendo estudiante de licenciatura empez´ a publicar trabajos de investigao ci´n graduandose en 1925. o o n Recibi´ un sinn´mero de premios y reconocimientos de distintos pa´ o u ıses. y para entono o ces ya ten´ 18 publicaciones. turbulencia. l´gica.Cap´ ıtulo 1. en donde adem´s o u a de matem´ticas tom´ cursos de metalurgia y sobre historia de Rusia. En 1920 ingres´ a la Universidad Estatal de Mosc´. Contribuy´ brillantemente en varias ´reas de ıa o a las matem´ticas como: an´lisis. Trabaj´ un tiempo como conductor de treo nes. a los planetas. . geometr´ topolog´ sistemas din´micos. a a a o an´lisis funcional. etc. movimiento de a ıa. y fue miembro de varias sociedades y academias cient´ ıficas. procesos estoc´sticos. Universidad de St. Espacios de probabilidad 41 Andrey Nikolaevich Kolmogorov (Rusia 1903–1987) Creci´ bajo el amparo de su t´ Vera Yakovlena. Andrews. Kolmogorov ten´ particular inter´s en proıa e veer de atenci´n y educaci´n especial a ni˜os con habilidades sobresalientes. ıa.

Sean A1 . . 1 ≤ k ≤ n. Demuestre que el conjunto de elementos de Ω que pertenecen a exactamente k de estos eventos es un evento. c. y s´lo si. c}. Demuestre que F es una σ-´lgebra de subconjuntos de Ω si. An eventos de un espacio muestral Ω. Sea Ω = {a. Sea F una σ-´lgebra de subconjuntos de Ω y sea A un elemento de a F . . A2 . . . satisface las siguientes a o propiedades: a) Ω ∈ F . Sea F una σ-´lgebra de subconjuntos de Ω. . Encuentre σ(C ). Ejercicios 1. y sean A = {a. 3. Claramente C no es una σ-´lgebra.6. c) Si A1 . . d}. 4. B ∈ F ⇒ A − B ∈ F . satisface las siguientes a o propiedades: a) ∅ ∈ F . . Definicion alternativa de σ-algebra. 5. ∈ F . a 6. A2 . y s´lo si. Ejercicios σ-´lgebras a ´ ´ 1. entonces b) A. B}. Demuestre que la colecci´n a o a F c = {F c : F ∈ F } es una σ-´lgebra. ´ ´ 2. Demuestre que F es una σ-´lgebra de subconjuntos de Ω si. . Demuestre que la colecci´n {A ∩ F : F ∈ F } es una σ-´lgebra de o a subconjuntos de A.6. Compruebe que F c y F coinciden.42 1. ∈ F . Se usan los s´ ımbolos FA ´ A ∩ F para denotar a o esta colecci´n. Definicion alternativa de σ-algebra. b. Defina la colecci´n o C = {A. b} y B = {b. o . b) A ∈ F ⇒ Ac ∈ F . . ∞ n=1 An ∈ F. . c) Si A1 . entonces ∞ n=1 An ∈ F.

15. B} es. Demuestre que toda σ-´lgebra de un espacio muestral finito contiene a un n´mero par de elementos. {1}. An } es 2n . Sea {A. Sean A. . es decir. Sean F1 y F2 dos σ-´lgebras de subconjuntos de Ω. . B}. Demuestre que F1 ∪ F2 no necesariamente es una σ-´lgebra. . C}. 13.Cap´ ıtulo 1. 2}. Demuestre a con detalle que t∈T Ft es una σ-´lgebra. a 11. 3} y las σ-´lgebras F1 = {∅. a Demuestre que F1 ∪ F2 es una σ-´lgebra. Sea T un conjunto arbitrario distinto del vac´ Suponga que para cada ıo. a 12. Encuentre expl´ ıcitamente todos los elementos de σ{A. 8. Ω}. B ⊆ Ω arbitrarios. u 16. B} es a lo sumo 16. 2. Sean F1 y F2 dos σ-´lgebras de subconjuntos de Ω tales que F1 ⊆ F2 . σ{A1 . . {3}. . Encuentre expl´ o ıcitamente los ocho elementos de σ{A. C} una partici´n de Ω. y sea X : Ω1 → Ω2 una funci´n o en donde (Ω2 . . ¿Es la diferencia de dos σ-´lgebras una σ-´lgebra? Demuestre o proa a porcione un contraejemplo. B. B. Por el ejercicio anterior. Para ello considere el a espacio Ω = {1. a 14. Demuestre que la cardinalidad de σ{A. la uni´n de todos o o estos conjuntos es Ω. An } una partici´n finita de Ω. F2 ) es un espacio medible. Demuestre que la siguiente colecci´n es una σ-´lgebra de subconjuntos de Ω1 : o a X −1 F2 = {X −1 F : F ∈ F2 }. {2. t en T se tiene una σ-´lgebra Ft de subconjuntos de Ω. 16. 10. en el caso m´s general. Espacios de probabilidad 43 7. 3}. {1. ninguno de ellos es vac´ y la intersecci´n de ıo o cualesquiera dos de ellos es vac´ Demuestre que la cardinalidad de ıa. B ⊆ Ω arbitrarios. Sean A. . el total de elementos en σ{A. . Ω} y F2 = a {∅. Sean Ω1 y Ω2 dos conjuntos arbitrarios. Sea {A1 . . a 9.

o c) ∅ ∈ F ´ ∅ ⊆ F . ´lgebras y semi´lgebras a a a ´ ´ 20. Demuestre que F es una ´lgebra pero no una σ-´lgebra. b) Si A. y s´lo si. Definicion alternativa de algebra. bi ] ∩ (aj . entonces A − B ∈ F . Sea Ω un conjunto. Demuestre que 2Ω es una σ-´lgebra de subconjuntos de Ω y que no existe una σ-´lgebra de subconjuntos de Ω que sea m´s grande. o d) A ∈ F ´ A ⊆ F . algebra =⇒ σ-algebra. a a . Explique su respuesta. 1] y defina la colecci´n F de o subconjuntos de la forma n (ai . a a a 21. F una σ-´lgebra de subconjuntos de Ω y sea A a un evento cualquiera.6. Demuestre que F es una a ´lgebra de subconjuntos de Ω si. a 18. a) Ω ∈ F ´ Ω ⊆ F . 1] con (ai . F es σ-´lgebra ⇒ F es ´lgebra ⇒ F es semi´lgebra. bi ] ⊆ (0. o b) A ∈ Ω ´ A ⊆ Ω. Diga falso o verdadero o justificando en cada caso: C ⊆ σ(C ) ⊆ 2Ω . bi ]. B ∈ F . a a 19.44 1. bj ] = ∅ para i = j y n ∈ N. Demuestre que ´ ´ 22. Sea Ω = (0. De cada una de las dos expresiones siguientes determine la que es notacionalmente correcta. o σ-´lgebras. Ejercicios 17. Sea C una colecci´n de subconjuntos de Ω. i=1 en donde (ai . cumple las siguientes cono diciones: a) Ω ∈ F .

Conjuntos de Borel 24.Cap´ ıtulo 1. b] : a ≤ b}. Demuestre que B(R) = σ{[a. 31. Demuestre que B(R) = σ{(−∞. 1]. n ] : n ∈ N } = B(0. Demuestre que B(R2 ) = σ{(−∞. c ≤ d}. b) : b ∈ R}. 30. b] × [c. Diga falso o verdadero. n ] : n ∈ N } = σ{ (0. b) : a. a) × (−∞. Demuestre que B(R) = σ{(a. b ∈ R}. 1]. Sea {An : n ∈ N} una sucesi´n de eventos. Mediante un contraejemplo demuestre que no toda semi´lgebra es una a a ´lgebra. d] : a ≤ b. Demuestre que B(R) = σ{(a. 25. b ∈ R}. b) : a ≤ b}. 26. b] : b ∈ R}. n ] : n ∈ N } = B(0. ∞) : a ∈ R}. 28. Sucesiones de eventos 35. n ] : n ∈ N }. ım n→∞ . Espacios de probabilidad 45 23. 29. 27. Demuestre que B(R2 ) = σ{[a. ∞) × (b. Demuestre que B(R2 ) = σ{(a. Demuestre que B(R) = σ{[a. 33. 1 1 1 c) σ{ ( n+1 . Justifique su respuesta. 32. ∞) : a. 34. Demuestre que B(R) = σ{(−∞. Sea A ∈ B(R). Demuestre que B(A) es efectivamente una σ-´lgebra a de subconjuntos de A. 1 b) σ{ (0. 1 1 a) σ{ ( n+1 . ∞) : a ∈ R}. Demuestre que o a) l´ sup An es un evento.

Sea {An : n ∈ N} una sucesi´n de eventos. ım ım n n→∞ n→∞ n→∞ n→∞ b) l´ An = A ⇔ l´ 1An = 1A .46 1. ım n→∞ n→∞ c) l´ inf An ⊆ l´ sup An . Suponga An ⊆ Bn para cada n en N. ım ım n n→∞ n→∞ d) P ( l´ sup An ) = 1 − P ( l´ inf Ac ). Demuestre que o a) l´ An = A ⇔ l´ Ac = Ac . V´ase el o e ap´ndice al final del texto para la definici´n y algunas propiedades de e o esta funci´n. Demuestre o proporcione un contraejemplo. {ω ∈ An para toda n excepto un n´mero finito de ellas}. Demuestre que el evento a) l´ sup An coincide con el conjunto ım b) l´ inf An coincide con el conjunto ım n→∞ n→∞ {ω ∈ An para una infinidad de valores de n}. Ejercicios b) l´ inf An es un evento. a) l´ sup An ⊆ l´ sup Bn . ım ım n n→∞ n→∞ 39. u 37. ım ım n→∞ 36.6. ım n→∞ n→∞ 38. Sea {An : n ∈ N} una sucesi´n de eventos. ım ım n n→∞ n→∞ c c) P ( l´ inf An ) = 1 − P ( l´ sup Ac ). ım ım n n→∞ n→∞ b) ( l´ sup An ) = l´ inf Ac . ım ım n→∞ n→∞ ım c) l´ sup An ⊆ l´ inf Bn . o . Demuestre que o a) ( l´ inf An )c = l´ sup Ac . ım ım n→∞ n→∞ b) l´ inf An ⊆ l´ inf Bn . ım ım El s´ ımbolo 1A denota la funci´n indicadora del conjunto A.

c) An = {(x.Cap´ ıtulo 1. y) ∈ R2 : x2 + y 2 ≤ (1 + 1/n)n }. y An = Ω si n es par. Suponga que l´ An = A. u ım ım n→∞ n→∞ 41. 42. Determine si cada una de las siguientes sucesiones de conjuntos es convergente. si n es par. Espacios de probabilidad 47 40. o Cn = An si n es impar. 1 + (−1)n ) ⊆ R. b) An = {(x. a) An = (1/n. ım . y) ∈ R2 : x2 + y 2 ≤ 2 + sen(nπ/2)}. a) An = ∅ si n es impar. an ]. ım n→∞ n→∞ n→∞ n→∞ b) l´ (An ∪ B) = A ∪ B. Calcule l´ inf An y l´ sup An . Encuentre condiciones sobre los eventos A y B para que la siguiente sucesi´n de eventos sea convergente. Sea {an : n ∈ N} una sucesi´n de n´meros no negativos convergente o u al n´mero a ≥ 0. b) An = (0. Suponga que l´ An = A. Demuestre que para cualquier evento B. 45. Bn si n es par. Demuestre que las siguientes sucesiones de eventos no son convergentes. ım c) l´ (An − B) = A − B. 2 + (−1)n ) ⊆ R. 44. y l´ Bn = B. 43. Determine si la siguiente ım ım n→∞ n→∞ sucesi´n es convergente. ım d) l´ (An △B) = A△B. o An = A B si n es impar. Sea An = [0. ım n→∞ a) l´ (An ∩ B) = A ∩ B.

ım d) l´ (An △Bn ) = A△B. F . Suponga que l´ An = A y l´ Bn = B. ım ım n→∞ n→∞ Demuestre en cada caso. u d) extraer dos bolas de una urna en donde hay dos bolas blancas y dos negras. e) lanzar una moneda honesta repetidas veces hasta que hayan aparecido ambas caras. ım n→∞ n→∞ n→∞ n→∞ b) l´ (An ∪ Bn ) = A ∪ B. ım c) l´ (An − Bn ) = A − B. d) l´ ım l´ (An △Bm ) = A△B. c) escoger al azar un n´mero real dentro del intervalo unitario [0. ım Medidas de probabilidad 48. Determine completamente un espacio de probabilidad (Ω. Diga falso o verdadero. ım 47. Diga falso o verdadero. ım ım n→∞ n→∞ Demuestre en cada caso. b) lanzar un dado equilibrado. ım ım c) l´ ım l´ (An − Bm ) = A − B. a) l´ ım l´ (An ∩ Bm ) = A ∩ B. ım n→∞ m→∞ n→∞ m→∞ n→∞ m→∞ n→∞ m→∞ b) l´ ım l´ (An ∪ Bm ) = A ∪ B. 1].48 1. a) l´ (An ∩ Bn ) = A ∩ B. Ejercicios 46.6. P ) para el experimento aleatorio de a) lanzar una moneda equilibrada. Suponga que l´ An = A y l´ Bn = B. .

.Cap´ ıtulo 1. Determine si las siguientes funciones tambi´n son medidas de probabilidad: e a) 1 − P . 52. b) (1 + P )/2. n}. 1] definida de la siguiente forma es una medida de probabilidad. Sea Ω = {1. . c) P 2 . 51. Demuestre que la funci´n o n=1 P : B(R) → [0. b) P (∅) = 0 y P (A) = 1 para cualquier otro evento A. √ f) P. Demuestre que αP + (1 − α)Q es una medida de probabilidad para cada α en [0. Demuestre en cada caso que P es una medida de probabilidad. Para cada A ∈ 2Ω defina: a) P (A) = k∈A 2k . 2Ω ). Sea P una medida de probabilidad. Sea {xn : n ∈ N} una sucesi´n de n´meros reales y sea {an : n ∈ N} otra sucesi´n de n´meros o u o u reales no negativos tal que ∞ an = 1. 53. n(n + 1) . . 1]. a) P (Ω) = 1 y P (A) = 0 para cualquier otro evento A. Sean P y Q dos medidas de probabilidad definidas sobre una misma σa ´lgebra. 2N ). 50. Medida de probabilidad discreta. P (A) = ∞ n=1 an 1{n : xn ∈A} (n). . Para cada A ∈ 2N defina: a) P (A) = n∈A 2/3n . Determine si las siguientes funciones son medidas de probabilidad. d) |P |. e) 4P (1 − P ). 1/2n . n∈A b) P (A) = 54. Investigue en cada caso si P es una medida de probabilidad. Considere el espacio medible (N. Espacios de probabilidad 49 49. y considere el espacio medible (Ω.

es una medida de probabilidad. Demuestre que para cualquier evento A. Sea P una medida de probabilidad definida sobre la σ-´lgebra F . Para cada A ∈ B(0. 61. Probabilidad condicional. 58. Demuestre que P (A | B) ≥ 1 − P (Ac )/P (B). 1). a Propiedades elementales 60. P2 (A) = P (A | B ∩ C). 62.50 b) P (A) = k∈A 1. 3√ x dx. toda propiedad v´lida para una medida de a probabilidad es tambi´n v´lida para la probabilidad condicional. En consecuencia. P (B)} ≤ P (A) ≤ m´x{P (A). F . Sea P una medida de probabilidad. en donde P (B) > 0 y P (C) > 0. en donde P (B) > 0. P (B)} ≤ P (A∪B). B(0. Considere el espacio medible ((0. e a 57. Demuestre que la probabilidad condicional definida para cada A en F como sigue: P (A | B) = P (A ∩ B)/P (B). Ejercicios 1 (1 − ). 2 b) P (A) = A 56. k 55. 1) defina: a) P (A) = A 2x dx. Demuestre que P (A ∩ B) − P (A)P (B) = P (Ac )P (B) − P (Ac ∩ B). Demuestre que P (A∩B) ≤ m´ ın{P (A). sin usar P (Ω) = 1. P ) un espacio de probabilidad. Sea (Ω. a . 59. Demuestre en cada caso que P es una medida de probabilidad.6. y sea B un evento con probabilidad estrictamente positiva. 1)). Demuestre que P (∅) = 0. y sean P1 ( · ) = P ( · | B) y P2 ( · ) = P1 ( · | C). a Demuestre que la colecci´n {A ∈ F : P (A) = 0 ´ P (A) = 1} es una o o sub σ-´lgebra de F .

Cap´ ıtulo 1. 67. Demuestre que n n P( i=1 Ai ) = i=1 P (Ai ) − i<j P (Ai ∩ Aj ) + i<j<k P (Ai ∩ Aj ∩ Ak ) − · · · + (−1)n+1 P (A1 ∩ · · · ∩ An ). Demuestre que P( ∞ 51 −P (A ∩ B) − P (A ∩ C) − P (B ∩ C) i=1 Ai ) = P (A1 ) + P (Ac ∩ A2 ) + P (Ac ∩ Ac ∩ A3 ) + · · · 1 1 2 +P (Ac ∩ · · · ∩ Ac ∩ An ) + · · · 1 n−1 ´ ´ ´ 66. . 64. Demuestre que n n P( i=1 Ai ) = i=1 P (Ai ) − i<j P (Ai ∪ Aj ) + i<j<k P (Ai ∪ Aj ∪ Ak ) − · · · + (−1)n+1 P (A1 ∪ · · · ∪ An ). Formula de inclusion y exclusion. Demuestre que P (A ∪ B ∪ C) = P (A) + P (B) + P (C) +P (A ∩ B ∩ C). 65. Demuestre que P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ B c ∩ C). Espacios de probabilidad 63.

b) P (A ∪ B) = P (A − B) + P (B − A).6. k k=1 69. a) P (A) = 0 ⇒ P (A ∪ B) = 0. c) P (A ∩ B) ≤ P (A)P (B). c) P (A ∪ B) = 0 ⇒ P (A) = 0. 71. b) P (A − B) = P (A) − P (A ∩ B). Diga falso o verdadero. d) P (A) > 0 ⇒ P (A ∩ B) > 0. h) P (A ∩ B) = 1 ⇒ P (A) = 1. a) P (A ∩ B) ≥ P (A) − P (B c ). 72. b) P (A) = 0 ⇒ P (A ∩ B) = 0. Demuestre que 0 ≤ P (A ∩ B) ≤ P (A) ≤ P (A ∪ B) ≤ P (A) + P (B) ≤ 2. g) P (A ∪ B) = 1 ⇒ P (A) = 1. e) P (A) < 1 ⇒ P (A ∪ B) < 1. Ejercicios n 68. Demuestre que P ( k=1 Ak ) ≥ 1 − P (Ac ).52 n 1. d) P (A ∩ B) = 0 ⇒ P (A) = 0. . 70. e) P (A) = 1 ⇒ P (A ∪ B) = 1. Demuestre en cada caso. Diga falso o verdadero. Demuestre en cada caso. Demuestre en cada caso. Diga falso o verdadero. f ) P (A) < 1 ⇒ P (A ∩ B) < 1. f ) P (A) = 1 ⇒ P (A ∩ B) = 1. a) P (B − A) = P (B) − P (A). c) P (A) > 0 ⇒ P (A ∪ B) > 0.

74. Unicamente se conoce que la canica obtenida es blanca. Demuestre que P (A1 ∩· · ·∩An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩A2 ) · · · P (An |A1 ∩· · ·∩An−1 ). e) P (A | B) ≤ P (A). 73. Despu´s de este proceso se obtiene al azar una canica de e la tercera caja. y en una tercera caja hay dos blancas y una negra. Desigualdad de Bonferroni.Cap´ ıtulo 1. 77. Se escoge ´ una caja al azar y se extrae un canica. 53 f ) P (A | B) ≥ P (A) ⇒ P (B | A) ≥ P (B). En una primera caja se encuentran dos canicas blancas y tres negras. despu´s se extrae e nuevamente al azar una canica de la segunda caja y se deposita en la tercera caja. Calcule la probabilidad de que: a) se obtengan ambas caras de la moneda igual n´mero de veces. Espacios de probabilidad d) P (A ∪ B) ≤ P (A) + P (B). Tanto la moneda como el dado estan equilibrados. encuentre la probabilidad de que ´sta sea blanca. Se lanza una moneda tantas veces como indica un dado previamente lanzado. y resulta que la suma de los tres n´meros obtenidos es 11. Un dado equilibrado se lanza tres veces consecutivas. e 75. Encuentre la probabilidad u de que en el primer lanzamiento se haya obtenido un 5. Una segunda caja contiene dos canicas blancas y cuatro negras. 76. 78. Demuestre que n n P( i=1 Ai ) ≥ i=1 P (Ai ) − i<j P (Ai ∩ Aj ). encuentre la probabilidad de que ´sta haya e sido obtenida de la primera caja. en una segunda caja hay tres blancas y cinco negras. De la primera caja se extrae al azar una canica y se deposita en la segunda caja. Una primera caja contiene tres canicas blancas y dos negras. . Regla del producto. u b) se obtenga una misma cara siempre.

Demuestre que la probabilidad de que eventualmente cada una de las dos caras aparezca es uno. entonces no necesariamente son ajenos. Demuestre que n n n P( i=1 Ai ) ≤ m´ { ın j i=1 P (Ai ) − i=j i=1 P (Ai ∩ Aj ) }. 82. b) A ⊥ Ac . Demuestre que si se efect´a una infinidad de ensayos independientes del experiu mento aleatorio. d) A ⊥ Ω. Demuestre o proporcione un contraejemplo. Se lanza una moneda honesta una infinidad de veces. Demuestre que la probabilidad de que eventualmente cada una de las seis caras aparezca es uno. c) A ⊥ ∅. 84. Desigualdad de Kounias. Mediante un contraejemplo demuestre que si A y B son independientes.6. Diga falso o verdadero. entonces tampoco se sigue necesariamente que estos eventos sean independientes. Demuestre tambi´n que e si A y B son ajenos. ¿Es la independencia de dos eventos una relaci´n de equivalencia? o 85. 81. a) A ⊥ A. Continuidad 80. . la probabilidad de que nunca ocurra el evento A es cero. Ejercicios 79. Sea A un evento con probabilidad estrictamente positiva. Independencia de eventos 83. Se lanza un dado equilibrado una infinidad de veces.54 1.

Use el lema de BorelCantelli para demostrar que si se efect´a una infinidad de ensayos u independientes del experimento aleatorio. Sean A1 . Sea A1 . . Sea A un evento con probabilidad positiva. 87. Se lanza un dado equilibrado una infinidad de veces. .Cap´ ıtulo 1. una sucesi´n infinita de eventos. . Lema de Borel-Cantelli 89. 90. entonces A tiene probabilidad cero o uno. entonces los eventos l´ ımite superior y l´ ımite inferior de la sucesi´n An tambi´n o e son independientes. Demuestre que si Bn y Cn son independientes para cada n. cuando la sucesi´n An converge al o evento A. Demuestre que con probabilidad uno cada una de las seis caras aparece una infinidad de veces. En particular. . es uno. Sean A y B independientes. A2 . . 88. Defina o Bn = ∞ k=n Ak y Cn = ∞ k=n Ak . Espacios de probabilidad 86. Demuestre que n n 55 P( k=1 Ak ) = 1 − k=1 [1 − P (Ak )]. la probabilidad de que ocurra una infinidad de veces el evento A. An independientes. . . . Demuestre que σ{A} y σ{B} son independientes.

.

1. o e a 57 .Cap´ ıtulo 2 Variables aleatorias En este cap´ ıtulo se estudian los conceptos de variable aleatoria. F . y una vez que enunciemos su ıa definici´n. El concepto de variable aleatoria u es fundamental en la teor´ de la probabilidad. 2. funci´n de densidad y esperanza. funci´n de o distribuci´n. A partir de ahora y en el resto del curso consideraremos como elemento base un espacio de probabilidad (Ω. Variables aleatorias Una variable aleatoria es una funci´n del espacio muestral en el conjunto de o n´meros reales que adem´s satisface cierta condici´n de medibilidad. Mediante una variable aleatoria uno puede considerar u que el posible experimento aleatorio en cuesti´n no produce como resultao dos elementos de Ω sino n´meros reales. el t´rmino aparecer´ con mucha frecuencia a lo largo del curso. Se estudian tambi´n algunas o o e distribuciones de probabilidad de variables aleatorias discretas y continuas particulares. P ). Reu a o presenta una traducci´n de cada uno de los resultados del espacio muestral o en n´meros reales.

que o o para el caso de variables aleatorias puede ilustrarse gr´ficamente como se a indica en la Figura 2. Explicamos a continuaci´n la raz´n t´cnica por la cual se le pide a una funo o e ci´n X : Ω → R que cumpla la condici´n de medibilidad. Variables aleatorias ´ Definicion. 1] resulta ser una medida de probabilidad. y o ıa se dice entonces que dicha funci´n es medible respecto de las σ-´lgebras F o a y B(R). Esto es. o Gr´ficamente una variable aleatoria puede representarse como se muestra a en la Figura 2. B(R)) del siguiente modo: Si B es un conjunto Boreliano definimos PX (B) = P (X −1 B).2. y se le o llama por tanto la medida de probabilidad inducida por la variable aleatoria. dominio de definici´n de P . Recordemos que P o o es una medida de probabilidad definida sobre el espacio medible (Ω. lo cual es posible pues el conjunto X −1 B es un elemento de F . Una variable aleatoria real es una funci´n X : Ω → R tal que para cualquier conjunto Boreliano B.1. La o funci´n PX : B(R) → [0.) es una funci´n de Ω en R tal que la imagen inversa de cualquier o conjunto Boreliano es un elemento de la σ-´lgebra del espacio de probabia lidad.a. una variable aleatoria (a veces se escribe simplemente v. F ). Si X es una variable aleatoria. (Variable aleatoria). En un ap´ndice al final del texto aparece una secci´n que contiene e o una discusi´n breve del concepto de imagen inversa de una funci´n. se o cumple que el conjunto X −1 B es un elemento de F .1: Una variable aleatoria es una funci´n medible de Ω en R.1. X ω Ω X(ω) R Figura 2. Esta condici´n se conoce como medibilidad en teor´ de la medida.58 2. entonces podemos trasladar la medida de probabilidad P al espacio medible (R. .

∞)} puede ser denotado por X −1 [0. sino que es suficiente tomar intervalos de la forma (−∞. en la mayor´ de las veces. Por ejemplo. como uno puede imaginar. La siguiente proposici´n establece que no es necesao rio demostrar la condici´n de medibilidad para cualquier conjunto Boreliano o B. ∞)). b). Veamos otro ejemplo. se puede usar el s´ ımbolo X −1 (a. Variables aleatorias 59 X −1 X −1 B Ω B R Figura 2. En muy pocos casos tal condici´n puede comprobarse o de manera tan directa. incluyendo los par´ntesis. x]. que lo es. se usan los s´ ımbolos X −1 B y (X ∈ B) para denotar el conjunto {ω ∈ Ω : X(ω) ∈ B}. la definici´n requiere verificar la condici´n X −1 B ∈ F para cualquier o o conjunto Boreliano B. Para hacer la escritura m´s corta. ıa Para comprobar que una funci´n X : Ω → R es realmente una variable aleao toria. o simplemente por (X ≥ 0). el conjunto {ω ∈ Ω : X(ω) ∈ [0.Cap´ ıtulo 2. o bien (a < X < b) para denotar el conjunto {ω ∈ Ω : X(ω) ∈ (a. De este modo se construye el espacio de probabilidad (R. es de suma utilidad y lo usaremos con frecuencia en el resto del cap´ ıtulo. ∞) o (X ∈ [0. Este resultado. b)}. B(R). Si B es un conjunto Boreliano. A menudo se le denota por L(X). Se le conoce tambi´n con el nombre de distribuci´n o ley de probabilidad de e o X. b) es un intervalo de la recta real. para cada x en R. a menudo se omite el argumento a ω de una variable X y se omite tambi´n el t´rmino variable aleatoria para e e X suponiendo. o (X ∈ (a. b)). PX ). e si (a. .2: La imagen inversa de un conjunto de Borel.

. o Demostraci´n. ´ . ∞ Bn ∈ n=1 n=1 n=1 B. c) Sea B1 . Entonces B ∈ B(R) y X −1 B ∈ F . para cada n´mero o u natural n. . Resta entonces hacer ver que B es efectivamente una σ-´lgebra. u (⇐) Ahora suponga que para cada real x. Entonces a B es una σ-´lgebra que contiene a C . b) Sea B ∈ B. el conjunto (X ≤ x) es un elemento de F . y Entonces claramente C ⊆ B ⊆ B(R). pues R ∈ B(R) y X −1 R = Ω ∈ F. Entonces ∞ Bn ∈ n=1 B(R) y ∞ X −1 Bn = X −1 ∞ Bn ∈ F . Bn ∈ B(R) y X −1 Bn ∈ F . Variables aleatorias ´ Proposicion. Es decir. existen otras condiciones igualmente equivalentes y utiles. y entonces X es variable aleatoria. Una funci´n X : Ω → R es una variable aleatoria si. a a) Primeramente tenemos que R ∈ B. . Suponga por o o o un momento que B es una σ-´lgebra de subconjuntos de R. B c ∈ B. para cada x en R se cumple que (X ≤ x) ∈ F . entonces claramente se cumple que para cualquier n´mero real x el conjunto (X ≤ x) es un elemento de F .1. Es decir. Por lo tanto σ(C ) = B(R) ⊆ B. B2 . Adem´s de la condici´n anterior para demostrar que una funci´n es vaa o o riable aleatoria. Sean B y C las colecciones B = {B ∈ B(R) : X −1 B ∈ F }. a Esto implica que B = B(R). y la segunda es por definici´n de la colecci´n B. y o s´lo si. Por lo tanto B c ∈ B(R) y X −1 B c = (X −1 B)c ∈ F . Es decir.60 2. La primera contenci´n es por o hip´tesis. C = {(−∞. x] : x ∈ R}. o (⇒) Si X es variable aleatoria. una sucesi´n en B.

a) σ(X) = σ(X 2 ). La funci´n constante X = c es una variable aleatoria. ´ Proposicion. Variables aleatorias 61 Por ejemplo. Tambi´n es equie valente la condici´n (a < X < b) ∈ F . o (X > x) ∈ F . Cualquiera de estas condiciones es necesaria y suficiente para que X sea variable aleatoria. σ(X) = { X −1 B : B ∈ B(R) }. y claramente X es variable aleatoria si. para cada B en B(R). Demuestre en cada caso. Suponga entonces que (Ω. F . Si X es una funci´n de Ω en R. ´ Definicion. por lo tanto X es . c) σ(X) = σ(2X). para cualquier intervalo (a. o (X ≥ x) ∈ F . P ) es un espacio de probabilidad dado. y X −1 B = ∅ si c ∈ B. entonces se denota por σ(X) a la m´ o ınima σ-´lgebra de a subconjuntos de Ω respecto de la cual X es variable aleatoria. constante X = c se tiene que X / En ambos casos el conjunto X −1 B es un elemento de F . A continuaci´n se demuestra que algunas operaciones b´sicas entre variao a bles aleatorias producen nuevas variables aleatorias. b) de o R. Considere ahora los espacios medibles (Ω. y s´lo si. se dice que una funci´n g : R → R es Borel medible si o g−1 B ∈ B(R). (X < x) ∈ F . Para la funci´n o o −1 B = Ω si c ∈ B. Diga falso o verdadero. b) σ(X) = σ(−X). Sea B un elemento cualquiera de B(R). a o En particular. σ(X) ⊆ F . Ejercicio. La demostraci´n de todas estas aseveraciones es completamente an´loga o a al caso demostrado arriba y se pide desarrollar los detalles en la secci´n de o ejercicios. B(R)). Es sencillo probar que tal colecci´n de im´genes inversas es efectivamente o a una σ-´lgebra. X es variable aleatoria si para cada x en R.Cap´ ıtulo 2. F ) y (R. o Demostraci´n. Todas las variables aleatorias que se consideran a continuaci´n est´n definidas sobre este mismo espacio o a de probabilidad.

entonces el conjunto (cX ≤ x) = (X ≤ x/c) es un elemento de F .1) Es claro que a partir de esta igualdad se concluye que el conjunto (X + Y > x) es un elemento de F . (⊆) Sea ω en Ω tal que X(ω) + Y (ω) > x. la imagen o u inversa del conjunto (−∞.62 variable aleatoria. Por u lo tanto X(ω) > r y Y (ω) > x − r.a.s. Entonces X(ω) > x − Y (ω). por la proposici´n anterior.1. Finalmente si c = 0. 2. Comprobaremos que para cada n´mero real x. Si c < 0. Demostraci´n. x]. Como los n´meros racionales son un conjunto denso en R.a. Resta entonces demoso o trar (2. Probaremos que para cada n´mero real x. entonces X + Y es variable aleatoria. Si X es variable aleatoria y c es una constante. entonces es claro que cX es la constante cero que es v. entonces cX tambi´n es variable aleatoria. bajo la funci´n cX. Para ello usaremos la igualdad (X + Y > x) = r∈Q (X > r) ∩ (Y > x − r). (2. o ´ Proposicion. entonces nuevamente el conjunto (cX ≤ x) = (X ≥ x/c) es un elemento de F pues X es v. Si X y Y son v.a. e Demostraci´n. pues tanto X como Y son variables aleatorias.a. . y la operaci´n de uni´n involucrada es numerable.1). pues X es v. tenemos u que existe un n´mero racional r tal que X(ω) > r > x − Y (ω). el conjunto (X + o u Y > x) es un elemento de F . es un elemento de F . o Tenemos tres casos: Si c > 0. De aqui se desprende que ω es un elemento del lado derecho. Variables aleatorias ´ Proposicion.

Entonces neo cesitamos probar que para todo n´mero real x. X = Y . Para .Cap´ ıtulo 2. Sean X y Y v.a. Para el caso general. Si X y Y son v.a. el o producto XY es efectivamente una variable aleatoria. Entonces existe un n´mero racional r0 tal que X(ω) > r0 y Y (ω) > x − r0 .s. Como consecuencia se cumple que si multiplicamos X por s´ misma n veces. Demostraci´n. Demostraci´n. Por lo tanto toda funci´n polinomial de o una variable aleatoria es tambi´n variable aleatoria. u Sumando obtenemos X(ω) + Y (ω) > x. y √ √ (X 2 ≤ x) = (− x ≤ X ≤ x) si x ≥ 0. Entonces X/Y es variable aleatoria.s con Y = 0. Variables aleatorias 63 (⊇) Sea ahora ω un elemento de r∈Q (X > r) ∩ (Y > x − r). ´ Proposicion. Pero esto es cierto pues (X 2 ≤ x) = ∅ si x < 0. En ambos casos. usamos la f´rmula XY = ( (X + Y )2 − (X − Y )2 )/4. e ´ Proposicion. es suficiente demostrar que 1/Y es variable aleatoria. Suponga primero el caso particular X = Y . entonces XY es variable aleatoria. Como el producto de variables aleatorias es nuevamente una o variable aleatoria. el conjunto (X 2 ≤ x) es u un elemento de F . el conjunto (X 2 ≤ x) es un elemento de F . ı entonces X n es variable aleatoria. y por lo tanto ω es tambi´n e un elemento del lado izquierdo. Por lo demostrado antes.

Y > 0) ∪ (Y ≤ . Si X y Y son variables aleatorias. entonces m´x{X. ´ Proposicion. Por otro lado. Y > 0) ∪ ( ≤ y. Y > 0) ∪ ( ≤ y. Y } a y m´ ın{X. Y > 0) ∪ ( ≤ 0.64 2.a. Finalmente cuando y = 0 obtenemos una vez mas un elemento de F pues ( 1 1 1 ≤ 0) = ( ≤ 0. e . Y } tambi´n lo son. Y > 0) ∪ (Y ≥ . Y < 0) Y Y Y 1 1 = (Y ≤ . Y < 0) Y Y Y 1 1 = (Y ≥ .1. Y < 0) y 1 = ( ≤ Y < 0). si y < 0 tenemos que ( 1 1 1 ≤ y) = ( ≤ y. Variables aleatorias cualquier n´mero real y > 0 tenemos que u ( 1 1 1 ≤ y) = ( ≤ y. Y < 0) y y 1 = ∅ ∪ (Y ≥ . y que es un elemento de F puesto que Y es variable aleatoria. puesto que Y es v. Y < 0) Y Y Y = ∅ ∪ (Y < 0) = (Y < 0). Y < 0) y y 1 = (Y ≥ ) ∪ (Y < 0). y Nuevamente vemos que este conjunto es un elemento de F .

1} junto con la σa ´lgebra F = {∅. Para cualquier n´mero real x. entonces no necesariamente X es variable aleatoria. Demostraci´n. Si x ≥ 0. Y } ≤ x) = (X ≤ x. Ejemplo. o u (m´x{X. ´ Proposicion. y si x < o 0. Entonces |X| es variable aleatoria pues para cualquier conjunto Boreliano B. de modo que |X| es variable aleatoria. entonces (|X| ≤ x) = (−x ≤ X ≤ x). 65 Como consecuencia se obtiene que tanto X + = m´x{0.  Ω    {−1. 1}. a An´logamente. 0. X} como X − = a − m´ ın{0. Y ≤ x) = (X ≤ x) ∩ (Y ≤ x). Considere el espacio muestral Ω = {−1. Variables aleatorias Demostraci´n. esto es. Ω}. Sea X : Ω → R la funci´n identidad o X(ω) = ω. Si X es variable aleatoria. / |X|−1 B =  {0} si 0 ∈ B y 1 ∈ B. /    ∅ si 0. 1 ∈ B. entonces |X| es variable aleatoria. y por lo expuesto anteriormente obtener la misma conclusi´n. Alternativamente se puede escribir |X| = X + + X − . si X : Ω → R es una funci´n tal que |X| es o variable aleatoria. 1 ∈ B. {−1. {0}. o Se muestra a continuaci´n que en general el rec´ o ıproco de la proposici´n o anterior es falso.Cap´ ıtulo 2. entonces (|X| ≤ x) = ∅ ∈ F . / . a (m´ ın{X. 1} si 0 ∈ B y 1 ∈ B.  si 0. Y ≥ x) = (X ≥ x) ∩ (Y ≥ x). Y } ≥ x) = (X ≥ x. X} son variables aleatorias.

Sin embargo X no es variable aleatoria pues el conjunto X −1 {−1} = {−1} no es un elemento de F . X2 (ω). . Ahora consideraremos algunas operaciones l´ ımite en sucesiones infinitas de variables aleatorias. . Sea X1 . |X|−1 B es un elemento de F . S´lo consideraremos variables aleatorias con valores fio nitos.} e ´ {X1 (ω). . . el lector puede encontrar una revisi´n breve de e o estas operaciones al final del texto. X2 .} ınf ınf son finitos. Entonces las funciones sup {Xn } e ´ {Xn } son variables n≥0 n≥0 aleatorias. . X2 (ω). Para cualquier n´mero real x. . (Xn ≥ x). o u ( sup Xn ≤ x ) = n≥0 ∞ e ( ´ Xn ≥ x ) = ınf n≥0 n=1 ∞ n=1 (Xn ≤ x). los n´meros u sup {X1 (ω). Variables aleatorias Es decir. ´ Proposicion. El siguiente resultado hace uso de las operaciones de l´ ımite superior e inferior para sucesiones num´ricas. Demostraci´n.1.66 2. una sucesi´n infinita de variables aleatoo rias tales que para cada ω en Ω. . . de modo que impondremos condiciones sobre la finitud del resultado al tomar tales operaciones l´ ımite. . .

una sucesi´n infinita de variables aleatoo rias tales que para cada ω en Ω. . X2 (ω). una sucesi´n infinita de variables aleatoo rias tales que l´ Xn (ω) existe y es finito para cada ω ∈ Ω. . Entonces las funciones l´ sup Xn y l´ inf Xn son variables ım ım aleatorias. los n´meros u ım l´ sup {X1 (ω). Entonces ım n→∞ la funci´n l´ Xn es una variable aleatoria. . . Variables aleatorias 67 ´ Proposicion. .} y l´ inf {X1 (ω). X2 (ω). . ım ınf n→∞ k n≥k y ınf l´ inf Xn = sup ( ´ Xn ). . n→∞ n→∞ Demostraci´n. o ım n→∞ Demostraci´n. X2 . . X2 . .Cap´ ıtulo 2. . ´ Proposicion. Sea X1 . . . el l´ o ımite de Xn es variable aleatoria. Esto es consecuencia de la proposici´n anterior pues o o l´ sup Xn = ´ ( sup Xn ). ım n→∞ k n≥k Finalmente demostramos que el l´ ımite de una sucesi´n de variables aleatoo rias convergente es variable aleatoria. . los l´ ımites superior e inferior de esta sucesi´n coinciden. Entonces por lo demostrado antes. Sea X1 .} ım son finitos. Como el l´ o ımite de Xn existe.

La funci´n de distribuci´n es importante pues. definida o como sigue F (x) = P (X ≤ x). en una de las cuales aparece la expresi´n F (x+).2. de manera an´loga. Veremos a continuaci´n algunas propiedades o b´sicas de esta funci´n. pero en general se omite el sub´ ındice X cuando no haya posibilidad de confusi´n. o funci´n e o o o de probabilidad acumulada. ´ ´ ´ Definicion. y siendo una probabilidad. como se ilustrar´ m´s adelano o a a te. el l´ a e o a ımite por la izquierda de la funci´n F en el punto x. 1]. Observe que la funci´n de distribuci´n de una o o variable aleatoria est´ definida sobre la totalidad del conjunto de n´meros a u reales. En esta secci´n se define esta importante funci´n y se demuestran o o o algunas de sus propiedades. El argumento de la funci´n es la letra min´scula x que puede o o u tomar cualquier valor real. que significa. Funci´n de distribuci´n o o Toda variable aleatoria tiene asociada una funci´n llamada funci´n de diso o tribuci´n. Cuando sea necesario especificar la variable aleatoria en cuesti´n se escribe o FX (x).68 ´ ´ 2. Por razones obvias a esta funci´n se le conoce o tambi´n con el nombre de funci´n de acumulaci´n de probabilidad.2. Apareo cer´ tambi´n la expresi´n F (x−). (Funcion de distribucion). La funci´n de distribuci´n o o de una variable aleatoria X es la funci´n F (x) : R → [0. a o o que significa el l´ ımite por la derecha de la funci´n F en el punto x. contiene ella toda la informaci´n de la variable aleatoria y la correspono diente medida de probabilidad. Funcion de distribucion 2. 1]. o . toma valores en el intervalo [0.

Sea F (x) la funci´n de distribuci´n de una variable aleao o toria. ım ım n→∞ Por lo tanto.Cap´ ıtulo 2. Entonces {An : n ∈ N} es una sucesi´n de eventos decreciente al o conjunto vac´ Nuevamente por la propiedad de continuidad ıo. entonces F (x1 ) ≤ F (x2 ). x2 . y sean los eventos An = (X ≤ xn ). F (x) converge a cero cuando x tiende a menos infinito. ım n→∞ Dado que R es un espacio m´trico. lo anterior implica que F (x) cone verge a uno cuando x tiende a infinito. 2. 2. Demostraci´n. o 1. ım l´ F (x) = 0. 4. . . Entonces {An : n ∈ N} es una sucesi´n de eventos creciente cuyo l´ o ımite es Ω. F (x+) = F (x). ım x→−∞ 3. n→∞ l´ F (xn ) = l´ P (An ) = P (∅) = 0. Entonces 1. Variables aleatorias 69 ´ Proposicion. . Sea x1 . Por la propiedad de continuidad n→∞ ım l´ F (xn ) = l´ P (An ) = P (Ω) = 1. Si x1 ≤ x2 . F (x) es continua por la derecha. y sean los eventos An = (X ≤ xn ). Sea ahora {xn : n ∈ N} una sucesi´n cualquiera de n´meros reales o u decreciente a menos infinito. x→+∞ l´ F (x) = 1. es decir. una sucesi´n cualquiera de n´meros reales creciente a o u infinito. .

70 3. a o o o no haciendo referencia a variables aleatorias ni a espacios de probabilidad particulares. = P [(X ≤ x1 ) ∪ (x1 < X ≤ x2 )] o u 4. ´ ´ 2. Es decir ıo. o o . . . Sea x1 . (Funcion de distribucion). Se tiene adem´s la siguiente definici´n general de funci´n de distribuci´n.2. 1] una funci´n de distribuci´n. x2 . Para x1 ≤ x2 . 1] es llamada funci´n de distribuci´n si cumple las cuatro propiedades o o anteriores. Entono o ces existe un espacio de probabilidad (Ω. Sea F (x) : R → [0. Funcion de distribucion F (x1 ) ≤ F (x1 ) + P (x1 < X ≤ x2 ) = P (X ≤ x2 ) = F (x2 ). P ) y una variable aleatoria X cuya funci´n de distribuci´n es F (x). en donde An = (x < X ≤ x + xn ) es una sucesi´n de eventos decreo ciente al conjunto vac´ Por lo tanto l´ F (x + xn ) = F (x). . ´ ´ ´ Definicion. Una funci´n F (x) : R → o [0. Se enuncia a continuaci´n este o o o interesante resultado cuya demostraci´n omitiremos y puede encontrarse o por ejemplo en [15]. Entonces F (x + xn ) = F (x) + P (x < X ≤ x + xn ). F . ım n→∞ F (x+) = F (x). Una especie de rec´ ıproco de la ultima proposici´n es v´lido y ello justifica ´ o a la importancia de la funci´n de distribuci´n. una sucesi´n cualquiera de n´meros reales no negativos y decreciente a cero. ´ Proposicion.

o o . Tambi´n pueden presentarse situaciones como la que se muestra e en la Figura 2. Variables aleatorias 71 Por lo tanto basta dar una funci´n de distribuci´n espec´ o o ıfica para saber que existe un cierto espacio de probabilidad y una variable aleatoria definida sobre ´l y cuya funci´n de distribuci´n es la especificada. o Se demuestran ahora algunas otras propiedades que establecen la forma de calcular probabilidades usando la funci´n de distribuci´n.3 corresponde a la funo a ci´n de distribuci´n de una variable aleatoria discreta. Este es el punto de e o o vista que a menudo se adopta en el estudio de las variables aleatorias. y la gr´fica de la o o a derecha muestra el comportamiento t´ ıpico de una funci´n de distribuci´n o o continua. y que corresponde al caso de una variable aleatoria mixta. o F (x) 1 1 F (x) x x Figura 2. La definici´n de variable aleatoria discreta. La gr´fica de la izquierda en la Figura 2.4. continua y mixta aparece en la o siguiente secci´n.Cap´ ıtulo 2. A continuaci´n se presentan algunos ejemplos gr´ficos de funciones de diso a tribuci´n.3: Funciones de distribuci´n discreta y continua. quedando un espacio de probabilidad no especificado en el fondo como elemento base en todas las consideraciones.

. 3. P (a < X ≤ b) = F (b) − F (a). P (X < a) = F (a−). 5. Sea An el evento (X ≤ a − xn ). 6. P (a ≤ X ≤ b) = F (b) − F (a−). o 1. ım ım n→∞ n→∞ . 2. Por la propiedad o de continuidad P (X < a) = l´ P (An ) = l´ F (a − xn ) = F (a−). Entonces {An : n ∈ N} es una sucesi´n de eventos decreciente al evento (X < a). P (a < X < b) = F (b−) − F (a).72 ´ ´ 2. P (X = a) = F (a) − F (a−). Para cualesquiera n´meros reales a < b. 4. Sea x1 . . u 1. Demostraci´n. . o o ´ Proposicion. una sucesi´n de n´meros reales positivos y decreciente o u a cero. Funcion de distribucion F (x) 1 x Figura 2. x2 . Sea X una variable aleatoria con funci´n de distribuci´n o o F (x).4: Una funci´n de distribuci´n mixta. P (a ≤ X < b) = F (b−) − F (a−).2.

Estas igualdades se sigue directamente de las dos primeras. En consecuencia.5. o F (b) − F (a) = P (a < X ≤ b) = P (a < X < b) = P (a ≤ X ≤ b) = P (a ≤ X < b). Observe que como F (x) es una funci´n no decreciente y continua por la o derecha. Esto se muestra en la Figura 2.5: Una discontinuidad de F (x) y su significado. la probabilidad P (X = x) es igual a F (x) − F (x−). 73 F (x) 1 P (X = x) = F (x) − F (x−) x Figura 2.Cap´ ıtulo 2. que representa el tama˜o del salto o discontinuidad de la funci´n de distribuci´n en el punto n o o x. incluir o excluir los extremos o de un intervalo no afecta el valor de la probabilidad de dicho intervalo.– 6. Variables aleatorias 2. cuando F (x) es una funci´n continua. Es decir. 3. Por . cuando F (x) es una funci´n continua y para a < b. Simplemente se escribe P (X = a) = P (X ≤ a) − P (X < a) = F (a) − F (a−).

y mezclas de las dos anteriores.74 2. ∞ n=1 Dn . Tipos de variables aleatorias Las variables aleatorias se clasifican en varios tipos dependiendo de las caracter´ ısticas de la correspondiente funci´n de distribuci´n. Finalizamos esta secci´n con un resultado interesante cuya prueba o es sorprendentemente simple. la probabilidad del evento (X = x) u es cero. continuas. ´ Proposicion. Tipos de variables aleatorias lo tanto. Para cada n´mero natural n defina los subcono o u juntos 1 1 Dn = { x ∈ D : < F (x) − F (x−) ≤ }.3. Veamos su definici´n. Al menos existen o o tres tipos: discretas. Sea D el conjunto de puntos de discontinuidad de una funo ci´n de distribuci´n F (x).3. Demostraci´n. Toda funci´n de distribuci´n tiene a lo sumo un n´mero o o u numerable de discontinuidades. para cualquier n´mero real x. Como D = concluye que D es numerable. se 2. o . n+1 n Cada conjunto Dn tiene a lo sumo n elementos.

o En tal caso tambi´n se dice que la distribuci´n es continua. . Sean x1 . e o o adem´s la funci´n de probabilidad f (x) siempre existe. Veamos ahora el caso continuo. x2 .2) La funci´n de distribuci´n se reconstruye de la forma siguiente o o F (x) = u≤x f (u). La variable aleatoria X se llama continua si su correspondiente funci´n de distribuci´n es una o o funci´n continua. . como una analog´ con el caso de variables aleatorias o ıa continuas definidas m´s adelante. Cuando sea necesario especificarlo se esa cribe fX (x) en lugar de f (x). . Observe que la funci´n de probabilidad f (x) es o una funci´n no negativa que suma uno en el sentido i f (xi ) = 1. Tambi´n se acostumbra usar el t´rmino o e e funci´n de densidad. . Las distribucioe o nes continuas se clasifican a su vez en distribuciones absolutamente continuas . (2. En cada uno de estos puntos el tama˜o de la n o discontinuidad es P (X = xi ) = F (xi ) − F (xi −) > 0. y se le llama tambi´n a o e funci´n de masa de probabilidad.Cap´ ıtulo 2.2) que cumpla estas dos propiedades se o le llama funci´n de probabilidad. Variables aleatorias 75 ´ Definicion. 0 otro caso. . (Variable aleatoria continua). (Variable aleatoria discreta). La variable aleatoria X se llama discreta si su correspondiente funci´n de distribuci´n F (x) o o es una funci´n constante por pedazos. . o y se define como sigue f (x) = P (X = x) si x = x1 . sin que haya necesariamente una variable o aleatoria de por medio. Rec´ o ıprocamente. En este caso se dice tambi´n que la funci´n de distribuci´n es discreta. ´ Definicion. x2 . toda funci´n de la forma (2. los puntos de o discontinuidad de F (x). A la funci´n f (x) que indica estos incrementos se le llama funci´n de probabilidad de X.

Esto se ilustra a o en la Figura 2. y ello o e ´ se justifica por el hecho de que las probabilidades son las mismas. En tales situaciones u se dice que la distribuci´n es singular. u ı nos referiremos a la funci´n de densidad como si ´sta fuera unica. si existe una funci´n no negativa e integrable o f tal que para cualquier valor de x se cumple x F (x) = −∞ f (u) du. la probabilidad de que X tome un valor en el intervalo (a. (2. Tipos de variables aleatorias y distribuciones singulares.3) para cualquier n´mero real x. que no existe una funci´n f no negativa e ino o tegrable que cumpla (2.76 2. es decir. Pueden construirse ejemplos de variables aleatorias continuas que no tienen funci´n de densidad. u o ´sta puede no ser unica.3) En tal caso a la funci´n f (x) se le llama funci´n de densidad de X.6. toda funci´n f (x) no negativa que integre uno en R se o llama funci´n de densidad.3). o Es claro que la funci´n de densidad de una variable aleatoria absolutameno te continua es no negativa y su integral sobre toda la recta real es uno. Rec´ ıprocamente. A pesar de ello.3. entonces el teoreo o ma fundamental del c´lculo establece que. ya sea usando una funci´n de densidad o modificaciones de ella que cumplan (2. La variable aleatoria continua X con funci´n de distribuci´n F (x) se llama o o absolutamente continua. (Variable aleatoria absolutamente continua). a Adem´s. o o A´n cuando exista una funci´n no negativa e integrable f que cumpla (2. pues basta modificarla en un punto para que sea e ´ ligeramente distinta pero a´n as´ seguir cumpliendo (2. Si X es absolutamente continua con funci´n de o o distribuci´n F (x) y funci´n de densidad continua f (x). o . ´ Definicion. b) es a el ´rea bajo la funci´n de densidad sobre dicho intervalo.3). la probabilidad es la misma si se incluyen o excluyen los extremos del intervalo.3).3). a partir de (2. F ′ (x) = f (x).

se llama o o ′ (x) = 0 casi seguramente. ´ Definicion. (Variable aleatoria mixta). No es dif´ encontrar situaciones en donde la variable aleatoria en estudio ıcil es mixta. b)) = f (x) dx a x a b a o Figura 2.6: La probabilidad como el ´rea bajo la funci´n de densidad. (Variable aleatoria singular).Cap´ ıtulo 2. singular si F El t´rmino “casi seguramente” que aparece en esta definici´n se refiere a que e o la igualdad se cumple en todos los puntos x excepto en un conjunto cuya medida de Lebesgue es cero. Sea X una variable aleatoria con funci´n de distribuci´n o o FX (x) = 1 − e−x 0 si x > 0. ´ Definicion. Ejemplo (Una variable aleatoria que no es discreta ni continua). La variable aleatoria continua X. el siguiente ejemplo es una muestra de ello. o su correspondiente funci´n de distribuci´n F (x). Las distribuciones singulares son un poco m´s a delicadas de estudiar y no haremos mayor ´nfasis en ellas. si x ≤ 0. Una variable aleatoria que no es discreta ni continua se llama variable aleatoria mixta. Variables aleatorias 77 f (x) b P (X ∈ (a. . La distribuci´n de e o Cantor es un ejemplo de este tipo de distribuciones y se construye mediante un proceso l´ ımite. Los detalles pueden encontrarse en [13] o [19].

o se muestran en la Figura 2.7. Tipos de variables aleatorias Como la funci´n FX (x) es continua. Las gr´ficas de las funciones de distria buci´n de las variables X y la constante M (vista como variable aleatoria). Sea M > 0 una constante.8. Puede comprobarse que la funci´n de distribuci´n de o o Y es   0  FY (y) = 1 − e−y   1 si y ≤ 0. M ). Es claro que esta funci´n de distribuci´n a o o no es constante por pedazos pues es creciente en el intervalo (0. si 0 < y < M. M }.7: Funciones de distribuci´n de la variable X y la constante M . Finalmente enunciamos un resultado general cuya demostraci´n puede eno contrarse en [7] o [13]. si y ≥ M. entonces la variable aleatoria X es o continua. con gr´fica como en la Figura 2. por lo tanto no es discreta.78 2. o Sea Y = m´ ın{X. y tampoco es continua pues tiene una discontinuidad en y = M . FX (x) FM (x) 1 1 x M x Figura 2. . Por lo tanto Y es una variable aleatoria que no es discreta ni continua.3.

Toda funci´n de distribuci´n F (x) se puede escribir como o o una combinaci´n lineal convexa de una funci´n de distribuci´n discreta o o o F d (x) y otra continua F c (x). Variables aleatorias FY (y) 79 1 y M Figura 2. Esto lleva al resultado general de que cualquier o distribuci´n puede escribirse como una combinaci´n lineal convexa de los o o tres tipos b´sicos de distribuciones.8: Funci´n de distribuci´n de la variable Y = m´ o o ın{X. M } analizada en el ejemplo anterior. ´ Proposicion. admite la siguiente representaci´n o F (x) = αF d (x) + (1 − α)F c (x).Cap´ ıtulo 2. en donde F d (y) es la distribuci´n discreta de la variable constante M . y o . eso a ta distribuci´n continua puede a su vez escribirse como otra combinaci´n o o lineal convexa entre una distribuci´n absolutamente continua y una distrio buci´n continua singular. Considere nuevamente la funci´n de distribuci´n de la variable o o Y = m´ ın{X. En el caso general. Hemos visto que esta distribuci´n no es discreta ni continua. M }. es decir. a Ejemplo. en donde 0 ≤ α ≤ 1. sin embargo puede descomponerse o en la combinaci´n lineal convexa o FY (y) = e−M F d (y) + (1 − e−M )F c (y). En todos los casos que consideraremos en este texto la distribuci´n continua o de esta descomposici´n ser´ absolutamente continua.

Sin embargo. se considera que la igualdad es v´lida en el a sentido fuerte.. es decir. o bien X = Y . M´s generalmente. si X y Y tienen la misma o distribuci´n.s. si FX (x) = FY (x) o para cada n´mero real x. Tipos de variables aleatorias F c (y) es la distribuci´n continua o   0   1 − e−y c FY (y) =  1 − e−M   1 si y ≤ 0. y se escribe X = Y c. otras formas m´s d´biles de a e igualdad que enunciaremos a continuaci´n. si se cumple que P (X = Y ) = 1. un evento a ocurre casi seguramente si su probabilidad es uno. si y ≥ M. es decir. o ´ Definicion. si 0 < y < M. sin embargo. Es interesante observar que la igualdad casi segura es m´s fuerte que la a igualdad en distribuci´n. entonces no necesariamente son iguales casi seguramente. casi seguro. si X y Y son iguales casi seguramente.s. o entonces son iguales en distribuci´n. u d c. Igualdad de variables aleatorias Dos variables aleatorias X y Y son estrictamente iguales si para cada ω se cumple X(ω) = Y (ω). si sus correspondientes o funciones de distribuci´n coinciden. cuando aparezca una expresi´n de igualo dad entre variables aleatorias. (Igualdad de variables aleatorias). Existen.80 2. y se escribe X = Y .3. A o menos que se indique lo contrario. Se dice que dos variables aleatorias X y Y son a) iguales casi seguramente. es decir. b) iguales en distribuci´n. .

A la funci´n integradora F (x) se le e a o o pide que sea continua por la derecha.4. a en donde las funciones h(x) y F (x) deben cumplir ciertas condiciones para que la integral tenga sentido y est´ bien definida. Considere por ejemplo la variable X tal que P (X = −1) = P (X = 1) = 1/2. Esto no es coincidencia pues usaremos las o funciones de distribuci´n como funciones integradoras. Al integrando h(x) se le o pide inicialmente que sea una funci´n acotada en el intervalo (a. b]. b]. y de o o hecho la notaci´n es la misma. o Presentamos a continuaci´n la definici´n de la integral de Riemann-Stieltjes o o bajo las condiciones arriba se˜aladas. Sea {a = x0 < x1 < · · · < o a xn = b} una partici´n finita del intervalo (a. . Variables aleatorias 81 Ejercicio. auno que despu´s se omitir´ esta condici´n. entonces X = Y .s. Por el contrario. d demuestre que si X = Y . Integral de Riemann-Stieltjes En esta secci´n se define la integral de Riemann-Stieltjes. Sean X y Y dos variables aleatorias.s. Demuestre que el conjunto (X = Y ) es un evento. y defina Y = −X. Ejercicio. entonces no necesariamente X = Y c.Cap´ ıtulo 2. En consecuencia tiene sentido calcular la probabilidad de tal conjunto. Esta es una inteo gral de la forma b h(x) dF (x). para alg´n n´mero M > 0.. Demuestre que si X = Y c. Observe que F (x) debe u u cumplir propiedades semejantes a las de una funci´n de distribuci´n. Esta integral es una e generalizaci´n de la integral usual de Riemann. En [15] puede encontrarse una expon sici´n m´s completa y rigurosa de esta integral. ınf h(xi ) = sup {h(x) : xi−1 < x ≤ xi }. y defina o y h(xi ) = ´ {h(x) : xi−1 < x ≤ xi }. mon´tona no decreciente y tal que o F (∞) − F (−∞) < M . d 2.

82 2. y se le o o denota por b h(x) dF (x). e . Si sucede que a −∞ < l´ S n = l´ S n < ∞. y Sn = i=1 Ahora se toma el l´ ımite cuando n tiende a infinito de tal forma que la longitud m´x{|xi − xi−1 | : 1 ≤ i ≤ n} tienda a cero. Se puede extender la definici´n de esta integral o de la siguiente forma ∞ −∞ b h(x) dF (x) = l´ ım a. si h(x) > N. si |h(x)| ≤ N.b→∞ a h(x) dF (x). a Y entonces se define Cuando la funci´n h(x) no es acotada o   −N  hN (x) = h(x)   N b se hace uso de la funci´n auxiliar o si h(x) < −N. cuando este l´ ımite existe. h(xi ) [ F (xi ) − F (xi−1 ) ]. b h(x) dF (x) = l´ ım a N →∞ a hN (x) dF (x). ım ım n→∞ n→∞ entonces a este valor com´n se le llama la integral de Riemann-Stieltjes de u la funci´n h(x) respecto de la funci´n F (x) sobre el intervalo (a.4. Integral de Riemann-Stieltjes Se define la suma superior e inferior de Riemann-Stieltjes como sigue n Sn = i=1 n ¯ h(xi ) [ F (xi ) − F (xi−1 ) ]. cuando el l´ ımite del lado derecho exista y est´ bien definido. b].

respectivamente. b e) a h(x) dF (x) = ∞ i=1 h(xi ) p(xi ). Finalmente enunciamos la propiedad que ilustra el hecho de que la integral de Riemann es . enunciaremos a continuaci´n algunas de ellas. . a b) a h(x) d(αF1 (x) + F2 (x)) = α a h(x) dF1 (x) + Cuando h(x) tiene primera derivada continua se cumple la f´rmula o b b c) a h(x) dF (x) = h(b)F (b) − h(a)F (a) − F (x)h′ (x) dx.. es decir. Variables aleatorias 83 La integral de Riemann-Stieltjes tiene varias propiedades semejantes a la integral de Riemann. . . . integrar respecto de una funci´n de distribuci´n absolutamente o o continua se reduce a efectuar una integral de Riemann. En este caso y suponiendo convergencia. Cuando F (x) es diferenciable se tiene la igualdad b b d) a h(x) dF (x) = a h(x)F ′ (x) dx. Es decir. Primeo ramente es lineal tanto en el integrando como en el integrador. si α es constante. entonces b b b a) a b (αh1 (x) + h2 (x)) dF (x) = α a b h1 (x) dF (x) + a b h2 (x) dF (x). x2 . El otro caso interesante ocurre cuando h(x) es continua y F (x) es constante excepto en los puntos x1 . Esto significa que integrar respecto de la funci´n de distribuci´n de una o o variable aleatoria discreta se reduce a efectuar una suma. en donde la funci´n tiene saltos positivos de tama˜o o n p(x1 ). . . a De particular importancia en la teor´ de la probabilidad son los siguientes ıa dos casos particulares. p(x2 ).Cap´ ıtulo 2. h(x) dF2 (x).

84 2.5. varianza y m´s generalmente los momentos de una variable aleatoria. y) y F (x. Caracter´ ısticas num´ricas e Se estudian a continuaci´n algunas caracter´ o ısticas num´ricas asociadas a e variables aleatorias. En algunos casos usaremos tambi´n la integral de Riemann-Stieltjes en vae rias dimensiones. Cuando F (x) = x se cumple b b f) a h(x) dF (x) = a h(x) dx. yj ) ∆F (xi . y) = l´ ım n. Para a ello haremos uso de la integral de Riemann-Stieltjes mencionada antes. y) funciones de dos variables. se definen los conceptos de esperanza. Por ejemplo. entonces b b h(x) dF (x) = α a a h(x) dF d (x) + (1 − α) b a h(x) dF c (x).5. En particular. y) dF (x. Por ahora no es clara la forma de definir este incremento pero retomaremos este concepto una vez que se haya definido a la funci´n de o distribuci´n en dimensiones mayores. yj ). o 2. sea {a = x0 < x1 < · · · < xn = b} una partici´n de (a. . Caracter´ ısticas num´ricas e un caso particular de la integral de Riemann-Stieltjes. xi ] × a (yj−1 . d]. en donde F d (x) es discreta y F c (x) es continua. b] y sea o {c = y0 < y1 < · · · < ym = d} una partici´n de (c. yj ) es el “incremento” de F en el rect´ngulo (xi−1 . Como toda funci´n de distribuci´n F (x) se puede deso o componer en una suma convexa αF d (x) + (1 − α)F c (x). en donde ∆F (xi . En la siguiente secci´n usaremos las funciones de distribuci´n como funo o ciones integradoras. yj ].m i=1 j=1 h(xi . sean h(x. entonces se define o b a c d n m h(x.

si o existe. . o o La esperanza de X. su esperanza. . se calcula como sigue E(X) = x xf (x).Cap´ ıtulo 2. y se denota por X(ω) dP (ω). Ω En algunas ocasiones usaremos esta expresi´n para tener compatibilidad en o notaci´n con la teor´ general. (Esperanza). si existe. es decir. a) Sea X con valores en el conjunto {1. cuando ∞ −∞ |x| dF (x) < ∞. Entonces E(X) = . y en tal caso se dice que X es integrable. Si X es absolutamente continua con funci´n de densidad f (x). Ejemplos. es o ∞ E(X) = −∞ xf (x) dx. entonces su esperanza. y con funci´n de probao bilidad f (x) = P (X = x) = 1/2x . Sea X con funci´n de distribuci´n F (x).}. . para x ≥ 1. o que tiene esperanza finita. y en general se usa la letra griega µ (mu) para denotarla. A la esperanza se le conoce tambi´n con el nombre de media. En la teor´ de la medida [5] [14] [29] se define la esperanza de una ıa variable aleatoria o funci´n medible X mediante una integral m´s general o a llamada integral de Lebesgue. e valor promedio o valor medio. se define como el n´mero u E(X) = ∞ −∞ x dF (x). Variables aleatorias 85 Esperanza La esperanza de una variable aleatoria es un n´mero que representa el prou medio ponderado de sus posibles valores. 2. o ıa Cuando X es discreta con funci´n de probabilidad f (x). cuando esta integral sea absolutamente convergente. o ´ Definicion. se calcula como se indica a continuaci´n. valor esperado. denotada por E(X).

1 ≤ x < 2.9.5. V´ase tambi´n el o e e ejercicio 151. Demuestre que no existe la esperanza de X cuando su funci´n o de probabilidad o de densidad es a) f (x) = 1 . 0 ≤ x < 1.86 ∞ x=1 xf (x) 2. Caracter´ ısticas num´ricas e = ∞ x x=1 x/2 = 2. b) Sea X continua con funci´n de densidad f (x) = 2x. o ∞ 1 Entonces E(X) = −∞ xf (x) dx = 0 x 2x dx = 2/3. 2 ≤ x < 3. b) f (x) = 1/x2 . . . 2. x(x + 1) para x = 1. para x > 1. x ≥ 3. Sea X una variable aleatoria con la siguiente funci´n de distrio buci´n. La integral o suma arriba mencionados pueden no existir y en ese caso se dice que la variable aleatoria no tiene esperanza finita. Ejemplo. Ejercicio. El siguiente ejercicio contiene un par de ejemplos que ilustran esta situaci´n. la cual se muestra en la Figura 2. . la espe- . a   0    x/4  F (x) = 2/4   1/4 + x/4    1 si si si si si x < 0. La forma de esta funci´n puede apreciarse m´s f´cilmente a trav´s o o a a e de su gr´fica. para 0 < x < 1. De acuerdo a las propiedades de la integral de Riemann-Stieltjes.

9: Una funci´n de distribuci´n mixta. Variables aleatorias 87 F (x) 1 3/4 2/4 1/4 x 1 2 3 Figura 2. o o ranza de X es entonces E(X) = = 0 ∞ −∞ 1 x dF (x) 1 2 1 3 2 dx + 1 ( − ) + 2 ( − ) + 4 4 4 4 4 3 x x 2 1 dx. despu´s se a˜aden los o e n puntos de discontinuidad ponderados por el tama˜o del salto. lo cual puede o no ser f´cil en muchos casos. la o esperanza de g(X) se calcula del siguiente modo: E[g(X)] = ∞ −∞ x dFg(X) (x).Cap´ ıtulo 2. 4 Despu´s de algunos c´lculos se encuentra que la esperanza es 15/4. si X es una variable aleatoria y g : R → R es una funci´n Borel medible. pero ello requiere encontrar primero la distribuci´n de g(X). Usando directamente la definici´n. Afortunadamente se cuenta con el siguiente rea sultado que establece una forma muy conveniente de calcular la esperanza de . es decir. n Con frecuencia surge el problema de calcular esperanzas de funciones de variables aleatorias. entonces g(X) es una variable aleatoria y el o problema es encontrar su esperanza. Observe e a la forma mixta en la que esta integral es calculada: en las partes crecientes se calcula como si fuera una distribuci´n continua.

5. Ejercicio. ´ Teorema. cuando X es discreta. . x2 . pero suponiendo conocida la distribuci´n o o de X. cuando la o funci´n g es la identidad. En particular. o . y sea g : R → R una funci´n Borel medible tal que g(X) tiene esperanza finita. Entonces E[g(X)] = ∞ −∞ g(x) dFX (x). la demostraci´n del teorema resulta no ser o complicada. (Esperanza de una funcion de una v. . Sea X una variable aleatoria discreta con valores en el conjunto o {x1 . o aunque un camino c´modo que puede adoptarse es aceptar la f´rmula ano o terior como la definici´n de la esperanza de g(X). sin conocer su distribuci´n.88 2. y sea g : R → R una funci´n Borel o o o medible tal que g(X) tiene esperanza finita.) Sea X con funci´n de distribuci´n FX (x). Caracter´ ısticas num´ricas e g(X).}. Se establecen a continuaci´n algunas propiedades de la esperanza. Por o o a otro lado. Demuestre que E[g(X)] = ∞ i=1 g(xi )P (X = xi ). . La demostraci´n de este resultado en general no es sencilla y la omitiremos. se recupera la definici´n b´sica de esperanza.a.

La ultima propiedad es f´cilmeno ´ a te demostrable en el caso discreto. E(c) = c. entonces E(X) ≤ E(Y ). F d (x) es una funci´n de distribuci´n discreta. y s´lo si.Cap´ ıtulo 2. Ejercicio. tanto Xd como Xc tienen esperanza finita. El caso general ser´ demostrado m´s a a adelante. la cual admite o o la descomposici´n o F (x) = αF d (x) + (1 − α)F c (x). (Propiedades de la esperanza). en donde α ∈ [0. Variables aleatorias 89 ´ Proposicion. Si X ≥ 0. 1]. Las demostraciones de las primeras cuatro propiedades son sencillas pues se siguen directamente de la definici´n. Sean X y Y con esperanza finita. 4. Sean X y Y discretas ambas con esperanza finita. 2. y sea c una constante. Demuestre directamente que E(X + Y ) = E(X) + E(Y ). Sea Xd con distribuci´n o o o d (x). E(X) = αE(Xd ) + (1 − α)E(Xc ). y o o F c (x) es una funci´n de distribuci´n continua. Entonces X tiene esperanza F o c finita si. entonces E(X) ≥ 0. y en tal o caso. . Sea X con funci´n de distribuci´n F (x). Entonces 1. E(X + Y ) = E(X) + E(Y ). ´ Proposicion. 5. 3. Si X ≤ Y . E(c X) = c E(X). y sea X con distribuci´n F c (x).

es Var(X) = ∞ 2 ımbolo −∞ (x − µ) f (x) dx. se calcula como sigue Var(X) = x (x − µ)2 f (x). Cuando X es discreta con funci´n de probabilidad f (x) y esperanza finita o µ. la varianza de X. se define como la siguiente esperanza. La varianza se denota regularmente por el s´ 2 (sigma cuadrada). Ejercicio. Si X es absolutamente continua con funci´n de densidad f (x) y o esperanza finita µ. . 0 otro caso. La varianza de una variable aleatoria X. cuando existe. entonces la varianza de X.90 2. A la ra´ cuadrada positiva de Var(X) se le llama σ ız desviaci´n est´ndar.5. Observe que para calcular la varianza se necesita conocer primero la esperanza. y en esa situaciones se dice que la variable aleatoria no tiene varianza. Caracter´ ısticas num´ricas e Este resultado es inmediato de demostrar usando la propiedad de linealidad de la integral de Riemann-Stieltjes respecto de la funci´n integradora. y se le denota naturalmente por σ. denotada por Var(X). o f (x) = 2/x3 si x > 1. si ´sta existe. o Varianza La varianza de una variable aleatoria es una medida del grado de dispersi´n o de los diferentes valores tomados por la variable. Nuevamente hay o a casos en los que la varianza no es finita. (Varianza). e Var(X) = E (X − E(X))2 . su definici´n es la siguiente. cuando existe. Demuestre que la varianza de una variable aleatoria con la siguiente funci´n de densidad no existe. o ´ Definicion.

Entonces 1. Var(c X) = c2 Var(X). Demuestre que Var(X) = E(X(X − 1)) − E(X)(E(X) − 1). Para la ultima propiedad puede tomarse Y = X. (Propiedades de la varianza). o ´ Proposicion. Sean X y Y con varianza finita. se siguen directamente de la definici´n y de la propiedad lineal de la ´ o esperanza. Var(X) ≥ 0. con Var(X) = 0. En general. Var(X + c) = Var(X). y sea c una constante. Var(X + Y ) = Var(X) + Var(Y ). 4. Bajo ciertas o condiciones el conjunto de momentos determinan de manera unica a la dis´ tribuci´n de probabilidad. 6. 2. Momentos Los momentos de una variable aleatoria son n´meros que representan alguu nas caracter´ ısticas de la distribuci´n de probabilidad asociada. Var(X) = E(X 2 ) − E 2 (X). Otras propiedades de la varianza aparecen m´s a adelante. Ejercicio. 5. La demostraci´n de estas propiedades es sencilla pues todas ellas.Cap´ ıtulo 2. ´ y verificarse la no igualdad. excepto la o ultima. Variables aleatorias 91 Enunciamos a continuaci´n algunas propiedades de la varianza. o . 3. Var(c) = 0.

E[(X − µ)n ] es el n-´simo momento central de X. . cuando existen.5. Caracter´ ısticas num´ricas e ´ Definicion. E|X − µ|n es el n-´simo momento central absoluto de X. . Las condiciones ´ o mencionadas son suficientes pero no necesarias. son todos finitos y u si se cumple que la serie ∞ n t E(X n ) n! n=0 es absolutamente convergente para alg´n t > 0. e 3. a El problema de los momentos consiste en determinar condiciones necesarias y suficientes para que los momentos de una variable aleatoria determinen de manera unica su distribuci´n de probabilidad. e 2. . Por ejemplo. e 5.92 2. puede demos´ o trarse que si X es tal que los n´meros E(X). En algunos textos al n-´simo momento se le denota e por µ′ . (Momentos). mientras que el n-´simo momento central es µn . de manera m´s eficiente. En el cap´ e ıtulo n sobre funciones generadoras se estudian ciertas funciones asociadas a las distribuciones de probabilidad. . y a trav´s de las cuales los momentos de e una variable aleatoria pueden ser encontrados. Cuando existe. e Observe que el primer momento es la esperanza. E[X(X − 1) · · · (X − n + 1)] es el n-´simo momento factorial de X. E(X 2 ). y el segundo momento central es la varianza. Sea X una variable aleatoria con esperanza µ y sea n un n´mero natural. el n´mero u u 1. E|X|n es el n-´simo momento absoluto de X. entonces la sucesi´n de mou o mentos determina de manera unica a la distribuci´n de X. e 4. E(X n ) es el n-´simo momento de X.

(Cuantil). Usando el concepto de e mediana ejemplificaremos la posible no unicidad de los cuantiles. a cualquier n´mero xp que cumpla las condiciones o u P (X ≤ xp ) ≥ p. el cuantil de orden p es aquel n´mero que acumula a su izquierda u una probabilidad mayor o igual a p. 1/2 y 3/4 se les llama tambi´n cuartiles. y P (X = 0) = 1/2.Cap´ ıtulo 2. y P (X ≥ xp ) ≥ 1 − p. 1] es una mediana u de X. . Es decir. se cumple que el cuantil de cualquier o orden es unico. y P (X ≥ m) ≥ 1/2. la mediana es aquel n´mero m que cumple las desigualdades u P (X ≤ m) ≥ 1/2. Sea p un n´mero real cualquiera en el intervalo u unitario (0. ´ A los cuantiles de orden 1/4. La mediana de una variable aleatoria es una medida de tendencia central que permite dividir en dos partes iguales a la distribuci´n de probabilidad o cuando ´sta es continua y estrictamente creciente. Es decir. En general este n´mero no es u necesariamente unico. Ejemplo. 1). Sea X es una variable aleatoria discreta tal que P (X = 1) = 1/2. En e particular al cuantil de orden 1/2 se le llama mediana. cuando la correspondiente funci´n de ´ o distribuci´n es estrictamente creciente. Variables aleatorias 93 Cuantiles ´ Definicion. y al mismo tiempo acumula a su derecha una probabilidad de por lo menos 1 − p. Se le llama cuantil de orden p de una variable aleatoria X o de su distribuci´n. Cualquier n´mero en el intervalo [0. Sin embargo.

. . En el Ap´ndice A. y se e define unicamente para distribuciones discretas o absolutamente continuas ´ de la siguiente forma. esto es..6. y con probabilidades respectivas p1 . Esta distribuci´n surge en espacios de o probabilidad equiprobables. entonces X tiene una moda en el punto xk si pk−1 ≤ pk ≥ pk+1 . xn } si la probabilidad de que X tome cualquiera de estos valores es 1/n. Los juegos de loter´ justos son un ejemplo donde puede aplicarse esta disıa . u Se presentan estos ejemplos sin hacer mayor ´nfasis en las aplicaciones de e los modelos. (Moda). . y cuando hay varias modas se ´ o dice que es multimodal. es aquel punto donde la o funci´n de densidad tiene un m´ximo local. 2. o a Por ejemplo.94 2. si X es una variable aleatoria discreta con valores x1 < x2 < x3 < · · · . Distribuciones discretas Moda La moda es otra caracter´ ıstica num´rica de las variables aleatorias. Cuando la moda es unica se dice que la distribuci´n es unimodal. Distribuciones discretas En esta secci´n se estudian algunas distribuciones discretas de probabilidad o de uso com´n. . . p2 . en situaciones en donde se tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. . Es evidente que pueden existir varias modas para una misma variable aleatoria. aparecen algunas otras e distribuciones de probabilidad. La variable X tiene una distribuci´n o uniforme sobre el conjunto {x1 . ´ Definicion. La moda de una variable aleatoria o de su distribuci´n. discreta o absolutamente continua. ´ Distribucion uniforme discreta. Estas distribuciones son ejemplos particulares de medidas u de probabilidad concentradas en un conjunto discreto de n´meros reales.6. p3 . . al final del libro.

10: Funci´n de probabilidad unif{1. 5} o tiene gr´fica como en la Figura 2. 1). Por ejemplo. . . o ´ Distribucion Bernoulli. . f (x) 1/5 x 1 2 3 4 5 Figura 2. llamados gen´ricamente ´xito ´ e e y fracaso. . . . . la funci´n de probabilidad uniforme sobre el conjunto {1. i=1 n i=1 (xi − E(X))2 . .Cap´ ıtulo 2. . . f (x) =  0 otro caso. . xn }. f (x) = 0 otro caso.10. Se escribe X ∼ unif{x1 . Variables aleatorias 95 tribuci´n. en el caso general. 5}. . Se define la variable aleatoria X como aquella funci´n que lleva el resultado ´xito al n´mero 1. y con probabilidades respectivas p y 1 − p. . Un ensayo Bernoulli es un experimento aleatorio con unicamente dos posibles resultados. xn .  1−p p si x = 1. . Se escribe X ∼ Ber(p) y la o a correspondiente funci´n de probabilidad es o  si x = 0. a a E(X) = y Var(X) = 1 n 1 n n xi . Entonces se dice que X tiene una disu tribuci´n Bernoulli con par´metro p ∈ (0. y su funci´n de probabilidad o o es 1/n si x = x1 . . . . o e u y el resultado fracaso al n´mero 0. Es f´cil ver que.

Distribuciones discretas cuya gr´fica es como en la Figura 2. p). . n. . Si ahora se a define la variable aleatoria X como el n´mero de ´xitos en cada una de estas u e sucesiones. En particular. entonces X toma los valores 0.96 2. o ´ Distribucion binomial. x f (x) =   0 otro caso. . 1. o ´ Distribucion geom´trica. Se escribe X ∼ bin(n. f (x) 0.11. El espacio muestral de este experimento consiste de todas las posibles sucesiones de longitud n de ´xitos y fracasos. . y Var(X) = np(1−p). En las gr´ficas de a la Figura 2. o a y su funci´n de probabilidad es o  n   px (1 − p)n−x si x = 0.3 x 0 1 Figura 2. 1). es f´cil ver que este conjunto tiene 2n elementos. . Usando el principio e multiplicativo.6. y se dice que X tiene una distribuci´n binomial con par´metros n y p. n.11: Funci´n de probabilidad Ber(p) con p =0. Es sencillo verificar que E(X) = p. Se puede demostrar que E(X) = np. . si A es un evento con probabilidad p. Suponga que se realizan n ensayos independientes Bernoulli en donde la probabilidad de ´xito en cada uno de ellos es e p ∈ (0. a y Var(X) = p(1 − p). Suponga que se tiene una sucesi´n infinita e o de ensayos independientes Bernoulli en donde la probabilidad de ´xito en e . . entonces la funci´n indicadora 1A es una variable aleatoria con distribuci´n o o Ber(p). .7.7 0. 1.12 se muestra el comportamiento de esta funci´n de probabilidad.

3 0. o cada uno de ellos es p ∈ (0.4 0.13: Funci´n de probabilidad geo(p) con p =0.Cap´ ıtulo 2. p). . otro caso. .3 0.3 x f (x) 0.2 0. 1). En algunos textos se define tambi´n la distribuci´n geom´trica e o e . Se escribe X ∼ geo(p).5 Figura 2.3 0. f (x) = f (x) 0.2 0. Se dice entonces que X tiene una distrie buci´n geom´trica con par´metro p.2 0. Variables aleatorias 97 f (x) 0. y Var(X) = o (1 − p)/p2 .12: Funci´n de probabilidad bin(n. 1.1 1 2 3 4 5 6 7 8 9 10 x Figura 2. o Para esta distribuci´n se puede demostrar que E(X) = (1−p)/p. y su funci´n de o e a o probabilidad es p(1 − p)x 0 si x = 0. .4.1 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 x n = 10 p = 0.1 n = 10 p = 0. Se define X como el n´mero de fracasos u antes de obtener el primer ´xito.

p). ´ Distribucion Poisson. para x = 1. antes del primer ´xito. Puede o e demostrarse que E(X) = λ. o ´ Distribucion binomial negativa. Sea X el n´mero de fracasos antes de e u obtener el r-´simo ´xito. En u e tal caso. Distribuciones discretas como el n´mero de ensayos. . La variable aleatoria discreta X tiene una distribuci´n Poisson con par´metro λ > 0.14. . 1). al respecto v´ase el ejercicio 223. o La media es entonces 1/p y la varianza es como antes. y Var(X) = λ. 1. Suponga que se tiene una sucesi´n o infinita de ensayos independientes Bernoulli en donde la probabilidad de ´xito en cada ensayo es p ∈ (0. y su a . la funci´n de probabilidad es f (x) = p(1 − p)x−1 . . . .14: Funci´n de probabilidad Poisson(λ) con λ = 2. f (x) 0..3 0.98 2. (y no el de fracasos). y se escribe X ∼ Poisson(λ) si su o a funci´n de probabilidad es o  x  e−λ λ x! f (x) =  0 si x = 0. La gr´fica de la funci´n de a o probabilidad Poisson se muestra en la Figura 2. 2. .2 0. Se escribe X ∼ bin neg(r. Esta distribuci´n fue descubierta por Sime´n Denis Poisson en 1873 como o o l´ ımite de la distribuci´n binomial.6. Se dice entonces que X tiene una distribuci´n e e o binomial negativa con par´metros r y p.1 1 2 3 4 5 6 7 8 x Figura 2. otro caso.

a la funci´n de probabilidad binomial negativa tiene la forma como en la o Figura 2. Entonces X puede tomar los valores 0.2. p) con r = 3 y p =0. . n). K y n.04 0. y su funci´n a o de probabilidad es .15. la o o o e cual se obtiene cuando el par´metro r toma el valor 1. Decimos que X tiene una distribuci´n hipergeom´trica o e con par´metros N . . y N −K son de una segunda clase. otro caso. y Var(X) = r(1−p)/p2 .15: Funci´n de probabilidad bin neg(r.2. . Se define X como el n´mero de objetos de la primera clase contenidos en u la muestra seleccionada. Para r = 3 y p =0. n. se escribe X ∼ hipergeo(N. Suponga que se tiene un conjunto de N e objetos de los cuales K son de una primera clase. . sin n reemplazo y en donde el orden de los objetos seleccionados no importa. Es claro que esta distribuci´n es una generalizaci´n de la distribuci´n geom´trica. .02 x 5 10 15 20 25 30 Figura 2. 1. f (x) 0. 1 . suponiendo n ≤ K.06 0. Variables aleatorias funci´n de probabilidad es o  r+x−1   x f (x) =   0 99 pr (1 − p)x si x = 0. Suponga que de este conjunto se toma una muestra de tama˜o n. . Se puede demostrar que E(X) = r(1−p)/p. o ´ Distribucion hipergeom´trica.Cap´ ıtulo 2. K.

2 0. Es posible comprobar a o que K . . N K N −K N −n Var(X) = n . . N N N −1 E(X) = n f (x) 0.3 0.4 0.7. n). 1. o 2.7.100         2. Distribuciones continuas Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias absolutamente continuas. .1 x N = 20 K=7 n=5        0 N n N −K n−x     si x = 0. otro caso. Distribuciones continuas   K x     f (x) = La gr´fica de esta funci´n se muestra en la Figura 2. . K.16: Funci´n de probabilidad hipergeo(N. . y 0 1 2 3 4 5 Figura 2. Algunas otras distribuciones continuas que surgen en la estad´ ıstica ser´n estudiadas en el Cap´ a ıtulo 5. n.16.

17 a o f (x) 1 b−a a b x Figura 2. Variables aleatorias 101 ´ Distribucion uniforme continua. La variable continua X tiene una distribuci´n exponencial con par´metro λ > 0 y se escribe X ∼ exp(λ) cuando tiene o a funci´n de densidad o λe−λx 0 si x > 0. y Var(X) = o 1/λ2 . b). cuando su o funci´n de densidad es o 1 b−a f (x) =  0   si x ∈ (a. Su gr´fica se muestra en la Figura 2. La gr´fica de esta funci´n de densidad se muestra en la Figura 2. b). b). La variable aleatoria X tiene distribuci´n uniforme en el intervalo (a. y Var(X) = (b − a)2 /12.18. otro caso. La variable aleatoria continua X tiene distribuci´n o . si x ≤ 0. a ´ Distribucion gama.17: Funci´n de densidad unif(a. f (x) = Para esta distribuci´n es muy sencillo verificar que E(X) = 1/λ. b) y se escribe X ∼ unif(a. o ´ Distribucion exponencial. En este caso es inmediato verificar que E(X) = (a + b)/2.Cap´ ıtulo 2.

b) Γ(n + 1) = n! para n entero positivo. El t´rmino Γ(n) es la funci´n gama definida como sigue e o Γ(n) = 0 ∞ tn−1 e−t dt. λ).19.7.18: Funci´n de densidad exp(λ). Esta funci´n satisface o las siguientes propiedades: a) Γ(n + 1) = nΓ(n). c) Γ(2) = Γ(1) = 1.102 2. En tal caso se escribe X ∼ gama(n. La gr´fica de esta funci´n se muestra a o en la Figura 2. si x ≤ 0. o gama con par´metros n > 0 y λ > 0 si su funci´n de densidad es a o   (λx)n−1 −λx  λe Γ(n) f (x) =   0 si x > 0. √ d) Γ(1/2) = π. . para valores de n tal que la integral es convergente. Distribuciones continuas f (x) λ x Figura 2.

n). b) f (x) =   0 otro caso. La terminolog´ usada para esta distribuci´n no es est´ndar.19: Funci´n de densidad gama(n. La variable continua X tiene distribuci´n beta con o par´metros a > 0 y b > 0. En la Figura 2. B(a. o Nota. es decir. a ´ Distribucion beta. λ=5 f (x) λ=4 λ=3 f (x) n=5 n=7 n = 10 x n=5 λ=3 x Figura 2. En ıa o a algunos otros textos aparece como gama(λ. y se a e o . los par´metros son a los mismos pero se presentan en el orden contrario. y Var(X) = n/λ2 . λ) a o se reduce a la distribuci´n exp(λ). b) cuando su funci´n de a o densidad es  1   xa−1 (1 − x)b−1 si 0 < x < 1. 3). la distribuci´n gama(n. Variables aleatorias 103 Observe que cuando el par´metro n toma el valor 1. Puede entonces haber confusi´n cuando se escribe por ejemplo gama(2. En ocasiones se usa el o par´metro 1/θ en lugar de λ. El t´rmino B(a. b) se conoce como la funci´n beta.20 se ilustra la forma de esta funci´n para varios valores o de los par´metros.Cap´ ıtulo 2. Resolviendo un par de integrales se puede o demostrar que E(X) = n/λ. λ). y se escribe X ∼ beta(a.

o a) B(a. b) = 0 xa−1 (1 − x)b−1 dx.104 2.7. Esta funci´n satisface las siguientes propiedades. b). Para esta distribuci´n se tiene que o o a E(X) = . b) B(a. 2 2πσ . Distribuciones continuas define para a > 0 y b > 0 como sigue 1 B(a. entonces 1 − X ıa o tiene distribuci´n beta(b. Γ(a + b) f (x) 3 2 1 a=2 b=6 a=4 b=4 a=6 b=2 a=1 b=1 x 1 Figura 2. o Por simetr´ se tiene que si X tiene distribuci´n beta(a. (a + b + 1)(a + b)2 ´ Distribucion normal. b). a+b ab y Var(X) = . a).20: Funci´n de densidad beta(a. Se dice que la variable aleatoria continua X tiene una distribuci´n normal o Gausiana si su funci´n de densidad es o o 1 2 2 f (x) = √ e−(x−µ) /2σ . b) = B(b. a). Esta es posiblemente la distribuci´n de probabio lidad de mayor importancia. b) = Γ(a)Γ(b) .

21: Funci´n de densidad N(µ. σ2 ) variando los par´metros. la funci´n de densidad se reduce a la y σ o expresi´n m´s sencilla o a 1 2 f (x) = √ e−x /2 . Cuando se hacen e a variar estos par´metros la funci´n de densidad cambia como se ilustra en la a o Figura 2. Variables aleatorias 105 en donde µ ∈ R y σ 2 > 0 son dos par´metros. y Var(X) = σ 2 . σ 2 variando x Figura 2. o a En particular se dice que X tiene una distribuci´n normal est´ndar si µ = 0 o a 2 = 1. f (x) σ x µ Figura 2. o f (x) f (x) x µ variando. σ 2 constante µ constante.22. 2π Es posible transformar una variable aleatoria normal no est´ndar en una a . en ella a o se muestra el significado geom´trico de los par´metros. En este caso particular.21.Cap´ ıtulo 2. La ıcil gr´fica de la funci´n de densidad normal aparece en la Figura 2. En este caso se escribe a X ∼ N(µ. σ2 ). No es dif´ demostrar que E(X) = µ. σ 2 ).22: Funci´n de densidad N(µ.

En particular la funci´n Φ(x) denota la funci´n o a o o de distribuci´n de una variable aleatoria normal est´ndar. σ Com´nmente se usa la letra Z para denotar una variable aleatoria con disu tribuci´n normal est´ndar. 1). Distribuciones continuas est´ndar mediante la siguiente operaci´n llamada estandarizaci´n.7. En una tabla al final del texto pueden encontrarse estos valores aproximados. . y su funci´n de o o densidad es  (ln y − µ)2   √1 exp (− ) si y > 0. o ´ Proposicion. o a x Φ(x) = P (Z ≤ x) = −∞ 1 2 √ e−u /2 du. σ 2 ). 2σ 2 y 2πσ 2 f (y) =   0 si y ≤ 0. σ 2 ) ⇐⇒ Z = X −µ ∼ N(0. entonces la o variable Y = eX tiene una distribuci´n log normal(µ. asi es que se usan m´todos num´ricos para aproximar la integral para distintos e e valores de x. Si X tiene distribuci´n N(µ. σ 2 ). es decir. o o Los valores de esta funci´n no pueden encontrarse de manera expl´ o ıcita.106 2. 2π Φ(x) x ´ Figura 2. X ∼ N(µ. ´ Distribucion log normal.23: Area cubierta por la funci´n de distribuci´n Φ(x) = P (Z ≤ x). La dea o o mostraci´n de este resultado es elemental y se deja como ejercicio.

Cap´ ıtulo 2. y Var(Y ) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ). f (y) 0. Se a o puede demostrar que E(Y ) = exp(µ + σ 2 /2).24.24: Funci´n de densidad log normal(µ. σ2 ) con µ = 3 y σ2 = 2. .025 y 5 10 15 20 25 Figura 2. o Algunas otras distribuciones continuas de inter´s se encuentran en el cap´ e ıtulo sobre distribuciones muestrales. Variables aleatorias 107 La gr´fica de esta funci´n de densidad se muestra en la Figura 2.

Ejercicios 2. b) de R. con F = {∅. F ). y s´lo si. F ) un espacio medible tal que F = {∅. Sea A1 . u 99. (X > x) ∈ F para o cada n´mero real x. Sea (Ω. . En consecuencia. {−1. Ω}. 0. y s´lo si. 1}. An una partici´n finita de Ω. . 92. Sea Ω = {−1.8. {0}. 2. y s´lo si. . Ω}. u 97. . X toma a lo sumo n valores distintos. Ejercicios Variables aleatorias 91. X es constante en cada elemento de la o partici´n. 95. 3} y F = {∅. X es constante. . . F ). {2. (X ≥ x) ∈ F para o cada n´mero real x. 1} y F = {∅. Demuestre que X 2 es variable aleatoria pero X no lo es. Demuestre que X es variable aleatoria si. y s´lo si. Considere el espacio medible (Ω. {1}. . y considere el espacio meo dible (Ω. o 96. Ω. con F = σ{A1 .8. An }. (X < x) ∈ F para o cada n´mero real x.108 2. . Ac } con A ⊆ Ω. Demuestre que X es variable aleatoria si. 93. Demuestre que X : Ω → R es variable aleatoria si. (a < X < b) ∈ F o para cada intervalo (a. Por lo tanto toda funci´n medible respecto de esta σ-´lgebra en A o a toma a lo sumo dos valores distintos. Demuestre que toda funci´n medible X : Ω → R es constante en A y o c . . Demuestre que la funci´n identidad X(ω) = ω no es variable aleatoria o cuando Ω = {1. Demuestre que la funci´n X : Ω → R es variable aleatoria si. Demuestre que X es variable aleatoria si. o o 94. Demuestre que X es variable aleatoria si. Ω}. y s´lo si. 3}. . Considere la funci´n o identidad X(ω) = ω. A. El siguiente ejercicio generaliza este resultado. u 98. y s´lo si.

Y } como m´ a ın{X. entonces tambi´n lo son X n y 2X 3 − 5X. 101. Sea A ⊆ Ω.Cap´ ıtulo 2. Demuestre que a1A + b1B es v. Sea X una variable aleatoria cualquiera. lo son. Diga falso o verdadero. ⇔ A. Demuestre directamente que la diferencia de dos variables aleatorias es variable aleatoria. denotada por ⌊X⌋. c}. 104. 107. Demuestre que la funci´n indicadora 1A : Ω → R es o variable aleatoria si. y s´lo si. X}. b) 1A + 1B es v. 105. Demuestre que el conjunto de variables aleatorias definidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y producto por escalares. B ⊆ Ω. y s´lo si. e 106. m´ a ın{X. Demuestre que X es variable aleatoria si. 109. B medibles ⇒ 1A + 1B es v. c}. Demuestre en cada caso. Demuestre directamente que si X es variable aleatoria. Y } son variables aleatorias. ⇒ A. X} como X − = − m´ a ın{0. . B son medibles. Demuestre directamente que tanto m´x{X. Sean X y Y variables aleatorias. Sean A. u 103. a) A. el conjunto A es medible. Sea c una constante y X una variable aleatoria.a. b dos n´meros reales u distintos. o 108. es una variable aleatoria discreta. 102.a. B son medibles. X + c. toma un n´mero numerable de valores. V´ase el o e ap´ndice al final del texto para la definici´n y algunas propiedades de e o la funci´n indicadora. Demuestre directamente que las siguientes funciones tambi´n son variables aleatorias: e cX. Variables aleatorias 109 100.a. Sean A. es decir. m´x{X. tanto X + = o m´x{0. B subconjuntos disjuntos de Ω y sean a. Demuestre que la parte entera de X.

113. sen X. (X = Y ). an constantes distintas. . . Directamente de la definici´n demuestre que las funciones o 1A + 1B . Sea X una variable aleatoria. . Sean A1 . y sean a1 . Proporcione un ejemplo en el que X 2 es o variable aleatoria pero |X| no lo es. Ejercicios Una de estas implicaciones resulta falsa cuando se omite la condici´n o de que los n´meros a y b son distintos. Demuestre que las funciones eX .110 2. y sean 1A y 1B las correspondientes funciones indicadoras. . 117. Y y Z tres variables aleatorias. . 112. . la imagen inversa o de un conjunto abierto es nuevamente un conjunto abierto. . ⇔ A1 . (X − Y < 1). 116. Xn variables aleatorias. . Demuestre que g(X) = g ◦ X : Ω → R es tambi´n una variable e aleatoria. . .a. (X − Y > 0). Sea X una variable aleatoria y g : R → R una funci´n Borel medio ble. Sean X. 1A − 1B y 1A 1B son variables aleatorias. Demuestre que . (2) Todo conjunto abierto de R distinto del vac´ puede expresarse como una ıo uni´n numerable de intervalos abiertos. Sean X y Y dos variables aleatorias. 111. Demuestre que los conjuntos (X ≤ Y ). . (X = Y = Z) y (X > Y > Z) son eventos. (X ≥ Y ) y (X = Y ) son eventos. y cos X son variables aleatorias.8. . Demuestre que n i=1 ai 1Ai es v. Sean A y B dos eventos. . Sean X1 . Sea X : Ω → R una funci´n. Sugerencia: Demuestre que la colecci´n B = {B ∈ B(R) : o g−1 B ∈ B(R)} coincide con B(R) usando los siguientes dos resultados: (1) Dada una funci´n continua de R en R. An subconjuntos disjuntos de Ω. 114. o 115. ¿Cu´l de ellas es? u a 110. An son medibles. . . Demuestre que los conjuntos (X ≤ Y ≤ Z). .

¯ (Xi − X)2 es v. si x < 0.  b si X > b.Cap´ ıtulo 2. Demuestre que si X es variable aleatoria. Demuestre que la colecci´n {X −1 B : B ∈ B(R)} es una sub o o σ-´lgebra de F si. entonces signo(X) tambi´n e lo es. y sea X : Ω → R una funci´n. 1 = n−1 118. 1. 119. . Demuestre que (X)10 es tambi´n o e variable aleatoria. Sea X una variable aleatoria.   a si X < a. Variables aleatorias 1 ¯ a) X = n b) S2 n 111 Xi i=1 n i=1 es v. suponiendo a > 0. 121. Demuestre que las siguientes funciones son variables aleatorias. . Sea X una variable aleatoria con valores en el conjunto {0.}. ¿Es cierto el rec´ ıproco? 120. si x = 0. y sean a < b dos constantes. Se define la funci´n signo como sigue o   +1 −1 signo(x) =  0 si x > 0. F .a. b) Y = X si a ≤ X ≤ b. a si X ≥ a. X es variable aleatoria. a) Y = X si X < a. Sea (X)10 el valor de X m´dulo 10. y s´lo si. A esta colecci´n a o o se le denota por σ(X). y es la m´ ınima σ-´lgebra respecto de la cual a X es variable aleatoria. 0 si |X| > a. . c) Y = X si |X| ≤ a. P ) un espacio de probabilidad. Sea (Ω. .a.

1] es tambi´n una medida de probabilidad.112 2. A esta e funci´n se le llama medida de probabilidad inducida por X. F2 ) dos espacios medibles. Investigue si las siguientes funciones son de distribuci´n. si x > 0. Suponga que P : F1 → [0. si x ≤ 0. o 123. o a) F (x) = b) F (x) = 1 − e−x 0 e−1/x 0 2  si x < −1. c) F (x) = ex /(1 + ex ). es decir. d) F (x) = ex /(ex + e−x ). Grafique y demuestre que las siguientes funciones son de distribuci´n. b) σ(X + c) = σ(X). a) σ(cX) = σ(X). si x ≤ 0. o para cualquier A en F2 se cumple que X −1 A ∈ F1 . Ejercicios 122. y sea X una variable aleatoria. o a) F (x) = b) F (x) = 1 − e−x 0 si x > 0. para x ∈ R. 1 − (1 + x)e−x 0 125. 1] es una medida de probabilidad. para x ∈ R. y sea X : Ω1 → Ω2 una funci´n medible. .  1 si x > 1. si x ≤ 0. Demuestre o proporcione un contraejemplo. si x ≤ 0. Medida de probabilidad inducida. Sea c una constante distinta de cero. 1]. si x > 0. c) σ(X) = σ(X 2 ).  0 c) F (x) = (x + 1)/2 si x ∈ [−1. si x > 0. Sean (Ω1 . Funci´n de distribuci´n o o 124.8. F1 ) y (Ω2 . Demuestre que P ◦ X −1 : F2 → [0.

Sea X con funci´n de distribuci´n la especificada abajo.Cap´ ıtulo 2. o a) aF (x) + (1 − a)G(x). 130. Calcule o o adem´s P (X ≤ 1). 2 1 − 4/x si x ≥ 2. P (X = 4) y P (X ≥ 3). . Demuestre que esta funci´n cumple todas o las propiedades de una funci´n de distribuci´n. a  si x < 0. o 128. excepto que ahora la o o continuidad es por la izquierda. a F (x) = 0 si x < 2.  0    0. P (X > 1). Sea F (x) una funci´n de distribuci´n continua. Calcule o o adem´s P (X ≤ 4). P (X = 1). Demuestre que pao o ra cualquier entero n ≥ 1. Sea X con funci´n de distribuci´n la especificada abajo. con 0 ≤ a ≤ 1.  F (x) = 0. Grafique F (x) o o y demuestre que es efectivamente una funci´n de distribuci´n.2 si 0 ≤ x < 1. P (0 < X < 3).9 si 3 ≤ x < 4.   0. c) F (x)G(x). Variables aleatorias 113 126. Observe el signo “<” en lugar de “≤”. 1 + F (x) 127. 2 G(x) d) . En la escuela rusa de probabilidad se define la funci´n de distribuci´n o o de una variable aleatoria X como G(x) = P (X < x). Sean F (x) y G(x) dos funciones de distribuci´n. 129.5 si 1 ≤ x < 3.    1 si x ≥ 4. Determine si las sio guientes funciones son de distribuci´n. las siguientes funciones tambi´n son de e distribuci´n. b) F (x) + G(x). P (4 < X < 6) y P (X = 2). Grafique F (x) o o y demuestre que es efectivamente una funci´n de distribuci´n.

134. c) 1 − P (X < x) − P (X > x) = P (X = x). Demuestre que .114 a) [F (x)]n . Sea X con funci´n de distribuci´n FX (x). h) Y = −X. 2 2 132. Encuentre la funci´n de distribuci´n de la variable Y en t´rminos de o o e la funci´n de distribuci´n de X cuando o o ın{0. Diga falso o verdadero. c) Y = e−X . i) Y = sen X. b) Y = X si a ≤ X ≤ b. y muestre gr´ficamente el comportamiento de o a FY (y) en los puntos a y b. Sea X con funci´n de distribuci´n F (x). a) F (x) = P (X < x) + P (X = x). Para todo x ∈ R. b) Y = e g) Y = |X|. b) 1 − F (x) = P (X ≥ x). y sean a < b dos constantes. 133. a) Y = X si X < a. c) Y = X si |X| ≤ a. 0 si |X| > a.  b si X > b. a) Y = aX + b. deo o muestre en cada caso. Sean F (x) y G(x) dos funciones de distribuci´n continuas y estrictao mente crecientes. 2. a j) Y = cos X. Ejercicios 131. f ) Y = X − = − m´ X.8. b constantes. e) Y = X + = m´x{0. 1 1 d) F (x) − P (X = x) = (F (x) + F (x−)).   a si X < a. con a. b) 1 − [1 − F (x)]n . o o Calcule la funci´n de distribuci´n de Y en t´rminos de la funci´n o o e o de distribuci´n de X. con a > 0. d) Y = X 2 . X}. a si X ≥ a. X}.

Sugerencia: Use el inciso anterior. Demuestre que F (x) es cono o o tinua en x = x0 si. entonces Y = G−1 (F (X)) o o tiene funci´n de distribuci´n G(x). Tipos de variables aleatorias 136. Sea X con funci´n de distribuci´n F (x). Variables aleatorias a) si F (x) ≥ G(x). para x > 0. para 0 < x < 1. c) f (x) = c/x!. . . para x = 1. para x = 1. P (X = x0 ) = 0. 1 − x2 c g) f (x) = . para x ∈ R. c ex . . o o 2 . x(x + 1) b) f (x) = c e−x . Demuestre que las siguientes funciones son de densidad. Encuentre la correspondiente funci´n de distribuci´n y demuestre que ´sta es o o e efectivamente una funci´n de distribuci´n. y s´lo si. Encuentre la constante c que hace a f (x) una funci´n de densidad. c) f (x) = c x−2 . 1 + x2 138. 137. Grafique ambas funciones. 2. entonces F −1 (y) ≤ G−1 (y). d) f (x) = (1 + ex )2 e) f (x) = c x(1 − x). Encuentre la constante c que hace a f (x) una funci´n de probabilidad. . y son o tales que X ≤ Y . 2. c f ) f (x) = √ . 135. . 2. para 0 < x < 1. para 0 < x < 1. 115 b) si X tiene funci´n de distribuci´n F (x). entonces existen variables aleatorias X y Y cuyas funciones de distribuci´n son F (x) y G(x) respectivamente. b) f (x) = c xe−2x . para x > 1. o a) f (x) = c x2 . para x ∈ R. .Cap´ ıtulo 2. . o a) f (x) = c . . o o c) si F (x) ≥ G(x). para x = 1. .

entonces fY (y) = 1 fX ((y − b)/a). si 0 < x < 1. o o 142. Ejercicios a) f (x) = 2x.116 2. 140. para x ∈ (0.8. m). d) f (x) = 2x/m2 . b) f (x) = 3x2 /2. e) f (x) = 1/(1 − x)2 . y sea Y = aX +b con a y b constantes. Demuestre que las siguientes funciones son de distribuci´n. Sea f (x) una funci´n de densidad y sea c una constante cualquiera. 1 x −|u| e du. 2). o Demuestre que f (x + c) es tambi´n una funci´n de densidad. si x ≥ 1. para x ∈ R. 139. para x ∈ (0. Sea X absolutamente continua. e o 141. |a| . Diga falso o verdadero. 1). c) f (x) = 1 − x/2. Grafique ambas funciones. o a) F (x) = 0 1 si x < 0. Demuestre que si a = 0. c) F (x) = ex /(1 + ex ). si x ≥ 0. para x ∈ (0. para x ∈ (0. 1). o b) Toda funci´n de distribuci´n es acotada. a) Toda funci´n de densidad es acotada. con m > 0. Demuestre en cada caso. d) F (x) = 2 −∞   0 b) F (x) = x  1 si x ≤ 0. para x ∈ (−1. Encueno tre la correspondiente funci´n de densidad y compruebe que ´sta es o e efectivamente una funci´n de densidad. f ) f (x) = e|x| /2. 1/2).

Sea X una variable aleatoria con funci´n de distribuci´n F . Variables aleatorias 117 Igualdad de variables aleatorias 143. Sea X ≥ 0 tal que E(X) = 0.s. Demuestre que X = 0 c. 147. a Integral de Riemann-Stieltjes 145. Esto lleva a la conclusi´n de que o ∞ A ) = 0. Demuestre o o que para cualesquiera n´meros naturales n y m. ¿Cumple tal propiedad la igualdad en distrio buci´n? o 144. Sea X una variable aleatoria con funci´n de distribuci´n F . Demuestre que ∞ −∞ 1(a.Cap´ ıtulo 2. b) ⊆ R. Sugerencia: Para cada natural n defina el evento An = (X ≥ 1/n). u ∞ −∞ F n (x) dF m (x) = m .b) (x) dF (x) = P (a < X < b). Demuestre que la igualdad casi segura de variables aleatorias es una relaci´n de equivalencia. y sea a o o cualquier n´mero real. y sea o o (a. 146. n+m . Sea F una funci´n de distribuci´n absolutamente continua. Ahora compruebe que los P (An ) = 0 y por lo tanto P (∪n=1 n eventos (X > 0) y ∪∞ An coinciden. Demuestre que u ∞ −∞ 1{a} (x) dF (x) = P (X = a). Compruebe que E(X) ≥ E(X · 1An ) ≥ P (An )/n. Alternativamente puede usarse n=1 la desigualdad de Markov (ver p´gina 347).

e) Si X ≤ Y . . F (x) = 0 si x ≤ 1. para x = −2. c) E(X + c) = E(X) + c. y sea c una constante. 150. entonces E(X) ≥ 0. Sean X y Y con esperanza finita. 1. b) f (x) = e−1 /x!. Calcule la esperanza de una variable aleatoria cuya funci´n de distrio buci´n es o 1 − e−x /2 si x > 1. 2. Ejercicios 148. para x ∈ R. 1 . π(1 + x2 ) . . Demuestre que a) E(c) = c. . d) Si X ≥ 0. para x ∈ Z \ {0}.118 Esperanza 2. 0. 2. 151. 1. para −1 < x < 1. entonces E(X) ≤ E(Y ).8. d) f (x) = e−|x| /2. para x ∈ R. Demuestre que no existe la esperanza de X cuando su funci´n de o probabilidad o de densidad es a) f (x) = b) f (x) = 3 π 2 x2 . −1. f ) |E(X)| ≤ E|X|. b) E(cX) = cE(X). para x = 0. 149. Calcule la esperanza de X cuya funci´n de probabilidad o de densidad o es a) f (x) = 1/5. c) f (x) = |x|.

La paradoja de San Petersburgo. . Demuestre que a) E(m´ ın{X. Si un jugador lanza la moneda y requiere de n lanzamientos para que se cumpla la condici´n. A2 . Un juego consiste en lanzar una moneda equilibrada repetidas veces hasta que una de las caras. . a a 155. discreta y con esperanza finita. aparezca por primera vez. . Y }) ≤ m´ ın{E(X). 156. Sean X y Y con esperanza finita. pero en este ejercicio se a pide obtener el resultado sin usar dicha desigualdad. n→∞ E(X n ) n n→∞ E(X n ) = x1 . 154. Variables aleatorias 119 152. Sea X una variable aleatoria discreta con esperanza finita. Y }) ≥ m´x{E(X). Para cualquier evento A con probabilidad positiva defina E(X | A) = Demuestre que E(X) = ∞ i=1 x xP (X = x | A). Demuestre que a) l´ ım b) l´ ım E(X n+1 ) = xk . Sea X > 0. E(X | Ai )P (Ai ). b) E(m´x{X. entonces recibe 2n unidades monetarias.} una colecci´n de eventos que forman una partici´n de Ω tal que cada elemento de la partici´n tiene probabilidad estrico tamente positiva. . seleccionada previamente. Sea X discreta con valores no negativos x1 ≤ x2 ≤ · · · ≤ xk . Sea {A1 .Cap´ ıtulo 2. E(Y )} ≥ E(X). Este resultado puede ser demostrado usando la desigualdad de Jensen (ver p´gina 127). Demuestre directamente que E(X)E(1/X) ≥ 1. E(Y )} ≤ E(X). ¿Cu´l debe ser el o a pago inicial justo para ingresar a este juego? o o 153.

Ejercicios 157. . Demuestre que E(X) ≤ 1/(1 − p). entonces E(X) = λ. −∞ . . Deo o muestre que E(X) = 0 ∞ 0 [1 − F (x)]dx − F (x)dx. ım El rec´ ıproco sin embargo es falso. o b) si X tiene distribuci´n Poisson(λ). Sea X con funci´n de distribuci´n F (x). 1. . n=1 Ahora demuestre las desigualdades ∞ n=1 P (X ≥ n) ≤ E(X) < 1 + ∞ n=1 P (X ≥ n). entonces a) l´ x (1 − F (x)) = 0. Sea X ≥ 0 con esperanza finita no necesariamente discreta. ım x→∞ b) x→−∞ l´ x F (x) = 0. . 1. Sea X con funci´n de distribuci´n F (x). Demuestre que si X tiene o o esperanza finita. v´ase [4]. para cada k = 0. o 158. entonces E(X) = (1 − p)/p. . u se cumple la desigualdad P (X ≥ k) ≤ pk . Demuestre que E(X) = ∞ n=1 P (X ≥ n) = ∞ P (X > n). n=0 Use esta f´rmula para demostrar que o a) si X tiene distribuci´n geo(p). y suponga que para alg´n p ∈ (0.120 2. e 161. Sea X discreta con valores 0.8. y con esperanza finita. 1). . Para cada n´mero natural n defina el evento An = (n − 1 ≤ X < n). y con esperanza finita. Sea X ≥ 0 con esperanza finita. Demuestre u que ∞ n=1 (n − 1)1An ≤ X < ∞ n1An . 160. 159..

o b) si X tiene distribuci´n gama(n. Sea X con funci´n de distribuci´n continua F (x).25: La esperanza como la diferencia de dos ´reas. entonces E(X) = 1/λ. λ). . supoo niendo que el segundo momento de X es finito. Demuestre que µ Demuestre que la esperanza de esta distribuci´n es 2 E(X 2 )/µ. Sugerencia: Considere X tal que P (X = −1) = 1/2. Demuestre que la condici´n E(X) = 0 no implica que X es sim´trica o e alrededor de cero. o 162. F (x) 1 + − x a Figura 2. 163. F (x)dx = −∞ ∞ µ [1 − F (x)]dx. Use esta f´rmula para demostrar que o a) si X tiene distribuci´n exp(λ). Demuestre que la siguiente funci´n es de distribuci´n.25.Cap´ ıtulo 2. y con esperanza o o finita µ. entonces E(X) = n/λ. 164. Variables aleatorias 121 Gr´ficamente estas integrales pueden interpretarse como se indica en a la Figura 2. µ y G(y) =  0 si y ≤ 0. Sea X una variable aleatoria no negativa con funci´n de distribuci´n o o continua F (x) y con esperanza finita µ. o o  ∞  1− 1 (1 − F (x)) dx si y > 0.

a o F (x) 1 1/2 x −3 −2 −1 1 2 3 Figura 2.26. Calcule la esperanza de una variable aleatoria con funci´n de distribuo ci´n continua dada por la gr´fica de la Figura 2.27: Una funci´n de distribuci´n mixta. Sean X y Y con esperanza finita tales que X = Y c. o a F (x) 1 3/4 2/4 1/4 x 1 2 3 Figura 2. Ejercicios P (X = 0) = 1/8. o o 167. o o 166. 168. Calcule y grafique o a adem´s la correspondiente funci´n de densidad. entonces E(X) = 0. . ¿Puede usted construir un ejemplo de una distribuci´n continua con esperanza cero. Calcule la esperanza de una variable aleatoria con funci´n de distrio buci´n dada por la gr´fica de la Figura 2.s.26: Una funci´n de distribuci´n continua.s.. P (X = 1) = 1/4 y P (X = 2) = 1/8.8. o que no sea sim´trica? e 165. Demuestre que E(X) = E(Y ). Demuestre que si X = 0 c.122 2.27.

−1. 171. o 172. Minimizacion del error cuadratico medio. Sea X con segundo momento finito. b]. Demuestre que g(u) se minimiza cuando u = a E(X). Calcule la varianza de X cuya funci´n de probabilidad o de densidad o es a) f (x) = 1/5. d) f (x) = e−|x| /2. d) Var(X) = E(X 2 ) − E 2 (X). X es constante. Demuestre las siguientes propiedades de la varianza. . b) 0 ≤ Var(X) ≤ (b − a)2 /4. Variables aleatorias 123 Varianza 169. . A la funci´n g(u) = E[(X − u)2 ] se le conoce como o error cuadr´tico medio. a) Var(X) ≥ 0. c) Var(X + c) = Var(X). 0. 1. Var(X) ≤ E[(X − u)2 ]. 170. b) Var(cX) = c2 Var(X). ´ ´ 173. 174. 2. Demuestre que E(X − c)2 = Var(X) + (E(X) − c)2 . para cualquier valor real de u. para x = 0. para x = −2. Sea X con varianza finita y sea c una constante. Use la desigualdad de Chebyshev para demostrar que Var(X) = 0 si. para x ∈ R. 1. c) f (x) = |x|.Cap´ ıtulo 2. 2. Sea X con valores en [a. y s´lo si. En consecuencia. . Sean X y Y con varianza finita y sea c una constante. para −1 < x < 1. . Demuestre que a) a ≤ E(X) ≤ b. b) f (x) = e−1 /x!.

o a a 181. Diga si las siguientes afirmaciones son falsas o verdaderas. Demuestre que E|X − µ| ≤ σ. Sea X una variable aleatoria con varianza finita.8. 176. demuestre en cada caso. Y }). Diga si las siguientes afirmaciones son falsas o verdaderas. demuestre en cada caso. y sea a una constante. a 178. Sugerencia: Var(|X − µ|) ≥ 0. Ejercicios 175. a b) Var(m´ ın{X. Sean X y Y independientes y con segundo momento finito. c) Var(X + Y ) ≤ Var(X) + Var(Y ). a}). . entonces Var(X) ≤ Var(Y ). Y }) ≤ Var(X) ≤ Var(m´x{X.28. a) Si X ≤ Y . Calcule la varianza de una variable aleatoria cuya funci´n de distrio buci´n est´ dada por la gr´fica de la Figura 2. b) Var(X) ≤ E(X 2 ). Sean X y Y con varianza finita. a}) ≤ E(X) ≤ E(m´x{X. a}).124 2. a) Var(m´ ın{X. Demuestre en cada caso. a b) Var(X + Y ) ≤ 2 ( Var(X) + Var(Y ) ). 177. c) Var(|X − c|) ≤ Var(X). Diga falso o verdadero. y sea c una constante cualquiera. Diga si las siguientes desigualdades son falsas o verdaderas. demuestre en cada caso. a) E(m´ ın{X. c) E 2 (X) ≤ E(X 2 ). b) Var(|X|) ≤ Var(X). Sea X con media µ y varianza σ 2 . Sea X con varianza finita. a) Var(X + c) = Var(X − c). Demuestre que Var(XY ) = Var(X) Var(Y ) + E 2 (X) Var(Y ) + E 2 (Y ) Var(X). a}) ≤ Var(X) ≤ Var(m´x{X. 179. 180.

b) f (x) = e−1 /x!. c) f (x) = |x|. 185. para −1 < x < 1. para x = −2. entonces todos los momentos anteriores a n tambi´n son finitos. Sea X con distribuci´n sim´trica alrededor de x = 0.28: Una funci´n de distribuci´n mixta. Variables aleatorias 125 F (x) 1 3/4 1/4 x −3 −2 −1 1 2 3 4 Figura 2. u E(X 4 ) ≤ E(X − a)4 . 2. . Momentos 183. 2. y con cuarto o e momento finito. −1. . Demuestre que para cualquier e n´mero natural m ≤ n. se cumple E|X|m ≤ E|X|n . d) f (x) = e−|x| /2. 1. 1. o o 182. Este resultado u establece que si el n-´simo momento de una variable aleatoria es fie nito. Calcule el n-´simo momento de una variable aleatoria cuya funci´n de e o probabilidad o de densidad es a) f (x) = 1/5. 184. . Demuestre que para cualquier n´mero real a. Sean X y Y con segundo momento finito. . 0.Cap´ ıtulo 2. Sea X con n-´simo momento finito. e Sugerencia: |X|m = |X|m · 1(|X|≤1) + |X|m · 1(|X|>1) . Demuestre que | Var(X) − Var(Y )| ≤ Var(X ± Y ) ≤ Var(X) + Var(Y ). para x ∈ R. para x = 0.

Demuestre que o a) E(1A ) = E(1n ) = P (A). F . Demuestre que el espacio L1 (Ω. 187.}. P ) consistente de todas las variables aleatorias X tales que E|X| < ∞. 189.8. Desigualdad de Cauchy-Schwarz. . . Tal propiedad ser´ demostrada m´s adea a lante. Ejercicios 186. Sea X ≥ 0 continua y con segundo momento finito. 188. la esperanza de (tX +Y )2 es no negativa. 1. Para resolver este ejercicio suponga v´lida la propiedad de a linealidad de la esperanza. Sea X discreta con valores en el conjunto {0.126 2. ¿Qu´ puede decir de su discriminante? e . y con segundo momento finito. Demuestre que E(X 2 ) = 2 0 ∞ xP (X > x) dx. Demuestre que e E |X|n = n ∞ 0 0 −∞ xn−1 (1 − F (x)) dx + n |x|n−1 F (x) dx. Desarrolle el cuadrado y encuentre una ecuaci´n cuadr´tio a ca en t. Sea X con n-´simo momento finito. 191. Demuestre que E(X 2 ) = ∞ n=1 (2n − 1)P (X ≥ n). Demuestre que E 2 (XY ) ≤ E(X 2 )E(Y 2 ). Espacio L1 . . es un espacio vectorial. Sugerencia: Para cualquier valor real de t. 190. Sean X y Y con segundo momento finito. A b) Var(1A ) = P (A)(1 − P (A)) ≤ 1/4. Sea 1A la funci´n indicadora de un evento A.

193. Esto se muestra en la Figura 2. Demuestre que u(E(X)) ≤ E(u(X)). Sea X con esperanza finita. F . . y para cualquier t en o el intervalo [0. P ) consistente de todas las variables aleatorias X tales que E|X|2 < ∞. Use la desigualdad de Jensen para demostrar que a) eE(X) ≤ E(eX ). es un espacio vectorial. 194. E(X)} ≤ E{m´x{a. Vea e o o el siguiente ejercicio para algunos ejemplos particulares de funciones convexas. Debe suponerse adem´s que el n´mero tx + (1 − a u t)y pertenece tambi´n al dominio de definici´n de la funci´n. Sugerencia: La funci´n u es convexa si para cada a existe un n´mero o u m tal que u(x) ≥ u(a) + (x − a)m.29: Convexidad. una funci´n u es convexa si u(tx + o (1 − t)y) ≤ tu(x) + (1 − t)u(y).Cap´ ıtulo 2. para cualesquiera par de n´meros u x y y dentro del dominio de definici´n de u. 1]. Espacio L2 . 192. y sea X una o variable aleatoria con esperanza finita.29. Alternativamente. Sea u una funci´n convexa. Use la desigualdad de Cauchy-Schwarz para demostrar que el espacio L2 (Ω. b) E 2 (X) ≤ E(X 2 ). Desigualdad de Jensen. Variables aleatorias u(x) u(a) + (x − a)m u(a) x 127 a Figura 2. para todo x. a a a constante. c) m´x{a. X}).

Sean r y s dos n´meros reales tales que u r > 1 y 1/r + 1/s = 1. .8. |x + y|r ≤ cr ( |x|r + |y|r ). Demuestre que si X es una variable aleatoria acotada casi seguramente. otro caso. Ejercicios suponiendo X > 0. y para r y s con las condiciones u mencionadas. pero el n-´simo momento y e superiores no existen. demuestre a que para cualesquiera n´meros reales x y y. . Desigualdad de Holder. E(X) 2. En particular. existe k > 0 tal que P (|X| ≤ k) = 1. . n − 1. en donde cr es una constante dada por cr = 1 2r−1 si 0 < r ≤ 1. E |X + Y |r ≤ cr ( E|X|r + E|Y |r ). 2. 197. . es decir. 195. Demuestre que E |XY | ≤ (E |X|r )1/r (E |Y |s )1/s . entonces X+Y tambi´n. v´lida para a cualesquiera n´meros reales x y y. este resultado establece que si X y Y tienen r-´simo e momento absoluto finito. v´lida para cada t ≥ 0. si r > 1. u ¨ 198. Demuestre que esta funci´n es de densidad para cualquier valor natural o del par´metro n. Demuestre adem´s que tal variable aleatoria tiene a a momentos finitos de orden 1. entonces todos los momentos de X existen. Sea X una variable aleatoria con funci´n de densidad dada por o f (x) = n/xn+1 0 si x > 1. Sugerencia: A partir e de la identidad (1+t)r = cr (1+ tr ). 196. Desigualdad cr .128 d) 1 ≤ E(1/X). Demuestre que para cada r > 0. El caso r = s = 2 corresponde a la desigualdad de Cauchy-Schwarz. Sugerencia: Use la desigualdad |xy| ≤ |x|r /r + |y|s /s. .

entonces para cualquier n´mero real u. . Demuestre que la probabilidad de que el cociente a/b sea menor o igual a uno es (n + 1)/2n. 205. E 1/r |X + Y |r ≤ E 1/r |X|r + E 1/r |Y |r . . . . Sea X con distribuci´n unif{1. o a 201. Distribuci´n uniforme discreta o 204.Cap´ ıtulo 2. Demuestre que |m − E(X)| ≤ 2 Var(X). . ahora use la desigualdad de H¨lder. u E |X − m| ≤ E |X − u|. Calcule los cuartiles de la distribuci´n normal est´ndar. u es cualquier a o otra mediana de X. y s´lo si. . Desigualdad de Minkowski. o a ´ 202. n}. Demuestre que para cada r ≥ 1. Se escogen al azar y de manera independiente dos n´meros a y b u dentro del conjunto {1. Variables aleatorias 199. o Cuantiles 200. Demuestre que o a) E(X) = (n + 1)/2. . n}. . 203. b) E(X 2 ) = (n + 1)(2n + 1)/6. c) Var(X) = (n2 − 1)/12. A la funci´n g(u) = o E |X − u| se le conoce como error absoluto medio. . Calcule los cuartiles de la distribuci´n exponencial de par´metro λ. Demuestre adem´s que la igualdad se cumple si. Sea X una variable aleatoria con segundo momento finito y sea m una de sus medianas. Demuestre que si m una mediana de X. 129 Sugerencia: E |X + Y |r ≤ E (|X| · |X + Y |r−1 ) + E (|Y | · |X + Y |r−1 ). Minimizacion del error absoluto medio.

Sea X con distribuci´n bin(n. Sea X con distribuci´n bin(n. Demuestre que E(X n ) = p. compruebe que Var(X) = p(1 − p). Sea X con distribuci´n bin(n. p) efectivamente lo es. p). Distribuci´n binomial o 208. Demuestre que o a) E(X) = np. 1 − p). o 211. .130 2. . b) E(X 2 ) = np(1 − p + np). Sea X con distribuci´n Ber(p). Demuestre que o 1 a) P (X ∈ {1. Sea X con distribuci´n bin(n. En particular. p). 5. Grafique ambas funciones. o 209. para cada o n ≥ 1. 3. p). Demuestre que o a) P (X = x + 1) = p n−x P (X = x). 2 . 212.}) = (1 − (1 − 2p)n ). d) E(X − np)3 = np(1 − p)(1 − 2p). Ejercicios Distribuci´n Bernoulli o 206. o 207. 1−p x+1 b) P (X = x − 1) P (X = x + 1) ≤ P 2 (X = x). p). Compruebe que la funci´n de probabilidad de la distribuci´n Ber(p) o o efectivamente lo es. Use el teorema del binomio para comprobar que la funci´n de probao bilidad de la distribuci´n bin(n. Obtenga adem´s la correspondiente funci´n de a o distribuci´n.8. Demuestre que Y = n − X tiene o distribuci´n bin(n. . 210. c) Var(X) = np(1 − p). e) E(X − np)4 = 3n2 p2 (1 − p)2 + np(1 − p)(1 − 6(1 − p)p).

1. . Compruebe que la funci´n de probabilidad de la distribuci´n geo(p) o o efectivamente lo es. 2 213. se cumple la igualdad P (X ≥ x + y | X ≥ x) = P (X ≥ y). Variables aleatorias 131 1 b) P (X ∈ {0. . . o Use este resultado y la f´rmula del ejercicio 157 para demostrar que o E(X) = (1 − p)/p. Sea X con dise tribuci´n geo(p). . Sea X con distribuci´n geo(p). Distribuci´n geom´trica o e 214. La distribucion geom´trica no tiene memoria. o 215. Demuestre que P (X ≥ n) = (1 − p)n .}) = (1 + (1 − 2p)n ). Sea X con distribuci´n geo(p). . 218. Calcule la probabilidad de que cada cara se obtenga exactamente 3 veces. compare con ´ o el siguiente ejercicio. 216. y = 0. 1. o P (X ≥ x + y | X ≥ x) = P (X ≥ y).Cap´ ıtulo 2. 1. . La expresi´n ⌊x⌋ denota la parte entera de x. si x < 0. . 2. . b) Var(X) = (1 − p)/p2 . . . Demuestre que para cualesquiera x. Demuestre que existe un n´mero p ∈ (0. Sea X una variable aleatoria discreta con valores en {0. . y = 0. 1) tal que X tiene distribuci´n u o geo(p). Esta es la unica distribuci´n discreta con tal propiedad. Se lanza una moneda equilibrada 6 veces.} y tal que para cualquier x. Demuestre que la correspondiente funci´n de diso tribuci´n es o F (x) = 1 − (1 − p)⌊x⌋+1 0 si x ≥ 0. Demuestre que o a) E(X) = (1 − p)/p. 4. ´ 217. . .

.132 2. Poisson). 2 223. . . . 2 1 b) P (X ∈ {0. Sea X con distribuci´n Poisson(λ). λ/n) con λ > 0. b) E(X 2 ) = λ(λ + 1). Demuestre que o 1 a) P (X ∈ {1. l´ P (Xn = k) = e−λ ım λk . d) E(X 3 ) = λE(X + 1)2 . k! n→∞ A este resultado tambi´n se le conoce con el nombre de ley de eventos e raros. Ejercicios Distribuci´n Poisson o 219. Demuestre que para cada k = 0.8. 221.}) = (1 − e−2λ ). Teorema de Poisson (Convergencia de la dist. Sea X con distribuci´n Poisson(λ).}) = (1 + e−2λ ). 2. Demuestre que o a) P (X = x + 1) = λ P (X = x). binomial a la dist. 5. Compruebe que la funci´n de probabilidad de la distribuci´n Poisson(λ) o o efectivamente lo es. x+1 b) P (X = x − 1) P (X = x + 1) ≤ P 2 (X = x). Sea X con distribuci´n Poisson(λ). Para cada entero positivo n. . 4. . . 1. . 3. . Demuestre que o a) E(X) = λ. c) Var(X) = λ. sea Xn con distribuci´n o bin(n. 222. . 220.

. Compruebe que la funci´n de probabilidad de la distribuci´n bin neg(r. Convergencia de la dist. Demuestre que cuano do N y K tienden a infinito de tal forma que K/N → p. p). Sea X con distribuci´n bin neg(r. . . Variables aleatorias 133 Distribuci´n binomial negativa o 224. 1. Compruebe que la funci´n de densidad de la distribuci´n unif(a.K→∞ l´ ım P (X = x) = n x px (1 − p)n−x . una sucesi´n de variables tal que cada una de o ellas tiene distribuci´n bin neg(n. n). X2 . . .Cap´ ıtulo 2. l´ P (Xn = k) = e−λ ım λk . o . Grafique ambas funciones. Demuestre que para cada k = 0. 225. entonces N. 226. Calcule adem´s la correspondiente funci´n de disa o tribuci´n. b) o o efectivamente lo es. e ´ 228. Sea X con distribuci´n hipergeo(N. Compruebe que la funci´n de probabilidad de la distribuci´n hipero o geom´trica efectivamente lo es. binomial negativa a la dist. Sea X1 . b) Var(X) = r(1 − p)/p2 . Poisson. Demuestre que o a) E(X) = r(1 − p)/p. Distribuci´n uniforme continua o 229. hipergeometrica a la dist. k! n→∞ Distribuci´n hipergeom´trica o e 227. binomial. p) o o efectivamente lo es. p) con p = n/(λ + n) para alg´n o u λ > 0. Convergencia de la dist. . K.

y > 0. . Sea X con distribuci´n unif(0. Demuestre adem´s que para cualquier x. Sea X con distribuci´n unif(−1. Demuestre que la correspondiente funci´n de distrio buci´n es o 1 − e−λx si x > 0. . . o 232. Demuestre que Y tiene distribuci´n uniforme en el o conjunto {0. 1). La o expresi´n ⌊x⌋ denota la parte entera de x. 9}. 231. Ejercicios 230. 2. si n es impar. 1) y sea 0 < p < 1. Demuestre que E(X n ) = 1/(n + 1). Obtenga la distribuci´n de o o a) Y = 10X − 5. . 1). Demuestre que para n = 0. Sea X con distribuci´n unif(0. 1. Sea X con distribuci´n unif(0. a F (x + y) − F (y) = F (x)(1 − F (y)). Compruebe que la funci´n de densidad de la distribuci´n exp(λ) efeco o tivamente lo es. . F (x) = 0 si x ≤ 0. 234.134 2.8. 233. (n + 1)(b − a) c) Var(X) = (b − a)2 /12. Distribuci´n exponencial o 236. bn+1 − an+1 b) E(X n ) = . Defina a Y como el primer d´ o ıgito decimal de X. o 235. Demuestre que la o variable aleatoria Y = ⌊ln X/ ln(1 − p)⌋ tiene distribuci´n geo(p). Sea X con distribuci´n unif(0. . 1. o E(X n ) = 1/n + 1 0 si n es par. 1). 1). Sea X con distribuci´n unif(a. . b) Y = 4X(1 − X). . b). Demuestre que o a) E(X) = (a + b)/2.

entonces aX se distribuye exp(λ/a). 239. Calcule la esperanza y varianza de la variable m´ ın{X. ´ 238. Demuestre que existe una constante λ > 0 tal que X tiene distribuci´n o exp(λ). y sea a una constante positiva. para x ∈ R. Sea X una variable aleatoria absolutamente continua con valores en el intervalo (0. estrictamente creciente y tal que 0 < F (x) < 1.Cap´ ıtulo 2. 2 Demuestre que la esperanza de esta distribuci´n es cero. . Sea X con distribuci´n exp(λ). Se dice que la variable X tiene una distribuci´n exponencial bilateral o (o exponencial doble) con par´metro λ > 0 si su funci´n de densidad a o es 1 f (x) = λe−λ|x| . es 2/λ 243. Demuestre que la variable aleatoria Y = − ln F (X) tiene distribuci´n exponencial con o par´metro λ = 1. 242. Sea X una variable aleatoria con funci´n de distribuci´n continua o o F (x). Sea X una variable aleatoria con distribuci´n exponencial de par´meo a tro λ. Demuestre que si X se distribuye exp(λ). y > 0 se cumple P (X ≥ x + y | X ≥ x) = P (X ≥ y). Variables aleatorias 135 237. Sea a > 0. 240. La distribucion exponencial no tiene memoria. Demuestre que la esperanza de la distribuci´n exp(λ) es 1/λ. a 241. y tal que para cualesquiera x. y la o varianza es 1/λ2 . y la varianza o 2. ∞). La distribuci´n exponencial es la unica distribuci´n absolutamente o ´ o continua que satisface esta propiedad. al respecto ver el siguiente ejercicio. Demuestre que o P (X ≥ x + y | X ≥ x) = P (X ≥ y). a}.

λ). √ d) Γ(1/2) = π. Recuerde que la funci´n gama se define para cada valor de n tal que o la siguiente integral es convergente Γ(n) = 0 ∞ tn−1 e−t dt. 1. 247.8. Demuestre que o a) E(X) = n/λ. . o a) Γ(n + 1) = nΓ(n). Demuestre que si X se distribuye gama(n. λ). o 245. . F (x) = k! k=0   0 si x ≤ 0. λ). λ/a). entonces aX se distribuye gama(n. . Sea a > 0. . λ) o o efectivamente lo es. para m = 0. Sea X con distribuci´n gama(n. 248. Demuestre que la funci´n de diso o tribuci´n de X es o  n−1  (λx)k  1− e−λx si x > 0. Ejercicios 244. Demuestre que esta funci´n cumple las siguientes propiedades. 1 · 3 · 5 · · · (2n − 1) √ e) Γ(n + 1/2) = π 2n para n entero. 246.136 Distribuci´n gama o 2. λ Γ(n) c) Var(X) = n/λ2 . Verifique adem´s que esta distribuci´n se reduce a o a la distribuci´n exp(λ) cuando n = 1. b) Γ(n + 1) = n! para n entero. c) Γ(2) = Γ(1) = 1. Compruebe que la funci´n de densidad de la distribuci´n gama(n. Γ(m + n) b) E(X m ) = m . Sea X con distribuci´n gama(n.

Recuerde que la funci´n beta se define para cada a. o 250. a+b B(a + n. b). b) = a B(a. Variables aleatorias 137 Distribuci´n beta o 249. b + 1). c) B(a. b) B(a. Verifique adem´s que esta distribuci´n se reduce a o a la distribuci´n unif(0. a). b). Var(X) 252. b) = Γ(a)Γ(b)/Γ(a + b). Var(X) E(X)(1 − E(X)) b) b = (1 − E(X)) [ − 1 ]. b > 0 de la forma o 1 B(a. b) ab c) Var(X) = . (a + b + 1)(a + b)2 251. 1) cuando a = b = 1. Sea X con distribuci´n beta(a. Sea X con distribuci´n beta(a. Demuestre que esta funci´n cumple las siguientes propiedades. Demuestre que o a) a = E(X) [ E(X)(1 − E(X)) − 1 ]. Demuestre que o a) E(X) = a . b) o o efectivamente lo es. b) b) E(X n ) = . b) = B(b. d) B(1. b) = 1/b. b) = 0 xa−1 (1 − x)b−1 dx.Cap´ ıtulo 2. Compruebe que la funci´n de densidad de la distribuci´n beta(a. e) B(a + 1. b . Var(X) E(X)(1 − E(X)) c) a + b = − 1. B(a. o a) B(a. 1) = 1/a.

8. En este caso se dice que X o tiene una distribuci´n arcoseno. 256. si x ≤ 0. b). o   0 F (x) = xa  1 Demuestre que para a > 0 y b = 1. Sea X con distribuci´n beta(1/2. a . Sea X con distribuci´n beta(a. y s´lo si. 1/2). b) si. 254. Ejercicios a B(a. b). o  si x ≤ 0. g) B(a. si x ≥ 1. σ 2 ) o o a) es efectivamente una funci´n de densidad. o b) es sim´trica respecto de x = µ. 1/2) = π. Demuestre que para a = 1 y b > 0. b + 1) = a+b h) B(1/2.138 f ) B(a + 1. a). y Var(X) = 1/8. a+b b B(a. Demuestre que la funci´n de densidad de la distribuci´n N(µ.  1 si x ≥ 1. b) Demuestre directamente que f (x) es una funci´n de densidad. si 0 < x < 1. 253. o a) Calcule y grafique f (x). b). o Distribuci´n normal o 257. Demuestre que X tiene distribuci´n beta(a. o c) Demuestre directamente que E(X) = 1/2. b) = 2. Sea X con distribuci´n beta(a. 1 − X tiene o o distribuci´n beta(b. 255. e c) alcanza su m´ximo en x = µ. b).  0 F (x) = 1 − (1 − x)b si 0 < x < 1.

Sea X con distribuci´n N(µ.Cap´ ıtulo 2. . Demuestre que o a) P (µ − σ < X < µ + σ) = 0. σ 259. σ 2 ). . . 1)? o o 265. . 261. Encuentre la funci´n de densidad de la variable aleatoria |X|. Demuestre que para cada n = 0. Sea X con distribuci´n normal est´ndar. σ 2 ). . o a . tiene una distribuci´n normal. cuando o X tiene distribuci´n normal est´ndar. Sea X con distribuci´n N(µ. ¿Ser´ cierto que si Y tiene a √ distribuci´n. si n es impar. Demuestre que la variable aleatoria o −X tambi´n tiene una distribuci´n normal. 2. c) P (µ − 3σ < X < µ + 3σ) = 0. Demuestre que Y = aX + b. Demuestre que E(X) = µ y Var(X) = o 2.68269. Rec´ una distribuci´n χ o ıprocamente. σ 2 ). o 139 258. Encuentre los par´metros coo a rrespondientes. 264. 262. Variables aleatorias d) tiene puntos de inflexi´n en x = µ ± σ. σ 2 ).9973.  n!  si n es par. χ2 (1) entonces Y tiene distribuci´n N(0. . σ 2 ). Demuestre que X 2 tiene o a 2 (1). Sea X con distribuci´n N(µ. 1.9545. 260. Sea X con distribuci´n N(µ. Encuentre los par´metros e o a correspondientes. o E|X − µ|n = 1 · 3 · 5 · · · (n − 1)σ n 0 si n es par. b) P (µ − 2σ < X < µ + 2σ) = 0. n n/2 (n/2)! E(X ) = 2  0 si n es impar. 263. con o a = 0. Sea X con distribuci´n normal est´ndar. Sea X con distribuci´n N(µ. 1. Demuestre que para cada o a n = 0.

8. Demuestre que la funci´n de densidad de una distribuci´n log normal(µ. b) Var(X) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ). Ejercicios 266. y sea Φ(x) la correspondiente funci´n de o a o distribuci´n. Demuestre que o a) E(X) = exp(µ + σ 2 /2).140 2. σ 2 ) o o efectivamente lo es. σ 2 ). x x φ(x) x x x para x > 0. Demuestre que o a) φ′ (x) + xφ(x) = 0. El cociente de Mills. d) Var(ln X) = σ 2 . Sea X con distribuci´n log normal(µ. 1 1 − Φ(x) 1 1 3 1 b) − 3 < < − 3 + 5. 268. Sea φ(x) la funci´n de densidad de la diso tribuci´n normal est´ndar. Distribuci´n log normal o 267. . c) E(ln X) = µ.

Cap´ ıtulo 3 Vectores aleatorios En este cap´ ıtulo se extiende el concepto de variable aleatoria con valores reales a variables aleatorias con valores en Rn . . P ). ´ste o e puede representar de la forma X = (X1 . se cumple que la imagen inversa X −1 B es un elemento de F . (Vector aleatorio). F . . . Estudiaremos adem´s varios conceptos importantes a relacionados con estas funciones. Xn ) en donde cada coordenada es una funci´n de Ω en R. Vectores aleatorios Recuerde que hemos supuesto que se tiene siempre como elemento base un espacio de probabilidad (Ω.1. ´ Definicion. 3. . Un vector aleatorio es una funci´n o X : Ω → Rn tal que para cualquier conjunto B en B(Rn ). Dado entonces que un vector aleatorio es una funci´n de Ω en Rn . a tales funciones las llamaremos vectores aleatorios. Demostraremos a continuaci´n que la condici´n o o o que aparece en la definici´n anterior es equivalente a solicitar que cada o 141 .

es correcto definir un vector aleatorio simplemente como un vector de variables aleatorias. o ´ Proposicion. . cada coordenada es una variable aleatoria. los conjuntos de Borel de Rn de la forma B1 × · · · × Bn . . Xn ) ω Ω (X1 (ω). Sea (X1 .1. o Demostraci´n. . . . .142 3. . Una funci´n (X1 . para cualquier Boreliano B de R. y s´lo si. . . Esto demuestra que X1 es variable aleatoria. . en donde el vector aleatorio est´ definido. . a (X1 . la imagen inversa del conjunto B × R × · · · × R pertenece a F . . . el espacio de probabilidad producto. . . −1 Pero esta imagen inversa es simplemente X1 B. Xn ) : Ω → Rn es una variable aleatoria. Como cada coordenada es una variable aleatoria. Xn (ω)) Rn Figura 3. . en donde cada factor de este producto es un Boreliano de R. Xn ) : Ω → Rn es un vector aleatoo rio si. . En consecuencia. La imagen inversa de o cualquier conjunto de Borel de Rn es entonces un elemento de la σ-´lgea bra del espacio de probabilidad. Considere la colecci´n o B = {B ∈ B(Rn ) : (X1 . Xn ) un vector aleatorio. .1: Un vector aleatorio es una funci´n de Ω en Rn . . . V´ase la Figura 3. . . Suponga ahora que cada coordenada de una funci´n o (X1 . De manera an´loga se procede con las otras coora denadas del vector. Vectores aleatorios coordenada de este vector sea una variable aleatoria. .1. Puede demostrarse adem´s que si se parte de e a n espacios de probabilidad en donde est´n definidas n variables aleatorias a respectivamente. En particular. . entonces existe un espacio de probabilidad. Xn )−1 B ∈ F }. es un elemento .

.Cap´ ıtulo 3. o Para simplificar la escritura. los vectores aleatorios que las generan. o y por lo tanto la funci´n (X1 . consideraremos vectores aleatorios como los ´ que se definen a continuaci´n.Y es a una medida de probabilidad definida sobre esta σ-´lgebra. . de la forma (X. Y )−1 B). . las definiciones y resultados son f´cilmente extendidos a dia mensiones mayores. Para cualquier B en B(R2 ). y se dice que es continuo en caso de que cada coordenada lo sea. esto es. En la mayor´ ıa de los casos. Y ). o ´ Definicion. PX. Se dice que el vector (X. o equivalentemente. Nuestro objetivo es estudiar estas nuevas medidas de probabilidad. 143 Pero ambos extremos de esta ecuaci´n coinciden. Es f´cil demostrar que la colecci´n B es una σ-´lgebra. Y ) es discreto si cada coordenada es una variable aleatoria discreta. Asi que a o a σ(B(R) × · · · × B(R)) ⊆ B ⊆ B(Rn ). (Vector discreto y continuo). Entonces o B(R) × · · · × B(R) ⊆ B ⊆ B(Rn ). en donde B(R2 ) es la σ-´lgebra de conjuntos de Borel de R2 . Y ) : Ω → R2 genera el espacio de probabilidad (R2 . Por ejemplo. B(R2 ). y PX. Vectores aleatorios de la colecci´n B. PX.Y ). de modo que B = B(Rn ). el siguiente resultado es an´logo al caso a unidimensional y puede extenderse al caso de n dimensiones: un vector aleatorio (X. Xn ) es un vector aleatorio. aunque no unicamente. donde sea posible se usan unicamente vecto´ res aleatorios bidimensionales. e inducida por el a vector aleatorio de la siguiente forma. . .Y (B) = P ((X. En la mayor´ de los ıa casos.

Y ≤ y) es la probabilidad de que el u vector (X. y) se le conoce tambi´n como funci´n de distribuci´n bivao e o o riada de X y Y . y) Figura 3. El n´mero F (x. denotada por F (x. Y ). (x. Y ≤ y). y al mismo tiempo Y sea menor o igual a y. y) es entonces la probabilidad de que el vector aleatorio u tome alg´n valor en la rect´ngulo infinito (−∞. todo vector aleatorio induce una medida de probabilidad. ahora sobre Rn . o A la funci´n F (x. mediante la funci´n de distribuci´n o o conjunta definida a continuaci´n. y) es la probabilidad o de que X sea menor o igual a x. Distribucion conjunta 3.2. o ´ ´ ´ Definicion. y) : R2 → [0. y en general a la distribuci´n conjunta de un vector aleatorio o . se o define como sigue F (x. x] × (−∞. y]. el cual se u a muestra en la Figura 3. Y ) tome un valor en la regi´n sombreada. Esta medida de probabilidad puede estudiarse.144 ´ 3. la funci´n F (x. Distribuci´n conjunta o Como en el caso de variables aleatorias. La funci´n de o distribuci´n de un vector (X. y) = P (X ≤ x. (Funcion de distribucion conjunta).2. y) = P (X ≤ x. de manera equivalente. 1].2: El n´mero F (x.2. En palabras. esto es simplemente la probabilidad del evento (X ≤ x) ∩ (Y ≤ y).

b2 ]. la distribuci´n se llama univariada. b1 ] × (a2 . y). en el caso unidimensional. b2 ) − F (b1 . y es evidente la forma de extender la definici´n para el caso de vectores o aleatorios de m´s de dos coordenadas. F (x. Vectores aleatorios 145 de cualquier dimensi´n finita se le llama distribuci´n multivariada. a2 ) + F (a1 . F (x. Las funciones de distribuci´n conjunta satisfacen propiedades semejantes al o caso unidimensional.Y (x. sea no a negativa. Este rect´ngulo se muestra en la Figura 3. b2 ) − F (b1 . b2 ) − F (a1 . y y es un valor asociado a Y . y) es no decreciente en cada variable. Natuo o ralmente. Toda funci´n de distribuci´n conjunta F (x.y→∞ l´ ım F (x. es decir. o Cuando sea necesario especificarlo se escribe FX. a2 < Y ≤ b2 ). Con el fin de mantener la notaci´n a o simple. y) = 1. b2 ) − F (a1 . en la medida de lo posible se mantiene la correspondencia de las letras.y→−∞ 3. l´ ım F (x. y) es continua por la derecha en cada variable. ambas variables. a2 ) o corresponde a la probabilidad del evento (a1 < X ≤ b1 . x. 2. 4.Cap´ ıtulo 3. 5. x es un valor asociado a X. y) en lugar de F (x. a2 ) ≥ 0.3. alguna de las variables. a . Si a1 < b1 y a2 < b2 . a2 ) + F (a1 . Respecto a la propiedad (5) observe que la expresi´n F (b1 . De modo que (5) se traduce simplemente en solicitar que la probabilidad de que el vector (X. entonces F (b1 . y) satisface o o las siguientes propiedades. La demostraci´n de las propiedades (1) a (4) es completamente an´loga al o a caso unidimensional y por tanto la omitiremos. 1. Y ) tome valores en el rect´ngulo (a1 . x. o ´ Proposicion. se estudian a continuaci´n algunas de ellas. y) = 0.

1 si x + y ≥ 0. y) = 0 A diferencia del caso unidimensional. Grafique y demuestre que la funci´n que aparece abajo no es de o distribuci´n. y) = 0 si x + y < 0. Grafique y demuestre que la siguiente funci´n es de distribuci´n. Por ejemplo calcule la probabilidad del cuadrado (−1. V´ase tambi´n el ejercicio 272.146 ´ 3. es continua por la derecha y no decreciente en cada variable. 1] × (−1. F (x. las propiedades (1) a (4) no son suficientes para asegurar que una funci´n F (x.3: La probabilidad asociada al rect´ngulo (a1 . b2 ] es P (a1 < a X ≤ b1 . a2 < Y ≤ b2 ) = F (b1 . y > 0. otro caso. b1 ] × (a2 . b2 ) − F (b1 . El siguiente ejercicio muestra un ejemplo de a esta situaci´n. a2 ). Ejercicio. a2 ) + F (a1 . pero no es funci´n de distribuci´n pues asigna valores o o negativos a algunas regiones del plano. y) asigna probabilidad no neo gativa a cualquier rect´ngulo. b2 ) − F (a1 . Este es un ejemplo de una funci´n que tiene el comportamiento o o l´ ımite adecuado en infinito. 1]. o o (1 − e−x )(1 − e−y ) si x. Distribucion conjunta b2 a2 a1 b1 Figura 3. F (x. o e e Ejercicio. .2.

es una funci´n de distribuci´n conjunta si cumple o o con las cinco propiedades enunciadas en la proposici´n anterior. b3 ) − F (a1 . o Para tres dimensiones se tiene la siguiente definici´n. Vectores aleatorios 147 ´ ´ ´ Definicion. (Funcion de distribucion conjunta).4. es decir. a3 < X3 ≤ b3 ). a2 < X2 ≤ b2 . a2 . a2 . X3 ) tome alg´n valor dentro del paralelep´ u ıpedo que se muestra en la Figura 3. a2 < b2 . b2 . a2 . b2 . se tiene la siguiente definici´n.Cap´ ıtulo 3. a2 . a o . La condici´n anterior establece entonces o que este n´mero debe ser mayor o igual a cero. o M´s adelante se mostrar´n otros ejemplos concretos de funciones de distria a buci´n conjunta. a3 ) +F (a1 . a3 ) + F (b1 . En t´rminos de vectores aleatorios se puede demostrar que el lado izquierdo e de esta desigualdad corresponde a la probabilidad del evento (a1 < X1 ≤ b1 . se trata de la probabilidad de que el vector aleatorio (X1 . Se dice que la funci´n o o 3 → [0. o u F (b1 . y a3 < b3 . b3 ) + F (a1 . 1]. b3 ) − F (b1 . b2 . Una funci´n o 2 → [0. no necesariamente definida en t´rminos cualquiera F (x. b2 . b3 ) − F (b1 . a3 ) −F (a1 . X2 . a3 ) ≥ 0. u M´s generalmente. y) : R e de un vector aleatorio. 1] es una funci´n de distribuci´n si cumple las primeras cuatro F :R o o propiedades anteriores y la quinta propiedad se reemplaza por la siguiente condici´n: Para cualesquiera n´meros reales a1 < b1 .

y la condici´n o requiere simplemente que este n´mero sea no negativo. . . .2. para cualesquiera n´meros reales a1 < b1 . 1] es una funci´n de distribuci´n si cumple las primeo o ras cuatro propiedades anteriores y. b1 ] × (a2 . o o Nuevamente la suma que aparece en esta definici´n corresponde a la proo babilidad del evento (a1 < X1 ≤ b1 . xi ∈{ai . an < Xn ≤ bn ). . o ´ ´ ´ Definicion. b2 ] × (a3 . . . a .4: Regi´n (a1 . Distribucion conjunta z b3 a3 a2 a1 b1 b2 y x Figura 3.. . a2 < b2 . .148 ´ 3. Una funci´n o F : Rn → [0. . . La prueba no es sencilla pero es an´loga al caso unidimensional. u Finalmente enunciamos un resultado que establece la importancia de la funci´n de distribuci´n. u (−1)#a F (x1 . y cuya demostraci´n puede ser encontrada por ejemplo o o o en [19]. . b3 ]. (Funcion de distribucion conjunta). xn ) ≥ 0. an < bn . adicionalmente.bi } en donde #a es el n´mero de veces que alguna de las variables xi toma u el valor ai en la evaluaci´n de la funci´n F .

1] que sea eso . Xn ) con funci´n de distribuci´n la especificada. P ) en donde se encuentra definido un vector aleatorio (X1 . y la cual se define a continuao ci´n. b) x. A esta funci´n tambi´n se le llama funci´n de probabilidad conjunta de o e o las variables X y Y . Y ) es la funci´n f (x. y) = P (X = x. y un vector aleatorio. y) ≥ 0. este resultado garantiza la existencia de un espacio de probabilidad (Ω. toda funci´n no negativa f (x. algunos vectores tienen asociada otra funci´n llamada de probabilidad o de densidad. (Funcion de probabilidad conjunta).y f (x.3. . 1] dada por f (x. y) : R2 → o [0. La funci´n de o probabilidad de un vector discreto (X. Es evidente que la funci´n de probabilidad de un vector discreto cumple las o siguientes propiedades. Y = y). Sea F : Rn → [0. . Densidad conjunta Como en el caso unidimensional. Entonces o o existe un espacio de probabilidad. y) = 1. a) f (x. F . Vectores aleatorios 149 ´ Proposicion. y) : R2 → [0. En lo que resta del cap´ o o ıtulo hablaremos de vectores aleatorios suponiendo que existe un espacio de probabilidad base asociado.Cap´ ıtulo 3. o Es decir. . 3. cuya funci´n de o distribuci´n es F . o ´ ´ Definicion. Rec´ ıprocamente. . 1] una funci´n de distribuci´n.

y) = f (u. 1 ≤ y < 2. corresponde a la distribuci´n uniforme sobre el conjunto {1. La definici´n de funo o ci´n de probabilidad en el caso discreto multidimensional es evidente. Densidad conjunta trictamente positiva unicamente en un subconjunto discreto de R2 y que ´ sume uno. y = 1. Es o claro tambi´n que la correspondiente funci´n de distribuci´n se puede cale o o cular a partir de la funci´n de probabilidad de la siguiente forma: o F (x. se llama funci´n de probabilidad conjunta. o 1 ≤ x < 2. para x. y) = P (X ≤ x. f (x. 2}× {1.6. a es si si si si si x < 1 ´ y < 1. y = 1. y) 1/4 2 1 1 2 y x Figura 3.150 3. 2}.3. 1 ≤ y < 2. . v). u≤x v≤y Ejemplo. x ≥ 2. La funci´n f (x. y) = 1/4. La gr´fica se muestra o a en la Figura 3. v) = 2/4   2/4 u≤x v≤y    1 cuya gr´fica se encuentra en la Figura 3. y) = 1/4. 1 ≤ x < 2. para x. y ≥ 2.5: Funci´n de probabilidad f (x. es una funci´n de o o probabilidad conjunta pues es no negativa y suma uno. Y ≤ y) = f (u. o La correspondiente funci´n de distribuci´n o o   0    1/4  F (x. 2. 2. x ≥ 2 y y ≥ 2.5.

y) 151 y 2 1 1 2 x Figura 3. o o Ejemplo.y=1 f (x. La funci´n definida por f (x. y) = ∞ x.y=1 1 2x+y =( 1 2 ) = 1.6: Ejemplo de funci´n de distribuci´n discreta. es una funci´n de proe o babilidad bivariada pues es no negativa y suma uno. e o id´nticamente cero fuera de este conjunto discreto. y ∈ N.Cap´ ıtulo 3. 2x x=1 ∞ Para el caso de vectores continuos se tiene la siguiente definici´n. Vectores aleatorios F (x. En efecto. ∞ x. y) = (1/2)x+y para x. o .

en el caso absolutamente continuo y conociendo la funci´n de o densidad conjunta. y) dx dy = 1. c ≤ Y ≤ d) no cambia si se incluyen o se excluyen los extremos de cada intervalo. Densidad conjunta ´ ´ Definicion. Es claro que la funci´n de densidad conjunta f (x. para todo (x. a) f (x. y) se le denota por fX. la probabilidad del evento (a ≤ X ≤ b. Y ) es o o absolutamente continuo si existe una funci´n no negativa e integrable o f (x. b) ∞ ∞ f (x. se llama funci´n de densidad conjunta. Sea (X. sin embargo la funci´n o de distribuci´n y por tanto las probabilidades. . y) = F (x. cuando f (x. toda funci´n no negativa f : R2 → [0. y). o A la funci´n f (x. y) : R2 → [0. As´ como en el caso unidimensional. ∞). y). Y ) un vector continuo con funci´n de distribuci´n F (x. y) o es continua. y). permanecen sin cambio alo guno. (Funcion de densidad conjunta). Se dice que (X.7. y) de un vector o absolutamente continuo cumple las siguientes propiedades. v) dv du. tal que. y se calcula como la integral doble que se ilustra en la Figura 3. ∂2 f (x.152 3. y se le llama funci´n de o densidad conjunta de X y Y . y) en R2 . ∂y∂x Observe que. se cumple la igualdad x y F (x. ∞). que integre o uno. −∞ −∞ Rec´ ıprocamente. y) ≥ 0.Y (x. no existe realmente unicidad para la ı funci´n de densidad pues basta modificarla en algunos puntos para ser diso tinta pero seguir cumpliendo la igualdad anterior.3. En particular. y) = −∞ −∞ f (u.

Y ) en el cuadrado [0. Vectores aleatorios 153 f (x.9. 2] × [0. Para calcular la correspondiente funci´n de distribuci´n F (x. ∞) dada por la siguiente expresi´n es o o una funci´n de densidad pues es no negativa e integra uno.7: La probabilidad como el volumen bajo una superficie. 2]. y) c d y b d a b P (a ≤ X ≤ b. f (x. y ∈ [0. La funci´n f : R2 → [0. c ≤ Y ≤ d) = f (x. y) dy dx a c x Figura 3. La gr´fica se muestra en la a Figura 3. 2]. Ejemplo. otro caso. y) = Esta funci´n de densidad conjunta corresponde a la distribuci´n uniforme o o del vector (X. y) se debe o o calcular la doble integral para los distintos valores de x y y. Despu´s de algunos c´lculos e a elementales se encuentra que la funci´n de distribuci´n conjunta tiene la o o . Esta doble integral toma distintas expresiones en cada una de las cinco regiones que aparecen en la parte izquierda de la Figura 3.Cap´ ıtulo 3.8. o 1/4 0 si x.

o siguiente expresi´n cuya gr´fica aparece en la parte derecha de la Figura 3. si x ≥ 2 y y ≥ 2. x ≥ 2. Calcule o P (X = Y ). y < 2. si 0 ≤ y < 2. 2]. para x. v)dvdu si x < 0 ´ y < 0.8: Funci´n de densidad f (x. y) 1/4 2 y 2 x Figura 3. Demuestre que la siguiente funci´n es de densidad. y ∈ [0. y) = 1/4. Densidad conjunta f (x.9. o a x y F (x. si 0 ≤ x < 2. Ejercicio. y ≥ 2. y) =   0      xy/4    x/2 =     y/2      1 −∞ −∞ f (u. o si 0 ≤ x. ¿Puede usted calcular la . P (X = 1) y P (X + Y = n + 1).154 3.3.

0 < Y < 1/2). Encuentre la o correspondiente funci´n de distribuci´n y calcule P (1 < X < 2. y) =   0 otro caso. . . . Calcule o o adem´s P (1/3 < X < 1. otro caso. .Cap´ ıtulo 3. y = 1. Ejercicio. Ejercicio. y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2. otro caso. 1 < Y < 2). Vectores aleatorios y x/2 0 2 xy/4 2 0 0 y/2 x 2 2 1 155 F (x. Demuestre que la siguiente funci´n es de densidad. P (Y > X) y P (X > 1/2). 2 (n + 1)2 n f (x. o o correspondiente funci´n de distribuci´n? o o  4xy   si x. a f (x. y) y x Figura 3. . n. f (x. y) = x+y 0 si 0 < x.9: Ejemplo de funci´n de distribuci´n continua bivariada. Demuestre que la siguiente funci´n es de densidad. Encuentre la o correspondiente funci´n de distribuci´n y grafique ambas funciones. y < 1. o o P (X > 1) y P (Y + X > 2).

(Funcion de distribucion marginal). Y ) un vector con funci´n de distribuci´n F (x. Y ). es o o posible obtener la funci´n de distribuci´n de cada variable aleatoria por o o separado mediante el siguiente procedimiento.156 ´ 3. y). y) ım y→∞ se le conoce como la funci´n de distribuci´n marginal de X. y) de un vector aleatorio (X.4. se puede obtener la distribuci´n marginal de cualquier o o subconjunto de variables aleatorios del vector original mediante un procedimiento similar. En el caso de vectores de o dimensi´n mayor. A la funci´n o o o F (x) = l´ F (x. ´ ´ ´ Definicion. Distribuci´n marginal o Dada la funci´n de distribuci´n F (x. Sea (X. En un ejemplo anterior hab´ ıamos encontrado la siguiente funci´n o . y). Distribucion marginal 3. An´logao o a mente se define la funci´n de distribuci´n marginal de Y como o o F (y) = l´ F (x. Ejemplo.4. ım x→∞ No es dif´ verificar que las funciones de distribuci´n marginales son efecıcil o tivamente funciones de distribuci´n univariadas.

Y ) cuya funci´n de distribuci´n es o o   0     3x2 y/5 + 2xy 3 /5   3x2 /5 + 2x/5 F (x. FX (x) =    1 si x ≥ 2. o si 0 ≤ x < 1 y 0 ≤ y < 1. se pueden obtener las funciones de densidad individuales como indica la siguiente definici´n. si 0 ≤ y < 2. si x ≥ 1 y 0 ≤ y < 1. si x ≥ 1 y y ≥ 1. y) = x/2     y/2      1 si x < 0 ´ y < 0. x ≥ 2. si 0 ≤ x < 1 y y ≥ 1. y ≥ 2.Y (x. o si 0 ≤ x.  0   x/2 si 0 ≤ x < 2. Vectores aleatorios de distribuci´n conjunta o   0      xy/4    FX.Cap´ ıtulo 3. tercer y quinto rengl´n de la lista anterior. si 0 ≤ x < 2. o . Encuentre las funciones de (X. Para encontrar. y < 2. si x ≥ 2 y y ≥ 2. Esto o da como resultado  si x < 0. la funci´n de distribuci´n marginal o o FX (x) simplemente tenemos que hacer la variable y tender a infinito en las regiones donde ello sea posible. Ello puede hacerse en las regiones dadas por las condiciones del primer. y) =    3y/5 + 2y 3 /5     1 distribuci´n marginales del vector o si x < 0 ´ y < 0. por ejemplo. 157 ¿Puede usted encontrar ahora FY (y)? Esta funci´n esta definida de manera distinta en cada una de las cinco regioo nes disjuntas y exhaustivas del plano Cartesiano dadas por las condiciones anteriores. Ejercicio. Para el caso de funciones de densidad conjunta.

158

´ 3.4. Distribucion marginal

´ ´ Definicion. (Funcion de densidad marginal). Sea (X, Y ) un vector absolutamente continuo con funci´n de densidad f (x, y). A la funci´n o o f (x) =
∞ −∞

f (x, y) dy

se le conoce como la funci´n de densidad marginal de X. An´logamente o a se define la funci´n de densidad marginal de Y como o f (y) =
∞ −∞

f (x, y) dx.

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma. Tampoco es dif´ comprobar que las funciones de densidad marginales son ıcil efectivamente funciones de densidad univariadas. Las dos definiciones anteriores pueden extenderse de manera evidente cuando se tenga un vector aleatorio de cualquier dimensi´n finita. Tambi´n es posible calcular las funo e ciones de densidad y de distribuci´n de (X, Y ) a partir, por ejemplo, de las o funciones correspondientes del vector (X, Y, Z). Ejercicio. Calcule las funciones de densidad marginales del vector aleatorio discreto (X, Y ) cuya funci´n de probabilidad esta dada por la siguiente o tabla. x\y 1 2 3 −1 1/45 2/45 3/45 0 4/45 5/45 6/45 1 7/45 8/45 9/45

Ejercicio. Calcule las funciones de densidad marginales del vector aleatorio continuo (X, Y ) cuya funci´n de densidad es o f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

Cap´ ıtulo 3. Vectores aleatorios

159

Observe que la distribuci´n conjunta determina de manera unica a las distrio ´ buciones marginales. Sin embargo, si lo que se conoce son las distribuciones marginales, entonces puede haber varias distribuciones conjuntas que produzcan las marginales dadas. La forma de producir la distribuci´n conjunta o se llama acoplamiento, y la distribuci´n conjunta obtenida se llama a veo ces distribuci´n de acoplamiento o c´pula. Dos variables aleatorias X y Y o o siempre pueden acoplarse de la forma FX,Y (x, y) = FX (x)FY (y), que es el caso donde se han hecho independientes una de la otra, pero puede haber otras formas de hacerlo. En el siguiente ejemplo se muestra una situaci´n o concreta en el caso discreto. Ejemplo. Sean X y Y discretas ambas con distribuci´n uniforme en el o conjunto {0, 1}, es decir, su distribuci´n de probabilidad es o f (x) = 1/2 si x = 0, 1, 0 otro caso.

Sean a ≥ 0 y b ≥ 0 tales que a + b = 1/2. Entonces la siguiente densidad conjunta tiene como densidades marginales las especificadas para X y para Y. x\y 0 1 0 a b 1 b a

Observe que esta densidad conjunta es en realidad toda una familia de densidades conjuntas que producen las densidades marginales especificadas. En este caso X y Y son independientes si, y s´lo si, a = b = 1/4. o

160

´ 3.5. Distribucion condicional

3.5.

Distribuci´n condicional o

La siguiente definici´n es una extensi´n del concepto elemental de probabio o lidad condicional de eventos. ´ ´ Definicion. (Funcion de densidad condicional). Sea (X, Y ) un vector con funci´n de densidad fX,Y (x, y), y sea y tal que fY (y) = 0. A o la funci´n o fX,Y (x, y) x → fX|Y (x|y) = fY (y) se le conoce como la funci´n de densidad condicional de X dado que Y o toma el valor y. No es dif´ comprobar que esta funci´n es efectivamente una funci´n de ıcil o o densidad, tanto en el caso discreto como en el continuo. Observe que el valor y permanece fijo y la funci´n es vista como una funci´n de la variable real o o x, esto puede observarse en el siguiente ejemplo. Ejemplo. Considere la funci´n de densidad conjunta o fX,Y (x, y) = 24x(1 − y) si 0 < x < y < 1, 0 otro caso.

Es sencillo comprobar que para cualquier valor fijo de y en el intervalo (0, 1), la funci´n de densidad condicional de X dado Y es la que aparece m´s abajo. o a Es tambi´n inmediato verificar que esta funci´n, vista como funci´n de x, es e o o de densidad. El valor de y puede entonces considerarse como un par´metro a de esta nueva distribuci´n. o fX|Y (x|y) = 2x/y 2 si 0 < x < y, 0 otro caso.

An´logamente puede comprobarse que para cualquier x en (0, 1) fijo, a fY |X (y|x) = 2(1 − y)/(x − 1)2 si x < y < 1, 0 otro caso.

Cap´ ıtulo 3. Vectores aleatorios

161

Ejercicio. Calcule las funciones de densidad condicionales fY |X (y|x) y fX|Y (x|y) a partir de la siguiente funci´n de densidad conjunta o f (x, y) = 3(x2 + y 2 )/16 0 si 0 < x < y < 2, otro caso.

Se pueden definir tambi´n funciones de distribuci´n condicionales de la sie o guiente forma. ´ ´ ´ Definicion. (Funcion de distribucion condicional). Sea (X, Y ) un vector aleatorio absolutamente continuo con funci´n de densidad o fX,Y (x, y), y sea y tal que fY (y) = 0. A la funci´n o
x

x → FX|Y (x|y) =

−∞

fX|Y (u|y) du

se le conoce como la funci´n de distribuci´n condicional de X dado que Y o o toma el valor y. Cuando el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente. Nuevamente resulta que la funci´n de distribuci´n condicional es efectivao o mente una funci´n de distribuci´n. En el caso absolutamente continuo y o o suponiendo x → fX|Y (x|y) continua, por el teorema fundamental del c´lcua lo se tiene que ∂ fX|Y (x|y) = F (x|y). ∂x X|Y Ejemplo. Considere nuevamente la funci´n de densidad conjunta del ejemo plo anterior, fX,Y (x, y) = 24x(1 − y), para 0 < x < y < 1. Para y fijo en el

162

´ 3.5. Distribucion condicional

intervalo (0, 1) se tiene que  si x ≤ 0,  0 FX|Y (x|y) = fX|Y (u|y) du = x2 /y 2 si 0 < x < y,  −∞ 1 si x ≥ y.
x

Puede tambi´n definirse la esperanza condicional de la siguiente forma. e ´ Definicion. Sea (X, Y ) un vector con funci´n de distribuci´n o o FX,Y (x, y), y sea y un valor tal que fY (y) = 0. Si X tiene esperanza finita, entonces se define E(X | Y = y) =
∞ −∞

x dFX|Y (x|y).

En el siguiente cap´ ıtulo veremos una definici´n mucho m´s general de este o a concepto. Ejercicio. Calcule la funci´n de distribuci´n condicional FX|Y (x|y) a partir o o de la funci´n de densidad conjunta fX,Y (x, y) = 3(x2 + y 2 )/16, para 0 < o x < y < 2. Calcule adem´s E(X | Y = y) para cualquier valor de y en el a intervalo (0, 2). Ejercicio. Calcule E(X | Y = y) para y = π/4, cuando (X, Y ) es un vector absolutamente continuo con funci´n de densidad f (x, y) = (1/2) sen(x + y), o para x, y ∈ (0, π/2). Ejercicio. Sea (X, Y ) un vector aleatorio tal que X tiene esperanza finita y Y es discreta con valores 0, 1, . . . tal que P (Y = n) > 0 para n = 0, 1, . . . Demuestre que E(X) =
∞ n=0

E(X | Y = n) P (Y = n).

Cap´ ıtulo 3. Vectores aleatorios

163

3.6.

Independencia

Podemos ahora definir el importante concepto de independencia de variables aleatorias. Primero definiremos tal concepto para dos variables aleatorias, despu´s lo haremos para n variables, y finalmente para una colecci´n arbie o traria de variables aleatorias. ´ Definicion. (Independencia de dos variables aleatorias). Se dice que X y Y son independientes, y a menudo se escribe X ⊥ Y , si para cada par de conjuntos de Borel A, B de R, se cumple la igualdad P (X ∈ A, Y ∈ B) = P (X ∈ A) P (X ∈ B). (3.1)

En t´rminos de la siempre existente funci´n de distribuci´n, la independene o o cia de dos variables aleatorias se puede expresar como indica el siguiente resultado. ´ Proposicion. (Independencia de dos variables aleatorias). Las variables aleatorias X y Y son independientes si, y s´lo si, para cada o 2 se cumple la igualdad (x, y) en R FX,Y (x, y) = FX (x) FY (y). (3.2)

Demostraci´n. Si X y Y son independientes, entonces tomando A = (−∞, x] o y B = (−∞, y] en (3.1) se obtiene (3.2). Suponga ahora que se cumple (3.2)

164

3.6. Independencia

para cualesquiera x y y en R. Defina la colecci´n o A = {A ∈ B(R) : P (X ∈ A, Y ≤ y) = P (X ∈ A) P (Y ≤ y), ∀ y ∈ R }. No es dif´ demostrar que A es una σ-´lgebra y usando la hip´tesis resulta ıcil a o que A = B(R). Sea ahora A un elemento cualquiera fijo de B(R). Defina la colecci´n o B = {B ∈ B(R) : P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B) }. Se puede comprobar nuevamente que B es una σ-´lgebra, y de hecho B = a B(R). De esta forma, para cualquier A y B en B(R), se cumple la condici´n (3.1). o El concepto de independencia de variables aleatorias es una extensi´n de o la misma propiedad para eventos. Cuando la funci´n de densidad conjunta o existe, la condici´n de independencia de X y Y es equivalente a solicitar o que para cualesquiera n´meros reales x y y, se cumpla la identidad u fX,Y (x, y) = fX (x) fY (y). (3.3)

En el caso discreto, la afirmaci´n anterior es completamente correcta. Para o el caso continuo hay una observaci´n t´cnica que es necesario mencionar. o e Como en este caso las funciones de densidad pueden ser modificadas sin que cambie la funci´n de distribuci´n asociada, la igualdad (3.3) puede o o 2 , entonces se permite que la igualdad no cumplirse para cada (x, y) ∈ R no se cumpla en un conjunto de medida de Lebesgue cero, por ejemplo, un conjunto numerable de parejas (x, y) en R2 , y entonces habr´ independencia a en el caso continuo si se cumple (3.3), salvo conjuntos de medida de Lebesgue cero. Ejemplo. Sea (X, Y ) un vector aleatorio con funci´n de densidad f (x, y) = o 4xy, para 0 ≤ x, y ≤ 1, y cuya gr´fica aparece en la Figura 3.10. a La funci´n de densidad marginal de X se calcula de la siguiente forma. Para o 0 ≤ x ≤ 1, fX (x) =
∞ 1

f (x, y)dy =
0

4xydy = 2x.

−∞

y ≤ 1.Y (x.Cap´ ıtulo 3. y < 2.Y (x. y) = fX (x) fY (y).10: Funci´n de densidad f (x. y) = 3(x2 + y 2 )/32 0 si 0 < x. para 0 ≤ x. En consecuencia. y). o An´logamente fY (y) = 2y para 0 ≤ y ≤ 1. X y Y son ina dependientes pues para cada par (x. . otro caso. Ejercicio. y) = 4xy. Determine si las variables aleatorias continuas X y Y son independientes cuando su funci´n de densidad conjunta es o fX. El concepto de independencia puede ser extendido claramente al caso de varias variables aleatorias de la forma siguiente. y) 4 y 1 x Figura 3. se cumple fX. Vectores aleatorios 165 f (x.

. .6. puede demostrarse que la condici´n de independencia de n variables aleatorias o es equivalente a solicitar que para cualquier vector (x1 . o Ejercicio.Xn (x1 . . cuando ´sta exista y salvo un e o e conjunto de medida cero. . xn ) = fX1 (x1 ) · · · fXn (xn ). Cuando las variables X1 . . la condici´n es o fX1 . Se dice que las variables X1 .. . . Xn son independientes si para cualesquiera Borelianos A1 . ... . . Y y Z son independientes dos a dos pero no lo son en su conjunto. . . . e . . . Sea Z = XY . . Demuestre que X. .. una colecci´n infinita de variables aleatorias es independiente a u o si cualquier subconjunto finito de ella lo es. . puede comprobarse que cualo quier subconjunto de estas variables tambi´n son independientes. sin embargo. Usando un procedimiento similar al caso de dos variables aleatorias.166 3. . . Xn ∈ An ) = P (X1 ∈ A1 ) · · · P (Xn ∈ An ). . Sean X y Y independientes. El rec´ e ıproco. . y sean g y h dos funciones de R en R. Y en t´rminos de la funci´n de densidad. Entonces las variables aleatorias g(X) y h(Y ) tambi´n son independientes. . Sean X y Y independientes ambas con distribuci´n uniforme o en el conjunto {−1. . 1}. . An de R. se cumple P (X1 ∈ A1 . Independencia ´ Definicion. (Independencia de varias variables aleatorias). ´ Proposicion. es en general falso como se pide demostrar a continuaci´n. Xn son independientes y tomando conjuntos Borelianos adecuados en la definici´n general. xn ) = FX1 (x1 ) · · · FXn (xn ). xn ) en Rn se cumpla la igualdad FX1 . M´s a´n.Xn (x1 . . . .. .. Borel medibles..

. . y cada B en B(Rm ). Y ∈ B) = P (X ∈ A) P (Y ∈ B). Xn ) y (Y1 . una colecci´n infinita de o o vectores aleatorios es independiente si cualquier subcolecci´n finita de ellos o lo es. Ym ) son independientes. no necesariamenu te todos de la misma dimensi´n. Se dice que los vectores X = (X1 . o respectivamente.Cap´ ıtulo 3. si para cada A en B(Rn ). . . . . . entonces las variables Xi y Yj son independientes para cualquier posible valor de los ´ ındices i y j. y de esta a forma obtener que la composici´n de n funciones Borel medibles aplicadas. a n variables aleatorias independientes. produce nuevamente variables aleatorias independientes. Ym ) son independientes. Ejercicio. . = P ( X ∈ g−1 (A) ) P ( Y ∈ h−1 (B) ) Este resultado puede extenderse f´cilmente al caso n-dimensional. . . Demuestre que si los vectores (X1 . . Eno tonces P ( g(X) ∈ A. . h(Y ) ∈ B ) = P ( X ∈ g−1 (A). . . (Independencia de dos vectores aleatorios). Y nuevamente. ´ Definicion. Vectores aleatorios 167 Demostraci´n. . se cumple la igualdad P (X ∈ A. La definici´n de independencia de dos variables aleatorias puede extendero se al caso de dos vectores aleatorios de cualquier dimensi´n de la forma o siguiente. .4) Naturalmente esta definici´n puede extenderse un poco m´s para incluir la o a independencia de un n´mero finito de vectores aleatorios. Xn ) y Y = (Y1 . Sean A y B cualesquiera dos conjuntos de Borel de R. (3. . Y ∈ h−1 (B) ) = P ( g(X) ∈ A ) P ( h(Y ) ∈ B ).

Usando directamente la definici´n. Y )] = ∞ −∞ x dFϕ(X. pero conociendo. yj−1 ).Y ) (x). Esperanza de una funcion de un vector aleatorio 3. yj ] es a F (xi . sin conocer su distribuci´n. Y ). as´ como en el caso unidimensional. ello requiere encontrar primero ı la distribuci´n de ϕ(X. V´ase nuevamente la Figura 3. Entonces E[ϕ(X. El o ıcil siguiente resultado establece una forma alternativa de calcular la esperanza de ϕ(X.5) Nuevamente omitiremos la demostraci´n de este resultado. En el caso e o . Y ). El “incremento” de F en el rect´ngulo (xi−1 . lo cual puede ser dif´ en muchos casos. yj−1 ) − F (xi−1 . Y )] = R2 ϕ(x. yj ) + F (xi−1 .7. Esperanza de una funci´n de un vector o aleatorio Si (X. Y ) tiene esperanza finita. Observe que se o trata de una integral de Riemann-Stieltjes en dos dimensiones.168 ´ 3. y). o entonces ϕ(X. la esperanza de o ϕ(X.Y (x. Y ). y sea ϕ : R2 → R una funci´n o Borel medible tal que la variable aleatoria ϕ(X. Y ) es una variable aleatoria y el problema nuevamente es encontrar su esperanza. xi ] × (yj−1 . pero. Y ) un vector aleatorio.7. Y ) se calcula del siguiente modo: E[ϕ(X. o ´ Teorema (Esperanza de una funcion de un vector aleatorio).3 para comprobar esta expresi´n. Y ) es un vector aleatorio y ϕ : R2 → R es una funci´n Borel medible. y) dFX. (3. por supuesto. la o distribuci´n del vector (X. yj ) − F (xi . Sea (X.

. Y )] = ϕ(x.} × {y1 . 169 = (F (xi ) − F (xi−1 ))(F (yj ) − F (yj−1 )) es decir. Vectores aleatorios cuando X y Y son independientes. x2 . y) dxdy. Y )] = ϕ(x. Y )] = x. R2 Cuando el vector (X. Y = yj ). Y ) tiene esperanza finita. u En este caso la demostraci´n del teorema resulta no muy complicada. Y ) es discreto. Y ) un vector aleatorio discreto con valores en el cono junto producto {x1 . y) del vector. . Y )] = ∞ ∞ ϕ(xi . y) fX. . y) dFX (x) dFY (y). .5) se reduce a o E[ϕ(X. y) P (X = x. la f´rmula (3. este incremento es F (xi )F (yj ) − F (xi )F (yj−1 ) − F (xi−1 )F (yj ) + F (xi−1 )F (yj−1 ) = ∆F (xi ) ∆F (yj ). Demuestre que E[ϕ(X. en donde la suma se efect´a sobre todos los posibles valores (x. . . Y = y).y ϕ(x. Sea (X. yj ) P (X = xi . Ejercicio.}.Cap´ ıtulo 3. la expresi´n (3.Y (x. y sea ϕ : R2 → R una funci´n Borel medible tal que la variable ϕ(X. i=1 j=1 En el caso cuando (X. Y ) es absolutamente continuo. y se puede escribir E[ϕ(X. la integral bidimensional se separa en dos integrales. y2 . .5) se o escribe E[ϕ(X. R2 Con ayuda de este resultado podemos ahora demostrar que la esperanza separa sumas. y se o pide dar los detalles en el siguiente ejercicio.

Y (x. Y )) = R2 (x + y) dFX. E(X Y ) = E(X) E(Y ). y ϕ2 (x. y) x dFX. ϕ1 (x. y) = R2 R2 = E(ϕ1 (X.Y (x. y) = y. Entonces o E(X + Y ) = E(ϕ(X. Sean X y Y con esperanza finita. En particular. Y )) + E(ϕ2 (X. y) g(x) h(y) dFX (x) dFY (y) = R2 = E[g(X)] E[h(Y )]. Entonces E[g(X)h(Y )] = E[g(X)] E[h(Y )]. ´ Proposicion. y) = x.170 ´ 3. o E[g(X) h(Y )] = R2 g(x) h(y) dFX. Entonces E(X + Y ) = E(X) + E(Y ). Y )) = E(X) + E(Y ).7.Y (x. Demostraci´n. y sean g y h dos funciones Borel medibles tales que g(X) y h(Y ) tienen esperanza finita. y) + y dFX. . Sean X y Y independientes. Demostraci´n.Y (x. Esperanza de una funcion de un vector aleatorio ´ Proposicion. Sean ϕ(x. y) = x + y.

ser´ dada o u a en la siguiente secci´n. Covarianza En esta secci´n se define y estudia la covarianza entre dos variables aleatoo rias. Otros ejemplos de esta misma situaci´n pueden o encontrarse en el ejercicio 352 en la p´gina 203. Por ejemplo. Y ) con funci´n de probabilidad o x\y −1 0 1 −1 1/5 0 1/5 0 0 1/5 0 1 1/5 0 1/5 Es sencillo verificar que E(XY ) = E(X)E(Y ) = 0. Vectores aleatorios 171 En general. ligeramente modificado. En general cuando se escribe Cov(X. (Covarianza). E(Y ) y E(XY ) son finitas. mientras que P (X = 0)P (Y = 0) = 1/25. se suponen tales condiciones. Se revisan a continuaci´n algunas o propiedades de la covarianza. sin embargo X y Y no son independientes pues P (X = 0. Y ). Y = 0) = 1/5.Cap´ ıtulo 3. denotada por Cov(X. La covarianza de X y Y . o ´ Definicion. Y ) = E [(X − E(X))(Y − E(Y ))] . Y ). Para que la definici´n anterior tenga sentido es necesario suponer que las o esperanzas E(X). el rec´ ıproco de la afirmaci´n anterior es falso. a 3. es el n´mero u Cov(X. la cono dici´n E(XY ) = E(X)E(Y ) no es suficiente para poder concluir que X y o Y son independientes. .8. Una interpretaci´n de este n´mero. considere el vector aleatorio discreto (X. es decir.

Y ) = 0. . 2. Cov(c. Y ) = Cov(Y. Cov(X1 + X2 . Cov(X. X) = Var(X). Cov(X. 8. Y ) = c Cov(X. 5. En general.6. Esta propiedad se obtiene f´cilmente de la primera pues E(XY ) = a E(X)E(Y ) cuando X y Y son independientes. o 5. Y ) = 0 =⇒ X. Cov(X. Y ) = 0. Y ). Esto es consecuencia de la definici´n y de la linealidad de la esperanza.4. . Cov(X.172 3. Demostraci´n. o 7. Sean X y Y variables aleatorias y sea c una constante. Y ). . Covarianza ´ Proposicion. 6. Y ) = E [(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y ). 7.8. Por la propiedad de linealidad de la esperanza. Cov(cX. Entonces 1. Y ) = E(XY ) − E(X)E(Y ).Y independientes. = E [XY − Y E(X) − XE(Y ) + E(X)E(Y )] 2. o 1. Si X y Y son independientes. Y ) = Cov(X1 . Estas propiedades se siguen directamente de la definici´n. X). 4. 3. Y ) + Cov(X2 . Cov(X. entonces Cov(X.

Coeficiente de correlaci´n o El coeficiente de correlaci´n de dos variables aleatorias es un n´mero real o u que mide el grado de dependencia lineal que existe entre ellas. . Vectores aleatorios 8.  otro caso. fY (y) = 1/2 si y = 0. Observe en particular que la covarianza es una funci´n bilineal y sim´trica. −1).  1/4 si y ∈ {−1.9. 0 otro caso. Puede entonces comprobarse que Cov(X. Demuestre que Cov(X + Y. la condici´n de covarianza cero implica que estas o o variables son efectivamente independientes. 1)}. (1. M´s adelante a o a demostraremos que. 1}. Sea (X. 0). Y ) = 0. tienen id´nticas densidades marginales. y) ∈ {(−1. Sean X y Y independientes. 1). mientras que P (X = 0)P (Y = 0) = 1/4.Cap´ ıtulo 3. Ejercicio. Y = 0) = 1/2. Y ) tiene distribuci´n normal bivariada. (−1. 3. −1). 1}. Y ) = Var(Y ). si (x. o e Estas propiedades ser´n de utilidad en la siguiente secci´n. e  si x ∈ {−1. (1. en el caso especial cuando el vector (X. otro caso. y) = (0. y) = 1/2  0 Entonces X y Y   1/4 fX (x) = 1/2  0 aleatorio discreto con funci´n de densidad o 173 si (x. Y ) un vector   1/8 fX. si x = 0.Y (x. Sin embargo X y Y no son independientes pues en particular P (X = 0. Su definici´n o es la siguiente.

Y ) = c ρ(X. ´ Proposicion. |ρ(X. −1 ≤ ρ(X. El coeficiente de correlaci´n satisface las siguientes proo piedades. con a > 0 si ρ(X. c constante. Coeficiente de correlacion ´ ´ Definicion. Vista como funci´n de dos variables aleao torias. el coeficiente de correlaci´n es una funci´n sim´trica pero no es lineal o o e pues no separa sumas ni multiplicaciones por constantes. y s´lo si. Y ) = −1. denotado por ρ(X. Y ) = . 2. El coeficiente de correlaci´n de las variables aleatorias X y Y . (Coeficiente de correlacion). Var(X) Var(Y ) Naturalmente en esta definici´n se necesita suponer que las varianzas son o estrictamente positivas y finitas. Y ). con o probabilidad uno. entonces ρ(X. Si X y Y son independientes. Y ) = 0. Demuestre que. . Y ) ρ(X. Y = aX + b. Y ) ≤ 1. Y ). existen constantes a y b tales que. Y ). Y ) = ρ(X1 . en general. Y ) + ρ(X2 . 3. a) ρ(c X. b) ρ(X1 + X2 . Ejercicio. y a < 0 si ρ(X. 1. Y )| = 1 si. Y ) = 1.174 ´ 3. La interpretaci´n dada al coeficiente de correlaci´n se justifica a partir de o o los siguientes resultados.9. es el o n´mero u Cov(X.

Y ) = Cov(X. Para cualquier valor de λ. y ρ(X. Si X y Y son independientes. Observe que estas desigualdades tambi´n pueden ser obtenidas a partir de la e desigualdad de Cauchy-Schwarz. σX σY El t´rmino de enmedio es ρ(X. 2. Y ) = 1 cuando a > 0. Y ) = 0. Si X y Y son tales que Y = aX + b con a = 0 y b constantes. Es decir. entonces ρ(X. Es f´cil ver tambi´n que |ρ(U. V ) = 1. Ahora se aplica este resultado a las variables aleatorias (X − µX )/σX y (Y − µY )/σY .Cap´ ıtulo 3. Defina U = (X − µX )/σX y V = (Y − µY )/σY . que evidentemente son centradas y con varianza unitaria. V )| = |ρ(X. Y )| = 1. Por lo tanto ρ(U. |a| Var(X)Var(aX + b) Por lo tanto ρ(X. Entonces −1 ≤ E( X − µX Y − µY ) ≤ 1. −1 ≤ E(XY ) ≤ 1. mientras que para λ = −1 se obtiene E(XY ) ≤ 1. y Var(U ) = Var(V ) = 1. suponga que X y Y son tales que |ρ(X. Inversamente. Vectores aleatorios Demostraci´n. Suponga primero que X y Y son tales que E(X) = E(Y ) = 0. y Var(X) = Var(Y ) = 1. Si ρ(U. El caso λ = 1 produce el resultado E(XY ) ≥ −1. Entonces claramente E(U ) = E(V ) = 0. y por lo tanto ρ(X. Y ). Y )| = 1. e 3. o 175 1. V ) = E(U V ). 0 ≤ Var(X + λY ) = E(X + λY )2 − E 2 (X + λY ) = 1 + 2λE(XY ) + λ2 . entonces Cov(X. a e . Y ) = −1 cuando a < 0. Y ) = 0. aX + b) a = .

σY σY de donde se obtiene Y = µY − (X − µX )σY /σX . si ρ(U. En cambio. para alguna constante c. Por lo tanto. para alguna constante c. X − µX Y − µY =− .176 entonces ´ 3. o entonces Var(U + V ) = E(U + V )2 − E 2 (U + V ) = E(U + V )2 = 0. con probabilidad uno. V ) = −1. U + V = c. Nuevamente la constante c es cero pues E(U + V ) = 0. σX σY de donde se obtiene Y = µY + (X − µX )σY /σX . la variable U + V es constante. ahora inversa. Y ) σY σY ] X + [ µY − ρ(X. cuando |ρ(X. Y ) µX ]. Esto significa nuevamente que con probabilidad uno.9. con probabilidad uno. Esto establece una relaci´n lineal directa entre X y Y . entre X y Y . Esto es. Y = [ ρ(X. Esto establece una relaci´n lineal. Coeficiente de correlacion Var(U − V ) = E(U − V )2 − E 2 (U − V ) = E(U − V )2 = 0. U − V = c. con probabilidad uno. la variable U −V es constante. Esto es. Pero esta constante c debe ser cero pues E(U − V ) = 0. Por lo tanto. Uniendo los ultimos dos o ´ resultados se obtiene que. Y )| = 1. σX σX = 2(1 + E(U V )) . X − µX Y − µY = . = 2(1 − E(U V )) Esto significa que con probabilidad uno.

Nuevamente observe que. Sea X una variable aleatoria discreta con distribuci´n uniforme o en el conjunto {−2. Ejercicio. Y ) es normal y o ρ(X. la condici´n ρ(X. Vectores aleatorios 177 Ejercicio. Y ) = 0. Como veremos m´s adelante. entonces X y Y son independientes. Esto es consecuencia del mismo resultado para la covarianza. y defina Y = X 2 . Cuando ρ(X. Dee muestre que ρ(X + Y. 2}. Adicionalmente en los ejercicios 380 y 381 de la p´gina 208 se muestran sia tuaciones concretas de este mismo resultado tanto en el caso discreto como en el continuo. ´ ´ Definicion. Y ) es un vector con distribuci´n normal bivariada o tal que ρ(X. de acuerdo al signo de ρ(X. en general. Y ) = 0 se dice que X y Y son no correlacionadas. Demostraci´n. (Correlacion positiva. cuando la distribuci´n de (X.Cap´ ıtulo 3. X − Y ) = 0. Demuestre que el coeficiente de correlaci´n entre X y Y es cero. entonces efectivamente se cumple que X y Y son independientes. Y ). Sean X y Y independientes e id´nticamente distribuidas. −1. o ´ Proposicion. negativa o nula). la funci´n de densidad normal o a o . Y ) = 0 no es sufio ciente para poder afirmar que X y Y son independientes. Demostraremos esto a continuaci´n. excepto en el caso normal. 1. Si (X. Y ) = 0. y sin embargo X y Y no son o independientes. Y )| = 1 se dice que X y Y est´n perfectamente correlacionadas a positiva o negativamente. Sin embargo. Cuando |ρ(X.

y) = 1 2πσ1 σ2 1 − ρ2 1 x − µ1 y − µ2 y − µ2 2 x − µ1 2 exp − ( ) − 2ρ( )( )+( ) 2) 2(1 − ρ σ1 σ1 σ2 σ2 . µ2 = E(Y ). 1 2 2πσ2 2 2 es decir. o o Despu´s de hacer algunos c´lculos sencillos se puede demostrar que el coefie a ciente de correlaci´n entre X y Y es ρ. X tiene distribuci´n N (µ1 . se verifica la igualdad fX.Y (x. σ2 ). 2 2 en donde µ1 = E(X). 1). para u cualesquiera valores reales de x y y. σ2 = Var(Y ). y Y tiene distribuci´n N (µ2 . Se pueden calcular directamente las funciones de densidad marginales y comprobar que f (x) = y f (y) = 1 2 2πσ1 2 exp[−(x − µ1 )2 /2σ1 ] 2 exp[−(y − µ2 )2 /2σ2 ]. σ1 ).9.178 ´ 3. Coeficiente de correlacion bivariada est´ dada por la siguiente expresi´n: a o f (x. y ρ ∈ (−1. y comprobar finalmente que cuando o este n´mero es cero. y) = fX (x)fY (y). σ1 = Var(X). . En resumen tenemos la siguiente tabla.

. . . Y ) = 0 =⇒ X ⊥ Y . Y ) tiene dist. . Cuando cada coordenada del vector tiene esperanza finita se define la esperanza de X como el vector num´rico e E(X) = (E(X1 ). Y )| = 1 si. En general. . . .  . Esperanza y varianza de un vector aleatorio Los conceptos de esperanza y varianza para una variable aleatoria pueden extenderse al caso de vectores aleatorios de cualquier dimensi´n de la sio guiente forma. normal y ρ(X. entonces la varianza de X se define como la matriz cuadrada   Var(X1 ) Cov(X1 . Y ) = 0. X1 ) Var(X2 ) · · · Cov(X2 . . X1 ) Cov(Xn . Y ) ∈ [−1. . Xn )  Cov(X2 . Xn ). |ρ(X. entonces X ⊥ Y . . . y s´lo si. E(Xn )). (Esperanza y varianza de un vector). . . Y ) = 0. ´ Definicion. . 3. 1].Cap´ ıtulo 3.   . . X2 ) · · · Var(Xn ) n×n . Xn )    Var(X) =  . Sea X el vector aleatorio (X1 . entonces ρ(X. o Si X ⊥ Y. Cov(Xn . Y = aX + b. ρ(X. Si (X. X2 ) · · · Cov(X1 . Si cada coordenada del vector aleatorio tiene segundo momento finito. Vectores aleatorios 179 ´ Propiedades del coeficiente de correlacion ρ(X. con probabilidad uno.10.

. j=1 θj Xj ) = Var( i=1 θi Xi ) ≥ 0. De modo que el producto de estos dos o o vectores. θj Xj ) i. j) es E[(Xi − E(Xi ))(Xj − E(Xj ))] = Cov(Xi . o ıa La propiedad de ser positiva definida se obtiene usando la bilinealidad de la covarianza. Esto e ultimo significa que para cualquier vector θ = (θ1 . Xj ). n Var(X)θ. en el orden indicado. . resulta en una matriz cuadrada de dimensi´n o n × n cuya entrada (i. La matriz Var(X) es sim´trica y positiva definida. Esperanza y varianza de un vector aleatorio La varianza de un vector X puede expresarse como sigue E (X − E(X))t (X − E(X)) .j=1 n Cov(Xi . ´ Proposicion. mientras que (X−E(X)) es o un vector rengl´n de dimensi´n 1 × n. La simetr´ se sigue de la igualdad Cov(Xi . θ = i. · denota el producto interior usual de Rn . Esta matriz tambi´n se llama matriz de varianzas y covarianzas. Demostraci´n.180 3. Observe que (X − E(X))t es un vector columna de dimensi´n n×1. Xj ) = Cov(Xj . .10. θ ≥ 0. en donde ·. Xj )θi θj Cov(θi Xi . . .j=1 n n = = Cov( i=1 n θi Xi . o en donde X t significa transpuesta del vector rengl´n X. θn ) de Rn se cum´ ple la desigualdad Var(X)θ. Xi ). y tiene las e siguientes propiedades.

X1 ) · · · ρ(Xn . . pk . Las probabilidades para cada uno de estos resultados son respectivamente p1 . . Xk−1 ) tiene una distribuci´n multinomial(n. . X1 ) · · · ρ(X1 . . . .11. en donde p1 + · · · + pk = 1. . . Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior. . ρ(X) =   . a o Entonces se dice que el vector X = (X1 . xk = 0. . Estas distribuciones son ejemplos particulares de medidas de probabilidad sobre Rn . . para alg´n valor natural de n. y su funci´n de densidad es o f (x1 . p1 . 3. . Distribuciones multivariadas discretas En esta secci´n se estudian algunas distribuciones discretas de vectores aleao torios. . . . ρ(Xn . .Cap´ ıtulo 3. Xn )   . . . pk−1 ). Vectores aleatorios 181 Se puede tambi´n definir la matriz de coeficientes de correlaci´n del vector e o X como sigue   ρ(X1 . . Xk . . Observe que la ultima variable ´ Xk est´ determinada por las anteriores pues Xk = n − X1 − · · · − Xk−1 . u ´ Distribucion multinomial. y defina las variables aleatorias discretas X1 . . . Xn ) n×n A esta matriz tambi´n se le llama matriz de correlaci´n. . . . . . 1. como aquellas que registran el n´mero de veces que se obtienen cada uno u de los k posibles resultados en los n ensayos. . otro caso. . Cumple la propiee o dad de ser sim´trica y tener todos los elementos de la diagonal iguales a e uno. xk−1 ) =        n x1 · · · xk 0 px1 · · · pxk 1 k si x1 . Suponga que se tiene un experimento aleatorio con k posibles resultados distintos. . . n con x1 + · · · + xk = n. . .

pk−1 . . . . x2 ) = n! px1 px2 (1 − p1 − p2 )n−x1 −x2 x1 ! x2 ! (n − x1 − x2 )! 1 2 para x1 . . y defina la variables X1 . ´ Distribucion hipergeom´trica multivariada. se dice que el vector (X1 . . npk−1 ). Xk . . como aquellas que n representan el n´mero de objetos seleccionados de cada tipo. . X2 ) tiene distribuci´n trinomial con o par´metros (n. Puede adem´s demostrarse a que E(X) = (np1 . . pi ). Xk ) tiene una distribuci´n hipergeom´trica o e . El factor que aparece en par´ntesis e en la funci´n de densidad conjunta se conoce como coeficiente multinomial o y se define como sigue n x1 · · · xk = n! . . En el caso general no es dif´ comprobar que la distribuci´n marginal de la ıcil o variable Xi es bin(n. n. . .11. Suponga que se tienen e N objetos de los cuales N1 son de un primer tipo. 1. es decir k = 2. . a o u y las k − 1 probabilidades p1 . . x2 = 0. .182 3. . . Observe que cuando unicamente hay dos posibles resultados en cada ensa´ yo. . para i = 1. . . la distribuci´n multinomial se reduce a la distribuci´n o o binomial. . . Distribuciones multivariadas discretas Los par´metros de esta distribuci´n son entonces el n´mero de ensayos n. x1 ! · · · xk ! En particular. Entonces N1 + · · · + Nk = N . . k − 1. p1 . . N2 son de un segundo tipo y as´ sucesivamente con Nk objetos de tipo k. y [Var(X)]ij = npi (1 − pi ) −npi pj si i = j. . p2 ) si su funci´n de densidad es a o f (x1 . ı Suponga que de la totalidad de objetos se obtiene una muestra sin reemplazo de tama˜o n. tales que x1 + x2 ≤ n. Se dice entonu ces que el vector X = (X1 . si i = j.

. . d). y ∈ (c. Se dice entonces que el vector (X1 . Observe que cuando o e unicamente hay dos tipos de objetos. . b) × (c. . la distribuci´n hiper´ o geom´trica multivariada se reduce a la distribuci´n hipergeom´trica univae o e riada. Vectores aleatorios multivariada y su funci´n de densidad es o N1 x1 ··· N n Nk xk 183 f (x1 . .12. 1. (c + d)/2). Distribuciones multivariadas continuas Ahora estudiamos algunas distribuciones continuas de vectores aleatorios. Se puede observar inmediatamente que las distribuciones marginales son nuevamente uniformes. . . . es decir k = 2. xk ) = . . . ´ Distribucion uniforme bivariada. . adem´s X y a Y siempre son independientes. Nk . Y ) ∼ unif(a. Es f´cil tambi´n comprobar que E(X. y) =   0 otro caso.Cap´ ıtulo 3. n). . y que Var(X. En la secci´n de ejercicios aparecen expresiones para la esperanza y o varianza de esta distribuci´n. b) × (c. . y en donde adem´s debe cumplirse que o a x1 + · · · + xk = n. en donde cada variable xi toma valores en el conjunto {0. si su funci´n de densidad es o  1   si x ∈ (a. d). n} pero sujeto a la condici´n xi ≤ Ni . N1 . o 3. b). Se escribe (X. Se dice que las variables aleatorias continuas X y Y tienen una distribuci´n conjunta uniforme en el rect´ngulo o a (a. . Y ) = a e ((a + b)/2. (b − a)(d − c) f (x. Xk ) tiene distribuci´n hipergeom´trica multivariada (N. Y ) = (b − a)2 /12 0 0 (d − c)2 /12 . . . . d).

184

3.12. Distribuciones multivariadas continuas

De manera evidente esta distribuci´n puede extenderse al caso de n dimeno siones conserv´ndose las mismas propiedades mencionadas. a ´ Distribucion normal bivariada. Se dice que las variables aleatorias continuas X y Y tienen una distribuci´n normal bivariada si su funci´n de o o densidad conjunta es

f (x, y) =

1

2πσ1 σ2 1 − ρ2 1 x − µ1 2 x − µ1 y − µ2 y − µ2 2 exp − ( ) − 2ρ( )( )+( ) 2(1 − ρ2 ) σ2 σ1 σ2 σ2

,

para cualesquiera valores reales de x y y, y en donde −1 < ρ < 1, σ1 > 0, σ2 > 0, y µ1 , µ2 son dos constantes reales sin restricci´n. Se escribe entonces o 2 , µ , σ 2 , ρ). Cuando µ = µ = 0, y σ = σ = 1, la (X, Y ) ∼ N(µ1 , σ1 2 2 1 2 1 2 distribuci´n se llama normal bivariada est´ndar, y su gr´fica se muestra en o a a la Figura 3.11 cuando ρ = 0. En el siguiente ejercicio se enuncian algunas propiedades de esta distribuci´n. o f (x, y)

x

y

o a Figura 3.11: Funci´n de densidad normal bivariada est´ndar.
2 2 Ejercicio. Sea (X, Y ) un vector con distribuci´n N(µ1 , σ1 , µ2 , σ2 , ρ). Deo muestre que

Cap´ ıtulo 3. Vectores aleatorios
2 a) X tiene distribuci´n marginal N(µ1 , σ1 ). o 2 b) Y tiene distribuci´n marginal N(µ2 , σ2 ). o

185

c) ρ(X, Y ) = ρ. d) X y Y son independientes si, y s´lo si, ρ = 0. o e) E(X, Y ) = (µ1 , µ2 ). f) Var(X, Y ) =
2 σ1 ρσ1 σ2 2 ρσ1 σ2 σ2

.

Es interesante observar que existen distribuciones bivariadas con densidades marginales normales, pero cuya distribuci´n conjunta no lo es. En el o ejercicio 398 en la p´gina 211 se presenta un ejemplo al respecto. a ´ Distribucion normal multivariada. Se dice que el vector (X1 , . . . , Xn ) tiene una distribuci´n normal multivariada si su funci´n de densidad es o o f (x) = (2π)n/2 1 √ 1 exp [− (x − µ)Σ−1 (x − µ)t ], 2 det Σ

u en donde x = (x1 , . . . , xn ) y µ = (µ1 , . . . , µn ) son dos vectores de n´meros reales, Σ es una matriz de dimensi´n n×n positiva definida, es decir, xΣxt ≥ o 0 para cualquier vector x = (x1 , . . . , xn ) de Rn , y Σ−1 es la matriz inversa de Σ. Como es usual, xt denota el vector transpuesto del vector rengl´n o x. Cuando n = 1 o n = 2, con Σ adecuada, se obtienen las distribuciones normal univariada y bivariada mencionadas antes.

186

3.13. Ejercicios

3.13.

Ejercicios

Vectores aleatorios
269. Sea (Ω, F , P ) un espacio de probabilidad y sea (X1 , . . . , Xn ) : Ω → Rn una funci´n tal que cada coordenada es una variable aleatoria. o Demuestre que la siguiente colecci´n es una sub σ-´lgebra de B(Rn ). o a {B ∈ B(Rn ) : (X1 , . . . , Xn )−1 B ∈ F }.

Distribuci´n conjunta o
270. Grafique y demuestre que las siguientes funciones son de distribuci´n. o 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y), para x > 0, y ∈ R. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y , para x, y > 0. 271. Investigue si las siguientes funciones son de distribuci´n. o a) F (x, y) = 1 − e−xy , para x, y > 0. b) F (x, y) = 1 − e−x−y , para x, y > 0.

272. Demuestre que la siguiente funci´n no es de distribuci´n. Extienda o o este resultado al caso n-dimensional. F (x, y, z) = 0 si x + y + z < 0, 1 si x + y + z ≥ 0.

273. Demuestre que la siguiente funci´n no es de distribuci´n. o o F (x, y) = m´ ın{1, m´x{x, y}} a 0 si x, y > 0, otro caso.

274. Sean F (x) y G(x) dos funciones de distribuci´n. Demuestre o proporo cione un contraejemplo para las siguientes afirmaciones.

Cap´ ıtulo 3. Vectores aleatorios a) F (x)G(x) es una funci´n de distribuci´n univariada. o o b) F (x)G(y) es una funci´n de distribuci´n bivariada. o o c) F n (x) es una funci´n de distribuci´n univariada. o o d) F n (x)Gm (y) es una funci´n de distribuci´n bivariada. o o

187

275. Sean X y Y dos variables aleatorias, y sean x y y cualesquiera n´meros u reales. Diga falso o verdadero. Demuestre en cada caso. a) P (X > x, Y > y) = 1 − P (X ≤ x, Y ≤ y). c) P (X ≤ x) = P (X ≤ x, Y ≤ x) + P (X ≤ x, Y > x). b) P (X ≤ x, Y ≤ y) ≤ P (X ≤ x).

d) P (X + Y ≤ x) ≤ P (X ≤ x). e) P (XY < 0) ≤ P (X < 0).

276. Sean X y Y variables aleatorias con funci´n de distribuci´n conjunta o o F (x, y). Demuestre que para cualesquiera n´meros reales a < b y u c < d, P (a < X ≤ b, c < Y ≤ d) = F (b, d) + F (a, c) − F (a, d) − F (b, c). 277. Sean X1 , X2 y X3 variables aleatorias con funci´n de distribuci´n cono o junta F (x1 , x2 , x3 ). Demuestre que para cualesquiera n´meros reales u a1 < b1 , a2 < b2 y a3 < b3 , P (a1 < X1 ≤ b1 , a2 < X2 ≤ b2 , a3 < X3 ≤ b3 ) +F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 )

= F (b1 , b2 , b3 ) − F (a1 , b2 , b3 ) − F (b1 , a2 , b3 ) − F (b1 , b2 , a3 ) −F (a1 , a2 , a3 ). 278. Demuestre que para cualquier vector aleatorio (X, Y ) y para cualquier valor real de u, FX,Y (u, u) = FX∨Y (u), es decir, la funci´n de distribuo ci´n del m´ximo de dos variables aleatorias es la distribuci´n conjunta o a o evaluada en la diagonal. Extienda este resultado al caso n-dimensional.

188

3.13. Ejercicios

279. Sea (X, Y ) un vector con funci´n de distribuci´n F (x, y), y con diso o tribuciones marginales F (x) y F (y), respectivamente. Demuestre que para todo x y y en R, F (x) + F (y) − 1 ≤ F (x, y) ≤ F (x)F (y).

280. Cotas de Fr´chet. Sea (X, Y ) un vector con funci´n de distribuci´n e o o F (x, y), y con distribuciones marginales F (x) y F (y), respectivamente. Demuestre que para todo x y y en R, m´x{F (x) + F (y) − 1, 0} ≤ F (x, y) ≤ m´ a ın{F (x), F (y)}. 281. Considere el espacio Ω = (0, 1)×(0, 1) junto con la σ-´lgebra B((0, 1)× a (0, 1)) y P la medida de probabilidad uniforme sobre Ω. Sea (X, Y ) el vector aleatorio definido sobre este espacio de probabilidad dado por X(ω1 , ω2 ) = ω1 ∧ ω2 y Y (ω1 , ω2 ) = ω1 ∨ ω2 . Demuestre que (X, Y ) es efectivamente un vector aleatorio y encuentre su funci´n de distribuo ci´n. o

Densidad conjunta
282. Demuestre que la funci´n de densidad de un vector (X, Y ) absolutao mente continuo puede ser encontrada, a partir de la funci´n de distrio buci´n, de las siguientes formas alternativas: o a) f (x, y) = ∂2 P (X > x, Y > y). ∂x∂y ∂2 b) f (x, y) = − P (X ≤ x, Y > y). ∂x∂y ∂2 c) f (x, y) = − P (X > x, Y ≤ y). ∂x∂y 1 , ab

283. Grafique y demuestre que las siguientes funciones son de densidad. a) f (x, y) = para 0 < x < a, 0 < y < b.

Cap´ ıtulo 3. Vectores aleatorios b) f (x, y) = 4xy, para 0 ≤ x, y ≤ 1.

189

d) f (x, y) = 9x2 y 2 /4, para −1 ≤ x, y ≤ 1. e) f (x, y) = e−x−y , para x, y > 0. f ) f (x, y) = e−x , para 0 < y < x. 284. Calcule la constante c que hace a f una funci´n de densidad. o a) f (x) = c x, para 0 ≤ x ≤ 1.

c) f (x, y) = 6x2 y, para 0 ≤ x, y ≤ 1.

b) f (x, y) = c x, para 0 < y < x < 1. c) f (x, y) = c (x + y), para 0 ≤ x, y ≤ 1.

d) f (x, y) = c (1 − x)(1 − y) para −1 < x, y < 1. e) f (x, y) = c x(y − x) para 0 < x < y < 1. f ) f (x, y) = c (x2 + 1 xy), para 0 < x < 1, 0 < y < 2. 2

h) f (x, y, z) = c x(y − x)(z − y), para 0 < x < y < z < 1.

g) f (x, y, z) = c (x + y + z), para 0 ≤ x, y, z ≤ 1.

i) f (x1 , . . . , xn ) = c (x1 + · · · + xn ), para 0 ≤ x1 , . . . , xn ≤ 1.

285. Encuentre la funci´n de densidad del vector (X, Y ) cuya funci´n de o o distribuci´n es o 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y), para x > 0, y ∈ R. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y , para x, y > 0. 286. Encuentre la funci´n de distribuci´n del vector (X, Y ) cuya funci´n o o o de densidad es a) f (x, y) = 1 , para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y , para x, y > 0. c) f (x, y) = e−y , para 0 < x < y. d) f (x, y) = 2e−x−y , para 0 < x < y.

190

3.13. Ejercicios

287. Sean f (x) y g(x) dos funciones de densidad. Demuestre o proporcione un contraejemplo para las siguientes afirmaciones: a) x → f (x)g(x) es una funci´n de densidad univariada. o 288. Sea (X, Y, Z) un vector con funci´n de densidad o f (x, y, z) = λ3 e−λ(x+y+z) si x, y, z > 0, 0 otro caso,

b) (x, y) → f (x)g(y) es una funci´n de densidad bivariada. o

en donde λ es una constante. Calcule P (X < 1, Y > 2, Z < 3), P (X > 2, Y < 1) y P (X + Y + Z < 1). 289. Sean X y Y independientes ambas con distribuci´n exp(λ). Encuentre o la funci´n de densidad y de distribuci´n de las variables X ∧Y y X ∨Y , o o cada una de ellas por separado y despu´s de manera conjunta. e

Distribuci´n marginal o
290. Suponiendo el caso absolutamente continuo, demuestre que la funci´n o ∞ de densidad marginal fX (x) = −∞ fX,Y (x, y) dy es efectivamente una funci´n de densidad univariada. o 291. Demuestre que la funci´n de distribuci´n marginal o o x → FX (x) = l´ FX,Y (x, y) ım
y→∞

es efectivamente una funci´n de distribuci´n univariada. o o 292. Encuentre las funciones de distribuci´n marginales del vector (X, Y ) o cuya funci´n de distribuci´n es o o a) F (x, y) = (1 − e−x )(1 − e−y ), para x, y > 0.
2 2

b) F (x, y) = (1 − e−x )(1 − e−y ), para x, y > 0.

y < 1. y = o 1. 0 < y < b. y < 1. para 0 < x < 2 y 0 < y < 1. 294. para 0 < x. y). Demuestre que f (x. y) = 2(4x + y)/5.Y (x. y) = (x + 2y)/4. para 0 < x < 1 y y > 1. y) = 2x/y 2 . . Eno cuentre adem´s las funciones de densidad marginales. Y ) con funci´n de densidad uniforme en la regi´n que o o aparece en la Figura 3. y) = c m´x{x + y − 1. Encuentre las funciones de densidad marginales del vector (X. 0} a c) f (x. . para x.12. para 0 < x. Calcule las densidades marginales del vector (X. y) = 1/x. e) f (x. para 0 < x. g) f (x. . Calcule adem´s o a FX. y} para 0 < x. para 0 < x < a. Sea 0 < a < 1 y defina la funci´n f (x. y) = ax (1 − a)y . f ) f (x. 295. Sean a y b dos constantes positivas. Vectores aleatorios 191 293. b) f (x. y) = 3/2. Demuestre que la funci´n de distribuci´n condicional x → FX|Y (x|y) = o o x o o −∞ fX|Y (u|y) du es efectivamente una funci´n de distribuci´n univariada. a) f (x. y) es una funci´n de densidad y calcule las o funciones de densidad y de distribuci´n marginales. para 0 < y < x < 1. para x. Y ) cuya funci´n de densidad es o 1 a) f (x. y) = 24x(1 − x − y). d) f (x. y) = . Distribuci´n condicional o 297. 296. . la funci´n de a o distribuci´n conjunta asociada y las funciones de distribuci´n margio o nales. h) f (x. y < 1. y) = 4xy. Encuentre la constante c que hace a f una funci´n de densidad. y) = c m´ ın{x.Cap´ ıtulo 3. ab b) f (x. para 0 < y < x2 < 1. 2. y < 1. y > 0 y x + y < 1.

y) = (x + 2y)/4. y) = xy/25. para las siguientes funciones de distribuci´n conjunta. dado que X ≥ t. 0 < y < b. y) = (1 − e−x )( + tan−1 y). para 0 < x < a. Demuestre que la distribuci´n o o condicional de X − t. Calcule las funciones condicionales fX|Y (x|y) y FX|Y (x|y). Calcule las funciones condicionales FX | Y (x | y) y fX | Y (x | y). y > 0 y x + y < 1. ´ 299. para 0 < x. y) = 4xy. para x. o En el caso absolutamente continuo compruebe adem´s que fX|Y (x|y) = a ∂/∂x FX|Y (x|y). Sea X con distribuci´n exp(λ) y sea t > 0 fijo. a) f (x.Y (x. ab b) f (x. y) = 24x(1 − x − y). g) f (x. para 0 < x. para x ≥ 0. 2 π . Demuestre que la funci´n de densidad condicional x → fX|Y (x|y) = o fX. o 1 1 a) F (x.192 3. c) f (x. para 0 < x < 2. Ejercicios y b x −a −b a Figura 3. 300. y)/fY (y) es efectivamente una funci´n de densidad univariada. 0 < y < 5.13. para 0 < y < x < 1. sigue siendo exp(λ). d) f (x. y < 1. La distribucion exponencial no tiene memoria. e) f (x. y) = 2(4x + y)/5. para las siguientes funciones de densidad. f ) f (x. 301.12: 298. para 0 < x < 2 y 0 < y < 1. y) = 1/x. y < 1. y) = 1 .

para x. y ≥ 0. para x. b) fY (y). f) fX|Y (x|y). d) FX (x). 2. y). o a) fX (x). 1. Vectores aleatorios b) F (x. a Compruebe que f (x. y) = 1 − e−x − e−y + e−x−y . Sea X la variable que denota el n´mero de u caras que se obtienen en los dos primeros lanzamientos. 193 302. k) P (X > 1 | Y < 1). u ´ Calcule fX. Y ) un vector con funci´n de densidad f (x. Sea (X. j) P (Y > X). y) es una funci´n de densidad y calcule o f (x. y) y 2 2 x Figura 3. 303. i) FY |X (y|x). g) fY |X (y|x). y).Y (x. h) FX|Y (x|y). con gr´fica como se muestra en la Figura 3. y) = (x + y)/8. fY (y) y fY |X (y|x) para x = 0. 2]. n) P (|X − Y | > 1). e) FY (y). y) = (x + y)/8.Cap´ ıtulo 3.Y (x. o para 0 ≤ x. . y ∈ [0. y sea Y la variable que denota el n´mero de cruces en los dos ultimos lanzamientos. fX (x). Se hacen tres lanzamientos de una moneda equilibrada cuyos resultados llamaremos cara y cruz. c) FX. y ≤ 2. m) P (X + Y > 1).13. l) P (X > 1).13: Funci´n de densidad f (x.

b) fY (y). Calcule adem´s a a) fX (x). y) es una funci´n de o densidad. para o 0 < x < y < 1. g) fY |X (y|x). Compruebe que a f (x. X < 1/2). y) = 1 (x+y) e−x−y . f) fX|Y (x|y). o 2 para x. y) = 8xy. k) P (Y > 1/2 | X > 1/2).13. Y ) un vector con funci´n de densidad f (x. c) FX. cuya gr´fica aparece en la Figura 3.194 3. y > 0. para x. j) P (Y < 1/2. l) P (XY < 1). o 2 . y > 0. y) y x Figura 3. y) es una funci´n de densidad y calcule o f (x.14. Ejercicios 304. y). Sea (X. y) = 1 (x + y) e−x−y . Y ) un vector con funci´n de densidad f (x. Sea (X. 305. e) FY (y). h) FX|Y (x|y). Grafique y compruebe que f (x.14: Funci´n de densidad f (x. m) P (X + Y < 1).Y (x. i) FY |X (y|x). n) P (|X − Y | < 1). d) FX (x).

c) FX. f) fX|Y (x|y). Vectores aleatorios a) fX (x). i) FY |X (y|x). y < 1. e) FY (y).Cap´ ıtulo 3. g) fY |X (y|x). a f (x. o Compruebe que f (x. 0 < Y < 1).15: Funci´n de densidad f (x. n) P (|X − Y | < 1). l) P (XY < 1). y). Y ) un vector con funci´n de densidad f (x. o para 0 < x.Y (x. Sea (X. m) P (X + Y > 1). y) = 4x(1 − y). b) fY (y). 195 306. y) 1 1 x y Figura 3. para 0 < x. k) P (Y > 2 | X < 1). h) FX|Y (x|y). j) P (0 < X < 1. y < 1. y) es efectivamente una funci´n de densidad y o calcule . cuya gr´fica se muestra en la Figura 3. y) = 4x(1 − y). d) FX (x).15.

y).13. . 308. . n) P (|X − 2Y | < 1). d) E(X | X + Y = 6). Y ) un vector con funci´n de densidad f (x. P (X + Y = 1) y P (Y ≤ X). . . 309. k) P (1/4 < Y < 3/4 | X < 1/2).2 . l) P (Y > X 2 ). . . e) FY (y). para o 0 < x < y < 1. j) P (X > 1/2). y) es efectivamente una funci´n o de densidad y calcule a) P (X + Y < 1/2). c) E(Y ) y E(Y | X = x). Y ) un vector con distribuci´n uniforme en el conjunto {1. f) fX|Y (x|y). . c) FX. Y ) un vector con funci´n de densidad dada por la siguiente o tabla x\y -1 0 1 1 . b) P (X + Y ≤ 6).1 Calcule a) P (X = 2). Sea (X. 307. 6}× o {1. b) fY (y). g) fY |X (y|x). Calcule a) P (X = Y ). Sea (X.Y (x.196 a) fX (x). 6}.1 .05 2 . Ejercicios h) FX|Y (x|y). m) P (2X − Y > 1). 3. c) fX (x) y fY (y). .1 . . Sea (X. y) = 3y.05 . d) FX (x).05 3 . b) fX (x) y fY (y). Compruebe que f (x. i) FY |X (y|x).05 .3 .

}.Y (x. entonces E(X | A) ≤ E(X | B). c) fY | X (y | x) para x = 1. . Sean X y Y variables aleatorias discretas con valores en los conjuntos {x1 . 2. Demuestre la variable aleatoria constante es independiente de cualquier otra variable aleatoria. . Demuestre que los eventos A y B son independientes si. respectivamente.Cap´ ıtulo 3. suponga que X es independiente de cualquier otra variable aleatoria. Sean X y Y independientes ambas con distribuci´n exp(λ). 313. y s´lo si. demuestre que X es constante. Sea (X. Inversamente. x2 . y) = fX (x) fY (y). Sean A y B dos eventos con probabilidad positiva y sea X una variable con esperanza finita. 315. 311. 197 310. . . y2 . Y = yj ) = P (X = xi ) P (Y = yj ). . . para casi todo par de n´meros x y y se cumple o u fX. a) Si A ⊆ B. Demuestre que X y Y son independientes si.Y (x. Vectores aleatorios b) fX (x) y fY (y). Demuestre o que la distribuci´n condicional de X dado que X + Y = u. . . y). 3. Demuestre que las variables X y Y son independientes si. . y s´lo si. d) E(Y | X = x) para x = 1. Independencia de variables aleatorias 312. y s´lo si. u). 314. . Y ) un vector aleatorio absolutamente continuo con funci´n de o densidad fX. 2. para cualesquiera valores de los ´ o ındices i. Demuestre o proporcione un contraejemplo.} y {y1 . las o variables aleatorias indicadoras 1A y 1B lo son. P (X = xi . b) E(X | A) ≤ E(X). es uniforme o en el intervalo (0. j = 1. 2. 3.

y) = 1 . . . Sean g : Rk → R y h : Rn−k → R funciones Borel medibles. demuestre que a cualquier subconjunto finito de un conjunto de variables aleatorias independientes tambi´n lo es. para 0 < x < y. para cualquier vector (x1 . Xn son independientes si. . y < 1. .198 3. 320.. . ab b) f (x. .. El siguiente e ejercicio generaliza este resultado. a) X y − Y . y sean g1 . Xn independientes. c) X − y Y + . Xk ) y h(Xk+1 . M´s generalmente.. . gn : R → R funciones Borel medibles. Demuestre que las variables aleatorias g(X1 . y s´lo si. para 0 < x < a. a) f (x. 321. . Demuestre que cada uno de los siguientes pares de variables aleatorias tambi´n son independientes.. y) = 2e−x−y . Demuestre que si tres variables aleatorias son independientes. . . . . . Determine si las siguientes son funciones de densidad de variables aleatorias independientes. d) X − y Y − . a) X + y Y + . 318. c) f (x. Demuestre que cada niciones X + = m´x{0. . para 0 < x. Sean X1 . 319. entonces cualesquiera dos de ellas lo son. . . . b) X + y Y − . . . 0 < y < b. gn (Xn ) son independientes.Xn (x1 . Sean X1 . . Sean X y Y independientes. . .13. . Sean X y Y dos variables aleatorias independientes. . y) = 2x. . . . . b) |X| y |Y |. X} y X − = − m´ uno de los siguientes pares de variables aleatorias tambi´n son indee pendientes. . . . xn ) en Rn se cumple o FX1 . Demuestre que las variables g1 (X1 ). y sea 1 ≤ k < n. xn ) = FX1 (x1 ) · · · FXn (xn ). 322. Demuestre que las variables aleatorias X1 . . Xn independientes. X}. Recuerde las defia ın{0. . . Xn ) son independientes. . . . Ejercicios 316. e 317.

y) = 3(x2 + y 2 )/8. c) X. Z independientes. y) = e−x−y . para x. a) P (X > x. 2 2 b) F (x. Y > y) = P (X ≤ x) P (Y > y). y s´lo si. y > 0. . 1]. a) X. Y. Diga falso o verdadero. d) X. Y independientes. y) = (1 − e−x )(1 − e−y ). y) = (1 − e−x )(1 − e−y ). para cualeso quiera n´meros reales a < b y c < d. Y. Y independientes ⇔ X + Y. para x. Y independientes ⇔ XY. 199 323. Demuestre que X y Y son independientes si. c < Y ≤ d) = P (a < X ≤ b) P (c < Y ≤ d).Cap´ ıtulo 3. a) F (x. y) = 3x(1 − xy). Y > y) = P (X > x) P (Y > y). Demuestre que X y Y son independientes si. Y independientes ⇔ X. y s´lo si. b) P (X ≤ x. Y ≤ y) = P (X > x) P (Y ≤ y). g) X. b) X. Demuestre en cada caso. Z independientes ⇔ X + Y. e) X. Y independientes ⇔ X 2 . y ∈ [−1. Y independientes ⇔ X + Y. 325. Vectores aleatorios d) f (x. X − Y independientes. y < 1. e) f (x. Z independientes. f ) f (x. para x. 324. Z independientes ⇔ XY. 326. cualquiera de o las siguientes condiciones se cumple: Para cada par de n´meros reales u x y y. Y independientes. f ) X. para x. y > 0. Y 2 independientes. y > 0. u P (a < X ≤ b. c) P (X > x. Determine si las siguientes son funciones de distribuci´n de variables o aleatorias independientes. Y 2 independientes. para 0 < x.

Demuestre o que la variable X1 + · · · + Xn tiene distribuci´n bin neg(n. V ) = (X + Y. o 329. . . Y } ≤ aX). Encuentre la funci´n de densidad de X + Y cuando X y Y son indeo pendientes con distribuci´n uniforme en los conjuntos {0. . . Sean X y Y independientes con distribuci´n exp(λ1 ) y exp(λ2 ) reso pectivamente. . . Y } ≤ aX) y P (m´ a ın{X. . 336.13. Encuentre la esperanza y varianza de Z. 335. Sean X y Y independientes. Sean X1 . Eno cuentre la distribuci´n del vector (U. n} y o {0. 333. Y }. Y }. . 1. X − Y ). Demuestre que P (Y > X) = λ1 /(λ1 + λ2 ). . Sean X y Y independientes ambas con distribuci´n normal est´ndar. a 330. 328. 1. . Calcule P (X1 + · · · + Xn = k) para k = 0. Determine o adem´s si las variables U y V son independientes. . Y }) = ∞ n=1 P (X ≥ n)P (Y ≥ n). o 334. Calcule P (m´x{X. Demuestre que E(m´ ın{X. λ1 /(λ1 + λ2 )). 332. . Sean X1 . . n. .200 3. . Xn variables aleatorias independientes cada una con distribuci´n Ber(p). . . y sea a o una constante. m} respectivamente. . Demuestre que la distribuci´n condicional o de X dado que X + Y = n es bin(n. Sean X y Y independientes con distribuci´n Poisson de par´metros o a λ1 y λ2 respectivamente. . Sean X y Y independientes ambas con distribuci´n unif{1. Sean X y Y independientes con valores enteros naturales y con esperanza finita. . . 1. Encuentre la funci´n de distribuci´n de o o Z en t´rminos de FX (x) y FY (y) cuando e a) Z = m´x{X. n}. . o a Demuestre que Z = aX + bY + c tiene distribuci´n normal cuando o ab = 0. a b) Z = m´ ın{X. . Xn independientes con distribuci´n geo(p). Ejercicios 327. 331. . . Sean X y Y independientes ambas con distribuci´n exp(λ). p).

. . Y ) un vector discreto con distribuci´n de probabilidad uniforo me en el conjunto {1. o b) Calcule P (X + Y > 1) y P (X ≤ 1/2). Este resultado puede extenderse al caso de n variables independientes exponenciales. 339. n}×{1. Sea (X. 343. y que P (X1 = o a m´ ın{X1 . . Sea (X. Y ) un vector aleatorio con funci´n de densidad f (x. con la condici´n de que X y Y sean independientes. 2. distinta de la densidad uniforme. Demuestre que X y Y son independientes. X2 }) = λ1 /(λ1 + λ2 ). Sea (X. Y ) un vector con funci´n de densidad f (x. c) Encuentre las funciones de densidad marginales fX (x) y fY (y). d) Determine si X y Y son independientes. Calcule adem´s las a probabilidades P (X = 1). Sea (X. con n y m enteros positivos. y) o de un vector discreto (X. construya una funci´n de densidad f (x. . 342. P (X = 2 | Y = 2) y P (XY = 2). 1. y) = 2. m}. o para 0 < x < y < 1. Usando la siguiente tabla. Y ) un vector aleatorio con funci´n de densidad f (x. Vectores aleatorios 201 337. 338. o x\y 0 1 0 · · 1 · · 340. Encuentre el valor de la constante c y determine si X y Y son independientes. Y ). a) Encuentre el valor de c que hace a f (x. 2. Demuestre e que P (Y > X) = 1/2. .Cap´ ıtulo 3. . y) = c (1 − x). para x = 0. Sean X y Y variables independientes con distribuci´n exponencial o con par´metros λ1 y λ2 respectivamente. y) = o c/2x+y . y) una funci´n de densidad o y grafique esta funci´n. y y = 1. Demuestre que m´ a ın{X. . Sean X y Y independientes e id´nticamente distribuidas. . 341. Y } tiene distribuci´n exponencial con par´metro λ1 + λ2 . . para o 0 < x < y < 1.

o b) Calcule P (X > 0). fX. a) Compruebe que f (x. Ejercicios a) Grafique y demuestre que f (x. z) y fY. z) es una funci´n de densidad. a) Compruebe que f (x. p).13. y. Sean X y Y independientes con distribuci´n Poisson con par´metros o a λ1 y λ2 respectivamente. Sea (X. Y. y). 347. z) = o 8xyz. p). y) una funci´n o de densidad y grafique esta funci´n. d) Determine si X y Y son independientes. z) es una funci´n de densidad. o respectivamente. para o −1 < x. 344. y) = c |x + y|. y < 1. a) Encuentre el valor de la constante c que hace a f (x. P (XY > 0) y P (0 < X + Y < 1). o b) Encuentre las funciones de densidad marginales fX (x) y fY (y). Y y Z son independientes. y. para 0 < x. z) = o 24x. d) Calcule P (Y > X) y P (Y > X 2 ). Demuestre que X+Y tiene distribuci´n bin(n+m. Demuestre que X + Y tiene distribuci´n o Poisson(λ1 + λ2 ). z). Y ) un vector con funci´n de densidad f (x. y.202 3. . c) Determine si X y Y son independientes. o b) Calcule P (X + Y < 1) y P (Z − X > 1/2). y) es una funci´n de densidad. para 0 < x < y < z < 1. y. Z) un vector aleatorio con funci´n de densidad f (x. o 346. p) y bin(m. c) Encuentre las funciones de densidad marginales fX (x) y fY (y). z < 1. y. Y. Sea (X. Sean X y Y independientes con distribuci´n bin(n. 345.Z (y. 348. Z) un vector aleatorio con funci´n de densidad f (x.Z (x. d) Determine si X. Sea (X. c) Encuentre fX.Y (x. o b) Calcule P (X < Y < Z) y P (X + Y + Z < 1).

 0 otro caso. . . Demuestre que E(X | X + Y = n) = n · λ1 . 0). Sean X y Y independientes. Y y Z son independientes. Demuestre que para cualquier o λ > 0. . −1). . 1). . Xn } ≤ 1 − λ/n) = e−λ . y ∈ [−1. . (−1. λ1 + λ2 351. o 353. Demuestre que si las variables X1 . . .   1/8 si (x. b) f (x. 1). 0. Vectores aleatorios c) Encuentre fX.Z (x. Xn son independientes e integrables. Esperanza de una funci´n de un vector aleatorio o 352.Z (y. para x. z) y fY. y).Y (x. ım n→∞ 350. 1} y Y = 1(X=0) . 354. . (−1. a) f (x. 1). a l´ P (m´x{X1 . . X2 . Demuestre que la condici´n E(XY ) = E(X)E(Y ) no implica necesao riamente que X y Y son independientes. z). y) = (0. Para ello considere cualquiera de los siguientes ejemplos. una sucesi´n de variables aleatorias independientes o cada una con distribuci´n unif(0. y) = 3(x2 + y 2 )/8. (1. . entonces E(X1 · · · Xn ) = E(X1 ) · · · E(Xn ). Diga falso o verdadero justificando en cada caso. y) = (1.Cap´ ıtulo 3. . d) Determine si X. fX. −1). 1]. Sean X y Y independientes con distribuci´n Poisson de par´metros o a λ1 y λ2 respectivamente. Encuentre una distribuci´n conjunta de dos variables aleatorias X y o Y que no sean independientes y que Y tenga distribuci´n marginal o Ber(p). y) = 1/2 si (x. Sea X1 . c) X con distribuci´n uniforme en {−1. 203 349.

.06 .1 0 . Verifique que ambas funciones son efectivamente de densidad. d) Calcule E(XY ) y fX+Y (u). o b) Calcule y grafique las densidades marginales fX (x) y fY (y). y) o dada por la siguiente tabla. Sea (X. b) Var(X − Y ) = Var(X) − Var(Y ). y) y compruebe que efectivamente se trata de una funci´n de densidad conjunta. 356.204 3. Y ) un vector aleatorio discreto con funci´n de densidad f (x. c) Demuestre que X y Y no son independientes. entonces E(X1 | X1 + · · · + Xn = x) = x .04 .05 1 . Sean X y Y variables aleatorias independientes con varianza finita. . 358. Demuestre que Var(XY ) = Var(X) Var(Y ) + E 2 (X) Var(Y ) + E 2 (Y ) Var(X). Ejercicios a) Var(X + Y ) = Var(X) + Var(Y ).3 a) Grafique f (x.05 . Sean X1 . Xn independientes con id´ntica distribuci´n y con espee o ranza finita.1 . Sea (X. 355. c) Var(XY ) = Var(X)Var(Y ).13.1 . n 357.2 . . Y ) un vector discreto con siguiente tabla. x\y 1 2 3 -1 . x\y 2 1 2/18 2 3/18 3 1/18 funci´n de densidad dada por la o 4 3/18 5/18 1/18 6 1/18 1/18 1/18 . . Demuestre que si x es tal que fX1 +···+Xn (x) = 0.

0 < y < b. 359. y) = 4xy. 1]. Sea a cualquier n´mero real fijo. y) = 1 . Verifique que ambas son efectivamente funciones de densidad. y ∈ [0. Sea (X. Verifique que ambas son efectivamente funciones de densidad. b) Encuentre y grafique las densidades marginales fX (x) y fY (y). Esperanza y varianza de un vector 360. Y ) = a. para x. y) = 8xy si 0 < y < x < 1. Covarianza 361. b) Calcule y grafique las densidades marginales fX (x) y fY (y). y) y compruebe que efectivamente es una funci´n o de densidad conjunta. Y ) cuya funci´n de densidad conjunta es o a) f (x. y) y compruebe que efectivamente es una funci´n o de densidad conjunta. Y ) un vector aleatorio con funci´n de densidad dada por o f (x. d) Calcule E(XY ) y fX+Y (u). d) Calcule E(XY ) y fX+Y (u). Calcule la esperanza y varianza del vector aleatorio (X. 0 otro caso. Vectores aleatorios 205 a) Grafique f (x. a) Grafique f (x. c) Demuestre que X y Y no son independientes.Cap´ ıtulo 3. Encuentre variables aleatorias X y u Y tales que Cov(X. c) Demuestre que X y Y no son independientes. . ab b) f (x. para 0 < x < a.

Diga falso o verdadero. Y ) = Cov(X1 . construya ahora un ejemplo para un vector continuo. con a. 363. c) Cov(X. Xk ). Demuestre que Var(X ± Y ) = Var(X) + Var(Y ) ± 2 Cov(X. X) = Var(X). Y ). Diga falso o verdadero. c) Cov(X. a) Cov(X. Y ) = a Cov(X. aY + b) = a Cov(X. d) Cov(X. Y ) = Cov(Y. Y ) ≥ 0. b constantes. Z) > 0.206 3. X). Cov(Y. Z) = 0. Ejercicios 362. bY ) = ab Cov(X. c) Cov(X. 365. Y ) > 0. Y ) + Cov(X2 . Z) = a. 367. Y ). Y ). −X) = −Var(X). Y ≥ 0 ⇒ Cov(X. Z) > 0 ⇒ Cov(X. Demuestre en cada caso. e) Cov(aX + b. b) Cov(X. Y ) = 0 no es suficiente para cono cluir que X y Y son independientes. Demuestre que n a) Var(X1 + · · · + Xn ) = Var(Xk ) + 2 k=1 j<k Cov(Xj . Y ). b constantes. Cov(Y. b) Cov(aX. Demuestre que la condici´n Cov(X. . d) Cov(X. con a. Cov(Y. a) X ≥ 0. Y ) + b. 366. Y ) = 0. Demuestre que a) Cov(X. Z) = 0 ⇒ Cov(X. Y ) = E(XY ) − E(X)E(Y ). Y ) ≥ 0. 364.13. Demuestre en cada caso. En el texto se proporciona un ejemplo para un vector discreto. f ) Cov(X1 + X2 . Z) = a ⇒ Cov(X. b) Cov(X. b constantes. Y ) = a. con a.

ab . 371. k=1 e o 369. 0 < y < b.15 . . Sean X1 . . Defina ¯ X = (X1 + · · · + Xn )/n. Demuestre que para cada k = 1. Calcule la covarianza de X y Y cuya funci´n de densidad conjunta o est´ dada por la siguiente tabla. . n}. y) = 1 . Y ) con distribuci´n uniforme en el conjunto {1. para 0 < x < a. .15 374. 368. .1 . . a x\y -1 1 -1 1/12 3/12 0 2/12 2/12 1 3/12 1/12 373. . Sea (X. Y ) = 0. Demuestre que n Var(X1 + · · · + Xn ) = Var(Xk ). . . Y ) = 0.1 3 . . n. o Demuestre que Cov(X. b) × (c. cuya funci´n de densidad conjunta es o a) f (x. Xn independientes y con varianza finita. Sean X1 .05 .Cap´ ıtulo 3. . X) = 0. 372. .05 2 . . . . ¯ ¯ Cov(Xk − X. j=1 bj Yj ) = i=1 j=1 ai bj Cov(Xi . .2 . Calcule la covarianza de X y Y cuya funci´n de densidad conjunta o est´ dada por la siguiente tabla. . o Demuestre que Cov(X. Sea (X. Calcule la covarianza de X y Y . . . d). Yj ).15 . Vectores aleatorios n m n m 207 b) Cov( i=1 ai Xi . .05 . 370. a x\y 2 4 6 1 . Xn independientes y con id´ntica distribuci´n. n}×{1. Y ) con distribuci´n uniforme en el conjunto (a.

Coeficiente de correlaci´n o 376. Z) = a. σX . para |y| < x. Sea a un n´mero cualquiera en [−1. g) ρ(X. c) f (x. Y ) = a. e) ρ(X. ρ(Y. Z) = 1. Diga falso verdadero. 379. f ) ρ(X. y sin embargo estas variables aleatorias no son independientes. Demuestre en cada caso. Ejercicios b) f (x. ρ(Y. µY . Y ) = ρ σX σY . Z) = 0 ⇒ ρ(X. 2 2 375. b) ρ(X. Z) = −1 ⇒ ρ(X. c) ρ(X. Y ). X). Y ) un vector con distribuci´n normal N(µX .13. o Demuestre que el coeficiente de correlaci´n entre X + Y y |X − Y | es o cero. y) = e−x /2. Z) < 0. Sea (X. Z) = −1 ⇒ ρ(X.208 3. Z) > 0 ⇒ ρ(X. b) ρ(X + a. Y ) ≤ 1. Y )ρ(Y. 380. ρ). para x. Y ) = a. c) ρ(aX + b. Z) = a ⇒ ρ(X. Y ) = 1. y) = 3x2 y. σY . y) = e−x−y . Z) = −1. Y ) = −1. d) ρ(X. Demuestre en cada caso. y > 0. a) ρ(X. Z) > 0. Z) = 0. 377. d) f (x. 1]. Demuestre nuevamente que −1 ≤ ρ(X. . ahora a partir de la desigualdad de Cauchy-Schwarz. Y ) > 0. ρ(Y. 0 < y < 1. Y ) = ρ(Y. ρ(Y. Z) = 1 ⇒ ρ(X. Z) < 0 ⇒ ρ(X. a) ρ(X. Y ) + b. Y ) = a ρ(X. ρ(Y. o Demuestre que Cov(X. ρ(Y. Encuentre variables aleatorias u X y Y tales que ρ(X. Diga falso o verdadero. 378. Y ) = ρ(X. Y ) = 0. a constante. a. Sean X y Y independientes con distribuci´n Ber(p) con p = 1/2. Z) = −1. para − 1 < x < 1. b constantes. Y ) < 0.

a x\y 0 1 1 1/8 1/2 2 1/4 1/8 385. 383. si x = 0. a x\y 2 4 6 1 1/9 1/9 1/9 2 1/9 1/9 1/9 3 1/9 1/9 1/9 386. en donde si x > 0. b) ρ(X. y sin embargo estas variables no o son independientes. Recuerde que   +1 signo(x) = −1  0 signo(ac) · ρ(X.Cap´ ıtulo 3. Demuestre que el coeficiente o a de correlaci´n entre X y X 2 es cero. o o 382. X) = 1. Sea X con distribuci´n normal est´ndar. Demuestre que a) ρ(X. −X) = −1. Sea X una variable aleatoria y sean a y b constantes. Este resultado puede extenderse al caso en el que la distribuci´n de X cumple la condici´n E(X) = E(X 3 ) = 0. aX + b) = signo(a). cY + d) = ac = 0. Calcule el coeficiente de correlaci´n de X y Y con distribuci´n cono o junta uniforme en el conjunto . c) ρ(X. si x < 0. Calcule el coeficiente de correlaci´n de X y Y cuya funci´n de densidad o o conjunta est´ dada por la siguiente tabla. Y ). 384. Vectores aleatorios 209 381. Demuestre que ρ(aX + b. Calcule el coeficiente de correlaci´n de X y Y cuya funci´n de densidad o o conjunta est´ dada por la siguiente tabla.

. . Distribuci´n multinomial o 390. . 1] × [−1. . 391. . p1 . pk−1 ). Y ) un vector con distribuci´n normal N(µX . . . pk−1 ). .210 3. o 392. . µY . pi ). . . . y) = c) f (x. Sea (X. + y). . y) = b) f (x. . . Demuestre que cada coordenada Xi tiene distribuci´n marginal bin(n. para x. y ∈ [0. . b) [−1. para x. . ρ). y por lo tanto ρ(X. . para i = 1. 387. p1 . 388. . y > 0. Y ) = −np(1 − p). Y ) = −1. Demuestre que o Cov(X. n} × {1. para |y| < x. . . . el signo negativo en la covarianza indica que cuando una variable crece la otra decrece. [Var(X)]ij = −npi pj si i = j. π/2]. n}. 1]. Sea X con distribuci´n bin(n. . Y ) = ρ. . o Demuestre que ρ(X. σX . 2 2 389. . k − 1. npk−1 ) a y que npi (1 − pi ) si i = j. . . Sea (X1 . . e−x−y . p) y sea Y = n − X. Ejercicios a) {1. σY . Demuestre que la funci´n de densidad de la distribuci´n multinomial o o efectivamente lo es. y) = 1 2 sen(x e−x /2. Calcule el coeficiente de correlaci´n de X y Y cuya funci´n de densidad o o conjunta es a) f (x. . . . Xk−1 ) un vector con distribuci´n multinomial de o par´metros (n. Demuestre que E(X) = (np1 . Observe que en el caso i = j. . . Sea X = (X1 .13. Xk−1 ) un vector con distribuci´n multinomial de par´meo a tros (n.

Xk ) un vector con distribuci´n hipergeom´trica multivao e riada con par´metros (N. . Defina 2f (x. Demuestre que a E(X) = (nN1 /N. y) la funci´n de densidad normal bivariada est´ndar con ρ = o a 0. Sea (X1 . nNk /N ). . 395. σ1 . Demuestre que cada coordea nada Xi tiene distribuci´n hipergeom´trica univariada con par´metros o e a (N. Demuestre que la funci´n de densidad de la distribuci´n normal bivao o riada efectivamente lo es. Xk ) con distribuci´n hipergeom´trica multivariada o e con par´metros (N. . n). Vectores aleatorios 211 Distribuci´n hipergeom´trica multivariada o e 393. . g(x. . σ1 o 2 buci´n marginal N(µ2 . Y ) un vector con distribuci´n normal N(µ1 . 398. . n). para i = 1. Demuestre que la funci´n de densidad de la distribuci´n hipergeom´trio o e ca multivariada efectivamente lo es. Nk . µ2 .    N N N −1 [Var(X)]ij =    n · Ni · Nj · n − N  si i = j.Cap´ ıtulo 3. . y) si xy < 0. . V´ase el siguiente ejercicio para verificar o e que el rec´ ıproco de este resultado es falso. σ2 . Deo 2 ). Sea f (x. y) es una funci´n de densidad bivariada que no es o normal pero cuyas densidades marginales son normales est´ndar. Nk . . N1 . n). . Demuestre que g(x. . Ni . . . . . . N1 . 2 2 397. . ρ). . y que   n · Ni · N − Ni · N − n si i = j. . y) = 0 si xy ≥ 0. . k. N N N −1 Distribuci´n normal bivariada o 396. . 394. . a . . Sea (X. y Y tiene distrimuestre que X tiene distribuci´n marginal N(µ1 . σ2 ). Sea X = (X1 . .

Demuestre ahora que las l´ ıneas de contorno f (u. ρ). v) = c son las elipses (u − ρv)2 v2 = 1. la funci´n de densidad normal bivariada se puede escribir como sigue f (u. µY ). 2) 2(1 − ρ 2 Sea c > 0 y defina k = 1/(2πc 1 − ρ2 ). y que la distribuci´n condicional de X dado que Y = y es normal con media o 2 µ1 + ρ(y − µ2 )σ1 /σ2 y varianza σ1 (1 − ρ2 ). 2 2 400.212 3. v) = 1 2π 1− ρ2 exp ( − 1 1 (u − ρv)2 − v 2 ). Y ) un vector con distribuci´n normal (µX . Deo muestre que la distribuci´n condicional de Y dado que X = x es o 2 normal con media µ2 + ρ(x − µ1 )σ2 /σ1 y varianza σ2 (1 − ρ2 ). 401. Ejercicios 2 2 399. σ1 . Deo muestre que E(X) = (µX . µ2 . Y ) = 2 σX ρ σX σY ρ σX σY 2 σY . σX . σY . ρ). σ2 . (y− e o µY )/σY ). Demuestre que a trav´s del cambio de variable (u. Sea (X. y Var(X. µY .13. 2) + ln k2 ln k2(1−ρ Cuando ρ = 0 las elipses se reducen al c´ ırculo u2 + v 2 = ln k2 . Sea (X. Y ) un vector con distribuci´n normal N(µ1 . . v) = ((x−µX )/σX .

la esperanza condicional de X dado Y = y es 213 . Hemos definido antes la esperanza de una variable aleatoria a X como la integral de Riemann-Stieltjes E(X) = ∞ −∞ x dFX (x). y que G es una sub σ-´lgebra de F . y a se estudian algunas de sus propiedades elementales. Consideraremos que se cuenta con un espacio de probabilidad base (Ω.Cap´ ıtulo 4 Esperanza condicional En este cap´ ıtulo se presenta una breve introducci´n al concepto de espeo ranza condicional de una variable aleatoria respecto de una σ-´lgebra. para hacer la notaci´n m´s simple en este cap´ o a ıtulo. F . Y ) y se toma o un valor y tal que fY (y) = 0. es conveniente en algunas ocasiones adoptar la notaci´n de la teor´ de la medida o ıa y denotar la esperanza de una variable aleatoria X mediante la siguiente integral E(X) = Ω X dP. Esto corresponde a la integral de Lebesgue de la funci´n medible X respecto o de la medida de probabilidad P . Recordemos que si se conoce la distribuci´n de un vector (X. P ). sin embargo.

si A es un evento con probabilidad a positiva y X es una variable aleatoria integrable. E( X | G ) dP = X dP. u sino una variable aleatoria. b) Tiene esperanza finita. Esperanza condicional y → E(X | Y = y) = ∞ −∞ x dFX|Y (x|y). A)/P (A). La esperanza cona dicional de X dado G .1) G . a pesar de su nombre. G (4. La esperanza condicional que definiremos en este cap´ ıtulo generaliza estos conceptos. cuando fY (y) = 0. que cumple las siguientes tres propiedades. Sea X una variable aleatoria con esperanza finita. c) Para cualquier evento G en G . (Esperanza condicional). la esperanza condicional de X dado A es el n´mero u E(X | A) = ∞ −∞ x dFX|A (x). Es importante hacer ´nfasis que la esperanza o e condicional. es una variable aleatoria denotada por E(X | G ). De manera an´loga. no es un n´mero. en donde FX|A (x) = P (X ≤ x | A) = P (X ≤ x. Esperanza condicional He aqui la definici´n general.1.1. y sea G una sub-σ-´lgebra de F . ´ Definicion. a) Es G -medible. aunque puede serlo. 4.214 la funci´n o 4.

la igualdad debe entonces entenderse en el sentido casi seguro. que la igualdad se verifica con probabilidad uno. ´ esto significa que si existe otra variable aleatoria que cumple las tres propiedades de la definici´n anterior. En la siguiente secci´n estudiaremos con m´s detalle la variable E(X | Y ) o a cuando Y es una variable aleatoria discreta. a Usando el teorema de Radon-Nikodym (v´ase por ejemplo [5]). . El objetivo de este cap´ ıtulo es encontrar el significado de esta variable aleatoria. Haremos lo anterior principalmente en el caso cuando la σ-´lgebra G es generada por una variable aleatoria discreta. entonces con probabilidad uno coincide con o E(X | G ).Cap´ ıtulo 4. Esperanza condicional 215 Parte de la dificultad para entender esta definici´n general es que no se proo porciona una f´rmula expl´ o ıcita para esta variable aleatoria sino unicamente ´ las propiedades que cumple. para alguna variable aleaa toria Y . b) Si A es un evento. entonces la esperanza condicional E(1A | G ) se denota por P (A | G ). interpretar su significado y explicar su relaci´n con el concepto de esperanza condicional elemental. ´ Notacion. en lugar de E(X | σ(Y )). la esperanza condicional se escribe simplemente como E(X | Y ). E(X | Y = y). es decir. a) Cuando la σ-´lgebra G es igual a σ(Y ). En lo sucesivo cuando se establezca que esta variable aleatoria es igual a alguna otra variable. o mencionado antes. puede dee mostrarse que esta variable aleatoria existe y es unica casi seguramente.

y podemos considerar que es una funci´n o o de los posibles valores yj . entonces ω → E(X | Y )(ω) = E(X | Y = yj ). De este modo se construye la funci´n E(X | Y ) : Ω → R. La esperanza condicional de X dado el evento (Y = yj ) es el n´mero E(X | Y = yj ). o bien que tenemos una funci´n definida sobre el espacio muestral de la siguiente forma: Si ω es tal que Y (ω) = yj . . . Suponga que X tiene esperanza finita y que Y es discreta con posibles valores y1 . Esperanza condicional: caso discreto 4. o . que resulta ser o una variable aleatoria. y corresponde a un caso particular de la definici´n o general enunciada antes. Esperanza condicional: caso discreto Sean X y Y dos variables aleatorias. Observe que E(X | Y ) toma a lo sumo tantos valores distintos como lo hace la variable Y . Este valor depende u naturalmente del evento (Y = yj ).216 4.2. Demostraremos esto a continuaci´n. . Globalmente se puede escribir esta funci´n en t´rminos de o e funciones indicadoras como sigue E(X | Y )(ω) = ∞ j=1 E(X | Y = yj ) 1(Y =yj ) (ω).2. y2 .

c) Para cualquier evento G en σ(Y ). . b) Tomando el evento G como Ω en la tercera propiedad se obtiene que tanto X como E(X | Y ) tienen la misma esperanza. a) Es σ(Y )-medible. es una variable aleatoria que cumple las siguientes propiedades. Esperanza condicional 217 ´ Proposicion. E( X | Y ) dP = X dP. La m´ ınima σ-´lgebra respecto de la cual la funci´n Y es variable aleaa o toria es σ(Y ) = σ{(Y = y1 ). (Esperanza condicional. . y sea Y discreta con valores y1 .Cap´ ıtulo 4. Sea X una variable aleatoria integrable. (Y = y2 ) . Como E(X | Y ) es constante en cada elemento de la partici´n. y2 . . b) Tiene esperanza finita. G (4. por propiedades de la integral es suficiente demos- .2) G Demostraci´n. . caso discreto). . . (Y = y2 ). . La funci´n E(X | Y ) : Ω → R dada por o ω → E(X | Y )(ω) = E(X | Y = yj ) si Y (ω) = yj . (Y = y1 ). c) Como cada elemento de σ(Y ) es una uni´n ajena de elementos de la o forma (Y = yj ). . resulta que esta funci´n o o es σ(Y )-medible. y en consecuencia es verdaderamente una variable aleatoria. a saber. o a) A trav´s de sus posibles valores la variable aleatoria Y secciona el ese pacio muestral Ω en eventos disjuntos.} ⊆ F .

3. Veremos a continuaci´n un caso particular de esta variable aleatoria. Observe la diferencia entre E(X | Y = yj ) y E(X | Y ). y sean A y B eventos tales que 0 < P (B) < 1. B c . B. e e sin embargo a ambas expresiones se les llama esperanza condicional.2. y tambi´n puede considerarse a e como una generalizaci´n del concepto de esperanza. Y = yj ) = Ω = (Y =yj ) X(ω) dP (ω). Ω} ) = P (A). Entonces 1. Demostrao remos que la esperanza condicional puede verse como una generalizaci´n del o concepto b´sico de probabilidad condicional. Tenemos entonces que (Y =yj ) E(X | Y )(ω) dP (ω) = E(X | Y = yj ) P (Y = yj ) = Ω X(ω) dP (ω | Y = yj ) P (Y = yj ) X(ω) dP (ω. o ´ Proposicion.218 4. E( 1A | {∅. o 1. 2.2) para estos eventos simples. Sea X con esperanza finita. Demostraci´n. Esperanza condicional: caso discreto trar (4. E( 1A | {∅. Ω} ) = P (A | B) 1B + P (A | B c ) 1B c . El primer t´rmino es e un posible valor num´rico del segundo t´rmino que es una variable aleatoria. y de que cualquier funci´n medible respecto de la o . Ω} ) = E(X). Esta igualdad se sigue del hecho que la variable E(X | G ) es medible respecto de G . E( X | {∅.

Ejercicio. y P (A | B c ) sobre B c . Ejercicio. .Cap´ ıtulo 4. . Observe en particular que la tercera propiedad dice que si la σ-´lgebra a G es generada por la partici´n elemental {B. . . B. entonces la esperanza o condicional de 1A es una variable aleatoria que toma dos valores: P (A | B) sobre B. La tercera condici´n en la definici´n a o o general de esperanza condicional implica que esta constante debe ser E(X). Bn }) = i=1 P (A | Bi ) 1Bi . . Como la variable aleatoria E( 1A | G ) es constante en B. Demuestre que para cualquier evento A. n E(1A | σ{B1 . . a B E( 1A | G ) dP = B 1A dP = P (A ∩ B). B c }. Bn una partici´n de Ω tal que cada uno de estos o elementos tiene probabilidad estrictamente positiva. El an´lisis es an´logo al considerar el evento B c . 3. Sea B1 . Ω} es constante tanto en B como en B c . el lado izquierdo es igual a E( 1A | G )(ω) P (B). Adem´s. Esperanza condicional 219 σ-´lgebra {∅. Encuentre una distribuci´n conjunta de dos variables aleatorias o . para cualquier ω en B. . Ω} es constante. Esta igualdad es evidentemente un caso particular de la primera. De donde se a obtiene E( 1A | G )(ω) = P (A | B). para cualquier ω en B. Observe que toda funci´n medible respecto de la σ-´lgebra G dada o a por {∅. El siguiente ejercicio es una generalizaci´n o de este resultado. B c . y de esto se obtiene la f´rmula a o enunciada. 2. .

por ejemplo. 5. 4. la σ-´lgea bra ”distingue” totalmente el resultado del lanzamiento del dado. De esta forma E(1A | G ) es una funci´n que reporta las probabilidades de o ganar apostando por el n´mero ”2” en cada una de las dos situaciones que u la σ-´lgebra G distingue: resultado par o impar.220 4. tenemos 6 E(1A | G ) = i=1 P (A | Bi ) 1Bi = P (A | A) 1A = 1A . 3. e . Esta σ-´lgebra puede distinguir o a los resultados ”Cae n´mero par”. 3 =  0 si ω ∈ B c . en cambio. Ilustraremos esto en el siguiente o a ejemplo. Considere el experimento aleatorio de lanzar un dado equilibrado e intentar adivinar el resultado que se obtiene. Es decir. conocemos obviamente la probabilidad de ganar apostando por el numero ”2”. 6} y la colecci´n G = {∅. o La variable E(X | G ) puede interpretarse como la esperanza condicional de X dada la informaci´n de la σ-´lgebra G . cuando se sabe con precisi´n el resultado del o experimento. . que se apuesta a que se obtiene el n´mero ”2”. ´sta es cero o uno.2. evento u u B c . Suponga. Ejemplo. a Si se toma. 6}. B = u {2. . G = 2Ω con Ω = {1. B c }. 6. 4. B. para i = 1. 2. entonces definiendo los eventos Bi = {i}. Esperanza condicional: caso discreto X y Y de tal forma que E(X | Y ) tenga distribuci´n Ber(p). . es decir. no hay sorpresas. . y ”Cae n´mero impar”. evento B. Defina los eventos A = {2}. Ω. Entonces E(1A | G ) = P (A | B) 1B (ω) + P (A | B c ) 1B c (ω) 1 = 1B (ω) + 0 1B c (ω) 3   1 si ω ∈ B.

3. Esperanza condicional 221 4. otras propiedades se encuentran en la secci´n de ejercicios. . Sean X y Y variables aleatorias con esperanza finita y sea c una constante. Recordemos que o las identidades o desigualdades que se establezcan para la esperanza condicional son v´lidas en el sentido casi seguro. como X ≥ 0. entonces E(X | G ) ≤ E(Y | G ). Por contradicci´n. 3.s. 4. 5. a ´ Proposicion.Cap´ ıtulo 4. con probabilidad uno a se cumplen las afirmaciones. Si X es G -medible. En un ap´ndice al final del texto se encuentra e una lista m´s completa de propiedades de esta variable aleatoria. E(c X + Y | G ) = c E(X | G ) + E(Y | G ). Entonces 1. Entonces tomando esperanzas se obtiene E(X · 1G ) < 0. Algunas propiedades Veremos ahora algunas propiedades generales de la esperanza condicional. Si G1 ⊆ G2 . entonces E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ). suponga que existe G en G con probabilidad eso trictamente positiva tal que E(X | G ) · 1G < 0. entonces E(X | G ) = X c. 2. 6. E(X · 1G ) ≥ 0. Si X ≤ Y . E(E(X | G )) = E(X). Por otro lado. En particular. entonces E(X | G ) ≥ 0. Si X ≥ 0. Demostraci´n. E(c | G ) = c. es decir. o 1.

5. Ω} realmente no proporciona ninguna o a informaci´n adicional del experimento aleatorio y por lo tanto la esperanza o se calcula directamente sobre la variable aleatoria. o Encuentre E(X | X + Y ).3. Demuestre las siguientes desigualdades: a) | E(X | G ) | ≤ E( |X| | G ).1). Esta propiedad se obtiene tomando G = Ω en la igualdad (4. Para todo G ∈ G1 ⊆ G2 . 6. G An´logamente. Algunas propiedades 2. Ejercicio. Sean X y Y independientes cada una con distribuci´n Ber(p). b) E |E(X | G )| ≤ E( |X| ). G G G En particular observe que la segunda propiedad dice que la esperanza condicional es lineal. G E(E(X | G1 ) | G2 ) dP = G E(X | G1 ) dP = X dP.222 4. la σ-´lgebra trivial {∅. 3. o en t´rminos de e informaci´n. Ejercicio. a E(E(X | G2 ) | G1 ) dP = E(X | G2 ) dP = X dP. Esto consecuencia de la primera propiedad y la linealidad aplicadas a la variable Y − X ≥ 0. Si X es G -medible. entonces X mismo cumple con las tres propiedades de la definici´n de esperanza condicional.1) y la propiedad de unicidad. junto con (4. mientras que la cuarta propiedad establece que las variables aleatorias X y E(X | G ) tienen la misma esperanza. 4. Esta igualdad es consecuencia de la linealidad de la esperanza no condicional. Una introducci´n a la esperanza condicional ligeramente m´s completa a la o a . por la unicidad se obtiene o la igualdad casi segura.

o . (Varianza condicional). puede encono e trarse en [24]. Ω}) = Var(X). La varianza condicional de X a dado G . G -medible por u definici´n. Nuevamente hacemos ´nfasis en que la varianza condicional no es necesae riamente un n´mero sino una variable aleatoria en general. Demostraremos a continuaci´n algunas propiedades elementales de esta vao riable aleatoria. aunque tambi´n sencilla y breve. Despu´s de o e un c´lculo sencillo se puede comprobar que se reconstruye la varianza no a condicional en el siguiente caso particular: Var(X | {∅. Otras propiedades se encuentran en la secci´n de ejercicios. y sea G una sub-σ-´lgebra de F . es no negativa. Sea X con segundo momento finito. a ´ Definicion. denotada por Var(X | G ). Un tratamiento m´s completo y riguroso puede consultarse a por ejemplo en [18] o [31].4. se define como la variable aleatoria Var(X | G ) = E[ (X − E(X|G ))2 | G ]. Varianza condicional Usando la esperanza condicional se puede obtener la varianza condicional de una variable aleatoria respecto de una σ-´lgebra de la siguiente forma. Esperanza condicional 223 presentada en esta secci´n. 4. y como en el caso no condicional.Cap´ ıtulo 4.

y sea c una constante. Varianza condicional ´ Proposicion. Var(c | G ) = 0. Var(X) = E[Var(X | G )] + Var[E(X | G )]. Var(X + c | G ) = Var(X | G ). 3. Var(X + Y | G ) = Var(X | G ) + Var(Y | G ). 5. 6.4. Tomando esperanza en la igualdad previa se obtiene E[Var(X | G )] = E(X 2 ) − E[E 2 (X | G )]. Esta igualdad se obtiene a partir de la definici´n al desarrollar el o cuadrado y utilizar las propiedades de linealidad de la esperanza condicional. Var(c X | G ) = c2 Var(X | G ). Sean X y Y con varianza finita. 5. – 4. 6. o 1. Nuevamente es suficiente tomar Y = X para verificar la no igualdad. 4. Estas propiedades son una consecuencia inmediata de las propiedades ya demostradas de la esperanza condicional. 2. 7. Demostraci´n. ´ . Por otro lado. Var(X | G ) ≥ 0. En general. Entonces 1. Sumando estas ultimas dos expresiones se obtiene el resultado. Var(X | G ) = E(X 2 | G ) − E 2 (X | G ). Var[E(X | G )] = E[E 2 (X | G )] − E 2 [E(X | G )] = E[E 2 (X | G )] − E 2 (X). 7.224 4.

y puede tomarse como definici´n cualquiera de las siguientes expresiones: o Var(X | Y ) = E( (X − E(X | Y ))2 | Y ) E(X 2 | Y ) − E 2 (X | Y ).Cap´ ıtulo 4. para alguna variable aleaa toria Y . Demuestre que la esperanza de la variable Var(X | G ) es: a) E(X 2 ) − E(E 2 (X | G )). Esperanza condicional 225 Nuevamente cuando la sub-σ-´lgebra G es σ(Y ). b) E(X − E(X | G ))2 . Ejercicio. . entonces Var(X | G ) se escribe Var(X | Y ).

404. o 410. . 1}. Demuestre que el rec´ ıproco es en general falso. 406. Sea X con esperanza finita y sea B un evento tal que 0 < P (B) < 1. x\y 1 2 -1 2/12 3/12 0 2/12 2/12 1 2/12 1/12 409. entonces E(c | G ) = c.226 4. 405. P (A | B c ) si ω ∈ B.5. Se ha demostrado que si X ≥ 0 es integrable. Demuestre que E(X | {∅. Demuestre o proporcione un contraejemplo. Diga falso o verdadero. Sea X una variable aleatoria con esperanza finita. Sea c una constante. / 407. para cualquier sub-σ-´lgebra G . 411. 408. Demuestre que si c es una constante. Sean A y B dos eventos tales que 0 < P (B) < 1. Encuentre E(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla. Ω}) = P (A). Sea X integrable y sea Y constante. Sea A un evento. Encuentre una distribuci´n conjunta de dos variables aleatorias X y o Y de tal forma que E(X | Y ) tenga distribuci´n unif{−1. Demuestre que E(1A | {∅. Ω}) = E(X | B) 1B + E(X | B c ) 1B c . Demuestre que E(1A | 1B )(ω) = P (A | B) si ω ∈ B. B. Demuestre que E(X | Y ) = E(X). Ejercicios 4. a 403. B c . Demuestre que E(X | {∅.5. Ejercicios Esperanza condicional 402. Ω}) = E(X). entonces E(X | G ) ≥ 0.

independientes id´nticamente distribuidas y con espee ranza finita. Demuestre que E(E 2 (X | G )) = E(X E(X | G )). 227 f) E(X | X + Y ) = X. Sea X con segundo momento finito. ǫ Sugerencia: Vea la demostraci´n de la desigualdad de Markov no cono dicional en la p´gina 347. 412. vea el ejercicio 191. . Sean X y Y con segundo momento finito. y sean b1 . Bn una partici´n finita de Ω en donde cada elemento tiene o probabilidad positiva. bn constantes cualesquiera. Sea X ≥ 0 integrable. Y ) = [E(X − Y )2 ]1/2 es m´ ınima cuando bi = E(X | Bi ). Desigualdad de Cauchy-Schwarz condicional. Sugerencia: proceda como en la desigualdad de Cauchy-Schwarz en el caso no condicional. . cada sumando lo es. c) E(X | X 2 ) = X.Cap´ ıtulo 4. . . P (X ≥ ǫ | G ) ≤ 1 E(X | G ). . Sea B1 . . . Defina Sn = X1 +· · ·+Xn . . . Demuestre que E 2 (XY | G ) ≤ E(X 2 | G ) E(Y 2 | G ). y la suma es m´ ınima si. 415. a 416. o 414. cuando la variable Y es la esperanza condicional E(X | Y ). Demuestre que la distancia entre X y Y definida por d(X. Sean X1 . d) E(X | cX) = X. Demuestre que para 1 ≤ k ≤ n. . . 413. Defina la variable aleatoria discreta n Y = i=1 bi 1Bi . e) E(X | X + c) = X. es decir. Desigualdad de Markov condicional. Demuestre que para cualquier constante ǫ > 0. y s´lo si. b) E(X 2 | X) = X 2 . Esperanza condicional a) E(X | X) = X. Sugerencia: observe que E(X − Y )2 = n E[(X − i=1 bi )2 | Bi )P (Bi ). X2 .

Demuestre que Var(X) ≥ Var(X | G ). Ω}) = Var(X). Demuestre que a) Var(X | {∅. 422. Demuestre que E( Var(X | G ) | G ) = Var(X | G ).228 a) E(Xk | Sn ) = Sn /n. b) Var( Var(X | G ) | G ) = 0. Demuestre que E(X 2 | G ) ≥ E 2 (X | G ). entonces Var(Var(X | G )) = 0. x\y 1 2 -1 2/12 3/12 0 2/12 2/12 1 2/12 1/12 419. . entonces Var(X | G ) = 0. Ω}) = P (A)(1 − P (A)).}) = Sn /n. 421. . 418. . Sn+1 . c) E(Xk | σ{Sn . .5. b) Var(1A | {∅. . Demuestre que a) si X es G -medible.}) = k Sn /n. Ejercicios d) E(Sk | σ{Sn . b) E(Sk | Sn ) = k Sn /n. 420. . Varianza condicional 417. Encuentre Var(X | Y ) cuando X y Y se distribuyen de manera conjunta de acuerdo a la siguiente tabla. 4. . Sn+1 . c) si X es G -medible.

producto y cociente de dos variables aleatorias absolutamente continuas.Cap´ ıtulo 5 Transformaciones Sea X una variable aleatoria con distribuci´n conocida.1. o diferencia. Gr´ficamente tal transformaci´n se muestra en la Figura 5. y sea ϕ es una o funci´n tal que Y = ϕ(X) es otra variable aleatoria. En particular.1. a o 229 . 5. ¿Cu´l es la distribuo a ci´n de Y ? En este cap´ o ıtulo se da respuesta a esta pregunta tanto en el caso unidimensional como en el caso de vectores aleatorios. en t´rminos de la funci´n de o e o densidad de X. se encuentran f´rmulas expl´ o ıcitas para la funci´n de densidad de la suma. Transformaci´n de una variable aleatoria o En esta secci´n se estudian un par de resultados que proveen de f´rmulas o o para la funci´n de densidad de la variable ϕ(X).

Entonces o para y ∈ ϕ(a. FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y) = FX (ϕ−1 (y)). Transformacion de una variable aleatoria X ϕ ω Ω X(ω) R Y = ϕ(X) ϕ(X(ω)) R Figura 5. b) ⊆ R.1: La composici´n Y = ϕ ◦ X. b) → R una funci´n continua. Entonces la variable aleatoria Y = ϕ(X) toma valores dentro del intervalo ϕ(a. y con inversa diferenciable. Suponga primero el caso ϕ estrictamente creciente. b). b). Demostraci´n. y tiene funci´n de densidad o   f (ϕ−1 (y)) | d ϕ−1 (y)| para y ∈ ϕ(a.1. b). y con funci´n de o densidad fX (x). = P (X ≤ ϕ−1 (y)) . Sea ϕ : (a. estrictamente o creciente o decreciente. o Teorema de cambio de variable 1. X dy fY (y) =  0 otro caso. Sea X una variable aleatoria continua con valores dentro de un intervalo (a.230 ´ 5.

o ´ Ejemplo. = 1 − FX (ϕ−1 (y)). d −1 ϕ (y)]. definida sobre toda la recta real cumo ple con las condiciones del teorema anterior. σ 2 ). (Distribucion log normal). o y sea ϕ la funci´n estrictamente creciente ϕ(x) = ex . Sea X con distribuci´n N(µ. Entonces la variable aleatoria Y = eX toma valores en el intervalo (0. d −1 ϕ (y). ϕ(x) = ex x Figura 5. Para ϕ estrictamente dy FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y) = P (X ≥ ϕ−1 (y)) Entonces fY (y) = fX (ϕ−1 (y)) · [− el resultado enunciado. ∞). En cualquiera caso se obtiene dy Por ejemplo. Su funci´n de densidad tiene la siguiente expresi´n cuya o o . y su distribuci´n se conoce con el nombre de distribuci´n o o log normal(µ. Usaremos esta funci´n para o mostrar con dos ejemplos la forma de aplicar este resultado. σ 2 ). Transformaciones Derivando se obtiene fY (y) = fX (ϕ−1 (y)) · 231 decreciente. con inversa diferenciao ble ϕ−1 (y) = ln y.Cap´ ıtulo 5. la funci´n ϕ(x) = ex .2: La transformaci´n ϕ(x) = ex .

λ). ´ Ejemplo. Eny sea nuevamente ϕ(x) = e tonces la variable aleatoria Y = eX toma valores en el intervalo (0.24. El resultado anterior puede extenderse al caso en el que la transformaci´n ϕ o es estrictamente mon´tona por pedazos. a  (ln y − µ)2   √1 exp [− ] 2σ 2 y 2πσ 2 fY (y) =   0 si y > 0. Encuentre la funci´n de densidad del cuadrado de una variable o aleatoria con distribuci´n exp(λ). Sea X con distribuci´n unif(0. Su funci´n de o o o densidad es   (λ ln y)n−1 −λ−1  λy si y > 0. o x . 1) y sea λ > 0. λ). (Distribucion log gama). Γ(n) fY (y) =   0 si y ≤ 0. Sea X con distribuci´n gama(n. Ejercicio. Se enuncia y demuestra a continuao ci´n este resultado cuando la transformaci´n se descompone en dos partes o o mon´tonas. y su distribuci´n se conoce como distribuci´n log gama(n.232 ´ 5. siendo f´cil la extensi´n cuando se tiene un mayor n´mero de o a o u secciones. o Ejercicio. si y ≤ 0. Transformacion de una variable aleatoria gr´fica ha sido mostrada antes en la Figura 2. Demuestre que o . con inversa diferenciable ϕ−1 (y) = ln y. ∞).1.

. o 233 Teorema de cambio de variable 2. Transformaciones la variable aleatoria Y = −(1/λ) ln X tiene distribuci´n exp(λ). b) → R y ϕ2 (x) : (b. unicamente hay que o a ´ hacer el an´lisis sobre cada uno de los intervalos de monoton´ estricta. Nos interesa el comportamiento de estas probabilidades como funciones de y. y tiene funci´n de densidad o fY (y) = fX (ϕ−1 (y)) | 1 d −1 ϕ (y)| · 1ϕ1 (a. c) ⊆ R. 2 dy 2 Demostraci´n. Para a ıa cualquier y en R. si x ∈ (b.b) (y) dy 1 d + fX (ϕ−1 (y)) | ϕ−1 (y)| · 1ϕ2 (b. la primera probabilidad. c))]. b))] + P [(ϕ2 (X) ≤ y) ∩ (X ∈ (b.Cap´ ıtulo 5. vista como funci´n de y. c). puesto que calcularemos la derivada de ellas para encontrar fY (y). Por ejemplo.c) (y). b). La prueba es an´loga al caso anterior. estrictamente creciente o decreciente. c) → R es continua. en donde a < b < c. y cada una de las funciones ϕ1 (x) : (a. c) → R una funci´n tal que admite la o descomposici´n o ϕ(x) = ϕ1 (x) ϕ2 (x) si x ∈ (a. Sea X una variable aleatoria continua con valores dentro de un intervalo (a. es o y → P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a. Entonces la variable aleatoria Y = ϕ(X) toma valores dentro del intervalo ϕ(a. y con funci´n o de densidad fX (x). FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y) = P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a. b))]. c). Sea ϕ : (a. y con inversa diferenciable.

d P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a. 0). Transformacion de una variable aleatoria que permanece constante para y ∈ ϕ1 (a. Sea X continua con funci´n de densidad fX (x).234 ´ 5. Considere la o 2 . o o Defina entonces las funciones mon´tonas ϕ1 (x) = x2 sobre (−∞. transformaci´n ϕ(x) = x o y estrictamente creciente en (0. 0). X X 2 y 2 y fY (y) =  0 si y ≤ 0. Entonces sus inversas son ϕ−1 (y) = − y.3: La transformaci´n ϕ(x) = x2 como dos secciones mon´tonas. La variable Y = X 2 tiene por lo tanto funci´n de densio 2 dad  1 1  f (−√y) √ + f (√y) √ si y > 0. o Ejemplo. y o √ ϕ2 (x) = x2 sobre (0. ∞).1. ϕ(x) = x2 ϕ1 ϕ2 x Figura 5. b). De esta forma e ıa se obtiene la f´rmula enunciada. b))] 1 dy d = P [a < X ≤ ϕ−1 (y)] 1 dy d = FX (ϕ−1 (y)) 1 dy d −1 = fX (ϕ−1 (y)) ϕ (y). y para y ∈ ϕ1 (a. . y 1 √ ϕ−1 (y) = y. ∞). de modo que. considerando a tambi´n el caso cuando se presenta la monoton´ decreciente. b))] = dy d P [(X ≤ ϕ−1 (y)) ∩ (X ∈ (a. suponiendo por / ejemplo ϕ1 creciente. 1 dy 1 De manera an´loga se procede respecto del segundo sumando. la cual es estrictamente decreciente en (−∞. b).

y) se escribir´ como (ϕ1 (x. Transformaciones 235 Ejercicio. Sea X con distribuci´n normal est´ndar. Ejercicio.2. 1). Sea X con distribuci´n uniforme en el intervalo [−1. El problema es encontrar la funci´n de densidad del nuevo vector o ϕ(X. Demueso tre que la funci´n de densidad de la variable Y = 4X(1 − X) es o   √1 si 0 < y < 1. y). Demuestre que la vao a riable aleatoria Y = |X| tiene funci´n de densidad o   2 −y2 /2  e si y > 0. Y ). 2 1−y f (y) =  0 otro caso.Cap´ ıtulo 5. y) es una funci´n definida en alg´n subconjunto de R2 y con valores o u en R2 . Transformaci´n de un vector aleatorio o Suponga ahora que (X. ϕ2 (x. por ejemplo. π f (y) =   0 si y ≤ 0. . Gr´ficamente esta transformaci´n se ilustra en la Figura 5. y)). Y ) es un vector con funci´n de densidad conocida. y la derivao a da de la primera componente respecto de x. Ejercicio. a o La transformaci´n ϕ(x.4. o 5. o y ϕ(x. Sea X con distribuci´n uniforme en el intervalo (0. Encueno √ tre la funci´n de densidad de la variable Y = 1 − X 2 . 1]. se escribe ∂x ϕ1 .

v) diferenciao ble. ϕ−1 (U. v) = fX. Y ). (x+ a a dx. con inversa (X. y).Y (ϕ−1 (u. Una prueba rigurosa de este teorema resulta ser un tanto elaborada y la omitiremos. y) : I → R2 una funci´n continua con inversa ϕ−1 (u. Y ) = ϕ−1 (U. (5. Y ). Y ) R2 Figura 5. v)| para (u. V ) = ϕ(X. Sin embargo. Y )). puede usarse el siguiente argumento intuitivo para encontrar la f´rmula enunciada. Y ) un vector continuo con valores en I ⊆ R2 . Sea o (U. y).236 ´ 5. y con funci´n de densidad fX.V (u. Sea (X. y + dy).2. 1 2 Sea A el rect´ngulo de ´rea infinitesimal de esquinas con coordenadas (x. o Teorema de cambio de variable 3.1) 0 ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 . Transformacion de un vector aleatorio (X.4: La composici´n ϕ ◦ (X. otro caso. Bajo la transformaci´n ϕ las coordeo nadas de las esquinas del rect´ngulo A se transforman en las siguientes a . Y ) ϕ Ω R2 (U.Y (x. V ) = ϕ(X. V ). Sea o ϕ(x. V ) = (ϕ−1 (U. y). Y ) toma valores en ϕ(I) y tiene funci´n de densidad o fU. ϕ2 (X. y + dy) y (x + dx. V ) = ϕ(X. V )). v)) |J(u. v) ∈ ϕ(I). Y ) = (ϕ1 (X. (x. v) = en donde J(u. Entonces el vector (U.

ϕ2 (x. (x. y)dx + ∂y ϕ2 (x. y)dx. y). y + dy). ϕ2 + ∂x ϕ2 ) Figura 5. ϕ2 (x + dx. o a Entonces P ((X. y) dxdy = fU. ϕ2 (x.V (u. y + dy). y)dy. v) × “Area de ϕ(A)”. = (ϕ1 (x. 237 Gr´ficamente la transformaci´n de estos puntos se muestra en la Figura 5. y) + ∂y ϕ1 (x. V ) ∈ ϕ(A)). y)dy). y) +∂x ϕ2 (x. y + dy) → (ϕ1 (x + dx. . ϕ2 + ∂y ϕ2 ) y + dy A y (ϕ1 . ϕ2 (x. y) → (ϕ1 (x + dx. Transformaciones coordenadas: (x. = (ϕ1 (x. y)dx + ∂y ϕ1 (x. y) + ∂x ϕ2 (x. ϕ2 ) x x + dx ϕ ϕ(A) (ϕ1 + ∂x ϕ1 + ∂y ϕ1 . (x + dx. y + dy)) . Y ) ∈ A) = P ((U. a o (ϕ1 + ∂y ϕ1 . = (ϕ1 (x. y)). y). y) + ∂x ϕ1 (x. ϕ2 + ∂x ϕ2 + ∂y ϕ2 ) (ϕ1 + ∂x ϕ1 . y)dy.Y (x. y + dy) → (ϕ1 (x. ϕ2 (x + dx. y)dx. Por lo tanto ´ fX.5: La transformaci´n ϕ aplicada al rect´ngulo A. y)) . y) +∂y ϕ2 (x. ϕ2 (x. y)dy. ϕ2 (x. y) → (ϕ1 (x.Cap´ ıtulo 5. (x + dx. y) + ∂x ϕ1 (x. y + dy)) .5.

. y) dxdy = fU. v) Es decir.238 En donde ´ 5. |J(u. fU. dy Y = ϕ(X) ⇒ fY (y) = fX (ϕ−1 (y)) | ⇒ (U. v).V (u.V (u. ϕ−1 (u. 1 2 Como ejemplo de aplicaci´n de esta f´rmula. V ) = ϕ(X.2. que s´lo sirve como referencia general pues o no se mencionan las condiciones precisas de su validez. = dxdy Adem´s |J(x. v))|J(u. y)| = a 1 . Las f´rmulas generales sobre transformaciones encontradas hasta ahora se o resumen en la siguiente tabla. v) = fX. v)) |J(u. en donde J(u.V (u. y)| dxdy. v)| dxdy .Y (ϕ−1 (u. v)|. Transformaciones d −1 ϕ (y)|. Transformacion de un vector aleatorio ´ “Area de ϕ(A)” = |∂x ϕ1 · ∂y ϕ2 − ∂x ϕ2 · ∂y ϕ1 | dxdy ∂x ϕ1 ∂y ϕ1 ∂x ϕ2 ∂y ϕ2 = |J(x. diferencia. en las secciones siguientes eno o contraremos expresiones para la funci´n de densidad de la suma. v) = ∂u ϕ−1 1 ∂u ϕ−1 2 ∂v ϕ−1 1 ∂v ϕ−1 2 .Y (x.Y (ϕ−1 (u. v)|. v)| fX. Y ) fU. o producto y cociente de dos variables aleatorias. Por lo tanto |J(u. v) = fX.

cuando X y Y son independientes.2) se o reduce a fX+Y (u) = = ∞ −∞ ∞ −∞ fX (u − v)fY (v) dv fX (u − v) dFY (v). Transformaciones 239 Distribuci´n de la suma o El siguiente resultado proporciona una f´rmula para la funci´n de densidad o o de la suma de dos variables aleatorias absolutamente continuas. Entonces X + Y tiene funci´n de densidad o fX+Y (u) = ∞ −∞ fX. v). Integrando respecto a o v se obtiene (5.4) .3) Ello refleja el hecho de que la suma de dos variables aleatorias es conmutativa. v) dv. En particular. y). (5. fX+Y. v) = (u − v.Y (x. ´ Proposicion.2) Demostraci´n.Y (z. Sea (X. Y ) un vector absolutamente continuo con funci´n o de densidad fX. con o o inversa ϕ−1 (u. v) = fX. El Jacobiano de la transformaci´n inversa es o J(u. y).2) se obtiene la expresi´n equivalente o fX+Y (u) = ∞ −∞ fX.Y (u.Y (u − v. la f´rmula (5. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = 1 −1 0 1 = 1. Por la f´rmula (5. Observe que haciendo el cambio de variable z(v) = u − v en (5. u − z) dz. y) = (x + y. (5.2). Sea ϕ : R2 → R2 la transformaci´n ϕ(x. v).1).Cap´ ıtulo 5.Y (u − v. (5.

Y (x. o o Derivando respecto a u se obtiene fX+Y (u) = ∞ −∞ fX. Use la f´rmula anterior para demostrar que si X y Y son indeo pendientes con distribuci´n bin(n. o Puede obtenerse la misma f´rmula (5. entonces o X + Y tiene distribuci´n bin(n + m. o FX+Y (u) = P (X + Y ≤ u) = = fX. independientes y con valores enteros. M´s generalmente. fX+Y (u) = k fX (u − k)fY (k). puede demostrarse que esta f´rmula es v´lida para cuaa o a lesquiera dos variables aleatorias independientes X y Y . es sencillo verificar que la funci´n de probabilidad de X + Y es.240 ´ 5. p). p) respectivamente. Transformacion de un vector aleatorio Integrando respecto de u e intercambiando el orden de las integrales se obtiene la correspondiente funci´n de distribuci´n o o FX+Y (u) = ∞ −∞ FX (u − v) dFY (v). en completa o analog´ con (5.Y (x. Ejercicio. incluyendo el caso cuando una de ellas es discreta y la otra continua.2. y) dy dx x+y≤u ∞ u−x −∞ −∞ fX. en donde la suma se ıa toma sobre todos los posibles valores enteros k que la variable aleatoria Y puede tomar. p) y bin(m.Y (x.4). La regi´n de integraci´n se muestra en la Figura 5. y) dy dx. En el caso cuando X y Y son discretas. u − x) dx.2) mediante el procedimiento usual o de encontrar primero la funci´n de distribuci´n de X + Y y despu´s derio o e var para encontrar la funci´n de densidad.6. . El procedimiento se muestra a o continuaci´n.

Z (u − y − z. z) dydz. su funci´n de densidad es o 1 2 f (u) = √ e−u /4 .Cap´ ıtulo 5. 2 π Ejercicio. 0 otro caso. y. 2). o o que corresponde a la expresi´n (5. Transformaciones y u 241 x Figura 5. Demuestre que la variable X + Y + Z tiene funci´n o de densidad f (u) = ∞ −∞ ∞ −∞ fX. Sean X y Y independientes cada una con distribuci´n normal o est´ndar. Ejercicio.Y.6: Regi´n de integraci´n x + y ≤ u.2) para demostrar que X + Y tiene distribuci´n N(0. Sea (X. en donde cada sumando tiene .Y. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2. Z) un vector absolutamente continuo con funci´n de o densidad fX.3) equivalente a (5. Aplique esta f´rmula para encontrar la funci´n de densidad de la suma o o de tres variables aleatorias independientes. es a o decir. Y.2). Use (5. z). o Ejercicio. Encuentre la funci´n de densidad de X + Y cuando X y Y o tienen funci´n de densidad conjunta o f (x.Z (x. y.

La convoluci´n de dos funciones de densidad continuas f1 o y f2 . si X y Y son dos variables aleatorias independientes con correspondientes funciones de distribuci´n FX y FY . la suma de n variables aleatorias independientes todas con la misma funci´n de distribuci´n F tiene o o funci´n de distribuci´n F ∗ · · · ∗ F . No es dif´ o o ıcil comprobar que FX ∗ FY = FY ∗ FX . Para el caso de funciones de distribuci´n absoluo o tamente continuas. . o o Observe que hemos denotado la convoluci´n por el mismo s´ o ımbolo. M´s generalmente. o ´ Convolucion. 1).242 ´ 5. dx Distribuci´n de la diferencia o Se encontrar´ ahora una f´rmula para la funci´n de densidad de la diferencia a o o de dos variables aleatorias.2. y definida como sigue o (f1 ∗ f2 )(x) = ∞ −∞ f1 (x − y)f2 (y) dy. que se escribe simplemente como F ∗n . primero cuando los argumentos son funciones de densidad y en el otro cuando son funciones de distribuci´n. se tiene la relaci´n o d (F1 ∗ F2 )(x) = (f1 ∗ f2 )(x). es una funci´n de densidad denotada por f1 ∗ f2 . la convoluci´n de dos funciones de distribuci´n F1 y F2 a o o es la funci´n de distribuci´n o o (F1 ∗ F2 )(x) = ∞ −∞ F1 (x − y)dF2 (y). En particular. Transformacion de un vector aleatorio distribuci´n unif(0. En consecuencia. entonces la funci´n de o o distribuci´n de la variable X + Y es la convoluci´n FX ∗ FY .

v). (5. Con el cambio de variable z(v) = u + v en (5.6) Cuando X y Y son independientes la f´rmula (5. v). z − u) dz. Procedemos como en la secci´n anterior. fX−Y. y) con inversa ϕ−1 (u.Y (z. (5. y).Y (u + v. . y) = (x − y. y tiene funci´n de probabilidad e o fX−Y (u) = k fX (u + k)fY (k).5) se reduce a o fX−Y (u) = ∞ −∞ fX (u + v)fY (v) dv.Y (u + v. Integrando respecto a o v se obtiene (5. Entonces X − Y tiene funci´n de densidad fX−Y (u) = ∞ −∞ fX. v) = fX.5) se obtiene la expresi´n o equivalente fX−Y (u) = ∞ −∞ fX.5). En el caso discreto cuando X y Y son independientes con valores enteros.1). Transformaciones 243 ´ Proposicion. v) = (u + v. El o Jacobiano de la transformaci´n inversa es o J(u. Por la f´rmula (5. Sea ϕ : R2 → R2 o o la transformaci´n ϕ(x.5) Demostraci´n. Sea (X. v) dv. Y ) un vector absolutamente continuo con funci´n o o de densidad fX.Y (x. la variable X−Y tambi´n toma valores enteros.Cap´ ıtulo 5. en donde la suma se toma sobre todos los posibles valores enteros k que Y puede tomar. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = 1 1 0 1 = 1.Y (u.

Haciendo el cambio de variable x = −v. A partir de la f´rmula para la suma de dos variables aleatorias se puede construir una o tercera demostraci´n de (5.7: Regi´n de integraci´n x − y ≤ u. y) dy dx. se obtiene fX−Y (u) = = ∞ −∞ ∞ −∞ fX.Y (u + x. x) dx.5) mediante el procedimiento usual de encontrar primero la funci´n de distribuci´n y despu´s derivar para encono o e trar la funci´n de densidad.2.5). y) dy dx fX.−Y (u + x.−Y (u − v. o o y u x Figura 5. Transformacion de un vector aleatorio Nuevamente se puede demostrar (5. v) dv. Por definici´n. La regi´n de integraci´n aparece en la Figura 5. . o o Derivando respecto a u se obtiene (5. o o FX−Y (u) = P (X − Y ≤ u) = = x−y≤u ∞ ∞ −∞ x−u fX.6) equivalente a (5. o o fX−Y (u) = fX+(−Y ) (u) = ∞ −∞ fX.Y (x.244 ´ 5.5).7. Por la f´rmula para la suma. −x) dx fX.Y (x.

En ejercicios anteriores se ha pedido comprobar que tanto X + Y a como X − Y tienen distribuci´n N(0. Sean X y Y independientes cada una con distribuci´n normal o est´ndar. 2). Ejercicio. 2 π Ejercicio. . y. su funci´n de densidad es o 1 2 f (u) = √ e−u /4 . z) dydz. Z) un vector absolutamente continuo con funci´n de o o densidad fX.5) para demostrar que X − Y tiene distribuci´n N(0. Encuentre la funci´n de densidad de Y − X cuando X y Y o tienen funci´n de densidad conjunta o f (x. Aplique esta f´rmula para encontrar la funci´n de densidad de X − Y − Z. Transformaciones 245 Ejercicio. Sean X y Y independientes cada una con distribuci´n normal o est´ndar. 0 otro caso. z). Y. o o cuando estas variables son independientes y cada una de ellas tiene distribuci´n unif(0. o Distribuci´n del producto o Ahora se encontrar´ una f´rmula para la funci´n de densidad del producto a o o de dos variables aleatorias absolutamente continuas. 2).Z (u + y + z.Y. Ejercicio. Sea (X. 1). y.Y. es a o decir. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2.Cap´ ıtulo 5. Use (5.Z (x. Demuestre que la variable X − Y − Z tiene funci´n de densidad fX−Y −Z (u) = ∞ −∞ ∞ −∞ fX. Demuestre ahora que X + Y y o X − Y son independientes.

Y ) un vector absolutamente continuo con funci´n o o de densidad fX.8) Cuando X y Y son independientes (5. y).7) se reduce a fXY (u) = fX (u/v)fY (v) |1/v| dv. y) dydx + fX.Y (x. fXY. Haciendo x(v) = u/v en (5. o FXY (u) = P (XY ≤ u) = = fX. ϕ−1 (u. para v = 0. Entonces XY tiene funci´n de densidad fXY (u) = ∞ −∞ fX. v) |1/v| dv.7) Demostraci´n. v) = o (u/v.Y (u. y) dy dx xy≤u 0 ∞ −∞ u/x ∞ 0 u/x fX. v) = fX. v) |1/v|.Y (u/v.Y (x. Usaremos nuevamente el procedimiento usual de encontrar primero la funci´n de distribuci´n de XY y despu´s derivar para encontrar la funci´n de o o e o densidad. (5. y) dydx. Transformacion de un vector aleatorio ´ Proposicion. (5.1).7). y) = (xy. Por la f´rmula (5.246 ´ 5. Sea ϕ : R2 → R2 la o o transformaci´n ϕ(x. Integrano do respecto a v se obtiene (5.2.Y (x.1). −∞ .Y (u/v. El Jacobiano de la transformaci´n inversa es o J(u. para v = 0. Por definici´n.Y (x. Sea (X.7) se obtiene la expresi´n equivalente o fXY (u) = ∞ −∞ ∞ −∞ fX. Se usa nuevamente la f´rmula (5. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = 1/v u/v 2 0 1 = 1/v. v).Y (x. y) cuya inversa es. u/x) |1/x| dx.

8).Y (x. 0 fXY (u) = −∞ fX. u/x)(−1/x) dydx + ∞ 0 fX.Z ( .8: Regi´n de integraci´n xy ≤ u.Y (x. Transformaciones La regi´n de integraci´n se muestra en la Figura 5. que corresponde a (5. Y. y. Encuentre la funci´n de densidad de XY cuando X y Y tienen o funci´n de densidad conjunta o f (x. Demuestre que la variable XY Z tiene funci´n de o densidad ∞ ∞ u 1 f (u) = fX. v. = ∞ −∞ fX. u/x)|1/x| dx. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2. o o Derivando respecto a u.Z (x.Y (x.Y. equivalente a (5. Sea (X. Ejercicio. z). Ejercicio. w) | | dv dw. vw vw −∞ −∞ . o o y y y 247 x x x u<0 u=0 u>0 Figura 5. Z) un vector absolutamente continuo con funci´n de o densidad fX.8.Y. u/x)(1/x) dydx.Cap´ ıtulo 5.7). 0 otro caso.

el integrando en la f´rmula (5.Y (uv.Y (u.10) Observe nuevamente que cuando X y Y son independientes. fX/Y. v) |v|. Sea (X. y con inversa ϕ−1 (u. v) = o (uv.2.Y (uv. (5. Y ) un vector absolutamente continuo con funci´n o de densidad fX.9) se obtiene la expresi´n equivalente o fX/Y (u) = ∞ −∞ fX.248 ´ 5.9) o integrando respecto a v. Entonces X/Y tiene funci´n de o densidad ∞ fX/Y (u) = fX. (5. Sea ϕ : R2 → o R2 la transformaci´n ϕ(x.Y (x. v) |v| dv. de donde se obtiene (5. y) para y = 0. Y y Z son independientes cada una de ellas con distribuci´n unif(0. El Jacobiano de la transformaci´n inversa es o J(u. Por la f´rmula (5. ´ Proposicion.9) −∞ Demostraci´n. Transformacion de un vector aleatorio Aplique este resultado al caso cuando X. v) = fX. Haciendo x(v) = uv en (5. v) = ∂u ϕ−1 ∂v ϕ−1 1 1 ∂u ϕ−1 ∂v ϕ−1 2 2 = v u 0 1 = v.1). x/u) |x/u2 | dx. y) y tal que Y = 0. o . 1). y) = (x/y. Procederemos como en las secciones anteriores.Y (x.9) se escribe como el producto de las densidades marginales. v). o Distribuci´n del cociente o Finalmente se encontrar´ una f´rmula para el cociente de dos variables a o aleatorias absolutamente continuas.

Y (x.9.Y (uy. Transformaciones 249 Ahora usaremos el procedimiento usual de encontrar primero la funci´n de o distribuci´n y despu´s derivar para encontrar la funci´n de densidad.9) de la siguiente forma.Y (uy.9: Regi´n de integraci´n x/y ≤ u. y)y dy fX. 0 fX/Y (u) = − = fX. y) dx dy. y) dx dy + 0 ∞ uy fX. o o Derivando respecto a u. o e o FX/Y (u) = P (X/Y ≤ u) = = x/y≤u 0 ∞ −∞ uy fX. . −∞ La regi´n de integraci´n se muestra en la Figura 5.Y (x. v) |1/v| dv.Cap´ ıtulo 5.1/Y (u/v. o o y y y x x x u<0 u=0 u>0 Figura 5. y)|y| dy. o fX/Y (u) = fX·(1/Y ) (u) = ∞ −∞ fX.Y (x. −∞ A partir de la f´rmula para el producto de dos variables aleatorias se puede o construir una tercera demostraci´n de (5.Y (uy. y)y dy + −∞ ∞ 0 ∞ fX. y) dx dy fX.

w) |vw| dv dw.Y. 0 otro caso. v. su funci´n de deno o sidad es 1 . Sea (X. x)|x| dx. Aplique este resultado al caso cuando X.Y. y) = 3(x2 + y 2 )/16 si 0 < x < y < 2. Ejercicio. Y y Z son independientes cada una de ellas con distribuci´n unif(0.Z (x.250 ´ 5. es decir.2. Encuentre la funci´n de densidad de X/Y cuando X y Y tienen o funci´n de densidad conjunta o f (x. f (u) = π(1 + u2 ) Ejercicio. Y. o a Demuestre que X/Y tiene distribuci´n Cauchy. para − ∞ < u < ∞.Z (uvw. Transformacion de un vector aleatorio Haciendo el cambio de variable x = 1/v se obtiene fX/Y (u) = = ∞ −∞ ∞ −∞ fX. Demuestre que la variable X/(Y Z) tiene funci´n o de densidad f (u) = ∞ −∞ ∞ −∞ fX. Sean X y Y independientes con distribuci´n normal est´ndar. Z) un vector absolutamente continuo con funci´n de o densidad fX. y. o Las f´rmulas para la funci´n de densidad de las operaciones b´sicas entre dos o o a variables aleatorias encontradas en este cap´ ıtulo se resumen en la siguiente tabla.Y (ux.1/Y (ux. z). 1/x)|x| dx fX. . 1). Ejercicio.

Y (uv.Y (u/v. v) dv fX. producto y cociente de dos variables aleatorias absolutamente continuas ∞ −∞ fX+Y (u) = fX−Y (u) = fXY (u) = fX/Y (u) = ∞ −∞ fX. v) |1/v| dv ∞ −∞ fX. v) dv ∞ −∞ fX.Y (u + v. Transformaciones 251 ´ Formulas para la suma. diferencia.Cap´ ıtulo 5. v) |v| dv .Y (u − v.

Sea X con distribuci´n exp(λ). Encuentre la funci´n de densidad o o de X 2 . Encuentre la distribuci´n de Y = 1/X cuando X tiene distribuci´n: o o a) unif(0. Deo o muestre que Y = F (X) tiene distribuci´n unif[0. b) exp(λ). Encuentre la funci´n de densidad y de o o distribuci´n de la variable Y = 1 − exp(−λX). Ejercicios Transformaci´n de una variable aleatoria o 423. b) unif(−1. Demuestre que o f|X| (x) = fX (−x) + fX (x) 0 si x > 0. Sea X continua con funci´n de densidad fX (x). 2π). c) exp(λ). b) Y = cos(X).3. Encuentre la o funci´n de densidad de la variable o a) Y = sen(X). o 424. 1). 425. 1). 1]. Ejercicios 5. 428. 427. cuando X o tiene distribuci´n o a) unif(0. Sea X con distribuci´n unif(−1. 1). Sea X absolutamente continua con funci´n de distribuci´n F (x).3. 426. Sea X con distribuci´n uniforme en el intervalo (0. 1). Encuentre la distribuci´n de Y = X n para cada n en N.252 5. si x ≤ 0. 429. o .

Encueno tre la funci´n de densidad del vector o a) (X. b). b) (X + Y. 1). V ) = (X + Y. Demuestre que la o funci´n de densidad del vector (U. v) = λ2 e−λv si 0 < u < v. Sean X y Y independientes cada una con distribuci´n exp(λ).V (u. u(1 − v))u.Y (uv. v) = fX. X − Y ). 1). |Y − X|). 0 otro caso. 433. Θ) = ( X 2 + Y 2 . X + Y ) tiene funci´n de densidad o f (u. Sea (X. Encuentre la funci´n de densidad del vector {(x. Transformaci´n de un vector aleatorio o 432.Cap´ ıtulo 5. Sean X y Y independientes ambas con distribuci´n unif(0. Y ) un vector con distribuci´n uniforme en el c´ o ırculo unitario 2 + y 2 ≤ 1}. X/(X + Y )) es o fU. X − Y ). 436. Eno cuentre la funci´n de densidad del vector o a) (X + Y. . si x ≤ 0. Encuentre la distribuci´n de la vao o riable aleatoria Y = X/(b − X). X + Y ). Sea X con distribuci´n unif(a. Sean X y Y independientes ambas con distribuci´n unif(−1. Encuentre la funci´n de densidad de Y o de densidad   1/2 fX (x) = 1/(2x2 )  0 253 = 1/X cuando X tiene funci´n o si 0 < x ≤ 1. 434. Y ) con funci´n de densidad fX. y). Deo muestre que el vector (X. arctan(Y /X)). c) (X − Y. Sea (X.Y (x. y) : x o (R. Transformaciones 430. si x > 1. b) (X. 431. Y − X). 435.

1). Encuentre la funci´n de densidad de la suma de dos variables aleatorias o independientes cada una de ellas con funci´n de densidad o a) f (x) = 2x. Encuentre la funci´n de densidad de la suma de dos variables aleatoo rias independientes cada una de ellas con distribuci´n: a) unif(0. o b) exp(λ). c) f (x) = (1 + x)/2. 1). 440. y) = e−y . para 0 < x. 438. Encuentre la funci´n de densidad de la suma de dos variables aleatorias o independientes X y Y . 439. y) = 8xy. 1). 1) × (−1. o o 441. 0) y Y tiene distribuci´n unif(0. 1). para −1 < x < 1.254 5.3. 1) × o (−1. y > 0. tales que a) X tiene distribuci´n unif(−1. b) f (x) = 6x(1 − x). d) f (x. Encuentre la funci´n de densidad de la suma de tres variables aleatoo rias con distribuci´n conjunta uniforme en el cubo (−1. e) f (x. para x. o o b) X tiene distribuci´n unif(0. para 0 < x < 1. y < 1. Encuentre la funci´n de densidad de la suma de dos variables aleatorias o con distribuci´n conjunta uniforme en el cuadrado (−1. para 0 < x < y. 0 < y < b. o 442. 1) × (−1. para 0 < x < a. para 0 < x < 1. ab b) f (x. y) = e−x−y . para 0 < x < y < 1. c) f (x. y) = 4x(1 − y). Ejercicios Distribuci´n de la suma o 437. y) = 1 . . Encuentre la funci´n de densidad de la suma de dos variables aleatorias o cuya funci´n de densidad conjunta es o a) f (x. 1) y Y tiene distribuci´n exp(λ).

Cap´ ıtulo 5. Transformaciones 255 443. n 444. λ). cada una de ellas con distribuci´n exp(λ). o 447. . . o o M´s generalmente. Encuentre la funci´n de densidad de la suma de n variables aleatorias o con distribuci´n conjunta uniforme en el hipercubo o (−1. . y varianza la suma de las varianzas. 2 o 445. λ). en donde la suma se efect´a sobre todos los posibles valores enteros k que la variable aleau toria Y puede tomar. Sean c1 . Xn independientes y con id´ntica distribuci´n N(µ. λ) y gama(m. 1) × · · · × (−1. cada una de ellas con distribuci´n normal. k=1 k=1 2 c2 σk ). . tiene distribuci´n gama(2. tiene nuevamente distribuci´n o o normal. cn constantes dadas. Demuestre que la suma de dos variables aleatorias independientes. Sean X1 . Demuestre que la suma de dos variables aleatorias independientes. . . . . independientes y con valores enteros. tiene diso tribuci´n gama(n. Sean X1 . k 446. no todas cero. e o Demuestre que la media muestral dada por (X1 + · · · + Xn )/n tiene distribuci´n N(µ. 449. o 448. cada una de ellas con distribuci´n exp(λ). . Sean X y Y son discretas. λ). . λ). . Demuestre que fX+Y (u) = k fX (u − k)fY (k). . . Demuestre que la suma de dos variables aleatorias independientes con distribuci´n gama(n. tiene distribuci´n gama(n + o o m. . σ 2 /n). demuestre que la suma de n variables aleatorias a independientes. . 1) . n. σ 2 ). Xn independientes en donde Xk tiene distribuci´n N(µk . . . σk ) para k = 1. Demuestre que n n n k=1 ck Xk ∼ N( ck µk . con media la suma de las medias.

para 0 < x < y. 454. Encuentre la funci´n de densidad de X − Y . . 452.. Encuentre la funci´n de densidad de X − Y . 1). o b) exp(λ).Xn (u − v2 − · · · − vn . Aplique esta f´rmula para encontrar la funci´n de densidad de la suma o o de n variables aleatorias independientes. Demuestre que la variable X1 + · · · + Xn tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 .. 1). Sea (X1 ..3. para 0 < x < 1.256 5. para 0 < x < 1. Ejercicios 450. y) = 1 .. . . Encuentre la funci´n de densidad de X − Y . Encuentre la funci´n de densidad de X − Y . e) f (x. 1). v2 . c) f (x) = (1 + x)/2. para (X. cuando X y Y son indeo pendientes y ambas con funci´n de densidad o a) f (x) = 2x. en donde cada sumando tiene distribuci´n unif(0. para 0 < x < a. c) f (x. y > 0. . ab b) f (x. 0 < y < b. o o . para 0 < x < y < 1. vn ) dv2 · · · dvn . . y < 1. y) = e−x−y . d) f (x. o Distribuci´n de la diferencia o 451. . Y ) un vector o con funci´n de densidad o a) f (x. para x. para −1 < x < 1. 2) y Y tiene distribuci´n unif(0. b) f (x) = 6x(1 − x). cuando X y Y son indeo pendientes y tales que a) X tiene distribuci´n unif(1. y) = 4x(1 − y). . cuando X y Y son indeo pendientes y ambas con distribuci´n: a) unif(0. . y) = 8xy. y) = e−y . 453. para 0 < x. Xn ) un vector aleatorio absolutamente continuo.

. o o 459. Sean X y Y son discretas.. . . 1). Xn son ino dependientes y cada una de ellas tiene distribuci´n unif(0.. con media la diferencia de las medias. Z) un vector aleatorio absolutamente continuo. v2 .. 456. Y.Xn (u + v2 + · · · + vn . . y varianza la suma o de las varianzas. independientes y con valores enteros. Sea (X1 . . . Z) un vector aleatorio absolutamente continuo. xn ). . Demuestre que fX−Y (u) = k fX (u + k)fY (k). Transformaciones 257 b) X tiene distribuci´n exp(λ) y Y tiene distribuci´n unif(0. en donde la suma se efect´a sobre todos los posibles valores enteros k que la variable aleau toria Y puede tomar. Demuestre que la diferencia de dos variables aleatorias independientes ambas con distribuci´n uniforme en el intervalo o (a − 1/2. . Aplique esta f´rmula al caso cuando las variables X1 . Encuentre una f´rmula para la funci´n de densidad de la variable X + Y − Z. Xn ) un vector absolutamente continuo con funci´n de o densidad fX1 . . cada una de ellas con distribuci´n normal. . Demuestre que la variable X1 − X2 − · · · − Xn tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 . 457. a + 1/2) tiene funci´n de densidad o f (u) = 1 − |u| 0 si − 1 < u < 1.Xn (x1 . Sea a una constante. . . o o 460.. Encuentre una f´rmula para la funci´n de densidad de la variable X − Y + Z. otro caso... Sea (X. o o 455.. Demuestre que la diferencia de dos variables aleatorias independientes. 1). . .Cap´ ıtulo 5. . . o .. tiene nuevamente distribuo ci´n normal. Y. Sea (X. vn ) dv2 · · · dvn . 458.

463.. tales que a) X tiene distribuci´n unif(−1. . . Ejercicios Distribuci´n del producto o 461. Encuentre la funci´n de densidad del producto de dos variables aleao torias independientes X y Y .. y) = e−y .Xn ( u 1 . . . 1)..3. para 0 < x < y < 1. 1) y Y tiene distribuci´n exp(λ). 0 < y < b. Demuestre que la variable producto X1 · · · Xn tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 .. b) exp(λ). y) = 8xy. . para −1 < x < 1. para 0 < x < y. v2 .. para x. Sea (X1 . . para 0 < x. c) f (x. .. y < 1. y) = 4x(1 − y).. vn ) | | dv2 · · · dvn . o o b) X tiene distribuci´n unif(0. 0) y Y tiene distribuci´n unif(0. . e) f (x. 464. . para 0 < x < 1. Encuentre la funci´n de densidad del producto de dos variables aleao torias cuya funci´n de densidad conjunta es o a) f (x. d) f (x.Xn (x1 . . 1). y > 0. c) f (x) = (1 + x)/2. 1).. Encuentre la funci´n de densidad del producto de dos variables aleatoo rias independientes ambas con distribuci´n: a) unif(0. y) = e−x−y . para 0 < x < a. b) f (x) = 6x(1 − x). ab b) f (x. o 462.258 5. . . Encuentre la funci´n de densidad del producto de dos variables aleao torias independientes cada una de ellas con funci´n de densidad o a) f (x) = 2x. para 0 < x < 1. o o o 465. v2 · · · vn v2 · · · vn Aplique este resultado al caso cuando todas las variables son independientes y cada una de ellas tiene distribuci´n unif(0. y) = 1 . o . xn ). Xn ) un vector absolutamente continuo con funci´n de densidad fX1 .

para 0 < x < y < 1. 0) y Y tiene distribuci´n unif(0. . o o b) X tiene distribuci´n unif(0... o 471. . . Sean X y Y independientes con distribuci´n exp(λ). Sea (X1 .Xn (uv2 · · · vn . 467. vn ) |v2 · · · vn | dv2 · · · dvn .. . . . Xn ) un vector absolutamente continuo con funci´n de o densidad fX1 . f ) f (x. para 0 < x < y. 1). . para x. . Encuentre la o funci´n de densidad de X/(X + Y ). y) = ab b) f (x. Encuentre la funci´n de densidad de X/Y para (X. a) f (x. 0 < y < b. . Transformaciones 259 Distribuci´n del cociente o 466. . e) f (x. y > 0. v2 . Demuestre que la variable X1 /(X2 · · · Xn ) tiene funci´n de densidad o f (u) = ∞ −∞ ··· ∞ −∞ fX1 . . para −1 < x < 1. para 0 < x < 1. xn ). d) f (x.. Encuentre la funci´n de densidad de X/Y cuando X y Y son indeo pendientes y ambas con funci´n de densidad o a) f (x) = 2x. . para 0 < x < 1.. o 468.. para 0 < x. 1). o o 470.Xn (x1 . c) f (x) = (1 + x)/2. y) = e−y . y) = 2e−x−y .Cap´ ıtulo 5. y < 1. y) = 8xy. para 0 < x < y. b) f (x) = 6x(1 − x). y) = e−x−y .. c) f (x. Encuentre la funci´n de densidad de X/Y cuando X y Y son indeo pendientes y son tales que a) X tiene distribuci´n unif(−1. y) = 4x(1 − y).. . b) exp(λ). 469. Encuentre la funci´n de densidad de X/Y cuando X y Y son indeo pendientes y ambas con distribuci´n: a) unif(0. 1) y Y tiene distribuci´n exp(λ). Y ) un vector con o funci´n de densidad o 1 para 0 < x < a.

Ejercicios Aplique este resultado al caso cuando X.3.260 5. 1). Y y Z son independientes cada una de ellas con distribuci´n unif(0. o .

Por lo tanto. ´ Definicion. 261 . Xn . que cumplen la condici´n o de ser independientes y de tener cada una de ellas la misma distribuci´n.d. u n A menudo se escribe m.i. . .a. y se e usan las siglas v. . es una colecci´n e o de v. (Muestra aleatoria). . (Estad´ ıstica).a. y g : Rn → R es una funci´n Borel medible. Una estad´ ıstica es una variable aleatoria de la forma g(X1 . ´ Definicion. o Al n´mero n se le llama tama˜o de la muestra aleatoria. una m. Se a o estudian tambi´n algunas f´rmulas para las distribuciones de las estad´ e o ısticas de orden de una muestra aleatoria.i.d. . . . para abreviar el t´rmino muestra aleatoria. Xn ).i. Una muestra aleatoria es una o colecci´n de variables aleatorias X1 .i.a. en donde X1 . . Xn es una muestra aleatoo ria. . . .Cap´ ıtulo 6 Distribuciones muestrales y estad´ ısticas de orden En este cap´ ıtulo se estudian algunas distribuciones de probabilidad que surgen en la estad´ ıstica y otras ´reas de aplicaci´n de la probabilidad. para denotar el t´rmino variables aleatorias indepene dientes e id´nticamente distribuidas.a. .

por ejemplo. Observe que en el denominador aparece el n´mero de sumandos menos uno. respectivamente.a. . Este es un resultado interesante e inesperado. . resulta que la media y la varianza muestrales son independientes. Utilizaremos este resultado m´s adelante. Sea X1 .262 Ejemplo. Eno ¯ tonces las estad´ ısticas X y S 2 son independientes. cuando la muestra aleatoria proviene de una distribuci´n noro mal. no es a o dif´ verificar su no validez para una muestra aleatoria de la distribuci´n ıcil o Bernoulli. u La media y la varianza muestrales tienen la caracter´ ıstica de ser estimadores insesgados para la media y la varianza. σ 2 ). y la demostraci´n puede encono trarse en [20]. i=1 ¯ Observe que X es una combinaci´n lineal de los elementos de la m. denotada por S 1 S = n−1 2 n i=1 ¯ (Xi − X)2 . Xn una m. La proposici´n reci´n enunciada a o e no es v´lida para cualquier distribuci´n de probabilidad. de la distribuci´n N(µ. .a. Otro ejemplo importante de estad´ ıstica 2 y definida como sigue es la varianza muestral. y por o lo tanto es una variable aleatoria. . En particular. La media muestral es una ¯ estad´ ıstica denotada por X y definida como sigue 1 ¯ X= n n Xi . . (Media y varianza muestral). de una distribuci´n o cualquiera. ´ Proposicion.

Si X ∼ N(0. . ´ Distribucion ji-cuadrada. Distribuciones muestrales Se estudian a continuaci´n algunas distribuciones que surgen en la estad´ o ıstica al considerar funciones de una muestra aleatoria. La variable aleatoria continua X tiene una distribuci´n ji-cuadrada con n > 0 grados de libertad. si su funci´n de o o densidad es   1 1 n/2 n/2−1 −x/2  x e si x > 0. en particular. o Puede demostrarse que E(X) = n. En este caso se escribe X ∼ χ2 (n). Γ(n/2) 2 f (x) =   0 si x ≤ 0.Cap´ ıtulo 6. El t´rmino χ2 se lee ji-cuadrada. Dist.1. Observe que la distribuci´n χ2 (n) con n = 2 se reduce a la distribuci´n exp(λ) con λ = 1/2. 1). y Var(X) = 2n.1. ´ Proposicion. entonces X 2 ∼ χ2 (1). la media y la varianza muestral. a o f (x) 1 2 n=1 n=2 n=3 n=4 x Figura 6.1: Funci´n de densidad χ2 (n). La e gr´fica de esta funci´n de densidad se muestra en la Figura 6. muestrales y estad´ ısticas de orden 263 6. o o La distribuci´n ji-cuadrada puede encontrarse como indican los siguientes o resultados.

. Este ligero cambio en la . Sean X1 . Sean X y Y independientes con distribuci´n ji-cuadrada o con grados de libertad n y m. o ´ Proposicion. para i = 1. . Esta es la funci´n de densidad de la distribuci´n χ2 (1). Es suficiente demostrar el resultado para el caso de dos vao riables aleatorias. respectivamente. Para x > 0. . Entonces o m i=1 Xi ∼ χ2 (n1 + · · · + nm ). . Demostraci´n. o o La suma de dos o mas variables aleatorias independientes con distribuci´n jio cuadrada es nuevamente una variable aleatoria ji-cuadrada. . Este es el contenido de la siguiente proposici´n. o √ √ 1 1 fX 2 (x) = fX ( x) √ + fX (− x) √ 2 x 2 x √ 1 = fX ( x) √ x 1 −x/2 1 √ = √ e x 2π = 1 Γ(1/2) 1 2 1/2 x1/2−1 e−x/2 . .1. Distribuciones muestrales Demostraci´n. m. . . y sus grados de libertad son la suma de los grados de libertad de cada uno de los sumandos.264 6. Xm independientes tales que cada Xi tiene distribuci´n χ2 (ni ).

Esta es la funci´n de densidad de la distribuci´n χ2 (n + m). o o El resultado anterior puede demostrarse de una manera m´s simple y elea gante usando la funci´n generadora de momentos o la funci´n caracter´ o o ıstica. para u > 0. m/2) Γ(n/2)Γ(m/2) 1 Γ((n + m)/2) 1 2 1 2 (n+m)/2 e−u/2 u(n+m)/2−1 (n+m)/2 e−u/2 u(n+m)/2−1 . Haciendo el cambio de variable w(v) = v/u se obtiene fX+Y (u) = 1 Γ(n/2)Γ(m/2) 1 0 1 2 (n+m)/2 e−u/2 u(n+m)/2−1 (1 − w)n/2−1 wm/2−1 dw. Entonces fX+Y (u) = = B(n/2. m/2). Dist. . La integral resultante es B(n/2. Por la f´rmula (5.Cap´ ıtulo 6. presentadas en el siguiente cap´ ıtulo. muestrales y estad´ ısticas de orden notaci´n evitar´ el uso de sub´ o a ındices.2). o u 265 fX+Y (u) = 0 u fX (u − v)fY (v) dv 1 Γ(n/2) 1 Γ(m/2) 1 2 1 2 n/2 = 0 (u − v)n/2−1 e−(u−v)/2 m/2 v m/2−1 e−v/2 dv 1 2 (n+m)/2 = 1 Γ(n/2)Γ(m/2) u 0 e−u/2 (u − v)n/2−1 v m/2−1 dv.

σ n−1 2 S ∼ χ2 (n − 1). σ2 . Sean X y Y independientes tales que X tiene distribuci´n o χ2 (n). Entonces o n i=1 (Xi − µ)2 ∼ χ2 (n). y X + Y tiene distribuci´n χ2 (m) con m > n. . Este es el contenido del ejercicio 572 en la p´gina 341. . .266 6. Como cada una de las variables Xi tiene distribuci´n N(µ. Xn independientes cada una con distribuci´n N(µ. Entonces N(µ. . . 1). Entonces Y tiene o distribuci´n χ2 (m − n). σ 2 ). En consecuencia. µ) o Ahora se enuncia un resultado cuya demostraci´n se pospone hasta que se o cuente con la poderosa herramienta de las funciones generadoras de momentos.1. . n. . . Por lo o tanto. Distribuciones muestrales ´ Proposicion. Sean X1 . . . Xn independientes con distribuci´n o 2 ). . Esto es una consecuencia sencilla de las dos proposiciones o anteriores. ´ Proposicion. Sean X1 . . σ 2 ). σ2 Demostraci´n. n (Xi − o i=1 2 /σ 2 tiene distribuci´n χ2 (n). entonces (Xi − µ)/σ tiene distribuci´n N(0. (Xi − µ)2 /σ 2 tiene distribuci´n χ2 (1). o para i = 1. a ´ Proposicion. o Con ayuda de esta proposici´n se demuestra ahora el siguiente resultado de o particular importancia en estad´ ıstica.

o n i=1 n 267 (Xi − µ)2 = = i=1 n i=1 ¯ ¯ [(Xi − X) + (X − µ)]2 ¯ ¯ (Xi − X)2 + n(X − µ)2 . Se puede demostrar tambi´n que E(X) = 0.2. Se muestran a continuaci´n algunas formas en las que surge a o esta distribuci´n. Dividiendo entre σ 2 . n i=1 ¯ 1 n−1 2 X −µ (Xi − µ)2 = S + ( √ )2 . σ2 σ2 σ/ n El t´rmino del lado izquierdo tiene distribuci´n χ2 (n). Dist. cuya gr´fica se muestra en la Figura 6. Cuando el valor del par´metro n es igual a uno se obtiea ne la distribuci´n Cauchy. La variable aleatoria continua X tiene una distribuci´n t o de Student con n > 0 grados de libertad si su funci´n de densidad est´ dada o a por Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . se concluye que el primer sumando del lado derecho tiene distribuci´n χ2 (n − 1). y o e Var(X) = n/(n − 2). o . cualitativamente es muy parecida a a la densidad normal est´ndar.Cap´ ıtulo 6. Por la proposici´n o o ¯ anterior. para n > 2. nπ Γ(n/2) para − ∞ < x < ∞. a En este caso se escribe X ∼ t(n). y recordando que X y S 2 son independientes. muestrales y estad´ ısticas de orden Demostraci´n. mientras que el see o gundo sumando del lado derecho tiene distribuci´n χ2 (1). La primera igualdad establece que esta distribuci´n se encuentra siempre centrada en cero para cualquier valor del o par´metro n. Esta distribuci´n apareci´ por primera o o vez en 1908 en un trabajo publicado por William Gosset bajo el seud´nio mo de Student. o ´ Distribucion t.

con o o −1 (s. la funci´n de densidad conjunta de X y o o Y es. o ´ Proposicion. tn−2 . Distribuciones muestrales f (x) n = 100 n=3 n=1 x Figura 6. t) = Por lo tanto fS.T (s. Entonces X ∼ t(n). 1 1 2 fX.Y (x. El Jacobiano de la transformaci´n inversa es inversa ϕ o J(s. ns2 /t2 ). y) = √ e−x /2 Γ(n/2) 2π 1 2 n/2 y n/2−1 e−y/2 . para y > 0. Sean X ∼ N(0. nn/2−1 sn−2 −ns2 /2t2 e 2ns2 /t3 . 1) y Y ∼ χ2 (n) independientes.1. t) = (s. x/ y/n).268 6. Se aplica la f´rmula (5. y) = (x. Por independencia. t) = fX (s)fY (ns2 /t2 ) · 2ns2 /t3 = 1 1 2 √ e−s /2 Γ(n/2) 2π 1 2 n/2 ∂x/∂s ∂x/∂t ∂y/∂s ∂y/∂t = 1 0 2 −2ns2 /t3 2sn/t = −2ns2 /t3 .2: Funci´n de densidad t(n).1) para la transformaci´n ϕ(x. Y /n Demostraci´n.

Xn una m. σ 2 ). de donde obtenemos dr = s(1 + n/t2 )ds. o Entonces ¯ X −µ √ ∼ t(n − 1). El siguiente resultado es usado en estad´ ıstica para efectuar estimaciones de la media de una poblaci´n normal cuando la varianza es desconocida. Simplemente se aplica la proposici´n reci´n demostrada a o o e las variables aleatorias independientes ¯ X −µ √ ∼ N (0. Salvo o o la constante Γ((n + 1)/2). muestrales y estad´ ısticas de orden Integrando respecto a s. de una distribuci´n N(µ. y entonces fT (t) = = 1 nn/2 √ 2π 2n/2−1 Γ(n/2)tn+1 2 1 + n2 2 2t 1 Γ((n + 1)/2) √ . σ2 . S/ n Demostraci´n. λ) con λ = 1. . . la ultima integral corresponde a la densidad ´ gama((n + 1)/2. Dist. 1 nn/2 fT (t) = √ 2π 2n/2−1 Γ(n/2)tn+1 ∞ 0 269 sn e−s 2 (1+n/t2 )/2 ds. o ´ Proposicion.a. . nπ Γ(n/2) (1 + t2 /n)(n+1)/2 ∞ (n+1)/2 0 r (n−1)/2 e−r dr correspondiente a la funci´n de densidad de la distribuci´n t(n). Ahora efectuamos el cambio de variable r(s) = s2 (1 + n/t2 )/2. Sea X1 .Cap´ ıtulo 6. 1) σ/ n y n−1 2 S ∼ χ2 (n − 1). .

Distribuciones muestrales ´ Distribucion F.1. n(m − 2)2 (m − 4) Los siguientes dos resultados indican la forma de obtener esta distribuci´n. m).3: Funci´n de densidad F (n. o f (x) 3/4 n=4 m = 100   Γ((n + m)/2) n  Γ(n/2) Γ(m/2) m f (x) =   0 n/2 xn/2−1 1 + n x m −(n+m)/2 si x > 0. n=1 m=5 x Figura 6. En la Figura 6. para m > 2. para m > 4.270 6. m). m−2 2m2 (m + n − 2) . si x ≤ 0. La variable aleatoria continua X tiene una distribuci´n o F de Snedecor con par´metros n > 0 y m > 0 si su funci´n de densidad es a o Se escribe X ∼ F(n. o .3 se muestra el comportamiento de esta funci´n de densidad. o Puede demostrarse que E(X) = y Var(X) = m .

fX/n (x) = nfX (nx). Xn . El resultado se sigue f´cilmente de la aplicaci´n de la sio a o guiente f´rmula general. Y /m Demostraci´n. podemos evaluar cada una de estas variables en un punto muestral ω cualquiera y obtener una colecci´n de o n´meros reales X1 (ω). Xn (ω). tenemos entonces la colecci´n no decreciente de n´meros reales o u X(1) (ω) ≤ · · · ≤ X(n) (ω). Entonces X/n ∼ F(n. y por la simetr´ de la distribuci´n t. 2 x x 6. entonces X 2 ∼ F(1. muestrales y estad´ ısticas de orden 271 ´ Proposicion. Estad´ ısticas de orden Dada una muestra aleatoria X1 . . n).Cap´ ıtulo 6. . . ´ Proposicion. . m). Sean X ∼ χ2 (n) y Y ∼ χ2 (m) independientes. Esta afirmaci´n se obtiene directamente de la aplicaci´n de o o o la f´rmula para la funci´n de densidad del cociente de dos variables aleatoo o rias. Si X(i) (ω) denota el i-´simo n´mero e u ordenado. Para x > 0.2. . Estos n´meros pueden ser ordenados de u u menor a mayor incluyendo repeticiones. . . . . Recuerde que para n > 0. Dist. Si X ∼ t(n). Demostraci´n. o ıa o √ √ √ 1 1 fX 2 (x) = ( fX ( x) + fX (− x) ) √ = fX ( x) √ .

Tenemos entonces la siguiente definici´n. . . . A X(i) se le llama i-´sima estad´ e ıstica de orden. que por simplicidad se o supondr´ absolutamente continua. . . es una funci´n o de todas las variables de la muestra aleatoria. ın ın X(3) = m´ {X1 . . . Xn }. Observe que. Nuestro objetivo es encontrar algunas f´rmulas relacionadas con las distrio buciones de probabilidad de las estad´ ısticas de orden cuando se conoce la distribuci´n de las variables de la muestra aleatoria. . Xn es una muestra aleatoria en donde cada variable tiene funci´n de densidad f (x) y funci´n de distribuci´n F (x). . . . A X(1) se le llama primera estad´ ıstica de orden. . aunque los elementos de la muestra aleatoria son variables aleatorias independientes. . . . . sino que. . . etc. Xn una muestra aleatoria. o ´ Definicion. (Estad´ ısticas de orden). En lo que resta del cap´ a ıtulo supondremos entonces que X1 . a X(2) se le llama segunda estad´ ıstica de orden. i = 1. X(2) }. . pues deben a mantener la relaci´n X(1) ≤ X(2) ≤ · · · ≤ X(n) . . o o o . X(2) = m´ {X1 . . . las estad´ ısticas de orden no lo son. Estad´ ısticas de orden Ahora hacemos variar el argumento ω y lo que se obtiene son las as´ llaı madas estad´ ısticas de orden. Xn } \ {X(1) }. Xn } \ {X(1) . . . . se les conoce con el nombre de estad´ ısticas de orden. . . . en general. Observe adem´s que la io ´sima estad´ e ıstica de orden X(i) no necesariamente es igual a alguna variable de la muestra aleatoria en particular. Sea X1 . n. . A las variables aleatorias ordenadas ın X(1) = m´ {X1 . X(n) = m´x a {X1 . . .272 6.2. Este proceso de ordenamiento resulta ser de importancia en algunas aplicaciones. Xn }.

Xn } ≤ x) a = P (X1 ≤ x. . . Xn ≤ x) = [P (X1 ≤ x)]n = [F (x)]n . Se procede de manera an´loga. . Se calcula primero la funci´n de distribuci´n. Xn } ≤ x) = 1 − P (m´ ın{X1 . 1. . Por lo tanto fX(n) (x) = nf (x) [F (x)]n−1 . 2. . . fX(1) (x) = nf (x) [1 − F (x)]n−1 . ´ Proposicion. . . Demostraci´n. Entonces fX(1) (x) = nf (x) [1 − F (x)]n−1 . fX(n) (x) = nf (x) [F (x)]n−1 . = 1 − P (X1 > x. . . muestrales y estad´ ısticas de orden 273 Distribuciones individuales Comenzamos encontrando la distribuci´n de la primera y de la ultima eso ´ tad´ ıstica de orden de manera individual. . Dist. Xn > x) . 2. . Para n ≥ 1. . . . . . a FX(n) (x) = P (X(n) ≤ x) = P (m´x{X1 . . . . o 1.Cap´ ıtulo 6. o o FX(1) (x) = P (X(1) ≤ x) = P (m´ ın{X1 . Xn } > x) = 1 − [P (X1 > x)]n = 1 − [1 − F (x)]n .

La funci´n de densidad de la i-´sima estad´ o e ıstica de orden es n fX(i) (x) = i f (x)[F (x)]i−1 [1 − F (x)]n−i . Compruebe que las expresiones encontradas para fX(1) y fX(n) son efectivamente funciones de densidad. Estad´ ısticas de orden Ejercicio. . Entonces o FX(i) (x) = P (X(i) ≤ x) n = P (Y1 + · · · + Yn ≥ i) j=i = n j [F (x)]j [1 − F (x)]n−j . Yn son independientes y cada una de ellas puede considerarse un ensayo Bernoulli con probabilidad de ´xito. Las variables e Y1 . igual e a P (Xi ≤ x) = F (x). . . en donde Xi es el i-´simo elemento de la muestra aleatoria. 0 si Xi > x.2. ´ Proposicion. con p = F (x). . Encuentre en particular las expresiones para estas funciones cuando las variables de la muestra tienen distribuci´n unif(0.274 6. 1). y por lo tanto o esta suma tiene distribuci´n bin(n. es decir tomar el valor 1. . o Ahora se presenta el resultado general acerca de la funci´n de densidad de o la i-´sima estad´ e ıstica de orden. p). i Demostraci´n.x] (Xi ) = 1 si Xi ≤ x. Para cada i defina la variable aleatoria o Yi = 1(−∞. Entonces la suma Y1 + · · · + Yn corresponde al n´mero u de variables aleatorias Xi que cumplen la condici´n Xi ≤ x.

x + h]. ∞). x + h] y (x + h. x]. o n! [F (x)]i−1 [F (x + h) − F (x)][1 − F (x + h)]n−i . muestrales y estad´ ısticas de orden Derivando y despu´s simplificando. En particular. x].Cap´ ıtulo 6. (x. y el resto n − i en (x + h. e n 275 fX(i) (x) = j=i n n j f (x)[F (x)]j−1 [1 − F (x)]n−j−1 [j(1 − F (x)) − (n − j)F (x)] jf (x)[F (x)]j−1 [1 − F (x)]n−j n j (n − j)f (x)[F (x)]j [1 − F (x)]n−j−1 = j=i n n j − = j=i n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . Verifique que esta densidad se reduce a o las encontradas antes cuando el ´ ındice i toma los valores 1 o n. Ejercicio. Sea h > 0 arbitrario. de acuerdo a la distribuci´n multinomial. encuentre la funci´n de densidad de la i-´sima estad´ o e ıstica de orden suponiendo que las variables de la muestra tienen distribuci´n unif(0. i−1 x 1 x+h n−i La probabilidad de que i − 1 variables de la muestra tomen un valor en el intervalo (−∞. y considere los siguientes tres intervalos ajenos (−∞. Dist. (i − 1)! 1! (n − i)! . Demuestre que la expresi´n encontrada para fX(i) (x) es efectio vamente una funci´n de densidad. o A continuaci´n se presenta un argumento corto e intuitivo que nos lleva o al mismo resultado. 1). ∞) es. una de ellas en (x.

. o FX(1) . Demostraci´n. Para x < y. Sea X1 . Dividiendo entre h. x < Xn ≤ y) Por lo tanto. . fX(1) . A la variable aleatoria R = X(n) − X(1) se le conoce como el rango de la muestra. Ahora se usa la f´rmula o fY −X (u) = ∞ fX. Xn una muestra aleatoria.Y (v. y despu´s haciendo h tender a cero se obtiene nuevamente e fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . fR (r) = n(n − 1) ∞ −∞ f (v)f (r + v)[F (r + v) − F (v)]n−2 dv. y) = n(n − 1)f (x)f (y)[F (y) − F (x)]n−2 . o o ´ Proposicion. Para r > 0. El siguiente resultado provee de una f´rmula para la funci´n de densidad de esta variable. . .X(n) (x. para n ≥ 2. . . . Estad´ ısticas de orden Esta probabilidad es aproximadamente igual a fX(i) (x)h. y) = P (X(1) ≤ x.5) para la diferencia de dos variables aleatorias. u + v) dv −∞ equivalente a (5. X(n) ≤ y) = P (X(n) ≤ y) − P (X(n) ≤ y.276 6. .X(n) (x. fX(n) −X(1) (r) = n(n − 1) ∞ −∞ f (v)f (r + v)[F (r + v) − F (v)]n−2 dv. X(1) > x) = [F (y)]n − [F (y) − F (x)]n . = [F (y)]n − P (x < X1 ≤ y. Entonces para r > 0. .2.

otro caso. ... Se considera la funci´n de distribuci´n conjunta de todas las o o o estad´ ısticas de orden. despu´s se considera la distribuci´n o e o conjunta de cualesquiera dos. . El primer resultado trata acerca de la distribuci´n conjunta de todas ellas. . . . Demostraci´n.X(n) (x1 . . . se obtiene la expresi´n o FX(1) . y despu´s se deriva n veces para encontrar la funci´n e o de densidad. Distribuciones conjuntas Se presentan a continuaci´n dos resultados acerca de la distribuci´n cono o junta de las estad´ ısticas de orden. xn ) = P (X(1) ≤ x1 . . 1)..X(n) (x1 . . . X(n) ≤ xn ). . . X(2) ≤ x1 . . .. ...X(n) (x1 . . Como (X(2) ≤ x2 ) = (x1 < X(2) ≤ x2 ) ∪ (X(2) ≤ x1 ).. muestrales y estad´ ısticas de orden 277 Ejercicio. .Cap´ ıtulo 6. . Dist. . x1 < X(2) ≤ x2 . X(n) ≤ xn ). Demuestre que la funci´n de densidad de la distancia o m´xima entre cualesquiera dos puntos es a f (r) = n(n − 1)r n−2 (1 − r) 0 si 0 < r < 1. Para x1 < · · · < xn . ´ Proposicion. X(2) ≤ x2 . ... Para x1 < x2 < · · · < xn . xn ) = P (X(1) ≤ x1 . fX(1) . .. xn ) = n! f (x1 ) · · · f (xn ). Se escogen n puntos al azar con distribuci´n uniforme en el ino tervalo unitario (0. FX(1) . X(n) ≤ xn ) + P (X(1) ≤ x1 . . . . ...

n! [F (x1 + h) − F (x1 )] · · · [F (xn + h) − F (xn )]. Demuestre que la expresi´n encontrada para la funci´n de deno o sidad conjunta de las estad´ ısticas de orden es efectivamente una funci´n de o densidad multivariada. V´ase e la Figura 6.. . . Sean x1 < x2 < · · · < xn . . .X(n) (x1 ..278 6. Estad´ ısticas de orden Observe que el segundo sumando no depende de x2 . xn−1 < X(n) ≤ xn ). . cada una de ellas. . . . este t´rmino desaparece. . o La siguiente demostraci´n es una prueba corta pero no formal del mismo o resultado. x2 + h]. xn−1 < X(n) ≤ xn ) = n! P (X1 ≤ x1 . . . . asi es que al tomar la derivada respecto de esta variable. (xn . . Encuentre adem´s esta funci´n cuando las variables a o de la muestra tienen distribuci´n unif(0. x1 < X(2) ≤ x2 . x1 + h]. de acuerdo a la distribuci´n o o multinomial.4.2. De manera e an´loga procedemos con los eventos (X(3) ≤ x3 ) hasta (X(n) ≤ xn ). y h > 0 suficientemente peque˜a tal n que los intervalos (x1 . Ejercicio. La probabilidad de que las variables aleatorias tomen valores. Al final a se obtiene fX(1) . xn + h] son ajenos. . Ahora solo resta derivar para encontrar o el resultado buscado. . xn ) = ∂n P (X(1) ≤ x1 . . la distribuci´n multio nomial asegura que P (X(1) ≤ x1 . . 1).. . xn−1 < Xn ≤ xn ) = n! F (x1 )[F (x2 ) − F (x1 )] · · · [F (xn ) − F (xn−1 )]. x1 < X2 ≤ x2 . ∂x1 · · · ∂xn Como ahora los intervalos involucrados son disjuntos. en donde la ultima igualdad se sigue de la independencia e id´ntica distribu´ e ci´n de las variables de la muestra.. 1! · · · 1! . (x2 . siendo m´s sencillo encontrar las derivadas en el orden a inverso. . x1 < X(2) ≤ x2 . en uno y s´lo uno de estos intervalos es. .

X(j) (x. . . . (x + h. fX(1) . La probabilidad de que i − 1 variables de la muestra tomen un valor en .. (x. .5: Esta probabilidad es aproximadamente igual a fX(1) . y (y + h.. xn )hn . y + h]. ∞) para h > 0 suficientemente peque˜a. j − i.. ´ Proposicion. . Dist. x + h]. (y.X(n) (x1 .4: xn i−1 x 1 j−i−1 y 1 y+h n−j x+h Figura 6. muestrales y estad´ ısticas de orden 279 x1 x2 ······ Figura 6.Cap´ ıtulo 6. Dividiendo entre hn . Para x < y. Ahora nos interesa encontrar una f´rmula para la densidad conjunta de o cualesquiera dos estad´ ısticas de orden. . Sean x < y y considere los intervalos ajenos (−∞. y]. .X(n) (x1 .5. y despu´s haciendo h tender a cero se obtiene. una vez e mas. y) = n i.... n − j i(j − i) f (x)f (y) [F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j . v´ase n e la Figura 6. xn ) = n!f (x1 ) · · · f (xn ). x]. Suponga i < j. fX(i) .. Para este resultado se presenta unicamente el argumento intuitivo usado ´ antes.. .

1). y]. . Demuestre que la expresi´n encontrada para la funci´n de deno o sidad conjunta de las estad´ ısticas de orden X(i) y X(j) es efectivamente una funci´n de densidad bivariada. tomen un valor en (y + h. para r > 0 en donde R = X(n) − X(1) fX(1) . e o Ejercicio. de acuerdo a la distribuci´n multinomial. y) h2 . x]. o n! [F (x)]i−1 [F (x + h) − F (x)] (i − 1)! 1! (j − i − 1)! 1! (n − j)! [F (y) − F (x + h)]j−i−1 [F (y + h) − F (y)] [1 − F (y + h)]n−j .. n − j variables..280 6. . y el resto. n − j i(j − i) f (x)f (y)[F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j . x + h].X(j) (x.X(j) (x. para x < y e i < j .X(n) (x1 . una de ellas en (x. otra en (y.2. Encuentre adem´s esta funci´n cuando las o a o variables de la muestra tienen distribuci´n unif(0. Dividiendo entre h2 . j − i + 1 variables en (x + h. y despu´s haciendo h tender a cero se obtiene la f´rmula enunciada. para x1 < · · · < xn fX(i) . ∞) es. . y + h]. . ´ Formulas para las funciones de densidad de algunas estad´ ısticas de orden en el caso absolutamente continuo fX(1) (x) = nf (x) [1 − F (x)]n−1 fX(n) (x) = nf (x) [F (x)]n−1 fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i ∞ −∞ fR (r) = n(n − 1) f (v)f (r + v)[F (r + v) − F (v)]n−2 dv. Estad´ ısticas de orden (−∞. Esta probabilidad es aproximadamente igual a fX(i) . o Las f´rmulas para las funciones de densidad de las estad´ o ısticas de orden encontradas en este cap´ ıtulo se resumen en la siguiente tabla. xn ) = n! f (x1 ) · · · f (xn )... y) = n i. j − i.

. muestrales y estad´ ısticas de orden 281 6.a. . σ 2 ). con λ = 1/2. Sea X1 . . . Xn una m. λ). Sea X1 .3. Estos ¯ resultados son de utilidad en estad´ ıstica y muestran que X y S 2 son estimadores insesgados para la media y varianza de la distribuci´n. . Xn una muestra aleatoria de una distribuci´n con media o ¯ µ y varianza σ 2 . 478.Cap´ ıtulo 6. . . ¿Cu´nto vale Var(S 2 )? ¯ σ a o 474. . . . . Sea X1 . o 477. . de una distribuci´n con media µ y varianza o 2 . σ 2 /n . . . o 473. Demuestre que o a) E(X) = n.a. se reduce a la distribuci´n exp(λ) con λ = 1/2. Dist. compruebe que la distribuci´n χ2 (n). . Sea X con distribuci´n χ2 (n). . Sean X1 . Xn una m. . 2. Xn independientes cada una con distribuci´n N(µ. . para m = 1. de una distribuci´n Ber(p). o 476. se reduce a o la distribuci´n χ2 (n). En particular. Ejercicios Media y varianza muestral 472. b) E(X m ) = 2m Γ(m + n/2)/Γ(n/2). . o Demuestre que ¯ (X − µ)2 ∼ χ2 (1). c) Var(X) = 2n. Demuestre que ¯ y S 2 no son independientes. Demuestre que la funci´n de densidad de la distribuci´n χ2 (n) efeco o tivamente lo es. o con n = 2. Demuestre que E(X) = µ y E(S 2 ) = σ 2 . las estad´ ısticas X Distribuci´n χ2 o 475. Demuestre que Var(X) = σ 2 /n. Demuestre que la distribuci´n gama(n/2.

Xn independientes tales que cada variable Xi tiene dis2 tribuci´n N(µi . . . Demuestre que a n i=1 Xi2 ∼ χ2 (n). . . . Demuestre que la funci´n de densidad de una variable aleatoria X o con distribuci´n t(n) efectivamente lo es. σi ) para i = 1. u .282 6. . Sean X1 . . Ejercicios 479. Xn independientes cada una con distribuci´n normal o est´ndar. a 483. Demuestre que o n i=1 (Xi − µi )2 ∼ χ2 (n). .3. o b) tan θ tiene distribuci´n Cauchy. . o a √ Sean R = X 2 + Y 2 y θ = tan−1 (Y /X). Sean X1 . o c) R y θ son independientes. b) Var(X) = n/(n − 2). Sean X y Y independientes ambas con distribuci´n normal est´ndar. Demuestre adem´s que esta o a funci´n tiene un m´ximo en x = 0 y que o a a) E(X) = 0. Compruebe adem´s que esta distribuci´n se reduce a la distribuci´n a o o Cauchy cuando el valor del par´metro n es uno. n. . . pero ning´n otro momento de orden superior. Demuestre que la distribuci´n t(n+1) tiene momentos finitos de orden o menor o igual a n. 2 σi 481. para n > 2. . Distribuci´n t o 482. Demuestre que a) R2 tiene distribuci´n χ2 (n) con n = 2 grados de libertad. 480.

de una distribuci´n unif(0. Sea X con distribuci´n F(n. . de tama˜o dos n √ de una distribuci´n N(µ. m) efectivamente lo es. Sea X con distribuci´n F(n. . n + 1 − i). Demuestre que Y = 1/X tiene distrio buci´n F(m. . . 489. de la distribuci´n χ o Estad´ ısticas de orden: distribuciones individuales 487. X(2) las estad´ ısticas de orden de una m.a. 490. . Sea X1 . . Xn una m. Sean X(1) . . Sea x un n´mero o u real cualquiera. . σ 2 ). . Demuestre que cuando m tiende a o infinito la funci´n de densidad de nX converge a la funci´n de densidad o o 2 (n). . Encuentre la o funci´n de densidad de la i-´sima estad´ o e ıstica de orden. de una distribuci´n F (x). Xn una m. Yn son independientes. . de una distribuci´n exp(λ). y cada una . n). Demuestre o que la i-´sima estad´ e ıstica de orden tiene distribuci´n beta(i.a. Xn una m. . m). b) Var(X) = 2m2 (m para m > 2. . muestrales y estad´ ısticas de orden 283 Distribuci´n F o 484. m). . Dist. Sea X1 . Sea X1 . o Encuentre por lo tanto su esperanza y varianza. Demuestre adem´s que o a a) E(X) = m/(m − 2).Cap´ ıtulo 6.a.x] (Xi ). Demuestre que las variables Y1 . 486. n(m − 2)2 (m − 4) 485. . Demuestre que E[X(1) ] = µ − σ/ π y o calcule E[X(2) ]. . + n − 2) . Este o a resultado es util para obtener valores de F que no aparecen en tablas ´ de esta distribuci´n que son comunes en textos de estad´ o ıstica. 1).a. . n defina Yi = 1(−∞. . observe el cambio en el orden de los par´metros. 488. . y para cada i = 1. Demuestre que la funci´n de densidad de una variable aleatoria X con o distribuci´n F(n. para m > 4 . .

Xn }) = λk /(λ1 + · · · + λn ). Defina V = m´x{X. Demuestre que a) FU (u) = 1 − [1 − FX (u)][1 − FY (u)]. cuando X y X tienen la misma distribuci´n. Xn variables aleatorias independientes en donde Xk tiene distribuci´n exp(λk ). 1). Sean X1 . Xn } tiene distribuci´n exp(λ1 + · · · + λn ). Sean X y Y absolutamente continuas e independientes.284 6. 491. y que P (Xk = o m´ ın{X1 . . para k = 1. . 1). . Demuestre que la variable o m´ ın{X1 . .3. o 495. . Use el ejercicio anterior para encontrar la funci´n de densidad del o m´ ınimo de dos variables aleatorias independientes cada una de ellas con distribuci´n: a) unif(0. con p = F (x). c) fV (v) = 2F (v)f (v). . Defina U = m´ ın{X. cuando X y Y tienen la misma distribuci´n. c) fU (u) = 2[1 − F (u)]f (u). Y }. Y }. o 494. . o 493. . Sean X y Y absolutamente continuas e independientes. Ejercicios de ellas tiene distribuci´n Ber(p). . b) fU (u) = [1 − FX (u)]fY (u) + fX (u)[1 − FY (u)]. Este hecho fue utilio zado en el procedimiento para encontrar la funci´n de densidad de la o i-´sima estad´ e ıstica de orden. . b) exp(λ). . o 492. . b) fV (v) = FX (v)fY (v) + fX (v)FY (v). n. Demuestre que a a) FV (v) = FX (v)FY (v). . Use el ejercicio anterior para encontrar la funci´n de densidad del o m´ximo de dos variables aleatorias independientes cada una de ellas a con distribuci´n: a) unif(0. . . b) exp(λ). . .

Xn ). . .Cap´ ıtulo 6.X(j) (x. . . . .. . . para i = 1. xn ).. . A partir de la f´rmula para fX(1) . . 497. . 501. encontrando nuevamente que fX(1) (x) = nf (x)[1 − F (x)]n−1 . encontrando nuevamente que fX(n) (x) = nf (x)[F (x)]n−1 . calcule la funci´n o o de densidad marginal de X(1) . . . Encuentre o la funci´n de densidad de o a) X(1) y X(2) conjuntamente. encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . . 1). muestrales y estad´ ısticas de orden 285 Estad´ ısticas de orden: distribuciones conjuntas 496.. . 498. . 500. 2 . .X(n) (x1 . entonces   X( n+1 ) si n es impar.. y). Considere las estad´ ısticas de orden X(1) ≤ X(2) ≤ · · · ≤ X(n) . de una distribuci´n unif(−1. . xn ). calcule la funci´n o o de densidad marginal de X(n) . Dist. xn ). . . .X(n) (x1 .X(n) (x1 .. . A partir de la f´rmula para fX(i) . La mediana de una muestra aleatoria X1 . . . ... denotada por Med(X1 .. Xn ) =  1 [X n + X n  (2) ( 2 +1) ] si n es par. .a. b) R = X(n) − X(1) .. 499. n. calcule la funci´n de deno o sidad marginal de X(i) . . encontrando nuevamente que fX(i) (x) = n i i f (x)[F (x)]i−1 [1 − F (x)]n−i . . A partir de la f´rmula para fX(1) .. . . . calcule la funci´n o o de densidad marginal de X(i) .  2 Med(X1 . Xn . Sea X1 . . Mediana muestral. A partir de la f´rmula para fX(1) .. Xn una m. se define del siguiente modo..

Sea X1 . 504. 1). de tama˜o n de una distribuci´n: a) unif(0. . de una distribuci´n continua F (x) con funci´n de densidad f (x). 1). . 505. Xn una m. . . de una distribuci´n unif(0. Encuentre la funci´n de densidad conjunta de X(1) y X(n) para una o m. . 1). e 502.3. y despu´s para n par. Sea X1 . 1). .a. . primero suponiendo que el tama˜o o n de la muestra n es impar. y) = n(n − 1)f (x)f (y)[F (y) − F (x)]n−2 .286 6.a. Calcule el o coeficiente de correlaci´n entre X(i) y X(j) . Ejercicios Encuentre la funci´n de densidad de la mediana de una muestra aleao toria de la distribuci´n unif(0. . n o b) exp(λ).a. de tama˜o n de n una distribuci´n: a) unif(0. . Calcule la covarianza entre X(1) y X(n) para una m. o fX(1) . Demuestre directamente que para x < y. o o 503. Xn una m.a. o b) exp(λ).X(n) (x.

7. . En este cap´ ıtulo estudiaremos distintas formas en que una sucesi´n infinita de variables aleatorias puede converger de manera o general. Tipos de convergencia Convergencia puntual Sea X1 . Suponga que esta sucesi´n converge a un cierto n´mero o u real denotado por X(ω). . . F . estan todas ellas definidas.Cap´ ıtulo 7 Convergencia En este cap´ ıtulo se presenta una introducci´n al tema de convergencia de o variables aleatorias.1. X2 . . Si lo anterior se cumple para todos y cada uno 287 . Hist´ricamente este tema surge a trav´s de ciertas preo e guntas que se formularon acerca del comportamiento del promedio de va1 riables aleatorias n n Xi cuando n crece a infinito. X2 (ω). P ) en donde una sucesi´n ino finita de variables aleatorias X1 . . En la mayor´ de las situaciones que consideraremos supondremos ıa que existe un espacio de probabilidad (Ω. . X2 . . . . una sucesi´n infinita de variables aleatorias. En la ultima parte ´ i=1 del texto estudiaremos algunos resultados importantes sobre este comportamiento limite particular. Al evaluar cada o una de estas variables en un elemento ω se obtiene la sucesi´n num´rica o e X1 (ω).

1). a Entonces para cada ω ∈ [0. Xn (ω) = 1. (Convergencia puntual).1. 1). Xn (ω) 1 ω 1 Figura 7. y su l´ ımite es la funci´n X : Ω → R definida o naturalmente por X(ω) = l´ n→∞ Xn (ω). o ´ Definicion. y para cualquier valor de n. Formalmente se tiene entonces la siguiente definici´n. o e mientras que para ω = 1. La sucesi´n de variables aleao torias X1 . converge puntualmente a X si para cada ω en Ω. 1 si ω = 1. n→∞ l´ Xn (ω) = X(ω). y defina la sucesi´n o n .288 7. podemos graficar las u variables aleatorias como en la Figura 7. la sucesi´n num´rica Xn (ω) converge a 0. . entonces se dice que la sucesi´n de variables aleatoo rias converge puntualmente. ım Ejemplo. Se ha demostrado antes que en ım esta situaci´n la funci´n l´ o o ımite X es efectivamente una variable aleatoria. Considere el espacio medible ([0.1: Gr´fica de la variable aleatoria Xn (ω) = ω n . . Como en este caso el esde variables aleatorias continuas Xn (ω) = ω pacio muestral es un subconjunto de n´meros reales. . 1]. De esta manera la sucesi´n converge puntualmente a la variable aleatoria o X(ω) = 0 si ω ∈ [0. Tipos de convergencia de los elementos de Ω.1. B[0. . X2 . 1]).

X2 . La sucesi´n de variables o aleatorias X1 . no tiene una estructura algebraica excepto la dada por la σ-´lgebra y la medida de probabilidad. sin emo e bargo el subconjunto de Ω en donde esto suceda debe tener probabilidad . En caso afirmativo encuentre la variable aleatoria l´ ımiın{ω. 2N ).Cap´ ıtulo 7. . que la convergencia se verifique en todo el espacio Ω excepto en un subconjunto de probabilidad cero. n} c) Xn (ω) = m´x{ω. el espacio a o muestral en este caso. Considere el espacio medible (N. en la convergencia casi segura se permite que para algunos valores de ω. o o pero a diferencia de la situaci´n que se estudia en los cursos de an´lisis o a matem´tico. La forma en la que se utilia za esta medida de probabilidad es la que determina los distintos tipos de convergencia. Convergencia casi segura En algunas situaciones la convergencia puntual resulta ser una condici´n o muy fuerte pues se pide la convergencia de la sucesi´n evaluada en todos y o cada uno de los elementos del espacio muestral. (Convergencia casi segura). Determine si existe convergencia puntual para cada una de las siguientes sucesiones de variables aleatorias discretas. n} a te. ım n→∞ Es decir. . . por ejemplo. . la sucesi´n num´rica X1 (ω). pueda no converger. el dominio de definici´n de estas funciones. si P {ω ∈ Ω : l´ Xn (ω) = X(ω)} = 1. es decir. converge casi seguramente a la variable X. . . X2 (ω). Convergencia 289 Ejercicio. Se puede ser menos estricto y pedir. a) Xn (ω) = ω mod n b) Xn (ω) = m´ Una sucesi´n de variables aleatorias es entonces una sucesi´n de funciones. ´ Definicion.

A menudo se utiliza el t´rmino convergencia casi dondeım e n→∞ quiera. B[0.s. Esto demuestra que .s. El punto ω = 0 es el unico ´ punto muestral para el cual Xn (ω) no converge a cero.s.1. es decir. a Es decir. Considere el espacio de probabilidad ([0. la medida de probabilidad de un intervalo es su longitud. 1]. 1]. Es posible demostrar que el conjunto {ω ∈ Ω : Xn (ω) → X(ω)) es medible de modo que tiene sentido aplicar la probabilidad. Defina la sucesi´n de variables aleatorias como se muestran en la o Figura 7. la condici´n para la convergeno cia casi segura se escribe en la forma m´s corta: P ( l´ n→∞ Xn = X ) = 1. Puede tambi´n demostrarse e e que bajo este tipo de convergencia. Ejemplo. si Xn converge a X c. y tambi´n converge a Y c. o bien l´ Xn = X c. Para indicar la convergencia casi segura se escribe Xn −→ X. el cual tiene probabilidad uno. o a y converge casi seguramente a la variable aleatoria constante cero.s. Pero esta igualdad es evidente a partir del hecho de que el conjunto {ω ∈ Ω : Xn (ω) → 0} es el intervalo (0. Observe que omitiendo el argumento ω. el l´ ımite es unico casi seguramente. 1]. P ) con P la medida uniforme. la variable Xn tiene distribuci´n Bernoulli con par´metro p = 1/n. cero.2: Gr´fica de la variable aleatoria Xn (ω) = 1[0..1/n] (ω) 1 ω 1/n 1 Figura 7. Para demostrar esto se necesita verificar que P (Xn → 0) = 1. entonces X = Y e casi seguramente. a ım o simplemente P (Xn → X) = 1. es ´ decir.2. al respecto v´ase el ejercicio 506.290 7.1/n] (ω). o bien convergencia casi siempre para denotar este tipo de convergencia. Xn (ω) = 1[0. Tipos de convergencia c.

Demuestre que la siguiente sucesi´n o de variables aleatorias no converge para ning´n ω en Ω. P ). converge en probabilidad a X. 3/4). 1). A3 = (0. A5 = (2/3. X2 . A4 = (1/3. y omitiendo el argumento ω la condici´n se escribe l´ n→∞ P ( |Xn −X| > ǫ ) = 0. Convergencia en probabilidad Un tipo de convergencia a´n menos restrictiva que la convergencia casi u segura es la convergencia en probabilidad la cual se define a continuaci´n. (Convergencia en probabilidad). 1). 2/3). 291 Ejercicio. La sucesi´n de vao riables aleatorias X1 . o ´ Definicion. o ım Nuevamente puede comprobarse que el l´ ımite es unico casi seguramente. 1). . con P la medida uniforme.Cap´ ıtulo 7. 1). u Xn = 1A 1Ac si n es par. B(0. A8 = (2/4. 1/3). si n es impar. 1). 1/4). A7 = (1/4. Defina la sucesi´n de eventos o A1 = (0. . ım n→∞ Para denotar la convergencia en probabilidad se escribe Xn −→ X. A6 = (0. ´ Ejemplo. si para cada ǫ > 0. A9 = (3/4. 1/2). 2/4). l´ P {ω ∈ Ω : |Xn (ω) − X(ω)| > ǫ} = 0. Sea A un evento cualquiera. ······ p . A2 = (1/2. . Convergencia Xn −→ 0. Considere el espacio de probabilidad ((0. c.s.

3: Gr´ficas de las primeras variables aleatorias Xn = 1An . Tipos de convergencia Sea Xn = 1An . Sea X1 . . σ 2 ) y defina el promedio o n 1 Sn = n i=1 Xi . . . n→∞ X1 X2 1 1 1 X3 X4 1 X5 1 1 1 1 1 1 Figura 7. a En algunos casos la aplicaci´n de la desigualdad de Chebyshev resulta util o ´ para demostrar este tipo de convergencia como se muestra a continuaci´n. Use la desigualdad de Chebyshev para demostrar que p Sn → µ. ım ım n→∞ Por otro lado observe que esta sucesi´n de variables aleatorias no converge o casi seguramente pues el conjunto {ω ∈ Ω : l´ Xn (ω) existe} es vac´ ım ıo. o o Ejercicio. .3. Observe que el mismo argumento funciona para cualquier sucesi´n de variables aleatorias independientes id´nticamente distribuidas con o e varianza finita. Las gr´ficas de estas primeras variables aleatorias se muesa p tran en la Figura 7. X2 . Entonces Xn −→ 0 pues para cualquier ǫ > 0.1.292 7. una sucesi´n de variables aleatorias independientes cada una de ellas con distribuci´n N(µ. n→∞ l´ P (|Xn − 0| > ǫ) = l´ P (An ) = 0.

(Convergencia en media). . ´ Definicion. La sucesi´n de variables o aleatorias integrables X1 . Convergencia 293 Convergencia en media En este tipo de convergencia se usa la esperanza para determinar la cercan´ ıa entre dos variables aleatorias. o Xn −→ X. . M´s adelante a a demostraremos que la convergencia en media cuadr´tica implica la convera gencia en media. Ejercicio. La respuesta es ı o afirmativa. Use la desigualdad de Jensen para demostrar que si Xn → X. entonces E(Xn ) → E(X). m m L1 Convergencia en media cuadr´tica a Nuevamente usando el concepto de esperanza pero ahora aplicado al segundo momento se tiene la convergencia en media cuadr´tica. A partir de la definici´n de convergencia en media es inmediato preguntarse o si de all´ se sigue la convergencia de la sucesi´n de medias. converge en media a la variable aleatoria integrable X si l´ E|Xn − X| = 0. .Cap´ ıtulo 7. X2 . ım n→∞ A este tipo de convergencia tambi´n se le llama convergencia en L1 y se le e denota por Xn −→ X. .

En general puede definirse la convergencia en Lk .1. ım En este tipo de convergencia se presupone que tanto los elementos de la sucesi´n como el l´ o ımite mismo son variables aleatorias con segundo momento finito. o FXn → FX . e y se le denota por Xn −→ X. si n→∞ l´ E|Xn − X|2 = 0. La sucesi´n o a de variables aleatorias X1 . (Convergencia en distribucion).c. cuando se cumple la condici´n E|Xn −X|k → 0. converge en media cuadr´tica a X. (Convergencia en media cuadratica). Resulta que mientras mayor o es el valor de k. o bien Xn → FX .294 7. . converge en distribuci´n a X. L2 Convergencia en distribuci´n o Este es el tipo de convergencia menos restrictiva de todas las mencionadas. . si la distribuci´n l´ o ımite es la distribuci´n normal est´ndar. o Xn −→ X. a e e ´ ´ Definicion. a o m. m´s restrictiva es la condici´n de convergencia. se cumple que o n→∞ l´ FXn (x) = FX (x). si para todo o punto x en donde la funci´n FX (x) es continua. A este tipo de convergencia tambi´n se le llama convergencia en L2 . Observe que para este tipo de convergencia se hace d d d . . 1). Por ejemplo. X2 . Tipos de convergencia ´ ´ Definicion. En contextos m´s generales se le llama tambi´n convergencia d´bil. La sucesi´n de vao riables aleatorias X1 . X2 . ım En este caso se escribe Xn → X. . . para cada entero k ≥ 1. puede o a d escribirse Xn → N(0. .

Observe que la variable aleatoria constante X = 0 tiene funci´n de distribuci´n o o FX (x) = d 0 1 si x < 0.. e interpretando esta integral como el ´rea bajo la curva de una funci´n de a o densidad normal con media cero y varianza σ 2 /n. en donde cada Xn tiene distrio d 2 /n). si x ≥ 0. l´ FXn (x) = ım n→∞  1 si x > 0. σ o n FXn (x) = 1 2πσ 2 /n x −∞ e−u 2 /2(σ 2 /n) du. La unicidad del l´ ımite no se da en el sentido casi seguro como en los anteriores tipos de convergencia. para todo x en el conjunto R\{0}. . u . n→∞ punto x donde FX (x) es continua. esto es. Este es el contenido del siguiente resultado el cual ser´ usado m´s adelante para demostrar la ley d´bil de los a a e grandes n´meros. Como buci´n N(0. . . Demostraremos que X → 0. Tenemos entonces que Xn −→ 0. pues l´ FXn (x) = FX (x) para todo ım En la siguiente secci´n demostraremos que la convergencia en probabilidad o implica la convergencia en distribuci´n. Considere la sucesi´n X1 . El rec´ o ıproco en general es falso excepto cuando el l´ ımite es una constante. Convergencia 295 uso s´lamente de las funciones de distribuci´n y por lo tanto las variables o o aleatorias correspondientes pueden estar definidas en distintos espacios de probabilidad. Ejemplo. X2 . Gr´ficamente la distribuci´n l´ a o ımite se muestra en la Figura 7. puede comprobarse que  si x < 0.Cap´ ıtulo 7.4. sino en el sentido m´s d´bil de a e igualdad de distribuciones.  0 1/2 si x = 0. Observe que las funciones FXn (x) no convergen a F (x) cuando x = 0.

entonces Xn −→ c. ım A manera de resumen y sin mayores precisiones. En la siguiente secci´n se estudian las relaciones entre estos tipos de convergeno cia. F (x) = 1 si x ≥ c. La funci´n de distribuci´n de la variable aleatoria constante o o o c es 0 si x < c.296 7.1. Tipos de convergencia FXn (x) 1 x Figura 7. Si Xn −→ c. Para cualquier ǫ > 0 se tiene que P (|Xn − c| ≥ ǫ) = P (Xn ≤ c − ǫ) + P (Xn ≥ c + ǫ) = FXn (c − ǫ) + 1 − FXn (c + ǫ/2). se presenta en la siguiente tabla las definiciones de los distintos tipos de convergencia mencionados. o p ´ Proposicion. n→∞ d ≤ P (Xn ≤ c − ǫ) + P (Xn > c + ǫ/2) De modo que l´ P (|Xn − c| ≥ ǫ) = F (c − ǫ) + 1 − F (c + ǫ/2) = 0.4: Sucesi´n y l´ o ımite de las funciones de distribuci´n FXn (x). Demostraci´n. Sea c una constante. Suponga entonces que ´ FXn (x) → F (x) para x = c. que tiene un unico punto de discontinuidad en x = c. .

E|Xn − X| → 0.5 se ilustran de manera gr´fica estas relaciones. Convergencia c. E|Xn − X|2 → 0.Cap´ ıtulo 7.2. P (|Xn − X| > ǫ) → 0. y ´sta e a su vez implica la convergencia en distribuci´n. FXn (x) → FX (x) en puntos de continuidad x de FX . a En este diagrama la contenci´n se interpreta como implicaci´n. Convergencia 297 Convergencia puntual casi segura en media en media cuadr´tica a en probabilidad en distribuci´n o ´ Definicion Xn (ω) → X(ω) para cada ω en Ω. Estos y otros resultados se o demuestran a continuaci´n. En o la Figura 7. por ejemplo. Relaciones entre los tipos de convergencia En esta secci´n se establecen algunas relaciones generales entre los tipos de o convergencia de variables aleatorias mencionados en la secci´n anterior. 7. Demostraci´n. . o ´ Proposicion.s. ⇒ convergencia en prob. Sea ǫ > 0. Para cada natural n defina los eventos o An = ∞ k=n (|Xk − X| > ǫ). P (Xn → X) = 1. o o la convergencia casi segura implica la convergencia en probabilidad.

en general. Relaciones entre los tipos de convergencia Conv. Conv. en m.298 7. en distribuci´n o Figura 7. Conv. en probabilidad Conv. o Esta sucesi´n es decreciente y su l´ o ımite es entonces la intersecci´n de todos o los eventos. entonces P (|Xn −X| > ǫ) ≤ P (An ). casi segura Conv.5: Relaci´n entre los tipos de convergencia. El rec´ ıproco de la proposici´n anterior es. c. Como (|Xn −X| > ǫ) ⊆ An . para cada n ≥ 1 ) = P ( l´ Xn = X ) ım n→∞ = 0. n→∞ l´ P (|Xn − X| > ǫ) ≤ ım n→∞ l´ P (An ) ım n→∞ ∞ n=1 = P ( l´ An ) ım = P( An ) = P (|Xn − X| > ǫ.2. Por lo tanto. falso. en m. es decir. la o convergencia en probabilidad no implica necesariamente la convergencia casi .

Este ejemplo puede ser usado tambi´n para demostrar que la convergencia e casi segura no implica necesariamente la convergencia en media cuadr´tica. ⇒ convergencia en media. 2/3). Considere el espacio ((0. =⇒ conv. m Considere la sucesi´n de variables Xn del ejemplo anterior. 1/3). .s. a ´ Proposicion. conv. 1). con P la medida de probabilidad uniforme. 1). conv.). A8 = (2/4. Convergencia 299 siempre. en general. en media). Para comprobar esta afirmaci´n se proporciona a continuaci´n un o o ejemplo. 1). en media =⇒ convergencia c. Entonces Xn −→ o 0 pues E|Xn − 0| = P (An ) → 0.c. En este a ejemplo se cumple que E|Xn − 0|2 → 0. . Entonces Xn converge a cero casi seguo ramente pues P (l´ Xn = 0) = P (Ω) = 1. A9 = (3/4. 1). Sin embargo no hay convergencia ım en media pues E|Xn − 0| = E(Xn ) = 1 −→ 0.3. conv. A3 = o (0.Cap´ ıtulo 7. Ejemplo. 1). 1/2). 3/4). con P la medida uniforme. A2 = (1/2. Ejemplo.1/n) . c. 1). y con ellos las variables aleatorias Xn = 1An . (En general. (En general. A4 = (1/3. 1). Defina la sucesi´n Xn = n 1(0. sin embargo la sucesi´n no converge casi seguramente pues Xn (w) o no converge para ning´n ω. o El ejemplo anterior sirve tambi´n para mostrar que. A7 = (1/4. . la convere gencia en media cuadr´tica no implica la convergencia casi segura.s. Hemos comprobado antes que a p Xn −→ 0. Sin embargo esta sucesi´n no converge c. y sin embargo Xn no converge a 0 c.s. A6 = (0.s. 1/4). en prob. u Ejemplo. . A5 = (2/3. cuyas gr´ficas aparecen en la Figura 7. =⇒ conv. P ). Considere el espacio de probabilidad ((0. 2/4). P ). (En general. Convergencia en m. B(0.). c. B(0. Defina nuevamente la sucesi´n de eventos A1 = (0.s.

o Entonces E|Xn − X| = E(|Xn − X| 1An ) + E(|Xn − X| 1Ac ) n ≥ E(|Xn − X| 1An ) ≥ ǫ P (|Xn − X| > ǫ). (En general. en media). conv. 1). con P la medida uniforme. =⇒ conv. Sin embargo. conv. P ). P (|Xn − 0| > ǫ) = P (Xn > ǫ) = 1/n → 0.2. ´ Proposicion. 1). y defina las variables Xn = n 1(0. Ejemplo. Para cada ǫ > 0 defina el evento An = (|Xn − X| > ǫ). falso. 1).c. el lado izquierdo tiende a cero cuando n tiende a infinito. en prob. en media =⇒ conv. Ejemplo. Convergencia en media ⇒ convergencia en prob.300 7. o u(E(X)) ≤ E(u(X)). (En general. en m. . de donde se sigue el resultado. Entonces Xn converge a cero en media pues E|Xn − 0| = E(Xn ) = 1/n → 0. Por hip´tesis. El rec´ ıproco del resultado anterior es. no hay convergencia en media cuadr´tica pues E|Xn − 0|2 = a 2 E(Xn ) = 1 −→ 0. 1). B(0. B(0. Considere nuevamente el espacio ((0.) Sea Xn = n 1(0. Tomando u(x) = x2 se obtiene E 2 |Xn − X| ≤ E|Xn − X|2 . Relaciones entre los tipos de convergencia Demostraci´n. Entonces Xn converge en probabilidad a cero pues para cualquier ǫ > 0. Por o lo tanto P (|Xn − X| > ǫ) → 0. P ). Alternativamente la ultima desigualdad es consecuencia ´ de la desigualdad de Cauchy-Schwarz. Demostraci´n.1/n) . La desigualdad de Jensen establece que para u convexa. con P la medida uniforme.1/n2 ) sobre el espacio ((0. en general.

Convergencia 301 Sin embargo. l´ sup FXn (x) ≤ FX (x). FX (x) ≤ l´ inf FXn (x). Demostraci´n. Suponga que Xn −→ X. Entonces FX (x − ǫ) ≤ l´ inf FXn (x). FXn (x) = P (Xn ≤ x) p = P (Xn ≤ x. |Xn − X| > ǫ) ≤ P (X ≤ x + ǫ) + P (|Xn − X| > ǫ). Por hip´tesis el segundo sumando del lado derecho tiende a cero cuando n o tiende a infinito. ım n→∞ . y sea x un punto de continuidad o de FX (x). l´ sup FXn (x) ≤ FX (x + ǫ). ım n→∞ Por la continuidad lateral. = P (X ≤ x − ǫ.Cap´ ıtulo 7. Entonces para cualquier ǫ > 0. la sucesi´n no converge en media pues E|Xn − 0| = E(Xn ) = o 1 −→ 0. |Xn − X| > ǫ) Nuevamente el segundo sumando tiende a cero cuando n tiende a infinito. ım n→∞ Ahora se demuestra la desigualdad inversa. Convergencia en prob. ım n→∞ Por la continuidad en x. ⇒ convergencia en dist. |Xn − X| ≤ ǫ) + P (Xn ≤ x. ´ Proposicion. |Xn − X| ≤ ǫ) + P (X ≤ x − ǫ. Para cualquier ǫ > 0. Para cualquier ǫ > 0 FX (x − ǫ) = P (X ≤ x − ǫ) ≤ P (Xn ≤ x) + P (|Xn − X| > ǫ).

o el excelente texto de Gut [13]. asi como los textos cl´sicos de teor´ de la medida [5] o [14]. (En general. Xn −→ X. Lo anterior demuestra que l´ P (|Xn − X| > ǫ) = 0.) Sea X con distribuci´n normal est´ndar.5. la o a convergencia en distribuci´n no siempre implica la convergencia en probao bilidad. en dist. FXn (x) → o a u d Esto concluye la verificaci´n y ejemplos de todas las implicaciones y no o implicaciones que se derivan del diagrama de la Figura 7. ım n→∞ e Entonces claramente cada una de las variable Xn tambi´n tiene distribuci´n normal est´ndar y por lo tanto para cualquier n´mero real x. por ejemplo.302 7. a a .2. conv. FX (x) ≤ l´ inf FXn (x) ≤ l´ sup FXn (x) ≤ FX (x). =⇒ conv. pues para valores impares de n y para valores peque˜os de n ǫ > 0. Relaciones entre los tipos de convergencia En resumen. en prob. es decir. ım ım n→∞ n→∞ El rec´ ıproco de la proposici´n anterior no siempre es v´lido. −X si n es impar. es decir. Los resultados de a ıa convergencia en espacios de probabilidad aqui mencionados pueden no ser v´lidos en espacios de medida m´s generales. Ejemplo. El lector interesado en profundizar los temas aqui expuestos puede consultar el cap´ ıtulo 5 del libro de Karr [18]. Sin embargo la sucesi´n no converge en proo babilidad a X. P (|Xn − X| > ǫ) = P (2|X| > ǫ) > 1/2. FX (x). y sea o a Xn = X si n es par.

Hemos considerado antes la sucesi´n de variables o aleatorias Xn = n 1(0. Primero se aproxima a X de la siguiente forma. Defina ahora la variable aleatoria o . . Sea 0 ≤ X1 ≤ X2 ≤ · · · una sucesi´n de variables aleatorias convergente casi seguramente a una o variable X. entonces 0 ≤ E(Xn ) ≤ E(X). es decir. P ).3. Por lo o tanto l´ E(Xn ) ≤ E(X). cuya uni´n es Ω. 1).Cap´ ıtulo 7. Esta es una colecci´n de eventos o disjuntos dos a dos. 1). . Convergencia 303 7. Entonces n→∞ l´ E(Xn ) = E(X). ım Demostraci´n. a ´ Teorema de convergencia monotona. cuyo l´ ımite es X = 0 casi seguramente. En esta secci´n se estudian dos resultados que establecen condiciones bajo las cuales o es v´lido este intercambio. ım ım n→∞ n→∞ Por ejemplo. considere el espacio ((0. Tal convergencia num´rica o u e equivaldr´ a poder intercambiar las operaciones de l´ ıa ımite y esperanza. Como 0 ≤ Xn ≤ X. o Suponga que Xn converge casi seguramente a X.1/n) . l´ E(Xn ) = E( l´ Xn ). X2 . Sin embargo E(Xn ) es siempre 1 y no converge a E(X) = 0. Es natural preguntarse si la sucesi´n de n´meros E(Xn ) converge a E(X). Este es un ejemplo sencillo en donde no es v´lido intercambiar la esperanza y el l´ a ımite. . con P la medida de probabilidad uniforme. ım n→∞ Ahora resta demostrar la desigualdad contraria. y para cada entero k ≥ 0 defina el evento Ak = ( kǫ ≤ X < (k + 1)ǫ ). Dos resultados importantes de convergencia Sea X1 . B(0. una sucesi´n de variables aleatorias con esperanza finita. Sea ǫ > 0 arbitrario.

se obtiene a n→∞ l´ E(Xn ) ≥ ım ∞ k=0 kǫ P (Ak ) = E(Y ) ≥ E(X) − ǫ. Dos resultados importantes de convergencia discreta aproximante Y (ω) = kǫ si kǫ ≤ X(ω) < (k + 1)ǫ. Observe que Y aproxima a X de la forma: Y ≤ X < Y + ǫ. Entonces n→∞ l´ E(Xn ) ≥ ım = = ≥ = n→∞ l´ E(Y 1Bn ) ım l´ ım ∞ k=0 ∞ k=0 m k=0 n→∞ E(Y 1Bn ∩Ak ) kǫ P (Bn ∩ Ak ) kǫ P (Bn ∩ Ak ) n→∞ l´ ım n→∞ m l´ ım kǫ P (Ak ).304 7. n→∞ Dado que ǫ > 0 es arbitrario.3. para k fijo. ım El siguiente resultado establece otro tipo de condici´n suficiente para obteo ner la misma conclusi´n. o . O bien X − ǫ < Y ≤ X. Y 1Bn (ω) = 0 si ω ∈ Bn . Para cada n´mero u natural n defina el evento Bn = (Xn ≥ Y ). Ahora considere la variable aleatoria discreta Y 1Bn dada por Y (ω) si ω ∈ Bn . Ak ∩ Bn ր Ak cuando n → ∞. No es dif´ comprobar que ıcil Bn ր Ω. y entonces P (Ak ∩ Bn ) ր P (Ak ). Por lo tanto. k=0 Como esta desigualdad es v´lida para cualquier m ≥ 0. E(X) − ǫ ≤ E(Y ) ≤ E(X). / Entonces 0 ≤ Y 1Bn ≤ Xn . y por lo tanto 0 ≤ E(Y 1Bn ) ≤ E(Xn ). se concluye que l´ E(Xn ) ≥ E(X). Por lo tanto.

}. se usar´n en la ultima parte del curso para formalizar algunas a ´ demostraciones. en donde Yn + Y ≥ 0.Cap´ ıtulo 7. . . Entonces Yn ր X cuando n → ∞. entonces Zn ≤ Y .s. entonces X y Xn son ım n→∞ integrables y l´ E(Xn ) = E(X). . . para n ≥ 1. pues como Xn ≤ Y para toda n. y por lo tanto Yn ≥ −Y . Por lo tanto E(Yn ) ≤ E(Xn ) ≤ E(Zn ). De donde se o obtiene E(Yn ) ր E(X). Sea ahora Zn = sup{Xn . X2 . Por el teorema de convergencia mon´tona. entonces Xn ≥ −Y para toda n. o E(Y − Zn ) ր E(Y − X). Por lo tanto (Yn + Y ) ր (X + Y ). Xn+1 . . Por lo tanto (Y − Zn ) ր (Y − X). ıa En particular.. Si l´ Xn = X c. Xn+1 . De donde se obtiene E(Zn ) ց E(X). pues como −Xn ≤ Y . Por el teorema de convergencia mon´tona. en donde Y − Zn ≥ 0.}. . E(Yn + Y ) ր E(X + Y ). Entonces Zn ց X cuando n → ∞. . . ım n→∞ Demostraci´n. . Estos dos teoremas son herramientas fuertes en la teor´ de la probabilidad. Ahora observe que Yn ≤ Xn ≤ Zn . . Sea Yn = ´ o ınf{Xn . Convergencia 305 Teorema de convergencia dominada. Al hacer n tender a infinito se obtiene el resultado. Sea X1 . una sucesi´n o de variables aleatorias para la cual existe otra variable Y integrable tal que |Xn | ≤ Y .

Para la convergencia casi segura se pide que el conjunto {ω ∈ Ω : Xn (ω) → X(ω)) tenga probabilidad uno. 508. ∞ n=1 P (|Xn − X| > ǫ) < ∞. Condicion equivalente para la convergencia casi segura.s. 1]. Demuestre que si Xn −→ X.s. el l´ ımite es unico casi ´ c.s.s. c. entonces aXn + b −→ aX + b. en donde a y b son constantes. Demuestre que Xn −→ X si.4. Considere el espacio de probabilidad ([0. c. P ). b) Xn Yn −→ XY. o P ( |Xn − X| > ǫ para una infinidad de valores de n ) = 0. c. entonces a) Xn + Yn −→ X + Y. B[0. 512. Ejercicios Convergencia casi segura 506. Demuestre que la sucesi´n Xn = n1[0.s.s. Demuestre que en la convergencia casi segura. Demuestre que si Xn −→ X y Yn −→ Y . si Xn −→ X. ´ 511. entonces X = Y casi seguramente. con P la medida de probabilidad uniforme. 509. entonces Xn −→ X. c. y Xn −→ Y . 507. c. seguramente. Ejercicios 7. c. c.s. . c. y s´lo si. Sugerencia: |X − Y | ≤ |X − Xn | + |Xn − Y |. c.1/n) o converge casi seguramente a la variable aleatoria constante cero. Use el ejercicio anterior para demostrar que si para cualquier ǫ > 0. Demuestre la medibilidad de tal conjunto probando que es id´ntico al evento e ∞ ∞ ∞ k=1 m=1 n=m ( |Xn − X| ≤ 1/k ). para cualquier ǫ > 0.4.s. es decir. 1]. 510.306 7.s.s.

b) Xn Yn −→ xy. Demuestre que en la convergencia en probabilidad. entonces X = Y casi seguramente. entonces a) Xn + Yn −→ X + Y . Xn } −→ b. en donde a y b son constantes. Xn } −→ a. Demuestre que a) Xn + Yn −→ x + y. en donde x y y son dos n´meros u reales fijos. . Demuestre que si Xn −→ X. X2 . p p b) m´x{X1 . . es decir. p p p p 517. b) Xn Yn −→ XY . o 515. . . P ). Demuestre que si Xn −→ X y Yn −→ Y .n] k=1 Demuestre que Xn converge en probabilidad a una variable aleatoria con distribuci´n uniforme en el intervalo (0. . 1]. . b].Cap´ ıtulo 7. . . y Xn −→ Y . Sean X1 . Considere el espacio de probabilidad ((0. 1]. el l´ ımite es unico ´ p p casi seguramente. . 516. 1]. n ( m . p p p p p p c) Si g es continua en x. si Xn −→ X. . Convergencia 307 Convergencia en probabilidad 513. variables aleatorias independientes cada una con distribuci´n unif[a. Defina las variables aleatorias discretas n k Xn = 1 k−1 k . Sugerencia: P (|X −Y | > ǫ) ≤ P (|X −Xn | > ǫ/2)+P (|Xn −Y | > ǫ/2). p 518. 514. entonces aXn + b −→ aX + b. . Suponga que Xn −→ x y Yn −→ y. B(0. a . entonces g(Xn ) −→ g(x). Demuestre que cuando n tiende a infinito o a) m´ ın{X1 . en donde P es la medida de probabilidad uniforme.

c. Demuestre que si Xn −→ X. si Xn −→ X. y Xn −→ Y .c. m. es decir. Demuestre que si Xn −→ X. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn −→ m. m. Sugerencia: Por la desigualdad cr con r = 2. Convergencia en distribuci´n o 527. entonces aXn + b −→ aX + b. Demuestre que Xn + Yn −→ X + m Y . Demuestre que en la convergencia en media cuadr´tica. entonces ´ X = Y casi seguramente. X y Yn −→ Y . n). Demuestre que en la convergencia en distribuci´n. 526. Demuestre que en la convergencia en media. en donde a y b constantes. si Xn −→ X. el l´ o ımite es unico ´ d d en distribuci´n. entonces X y Y o . m. m. entonces Xn −→ c. o m m m m m Convergencia en media cuadr´tica a 524. Use la desigualdad de Chebyshev para dep mostrar que si Xn tiene distribuci´n gama(cn. o Convergencia en media 521. unico casi seguramente. Sea c > 0 una constante. y Xn −→ Y . Suponga que Xn −→ X y Yn −→ Y . entonces aXn + b −→ aX + b.c.c. 523. entonces X = Y casi seguramente. Ejercicios p 2 519. si Xn −→ X. Proporcione un contraejemplo para la afirmaci´n: Xn Yn −→ XY .c. en donde a y b son constantes. es decir. 520. m. 525. entonces Xn −→ X 2 . Demuestre que si Xn −→ X. el l´ a ımite es m.c.308 p 7.4. es decir. E|X − Y |2 ≤ 2 (E|X − Xn |2 + E|Xn − Y |2 ).c. entonces Xn + Yn −→ X + Y . Sugerencia: E|X − Y | ≤ E|X − Xn | + E|Xn − Y |. el l´ ımite es unico casi ´ m m seguramente. y Xn −→ Y . 522.

d 534. . . Sea Xn con distribuci´n uniforme en el conjunto {0. a + 1/n]. 1]. o Sugerencia: |FX (x) − FY (x)| ≤ |FX (x) − FXn (x)| + |FXn (x) − FY (x)|. Demuestre o que 1 n Xn −→ X. d d d d d d p d d d d d d b) si Xn −→ 0 y Yn −→ 0. entonces Xn −→ 0. b) Xn + c −→ X + c. 1 − X si n es impar. entonces no necesariamente d Xn + Yn −→ X + Y . Demuestre que o la siguiente sucesi´n de variables aleatorias converge en distribuci´n o o pero no converge en probabilidad. Demuestre que si Xn −→ X y Yn −→ Y . 528. y sea o X continua con distribuci´n uniforme en el intervalo [0. 531. Considere el espacio de probabilidad ([0. entonces Xn + Yn −→ 0.1/2] . 1. 529. entonces Xn Yn −→ 0.1/2+1/n) converge en distribuci´n a la variable aleatoria X = 1[0. Xn = X si n es par. Demuestre que la sucesi´n Xn = o 1[0. Demuestre que a) cXn −→ cX. . n}. Sea X con distribuci´n uniforme en el conjunto {0. 1]. 1}. en donde a es una o constante. Convergencia 309 tienen la misma distribuci´n. . Sea c una constante y suponga que Xn −→ X y Yn −→ Y . P ) en donde P es la medida de probabilidad uniforme. Demuestre que a) si Xn −→ 0. c) si Xn −→ 0 y Yn −→ 0. Demuestre que Xn −→ a. d d 533. Sea Xn con distribuci´n unif[a − 1/n. . o 532. 1]. 530. B[0.Cap´ ıtulo 7.

Otro ejemplo de que la conv.310 7.4. σ 2 ). casi seguramente. X2 . Demuestre que Yn converge a cero. pero no as´ en media. casi segura no implica la conv. . Sea X1 . ı a 536. ni en media cuadr´tica. Ejercicios Relaciones entre los tipos de convergencia 535. . ¿En o qu´ sentido la sucesi´n de variables aleatorias 1An converge a 1A ? e o 2 537. Defina el producto Yn = X1 X2 · · · Xn . ¿En qu´ sentido X → X? ponga µn → µ y σn e n n . . . Sea A1 . . con σ 2 . A2 . en media. σ 2 > 0. P (Xn = 1) = 1/2 y P (Xn = 2) = 1/4. Sea Xn con distribuci´n N(µn . σn ) y X con distribuci´n N(µ. P (Xn = 0) = 1/4. una sucesi´n de variables aleatorias o independientes e id´nticamente distribuidas tales que para cada n´mee u ro natural n. Suo o 2 → σ 2 . . una sucesi´n de eventos convergente al evento A.

Cuando sea necesario especificarlo se escribe GX (t) en lugar de G(t). La funci´n o generadora de probabilidad de una variable aleatoria X es la funci´n o G(t) = E(tX ). Funci´n generadora de probabilidad o ´ ´ Definicion. definida para valores reales de t tal que la esperanza sea convergente absolutamente.Cap´ ıtulo 8 Funciones generadoras En este cap´ ıtulo se estudia la funci´n generadora de probabilidad. (Funcion generadora de probabilidad). y se usan las letras f.p. en lugar de funci´n generadora de probabilidad.g. Estas funciones son transformaciones de las distribuciones de probabilidad. la funci´n o o generadora de momentos y la funci´n caracter´ o ıstica. y constituyen una herramienta muy util en la teor´ moderna de la probabilidad. aunque no unicamente. Eso ta funci´n se utiliza principalmente. para variables o ´ 311 .1. ´ ıa 8.

1. . Funcion generadora de probabilidad aleatorias con valores enteros. Supondremos tal caso y sin p´rdida de gee neralidad consideraremos que las variables toman valores en el conjunto {0.p. Calculando la k-´sima derivada puede comprobarse adem´s que a partir de e a la f.p. . con coeficientes dados por la distribuci´n de probabilidad. que corresponde a la mayor´ de las variables aleatorias discretas ıa estudiadas en este curso. . k! En la siguiente tabla se muestran ejemplos de funciones generadoras de probabilidad para algunas distribuciones discretas. |G(t)| ≤ ∞ k=0 |t| P (X = k) ≤ k ∞ k=0 P (X = k) = 1. . Es o o importante observar que el radio de convergencia de esta serie es por lo menos uno.312 ´ 8. o G(t) = ∞ k=0 tk P (X = k). En tal situaci´n.g. es una serie de potencias en t.g. Sea X con distribuci´n Poisson(λ). G(t) = ∞ k=0 tk e−λ λk = e−λ k! ∞ k=0 (λt)k = e−λ eλt = e−λ(1−t) . la f.g. La f. de X est´ definida o a para todo valor real de t y puede calcularse de la siguiente forma. pues para |t| < 1. por ende el nombre de dicha funci´n. puede reconstruirse la funci´n de densidad a trav´s de la f´rmula o e o P (X = k) = G(k) (0)/k! Ejemplo. 1.}. Es decir.p.

Inversamente. xn } Ber(p) bin(n. u entonces X y Y tienen la misma distribuci´n. Funciones generadoras 313 ´ Distribucion unif{x1 . . se estudian a continuaci´n. . p) ´ Funcion generadora de probabilidad G(t) = (tx1 + · · · + txn )/n G(t) = 1 − p + pt G(t) = (1 − p + pt)n G(t) = p/[1 − t(1 − p)] G(t) = e−λ(1−t) G(t) = (p/[1 − t(1 − p)])r La funci´n generadora de probabilidad determina de manera unica a la o ´ distribuci´n en el siguiente sentido. . entonces naturalmente GX (t) = GY (t). m´s adelante se ilustran o a estos resultados con algunos ejemplos. Si X y Y tienen la misma distribuci´n o o de probabilidad. .Cap´ ıtulo 8.p.g. sean X y Y tales que GX (t) y GY (t) existen y coinciden en alg´n intervalo no trivial alrededor del cero. p) geo(p) Poisson(λ) bin neg(r. Estas y otras propiedades o generales de la f. . para valores de t donde esta esperanza exista.

. Esto significa que las distribuciones de probabilidad coinciden. La igualdad GX (t) = GY (t) se escribe de la forma: ∞ k=0 tk ak = ∞ k=0 tk bk . . GX (t) y GY (t) respectivamente.g. (Propiedades de la f. dtn tր1 3.1. Para cada k ≥ 0. sus coeficientes deben forzosamente coincidir. 2. Para que estas dos series de potencias en t coincidan en alg´n interu valo no trivial alrededor del cero.g. Sean X y Y variables aleatorias con valores en {0. Demostraci´n.).} tales que GX (t) y GY (t) existen y coinciden en alg´n intervalo alrededor de u t = 0.p. sean ak = P (X = k) y bk = P (Y = k). entonces GX+Y (t) = GX (t) GY (t). .p. entonces e l´ ım dn GX (t) = E[X(X − 1) · · · (X − n + 1)]. ak = bk para cada k ≥ 0. Sean X y Y independientes con f. 1.314 ´ 8. es decir. 1. 2. Si el n-´simo momento factorial de X existe. Entonces X y Y tienen la misma distribuci´n de probabilio dad. Funcion generadora de probabilidad ´ Proposicion. o 1. Como las series de potencia se pueden derivar t´rmino a t´rmino cone e .

Cap´ ıtulo 8. de una variable aleatoria X con distribuci´n Poisson(λ) es G(t) = e−λ(1−t) .g. k=1 Para la segunda derivada se tiene G′′ (t) = ∞ k=2 k(k − 1)tk−2 P (X = k). por el lema de Abel (ver o ap´ndice).p. Como por hip´tesis la esperanza existe. l´ G′′ (t) = ım ∞ k=2 tր1 k(k − 1)P (X = k) = E(X(X − 1)). e tր1 l´ G′ (t) = ım ∞ kP (X = k) = E(X). Cuando X y Y son independientes. a 3. GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX ) E(tY ) = GX (t) GY (t). Se ha encontrado que la f. Usando esta funci´n encontrao o remos la esperanza y varianza de X. Funciones generadoras serv´ndose el mismo radio de convergencia. Al derivar una vez se obtiene G′ (t) = . De manera an´loga se demuestra para las derivadas de orden superior. de modo que cuando el segundo momento existe. Ejemplo. se tiene que a G′ (t) = = = d dt ∞ k=0 ∞ k=1 ∞ k=0 315 tk P (X = k) d k t P (X = k) dt k tk−1 P (X = k).

La definici´n de funci´n generadora de probabilidad puede extenderse al o o caso de vectores aleatorios de la siguiente forma. Funci´n generadora de momentos o Esta es otra funci´n que se puede asociar a algunas distribuciones de proo babilidad. Funcion generadora de momentos λe−λ(1−t) . G′′ (t) = λ2 e−λ(1−t) . de la distribuci´n Poisson con par´meo o a o tro λ1 + λ2 . E(X) = G′ (1) = λ.g. respectivamente.p. a la f.2. Y ) es la funci´n GX. o La definici´n de f. y en t = 1 se obtiene E(X(X − 1)) = G′′ (1) = λ2 . del vector (X. X + Y tiene distribuci´n Poisson(λ1 + λ2 ). determina de manera unica a la distribuci´n de probabilidad asocia´ o da. Debido a la unicidad. para vectores de dimensi´n mayor es an´loga. pero cuando a existe.2. tambi´n se le conoce como funci´n e o generadora de momentos factoriales. Esta expresi´n corresponde a la f. .g. Puede demostrarse que las variables X y Y son independientes si.316 ´ 8. t) = GX (s) GY (t). el procedimiento o es elegante y sencillo.p.Y (s. Derivando por segunda vez. Entonces GX+Y (t) = GX (t) GY (t) = e−λ1 (1−t) e−λ2 (1−t) = e−(λ1 +λ2 )(1−t) .g. GX.p. La funci´n generadora de momentos se utiliza tanto para variables o aleatorias discretas como continuas. Ejemplo. y al evaluar en t = 1. Debido a la segunda propiedad. Ahora se muestra el uso de esta funci´n o para determinar la distribuci´n de una variable aleatoria. Su existencia no est´ garantizada en todos los casos.p. La f. y tiene propiedades semejantes a las de la funci´n generadora de probao bilidad.Y (s. Suponga que X y Y son independientes con distribuci´n Poisson(λ1 ) o y Poisson(λ2 ). para valores reales de s y t donde o esta esperanza sea absolutamente convergente. o o a 8.g. y s´lo si. t) = E(sX tY ). Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = λ2 + λ − λ2 = λ.

Cap´ ıtulo 8. de X puede o calcularse de la siguiente forma. definida para valores reales de t tales que la esperanza es absolutamente convergente.g. (Funcion generadora de momentos). est´n a relacionadas.g.m.m. y la f. cuando existen. Funciones generadoras 317 ´ ´ Definicion. Observe que M (t) esta definida unicamente para o ´ valores de t menores que λ.g. etx ∞ La ultima integral vale uno pues el integrando es la funci´n de densidad ´ o de una distribuci´n gama. Entonces la f. Sea X con distribuci´n gama(n.m. La parte importante de esta funci´n es su existencia en una o vecindad no trivial alrededor del cero. Ejemplo. . La siguiente tabla muestra algunos otros ejemplos de funciones generadoras de momentos para ciertas distribuciones continuas. cuando sea necesario especificarlo se escribe MX (t) en lugar de M (t). por la igualdad M (t) = G(et ). Observe que la f. Nuevamente. M (t) = (λx)n−1 λe−λx dx Γ(n) 0 ∞ [(λ − t)x]n−1 = λn (λ − t)−n (λ − t)e−(λ−t)x dx Γ(n) 0 = [λ/(λ − t)]n . λ).g. en lugar del t´rmino funci´n generadora e o de momentos. La funci´n geo neradora de momentos de la variable aleatoria X es la funci´n o M (t) = E(etX ).p. y se usan las letras f.

2. Todos los momentos de X son finitos. b) exp(λ) gama(n.g. o . M (t) = ∞ n=0 tn E(X n ). Entonces u 1. e ´ Proposicion. y o a despu´s se muestra su utilidad mediante algunos ejemplos.. M (t) finita para cada t ∈ (−s. σ 2 ) χ2 (n) t(n) ´ Funcion generadora de momentos M (t) = (ebt − eat )/(bt − at) M (t) = λ/(λ − t) M (t) = [λ/(λ − t)]n M (t) = exp(µt + σ 2 t2 /2) M (t) = (1 − 2t)−n/2 M (t) no existe para t = 0 Se demuestran a continuaci´n algunas propiedades b´sicas de la f.318 ´ 8. Funcion generadora de momentos ´ Distribucion unif(a. y se cumple dn M (t) = E(X n ). s). n! 3.2. dtn t=0 Demostraci´n. s).m.g.m. M (t) tiene derivadas continuas de cualquier orden en (−s. λ) N(µ. para alg´n s > 0. Sea X con f.

Funciones generadoras 1. De esta forma todos los momentos de X existen e cuando M (t) es finita en alg´n intervalo no trivial alrededor del cero. 0). s). n! Es decir. Ahora la segunda integral de E|X|n es menor o igual a la segunda integral de M (t). u 2. La prueba se basa en las identidades: E |X|n = n y ∞ 0 319 (1 − F (x)) xn−1 dx + n ∞ 0 0 −∞ 0 F (x) |x|n−1 dx. la primera integral de E|X|n es menor o igual a la primera integral de M (t). xn ≤ (n!/tn )etx . Se usa la f´rmula o E(X n ) = n 0 ∞ (1 − F (x)) xn−1 dx − n 0 −∞ F (x) xn−1 dx. . siendo ´sta ultima finita. s).Cap´ ıtulo 8. |x|n ≤ (n!/|t|n )etx . la primera tambi´n. las dos integrales de M (t) son finitas para o cualquier t ∈ (−s. salvo constantes. F (x) etx dx. y entonces (tx)n ≤ etx . pues en tal caso tx > 0 y entonces |tx|n ≤ e|tx| = etx . M (t) = 1 + t (1 − F (x)) etx dx − t −∞ en donde. Para de E|X| el caso x > 0 se toma cualquier t ∈ (0. siendo ´sta ultima finita. Para el caso x < 0 e ´ e conviene tomar t ∈ (−s. n! Es decir. De modo que. e ´ la primera tambi´n. por hip´tesis. Demostraremos que cada integral de la expresi´n o n es menor o igual a la correspondiente integral de M (t).

El hecho de que el n-´simo momento de una variable e aleatoria exista. es necesario conocer e la existencia de la f. o el de convergencia o dominada. dependiendo de los valores de t y x. cada una de estas integrales es convergente.m. ∞ 0 (1 − F (x)) etx dx − t 0 −∞ F (x) etx dx 3.m.320 ´ 8. M (t) no existe para t distinto de cero.g.2. no implica que ´ste puede ser hallado a trav´s de la ne e ´sima derivada de la f. s). y m ≥ 1. Nota importante. una variable aleatoria con distribuci´n t(n) tiene o esperanza cero pero su f. Dado que M (t) se puede expresar como una serie de potencias en t. Por ejemplo. s). Usando el teorema de convergencia mon´tona. m n=0 tn tn E(X n ) = 1 + n n! n! n=1 m m ∞ 0 0 (1 − F (x)) xn−1 dx F (x) xn−1 dx m−1 n t − n=1 tn n n! −∞ = 1+t 0 ∞ (1 − F (x)) F (x) 0 −t n=0 m−1 n t n n=0 n! xn dx −∞ n! x dx. para que pueda ser utilizada para obtener los momentos. De modo que ∞ n=0 tn E(X n ) = 1 + t n! = M (t). cuando se hace m tender a infinito.g. Funcion generadora de momentos Entonces para cualquier t ∈ (−s. evaluada en cero. para cualquier t ∈ (−s. .g.m. diferenciando y evaluando en cero se obtienen los coeficientes E(X n ). Es decir.

m. M ′ (t) = λn n(λ − t)−n−1 .g. o MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX ) E(etY ) = MX (t) MY (t). y cuyas f.g. Se concluye entonces X +Y tiene distribuci´n gama(n+m. λ). λ). Ejemplo. M (t) = λn (λ−t)−n . Entonces para cualquier t ∈ (−s. u MX+Y (t) = MX (t) MY (t). λ). Demostraci´n. existen en una vecindad no trivial alrededor del cero. Hemos encontrado antes que o para t < λ. Esta es la expresi´n de la f. Sean X y Y son independientes. de la distribuci´n gama.m.Cap´ ıtulo 8. Al evaluar en t = 0 se obtiene E(X) = n/λ. ´ Proposicion. o de X + Y es MX+Y (t) = MX (t) MY (t) = λn (λ − t)−n λm (λ − t)−m = λn+m (λ − t)−n−m . Por lo tanto E(X 2 ) = M ′′ (0) = n(n+1)/λ2 . Entonces la f. Entonces Var(X) = n(n + 1)/λ2 − n2 /λ2 = n/λ2 . respectivamente. Sea X con distribuci´n gama(n. es sencillo demostrar que la funci´n generadora de la suma o de dos variables aleatorias independientes es el producto de las funciones generadoras individuales. o Nuevamente. s) para alg´n s > 0. M ′′ (t) = λn n(n+1)(λ−t)−n−2 .m. λ) y gama(m.m. Calcularemos ahora la esperanza y varianza de X con ayuda de la f. .g. Suponga ahora que X y Y son independientes cada una con distribuci´n gama(n. Funciones generadoras 321 Ejemplo.g. Derivando nuevamente. ahora con par´meo o a tros n+m y λ. Derivando una vez.

Para el caso de vectores aleatorios se tiene la siguiente definici´n. (Continuidad). MXn (t) → MX (t). Entonces Xn → X si. para − 1 < x. Sea X1 .g. Como hemos mencionado antes. 1.m. . (Unicidad). Por otro lado. ni todos los c´lculos son tan sencillos como en el a ejemplo mostrado. y s´lo si. Y ) un vector aleatorio con funci´n de densidad o f (x. X2 . este resultado y otro relativo a convergencia es el contenido de la siguiente proposici´n.g. MX (t) = MY (t) para valores de t en una vecindad no o trivial alrededor del cero. la f. Por ejemplo. u d o MX (t). entonces sus funciones generadoras de momentos coinciden o pues ´stas de obtienen a trav´s de la funci´n de distribuci´n com´n. o ´ Proposicion. 2. .2. una sucesi´n de variables aleatoo rias cuyas funciones generadoras de momentos existen todas ellas en alg´n intervalo no trivial alrededor del cero. y) = [1 + xy(x2 − y 2 )]/4. Sea (X.m. Las variables X y Y tienen la misma distribuci´n si. cuando se tienen dos variables X y Y con la misma distribuci´n. Sea X con f. Ejercicio. La funo . entonces puede demostrarse que sus distribuciones coinciden. Funcion generadora de momentos Es interesante observar que la condici´n MX+Y (t) = MX (t) MY (t) no es o suficiente para concluir que X y Y son independientes. esto se pide comprobar en el ejercicio 576. Por el e e o o u contrario. o cuya demostraci´n omitiremos. de la distribuci´n Cauchy est´ndar o a no existe para valores de t distintos de cero. y < 1. Demuestre que X y Y no son independientes y sin embargo se cumple la identidad MX+Y (t) = MX (t) MY (t).322 ´ 8. . o y s´lo si. no todas las distribuciones de probabilidad permiten calcular la funci´n generadora de momentos dentro de un intervalo o no trivial alrededor del cero. si MX (t) = MY (t) en una vecindad no trivial alrededor del cero.

t) = MX (s) MY (t).Y (s. definida para cualquier n´mero real t. Funciones generadoras 323 ci´n generadora de momentos del vector (X. se trata de un vector aleatorio bidimensional como los estudiados anteriormente. para valores reales de s y t donde esta esperanza sea absolutamente convergente. as´ como en el primer ap´ndice al final del libro.3. o a En la secci´n de ejercicios se pueden encontrar las funciones generadoras de o momentos de algunas otras distribuciones de probabilidad. ı e 8. u Observe que la transformaci´n X → eitX lleva una variable aleatoria real X o a una variable aleatoria con valores en los n´meros complejos de la forma u cos(tX) + i sen(tX). Funci´n caracter´ o ıstica Esta es una funci´n definida para cada distribuci´n de probabilidad. Nuevamente se escribe φX (t) cuando sea necesario especificar que se trata de . El n´mero i es la unidad de los u u n´meros imaginarios. MX. tanto discretas como continuas.g. La definici´n de f. y a o o diferencia de las funciones generadoras de probabilidad y de momentos estudiadas antes. Y ) es la funci´n MX. (Funcion caracter´ ıstica).m. es decir. o o para vectores de dimensi´n mayor es an´loga. y s´lo si. t) = o o E(esX etY ). siempre existe. en donde cada parte de este n´mero complejo es una u variable aleatoria real. Puede demostrarse que las variables X y Y son independientes si.Cap´ ıtulo 8. ´ ´ Definicion.Y (s. La funci´n caracter´ o ıstica puede entonces escribirse en la forma φ(t) = E(cos tX) + i E(sen tX). La funci´n caracter´ o ıstica de la variable aleatoria X es la funci´n o φ(t) = E eitX .

Sea X con distribuci´n bin(n. Entonces o φ(t) = E(eitX ) = ∞ x=0 eitx e−λ ∞ λx x! = e −λ = e x=0 −λ(1−eit ) (λeit )x x! . y la f.g. .p. Entonces o φ(t) = E(eitX ) n = x=0 n eitx n x n x px (1 − p)n−x = x=0 (peit )x (1 − p)n−x = (1 − p + peit )n . est´n relacionadas. Observe que la f. Otros ejemplos de funciones caracter´ ısticas de distribuciones discretas se muestra en la siguiente tabla. El lector puede comprobar cada una de estas expresiones.g. Sea X con distribuci´n Poisson(λ). p). o Ejemplo. Ejemplo. Funcion caracter´ ıstica la funci´n caracter´ o ıstica de X.m.324 ´ 8. por las igualdades φ(t) = M (it) = G(eit ).3. y se escribe simplemente f.. la f. ´ Se muestran a continuaci´n algunos ejemplos de la forma de encontrar la o funci´n caracter´ o ıstica a partir de una distribuci´n de probabilidad.c.c. o ı a cuando existen las dos ultimas. en lugar de funci´n caracter´stica.

p) ´ Funcion caracter´ ıstica φ(t) = 1 − p + peit φ(t) = (1 − p + peit )n φ(t) = e−λ(1−e it ) φ(t) = p/(1 − (1 − p)eit ) φ(t) = [p/(1 − (1 − p)eit )]r Ahora se mostrar´ la forma de encontrar la funci´n caracter´ a o ıstica para dos distribuciones continuas: la distribuci´n normal y la distribuci´n gama. σ 2 ). p) Poisson(λ) geo(p) bin neg(r. y varianza σ 2 . o o Ejemplo. Sea X con distribuci´n N(µ. usando el principio de e .Cap´ ıtulo 8. Entonces o φ(t) = E(eitX ) = = ∞ −∞ ∞ −∞ eitx √ √ 1 1 2πσ 2 e−(x−µ) 2 /2σ 2 dx dx 2 )]2 /2σ 2 2πσ 2 e−(x 2 −2x(µ−itσ 2 )+µ2 )/2σ 2 = e(−µ 2 +(µ−itσ 2 )2 )/2σ 2 ∞ −∞ √ 1 2πσ 2 e−[x−(µ−itσ dx = eitµ−t 2 σ 2 /2 . por ejemplo. El hecho de que esta integral u tambi´n vale uno puede comprobarse. Funciones generadoras 325 ´ Distribucion Ber(p) bin(n. Observe que el ultimo integrando es la funci´n de densidad normal con media ´ o el n´mero complejo µ − itσ 2 .

λ) N(µ. λ − it = El ultimo integrando es la funci´n de densidad de la distribuci´n gama(n. Entonces o φ(t) = E(eitX ) = 0 ∞ ∞ eitx (λx)n−1 −λx λe dx Γ(n) λ (λx)n−1 e−(λ−it)x dx Γ(n) 0 ∞ [(λ − it)x]n−1 λn (λ − it) e−(λ−it)x dx = (λ − it)n 0 Γ(n) λ n = ( ) . b) exp(λ) gama(n.326 ´ 8. cuando n = 1. .3. o ı ıa Ejemplo. λ− ´ o o it). σ 2 ) χ2 (n) t(n) φ(t) = (eibt − eiat )/(ibt − iat) φ(t) = λ/(λ − it) φ(t) = [λ/(λ − it)]n φ(t) = (1 − 2it)−n/2 φ(t) = exp(iµt − σ 2 t2 /2) φ(t) = e−|t| . e La siguiente tabla muestra algunos otros ejemplos de funciones caracter´ ısticas para variables aleatorias continuas. Sea X con distribuci´n gama(n. ´ Distribucion ´ Funcion caracter´ ıstica unif(a. λ). Nuevamente usando la teor´ de variable compleja puede demostrarse ıa rigurosamente que esta integral tambi´n vale uno. Funcion caracter´ ıstica continuaci´n anal´tica de la teor´ de variable compleja.

De modo que φ(t) es un n´mero complejo de m´dulo menor o igual a uno. ´ Proposicion.c. no siendo v´lido en general el rec´ a ıproco. (Existencia). En particular. u En particular. Cuando t → 0. o . Para cualquier n´mero real t. u o para cualquier valor de t. Para cualquier n´mero real t. dn φ(t) dtn = in E(X n ). ´ Proposicion. |φ(t)| ≤ 1. con la f. cuando existen. y como en el caso de las funciones e o generadoras anteriores.1) Demostraci´n. a trav´s de la f´rmula φ(n) (0) = in E(X n ). o u |φ(t)| = | ∞ −∞ eitx dF (x)| ≤ ∞ −∞ |eitx | dF (x) = ∞ −∞ dF (x) = 1. n−1 φ(t) = k=0 (it)k (it)n E(X k ) + ( E(X n ) + o(1) ). cuando X y Y son independientes se cumple que φX+Y (t) = φX (t) φY (t). Veremos a continuaci´n algunas otras propiedades o de esta importante funci´n. φ(0) = 1. demostraremos que los momentos o de una variable aleatoria X pueden ser generados. Demostraci´n. Si X tiene n-´simo momento finito. t=0 2. Funciones generadoras 327 La existencia de la funci´n caracter´ o ıstica para cualquier distribuci´n de o probabilidad se sigue del siguiente resultado. k! n! (8.Cap´ ıtulo 8. entonces e 1.

en efecto. Para cualquier h distinto de cero. dt Por el mismo procedimiento se encuentra que dn φ(t) = E[ (iX)n eitX ].3. entonces.328 ´ 8. Funcion caracter´ ıstica 1. h h→0 Comprobaremos que las variables aleatorias de esta sucesi´n. h h→0 eihx − 1 = ix.2) = E( eitX Como l´ ım eihX − 1 ). de modo que usando el teorema de convero gencia dominada en (8. |eitX eihX − 1 eihX − 1 | = | | h h 1 h iX eisX ds| = | h 0 1 h isX ≤ |X| |e | ds h 0 = |X|. estan uniformemente acotadas por una variable aleatoria integrable. Por hip´tesis.2) se obtiene d φ(t) = E[ iX eitX ]. puntualmente. E|X| < ∞. dtn . φ(t + h) − φ(t) h = = ∞ −∞ ∞ −∞ ei(t+h)x − eitx dF (x) h eitx eihx − 1 dF (x) h (8. parameo trizada por h. h l´ eitX ım eihX − 1 = iX eitX .

entonces φX+Y (t) = φX (t) φY (t). es necesario se˜alar que la condici´n φX+Y (t) = n o . se demuestra finalmente que dn φ(t) dtn = in E(X n ). El resultado anterior establece en particular que el producto de dos funciones caracter´ ısticas es nuevamente una funci´n caraco ter´ ıstica. cuando t → 0. Demostraci´n. Si X y Y son independientes. Para el primer resultado se supondr´ el primer momento finito y la expansi´n adquiere la a o expresi´n φ(t) = 1 + it( E(X) + o(1) ). Por otro lado. Funciones generadoras 329 Tomando el l´ ımite cuando t → 0 y usando nuevamente el teorema de convergencia dominada. o φX+Y (t) = E(eit(X+Y ) ) = E(eitX eitY ) = E(eitX ) E(eitY ) = φX (t) φY (t). Si g es una funci´n con valores reales o complejos y definida a o en alg´n intervalo no trivial alrededor del origen con g(n) (0) finita. cuando t → 0. Por independencia.Cap´ ıtulo 8. La f´rmula se sigue del inciso anterior y del siguiente resultado de o an´lisis. 2! (n − 1)! n! En la ultima parte del curso se usar´ la expansi´n (8. t=0 2. g(t) = g(0)+tg′ (0)+ t2 ′′ tn−1 (n−1) tn g (0)+· · ·+ g (0)+ ( g(n) (0)+o(1) ). Nota importante. ´ Proposicion. Para el teorema del o l´ ımite central se supondr´ el segundo momento finito y la expresi´n que se a o usa es φ(t) = 1 + it E(X) + ((it)2 /2!)( E(X 2 ) + o(1) ).1) para demostrar la ´ a o ley de los grandes n´meros y el teorema del l´ u ımite central. u entonces cuando t → 0.

´ A este respecto se tienen los siguientes resultados. 2 2 Demostraci´n. it Cuando x y y no necesariamente son puntos de continuidad de F . (Formula de inversion de L`vy). entonces F (y) − F (x) = l´ ım 1 T →∞ 2π T −T e−itx − e−ity φ(t) dt. Sea X con funci´n e o de distribuci´n F (x). Sea (X. it . Demuestre que X y Y no son independientes y sin embargo se cumple la identidad φX+Y (t) = φX (t) φY (t). ´ ´ ´ Proposicion. y < 1. Funcion caracter´ ıstica φX (t) φY (t) no es suficiente para concluir que las variables aleatorias X y Y son independientes. Para T > 0 sea o I(T ) = = = = 1 2π 1 2π 1 2π 1 2π T −T T −T T e−itx − e−ity φ(t) dt it e−itx − e−ity [ it ∞ ∞ eitz dF (z)] dt dF (z) dt eit(z−x) −T −∞ ∞ T −∞ −T − it −∞ eit(z−y) eit(z−x) − eit(z−y) dt dF (z).3. Y ) un vector aleatorio con funci´n de densidad o f (x. Otra de las propiedades fundamentales de la funci´n caracter´ o ıstica es su capacidad de determinar de manera unica a las distribuciones de probabilidad.330 ´ 8. y funci´n caracter´ o o ıstica φ(t). para − 1 < x. y) = [1 + xy(x2 − y 2 )]/4. Si x < y son puntos de continuidad de F . Ejercicio. el lado izquierdo es 1 (F (y) + F (y−)) − 1 (F (x) + F (x−)).

Funciones generadoras 331 El cambio en el orden de integraci´n es permitido pues el integrando es una o funci´n continua y acotada en t ∈ [−T. por ser coseno una funci´n par. o T −T T cos(at) dt = 0. incluyendo cuando t = 0. Para ello se hace uso del siguiente resultado no trivial:  si a > 0. t El siguiente paso consiste en aplicar el teorema de convergencia dominada cuando T → ∞.  π T sen at −π si a < 0. it T −T t→0 Desarrollando las exponenciales en t´rminos de senos y cosenos se obtiene e I(T ) = 1 2π ∞ −∞ 1 ( cos t(z − x) + i sen t(z − x) it − cos t(z − y) − i sen t(z − y) ) dt dF (z). y u o seno una funci´n impar. o pues puede definirse esta funci´n de acuerdo a su comportamiento l´ o ımite en ese punto. t sen(at) dt = 2 t T 0 y −T sen(at) dt. l´ 2 ım dt = π signo(a) =  T →∞ t 0 0 si a = 0. La integral I(T ) es la esperanza de la variable aleatoria XT = 1 (2 2π T 0 sen t(X − x) dt − 2 t T 0 sen t(X − y) dt ). t Nos interesa encontrar el l´ ımite de esta variable cuando T → ∞. t Por lo tanto I(T ) = 1 2π ∞ −∞ T (2 0 sen t(z − x) dt − 2 t T 0 sen t(z − y) dt ) dF (z). en donde para cualquier n´mero real a.Cap´ ıtulo 8. . l´ ım eit(z−x) − eit(z−y) = y − x. es decir. T ] y z ∈ R.

y) (X) = 2 {x.y) (z) ] dF (z) −∞ 2 1 1 P (X = x) + P (X = y) + P (x < X < y) 2 2 1 1 P (x < X ≤ y) + P (X = x) − P (X = y) 2 2 1 1 F (y) − F (x) + P (X = x) − P (X = y) 2 2 1 1 (F (y) + F (y−)) − (F (x) + F (x−)).y}  si X < x.  = 1 si x < X < y. t l´ I(T ) = ım = = = = 1 1{x.y} (z) + 1(x. las variables XT est´n acotadas en valor absoluto por una constante a a pues para cualquier n´mero real a. si x y y son puntos de continuidad de F .    0 si X > y.   1/2 si X = y.332 ´ 8. Como corolario del teorema de inversi´n demostraremos que la funci´n cao o racter´ ıstica determina de manera unica a la distribuci´n de probabilidad. ´ o . puntualmente. = | Por lo tanto T →∞ 0 sen at dt| ≤ sup | t T >0 T 0 sen t dt| < ∞. T →∞ l´ XT ım Adem´s. Funcion caracter´ ıstica Entonces. 2 2 [ ∞ En particular. entonces el l´ ımite de la integral es igual a F (y) − F (x).3. u T 1 ( π signo(X − x) − π signo(X − y) ) 2π 1 1 (X) + 1(x.  0    1/2 si X = x.

Si X y Y son tales que φX (t) = φY (t) para todo valor real de t. entonces X y Y tienen la misma distribuci´n. it Cuando la condici´n φX (t) = φY (t) s´lo se cumple en una vecindad del o o cero. Funciones generadoras 333 Teorema de unicidad. Sea φ(t) la funci´n caracter´ o o ıstica com´n. y sean x y y tales que x < z < y. Sea X absolutamente continua con funci´n de densidad f (x). continuo). Haciendo x tender a −∞. ´ ´ ´ Proposicion (Formula de inversion en el caso abs. V´ase [13] para un ejemplo al respecto. Sean x < y. Entonces f (x) = 1 2π ∞ −∞ e−itx φ(t) dt. Por el teorema o . e En el caso absolutamente continuo se tiene la siguiente f´rmula expl´ o ıcita. dos puntos de continuidad de F .Cap´ ıtulo 8. o Demostraci´n. en la f´rmula de inversi´n de L`vy. no es necesariamente cierto que la distribuci´n de probabilidad queda o completamente especificada. y funci´n o o caracter´ ıstica φ(t). Sea z cualquier u n´mero real. se obtiene una unica funci´n de o o e ´ o distribuci´n dada por o F (z) = l´ ım l´ ım l´ ım 1 2π T −T yցz xց−∞ T →∞ e−itx − e−ity φ(t) dt. y u y ց z. Demostraci´n.

El resultado es v´lido como esta enunciado pero s´lo demostraremos una de a o las implicaciones. (⇐) Suponga que φXn (t) → φX (t). o Demostraci´n. φXn (t) → φX (t). . el teorema de inversi´n de L`vy establece o e . d Entonces Xn → X si. Teorema de Continuidad. Ahora se demuestra un resultado que ser´ de utilidad en la ultima parte a ´ del curso y que establece que la convergencia en distribuci´n es equivalente o a la convergencia puntual de las correspondientes funciones caracter´ ısticas. . ´ de encontrar condiciones sobre φ(t) que garanticen que la correspondiente variable aleatoria es absolutamente continua. que unicamente mencionamos.3. o e F (y) − F (x) = = = = x 1 T →∞ 2π l´ ım 1 2π 1 2π y ∞ −∞ ∞ −∞ T −T e−itx − e−ity φ(t) dt it e−itx − e−ity φ(t) dt it y x ∞ −∞ e−itx dx φ(t) dt. o Es necesario se˜alar que el uso de esta f´rmula requiere conocer de antemano n o que la funci´n caracter´ o ıstica proviene de una variable aleatoria absolutamente continua.334 ´ 8. y por el teorema de Fubini. e−itx φ(t) dt dx. variables aleatorias. . 1 2π Por lo tanto el integrando debe ser la funci´n de densidad de X. De aqui surge el problema. Entonces para dos puno tos de continuidad x < y de FX . y s´lo si. X1 . Funcion caracter´ ıstica de inversi´n de L`vy. X2 . Sean X.

ım n→∞ it T −itx 1 e − e−ity [ φXn (t) ] dt. y s´lo si. Funciones generadoras que FX (y) − FX (x) = = = 1 T →∞ 2π l´ ım 1 T →∞ 2π l´ ım T −T T −T 335 e−itx − e−ity φ(t) dt. Finalmente mencionamos la definici´n de funci´n caraco o ter´ ıstica para vectores aleatorios. para valores reales de s y t donde esta esperanza sea absolutamente convergente.c. t) = φX (s) φY (t). La f.Y (s. del vector (X. Nuevamente puede demostrarse que las variables X y Y son independientes si. Y ) es la funci´n o φX. o . ım l´ ım l´ ım n→∞ Haciendo x tender a −∞ se obtiene FX (y) = l´ FXn (y). ım n→∞ En el siguiente cap´ ıtulo usaremos este resultado para demostrar el teorema central del l´ ımite. φX. t) = E(eisX eitY ). n→∞ T →∞ 2π −T it = l´ FXn (y) − FXn (x).Cap´ ıtulo 8. it e−itx − e−ity [ l´ φXn (t) ] dt. o De manera an´loga puede definirse la funci´n caracter´ a o ıstica para vectores de dimensi´n mayor.Y (s.

. Demuestre que a) E(X) = G′ (1−). para valores de t en alg´n intervalo no trivial alrededor del u cero. con f. c) GX−Y (t) = GX (t) GY (1/t). . si existe. Gk (t). . Ejercicios Funci´n generadora de probabilidad o 538.i. Demuestre o proporcione un contraejemplo: Si GX+Y (t) = GX (t) · GY (t). Sea S = X1 + · · · + XN . . Sean X y Y independientes. 539. GX (t). . 541. Demuestre que a) GS (t) = GN (GX (t)). . Demuestre que a) P (X = k) = G(k) (0)/k! para k = 0. usando GS (t). Xn independientes tales que Xk tiene f.g.i.g. . usando GS (t). Sea N otra o variable aleatoria con valores en N. de una o variable aleatoria con funci´n de densidad o .g. 543. Sea X con varianza finita y con f. y sean a y b dos constantes. c) Var(S) = E 2 (X) Var(N ) + E(N ) Var(X). X2 .p. independiente de la sucesi´n y con o f. .a. .4.p. . 542. c) Var(X) = G′′ (1−) + G′ (1−) − [G′ (1−)]2 . Sean X1 . b) E(S) = E(N )E(X).g. G(t). Encuentre la funci´n generadora de probabilidad. b) GaX+b (t) = tb GX (ta ).p.p. b) E(X 2 ) = G′′ (1−) + G′ (1−). . para k = 1. n. Ejercicios 8. . . 540. 1. . GN (t).d. entonces X y Y son independientes. Demuestre que GX1 +···+Xn (t) = G1 (t) · · · Gn (t).4. una sucesi´n de v. Sea X1 .336 8.

g.p. p). usando G(t). para demostrar que la variable X1 +· · ·+ o Xn tiene distribuci´n bin(n. c) Var(X) = (1 − p)/p2 . rp).g. c) Var(X) = p(1 − p). para x = 1. Xn variables aleatorias independientes. . p). o respectivamente. Demuestre que o a) G(t) = 1 − p + pt. . p). 2. Sea X con distribuci´n bin(n. b) E(X) = np. Demuestre que o a) G(t) = (1 − p + pt)n . en donde N es una variable aleatoria o con distribuci´n bin(n. . Demuestre que o a) G(t) = p/[1 − t(1 − p)]. x(x + 1) 337 a) f (x) = 544. . p). p). .Cap´ ıtulo 8. 545. para demostrar que la variable X + Y tiene distribuci´n bin(n + m. . o 549. d) E(X n ) = p. o 548. Sean X y Y independientes con distribuci´n bin(n. . Funciones generadoras 1 . Sea X con distribuci´n bin(N. usando G(t). x!(e − 1) 1 b) f (x) = . . o 547. Use la f.p. Sean X1 . usando G(t). 546. para x = 1. usando G(t). cada una con distribuci´n Ber(p). usando G(t). b) E(X) = p. p) y bin(m. b) E(X) = (1 − p)/p. . . 2. usando G(t). Use la f. Sea X con distribuci´n geo(p). Use la f. para demostrar que X tiene o distribuci´n bin(n. .g. Sea X con distribuci´n Ber(p). c) Var(X) = np(1 − p). usando G(t).p. r).

Demuestre que MaX+b (t) = etb MX (at). Use la f. usando G(t).g. Sean X y Y independientes e id´nticamente distribuidas con f. 554. Sean X y Y independientes con distribuci´n Poisson con par´metros o a λ1 y λ2 respectivamente. b) E(X 2 ) = M ′′ (0). Sea X con distribuci´n Poisson(λ).m. MX (t). Sea X con distribuci´n bin neg(r. . Demuestre que MX−Y (t) = M (t) M (−t). Encuentre la funci´n generadora de momentos. para demostrar que la variable X + Y tiene distribuci´n Poisson(λ1 + λ2 ). de una vao riable aleatoria con funci´n de densidad o a) f (x) = 1 . Demuestre que a) E(X) = M ′ (0). x!(e − 1) b) f (x) = e−|x| /2. Demuestre que o a) G(t) = [p/(1 − t(1 − p))]r . Demuestre que o a) G(t) = e−λ(1−t) .g. usando G(t). usando G(t). b) E(X) = λ. . si existe. M (t). y sean a y b dos constantes. p). 555. c) Var(X) = M ′′ (0) − (M ′ (0))2 . para x = 1. e M (t). Funci´n generadora de momentos o 553.m. b) E(X) = r(1 − p)/p. Sea X con varianza finita y con f. 556. Ejercicios 550.338 8.m. 551. c) Var(X) = r(1 − p)/p2 .p.g. para −∞ < x < ∞. usando G(t). . Sea X con f.4.g. c) Var(X) = λ. o 552. . 2.

m. Use la f. Sean X1 . p). o 560. b) E(X) = np. 561. usando M (t). p).g. a) MX (t) ≥ 0. Demuestre que o a) M (t) = 1 − p + pet . c) MX 2 (t) = MX (tX). demuestre en cada caso. . p) reso pectivamente. Sean X y Y independientes con distribuci´n bin(n. para demostrar que la variable X1 +· · ·+Xn tiene distribuci´n o bin(n. MX (t). o 562. c) Var(X) = (1 − p)/p2 . d) Var(X) = p(1 − p).Cap´ ıtulo 8. . . Sea X con distribuci´n Ber(p). c) E(X n ) = p. . 559. b) E(X) = p. 563. usando M (t). usando M (t). . Diga falso o verdadero. usando M (t).m. Demuestre que o a) M (t) = (1 − p + pet )n . Sea X con distribuci´n bin(n. usando M (t).m. para demostrar que X + Y tiene distribuci´n bin(n + m. b) M2X (t) = MX (2t). c) Var(X) = np(1 − p). Demuestre que o a) M (t) = p/[1 − (1 − p)et ]. Funciones generadoras 339 557. p) y bin(m. Sea X con distribuci´n Poisson(λ). usando M (t). 558. usando M (t). Use la f. Xn independientes cada una con distribuci´n Ber(p).g. Sea X con distribuci´n geo(p).g. p). Demuestre que o b) E(X) = (1 − p)/p. Sea X con f.

Sea X con distribuci´n N(µ. d) Var(X) = λ. Demuestre que o a) M (t) = ebt − eat . para demostrar que X + Y tiene distri2 2 buci´n normal con media µ1 + µ2 y varianza σ1 + σ2 . usando M (t). σ1 ) y N(µ2 . Demuestre que o a) M (t) = exp(µt + σ 2 t2 /2). Sea X con distribuci´n exp(λ). 565. 2 2 567. para t < λ. c) Var(X) = n/λ2 . Sean X y Y independientes con distribuci´n N(µ1 . Sea X con distribuci´n gama(n. usando M (t). (b − a)t b) E(X) = (a + b)/2. Ejercicios a) M (t) = exp[λ(et − 1)]. usando M (t). e) E[(X − λ)3 ] = λ. λ). c) Var(X) = (b − a)2 /12. 564.g. .340 8. σ2 ) o respectivamente. Demuestre que o a) M (t) = λ/(λ − t). o 568. c) E(X) = λ. usando M (t). usando M (t).4. usando M (t).m. b) M ′′ (t) = M ′ (t) + λet M ′ (t). σ 2 ). para t < λ. Use la f. Demuestre que o a) M (t) = [λ/(λ − t)]n . b) E(X) = µ. usando M (t). b) E(X) = 1/λ. usando M (t). usando M (t). usando M (t). c) Var(X) = 1/λ2 . 566. c) Var(X) = σ 2 . Sea X con distribuci´n unif(a. b). b) E(X) = n/λ. usando M (t).

. 577.g. para demostrar que la variable X + Y tiene distribuci´n gama(n + m. Sean X y Y independientes con distribuci´n gama(n. σ 2 ). o 571. λ). ∞ si t = 0. a2 σ 2 ).g.Cap´ ıtulo 8. con a = 0. . usando M (t). ∞ si t = 0. Demuestre que o a MX (t) = 1 si t = 0. Sean X y Y independientes con distribuci´n χ2 (n) y χ2 (m) respectio vamente. usando M (t).m. o 570. n.m. Sea X con distribuci´n N(µ. para demostrar que X + Y tiene distribuci´n gama(2. 1 si t = 0. Sea X con distribuci´n t(n). .g. λ) o respectivamente. . m > n. .m. . . Use la f.m. o b) aX + b tiene distribuci´n N(aµ + b.m. Mk (t) para k = 1. Demuestre que o a) M (t) = [1/(1 − 2t)]n/2 . Xn independientes tales que Xk tiene f. o 2 /σ 2 tiene distribuci´n χ2 (1).g. Sean X1 . Demuestre que o MX (t) = . 576. 572. σ 2 ). para demostrar que X + Y tiene distribuci´n o 2 (n + m). χ 574. Sea X con distribuci´n χ2 (n). λ) y gama(m. . Use la f. Use la f. Demuestre que MX1 +···+Xn (t) = M1 (t) · · · Mn (t). Sea X con distribuci´n Cauchy est´ndar. para t < 1/2. b) E(X) = n. para demostrar que si X y Y son independientes tales que X tiene distribuci´n χ2 (n) y X + Y tiene distribuci´n χ2 (m) con o o 2 (m − n). para demostrar que o a) −X tiene distribuci´n N(−µ.m. Use la o f. Sean X y Y independientes ambas con distribuci´n exp(λ). entonces Y tiene distribuci´n χ o 573.g. λ). c) Var(X) = 2n. c) (X − µ) o 575.g. Use la f. Funciones generadoras 341 569.

Demuestre e o que φX−Y (t) = |φX (t)|2 . . 580. Demuestre que la combinaci´n lineal convexa αφ1 (t) + (1 − α)φ2 (t) es o una funci´n caracter´ o ıstica. para todo ǫ > 0 existe δ > 0 tal que para todo t y s con |t − s| < δ. de la u siguiente funci´n de densidad. Sea n un n´mero natural. 2. . . Demuestre que la funci´n caracter´ o ıstica satisface la igualdad φ(−t) = φ(t). Sean X y Y independientes y con id´ntica distribuci´n. en donde z denota el complejo conjugado de z. n/xn+1 si x > 1. Ejercicios 578. Sean φ1 (t) y φ2 (t) dos funciones caracter´ ısticas. 583. f (x) = 0 otro caso. en este caso la funci´n caracter´ o ıstica es una funci´n real por que la variable X − Y es sim´trica. y s´lo o o e o si.m. 1].4. Demuestre que φaX+b (t) = eitb φX (at). 2. 582.g. Demuestre que la funci´n caracter´ o ıstica es una funci´n uniformemente o continua. Demuestre que no existe la f. Esta distribuci´n tiene momentos finio o tos de orden 1. Encuentre la funci´n caracter´ o ıstica de una variable aleatoria con funci´n de densidad o a) f (x) = 1 . 585. y sea α ∈ [0. Demuestre que una funci´n de distribuci´n F (x) es sim´trica si. la correspondiente funci´n caracter´ o ıstica φ(t) es real. . Sea X con funci´n caracter´ o ıstica φX (t). o e . para −∞ < x < ∞. para x = 1. es decir. 581. pero el n-´simo momento y superiores no e existen. . . y sean a y b dos constantes. . 584. Funci´n caracter´ o ıstica 579.342 8. se cumple que |φ(t) − φ(s)| < ǫ. x!(e − 1) b) f (x) = e−|x| /2. n − 1.

b) E(X 2 ) = np(1 − p + np). 343 b) E(X) = p. con n ≥ 1 entero. 587. d) E(X n ) = p. usando φ(t). 590. Hemos demostrado que la funci´n o o caracter´ ıstica de esta distribuci´n es φ(t) = (1 − p + peit )n . Hemos demostrado que la funci´n o o caracter´ ıstica de esta distribuci´n es φ(t) = exp[−λ(1 − eit )]. Sea X tiene distribuci´n bin neg(r. usando φ(t). b) E(X 2 ) = λ(λ + 1). c) Var(X) = (1 − p)/p2 . Funciones generadoras 586. . usando φ(t). Sea X con distribuci´n Ber(p). b) E(X) = r(1 − p)/p. b) E(X) = (1 − p)/p. usando φ(t). p). 589. usando φ(t). Usando o φ(t) compruebe que a) E(X) = λ. c) Var(X) = λ. Demuestre que o a) φ(t) = 1 − p + peit . Usando o φ(t) demuestre ahora que a) E(X) = np. Demuestre que o a) φ(t) = p/(1 − (1 − p)eit ). c) Var(X) = p(1 − p). Demuestre que o a) φ(t) = [p/(1 − (1 − p)eit )]r . p). usando φ(t). c) Var(X) = r(1 − p)/p2 . 588. Sea X con distribuci´n geo(p). c) Var(X) = np(1 − p). Sea X con distribuci´n bin(n. usando φ(t). Sea X con distribuci´n Poisson(λ).Cap´ ıtulo 8.

Sea X con distribuci´n normal est´ndar. b) E(X) = (a + b)/2. Use la o funci´n caracter´ o ıstica para demostrar que la variable X + Y tiene distribuci´n gama(2. 597. Sea X con distribuci´n exp(λ). c) Var(X) = (b − a)2 /12. Usando o φ(t) compruebe que E(X) = µ y Var(X) = σ 2 . Demuestre que φ(t) = λ/(λ − it).  n!  si n es par. Sea X con distribuci´n N(µ. Γ(m + n) b) E(X m ) = m . λ) o respectivamente. Hemos demostrado que la funci´n o o caracter´ ıstica de esta distribuci´n es φ(t) = exp (iµt−σ 2 t2 /2). λ). λ Γ(n) c) Var(X) = n/λ2 . y Var(X) = 1/λ2 . . Sea X con distribuci´n unif(a. Use o φ(t) para comprobar que E(X) = 1/λ. Demuestre que o a) φ(t) = [eibt − eiat ]/[it(b − a)]. λ). Usando φ(t) caracter´ ıstica de esta distribuci´n es φ(t) = [λ/(λ − it)] o compruebe nuevamente que a) E(X) = n/λ. λ). . para m = 0. Use la funci´n caracter´ o a o ıstica para demostrar que para n = 0. o 598. . Sean X y Y independientes ambas con distribuci´n exp(λ). σ 2 ). . a). 1. Demuestre que φ(t) = (sen at)/at. 594. Ejercicios 591. . Sea X con distribuci´n gama(n. Use la funci´n caracter´ o ıstica para demostrar que la variable X + Y tiene distribuci´n gama(n + m. usando φ(t). Sean X y Y independientes con distribuci´n gama(n. Sea X con distribuci´n unif(−a.4. λ) y gama(m.344 8. 593. Hemos encontrado que la funci´n o o n . 596. . 1. n n/2 (n/2)! 2 E(X ) =  0 si n es impar. o . o 592. b). usando φ(t). 595.

m. Funciones generadoras 345 599.m. es decir. 601. de la distribuci´n Cauchy: “Como o φ(t) = e−|t| y M (t) = φ(−it). Xn independientes cada una de ellas con distribuci´n o −|t| . Sean X y Y independientes. . Sn = (X1 + · · · + Xn )/n tiene distribuci´n Cauchy est´ndar para cualquier valor de n. Mediante el c´lculo de residuos de la teor´ de variable compleja puede a ıa demostrarse que la distribuci´n Cauchy est´ndar tiene funci´n caraco a o ter´ ıstica ∞ 1 dx = e−|t| . Sean X1 .g. . 600. Demuestre o o que F (x) es efectivamente una funci´n de distribuci´n.Cap´ ıtulo 8. . encuentre el error en el siguiente argumento para encontrar la f. Sea X con funci´n de distribuci´n F (x) = ex /(1 + ex ).a. o 602. entonces M (t) = e−|−it| = e−|t| . Demuestre que φXY (t) = ∞ −∞ φY (tx) dFX (x) = ∞ −∞ φX (ty) dFY (y). Con ayuda de ´sta ultima encuentre e ´ la esperanza y la varianza de X. la funci´n caracter´ a o ıstica es φ(t) = e Use este resultado para demostrar que la v.” El caso es que no existe la f. φ(t) = eitx π(1 + x2 ) −∞ Suponiendo este resultado. o a . . y calcule su o o funci´n caracter´ o ıstica asociada. para la distribuci´n Cauchy.g. Cauchy est´ndar.

.

Para cualquier ǫ > 0. P (X ≥ ǫ) ≤ E(X) . Algunas desigualdades ´ Proposicion.1. e 9. ǫ 347 .Cap´ ıtulo 9 Dos teoremas l´ ımite En este ultimo cap´ ´ ıtulo se estudian dos de los teoremas m´s importantes en a probabilidad: la ley de los grandes n´meros y el teorema central del l´ u ımite. (Desigualdad de Markov). Antes de ello se revisan algunas desigualdades de inter´s general. Sea X ≥ 0 una variable aleatoria con esperanza finita.

a) P (|X| ≥ ǫ) ≤ E|X|/ǫ. Algunas desigualdades E(X) = E( X 1(X≥ǫ) + X 1(X<ǫ) ) ≥ E( X 1(X≥ǫ) ) ≥ E( ǫ 1(X≥ǫ) ) = ǫ P (X ≥ ǫ). con n en N. (Desigualdad de Chebyshev). Para cualquier ǫ > 0.1) Demostraci´n. La siguiente desigualdad ser´ usada en la siguiente secci´n para demostrar a o la ley d´bil de los grandes n´meros. P (|X − µ| ≥ ǫ) ≤ σ2 . Sea X una variable aleatoria con media µ y varianza finita σ 2 .1. b) P (|X| ≥ ǫ) ≤ E|X|n /ǫn . e u ´ Proposicion. ≥ E ǫ2 1(|X−µ|≥ǫ) . o σ 2 = E (X − µ)2 = E (X − µ)2 1(|X−µ|≥ǫ) + (X − µ)2 1(|X−µ|<ǫ) ≥ E (X − µ)2 1(|X−µ|≥ǫ) = ǫ2 P (|X − µ| ≥ ǫ).348 Demostraci´n. o 9. este resultado establece que la probabilidad de que X exceda un valor ǫ positivo est´ acotada superiormente por la media entre ǫ. ǫ2 (9. Existen a otras versiones equivalentes de esta desigualdad. En palabras. por ejemplo.

2) Demostraci´n. ≥ E[ g(X) 1(X≥ǫ) ] . esta desigualdad dice que la probabilidad de que X difiera de su media en mas de ǫ est´ acotada superiormente por la varianza entre a 2 . Para cualquier ǫ > 0. (Desigualdad de Chebyshev extendida). P (X ≥ ǫ) ≤ E[g(X)] . por ejemplo. g(ǫ) (9. Sea X una variable aleatoria. a ´ Proposicion.Cap´ ıtulo 9. a) P (|X − µ| ≥ ǫσ) ≤ 1/ǫ2 . y sea g ≥ 0 una funci´n no decreciente tal que o g(X) es una variable aleatoria con esperanza finita. b) P (|X − µ| < ǫσ) ≥ 1 − 1/ǫ2 . Dos teoremas l´ ımite 349 En palabras. A este resultado se le conoce tambi´n con el nombre de desigualdad de ǫ e Chebyshev-Bienaym´. Ahora demostraremos una versi´n de la desigualdad de Chebyshev un poco o m´s general. c) P (|X − µ| < ǫ) ≥ 1 − σ 2 /ǫ2 . Existen otras versiones de esta desigualdad equivae lentes a la demostrada. o E[g(X)] = E[ g(X) 1(X≥ǫ) + g(X) 1(X<ǫ) ] ≥ E[ g(ǫ) 1(X≥ǫ) ] = g(ǫ)P (X ≥ ǫ).

Sean X1 . . n 1 P ( m´x {|X1 + · · · + Xk |} ≥ ǫ ) ≤ 2 a Var(Xk ). . 1856–1922) Profesor y alumno. n. Fuente: Archivo MacTutor. Xn independientes con media cero y segundo momento finito. . ´ Proposicion.350 9. Observe que las variables Sk y Sn − Sk son o independientes y por lo tanto E(Sk (Sn − Sk )) = 0. A partir de la desigualdad anterior y con una funci´n g adecuada se pueden o obtener tanto la desigualdad de Chebyshev como la desigualdad de Markov. . (Desigualdad de Kolmogorov). . . Defina ahora los eventos disjuntos k−1 Ak = ( |Sk | ≥ ǫ ) ∩ i=1 ( |Si | < ǫ ). cuya o esperanza es cero por hip´tesis. Para cualquier ǫ > 0. Andrews. k ǫ k=1 Demostraci´n. Algunas desigualdades Pafnuty Lvovich Chebyshev (Rusia. 1821–1894) Andrei Andreyevich Markov (Rusia. Universidad de St. . Para cada k = 1. defina Sk = X1 + · · · + Xk . .1. .

k con g ≥ 0 no decreciente. Cuando n = 1 la desigualdad de Kolmogorov se reduce a la desigualdad de Chebyshev. 2 El resultado se obtiene al observar que E(Sn ) = Var(Sn ) = n k=1 Var(Xk ). b) P (X ≥ ǫ) ≤ E[g(X)]/g(ǫ). Chebyshev: c) P (|X| ≥ ǫ) ≤ E|X|n /ǫn . para X ≥ 0.Cap´ ıtulo 9. a) P (|X − µ| ≥ ǫ) ≤ Var(X)/ǫ2 . Algunas desigualdades Markov: a) P (X ≥ ǫ) ≤ E(X)/ǫ. b) P (|X| ≥ ǫ) ≤ E|X|/ǫ. k=1 . 1 ǫ2 n Kolmogorov: P ( m´x{|X1 + · · · + Xk |} ≥ ǫ ) ≤ a Var(Xk ). El evento de inter´s puede escribirse e como A = n Ak . Dos teoremas l´ ımite 351 en donde en particular A1 = ( |S1 | ≥ ǫ ). En resumen se tiene la siguiente tabla. Entonces k=1 n 2 E(Sn ) ≥ = 2 E(Sn 1A ) n k=1 n = k=1 2 E(Sn 1Ak ) E( (Sk + (Sn − Sk ))2 1Ak ) 2 E( (Sk + 2Sk (Sn − Sk ) + (Sn − Sk )2 ) 1Ak ) n 2 E(Sk 1Ak ) ≥ k=1 n = k=1 n ≥ k=1 ǫ2 E(1Ak ) ≥ ǫ2 P (Ak ) k=1 = ǫ2 P (A).

Sea Sn = (X1 + · · · + Xn )/n. Haciendo n → ∞ se obtiene φSn (t) → eiµt . Como X tiene esperanza o finita µ y por la expansi´n (8. o las cuales se distinguen por el tipo de convergencia de la que se trate. a ´ ´ Teorema de Bernoulli. e Sean X1 . Ley de los grandes n´ meros u Este interesante resultado establece que. . d Por independencia la funci´n caracter´ o ıstica de Sn es entonces φSn (t) = φn (t/n) = ( 1 + i(t/n)(µ + o(1)) )n .1). La ley fuerte implica entonces la ley d´bil.2. Entonces n 1 p Xi −→ µ. o φ(t) = 1 + it(µ + o(1)). El resultado se obtiene al recordar que la convergencia en distribuci´n a una o constante es equivalente a la convergencia en probabilidad. e Existen adem´s varias generalizaciones de este resultado. Esto implica que Sn → µ. La ley d´bil establece la convergencia en probabilidad y la ley fuerte dice que e la convergencia es casi segura. (Ley debil de los grandes numeros). o . n i=1 Demostraci´n. en donde eiµt es la funci´n o caracter´ ıstica de la variable aleatoria constante µ.352 ´ 9. Ley de los grandes numeros 9. cuando t → 0.2. Demostraremos dos versiones de esta afirmaci´n. . Este mismo resultado puede demostrarse f´cilmente a partir de la desiguala dad de Chebyshev bajo la hip´tesis adicional de existencia de la varianza. independientes e id´nticamente distribuidas con media µ. y sea φ(t) la funci´n caraco o ter´ ıstica de cualquier elemento X de la sucesi´n. . el promedio de variables aleatorias converge a una constante cuando el n´mero de u sumandos crece a infinito. bajo ciertas condiciones. cuando t → 0. X2 .

p). Por lo tanto E(Xk ) = p y Var(Xk ) = p(1−p). para generar la gr´fica mostrada en la Figura 9. Se muestra tambi´n el c´digo MATLAB utilizado. Considere un experimento aleatorio cualquiera y sea A un evento.p)” genera un valor al azar de la distribuci´n bin(n. X2 . suponiendo Var(X) = σ 2 < ∞. Sea nuevamente Sn = (X1 + · · · + Xn )/n. Los o A datos obtenidos por este paquete fueron luego trasladados a L TEX. en probabilidad. Sea Xk la variable que toma el valor uno si en el k-´simo ensayo se observa A. El comano do “binornd(n. . u Ejemplo. Esta es la deu finici´n frecuentista de la probabilidad. . Entonces E(Sn ) = µ y Var(Sn ) = σ 2 /n. con p = 0.Cap´ ıtulo 9. Esta es otra simulaci´n en computadora del comportamiento del o cociente (X1 + · · · + Xn )/n cuando n crece. el cual puede ser traducie o do f´cilmente a cualquier otro lenguaje de programaci´n. o Ejemplo. Se generaron 200 a o valores al azar usando la distribuci´n discreta Ber(p). La ley d´bil de los grandes n´meros asegura que la fracci´n de ensayos en e u o los que se observa el evento A converge. Dos teoremas l´ ımite 353 El argumento es el siguiente. son independientes cada una con distribuci´n Ber(p).5. y hemos entonces corroborado su o validez con ayuda de la ley de los grandes n´meros. y se observa en cada ensayo la ocurrencia o no ocurrencia e del evento A. La desigualdad de Chebyshev aplicada a la variable Sn asegura que para cualquier ǫ > 0 se cumple P (|Sn − µ| ≥ ǫ) ≤ σ 2 /nǫ2 . A continuaci´n se muestra gr´ficamente una simulaci´n en compuo a o tadora del comportamiento del cociente (X1 + · · · + Xn )/n cuando n crece. Los puntos graa ficados fueron unidos por una linea continua para una mejor visualizaci´n o del comportamiento inicial oscilante y su eventual estabilizaci´n.1. a la constante desconocida p cuando el n´mero de ensayos crece a infinito. Damos a continuaci´n un ejemplo sencillo de aplicaci´n de la ley d´bil y o o e m´s adelante demostramos la ley fuerte. usando pstricks. ahora usando la distribuci´n o . Se efect´an realizaciones independientes u del experimento. Entonces las variables X1 . Basta ahora tomar el l´ ımite cuando n tiende a infinito para obtener el resultado. . a Ejemplo (Probabilidad frecuentista). en donde p es la probabilio dad desconocida del evento A. y cero en caso contrario.

9). Sn(1)=R. . El comando “randn” genera valores al azar de la distribuci´n normal est´ndar. S(1)=R. cualquier elemento de ´sta se o o e denota simplemente por X. X2 . .s.150) N=200.5.N). de modo que la expresi´n “1+3*randn” corresponde o a o a un valor de la distribuci´n N(1. 1/2 for j=2:N S(j)=S(j-1)+binornd(1.p).N). Sean X1 .5. 9). Demostraci´n. p=0.p). y el c´digo MATLAB para o o generar la simulaci´n. (Ley fuerte de los grandes numeros). . Entonces e 1 n n i=1 Xi −→ µ. Ley de los grandes numeros randn(’state’.’r-’) Sn /n 100 200 n Figura 9.2. c. R=binornd(1. (Suponiendo cuarto momento finito). Suponga que E|X − µ|2 = σ 2 y observe que . o continua N(1.2. S=zeros(1.1: Comportamiento del cociente Sn /n cuando n crece cuando las variables Xi tienen distribuci´n discreta Ber(p). independientes e id´nticamente distribuidas con media µ. Se generaron nuevamente 200 de estos o valores y los resultados de muestran en la Figura 9.354 ´ 9. o ´ Teorema. Es gratificante observar las oscilaciones iniciales de dicho cociente y su eventual estabilizaci´n o hacia la media de la distribuci´n. end plot([Sn]. con p = 0. Sn(j)=S(j)/j. Sn=zeros(1. Dada la id´ntica diso e tribuci´n de los elementos de la sucesi´n.

Es decir. Entonces por independencia. end plot([Sn]. n E| i=1 (Xi − µ)|4 = nE|X − µ|4 + 3n(n − 1)σ 4 . Por lo tanto con probabilidad uno. o E(X − µ) = 0.1500) N=200. S(1)=R. Sn(1)=R. con probabilidad uno. R=1+3*randn. S=zeros(1.2) aplicada a la variable | y la funci´n g(x) = x4 se obtiene. Sn(j)=S(j)/j.N). Dos teoremas l´ ımite 355 randn(’state’. n i=1 (Xi −µ)| Por la desigualdad de Chebyshev (9.Cap´ ıtulo 9. s´lo un n´mero finito de o u estos eventos ocurre. Entonces ∞ P (An ) < ∞. .2: Comportamiento del cociente Sn /n cuando n crece usando la distribuci´n normal con media uno y varianza nueve. o n n P (| i=1 (Xi − µ)| > nǫ) ≤ E| i=1 (Xi − µ)|4 /(nǫ)4 = ( nE|X − µ|4 + 3n(n − 1)σ 4 )/(nǫ)4 . existe un n´mero u natural n a partir del cual ning´n evento An se verifica. Sn=zeros(1. u 1 P ( l´ | ım n→∞ n n i=1 Xi − µ| ≤ ǫ ) = 1. Por i=1 n=1 el lema de Borel-Cantelli la probabilidad de que ocurra una infinidad de eventos An es cero. es decir. for j=2:N S(j)=S(j-1)+1+3*randn.N). para ǫ > 0.’r-’) Sn /n 1 n 100 200 Figura 9. 1 Sea el evento An = (| n n Xi − µ| > ǫ).

indepeno dientes e id´nticamente distribuidas Ber(p). .356 ´ 9. . . e suponiendo que el total de caracteres disponibles es m. Sea Ak el evento correspondiente a que en el k-´simo bloque el mono tenga e ´xito. u o Considere entonces un mono que escribe caracteres al azar. Ley de los grandes numeros Como esta afirmaci´n vale para cualquier ǫ > 0. nuevamente). supondremos. . x2N . con p = P (Ak ) = (1/m)N . la media de cada una de estas variables es E(Xk ) = p. xN +1 . Esto o implica que debe existir un valor de k tal que Xk = 1. y sea Xk la variable aleatoria indicadora del evento Ak . e Xk = 1 si Ak ocurre. . . Usaremos la ley fuerte de los grandes n´meros para dar otra soluci´n al problema del mono. xN . . (El problema del mono. se cumple que o P ( l´ ım 1 n→∞ n n Xi = µ ) = 1. . i=1 Ejemplo. 0 si Ak no ocurre. es decir. Nuevamente se consideran bloques de longitud N de la siguiente forma x1 . .2. significa u que alguno de los sumandos es distinto de cero. . . las cuales. y por lo tanto que el mono ha tenido ´xito. Pero esto es justamente lo que garantiza la ley fuerte de los e grandes n´meros pues u P ( l´ ım 1 n→∞ n n Xk = p ) = 1. Nos interesa encontrar la probabilidad de que el mono eventualmente escriba las obras completas de Shakespeare. . X2 . Considere ahora la suma X1 + · · · + Xn . Se tiene entonces una sucesi´n de variables aleatorias X1 . con probabilidad uno la suma en esta ecuaci´n es positiva. k=1 Es decir. y esto a su vez . . . Si para alg´n valor de n esta suma es positiva. En particular. tienen una longitud total de N caracteres.

para e e a u que el promedio que aparece en esta ecuaci´n sea positivo necesariamente la o suma debe ser infinita. . .3. . . a 9. Dos teoremas l´ ımite 357 significa que en el k-´simo bloque el mono ha tenido ´xito. Existen muchas versiones y generalizaciones de este teorema pero nos limitaremos a enunciar y demostrar una versi´n simple y corta. de Moivre alrededor de 1733 en el caso cuando las variables aleatorias tienen distribuci´n Bernoulli con p = 1/2. Esto quiere decir que con probabilidad uno el mono escribir´ una infinidad de veces las obras completas de Shakespeare. S. 1). El e o teorema de de Moivre-Laplace es una caso particular del siguiente resultado fundamental. Laplace demostr´ su validez para valores arbitrarios de p. Este a o teorema fue descubierto por A. A˜os o n despu´s P. Laplace. de Moivre y de P. Sea X1 . l´ P ( a < ım X1 + · · · + Xn − np 1 < b) = √ 2π np(1 − p) b a n→∞ e−x 2 /2 dx. Este resultado es de amplio uso en estad´ ıstica y otras ramas de aplicaci´n de la o probabilidad. Teorema de De Moivre-Laplace. o Un caso particular de este resultado lleva el nombre de A. Teorema central del l´ ımite Concluimos el curso con el c´lebre y famoso teorema central del l´ e ımite. En palabras este resultado establece que la variable aleatoria (X1 + · · · + Xn − np)/ np(1 − p) converge en distribuci´n a una variable aleatoria noro mal est´ndar. Para cualesquiera n´meros o a u reales a < b. S. y por lo tanto. una demostraci´n directa puede ser encontrada en [8]. X2 . una sucesi´n de o variables aleatorias independientes tal que cada una de ellas tiene distribuci´n Bernoulli con par´metro p ∈ (0. deben existir una infinidad de valores de k tal que Xk = 1. M´s a´n.Cap´ ıtulo 9.

que por la expansi´n (8. Por o ıstica de cualquier elemento de la en donde φX (t) es la funci´n caracter´ sucesi´n. Teorema central del l´ ımite Teorema central del l´ ımite. 1). nσ n en donde cada sumando del numerador en el lado derecho es una variable con media cero y varianza uno. n→∞ nσ . 2n 2 Haciendo n → ∞ se obtiene φZn (t) → e−t /2 . X1 + · · · + Xn − nµ √ l´ P ( ım ≤ x ) = P (Z ≤ x). As´ pues. 1). Se desea probar que d 2 /2 Zn → N(0. X2 . sin p´rdida de generalidad. Observe que o X1 + · · · + Xn − nµ (X1 − µ)/σ + · · · + (Xn − µ)/σ √ √ = .358 9. cuando t → 0. o o o 1 φX (t) = 1 − t2 (1 + o(1)). e o √ √ φZn (t) = E( eit(X1 +···+Xn )/ n ) = ( φX (t/ n) )n . E(Xn ) = µ y Var(Xn ) = σ 2 < ∞. Para ello es suficiente demostrar que φZn (t) → e−t independencia e id´ntica distribuci´n. una sucesi´n de vao riables aleatorias independientes e id´nticamente distribuidas tales que e para cada natural n. φZn (t) = ( 1 − El teorema central del l´ ımite establece entonces que para cualquier n´mero u real x. t2 (1 + o(1)) )n . Entonces X1 + · · · + Xn − nµ d √ −→ N(0. o √ Considere entonces la suma Zn = (X1 + · · · + Xn )/ n. . 2 Por lo tanto.1) adquiere la expresi´n. .3. nσ Demostraci´n. Sea X1 . . suponı e dremos que cada variable de la sucesi´n tiene media cero y varianza uno.

de modo que la expresi´n de o arriba es una especie de estandarizaci´n de esta variable. s´lo requiriendo la existencia de la media y la varianza. Equivalentemente o el resultado puede enunciarse del siguiente modo: (X1 + · · · + Xn )/n − µ d √ −→ N(0. o o .Cap´ ıtulo 9. es decir. ´stas pueden tener cualquier o o e distribuci´n. Observe que la suma X1 + o a · · · + Xn tiene media nµ y varianza nσ 2 . M. Lyapunov alrededor de 1901. σ/ n Este teorema fue demostrado rigurosamente por A. 1). Dos teoremas l´ ımite 359 en donde Z tiene distribuci´n normal est´ndar. Observe que no hay ninguna hip´tesis adicional sobre la distribuo ci´n de las variables de la sucesi´n.

usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |Xn − X|. 605. Use la desigualdad de Markov para demostrar que si X es una variable aleatoria no negativa con esperanza cero. Demuestre que la convergencia en media implica la convergencia en probabilidad. Demuestre la desigualdad de Markov siguiendo los siguientes pasos: Suponga X ≥ 0. Ejercicios 9. es decir. . en media ⇒ Conv. Conv. y para ǫ > 0 defina Xǫ = ǫ si X ≥ ǫ.2) para demostrar directamente que la convergencia en media cuadr´tica implica la convergencia en probabilidad. a 607. en probabilidad. 0 si X < ǫ. 604. Conv. en probabilidad. Compruebe que Xǫ ≤ X. Use la desigualdad de Chebyshev (9.360 9.4. Desigualdad de Chebyshev 606. entonces X = 0 casi seguramente. P (X = a) = 1. ⇒ Conv.c.4. en m. Demuestre la desigualdad de Chebyshev (9. Ahora tome esperanza de ambos lados y calcule E(Xǫ ). 608. Ejercicios Desigualdad de Markov 603. Use la desigualdad de Chebyshev para demostrar que si X es una variable aleatoria tal que E(X) = a y Var(X) = 0.1) usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |X − µ|. entonces X es constante casi seguramente.

Sea X con media µ y varianza σ 2 . b) de manera directa. Use la desigualdad de Chebyshev para estimar la probabilidad de que X tome valores entre µ − ǫσ y µ + ǫσ para cualquier ǫ > 0 constante.90. para ǫ > 0 y n ∈ N.1) y la desigualdad de Markov. 613. . Demuestre que P (X ≥ ǫ) ≤ E(etX )/eǫt . Demuestre que P (|X| ≥ ǫ) ≤ E|X|n /ǫn . o 615. para ǫ > 0 y t > 0. sin hip´tesis adicionales. b) de manera directa. 610. a) usando la desigualdad de Chebyshev extendida. Demuestre que el valor exacto de la probabilidad P (|X − µ| ≥ 3σ) coincide con la estimaci´n dada por la desigualdad de Chebyshev. a) usando la desigualdad de Chebyshev extendida.Cap´ ıtulo 9. b) de manera directa. 1. 611. f (x) = 16/18 si x = 0. 612. Este o resultado demuestra que. la cota superior o dada por la desigualdad de Chebyshev es ´ptima.  0 otro caso. Dos teoremas l´ ımite 361 609.2) demuestre la desigualdad de Chebyshev (9. 614. para ǫ > 0. Sea X discreta con funci´n de probabilidad o   1/18 si x = −1. Considere la siguiente versi´n de la desigualdad de Chebyshev o P (|X − µ| < ǫσ) ≥ 1 − 1/ǫ2 . A partir de la desigualdad de Chebyshev extendida (9. Encuentre el m´ ınimo valor de ǫ > 0 de tal modo que la probabilidad de que una variable aleatoria tome valores entre µ − ǫσ y µ + ǫσ sea al menos 0. Demuestre que P (|X| ≥ ǫ) ≤ E|X|/ǫ. a) usando la desigualdad de Chebyshev extendida.

entonces n 1 m. Demuestre que si Var(X) < ∞. Desigualdad de Cantelli. son independientes con media µ y varianza σ 2 . Ejercicios 616. . .4. . Use la ley d´bil de los grandes n´meros para demostrar que si Xn e u p 1 tiene distribuci´n bin(n. Demuestre que si X1 . σ 2 /n) para cualquier o valor de n. X2 . independientemente del valor de n. Calcule la probabilidad de que ambas caras caigan el mismo n´mero de veces. . . Se lanza una moneda equilibrada 2n veces. cuando n tiende a o infinito. Xn independientes con distribuci´n N(µ. Ley de los grandes numeros en media cuadratica. n i=1 Observe que no se pide la hip´tesis de id´ntica distribuci´n para las o e o variables aleatorias y que este resultado no es consecuencia de la ley fuerte. ´ ´ 618. P (|X − E(X)| > ǫ) ≤ 2 Var(X) . Sean X1 . ¿Qu´ le sucede a u e esta probabilidad cuando n tiende a infinito? ¿Contradice esto la ley de los grandes n´meros? u . .362 9. p). Xi −→ µ. ¿Contradice o a esto la ley de los grandes n´meros? u 621. . El promeo dio (X1 + · · · + Xn )/n tiene distribuci´n N(µ. 619. entonces para cualquier ǫ > 0. . . En el ejercicio 602 se pide usar la funci´n caracter´ o ıstica para demostrar que si X1 . σ 2 ). entonces el promedio Sn = (X1 + · · · + Xn )/n tiene distribua ci´n Cauchy est´ndar. . Xn son independientes con distribuci´n Cauchy o est´ndar.c. . ǫ2 + Var(X) Ley de los grandes n´meros u 617. entonces n Xn −→ p. ¿Contradice esto la ley de los grandes n´meros? u 620.

X2 . k! 2 624. .Cap´ ıtulo 9. Dos teoremas l´ ımite 363 Teorema central del l´ ımite 622. Use el teorema central del l´ ımite para demostrar que l´ ım 1 en n k=0 n→∞ nk 1 = .5? . Use el teorema central del l´ ımite para estimar la probabilidad de obtener mas de 520 ´guilas en 1000 lanzamientos de una moneda honesta. . La probabilidad de ocurrencia de un evento en un ensayo es de 0. Sean X1 . independientes con distribuci´n Poisson(λ) con λ = o 1. a 623.2 y 0. .3. ¿Cu´l es la probabilidad de que la frecuencia relativa de este evento a en 100 ensayos se encuentre entre 0.

.

f (x) = px (1 − p)1−x para x = 0. 1). Como en el texto. Distribuci´n Bernoulli o X ∼ Ber(p). La suma de n variables o independientes Ber(p) tiene distribuci´n bin(n. y φ(t) es la o funci´n caracter´ o ıstica. Como es costumbre. E(X) = p. G(t) es la funci´n generadora o o de probabilidad. p). 1.Ap´ndice A e Distribuciones de probabilidad Se presenta a continuaci´n una lista en orden alfab´tico de algunas distrio e buciones de probabilidad univariadas de uso com´n. G(t) = 1 − p + pt. y la funci´n o o de distribuci´n por F (x). Var(X) = p(1 − p). M (t) es la funci´n generadora de momentos. Este es el modelo m´s simple de variable aleatoria y corresponde a la obsera vaci´n de la ocurrencia o no ocurrencia de un evento. o 365 . u la funci´n de probabilidad o de densidad se denota por f (x). con p ∈ (0. M (t) = 1 − p + pet .

Cuando a = 1. M (t) = [1 − p + pet ]n . . G(t) = (1 − p + pt)n . n. p) con r ∈ N y p ∈ (0. . p). . b > 0. x E(X) = r(1 − p)/p. p) tiene distribuci´n bin(n + m. Var(X) = r(1 − p)/p2 . G(t) = [p/(1 − t(1 − p))]r . Var(X) = np(1 − p). p) y o bin(m. para x ∈ (0. b). La suma de dos variables independientes con distribuci´n bin(n. n f (x) = px (1 − p)n−x para x = 0. . b = 2 o a = 2. r+x−1 f (x) = pr (1 − p)x para x = 0. f (x) = xa−1 (1 − x)b−1 /B(a. b = 1 se obtiene la distribuci´n triangular. . x E(X) = np. 1). p) con n ∈ N y p ∈ (0. 1). . 1. 1). E(X) = a/(a + b). o Distribuci´n binomial negativa o X ∼ bin neg(r. Una variable aleatoria binomial registra el n´mero de ´xitos en n ensayos u e independientes Bernoulli en donde en cada ensayo la probabilidad de ´xito e es p.366 Distribuci´n beta o X ∼ beta(a. . Var(X) = ab/[(a + b + 1)(a + b)2 ]. b) con a > 0. o Distribuci´n binomial o X ∼ bin(n. . 1.

para x > 0. Distribuci´n exponencial o X ∼ exp(λ) con λ > 0. o . M (t) = λ/(λ − t) para t < λ. para x > 0. E(X) = 1/λ. para x ∈ R. La suma de n variables independientes exp(λ) tiene distribuci´n gama(n. Este es el modelo que se usa para contar el n´mero de fracasos antes de u obtener el r-´simo ´xito en una sucesi´n de ensayos independientes Bernoue e o lli. 1 f (x) = . o e Distribuci´n Cauchy o X ∼ Cauchy(a. Var(X) = 1/λ2 . o φ(t) = exp(iat − b|t|).Ap´ndice A. Distribuciones de probabilidad e 367 M (t) = [p/(1 − qet )]r . b) con a > 0 y b > 0. la varianza y cualquier momento no existen. F (x) = 1/2 + (arctan x)/π. La funci´n generadora de momentos no existe para t = 0. La distribuci´n e o binomial negativa se reduce a la distribuci´n geom´trica cuando r = 1. En este caso. para x ∈ R. en donde en cada ensayo la probabilidad de ´xito es p. f (x) = λe−λx . F (x) = 1 − e−λx . Cuando a = 0 y b = 1 se obtiene la distribuci´n Cauchy est´ndar. o f (x) = 1/(π(1 + x2 )). λ). y coincide o a con la distribuci´n t(n) con n = 1. φ(t) = λ/(λ − it). bπ[1 + ((x − a)/b)2 ] La esperanza.

a Distribuci´n geom´trica o e X ∼ geo(p) con p ∈ (0. . o . (λx)n−1 −λx f (x) = λe para x > 0. 1). 1. Var(X) = (1 − p)/p2 . En a ocasiones se usa el par´metro 1/θ en lugar de λ. . Cuando n = 1 la distribuci´n gama se reduce a la distribuci´n exponeno o cial. G(t) = p/[1 − t(1 − p)]. n).368 Distribuci´n gama o X ∼ gama(n. E(X) = (1 − p)/p. La distribuci´n geom´trica e o e es un caso particular de la distribuci´n binomial negativa. en donde e o en cada uno de ellos la probabilidad de ´xito es p. es decir. M (t) = p/[1 − (1 − p)et ]. Γ(n) n−1 F (x) = 1 − e−λx k=0 (λx)k /k! para x > 0 y n entero. Var(X) = n/λ2 . para t < λ. E(X) = n/λ. Advertencia: para denotar esta distribuci´n en algunos textos se usa o el s´ ımbolo gama(λ. el orden de los par´metros es distinto. f (x) = p(1 − p)x para x = 0. Esta variable se usa para modelar el n´mero de fracasos antes de obtener el u primer ´xito en una sucesi´n de ensayos independientes Bernoulli. . M (t) = [λ/(λ − t)]n . λ) con n > 0 y λ > 0.

1). M (t) = (1 − 2t)−n/2 para t < 1/2. σ 2 ) con µ ∈ R y σ 2 > 0. o o Distribuci´n log normal o X ∼ log normal(µ. Distribuciones de probabilidad e 369 Distribuci´n hipergeom´trica o e X ∼ hipergeo(N. N N N −1 Si un conjunto de N elementos se puede separar en dos clases. . Si X tiene distribuci´n N(0. f (x) = √ x 2πσ 2 E(X) = exp(µ + σ 2 /2). entonces la variable X modela el n´mero de elementos u seleccionados de la primera clase. Distribuci´n ji-cuadrada o X ∼ χ2 (n) con n > 0. una clase con K elementos y la otra con N − K elementos. K. entonces X 2 tiene distribuci´n χ2 (1). 1. Γ(n/2) 2 E(X) = n. x n−x n E(X) = nK/N . n ∈ N y n ≤ K ≤ N . y si se seleccionan n elementos de este conjunto. 1 exp[−(ln x − µ)2 /2σ 2 ] para x > 0. K N −K N f (x) = / para x = 0. . . K. n) con N. n. 1 1 n/2 n/2−1 −x/2 f (x) = x e para x > 0. φ(t) = (1 − 2it)−n/2 .Ap´ndice A. KN −K N −n Var(X) = n . . . Var(X) = 2n.

La funci´n generadora de momentos no existe. Var(X) = ab2 /[(a − 1)2 (a − 2)] para a > 2. La suma o a o diferencia de dos variables independientes con distribuci´n normal tiene o distribuci´n normal. o Distribuci´n Pareto o X ∼ Pareto(a. M (t) = exp (µt + σ 2 t2 /2). 2 2 1 e−(x−µ) /2σ . b) con a > 0 y b > 0. Cuando µ = 0 y σ 2 = 1 se obtiene la distribuci´n normal est´ndar. entonces eX tiene distribuci´n log normal(µ. φ(t) = exp (iµt − σ 2 t2 /2). Var(X) = σ 2 . Si X tiene distribuci´n o o 2 ). N(µ. . F (x) = 1 − [b/(b + x)]a para x > 0. f (x) = aba /(b + x)a+1 para x > 0. σ 2 ) con µ ∈ R y σ 2 > 0. σ 2 ).370 E(X n ) = exp(nµ + n2 σ 2 /2). σ o Distribuci´n normal o X ∼ N(µ. E(X) = b/(a − 1) para a > 1. Var(X) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ). f (x) = √ 2 2πσ E(X) = µ.

. φ(t) = exp(−|t|) . Var(X) = n/(n − 2) para n > 2. G(t) = (tx1 + · · · + txn )/n. Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 . . G(t) = e−λ(1−t) . nπ Γ(n/2) E(X) = 0. E(X) = (x1 + · · · + xn )/n. . xn } con n ∈ N. . Distribuciones de probabilidad e 371 Distribuci´n Poisson o X ∼ Poisson(λ) con λ > 0. xn . . . . . M (t) no existe para t = 0. 1. M (t) = (ex1 t + · · · + exn t )/n. Var(X) = λ. . f (x) = 1/n para x = x1 . f (x) = e−λ λx /x! para x = 0. E(X) = λ. Var(X) = [(x1 − µ)2 + · · · + (xn − µ)2 ]/n.Ap´ndice A. . La expresi´n de φ(t) resulta complicada o para valores n ≥ 2. . M (t) = exp [λ(et − 1)]. cuando n = 1. Distribuci´n uniforme discreta o X ∼ unif{x1 . o Distribuci´n t o X ∼ t(n) con n > 0. La suma de dos variables independientes con distribuci´n Poisson(λ1 ) y o Poisson(λ2 ) tiene distribuci´n Poisson(λ1 + λ2 ). .

F (x) = (x − a)/(b − a) para x ∈ (a. b) con a < b. Cuando r = 2 se obtiene la o distribuci´n Rayleigh(λ). M (t) = (ebt − eat )/(bt − at). r f (x) = e−(λx) rλr xr−1 para x > 0. λ) con r > 0 y λ > 0. Var(X) = [Γ(1 + 2/r) − Γ2 (1 + 1/r)]/λ2 . E(X) = (a + b)/2. o . b).372 Distribuci´n uniforme continua o X ∼ unif(a. Distribuci´n Weibull o X ∼ Weibull(r. E(X) = Γ(1 + 1/r)/λ. Var(X) = (b − a)2 /12. r F (x) = 1 − e−(λx) para x > 0. Cuando r = 1 se obtiene la distribuci´n exp(λ). f (x) = 1/(b − a) para x ∈ (a. b).

ϑ alfa beta gama delta epsilon zeta eta theta Iι Kκ Λλ M µ Nν Ξξ Oo Ππ iota kapa lambda mu nu xi omikron pi P ρ. ̺ Σ σ. ϕ X χ Ψψ Ωω rho sigma tau upsilon phi ji ´ chi o psi omega 373 . ε Zζ H η Θ θ.Ap´ndice B e Conceptos y resultados varios El alfabeto griego Aα Bβ Γγ ∆δ E ǫ. ς T τ Υυ Φ φ.

}. . n=0 L´ ımite superior e inferior Sea a1 . Independencia de los eventos A y B. . y al l´ ı ımite de c1 ≥ c2 ≥ · · · se le . a1 . a2 . por lo tanto son convergentes. Es decir. . no excluyendo con ello valores infinitos. y cm ≥ cm+1 . una sucesi´n de n´meros reales o complejos tal que la serie o u ∞ an es convergente. . tր1 l´ G(t) = ım ∞ an . y cm = sup {am . una sucesi´n infinita de n´meros reales. o Lema de Abel Sea a0 . m´x{a. . L´ ımite por la derecha de la funci´n F en el punto x. a m´ ın{a. .}. la o primera no decreciente y la segunda no creciente. . b}. ambas sucesiones son mon´tonas. b}. . . . Para cada m natural o u defina bm = ´ {am .374 Notaci´n o B(R) a∨b a∧b A⊥B ⌊x⌋ F (x+) F (x−) : : : : : : : Conjuntos de Borel de R. la cual es o n=0 n=0 convergente para valores de t por lo menos en el intervalo [0. . 1]. am+1 . Defina la funci´n G(t) = ∞ an tn . Claramente ınf bm ≤ bm+1 . Parte entera de x. am+1 . . es o decir. El lema de Abel asegura que G(t) es una funci´n continua por la izquierda en t = 1. o L´ ımite por la izquierda de la funci´n F en el punto x. Al l´ ımite de la sucesi´n o b1 ≤ b2 ≤ · · · se le llama l´mite inferior.

l´ inf n→∞ an = l´ supn→∞ an = a. respectivamente. Considere una funci´n X : A → B. Es inmediato comım ım probar que l´ inf n→∞ an ≤ l´ supn→∞ an . . la imagen inversa de B es aquella colecci´n de elementos de o A tal que al aplicarles la funci´n X toman un valor dentro del conjunto o B. a2 . y definido como sigue: X −1 B = {a ∈ A : X(a) ∈ B}. mientras que X −1 es una funci´n conjuntista. Conceptos y resultados varios e 375 llama l´mite superior de la sucesi´n a1 . . es decir. A estos l´ ı o ımites se les denota por l´ inf n→∞ an y l´ supn→∞ an . denotado por X −1 B. es decir. Adem´s la sucesi´n original es ım ım a o convergente al n´mero a si. La imagen inversa cumple las o siguientes propiedades: .1: Imagen inversa. Observe que X es una funci´n puntual. No debe confundirse X −1 con la funci´n inversa de X. Imagen inversa Sean A y B dos conjuntos. lleva o subconjuntos de B en subconjuntos de A. . y s´lo si.. u o ım ım Estos conceptos de l´ ımite inferior y superior pueden extenderse al caso de sucesiones de eventos como se muestra en el primer cap´ ıtulo de este texto. o El concepto de imagen inversa es usado en este texto para definir a una variable aleatoria como una funci´n medible. lleva puntos de A en o puntos de B. X X −1 B A B B Figura B. La imagen o inversa de un conjunto B ⊆ B es un subconjunto de A.Ap´ndice B. En palabras.

h) A ⊆ X −1 (XA). d) X −1 (B2 − B1 ) = X −1 B2 − X −1 B1 . entonces para cualquier subconjunto C de C. k k=1 X ∞ −1 B . el conjunto A es un evento. / 1A (ω) = De este modo la funci´n 1A toma el valor uno dentro del conjunto A. La funci´n indicadora o o cumple. b) X −1 (B c ) = (X −1 B)c . entonces X −1 B1 ⊆ X −1 B2 . 0 si ω ∈ A. Funci´n indicadora o La funci´n indicadora de un conjunto A ⊆ Ω es la funci´n 1A : Ω → {0. las siguientes propiedades: a) 1A∪B = m´x {1A . o Si se tienen dos funciones X : A → B y Y : B → C. k k=1 X o g) X(X −1 B) ⊆ B. se cumple (X ◦ Y )−1 C = X −1 (Y −1 C). a .376 a) X −1 B = A. X es sobre. X es inyectiva. la igualdad se cumple si. la igualdad se cumple si. 1} o o dada por 1 si ω ∈ A. y cero o fuera de ´l. Es sencillo verificar que esta funci´n resulta ser una variable e o aleatoria si. 1B } = 1A + 1B − 1A · 1B . y s´lo si. entre otras. y s´lo si. e) X −1 ( f) X −1 ( ∞ k=1 Bk ) ∞ k=1 Bk ) = = ∞ −1 B . c) Si B1 ⊆ B2 . y s´lo si.

f) Si A ⊆ B. e) 1A△B = |1A − 1B | = |1A − 1B |2 = 1A + 1B − 2 · 1A · 1B . Se dice que Q es absolutamente continua respecto de P si cada vez que P (A) = 0. Se escribe ξ = dQ/dP y se le llama la derivada de Radon-Nikodym. Sea (Ω. necesariamente Q(A) = 0 para cada A en F . Si Q ≪ P . entonces existe una variable aleatoria integrable ξ que es unica P -casi seguramente. y sea G ⊆ F una sub σ-´lgebra. a El teorema de Radon-Nikodym garantiza entonces la existencia y unicidad P -casi segura de una variable aleatoria G -medible ξ tal que para cada A en . Sean P y Q dos medidas de probabilidad. F ) un espacio medible. 377 Esperanza condicional Sea (Ω. sea X una variable aleatoria integrable. Q(A) = A ξ dP. F . d) 1A−B = 1A − 1A · 1B . Teorema de Radon-Nikodym. En tal caso se escribe Q ≪ P . y es tal que para ´ cada evento A. Conceptos y resultados varios e b) 1A∩B = m´ {1A .Ap´ndice B. ın c) 1Ac = 1 − 1A . entonces 1A ≤ 1B . P ) un espacio de probabilidad. Para cada A a en G defina Q(A) = X dP. 1B } = 1A · 1B . Con ayuda de este teorema es f´cil demostrar la existencia y unicidad de la a esperanza condicional. A Puede comprobarse que Q ≪ P cuando P se restringe a la σ-´lgebra G .

378 G. con probabilidad estrictamente positiva. 10. entonces E(X | G ) ≤ E(Y | G ). continuo. B c . 3. Si Y toma los valores y1 . G E(X | G ) dP = X dP. 9. X dP = A A ξ dP. i=1 13. . E(X | {∅. E(X | G ) es G -medible y tiene esperanza finita. Si B1 . Ω} ) = P (A | B)1B + P (A | B c )1B c . . He aqui una lista de algunas de sus propiedades. 5. G para cualquier G ∈ G . A la variable ξ le hemos denotado por E(X | G ). 4. 6. E(E(X | G )) = E(X). . 8. Ω} ) = E(X). entonces E(X | G ) ≥ 0. . Si B es un evento tal que 0 < P (B) < 1. . entonces E(1A | {∅. . Caso abs. Si ω es tal que Y (ω) = y. . . E |E(X | G )| ≤ E(|X|). entonces E(X | Y )(ω) = ∞ −∞ x dFX|Y (x|y). 12. Si X ≥ 0. 1. 2. . . Si X ≤ Y . E(αX + Y | G ) = α E(X | G ) + E(Y | G ). 11. cuando fY (y) = 0. 7. Bn }) = E(X | B1 ) · 1B1 + · · · + E(X | Bn ) · 1Bn . | E(X | G ) | ≤ E( |X| | G ). . y2 . entonces E(X | Y ) = ∞ E(X | Y = yi ) 1(Y =yi ) . Caso discreto. entonces E(X | σ{B1 . Bn es una partici´n de Ω tal que cada elemento tiene proo babilidad estrictamente positiva. B. .

Si G1 ⊆ G2 . entonces E(E(X | G1 ) | G2 ) = E(E(X | G2 ) | G1 ) = E(X | G1 ). X es independiente de G si. entonces E(Xn | G ) ր E(X | G ) c. Teorema de convergencia monotona. 17. 18. 15. entonces E(X | G ) = X. entonces E(Xn | G ) −→ E(X | G ). Conceptos y resultados varios e 379 14. entonces a E(X | σ(G1 ∪ G2 )) = E(X | G1 ). Si XY es integrable y X es G -medible. E(f (X) | G ) = E(f (X)) para o cualquier funci´n Lebesgue medible f tal que f (X) es integrable. Desigualdad de Jensen. Si Xn ≥ 0 y Xn ր X c.s. entonces E(X | σ(G1 ∪ G2 )) = E(X | G1 ) + E(X | G2 ) − E(X). En particular. Si G1 y G2 son independientes. Si X es independiente de G . entonces E(XY | G ) = X E(Y | G ). y s´lo si. 21.. entonces E(X | G ) = E(X). m m . entonces u(E(X | G )) ≤ E(u(X) | G ). Si Xn −→ X. ´ 19. 20.Ap´ndice B. 16.s. Si u es convexa y u(X) es integrable. E(c | G ) = c. Si X es G -medible. o 22. Si adem´s X es independiente de G2 .

9997 0.5438 0.9973 0.6915 0.9986 0.6179 0.5675 0.9686 0.6026 0.9913 0.9979 0.9940 0.5714 0.7995 0.9868 0.9972 0.1 0.9988 0.9082 0.7291 0.9974 0.7734 0.5000 0.9066 0.8289 0.8749 0.9441 0.9890 0.9838 0.9984 0.9693 0.5596 0.8577 0.9887 0.6664 0.7517 0.8238 0.9936 0.9959 0.9985 0.9946 0.7967 0.04 0.9251 0.380 Tabla de la distribuci´n normal est´ndar o a x 1 Φ(x) = √ 2π x 0.5871 0.9931 0.9554 0.9995 0.7019 0.9995 0.9898 0.9991 0.5120 0.9406 0.7823 0.9616 0.9881 0.9382 0.9949 0.7794 0.9625 0.5 2.8438 0.9505 0.00 0.5040 0.9987 0.5080 0.9982 0.5 0.9861 0.7642 0.6293 0.9992 0.9968 0.9911 0.8944 0.7 2.5987 0.6368 0.9994 0.9997 0.4 1.9997 0.9826 0.6217 0.9812 0.9975 0.8461 0.9979 0.9970 0.9 2.5948 0.9772 0.5557 0.03 0.9952 0.9976 0.2 1.9864 0.9798 0.9162 0.9265 0.9147 0.8399 0.9993 0.9 3.9977 0.7257 0.6985 0.9525 0.9370 0.5319 0.4 2.9032 0.9991 0.9918 0.7852 0.9750 0.5239 0.9965 0.3 2.6628 0.7580 0.1 1.9357 0.6808 0.9983 0.9279 0.9573 0.9671 0.02 0.9995 0.9332 0.8665 0.6844 0.9788 0.7910 0.3 1.9192 0.9995 0.9989 0.9830 0.7939 0.9961 0.5160 0.9997 .9207 0.9884 0.9997 0.9990 0.9582 0.8554 0.8 2.9993 0.9732 0.6591 0.9955 0.9429 0.9495 0.7422 0.7486 0.9452 0.9854 0.9964 0.9997 0.9957 0.5279 0.7389 0.9591 0.9535 0.5478 0.9793 0.7190 0.9115 0.9927 0.9987 0.7157 0.8159 0.9783 0.7 1.9 1.5199 0.7224 0.9649 0.9951 0.9990 0.8413 0.9980 0.9049 0.6 2.9969 0.9904 0.3 0.9978 0.7 0.6406 0.9938 0.9994 0.8264 0.1 3.8729 0.9713 0.7357 0.7881 0.9474 0.7454 0.6 0.6554 0.6331 0.8315 0.6103 0.9726 0.9564 0.9706 0.8106 0.9418 0.9966 0.6141 0.9992 0.9963 0.5636 0.9893 0.9986 0.8365 0.8 0.8888 0.9633 0.9608 0.9878 0.9236 0.9842 0.9945 0.6879 0.6700 0.4 0.6443 0.4 0.5832 0.6517 0.9977 0.9920 0.9808 0.8962 0.8708 0.9857 0.9943 0.09 0.2 3.9989 0.9909 0.9971 0.9656 0.9993 0.9761 0.8980 0.8051 0.9515 0.9995 0.9678 0.8790 0.9222 0.9756 0.9981 0.9834 0.5793 0.9984 0.6950 0.9995 0.9996 0.8186 0.9992 0.9545 0.9463 0.9394 0.9871 0.05 e−t 2 /2 dt 0.6064 0.8770 0.6772 0.7764 0.9767 0.07 0.7673 0.9896 0.01 0.9641 0.8869 0.9817 0.6 1.8 1.8508 0.06 0.9974 0.9994 0.9998 0.9994 0.7611 0.9906 0.8830 0.6480 0.9803 0.9778 0.9664 0.0 1.9987 0.9319 0.8686 0.7054 0.7549 0.9996 0.9967 0.8485 0.9821 0.9981 0.9015 0.9699 0.9738 0.5517 0.8133 0.9962 0.8212 0.9990 0.9941 0.2 2.9982 0.9985 0.9292 0.9993 0.0 3.9997 0.9997 0.8340 0.5 1.8925 0.5359 0.9988 0.8849 0.9345 0.9177 0.7704 0.9932 0.08 0.9929 0.9953 0.8599 0.5910 0.9992 0.9922 0.9960 0.9484 0.9599 0.9875 0.9994 0.9997 x −∞ 0.7324 0.9744 0.9996 0.9099 0.8531 0.9925 0.6255 0.9850 0.8078 0.2 0.3 3.8621 0.0 0.8643 0.9934 0.9991 0.9956 0.9989 0.5398 0.9131 0.9948 0.7088 0.8810 0.9916 0.9996 0.5753 0.8997 0.9901 0.7123 0.8023 0.9996 0.8907 0.6736 0.9846 0.9997 0.0 2.1 2.9719 0.9996 0.9306 0.

Vol. Birkh¨user.. Clarendon Press. (2005) Functional Analysis for Probability and Stochastic Processes. (2005) Introducci´n a la Teor´a de la Probabiliıa ´ o ı dad. a [6] Feller W.. [3] Bobrowski A. Gray L. I y II.Bibliograf´ ıa [1] Barry R. E. L. A. (1980) Measure Theory. Wiley. R. Fondo de Cultura Econ´mica. F. (1996) A Modern Approach to Probability Theory. Cambridge University Press. (1981) Probabilidade: Um Curso em N´vel Intermedi´rio. o [10] Grimmett G. [4] Clarke L. Limusa. [5] Cohn D. R. (1979) An Introduction to Applied Probability. Segundo Curso. a [8] Garc´ Alvarez M. Primer Curso. F. [7] Fristedt B. Birkh¨user. Longman. A. J. 381 . ı a IMPA-CNPq. (2005) Introducci´n a la Teor´a de la Probabiliıa ´ o ı dad. (1978) Introducci´n a la Teor´a de las Probabilidades y sus o ı Aplicaciones. [2] Blake I. Fondo de Cultura Econ´mica. (1975) Random Variables. Stirzaker D. (1982) Probability and Random Processes. o [9] Garc´ Alvarez M.

Houghton Mifflin Co.. C. Stone C.. Rohatgi V. A. [22] Parzen E. Van Nostrand.. SMM. [12] Grimmett G. G. Oxford University Press. (1960) Measure Theory. Oxford University Press. Springer. (2005) Probability: a Graduate Course.382 Bibliograf´ ıa [11] Grimmett G. Miller M.. [21] Mood A. Addison–Wesley. (1986) Probability: an Introduction. I. R. K. (2006) Sobre el problema del mono que escribe caracteres al o azar. [16] Hoel P. (1999) John E. John Wiley & Sons. McGraw Hill. No. Stirzaker D. [20] Miller I. Freund’s Mathematical Statistics 6th ed. 37. Miscel´nea Matem´tica. F. R. Springer–Verlag. Wiley. (1974) Introduction to the Theory of Statistics. a [24] Rinc´n L. 42. Stirzaker D. Springer–Verlag. No. [13] Gut A.. [23] Resnick S. Birkh¨user. (1971) Probability Theory. [17] Jacod D. [14] Halmos P. a a . [15] Harris B. (2004) ¿Qu´ es la esperanza condicional? Miscel´nea Mao e a tem´tica. (1979) Probability Theory. SMM. R. Prentice–Hall. Protter P. Agosto 2004. (1999) A Probability Path. [18] Karr A. R. (1960) Modern Probability Theory and its Applications. (1966) Theory of Probability. [19] Laha R. Boes D.... R. M. (2000) Probability Essentials. (2001) One Thousand Exercises in Probability. (1993) Probability.. a [25] Rinc´n L. Port S. Graybill F.

[31] Williams D. Textos o o Universitarios. Cambridge University Press. [27] Rosenthal J. P. (1986) Counterexamples in Probability and Statistics. [32] Williams D. (2005) Introducci´n a la Medida e Integraci´n. [29] Villa Morales J. [30] Von Plato J. F. (2000) A First Look at Rigorous Probability Theory. (1991) Probability with Martingales. . Ciencias B´sicas.Bibliograf´ ıa 383 [26] Romano J. (1994) Creating Modern Probability. Prentice Hall. (1976) A First Course in Probability. Chapman & Hall. [28] Ross S. S. . Cambridge University Press. Cambridge University Press. Siegel A. World Scientific. Universidad Aut´noma de Aguascaa o lientes. (2001) Weighing the Odds: A Course in Probability and Statistics.

11 de Borel. 159 Aditividad finita. 14 generada. 93 Cuartiles. 182 Completaci´n de espacios. 289 casi siempre. 362 384 . 293 en media cuadr´tica. 177 nula. 16 en distribuci´n. 24 Borel-Cantelli. 28. 93 Desigualdad cr . 159 o Cociente de Mills. 242 o Correlaci´n o negativa. 177 positiva. 128 de Bonferroni. 174 o multinomial. 171 Cuantil de una v. 291 puntual. 140 Coeficiente de correlaci´n. 11 medible.a. 290 casi segura. 30. 290 d´bil. 294 e de eventos. 3 Continuidad de la prob. 11 de Borel de Rn . 188 e Covarianza. 294 a en probabilidad. 14 ´ Algebra.. 24 de Cantelli. 53 de Boole. 27 o Conjunto Borel medible. 11 Boreliano. 3 a de Borel de R.. 294 o en media. 288 Convoluci´n. 31 Convergencia casi dondequiera. 7 producto. 177 Cotas de Fr´chet. 9 Acoplamiento. 38 C´pula.´ Indice σ-´lgebra.

144 Cauchy. 185 Pareto. 106. 123 a Espacio L1 . 367 continua. 101. 227 de Minkowski. 347 condicional. 372 discreta. 94 univariada. 98. 127 de probabilidad. 94. 371 Rayleigh. 76 arcoseno. 182 uniforme bivariada. 101. 181 multivariada. 370 Poisson. 179 385 . 138 Bernoulli. 365 beta.´ Indice de Cauchy-Schwarz. 214. 372 singular. 99. 372 Ensayo Bernoulli. 95. 231. 127 de Kolmogorov. 368 e hipergeom´trica. 371 unimodal. 162 de un vector. 98. 227 de Chebyshev. 350 de Kounias. 1. 101. 366 bivariada. 159 discreta. 349 de H¨lder. 369 e multivariada. 128 o de Jensen. 182 ji-cuadrada. 77 t de Student. 145 normal. 2 Esperanza condicional. 126 L2 . 104. 76. 2 completo. 75 exponencial. 129 cuadr´tico medio. 105 a multivariada. 126 condicional. 232 log normal. 267. 3 muestral. 94 multinomial. 54 de Markov. 270 gama. 183 continua. 96. 369 log gama. 184 est´ndar. 96. 367 exponencial doble. 135 F de Snedecor. 371 trinomial. 377 condicional (evaluada). 366 binomial. 75 de acoplamiento. 366 binomial negativa. 145 Weibull. 369 multimodal. 370 bivariada. 103. 90 o a Distribuci´n o absolutamente continua. 263. 95 Error absoluto medio. 27 medible. 129 Desviaci´n est´ndar. 368 geom´trica.

330. 51 o o Imagen inversa. 80 F´rmula o en distribuci´n. 354 Funci´n de distribuci´n. 374 u teorema de continuidad. 75 de vectores.. 15 f´rmula de inversi´n.s. 316 casi seguro. 181 o . 88 o acumulada.386 ´ Indice de una funci´n de un vector. 81 gama. 111 L´ ımite superior Funci´n caracter´ o ıstica. 132 Funci´n de densidad. 163 de masa de probabilidad. 68 o de eventos. 167 de probabilidad. 61 de clases. 156 Matriz de correlaci´n. 2 casi segura. 376 de eventos.. 362 a marginal. 334 Lema de Abel. 80 o de inclusi´n y exlusi´n. 317 Evento. 36 de acumulaci´n de prob. 261 Funci´n generadora o Estad´ ısticas de orden. 272 de momentos. 103 de σ-´lgebras. 352 u condicional. 75 de v. 85 conjunta. 161 conjunta. 68 de una v. 2 de momentos factoriales. 375 Funci´n o Independencia beta. 112 de n´meros. 374 teorema de unicidad. 144 marginal. 152 en media cuadr´tica. 75 Integral de Riemann-Stieltjes. 2 Igualdad simple. 34 de densidad. 102 L´ ımite inferior indicadora. 333 o o de n´meros. 76 o Ley de los grandes n´meros. 68 o o condicional. 158 fuerte. 374 u signo. 311 compuesto. 352 e conjunta. 149 Estad´ ıstica.a.a. 168 Funci´n de probabilidad o o de una funci´n de una v. 15 medible. 323 de eventos. 333 Ley de eventos raros. 80 de probabilidad. 36 a Borel medible.a. 160 d´bil.

143 discreto. 90 muestral. 119 Probabilidad axiom´tica. 93 muestral. 27 de Bernoulli. 76. 179 de una v. 75. 2. 285 Medibilidad. 358 de Bayes.. 85 muestral.a. 92 Rango de una m. 22 e Problema de los momentos. 85 medio. 276 Regla del producto. 143 . 10 a Teorema 387 central del l´ ımite.a. 230.a. 236 de convergencia dominada. 262 Mediana de una v. 352 de cambio de variable.. 53 Semi´lgebra..a. 180 Media. 141 continuo. 357 de Poisson. 92 absolutos. 85 Variable aleatoria. 20 a cl´sica. 26 frecuentista.. 303 o de de Moivre-Laplace. 305 de convergencia mon´tona.a. 132 de probabilidad total. 85 promedio.´ Indice de covarianzas. 21 a condicional. 92 centrales absolutos. 58 inducida por una v. 94 Momentos. 75 mixta. 262 Vector aleatorio. 223 de un vector. 58 Medida de probabilidad.. 77 Varianza condicional. 20 inducida. 76 discreta. 353 geom´trica. 58 continua. 92 factoriales. 27 Valor esperado. 233. 112 Moda de una v. 92 Muestra aleatoria. 77 singular. 92 centrales. 261 Paradoja de San Petersburgo.

Sign up to vote on this title
UsefulNot useful