Teor´ıa de las Probabilidades

Mercedes Arriojas
Febrero, 2004
2
´
Indice general
1. Modelos Probabil´ısticos. Teor´ıa Combinatoria. F´ormula de Bayes. 5
1.1. Introducci´on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Breve rese˜ na hist´orica. . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Modelo Probabil´ıstico. . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Teor´ıa de Conjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1. Definiciones B´asicas y Notaciones. . . . . . . . . . . . . . . . . 14
1.4.2. Operaciones con Conjuntos. . . . . . . . . . . . . . . . . . . . 15
1.5. Espacio de Probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5.1. Espacios de Probabilidad. . . . . . . . . . . . . . . . . . . . . 22
1.6. Propiedades de la Probabilidad. . . . . . . . . . . . . . . . . . . . . . 22
1.7. Introducci´on a la Teor´ıa Combinatoria. . . . . . . . . . . . . . . . . . 29
1.7.1. Muestreo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7.2. F´ormulas Combinatorias. . . . . . . . . . . . . . . . . . . . . . 37
1.8. Problemas de Colocaci´on. . . . . . . . . . . . . . . . . . . . . . . . . 38
1.9. Probabilidad Condicional e Independencia. . . . . . . . . . . . . . . . 47
1.9.1. Probabilidad Condicional. . . . . . . . . . . . . . . . . . . . . 47
1.9.2. Resultados B´asicos sobre Probabilidad Condicional. . . . . . . 51
2. Variables Aleatorias 61
2.1. Introducci´on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2. Funci´ on de Distribuci´on. . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.1. Propiedades de la Funci´on de Distribuci´on. . . . . . . . . . . . 65
2.3. Algunas Distribuciones Importantes. . . . . . . . . . . . . . . . . . . 72
2.3.1. Distribuciones de Algunas V.A. Discretas. . . . . . . . . . . . 72
2.3.2. Densidades. Distribuciones de V A. Continuas. . . . . . . . . . 82
3. Esperanza y Varianza de Variables Aleatorias. 95
3.1. Distribuci´on Conjunta de Variables Aleatorias. . . . . . . . . . . . . . 103
3.1.1. Esperanza de Funciones de Variables Aleatorias. . . . . . . . . 107
3.1.2. Variables Aleatorias Independientes. . . . . . . . . . . . . . . 111
3.1.3. Funciones de Varias Variables Aleatorias. . . . . . . . . . . . . 116
3.1.4. Distribuci´on Condicional de Variables Aleatorias. . . . . . . . 125
3
4
4. Teoremas Limite 131
4.1. Funci´on Generadora de Momentos. . . . . . . . . . . . . . . . . . . . 131
4.1.1. C´alculo de Momentos. . . . . . . . . . . . . . . . . . . . . . . 134
4.2. Leyes de grandes n´ umeros. . . . . . . . . . . . . . . . . . . . . . . . . 140
4.2.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.2.2. Desigualdad de Markov . . . . . . . . . . . . . . . . . . . . . . 140
4.2.3. Convergencia de variables aleatorias. . . . . . . . . . . . . . . 146
4.2.4. Teorema central del l´ımite . . . . . . . . . . . . . . . . . . . . 146
4.2.5. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3. Ley Fuerte de los Grandes N´ umeros. . . . . . . . . . . . . . . . . . . 155
4.3.1. Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3.2. Ley fuerte de los grandes n´ umeros para variables aleatorias de
Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Cap´ıtulo 1
Modelos Probabil´ısticos. Teor´ıa
Combinatoria. F´ormula de Bayes.
1.1. Introducci´on.
Este curso es una introducci´on a la teor´ıa de las probabilidades. Se tiene como
primer objetivo alcanzar la comprensi´on de la naturaleza de las situaciones que co-
munmente pueden ser descritas mediante modelos probabil´ısticos. Se estudiar´a la
forma en que tales situaciones pueden expresarse en t´erminos matem´aticos, esto es
la construcci´on de un modelo probabil´ıstico. Consideraremos adem´as algunas de las
much´ısimas aplicaciones de las probabilidades en la descripci´on y el estudio del mundo
que nos rodea.
La teor´ıa de las probabilidades se caracteriza por el amplio campo de aplicaciones
que posee, el cual se extiende a todas las ramas de las ciencias naturales, la tecnolog´ıa
y las ciencias sociales. Esto se debe a que la teor´ıa de las probabilidades permite estu-
diar y ”medir”la incertidumbre que forma parte de casi todo lo que ocurre a nuestro
alrededor. De hecho, ya sea por falta de instrumentos de medici´on adecuados o pre-
cisos, por desconocimiento de las leyes que rigen los fen´omenos o por no poder manejar
todas las variables que intervienen en los mismos, normalmente nuestro conocimiento
de la realidad circundante es s´olo parcial; siendo la parte que ignoramos muy rele-
vante, cuando no de vital importancia.
Muchos problemas interesantes en probabilidades pueden formularse con muy poca
herramienta matem´atica. Pese a esto y a´ un cuando en ocasiones dichos problemas
resulten pintorescos y hasta graciosos su soluci´on puede no ser obvia y en algunos
casos puede ser bastante dif´ıcil.
Antes de formular los conceptos b´asicos relacionados con la construcci´on de un
modelo probabil´ıstico, consideraremos varias situaciones concretas que nos permitir´an
apreciar la relevancia de dichos conceptos.
5
6
Los siguientes ejemplos ilustran algunas de las situaciones que pueden plantearse
en el marco de las probabilidades.
Ejemplos 1.1 Apuestas y juegos.
1. En un casino se lanzan dos dados distintos. Un jugador apuesta a un n´ umero
y gana si ese n´ umero es la suma de las caras mostradas por los dados. El hor´oscopo
de un jugador dice que sus n´ umeros de suerte son 3 y 6, pero solo puede apostar a
un n´ umero. ¿Cu´al es su mejor opci´on?
2. El carro y las cabras (The New York Times, 1991).
Suponga que usted est´a en la fase final de un concurso que se transmite por tele-
visi´on. En este momento crucial el animador del concurso lo coloca ante tres puertas,
una de las cuales esconde un lujoso autom´ovil nuevo. Detr´as de cada una de las otras
dos puertas se encuentra una linda cabra. Usted tiene que escoger una puerta y se
ganara lo que este tras ella. Usted se decide y anuncia su escogencia. Entonces el
animador abre una de las puertas que oculta a una cabra y le pregunta si le gustar´ıa
cambiar su elecci´on inicial. Asumiendo que usted quiere llevarse el carro, ¿seria un
cambio de puerta ventajoso para usted?
Nota: Observe que las respuestas a los problemas anteriores depende de que podamos
”medir”el chance de ganar en cada caso.
(1 es f´acil: hay m´as chance con 6)
3. El problema de los puntos.
Suponga que dos personas estan jugando un juego en el que el ganador recibir´a una
cantidad a de dinero. En cada partida el ganador recibe un punto y gana el que
primero acumule n puntos. Si por alguna raz´on el juego debe ser suspendido antes de
que haya un ganador, ¿c´omo deber´ıa repartirse el premio final entre los concursantes?
1.2. Breve rese˜ na hist´orica.
El inicio de la teor´ıa de las probabilidades se produce oficialmente a mediados
del siglo XVII y est´a estrechamente relacionado con los juegos de azar; los cuales,
en la sociedad francesa de 1650, eran una actividad generalizada entre las personas
adineradas. Surgian constantemente nuevos y cada vez m´as complicados juegos con
dados, cartas, ruletas, etc. en los que se apostaban grandes sumas de dinero. Entre los
jugadores, surgian al mismo tiempo preguntas relacionadas con m´etodos que permi-
tieran medir el riesgo en una determinada apuesta. Uno de estos jugadores, De M´er´e,
7
consult´o en Paris con el famoso matem´atico y fil´osofo Blaise Pascal sobre algunas de
estas preguntas. Esto origin´o una famosa correspondencia entre Pascal y algunos de
sus amigos matem´aticos de la epoca, entre quienes se encontraba Pierre Fermat. De
alli surgieron comentarios y soluciones a muchos de los problemas planteados inician-
dose de esa forma lo que hoy se conoce como la teor´ıa de las probabilidades. Como
hemos visto en los ejemplos anteriores, las situaciones que se estudian en probabili-
dades se caracterizan por la incertidumbre, esto es la imposibilidad de predecir lo que
ocurrir´a en la pr´oxima realizaci´on del experimento aleatorio. La probabilidad da la
posibilidad de ”medir”, en un sentido que precisaremos m´as adelante, la incertidum-
bre inherente a un fen´omeno dado. A´ un cuando las aplicaciones de la teor´ıa de las
probabilidades se extendieron con rapidez a diferentes ´areas de la ciencia, durante
mucho tiempo se consideraban las probabilidades como una disciplina menor, que a
falta de mayor informaci´on permit´ıa predecir o aproximar lo que no se pod´ıa calcular.
Esta concepci´on cambi´ o en el siglo XX cuando Werner Heisemberg (premio Nobel
de f´ısica,1958) postul´o el ”principio de incertidumbre” seg´ un el cual para part´ıculas
muy peque˜ nas es imposible conocer la velocidad y la posici´on exactamente: mientras
m´as nos acercamos a la posici´on exacta m´as difusa se hace la idea de velocidad. Lo
mejor que puede hacerse es dar una respuesta probabil´ıstica en esta situaci´on. Este
principio que en la actualidad es generalmente aceptado, cambi´ o la forma en que se
pensaba acerca de las probabilidades transformandola en una disciplina independi-
ente y fundamental en el desarrollo de la ciencia.
Ejemplos 1.2 Situaciones Diversas.
1. Cumplea˜ nos. ¿Cu´antas personas deber´ıan estar presentes en un sal´on para que
la probabilidad de que al menos dos celebren su cumplea˜ nos el mismo dia sea mayor
que 1/2 ?
2. Colocaci´on de tres bolas en tres celdas. Se tienen 3 bolas etiquetadas A, B y
C y tres celdas enumeradas 1, 2y 3. Las bolas se colocan al azar en las celdas. ¿Cu´al
es la probabilidad de que exactamente una celda quede vacia?
- Se colocan r bolas en n celdas.
- Accidentes: r accidentes en 7 dias de la semana.
- Estudio del efecto gen´etico de la radiaci´on: Las part´ıculas α son las bolas y los
cromosomas representan las celdas.
- Fotograf´ıa: Una placa fotogr´afica est´a cubierta por granos sensibles a la luz. In-
teresa saber el n´ umero de cuantos de luz (bolas) que golpea un grano (celda).
8
3. El Dilema de los Prisioneros.
Tres prisioneros, que llamaremos A, B y C, saben que dos de ellos ser´an liberados
y el tercero permanecer´a preso por un largo tiempo. Puesto que no se tiene ning´ un
criterio para decidir quien es liberado y quien no, ninguno de ellos sabe quienes ser´an
los elegidos. El prisionero A le pide al guardia el nombre de uno de los prisioneros,
distinto de ´el mismo, a ser liberado. El guardia se niega con el siguiente argumento:
”En este momento t´ u probabilidad de ser liberado es de 2/3. Sin embargo, si te digo
el nombre de uno de los prisioneros que ser´a liberado pasar´as a ser uno de dos pri-
sioneros a ser liberados con lo que tu chance de salir libre se reducir´a a 1/2. Como no
quiero perjudicarte no te dir´e nada.”
Ante esta extra˜ na situaci´on, cabe preguntarse si el razonamiento del guardia es
correcto. ¿De qu´e manera la informaci´on suministrada por el guardia afecta el chance
que el preso tiene de ser liberado? ¿C´omo podemos analizar este problema?
Uno de los aspectos m´as b´asicos de este problema es que, al ser liberados dos pri-
sioneros, se tienen tres resultados posibles: A y B son liberados, A y C son liberados
´o B y C son liberados. Denotaremos estos resultados como ¦A, B¦, ¦A, C¦ y ¦B, C¦
respectivamente.
Otro aspecto importante, es que si asumimos que los presos a ser liberados se es-
cogen al azar, es decir, sin que prive ning´ un criterio de selecci´on, la intuici´ on sugiere
que cada uno de los posibles resultados debe tener la misma posibilidad de ocurrir.
Por lo tanto, si hemos de asignar un n´ umero a la posibilidad de ocurrencia de cada
resultado y si asumimos que se le asigna el n´ umero 1 a un resultado que tiene un
chance de ocurrencia de 1 00 %, este n´ umero deber´ıa ser el mismo para todos los
resultados, en este caso 1/3 (´o un chance de 33 %). Observe que la situaci´on anterior
es un caso particular de la siguiente situaci´on m´as general:
Se considera una acci´on que puede ser repetida cuantas veces se quiera en las mismas
condiciones y de la cual se obtiene en cada repetici´on uno y s´olo uno de r resultados
posibles. Suponemos adem´as que no tenemos control alguno sobre el resultado a pro-
ducirse en cada realizaci´on de la acci´on.
Ejemplos 1.3
1. Lanzar un dado con seis caras distintas. Espacio muestral: Ω = ¦1, 2, 3, 4, 5, 6¦.
2. Lanzar una moneda con dos caras distintas. Espacio muestral: Ω = ¦C, S¦.
3. Seleccionar un n´ umero de loteria. Espacio muestral: Ω = ¦1, 2, . . . , 10000¦.
4. Seleccionar seis n´ umeros en el juego de Lotto. Espacio muestral:
Ω = ¦¦ω
1
, ω
2
, ω
3
, ω
4
, ω
5
, ω
6
¦ : ω
i
∈ ¦1, . . . , 50¦, ω
i
= ω
j
i = j¦.
9
En cada uno de los casos anteriores, a´ un cuando sabemos cuales son los resultados
posibles, no podemos predecir con exactitud lo que ocurrir´a en la siguiente realizaci´on
del experimento. Adem´as, si el dado es perfectamente sim´etrico, la moneda es perfecta
y la selecci´on de los n´ umeros de loter´ıa se hace sin trampas estaremos de acuerdo en
que todos los resultados son igualmente plausibles cada vez que se realiza el experi-
mento:
• Al lanzar el dado la probabilidad de obtener un i es igual a 1/6, i = 1, . . . , 6.
• Al lanzar la moneda la probabilidad de obtener una cara es de 1/2.
• Al seleccionar un n´ umero la probabilidad de obtener j e 1/10000, j = 1, . . . , 10000.
M´as adelante aprenderemos a determinar la probabilidad de una combinaci´ on de
n´ umeros en el Lotto.
Consideramos ahora la soluci´on de alguno de los problemas planteados en ejemp-
los anteriores.
El dilema de los prisioneros. Consideremos el experimento que consiste en se-
leccionar al azar un par de presos para ser liberados. Esto equivale a seleccionar al
azar uno de los tres pares (no ordenados) ¦A, B¦, ¦A, C¦ o ¦B, C¦. Como cada par
tiene probabilidad 1/3 de ser seleccionado, la probabilidad de que A sea liberado es
la probabilidad de que ocurra ¦A, B¦ o ¦A, C¦ , es decir 1/3 + 1/3 = 2/3 que es lo
que el guardia afirma. Sin embargo en este contexto no nos es posible determinar si el
hecho de que el guardia d´e a conocer a A la identidad de uno de los que ser´a liberado
afecta las posibilidades de A de salir libre. Para responder a esto debemos considerar
un experimento con un espacio muestral (resultados) diferente. Sean
O
1
= ¦quedan libres A y B, el guardia informa que B ser´a liberado¦
O
2
= ¦quedan libres A y C, el guardia informa que C ser´a liberado¦
O
3
= ¦quedan libres B y C, el guardia informa que B ser´a liberado¦
O
4
= ¦quedan libres B y C, el guardia informa que C ser´a liberado¦
En esta situaci´on A es liberado si ocurre O
1
u O
2
. Observe que O
1
es equivalente
a seleccionar ¦A, B¦ por lo que O
1
tiene probabilidad 1/3 y an´alogamente O
2
es
equivalente a seleccionar ¦A, C¦ que tambien tiene probabilidad 1/3. Entonces la
probabilidad de liberar a A sigue siendo 1/3 + 1/3 = 2/3; y concluimos que la infor-
maci´on sumunistrada por el guardia no altera las posibilidades de A de salir libre.
M´as adelante analizaremos este problema en mayor profundidad.
El carro y las cabras. Asumiremos que el carro se encuentra detr´as de la puer-
ta 1, con esto no se pierde generalidad ya que los otros caos pueden ser tratados de
manera similar. Consideremos el experimento que consiste en los siguientes pasos:
Paso 1. El participante elige una puerta.
Paso 2. El conductor del programa descubre una de las cabras y le da al participante
10
la opci´on de cambiar de puerta.
Paso 3. El participante hace su elecci´on definitiva.
Un resultado de este experimento puede representarse como una terna (elecci´on
1, cabra, elecci´on 2) y dependiendo de la elecci´on final del participante se tienen dos
situaciones posibles: o bien el concursante cambia su elecci´on inicial o la ratifica. Lo
que queremos es determinar si estas dos situaciones diferentes le dan al participante
diferentes posibilidades de ganar el carro. Dado que el participante no tiene ninguna
idea de la ubicaci´on del carro, lo ´ unico que podemos afirmar es que las tres puertas
tienen la misma posibilidad de ser seleccionadas en la primera elecci´on, esto es 1/3.
Situaci´on 1: se cambia de puerta. En este caso el espacio muestral asociado al
experimento esta dado por:
Ω = ¦(1, 2, 3), (1, 3, 2), (2, 3, 1), (3, 2, 1)¦.
El participante gana el carro en el evento ¦(2, 3, 1), (3, 2, 1)¦ y como ¦(2, 3, 1)¦ es el
evento de elegir la puerta 2 y ¦(3, 2, 1)¦ es el evento de elegir la puerta 3, se tiene la
posibilidad de ganar el carro es igual a 1/3 + 1/3 = 2/3.
Situaci´on 2: se ratifica la elecci´on inicial. En este caso el espacio muestral asociado
al experimento esta dado por:
Ω = ¦(1, 2, 1), (1, 3, 1), (2, 3, 2), (3, 2, 3)¦.
El participante gana el carro si ocurre ¦(1, 2, 1), (1, 3, 1)¦ que es el evento de elegir la
puerta 1. Por lo tanto en este caso la posibilidad de ganar es de 1/3.
1.3. Modelo Probabil´ıstico.
Dado un fen´omeno natural se formula un modelo matem´atico que lo aproxime,
del estudio de este modelo se sacan conclusiones que son aplicadas a la situaci´on real.
1. FENOMENO 2. MODELO 3. CONCLUSIONES
NATURAL MATEM
´
ATICO
A continuaci´ on describiremos los elementos b´asicos en la formulaci´ on de un mo-
delo probabil´ıstico.
(I) Un experimento aleatorio es una acci´on que puede ser repetida bajo las mis-
mas condiciones tantas veces como se quiera; del cual se conocen todos los resultados
11
posibles sin que se pueda predecir con exactitud el resultado que se obtendr´a en la
siguiente repetici´on.
(II) El espacio muestral asociado a un experimento aleatorio es el con-
junto de los posibles resultados del experimento.
Un espacio muestral se dice discreto si posee una cantidad finita o numerablemente
infinita de elementos. En caso contrario se dice que el espacio muestral es continuo.
Ejemplos 1.4
1. Se lanzan dos dados, uno rojo y uno verde, simult´ aneamente y se anota el re-
sultado. El espacio muestral asociado a este experimento es el conjunto:
Ω =

(a, b) : a ∈ ¦1, 2, 3, 4, 5, 6¦, b ∈ ¦1, 2, 3, 4, 5, 6¦
¸
.
Este espacio puede tambien ser representado como
R ` V 1 2 3 4 5 6
1 (1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
2 (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
3 (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
4 (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
5 (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
6 (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
2. Se lanza una moneda dos veces y se anota el resultado de cada lanzamiento. El
espacio muestral es el conjunto
Ω = ¦(c, c), (c, s), (s, c), (s, s)¦.
3. Se lanza una moneda hasta obtener una cara. El espacio muestral es el conjunto,
infinito numerable
Ω = ¦(c), (s, c), (s, s, c), (s, s, s, c), . . .¦.
4. En una f´abrica se toma uno de los art´ıculos producidos y se prueba para determinar
si es defectuoso. En este caso el espacio muestral se puede escribir como Ω = ¦B, D¦,
donde B significa bueno y D defectuoso. Si en cambio se extraen n art´ıculos y se
prueban, el espacio muestral puede ser representado por el conjunto
Ω = ¦(
1
, . . . ,
n
)¦,
donde
i
= 0 si el i-´esimo art´ıculo est´a bueno y
i
= 1 si el i-´esimo art´ıculo est´a de-
fectuoso.
12
5. Se escoge un punto al azar lanzando un dardo a un disco de un metro. El es-
pacio muestral es en este caso el conjunto de puntos del plano que se encuentran
dentro de la circunferencia de radio 1, es decir
Ω = ¦(x, y) : x
2
+y
2
≤ 1¦.
Comentarios. El espacio muestral, como abstracci´on de una situaci´on real, no es
´ unico ya que de depende de lo que la persona que realiza el experimento considere
importante. Por ejemplo, al lanzar dos dados (ej. 6) se podr´ıa considerar el caso en
que uno de los dados cae fuera de nuestro rango visual y decidir que en este caso
su valor no puede ser registrado. Entonces habr´ıa que incluir en el espacio muestral
elementos de la forma: (b, 1), . . . y (1, b), . . .; con lo que se obtiene un espacio muestral
diferente asociado al mismo experimento.
(III) Un evento asociado a un experimento es un subconjunto del espacio mues-
tral, esto es un conjunto de resultados.
Ejemplos 1.5
1. Se lanzan dos dados distintos y se apuesta a que la suma es tres; esto es, se
apuesta al evento A = ¦(1, 2), (2, 1)¦. El evento la suma es 5 est´a dado por B =
¦(1, 4), (2, 3), (3, 2), (4, 1)¦. El evento el dado rojo cae en 1 y el verde entre 3 y 6 es
el conjunto C = ¦(1, 3), (1, 4), (1, 5), (1, 6)¦.
2. Se lanza una moneda dos veces. El evento se obtiene al menos una cara es el
conjunto D = ¦(c, s), (s, c), (c, c)¦.
Comentarios.
• Al realizar un experimento decimos que un evento A ocurre si el resultado obtenido
pertenece a A.
• Los resultados individuales de un experimento aleatorio son llamados tambi´en even-
tos simples.
• Cuando se tenga una cantidad finita de resultados posibles, cualquier subconjunto
del espacio muestral se considerar´a un evento. Si el espacio muestral es infinito esto
no ser´a necesariamente cierto, por razones que ser´an expuestas m´as adelante.
(IV) Definici´on preliminar. Dado un espacio muestral Ω correspondiente a un
experimento aleatorio, una probabilidad (tambi´en denominada distribuci´on de
probabilidad, medida de probabilidad o funci´on de probabilidad) es una
funci´on que asigna a cada evento A en Ω un n´ umero P(A) ∈ [0, 1] y que satisface
ciertas condiciones que ser´an detalladas m´as adelante. La probabilidad de un evento
se interpreta como una medida de la plausibilidad de que dicho evento ocurra. Antes
13
de formular la definici´on precisa de probabilidad, discutiremos algunas nociones in-
tuitivas que han sido utilizadas para tratar de definir esta medida.
Proporci´on Relativa.
Suponga que se tiene una caja de mangos y se sabe que hay algunos mangos po-
dridos en ella. A efectos de fijar un valor por la caja, resulta m´as razonable tomar en
cuenta la proporci´on relativa de frutas podridas que su n´ umero absoluto. Esto es, si
sabemos que hay 35 mangos podridos, la importancia de esta cantidad ciertamente
depender´a del n´ umero total de mangos en la caja: si hay s´olo 50 mangos una gran
cantidad del total no sirve mientras que si hay 500 mangos 35 malos es una cantidad
menos significativa. Esto es de importancia si consideramos el experimento aleatorio
consistente en sacar un mango al azar de la caja y el evento A =el mango est´a podrido.
Dado que el espacio muestral asociado a este experimento es el conjunto de todos los
mangos y que cualquier mango puede ser seleccionado por igual, una medida de la
plausibilidad de este evento podr´ıa estar dada por la proporci´on de mangos podridos:
P(A) = [A[/[Ω[, donde las barras indican el n´ umero de elementos del conjunto. Esta
noci´on puede extenderse a espacios muestrales infinitos. Si consideramos el espacio
muestral del ejemplo 14, y para un subconjunto A de Ω definimos [A[ =´area de A
podemos entonces definir la probabilidad de A como la raz´on P(A) = [A[/[Ω[.
Frecuencia Relativa.
Suponga que un experimento con espacio muestral Ω se realiza repetidamente en
id´enticas condiciones. Para cada evento A se define n(A) como el n´ umero de veces
que el evento A ocurre en las n primeras repeticiones. Entonces se puede definir
P(A) = l´ım
n→∞
n(A)
n
.
Aqui se define la probabilidad de un evento como el limite de los promedios de las
veces que el evento ocurre, es decir, el limite de las frecuencias relativas del evento.
Esta definici´on tiene varios inconvenientes. En primer lugar no podemos garantizar
la existencia del l´ımite. En segundo lugar es posible que sucesiones de frecuencias
correspondientes a distintas sucesiones de realizaciones del experimento tengan limites
diferentes, con lo cual la definici´on no tendr´ıa sentido. Si el espacio muestral es finito
y tiene m elementos, y todos los resultados son igualmente probables, se tiene que
para n grande cada uno de los m resultados ocurrir´a aproximadamente n/m veces.
Si A es un evento que posee a elementos entonces en n realizaciones del experimento
A ocurrir´a n(A) =
an
m
veces aproximadamente. Entonces la frecuencia relativa de A
satisface
n(A)
n
=
a
m
=
[A[
[Ω[
= P(A)
14
si consideramos la proporci´on relativa como medida del evento A. Es decir, en los
casos en que todos los resultados tienen la misma probabilidad la frecuencia relativa
coincide con la proporci´on relativa.
Dado que la probabilidad es una funci´on de conjuntos, haremos un repaso de las
nociones b´asicas de teor´ıa de conjuntos que ser´an esenciales en el resto del curso.
1.4. Teor´ıa de Conjuntos.
1.4.1. Definiciones B´asicas y Notaciones.
Un conjunto es una colecci´on de objetos determinada por una regla que especifica
exactamente que objetos pertenecen a la colecci´on.
Los objetos pertenecientes a un conjunto se denominan elementos o puntos del
conjunto.
Notaci´on.
• Se utilizar´an letras may´ usculas, latinas o griegas, para denotar a los conjuntos y
min´ usculas para denotar a los elementos. En particular denotamos por R al conjunto
de los n´ umeros reales y por N al conjunto de los n´ umeros naturales.
• Dado un conjunto S, a ∈ S se lee ”a pertenece a S” y a / ∈ S se lee ”a no pertenece
a S”.
• El simbolo ∅ denota al conjunto vacio (conjunto que no tiene elementos).
Si E y F son conjuntos decimos que E est´a contenido en F o que E es
un subconjunto de F, denotado E ⊆ F, si todo elemento de E es tambien ele-
mento de F. Si E ⊆ F y E y F no son iguales, se dice que E est´a estrictamente
contenido en F, lo que se denota E ⊂ F. Dos conjuntos E y F son iguales si
poseen exactamente los mismos elementos; esto ocurre si y solamente si E ⊆ F y
F ⊆ E.
Los conjuntos pueden representarse de varias maneras:
• Describiendo verbalmente la regla que define a sus elementos: el conjunto de los
estudiantes de matem´atica en la UCV.
• Dando una lista de todos los elementos que pertenecen al conjunto: A = ¦1, 3, 5¦ =
el conjunto de los impares entre 1 y 5.
• Escribiendo de manera simb´olica la propiedad que caracteriza a sus elementos:
A = ¦a ∈ N : a impar , 1 ≤ a ≤ 5¦. En general A = ¦a ∈ S : ℘(a)¦.
Nota. Un conjunto E se dice numerablemente infinito si se puede establecer
una biyecci´ on entre E y el conjunto de los n´ umeros naturales N. Un conjunto es
numerable o contable si es finito o numerablemente infinito.
15
1.4.2. Operaciones con Conjuntos.
Sea X un conjunto (no vacio) de elementos. En lo que sigue el conjunto X ser´a de-
nominado espacio y sus elementos puntos. Dado un subconjunto E de X, comple-
mento de E en X se define como
E
c
= ¦x ∈ X : x / ∈ E¦.
Dados los conjuntos E y F, la uni´on de E y F es el conjunto
E ∪ F = ¦x ∈ X : x ∈ E ´o x ∈ F¦.
La intersecci´on de E y F es el conjunto
E ∩ F = ¦x : x ∈ E y x ∈ F¦.
La diferencia de E yF es el conjunto
E ` F = ¦x ∈ E : x / ∈ F¦ = E ∩ F
c
.
Cuando F ⊆ E se usa la notaci´on E`F = E−F. Note que A
c
= X−A. Finalmente,
la diferencia sim´etrica de E y F se define como
E´F = (E ` F) ∪ (F ` E) = (E ∪ F) ` (E ∩ F).
Dos conjuntos E y F son disjuntos si no tienen elementos en com´ un, es decir su
intersecci´ on es vacia: A∩B = ∅. Por ejemplo si Ω es el espacio muestral correspondi-
ente al lanzamiento de dos dados, son conjuntos disjuntos los eventos: A = la suma
es 8 y B = al menos un uno.
Propiedades.
• A ∪ A = A = A ∩ A.
• (A
c
)
c
= A.
• Leyes Distributivas:
i) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C): si x ∈ (A ∪ B) ∩ C entonces x ∈ A ∪ B y
x ∈ C; por lo tanto x ∈ A ´o x ∈ B y x ∈ C, de donde deducimos que x ∈ A ∩ C o
x ∈ B ∩ C, lo que implica que (A ∪ B) ∩ C ⊆ (A ∩ C) ∪ (B ∩ C). Reciprocamente si
x ∈ (A ∩ C) ∪ (B ∩ C), entonces x ciertamente pertenece a C y adem´as vemos que
x ∈ A o x ∈ B. Lo que demuestra la otra contenci´on.
ii) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C). Demuestrelo.
• Leyes de Morgan:
16
i) (A∪ B)
c
= A
c
∩ B
c
: si x ∈ (A∪ B)
c
entonces x / ∈ A∪ B lo que implica que x / ∈ A
y x / ∈ B es decir x ∈ A
c
∩B
c
. Reciprocamente si x ∈ A
c
∩B
c
entonces como x / ∈ A y
x / ∈ B se tiene que x ∈ (A ∪ B)
c
.
ii) (A ∩ B)
c
= A
c
∪ B
c
. Demuestre esta igualdad a partir de la anterior.
• La diferencia de conjuntos no es ni asociativa ni conmutativa; es decir, en general
(A ` B) ` C = A ` (B ` C) y A ` B = B ` A. D´e un ejemplo.
Operaciones con Familias (finitas ´o infinitas) de Conjuntos.
Sea I un conjunto arbitrario de elementos llamados ´ındices, usualmente se asume
I ⊆ R que puede ser finito, infinito numerable o infinito no numerable, y para cada
α ∈ I sea E
α
un conjunto.
Notaci´on. La colecci´on de los E
α
se denota

E
α
¸
α∈I
.
Definimos la uni´on de una colecci´on de conjuntos, denotada por
¸
α∈I
E
α
, como
el conjunto consistente de los elementos que pertenecen a E
α
para al menos un α ∈ I.
De manera an´aloga, la intersecci´on de una colecci´on de conjuntos se denota
¸
α∈I
E
α
y se define como el conjunto conformado por los elementos que pertenecen a
E
α
para todo α ∈ I.
Cuando el conjunto de ´ındices I es finito, podemos decir que I = ¦1, 2, . . . , n¦ para
alg´ un n ∈ N. En este caso la uni´on y la intersecci´on se escriben como:
n
¸
i=1
E
i
= ¦x : x ∈ E
i
para alg´ un i ∈ ¦1, . . . , n¦¦
y
n
¸
i=1
E
i
= ¦x : x ∈ E
i
para todo i ∈ ¦1, . . . , n¦¦
respectivamente. Cuando I es numerable se tiene

¸
i=1
E
i
= ¦x : x ∈ E
i
para alg´ un i ∈ N¦
y

¸
i=1
E
i
= ¦x : x ∈ E
i
para todo i ∈ N¦.
Las leyes distributivas se generalizan de manera natural para familias arbitrarias de
conjuntos:
F
¸

¸
α∈I
E
α

=
¸
α∈I
(F ∩ E
α
),
17
F
¸

¸
α∈I
E
α

=
¸
α∈I
(F ∪ E
α
).
Se tienen tambien las leyes de Morgan:

¸
α∈I
E
α

c
=
¸
α∈I
E
α
c
,

¸
α∈I
E
α

c
=
¸
α∈I
E
α
c
.
Funci´on Indicatr´ız.
Dado un conjunto A ⊆ X la funci´on indicatr´ız de A (tambi´en llamada funci´on
indicadora o caracter´ıstica de A) se define de la siguiente manera:
I
A
: X −→¦0, 1¦,
I
A
(ω) =

1 si ω ∈ A
0 si ω / ∈ A
(1.1)
Notaci´on. Dados dos n´ umeros reales a y b:
• el m´ınimo entre a y b se denota por a ∧ b.
• el m´aximo entre a y b se denota por a ∨ b.
La funci´on indicatr´ız satisface las siguientes propiedades:
• I
A∩B
(ω) = I
A
(ω) ∧ I
B
(ω) = I
A
(ω)I
B
(ω).
• I
A∪B
(ω) = I
A
(ω) ∨ I
B
(ω).
• I

= I
A
(ω) + I
A
c(ω).
18
Ejercicios 1.1
1. Un dado es lanzado y, luego, se lanza una moneda dos veces. (a) Describa un
espacio muestral S que contenga todos los resultados de este experimento. (b) Asuma
que todos los resultados en (a) tienen la misma probabilidad. Encuentre la probabili-
dad de los siguientes eventos: i) se obtiene un seis y al menos una cara; ii) se obtiene
un n´ umero par y una cara en el segundo lanzamiento de la moneda; iii) se obtiene al
menos una cara y un n´ umero menor que 5.
2. Variaci´on del problema del carro y la cabra. En esta oportunidad hay cuatro puer-
tas: tres cabras y un carro. Usted escoge una puerta al azar y entonces el animador
abre una de las puertas que oculta una cabra. Suponga que usted se cambia a una de
las otras puertas (escogiendola al azar). ¿Cu´al es la probabilidad ahora de ganar el
carro? ¿Cu´al es la probabilidad de ganar el carro si usted no cambia de puerta?
3. Suponga que la alarma de su reloj suena en alg´ un momento entre la las 6 y las 7
a.m. Describa un espacio muestral con cada uno de los posibles instantes de tiempo
en que la alarma puede sonar. ¿Es el espacio continuo ´o discreto?
4. En el ejercicio anterior, suponga que la alarma s´olo puede sonar en intervalos
de 5 minutos: 6 am, 6:05 am, 6:10 am, etc. Describa el espacio muestral con cada
posible instante en que la alarma suena. Explique porqu´e es este espacio discreto.
5. Asuma que en el espacio discreto del ejercicio 4 todos los resultados son igualmente
probables (distribuci´on uniforme) y que usted siempre sue˜ na lo mismo, si est´a dormi-
do, entre las 6:18 y las 6:43 am. Suponga que est´a dormido cuando la alarma lo
despierta un dia. Encuentre la probabilidad de que la alarma interrumpa su sue˜ no.
6. Describa el espacio muestral asociado a cada uno de los experimentos siguientes:
6.1. Se mide el tiempo de vida de un transistor cada hora.
6.2. Se sacan aleatoriamente 3 bolas de una bolsa que contiene 3 bolas rojas, 2 blancas
y 4 negras.
6.3. Una caja contiene 3 metras, 1 roja, 1 verde y una azul. Se toma una metra de la
caja, se reemplaza la metra en la caja y luego se toma otra metra.
6.4. Considere el caso en que el experimento de 6.3. se realiza sacando la segunda
metra sin reemplazar la primera.
6.5. Se lanza un dado continuamente hasta que aparezca un 6.
7. Demuestre que
(a) E ∩ F ⊆ E ⊆ E ∪ F.
(b) Si E ⊆ F, entonces F
c
⊆ E
c
.
(c) F = (F ∩ E) ∪ (F ∩ E
c
).
19
(d) E ∪ F = E ∪ (F ` E).
(e) F = (E ∪ F) ∩ (E
c
∪ F) ∩ (E ∪ F
c
).
8. Demuestre las leyes distributivas y las leyes de Morgan para familias infinitas de
conjuntos.
9. Demuestre que si dos conjuntos tienen complementos id´enticos ellos son iguales.
10. Considere los conjuntos: A =art´ıculos de vestir, B =art´ıculos de bajo costo y
C =art´ıculos de buena calidad. Describa, verbalmente, lo que simbolizan los conjun-
tos: a) A ∪ (B ∩ C); b) (A −B) −C; c) A −(B −C).
11. Demuestre que (A ∪ B) ∩ C = A ∪ (B ∩ C).
12. Demuestre que A ⊆ B si y s´olo si A ∩ B = A ´o A ∪ B = B.
13. Demuestre que A y B son disjuntos si y s´olo si A −B = A ´o A ∪ B = A´B.
14. Demuestre que (A ∪ B) −(C ∪ D) ⊆ (A −C) ∪ (B −D).
15. Considere la operaci´on /”definida de la siguiente forma: A/B = A
c
∪B. Demuestre
que: a) (A/B) ∩(B/C) ⊆ A/C. b) (A/B) ∩(A/C) = A/(B∩C). c)(A/B) ∩(B/A) =
(A´B)
c
.
16. Exprese las operaciones de uni´on, intersecci´on y complementaci´on de conjun-
tos en t´erminos de diferencia de conjuntos.
17. Demuestre que A ⊆ B si y s´olo si I
A
≤ I
B
; y que A ∩ B = ∅ si y s´olo si
I
A
I
B
= 0.
18. Si E, F y G son conjuntos dados, demuestre que E−(F ∪G) = (E−F)∩(E−G).
19. Demuestre que E ∪ F = (E´F)´(E ∩ F) y que E −F = E´(E ∩ F).
20. Se lanzan dos dados. Sea E el evento de que la suma sea impar; F el evento
de que al menos uno de los dados cae en 1; y G el evento de que la suma es 5. De-
scriba los eventos E ∩ F, E ∪ F, F ∩ G, E ∩ F
c
y E ∩ F ∩ G.
21. Jugadores A, B y C lanzan una moneda por turnos, primero lanza A, despu´es B y
por ´ ultimo C. Gana el primero en obtener una cara. D´e una representaci´on del espacio
muestral y defina los siguientes eventos: i) A = A gana; ii) B = B gana; iii) (A∪B)
c
.
20
22. Una caja tiene 2 bolas blancas, 1 negra y 1 roja. Se saca una bola, se anota
el color y se introducen en la caja dos bolas cada una de uno de los colores que queda
en la caja. Luego se saca una segunda bola.
(a) Describa el espacio muestral asociado a este experimento.
(b) Describa los eventos A = al menos una bola blanca y B = a lo sumo una bola
blanca.
23. Se lanzan dos dados distintos. Halle los eventos E = la suma es no menor que 9,
F = la suma es no menor a 4, G = al menos un dado cae en 3, H = la suma es par,
E ∩ F, F ∩ H, F ` G, G` H y E ∩ G∩ H.
24. Se tienen dos monedas perfectamente sim´etricas. Se asigna a cara el valor 1
y a sello el valor 2. Se lanzan las monedas simult´aneamente y se registra la suma de
las caras mostradas.
(a) Describa el espacio muestral asociado a este experimento.
(b) Describa el evento ninguna cara y un n´ umero par.
25. Considere el experimento que consiste en colocar 3 bolas etiquetadas como A,
B y C en tres celdas enumeradas como 1, 2 y 3.
(a) Halle el espacio muestral asociado a este experimento.
(b) Halle los eventos: V
i
= la celda i est´a vacia i ∈ ¦1, 2, 3¦; U
i
= la celda i contiene
una bola.
21
1.5. Espacio de Probabilidad.
En la pr´actica, cuando se realiza un experimento nos interesar´a saber si ciertos
subconjuntos del espacio muestral Ω, conjunto de resultados, ocurren o no. A estos
subconjuntos de inter´es los llamamos eventos o sucesos.
Por ejemplo, si consideramos la situaci´on descrita en el ejemplo 1.4.4, podemos
estar interesados en el subconjunto:
”d objetos defectuosos” = ¦(a
1
, . . . , a
n
) : a
i
∈ ¦0, 1¦; i = 1, . . . , n; ¦
para alg´ un d natural.
Recordemos que un evento A ⊆ Ω ocurre, al realizar un experimento, si el re-
sultado ω obtenido es tal que ω ∈ A. Denotaremos a la familia de subconjuntos de
Ω formada por los eventos, como /. Como se mencion´o antes, en general no todos
los subconjuntos de un espacio muestral son eventos. A´ un cuando la familia / de
”subconjuntos de inter´es” depende de la situaci´on estudiada, esta siempre satisface
las siguientes propiedades:
e1. Ω ∈ /, es decir que la realizaci´on del experimento produce un resultado. A Ω
lo llamaremos evento cierto o seguro, ya que este evento siempre ocurre.
e2. A ∈ / ⇒A
c
∈ /, es decir, si A es un evento entonces ”A no ocurre”tambien
es un evento.
e3. A
n
∈ /, para n = 1, 2, . . . entonces ∪

n=1
A
n
∈ /, es decir que la uni´on nu-
merable de eventos es un evento. Note que al realizar un experimento, la uni´on de
eventos ocurre si el resultado pertenece a alguno de los eventos que integran la uni´on.
Definici´on 1.1 Una familia / de subconjuntos de Ω que satisface las propiedades
e1, e2 y e3 se denomina σ-´algebra de subconjuntos de Ω.
Algunas de las propiedades que se deducen inmediatamente de la definici´on ante-
rior son
ei. El conjunto vacio, ∅, es un evento ya que ∅ = Ω
c
.
eii. La uni´on finita de eventos es un evento: dados A
1
, . . . , A
n
en /, usando i basta
considerar A
n+1
= A
n+2
= . . . = ∅, luego se puede aplicar e3.
eiii. Si ¦A
n
¦
n≥1
⊆ /, entonces ∩

n=1
A
n
∈ /; es decir, la intersecci´ on numerable de
eventos es un evento. Esto se deduce f´acilmente usando las leyes de Morgan, ya que


n=1
A
n
= (∪

n=1
A
c
n
)
c
,
basta entonces aplicar e2 y e3.
22
1.5.1. Espacios de Probabilidad.
Definici´on 1.2 Sea Ω un espacio muestral y / una familia de eventos de Ω. Una
medida de probabilidad o probabilidad sobre Ω, es una funci´on P definida sobre
/ que satisface los siguientes axiomas:
p1. P es no negativa, es decir para todo evento A ∈ / se cumple que P(A) ≥ 0.
p2. P es contablemente aditiva o σ-aditiva; es decir, si ¦A
n
¦
n≥1
⊆ / son
disjuntos dos a dos, lo que significa que A
i
∩ A
j
= ∅ para cada i = j, entonces
P(∪

i=1
A
i
) =
¸

i=1
P(A
i
).
p3. El evento cierto tiene probabilidad 1: P(Ω) = 1.
La terna (Ω, /, P) se denomina un espacio de probabilidad, el valor P(A) se
denomina probabilidad de A.
As´ı como el espacio muestral Ω se define de acuerdo con la situaci´on que se desea
modelar, la asignaci´on de probabilidades a los eventos considerados sobre Ω, esto es,
la definici´on de una medida de probabilidad para un problema dado, tambien depende
de la situaci´on particular estudiada.
1.6. Propiedades de la Probabilidad.
Las siguientes propiedades son consecuencia directa de la definici´on de probabili-
dad.
pi. P(∅) = 0. Para demostrar esto consideremos la sucesi´on ¦A
n
¦
n≥1
⊆ / donde
A
1
= Ω y A
i
= ∅, i = 2, 3, . . .. Estos conjuntos son claramente disjuntos dos a dos:
para i = j se cumple A
i
∩ A
j
= ∅. Por lo tanto, aplicando p2. se tiene que:
P(Ω) = P(∪

i=1
A
i
) =

¸
i=1
P(A
i
) = P(Ω) +

¸
i=2
P(A
i
),
lo que implica que
¸

i=2
P(A
i
) = 0. Como para todo i P(A
i
) ≥ 0, se tiene entonces
que P(A
i
) = 0 para todo i ≥ 2; es decir, P(∅) = 0.
pii. P es finitamente aditiva; esto es, si ¦A
i
¦
i∈{1,...,k}
⊆ / son tales que A
i
∩A
j
= ∅,
para i = j, entonces
P(∪
k
i=1
A
i
) =
k
¸
i=1
P(A
i
).
Para demostrar esto se considera la sucesi´on ¦A
n
¦
n≥1
donde A
n
= ∅ para n ≥ k + 1
y se aplican las propiedades p2 y pi.
23
piii. P(A
c
) = 1 −P(A). Dado que Ω = A ∪ A
c
y que A ∩ A
c
= ∅, se tiene que
P(Ω) = P(A) + P(A
c
) = 1 =⇒P(A
c
) = 1 −P(A).
piv. Si A ⊆ B entonces P(A) ≤ P(B). Para demostrar esto podemos escribir B como
uni´on de conjuntos disjuntos: B = A ∪ (B −A) = A ∪ (B ∩ A
c
) y as´ı tenemos que
P(B) = P(A) + P(B −A) ≥ P(A),
ya que P(B −A) ≥ 0.
Nota. Observe que si A ⊆ B entonces P(B −A) = P(B) −P(A).
pv. Para todo A ∈ / se cumple que P(A) ≤ 1. Como A ⊆ Ω esta propiedad es
una consecuencia inmediata de la anterior.
pvi. Dados eventos A y B, no necesariamente disjuntos, se cumple que
P(A ∪ B) = P(A) + P(B) −P(A ∩ B).
Si escribimos
A ∪ B = A ∪ (B ` A) y B = (B ∩ A) ∪ (B ∩ A
c
),
aplicando la propiedad de aditividad finita se obtiene
P(A ∪ B) = P(A) + P(B ` A) y P(B) = P(B ∩ A) + P(B ` A),
de donde
P(A ∪ B) −P(A) = P(B ` A) = P(B) −P(B ∩ A)
lo que implica que
P(A) + P(B) = P(A ∪ B) + P(B ∩ A).
pvii. Si ¦A
n
¦
n≥1
es una sucesi´on creciente de eventos, es decir que satisface
A
1
⊆ A
2
⊆ A
3
⊆ . . . ,
entonces,
P(∪

n=1
A
n
) = l´ım
n→∞
P(A
n
).
Para demostrar esta propiedad definamos la sucesi´on ¦B
n
¦
n≥1
como:
B
1
= A
1
, B
2
= A
2
−A
1
, , . . . , B
n
= A
n
−A
n−1
, . . . .
Los conjuntos de esta nueva sucesi´on son dos a dos disjuntos: sean i = j, podemos
suponer sin p´erdida de generalidad que i > j, entonces
B
i
∩ B
j
= (A
i
−A
i−1
) ∩ (A
j
−A
j−1
) = (A
i
∩ A
c
i−1
) ∩ (A
j
∩ A
c
j−1
) = A
i
∩ ∅ = ∅;
24
ya que A
j
∩ A
c
j−1
⊆ A
i−1
. Por otra parte es claro que cada B
i
es un evento y que


n=1
A
n
= ∪

n=1
B
n
.
Utilizando la ecuaci´on obtenida en piv, se tiene que, para todo i ≥ 2,
P(B
i
) = P(A
i
−A
i−1
) = P(A
i
) −P(A
i−1
).
Entonces
P(∪

n=1
A
n
) = P(∪

n=1
B
n
) =

¸
i=1
P(B
i
) =

¸
i=1
(P(A
i
) −P(A
i−1
))
= l´ım
n→∞
¦P(A
1
) +
n
¸
i=2
(P(A
i
) −P(A
i−1
))¦ = l´ım
n→∞
P(A
n
).
pviii. Si ¦A
n
¦
n≥1
es una sucesi´on decreciente de eventos, es decir que satisface
A
1
⊇ A
2
⊇ A
3
⊇ . . . ,
entonces,
P(∩

n=1
A
n
) = l´ım
n→∞
P(A
n
).
En este caso la sucesi´on ¦A
c
n
¦ es creciente; aplicando pvii se obtiene
P(∩

n=1
A
n
) = P((∪

n=1
A
c
n
)
c
) = 1 −P(∪

n=1
A
c
n
)
= 1 − l´ım
n→∞
P(A
c
n
) = 1 − l´ım
n→∞
(1 −P(A
n
)) = l´ım
n→∞
P(A
n
).
pix. Dados los eventos A, B y C se cumple que
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) −P(A ∩ B) −P(A ∩ C) −P(B ∩ C)
+ P(A ∩ B ∩ C).
Se aplica pvi reiteradamente.
px. Sea ¦A
i
¦
i∈{1,...,k}
⊆ / una familia de eventos no necesariamente disjunta. En-
tonces
P(∪
k
i=1
A
i
) =
k
¸
i=1
P(A
i
) −
k
¸
i<j=2
P(A
i
∩ A
j
) + . . . + (−1)
k+1
P(A
1
∩ . . . ∩ A
k
).
Esta propiedad se puede demostrarse por inducci´on sobre k, haciendo uso de pvi.
25
Ejemplos 1.6
1. Lanzamiento de dos dados distintos. El espacio muestral correspondiente a este
experimento fu´e descrito en el ejemplo 1.4.1. Suponiendo que los dados son perfecta-
mente sim´etricos, tenemos que todos los resultados son igualmente probables y pode-
mos considerar / = ℘(A). Asi que definiendo para un evento A ⊆ Ω:
P(A) =
[A[
[Ω[
se obtiene una medida de probabilidad. Verifiquelo.
2. Si se tiene un espacio muestral finito Ω = ¦ω
1
, . . . , ω
n
¦, en que todos los resul-
tados son igualmente probables la funci´on del espacio anterior define una medida de
probabilidad en este espacio.
3. Se tiene un experimento en el que ocurren dos posibles resultados: 0 ´o 1. En-
tonces Ω = ¦0, 1¦. Definimos P(0) =
2
3
y P(1) =
1
3
. En general tomando 0 < p < 1,
se obtiene una medida de probabilidad definiendo P(0) = p y P(1) = 1 −p.
Nota: La familia de eventos en este caso es / = ¦Ω, ∅, ¦0¦, ¦1¦¦.
4. Sean Ω = ¦ω
1
, . . . , ω
n
¦, / = ℘(Ω) y p
i
≥ 0, i = 1, . . . , n tales que
¸
n
i=1
p
i
= 1.
Definimos P(ω
i
) = p
i
, i = 1, . . . , n. P es una probabilidad sobre /.
5. Sea Ω = ¦ω
0
, . . .¦ un conjunto infinito numerable, sea λ > 0 constante
P(ω
i
) = e
−λ
λ
i
i!
, i = 0, 1, . . .
define una medida de probabilidad. Verif´ıquelo. Esta funci´on se denomina funci´on de
probabilidad de Poisson.
6. Ω = ¦ω
1
, . . .¦ un conjunto infinito numerable y sea 0 < p < 1. Defina
P(ω
i
) = (1 −p)
i−1
p, i = 1, 2, . . . .
Se tiene que
P(Ω) =

¸
i=1
P(ω
i
) = p

¸
i=1
(1 −p)
i−1
= 1,
por lo que P es una probabilidad.
26
Ejercicios 1.2
Nota. En algunos casos se usar´a la notaci´on A ∩ B = AB.
1. En un juego de cartas sea k ∈ ¦1, 2, 3, 4¦. Sea N
k
el evento el jugador sentado
hacia el norte tiene al menos k ases. Sean S
k
, E
k
y O
k
eventos an´alogos para sur, este
y oeste. Diga que n´ umero de ases tiene el jugador sentado hacia el oeste en cada uno
de los siguientes eventos:
a) O
c
1
; b) N
2
S
2
; c) N
c
1
S
c
1
E
c
1
; d) O
2
−O
3
; e) N
1
S
1
E
1
O
1
; f ) N
3
O
1
; g) (N
2
∪S
2
)E
2
.
2. En el ejemplo anterior verifique que: a) S
3
⊆ S
2
; b) S
3
O
2
= ∅; c) N
2
S
1
E
1
O
1
= ∅;
d) N
2
S
2
⊆ O
c
1
; e)(N
2
∪ S
2
)O
3
= ∅; f ) O
4
= N
c
1
S
c
1
E
c
1
.
3. Considere el experimento que consiste en colocar 3 bolas etiquetadas como A, B
y C en tres celdas enumeradas como 1, 2 y 3. Considere los eventos: V
i
= la celda
i est´a vacia; U
i
= la celda i contiene una bola; D
i
= la celda i contiene dos bolas y
T
i
= la celda i contiene tres bolas para i ∈ ¦1, 2, 3¦.
(a) Demuestre que: (i) U
1
U
2
⊆ U
3
. (ii) V
1
V
2
= T
3
. (iii) D
1
D
2
= ∅.
(iv) T
1
⊆ T
2
. (v) U
2
D
1
⊆ V
3
` D
2
U
1
.
(b) ¿Cu´antos elementos contiene U
1
U
2
?
4. Sean E, F y G tres eventos. Encuentre expresiones para los eventos siguientes
en t´erminos de E, F y G:
(a) s´olo E ocurre; (b) E y G ambos ocurren pero no F;
(c) al menos uno de los eventos ocurre; (d) al menos dos de los eventos ocurren;
(e) los tres eventos ocurren; (f ) ninguno de los eventos ocurre;
(g) a lo sumo uno de ellos ocurre; (h) a lo sumo dos de los eventos ocurre
(i) exactamente dos de ellos ocurren; (j) a lo sumo tres de ellos ocurren.
5. Se tiene un cesto de manzanas. Supongamos que cada manzana cuesta una
moneda, mientras que las manzanas podridas son gratis. Denotemos por Ω el conjun-
to de todas las manzanas, por R el conjunto de las manzanas podridas y sea S un
conjunto cualquiera sacado del cesto. Definamos
Q(S) =
[S ` R[
[Ω −R[
, [A[ = # elementos en A.
Entonces Q es el valor relativo de S con respecto al valor del cesto. Demuestre que Q
es una medida de probabilidad en Ω.
6. Supongamos que las tierras de una hacienda H de forma cuadrada se encuen-
tran divididas en tres franjas de igual superficie A, B y C; y que los valores de las
respectivas unidades de terreno est´an en la relaci´on 1:3:2. El valor relativo de una
27
parcela medible S de esa hacienda con respecto al valor total del terreno es:
V (S) =
P(SA) + 3P(SB) + 2P(SC)
2
, donde P(SA) =
area(S ∩ A)
area(H)
.
Demuestre que V es una medida de probabilidad.
7. Demuestre que si P y Q son dos medidas de probabilidad definidas sobre un mismo
espacio muestral numerable, entonces aP + bQ es tambien una medida probabil´ısti-
ca siempre que a y b sean no negativos y se verifique a+b = 1. D´e un ejemplo de esto.
8. Demuestre que para eventos A, B y C
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) −P(A ∩ B) −P(A ∩ C)
− P(B ∩ C) + P(A ∩ B ∩ C).
9. Sea P una probabilidad. Demuestre que si P(A) = 0,9 y P(B) = 0,8 entonces
P(A ∩ B) ≥ 0,7. En general demuestre que para dos eventos A y B cualesquiera se
tiene que P(A ∩ B) ≥ P(A) + P(B) −1.
10. Demuestre que:
(a) La probabilidad de que exactamente uno de los eventos E o F ocurra es igual a
P(E) + P(F) −2P(E ∩ F).
(b) P(E ` F) = P(E) −P(E ∩ F).
(c) P(E
c
` F) = 1 −P(E) −P(F) + P(E ∩ F).
11. Dos grupos comparten ciertos miembros. Suponga que el grupo A tiene 123 miem-
bros, que el grupo B tiene 78 y que el n´ umero total de individuos en ambos grupos es
184. ¿Cu´antos miembros pertenecen a ambos grupos?
12. Los grupos A, B y C tienen respectivamente 57, 49 y 43 miembros. A y B com-
parten 13, A y C comparten 7 y B y C comparten 4 miembros. Hay s´olo un individuo
perteneciente a los tres grupos. Halle el n´ umero total de personas pertenecientes a la
uni´on de los tres grupos.
13. Una ciudad con una poblaci´on de 100.000 habitantes tiene tres diarios: I, II y III.
La proporci´on de gente en la ciudad que lee estos diarios es: I = 10 %, II = 30 %,
III = 5 %, I y II = 8 %, I y III = 2 %, II y III = 4 % y I, II y III = 1 %.
a) Encuentre el n´ umero de personas que lee s´olo un diario.
b) ¿Cu´anta gente lee al menos dos diarios?
c) Si I y III son diarios matutinos y II es un diario vespertino, ¿Cu´antas personas
lee al menos un diario matutino y un diario vespertino?
d)¿Cu´antas personas leen s´olo un diario matutino y un diario vespertino?
28
14. Los siguientes datos fueron suministrados por un estudio de un grupo de 1000
suscriptores a una revista. En lo relativo a sexo, estado civil y educaci´on habian: 312
hombres, 470 personas casadas, 525 graduados universitarios, 42 hombres graduados
universitarios, 147 graduados universitarios casados, 87 hombres casados y 25 hom-
bres casados graduados universitarios. Demuestre que los n´ umeros reportados en el
estudio son incorrectos. Sugerencia: Use el ejercicio 1.
15. ¿Cu´al es la probabilidad de que la suma de dos dados distintos y perfectos sea
6 ´o menos de 6?
16. Halle la probabilidad de cada uno de los eventos se˜ nalados en el ejercicio 1.1.20,
asumiendo que ambos dados son perfectos.
17. Sea Ω = ¦ω
1
, ω
2
, . . .¦ un espacio muestral discreto. En cada uno de los casos
siguientes, diga si (Ω, {(Ω), P) es un espacio de probabilidad. En caso negativo, diga
si se puede modificar P para que la respuesta sea afirmativa. Diga como se define
P(A) para A ∈ {(Ω). Justifique sus respuestas.
(a) P(¦ω
n
¦) =
1
n(n+1)
.
(b) P(¦ω
n
¦) =
2
3
n−1
.
(c) P(¦ω
n
¦) =
2
(2n−1)(2n+1)
.
18. Sea Ω = ¦ω
1
, ω
2
, . . . , ω
m
¦ un espacio muestral. Sea p ∈ (0, 1) y q = 1 − p. Para
una constante c y 1 ≤ n ≤ m defina P(¦ω
n
¦) = cq
n−1
p. Determine el valor de c para
que P sea una medida de probabilidad.
29
1.7. Introducci´on a la Teor´ıa Combinatoria.
Como se ha visto para los espacios muestrales finitos, el c´alculo de las probabilidades
requiere, en muchos casos, el determinar el n´ umero de elementos del espacio muestral
y del n´ umero de elementos en los eventos considerados. Es por esto importante de-
sarrollar t´ecnicas para contar los elementos de un conjunto dado en los casos en que,
debido al n´ umero de posibles resultados y/o a la naturaleza del experimento, no sea
posible, ´o pr´actico, elaborar una lista con todos los elementos del espacio muestral.
En estos casos se necesitan t´ecnicas combinatorias.
Ejemplos 1.7
1. Se lanzan seis dados distintos. a)¿De cu´antas maneras distintas pueden salir sus
caras? b) ¿De cu´antas maneras puede suceder que todos muestren caras distintas?
2. En una peque˜ na comunidad hay 10 hombres cada uno de los cuales tiene 3 hijos.
Se elegir´a un hombre y a uno de sus hijos como el padre y el hijo del a˜ no, ¿cu´antas
parejas de padre-hijo son posibles?
3. Se forma una comisi´on de estudiantes de ciencias que se distribuyen por carreras
de la siguiente manera 3 de biolog´ıa, 4 de computaci´on, 5 de fisica y 2 de matem´atica.
Se quiere formar una subcomisi´on de cuatro estudiantes, consistente de 1 estudiante
de cada carrera. ¿Cu´antas subcomisiones diferentes son posibles?
4. ¿Cu´antas funciones f : ¦x
1
, x
2
, . . . , x
n
¦ −→¦0, 1¦ pueden ser definidas ?
5. ¿Cu´antas placas diferentes de 7 car´acteres se pueden formar si los primeros 3
car´acteres son letras y los ´ ultimos 4 son n´ umeros?
6. ¿Cu´antas iniciales diferentes pueden formarse con dos letras del alfabeto si las
letras no pueden ser repetidas?
7. En un juego del Loto se gana con seis aciertos escogidos de un total de 54 n´ umeros.
¿Cu´antas posibles maneras hay de seleccionar una lista de n´ umeros ganadores?
8. Un jurado internacional consta de 2 chilenos, 1 peruanos, 3 venezolanos y 2 colom-
bianos. Se elige una comisi´on conformada por un representante de cada pa´ıs. ¿Cu´antas
posibles comisiones hay?
A continuaci´ on enunciamos una de las reglas fundamentales de conteo.
30
Principio B´asico de Conteo.
Se realiza una selecci´on m´ ultiple de r componentes tales que: la primera compo-
nente se selecciona de un conjunto de m
1
elementos; la segunda se selecciona de un
conjunto de m
2
elementos y asi sucesivamente. Entonces el n´ umero total de posibles
selecciones (´o resultados) es igual a
m
1
m
2
. . . m
r
.
Nota. Observe que la situaci´on anterior puede tambien presentarse como la real-
izaci´on de r experimentos con m
1
, m
2
, . . . m
r
resultados posibles, respectivamente.
Ejemplos 1.8
1. Seis dados. Al lanzar seis dados distintos se tienen a) [Ω[ = 666666 = 6
6
resultados posibles.
b) El n´ umero de resultados en que todos los dados muestran caras distintas es igual
a 6,5,4,3,2 = 6!.
NOTA. Si A es el evento todos los dados presentan caras distintas, entonces, suponien-
do que todos los dados son perfectamente sim´etricos y que por lo tanto todos los re-
sultados son igualmente probables, se tiene que
P(A) =
[A[
[Ω[
=
6!
6
6
2. Padre-hijo del a˜ no. Dado que el padre puede escogerse de 10 posibles maneras y
para cada elecci´on del padre hay 3 posibles elecciones de hijo se tiene un total de
10 3 = 30 parejas posibles.
3. Subcomisiones de Estudiantes. Considerando nuevamente la selecci´on de la sub-
comisi´on como un resultado de la realizaci´on de 4 experimentos (´o selecciones) se
tiene que hay 3 4 5 2 = 120 posibles subcomisiones.
4. Funciones. Puesto que f(x
i
) tiene que ser 0 ´o 1 para cada i = 1, . . . , n se tiene que
hay 2
n
funciones posibles.
5. Placas de auto. Asumiendo que las letras y los n´ umeros pueden repetirse en una
misma placa, tendremos resultados de la forma (l
1
, l
2
, l
3
, n
1
, n
2
, n
3
, n
4
) y [Ω[ = 27
27 10 10 10 10 = 7,290,000.
6. Iniciales. ¿Cu´antas iniciales diferentes pueden formarse con dos letras del alfa-
beto si las letras no pueden ser repetidas?
Hay 27 26 = 702 iniciales posibles.
31
7. Comisi´on internacional. Hay 2 1 2 2 = 8 comisiones posibles.
1.7.1. Muestreo.
Una muestra ´o muestra aleatoria es una porci´on de determinada poblaci´on
que se selecciona al azar y se analiza para sacar conclusiones acerca de toda la
poblaci´on. Esto es particularmente ´ util cuando, debido a la gran cantidad de individ-
uos en la poblaci´on, resulta poco pr´actico o imposible hacer el an´alisis considerando
a todos los miembros de la misma, como ocurre por ejemplo al realizar una encuesta
de opini´on a la poblaci´on o sondear un lote de la producci´on de una f´abrica para
controlar la calidad.
El proceso de selecci´on de una muestra se denomina muestreo. Para estudiar los
problemas b´asicos de combinatoria, describiremos los m´etodos b´asicos de muestreo.
En lo que sigue consideramos la siguiente situaci´on. Una urna contiene m bolas enu-
meradas, de 1 a m, todas diferentes mientras no se especifique lo contrario. De la
urna se extraen n bolas. Esto puede hacerse de diferentes maneras, dependiendo de
si cada bola extraida se repone o no en la urna (muestreo con o sin reposici´on) y de
si la extracci´on se realiza o no en cierto orden (muestreo ordenado o sin orden).
I) Muestreo Ordenado con Reposici´on ´o Variaciones con Repetici´on. Se
extraen sucesivamente n bolas, devolviendo a la urna cada bola antes de la siguiente
extracci´on. Se anotan en orden los n´ umeros de las bolas extraidas: (a
1
, a
2
, . . . , a
n
)
donde a
j
∈ ¦1, . . . , m¦ para j = 1, . . . , n. Utilizando el principio b´asico de conteo
se obtienen m m . . . m = m
n
posibles resultados, ya que cada bola extraida
podr´a seleccionarse de m maneras posibles.
Ejemplos 1.9
1. Se lanzan seis dados distintos. Los resultados se pueden expresar como sextuplas
(c
1
, c
2
, c
3
, c
4
, c
5
, c
6
) donde c
i
representa el n´ umero obtenido en el i-´esimo dado. Como
se observ´o antes [Ω[ = 6
6
.
2. Placas de auto. Asumiendo que las letras y los n´ umeros pueden repetirse en una
misma placa, tendremos resultados de la forma (l
1
, l
2
, l
3
, n
1
, n
2
, n
3
, n
4
) y [Ω[ = 27
27 27 10 10 10 10 = 196,830,000.
3. Iniciales. ¿Cu´antas iniciales diferentes pueden formarse con dos ´o tres letras del
alfabeto si las letras pueden ser repetidas?
• (27 27) + (27 27 27) = 20,412.
32
II) Muesteo Ordenado sin Reposici´on ´o Variaciones.
a) n < m. Se extraen de la urna n bolas en forma sucesiva, sin reponer en la urna las
bolas extraidas. Se anotan en orden los n´ umeros de las bolas extraidas: (a
1
, a
2
, . . . , a
n
)
se pueden elegir de
m(m−1) (m−2) . . . (m−(n −1)) =
m!
(m−n)!
= V
m
n
maneras. La notaci´on V
m
n
se lee variaciones de m elementos en grupos de n.
Ejemplos 1.10
1. Placas de auto. Asumiendo que las letras y los n´ umeros no pueden repetirse en
una misma placa, tendremos resultados de la forma (l
1
, l
2
, l
3
, n
1
, n
2
, n
3
, n
4
) y [Ω[ =
27 26 25 10 9 8 7 = 88,452,000.
2. Iniciales. ¿Cu´antas iniciales diferentes pueden formarse con dos ´o tres letras del
alfabeto si las letras no pueden ser repetidas?
• (27 26) + (27 26 25) = 17,550.
3. Una junta directiva formada por un presidente, un tesorero y un secretario se
elige de un grupo de 10 personas. ¿Cu´antas juntas diferentes son posibles?
• Hay V
10
3
=
10!
7!
juntas posibles.
b) n = m: Permutaciones. Cuando m = n se est´an considerando las posibles
maneras de ordenar (permutar, jerarquizar) m elementos: # permutaciones de m el-
ementos=m! = V
m
m
.
Ejemplos 1.11
1. Jos´e, Jaime, Jacobo y Jes´ us forman una banda musical con 4 instrumentos. Si
cada uno de ellos puede tocar los cuatro instrumentos, a)¿De cu´antas maneras puede
organizarse la banda? b)¿De cu´antas si Jos´e y Jaime tocan los cuatro instrumentos
y Jacobo y Jes´ us s´olo dos de ellos?
• a) 1 2 3 4 = 4! b) 2 1 2 1 = 4.
2. ¿Cu´antos ordenes de bateo son posibles en un equipo de beisbol que consiste de
9 jugadores?
•Hay 9! = 362,880 posibles ordenes de bateo.
3. Un estudiante tiene 10 libros de los cuales 4 son de matem´aticas, 3 de quimi-
ca, 2 de historia y 1 de literatura. Si el estudiante quiere arreglar los libros en un
estante de forma tal que los de una misma materia queden juntos ¿cu´antos arreglos
33
posibles hay?
• Se tienen 4! 3! 2! 1! maneras de arreglar los libros de forma tal que los de
matem´atica se encuentren primero, luego los de qu´ımica, despu´es los de historia y por
´ ultimo el de literatura. Tambi´en las asignaturas se pueden ordenar de 4!
maneras y para cada ordenamiento de las asignaturas se pueden tener 4! 3! 2! 1!
ordenamientos de los libros. Por lo tanto hay 4! 4! 3! 2! 1! maneras de colocar
los libros en el estante.
III) Muestreo sin Orden y sin Reposici´on.
a) Combinaciones. De una urna que contiene m bolas se extraen n bolas (n ≤ m)
sin reponerlas en la urna y sin tomar en cuenta el orden de extracci´on. Cada uno de
los resultados de este muestreo se denomina combinaci´on.
Dado un conjunto de m elementos veremos de cu´antas maneras pueden combinarse
estos elementos en grupos de n. Por una parte, se tiene que cada muestra (combi-
naci´on) de tama˜ no n produce n! muestras ordenadas, es decir n! variaciones de m
elementos en grupos de n; adem´as toda muestra ordenada (de n elementos) es una
de las n! ordenaciones obtenidas permutando un grupo de n elementos. Es decir, las
variaciones se obtienen al considerar todas las permutaciones posibles de las combi-
naciones. Entonces, se tiene que si x es el n´ umero de combinaciones de m elementos
en grupos de n,
V
m
n
=
m!
(m−n)!
= n!x;
por lo que
x =
m!
n!(m−n)!
= C
m
n
=

m
n

,
donde
C
m
n
= # de subconjuntos de n elementos extraidos de un conjunto de m elementos.
Ejemplos 1.12
1. De un grupo de 20 personas se forma una comisi´on de 3. ¿Cuantas comisiones
diferentes pueden formarse?
Hay C
20
3
=

20
3

=
20!
3!(20−3)!
=
20×19×18
3×2×1
= 1140 comisiones posibles.
2. Juego del Loto. Como a efectos del juego el orden de los n´ umeros en la lista
no afecta el resultado, hay
C
54
6
=

54
6

=
54 53 52 51 50 49 48!
6! 48!
= 25,827,165
34
posibles juegos.
3. De un grupo de 5 hombres y 7 mujeres, a) ¿cu´antos posibles comites consistentes
de 2 hombres y 3 mujeres pueden formarse? b) ¿Cu´antos si dos de las mujeres estan
peleadas y se rehusan a participar juntas en el mismo comit´e?
• i. Las mujeres pueden elegirse de

7
3

maneras y los hombres de

5
2

maneras, por
lo tanto hay

7
3

5
2

=
7,6,5
3,2,1
5,4
2,1
= 350
• ii. Si dos de las mujeres no quieren trabajar juntas hay

2
0

5
3

grupos de 3 mujeres
en que ninguna de las mujeres peleadas participa y

2
1

5
2

grupos de 3 mujeres en
que s´olo una de ellas participa. Como hay

5
2

maneras de elegir a los hombres, se
tienen

2
0

5
3

+

2
1

5
2

5
2

= 300
posibles comites.
Observe que otra manera de encontrar el n´ umero de comites en este caso es restando
del resultado en la parte i el n´ umero de comit´es en que participan las dos mujeres,
que es igual a

2
2

5
1

5
2

= 50.
b) Permutaciones de m Bolas Distinguibles por Grupos. Supongamos que
se tiene m
1
bolas de color 1, m
2
bolas de color 2, . . . , m
r
bolas de color r; donde
m
1
+ m
2
+ . . . + m
r
= m. Supongamos adem´as que los colores son diferentes pero
no hay manera de distinguir entre bolas de un mismo color. ¿Cu´antas disposiciones
diferentes de las bolas son posibles?
Como hemos visto las m bolas pueden ordenarse de m! maneras. Sin embargo,
en cada una de estas disposiciones, los ordenamientos de bolas del mismo color no
son distinguibles; y como las bolas de color 1 se pueden ordenar de m
1
! maneras, las
bolas de color 2 de m
2
! maneras, . . . las de color r de m
r
! maneras, se tiene un total
de m
1
! m
2
! . . . , m
r
! ordenamientos indistinguibles. Por lo tanto hay
m!
m
1
! m
2
! . . . m
r
!
=

m
m
1
,m
2
,...,m
r

disposiciones distinguibles.
Ejemplos 1.13
1. En un torneo de ajedrez hay 10 participantes de los cuales 4 son rusos, 3 esta-
dounidenses, 2 brit´anicos y 1 brasile˜ no. Si el resultado del torneo s´olo muestra la
35
nacionalidad del jugador en el orden en que se coloco, ¿cu´antos posibles resultados
hay?
• Como no se distingue entre los participantes de una misma nacionalidad, se tienen
10!
4! 3! 2!
= 12,600
posibles ordenamientos.
2. ¿Cu´antas se˜ nales diferentes pueden formarse con 9 banderas de las cuales 5 son
blancas, 2 rojas y 2 azules si banderas de un mismo color son id´enticas?
• Hay

9
5,2,2

=
9!
5!2!2!
= 756 se˜ nales diferentes.
3. ¿Cu´antos posibles arreglos pueden formarse usando las letras de la palabra
PEPPER?
• Hay

6
3,2

=
6!
3!2!
= 60 arreglos posibles.
4. Juegos de Cartas. P= pinta y D = denominaci´on o valor.
P ` D A 2 3 4 5 6 7 8 9 10 J Q K
♣ A 2 3 4 5 6 7 8 9 10 J Q K
♦ A 2 3 4 5 6 7 8 9 10 J Q K
♥ A 2 3 4 5 6 7 8 9 10 J Q K
♠ A 2 3 4 5 6 7 8 9 10 J Q K
Determine el n´ umero de manos de cartas con las caracteristicas especificadas y calcule
la probabilidad de obtener los juegos correspondientes asumiendo que el mazo de cartas
se barajea concienzudamente y que no se hace trampa al distribuirlas:
a) Ω = Posibles manos de pocker. Como una mano consta de 5 cartas y el orden
en que las cartas aparecen no es importante, se tienen

52
5

posibles manos.
b) A = 5 cartas de una pinta. Hay 4 pintas con 13 denominaciones (valores)
diferentes. Entonces para cada pinta se tienen

13
5

maneras de seleccionar 5 cartas
de esa pinta. Por consiguiente, el n´ umero total de manos es en este caso
[A[ = 4

13
5

y P(A) =
4

13
5

52
5

.
c) B = Un par: ¦a, a, b, c, d¦; donde a, b, c y d son valores distintos.
• El valor a lo elegimos entre 13 valores posibles.
• Para cada valor de a hay 4 pintas posibles de las que podemos elegir 2 pintas de

4
2

36
maneras.
• Una vez hecha esta elecci´on, podemos escoger los valores b, c y d entre los 12
restantes de

12
3

maneras.
• Finalmente observemos que cada una de las cartas con valores b, c y d puede pre-
sentarse en 4 pintas diferentes, por lo que
[B[ = 13

4
2

12
3

4
3
y P(B) =
13

4
2

12
3

4
3

52
5

posibles manos con un par.
d) C = Dos pares: ¦a, a, b, b, c¦ donde a, b y c son valores distintos.
• Hay

13
2

denominaciones posibles para los pares.
• El primer par se elige de entre 4 pintas de

4
2

maneras. De forma an´aloga se elige
el segundo par.
• Para la ´ ultima carta hay 11 valores posibles cada uno en 4 pintas diferentes. Por lo
tanto el n´ umero de manos con dos pares es igual a
[C[ =

13
2

4
2

4
2

11 4 y P(C) =

13
2

4
2

4
2

11 4

52
5
.
e) D = Un trio: ¦a, a, a, b, c¦ donde a, b y c son valores distintos.
• La denominaci´on (valor) de a puede seleccionarse de 13 maneras.
• Para cada una de estas denominaciones las pintas se pueden escoger de

4
3

maneras.
• An´alogamente las denominaciones b y c se pueden elegir de

12
2

maneras diferentes
y para cada una de estas denominaciones se tienen 4 pintas posibles. Por lo tanto
[D[ = 13

4
3

12
2

4
2
trios y P(D) =
13

4
3

12
2

4
2

52
5

f ) E = Un cuarteto: ¦a, a, a, a, b¦ donde a y b son valores distintos.
• Hay 13 maneras de elegir el valor de a que aparecer´a en todas las pintas, esto es

4
4

= 1 formas.
• Para la carta restante hay 12 maneras de escoger el valor b y 4 pintas posibles. Por
lo tanto
[E[ = 13

4
4

12 4 y P(E) =
13

4
4

12 4

52
5

g) F = Un par y un trio (casa llena): ¦a, a, a, b, b¦ donde a y b son valores
distintos.
37
• Hay 13 maneras de elegir el valor a y 12 de elegir el valor b.
• Para cada elecci´on de a hay

4
3

maneras de elegir las pintas del trio y por cada
valor de b

4
2

por lo tanto
[F[ = 13

4
3

12

4
2

y P(D) =
13

4
3

12

4
2

52
5
.
1.7.2. F´ormulas Combinatorias.
Se considera un conjunto C = ¦c
1
, . . . , c
m
¦ del cual se extrae un subconjunto de
n elementos.
c1.

m
m

= 1.
c2.

m
1

= m.
c3.

m
n

=

m
m−n

, para 0 ≤ n ≤ m.
La igualdad en c3 se verifica porque todo subconjunto de n elementos produce un
subconjunto de m−n elementos, su complemento. Por otra parte, todo subconjunto
de m − n elementos es complemento de un conjunto de n elementos. Esto implica
que elegir un subconjunto de n elementos equivale a elegir uno de m−n elementos y
reciprocamente.
c4. F´ormula de Steaffel.

m
n

=

m−1
n−1

+

m−1
n

para 0 ≤ n ≤ m−1.
Observe que si fijamos un elemento c
1
de C el conjunto ( de todos los subconjuntos
de C de n elementos es igual a la uni´on disjunta ( = (
1
∪ (
2
donde (
1
son los sub-
conjuntos de C que contienen a c
1
y (
2
son los subconjuntos de C que no contienen
a c
1
. Por lo tanto

m
n

= [([ = [(
1
[ +[(
2
[ =

m−1
n−1

+

m−1
n

c5.

n+m
r

=

n
0

m
r

+

n
1

m
r−1

+

n
2

m
r−2

+ . . . +

n
r

m
0

.
c6. F´ormula del binomio de Newton. (a + b)
m
=
m
¸
k=0

m
k

a
k
b
m−k
. Esto se demuestra
usando inducci´on sobre m.
c7. Corolario de la f´ormula anterior: 2
m
=
m
¸
k=0

m
k

= (1 + 1)
m
.
38
1.8. Problemas de Colocaci´on.
Las situaciones descritas mediante los diferentes tipos de muestreo, pueden tam-
bi´en presentarse utilizando esquemas de colocaci´on de bolas en cajas (de manera
aleatoria). Describiremos brevemente la relaci´on de estos esquemas de colocaci´on con
los diferentes tipos de muestreo que hemos estudiado.
MUESTREO COLOCACI
´
ON
• Se tienen m bolas numeradas en • Se tienen m cajas numeradas y n
una urna de la cual se extraen n. fichas (numeradas ´o no) que se
colocan aleatoriamente
en las cajas.
- Muestreo con Reposici´on - Cada caja puede contener un
- Ordenado n´ umero arbitrario de fichas.
- Las fichas estan numeradas.
Resultado (a
1
, . . . , a
n
). - En la k-´esima caja se coloca la ficha
- En la i-´esima extracci´on se n´ umero i.
obtiene el n´ umero k = a
i
- La k-´esima caja puede recibir m´as
- El n´ umero k puede repetirse. de una ficha.
- Muestreo sin Reposici´on - Ninguna caja puede contener m´as
- Ordenado de una bola, n ≤ m.
- Las fichas estan numeradas.
I) n < m. Resultado (a
1
, . . . , a
n
). I) n < m.
- En la i-´esima extracci´on se - En la k-´esima caja se coloca la ficha
obtiene el n´ umero k = a
i
. n´ umero i.
- Un n´ umero k ∈ ¦1, . . . , m¦ - La k-´esima caja recibe a lo sumo
aparece a lo sumo una vez. una ficha.
II) Permutaciones. m=n m = n
Resultado (a
1
, . . . , a
n
). - Cada caja recibe exactamente una
- Cada n´ umero k ∈ ¦1, . . . , m¦ ficha numerada.
aparece en el resultado
exactamente una vez.
- Muestreo sin Reposici´on - Ninguna caja puede contener m´as
- Sin Orden de una ficha, n ≤ m.
- Las fichas no estan numeradas.
El resultado a
1
, . . . , a
n
Se coloca una ficha al azar en
a
i
= a
j
, i = j. cada una de n cajas
- Muestreo con Reposici´on Cada caja puede contener un
- Sin Orden. n´ umero arbitrario de bolas.
Resultado a
1
, . . . , a
n
. - Se colocan n fichas en cajas
- Puede haber repeticiones. seleccionadas al azar.
- Una caja puede contener m´as de una ficha.
39
IV) Muestreo sin Orden y con Reposici´on.
Consideramos una caja que contiene n bolas numeradas. Se extrae una bola, se
anota el n´ umero y se devuelve la bola a la caja. Este proceso se repite r veces y los
n´ umeros se anotan sin tomar en cuenta el orden en que aparecen.
En primer lugar determinaremos el n´ umero de elementos del espacio muestral aso-
ciado a ´este experimento. Una manera natural de enfocar esta situaci´on es consideran-
do el problema equivalente de colocar r bolas indistinguibles en n cajas numeradas,
permitiendo m´as de una bola en una caja:
j
k
bolas en la caja # k equivale a sacar la bola con el n´ umero k j
k
veces.
Veamos que en efecto ambos problemas son equivalentes. Un resultado del espacio
muestral asociado al muestreo sin orden y con reposici´on es de la forma (a
j
1
, . . . , a
j
r
)
donde 1 ≤ j
k
≤ n, 1 ≤ k ≤ r. Que el muestreo es con reposici´on significa que los j

k
s
pueden repetirse:
a
j
1
significa que hay una bola en la caja j
1
,
a
j
2
significa que hay una bola en la caja j
2
,
a
j
3
significa que hay una bola en la caja j
3
,
. . .
a
j
r
significa que hay una bola en la caja j
r
.
Ejemplos 1.14
Supongamos que se tienen 6 bolas id´enticas para ser distribuidas en 4 cajas
numeradas del 1 al 4. Es decir se tienen las etiquetas con los n´ umeros de las cajas
en una bolsa y se sacan aleatoriamente y con reposici´on 6 veces. Si representamos
a
j
i
= j
i
, el resultado (3, 4, 4, 3, 2, 1) significa que se colocaron una bola en la caja 1,
una en la caja 2, dos en la caja 3 y dos en la caja 4. Note que, a´ un cuando el orden
en que se colocan las bolas est´a registrado en el resultado, el mismo resulta irrele-
vante ya que lo que importa es el n´ umero de bolas que al final tiene cada caja. Por
ejemplo (3, 4, 4, 3, 2, 1) y (4, 4, 3, 3, 1, 2) representan el mismo resultado. Esta notaci´on
resultar´a conveniente m´as adelante cuando se consideren bolas distinguibles.
NOTA: Cada vez que el ´ındice j
i
aparezca se coloca una bola en la caja j
i
.
Podemos imaginar que sacamos aleatoriamente y con reposici´on r fichas, numeradas
del 1 al n, contenidas en una caja. El n´ umero obtenido en una extracci´on es el n´ umero
de la caja donde se colocar´a la bola siguiente.
En una muestra en la que el objeto a
i
se repite r
i
veces, i = 1, . . . , n, se tiene que
n
¸
i=1
r
i
= r y la caja i contiene r
i
bolas o equivalentemente el n´ umero i se sac´o r
i
40
veces.
Si r < n entonces al menos n −r de los r
i
son iguales a cero; esto equivale a que
al menos n − r cajas queden vacias. Si r ≥ n todav´ıa puede haber cajas vacias (r
i
’s
iguales a cero). Calculemos el n´ umero de elementos del espacio muestral.
Podemos representar las n cajas por n − 1 barras verticales ([) y las bolas por
estrellas (∗). Un posible elemento en el caso en que n = 8 y r = 8 ser´ıa
¦∗[[ ∗ ∗ ∗ [ ∗ [ ∗ ∗[[ ∗ [¦.
En la representaci´ on anterior este elemento es (a
1
, a
3
, a
3
, a
3
, a
4
, a
5
, a
5
, a
7
) por lo
que r
1
= 1, r
2
= 0, r
3
= 3, r
4
= 1, r
5
= 2, r
6
= 0, r
7
= 1 y r
8
= 0.
Toda configuraci´on consta de n − 1 barras y r estrellas, por lo tanto el es como
tener banderas de dos colores combinadas al azar para formar se˜ nales: hay un total
de n − 1 + r banderas de las cuales n − 1 son del color 1 y r son del color
2. El n´ umero de elementos del espacio muestral es el n´ umero de posibles se˜ nales; es
decir,
[Ω[ =
(n + r −1)!
(n −1)!r!
=

n+r−1
r

=

n+r−1
n−1

.
Ejemplos 1.15
1. Se tienen r dados id´enticos. ¿Cu´antos posibles resultados hay en un lanzamien-
to?
Podemos representar los resultados mediante un conjunto ¦a
j
1
, a
j
2
, . . . , a
j
r
¦, donde
a
j
i
significa un dado cae en el n´ umero j
i
, j
i
∈ ¦1, . . . , 6¦. Esto a su vez equivale a
colocar una bola en la caja j
i
.
Como hay 6 cajas y r bolas, el n´ umero de sesultados posibles es igual a

6+r−1
r

=

6+r−1
6−1

=

5+r
5

.
2. En una pi˜ nata hay 10 juguetes id´enticos y 8 ni˜ nos. Si cualquiera de ellos puede
recoger m´as de un juguete, ¿de cu´antas maneras pueden quedar repartidos los juguetes?
Identificamos a cada ni˜ no con una caja y a cada juguete con una bola. Entonces
n = 8 y r = 10 por lo que hay

8+10−1
10

=

17
10

maneras de repartir los juguetes.
Algunos casos especiales.
a) N´ umero de colocaciones en las que no queda ninguna caja vacia. Se tienen n
cajas y se extraen r bolas, donde r ≥ n. Si representamos un resultado como antes
¦∗[ . . . ∗ [∗¦ ninguna caja vacia significa que no quedan dos barras contiguas. Para
contar el n´ umero de elementos en este evento podemos pensar en colocar las r bolas
41
(sin las barras): ¦∗∗∗∗. . . ∗¦ con lo que quedan r−1 espacios para ser ocupados por las
n−1 barras. Una disposici´on de bolas en cajas se obtiene cuando se seleccionan n−1
espacios, de entre los r − 1 disponibles, para colocar las barras. Esto puede hacerse
de

r−1
n−1

formas, por lo que este es el n´ umero de elementos en el evento considerado.
Ejemplos 1.16
1. En el ejemplo anterior (2) ¿cu´al es la probabilidad de que no quede ningun ni˜ no
sin juguete?

9
7

17
10
.
b) N´ umero de colocaciones en que ninguna caja contiene m´as de una bola. Esto equiv-
ale a extraer r bolas, r ≤ n sin reemplazo. Un resultado t´ıpico de este evento se
caracteriza por no presentar dos estrellas contiguas.
Si se disponen las n − 1 barras ¦[ [ [ . . . [¦ que generan n espacios donde se
colocaran r bolas; por lo tanto hay

n
r

disposiciones posibles.
N´ umero de colocaciones de r bolas distinguibles en n cajas.
Se colocan al azar r bolas numeradas en n cajas numeradas. Esto puede hacerse
mediante la extracci´on aleatoria, con orden y con reposici´on, de r etiquetas enu-
meradas de 1 hasta n. Un resultado puede representarse como una r-tupla ordenada
(b
1
, b
2
, . . . , b
r
)
donde la i-´esima coordenada corresponde a la caja donde se coloc´o la bola i. Por la
forma en que se realiza el muestreo, es claro que una caja puede contener m´as de
una bola. Adem´as es claro que el n´ umero de elementos pertenecientes a este espacio
muestral es igual e n
r
.
Consideremos el evento r
i
bolas en la caja j
i
donde r
1
+ r
2
+ . . . + r
k
= r, r
i
≥ 0
y 1 ≤ j
i
≤ n para i = 1, . . . , k. El n´ umero de elementos en este evento es
n!
r
1
!r
2
! . . . r
k
!
.
Verifiquelo.
42
Ejercicios 1.3
1. Un grupo de seis personas va al teatro. ¿De cu´antas maneras diferentes pueden
sentarse en seis asientos adyacentes?
2. Si el grupo en el ejercicio anterior est´a conformado por tres hombres y tres mujeres,
calcule la probabilidad de que dos personas del mismo sexo nunca queden en asientos
contiguos.
3. Suponga que siete espacios adyacentes van a ser ocupados por las letras c y s
de forma tal que c aparece cuatro veces y s tres veces. ¿Cu´antos arreglos diferentes
pueden formarse de esta manera? Nota: recuerde que no se distingue entre dos letras
c ´o dos letras s.
4. Considere un juego de lotto en el que se gana el premio m´aximo acertando seis
n´ umeros tomados de un panel de n´ umeros del 1 al 40. Calcule la probabilidad de ga-
nar con un juego.
5. Si 4 venezolanos, 3 franceses y 3 italianos se sientan en una fila, ¿cu´antas disposi-
ciones son posibles si personas de la misma nacionalidad deben sentarse juntas?
6. a) ¿De cu´antas maneras pueden 3 ni˜ nos y 3 ni˜ nas sentarse en una fila?
b) ¿De cuantas maneras pueden 3 ni˜ nos y 3 ni˜ nas sentarse en una fila si los ni˜ nos
deben sentarse juntos y las ni˜ nas deben sentarse juntas?
c) ¿De cu´antas maneras si s´olo los ni˜ nos deben sentarse juntos?
d) ¿De cu´antas maneras si no se permite que dos personas del mismo sexo se sienten
juntas?
7. ¿De cu´antas maneras pueden sentarse 8 personas en fila en las condiciones
siguientes: a) no hay restricciones;
b) las personas A y B deben sentarse juntas;
c) hay 4 hombres y 4 mujeres y no se sientan juntas dos personas del mismo sexo;
d) hay 5 hombres y ellos deben sentarse juntos;
e) hay 4 parejas casadas y cada pareja debe sentarse junta?
8. Un ni˜ no tiene 12 bloques de madera de los cuales 6 son negros, 4 son rojos, 1 es
blanco y 1 es azul. Si el ni˜ no pone los bloques en linea, ¿cu´antos arreglos son posibles?
9. ¿Cu´antos arreglos pueden hacerse con las letras de :
a) FACIL; b)MANZANO; c)MISSISSIPPI; d)COMARCA.
10. Un departamento de polic´ıa en un pueblo peque˜ no tiene 10 oficiales. Si el de-
43
partamento tiene 5 oficiales patrullando las calles, 2 trabajando en la estaci´on y 3
en reserva en la estaci´on, ¿cu´antas divisiones diferentes de los 10 oficiales en los 3
grupos son posibles?
11. Una junta de 7 se forma con 2 estudiantes, 2 empleados y 3 profesores que se
escogen de un grupo de 5 estudiantes, 6 empleados y 4 profesores. ¿Cu´antas juntas
son posibles?
12. Un presidente un tesorero y un secretario van a ser elegidos de un grupo de
10 personas. D´e el n´ umero de elecciones posibles en cada uno de los siguientes casos:
a) No hay restricciones.
b) A y B no trabajan juntos.
c) C y D trabajan juntos o no trabajar´an.
d) E debe tener uno de los cargos.
e) F aceptar´a s´olo el cargo de presidente?
13. Se dividen 12 personas en 3 comisiones de tama˜ no 3, 4 y 5. ¿Cu´antas comi-
siones diferentes pueden formarse?
14. Una prueba consta de 12 preguntas con respuestas V (verdadero) y F (falso). Un
estudiante que no estudi´o pide ayuda al profesor y ´este le dice que 6 de las preguntas
son verdaderas y 6 falsas. ¿Cu´al es la probabilidad de que el estudiante responda cor-
rectamente a todas las preguntas?
15. Una persona llega a una reuni´on en la que no conoce a nadie. Si hay 6 mu-
jeres y 4 hombres y se sabe que hay 4 matrimonios, ¿de cu´antas maneras puede la
persona figurarse como estan formados los matrimonios? ¿De cu´antas maneras si hay
3 matrimonios?
16. Un comit´e de 5 se selecciona aleatoriamente de un grupo de 6 hombres y 9 mu-
jeres. ¿Cu´al es la probabilidad de elegir 3 hombres y 2 mujeres?
17. Si dos bolas se extraen al azar y al mismo tiempo de una caja que contiene 6
bolas blancas y 5 bolas negras, ¿cu´al es la probabilidad de que una de las bolas sea
blanca y la otra negra?
18. Se escogen al azar 4 zapatos de un conjunto de 5 pares. ¿Cu´al es la probabili-
dad de que se forme por lo menos un par?
19. Suponga que Marcos est´a asistiendo a una convenci´on para nacidos en el mes de
Enero. Marcos y otras siete personas se quedan encerrados en un ascensor y para pasar
el tiempo Marcos trata de calcular la probabilidad de que todas las ocho personas atra-
44
padas tengan cumplea˜ nos diferentes. ¿Qu´e respuesta deber´ıa obtener Marcos? ¿Cu´al
es la probabilidad de que al menos dos personas tengan el mismo cumplea˜ nos? Nota:
Asuma que las ocho personas son nacidas en enero.
20. Si r personas se encuentran en un edificio p´ ublico, ¿cu´al es la probabilidad de
que al menos dos de ellas tengan la misma fecha (dia/mes) de cumplea˜ nos?
21. Si se lanzan dos dados, ¿cu´al es la probabilidad de que la suma de las caras
sea igual a i ∈ ¦2, 3, . . . , 12¦?
22. ¿Cu´al es la probabilidad de sacar 6 ´o menos de 6 con tres dados distintos? ¿Cu´al
es la probabilidad si los dados son id´enticos? Suponga que los dados son perfectamente
sim´etricos.
23. Una urna contiene 3 bolas rojas y 7 negras. Jugadores A y B extraen bolas de la
urna consecutivamente y comenzando por A, hasta que una bola roja sea selecciona-
da. Encuentre la probabilidad de que A saque la bola roja. Sugerencia. Considere los
eventos: E
A
= A saca la bola roja y E
i
= la bola roja se saca en la i-´esima extracci´on.
24. Se lanza una moneda hasta que aparezca por primera vez el mismo resultado
dos veces. Asumiendo que cada cara de la moneda tiene igual probabilidad, halle la
probabilidad de los siguientes eventos: A = El experimento termina antes del sexto
lanzamiento. B = Se requiere un n´ umero par de lanzamientos.
25. Una urna contiene 5 bolas rojas, 6 bolas azules y 8 bolas verdes. Si un conjunto de
3 bolas es extraido aleatoriamente, ¿cu´al es la probabilidad de que todas las bolas sean
del mismo color? ¿Cu´al es la probabilidad de que todas sean de colores diferentes?
Nota: considere los casos en que las extracciones se realizan con reemplazamiento y
sin reemplazamiento.
26. Un grupo de 6 hombres y 6 mujeres se dividen aleatoriamente en dos grupos
de 6 personas cada uno. Encuentre la probabilidad de que cada grupo tenga el mismo
n´ umero de hombres.
27. Demuestre la f´ormula de Steaffel.
28. D´e un argumento combinatorio para justificar la f´ormula c5. Demuestre anal´ıtica-
mente la f´ormula.
29. Demuestre la f´ormula del binomio de Newton.
30. Se reparten al azar 5 bolas distinguibles en 3 casillas. Determine la probabili-
45
dad de que por lo menos haya una en cada casilla.
31. ¿De cu´antas maneras pueden colocarse n bolas id´enticas en n cajas numeradas
de tal modo que exactamente dos cajas queden vacias? ¿De cu´antas maneras de tal
modo que una caja quede vacia?
32. Se colocan n bolas distinguibles en n cajas numeradas. Encuentre la probabili-
dad de que exactamente una caja quede vacia.
33. Si se colocan n bolas numeradas en n cajas numeradas, ¿cu´al es la probabili-
dad de que cada caja contenga una bola?
34. Los n´ umeros 1, 2, 3, . . . , n est´an colocados en un orden aleatorio, encuentre la
probabilidad de que
a) los d´ıgitos 1 y 2 est´en en su posici´on correcta.
b) los d´ıgitos 1, 2 y 3 est´en en su posici´on correcta.
35. Se tienen 2k cajas numeradas (desde 1 hasta 2k) y k bolas numeradas (desde
1 hasta k). Se distribuyen las k bolas en las 2k cajas de modo que cada caja contenga
a lo sumo una bola.
a) Halle el n´ umero de configuraciones tales que la caja #1 resulte ocupada.
b) Halle el n´ umero de configuraciones tales que la caja #1 resulte vacia.
c) Halle el n´ umero de configuraciones tales que la caja #1 resulte vacia y la caja
#2 contenga la bola #2.
36. Un ascensor con 7 pasajeros se detiene en 10 pisos. ¿Cu´al es la probabilidad
de que 2 pasajeros no se bajen en el mismo piso?
37. Se disponen en fila 3 bolas blancas y 6 bolas negras de manerta que no haya
dos bolas blancas consecutivas. ¿Cu´antas maneras hay de hacerlo?
38. Se lanzan 6 dados distinguibles.
a) ¿De cu´antas maneras pueden salir sus caras superiores?
b) ¿De cu´antas maneras puede ocurrir que sus caras superiores sean todas distin-
tas?
46
c) ¿Cu´al es la probabilidad de que todas sus caras superiores sean iguales?
d) ¿Cu´al es la probabilidad de que al menos dos dados muestren sus caras superi-
ores iguales?
39. ¿Cu´antos enteros hay entre 10
6
(un mill´on) y 10
7
(diez millones) tales que
a) no tengan dos d´ıgitos consecutivos iguales?
b) tengan todos sus d´ıgitos diferentes?
40. Consideremos el conjunto de todas la poligonales (n, S
n
) con n = 0, 1, 2, . . ., que
parten del origen, es decir, S
0
= 0 y que en cada paso saltan una unidad hacia arriba
o una unidad hacia abajo; es decir,
S
n
= X
1
+X
2
+ . . . + X
n
,
donde X
K
= 1 ´o −1 (k = 1, 2, . . . n). ¦S
n
¦
n≥1
as´ı definido se denomina paseo al azar
o caminata aleatoria.
a) ¿Cu´antas poligonales se pueden construir en el intervalo de tiempo [0, n]?
b) ¿Cu´antas poligonales son tales que S
n
= 0?
41. Dos cajas contienen 2n bolas cada una, numeradas desde 1 hasta 2n. Selec-
cionamos n bolas de cada caja. Halle la probabilidad de que haya a lo sumo una
bola con el mismo n´ umero en ambos conjuntos?
42. Se tiene un lote con N productos entre los cuales hay n defectuosos. Halle la
probabilidad de que en una muestra aleatoria de tama˜ no k se encuentren:
a) j piezas defectuosas, j ≤ n y j ≤ k.
b) Al menos j piezas defectuosas, j ≤ n y j ≤ k.
c) A lo sumo j piezas defectuosas, j ≤ n y j ≤ k.
43. Se tienen 6 palos de igual longitud y cada uno de ellos se parte en dos: uno
largo y uno corto. Con los 12 palos as´ı obtenidos se vuelven a formar 6 palos rea-
grup´andolos al azar en parejas.
a) Halle la probabilidad de juntar los trozos en la forma original.
b) Halle la probabilidad de que cada trozo largo sea unido a uno corto.
47
1.9. Probabilidad Condicional e Independencia.
1.9.1. Probabilidad Condicional.
Consideramos situaciones en las que para calcular la probabilidad de un evento
se tiene informaci´on adicional como, por ejemplo la ocurrencia de alg´ un otro evento.
Nos preguntamos ¿en qu´e medida afecta esta informaci´on la probabilidad buscada ?
Ilustraremos esta situaci´on con algunos ejemplos.
Ejemplos 1.17
1. Considere el espacio muestral correspondiente al lanzamiento de dos dados (uno
rojo y uno verde) y supongamos que todos los resultados son igualmente
probables. Sean A = suma igual a 8; B = dado rojo muestra 2 y
C = suma mayor que 10. Supongamos que el dado rojo muestra 2, es decir ocurre B.
Entonces, dada esta informaci´on, ¿cu´al es la probabilidad de que la suma sea igual a
8? ¿mayor que 10?
Si el primer dado es igual a 2, entonces los resultados posibles son:
S

= ¦(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)¦; siendo S

el espacio muestral
actualizado, en el que todos los resultados son igualmente probables. Se tiene que la
probabilidad de A dado B es igual a
1
6
. Note que esta probabilidad es diferente de
P(A) =
5
36
. Observando el espacio muestral actualizado S

, se verifica que la probabil-
idad de que ocurra C dado que ha ocurrido B es igual a 0, que tambi´en es diferente
de P(C).
2. ¿Tiene el rey una hermana? El rey viene de una familia de dos ni˜ nos. ¿Cu´al
es la probabilidad de que tenga una hermana?
Podemos describir el espacio muestral como ¦(h, h), (h, v), (v, h), (v, v)¦. Asumimos
que todos los resultados son igualmente probables. Como sabemos que uno de los ni˜ nos
es el rey, el espacio muestral actualizado es S

= ¦(h, v), (v, h), (v, v)¦, por lo que la
probabilidad de que el rey tenga una hermana es
2
3
3. Considere una poblaci´on de 20 estudiantes entre los cuales hay 14 que estudian
Ciencias y 6 que estudian Ingenier´ıa. Se escogen al azar, en forma sucesiva y sin
reposici´on dos estudiantes, de forma que el espacio muestral puede representarse co-
mo un conjunto de pares (e
1
, e
2
). Supongamos que el primer estudiante es de Ciencias,
¿cu´al es la probabilidad de que el segundo tambien lo sea?
Observe que, dado que el muestreo es sin reposici´on, el n´ umero de eventos ele-
mentales (´o resultados) es 20 19.
Sean E
1
=el primer estudiante es de Ciencias y
E
2
=el segundo estudiante es de Ciencias.
48
El espacio muestral actualizado es: E
1
, este espacio tiene 14 19 posibles resultados
de los cuales 14 13 son favorables a E
2
, por lo tanto la probabilidad de que ocurra
E
2
dado que ocurre E
1
es
14 13
14 19
=
(14×13)
(20×19)
(14×19)
(20×19)
=
P(E
1
∩ E
2
)
P(E
1
)
.
Esta probabilidad se denomina probabilidad condicional de E
2
dado E
1
y se denota
P(E
2
[E
1
). Una vez m´as observe que P(E
2
) =
(14×19)
(20×19)
=
7
10
=
13
19
.
Si las selecciones se realizan con reposici´on el resultado de la primera extracci´on no
nos da informaci´on alguna en cuanto al resultado de la segunda, por lo que
P(E
2
[E
1
) = P(E
2
) =
14 20
20 20
=
7
10
.
Definici´on 1.3 Sea (Ω, /, P) un espacio de probabilidad y sea B ∈ / tal que P(B) >
0. Definimos la funci´on de conjuntos probabilidad condicional dado B, denotado
P(•[B) mediante
P(A[B) =
P(A ∩ B)
P(B)
, para todo A ∈ /.
NOTA: en los ejemplos anteriores se calcularon: P(A[B), P(h[v) y P(E
2
[E
1
).
Propiedades b´asicas.
Sea (Ω, /, P) un espacio de probabilidad y sea B ∈ / tal que P(B) > 0. Entonces
1. La funci´on P(•[B) es una probabilidad. En efecto
i) P(A[B) ≥ 0 para cada A ∈ /.
ii) P(Ω[B) =
P(Ω∩B)
P(B)
=
P(B)
P(B)
= 1.
iii) Sea (A
n
)
n≥1
una sucesi´on de eventos disjuntos dos a dos. Entonces
P(∪
n≥1
A
n
[B) =
P(∪
n≥1
A
n
∩ B)
P(B)
=
P(∪
n≥1
(A
n
∩ B))
P(B)
=
¸
n≥1
P(A
n
∩ B)
P(B)
=
¸
n≥1
P(A
n
[B).
2. Si A y B son disjuntos, entonces P(A[B) =
P(A∩B)
P(B)
= 0.
3. Si B ⊆ A entonces P(A[B) =
P(A∩B)
P(B)
=
P(B)
P(B)
= 1.
49
Ejemplos 1.18
1. A y B juegan el siguiente juego de dados: Se lanzan dos dados, si la suma de
los dados es igual a 7 A gana y si la suma es igual a 8 B gana. El juego termina al
obtener un ganador. ¿Cu´al es la probabilidad de que A gane?
Soluci´on 1. Sea p
n
la probabilidad de que A gane en n lanzamientos. Esto significa
que en los lanzamientos 1, 2, . . . n−1 no se obtiene un 7 o un 8. Denotamos el evento
la suma es 8 por E
8
= ¦(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)¦ y el evento la suma es 7 por
E
7
= ¦(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3)¦. Tenemos entonces que p
n
=
1
6
(
25
36
)
n−1
.
Con lo cual
P(A) =
¸
n≥1
p
n
=
1
6
¸
n≥1
(
25
36
)
n−1
=
1
6
¸
n≥0
(
25
36
)
n
=
6
11
.
Soluci´on 2. Lo anterior es equivalente a decir que P(A) es la probabilidad condicional
de que la suma sea 7 dado que el juego termina en alg´ un lanzamiento, es decir
P(A) = P(¦7¦[¦7, 8¦) =
P(¦7¦)
P(¦7, 8¦)
=
6
11
.
2. Se lanza un dado dos veces. a) Si la suma de los resultados es 8, ¿cu´al es la prob-
abilidad de que el primer resultado sea k ∈ ¦1, 2, . . . , 6¦?
b) Si el primer lanzamiento result´o en un 3, ¿cu´al es la probabilidad de que el segundo
sea k ∈ ¦1, 2, . . . , 6¦?
c) Si el primer lanzamiento result´o en un 3, ¿cu´al es la probabilidad de que la suma
sea 7?
Soluci´on. Denotemos por X el resultado del primer lanzamiento y por Y el resultado
del segundo lanzamiento. Tenemos que P(X = k) =
1
6
= P(Y = k).
a) Se quiere P(X = k[X + Y = 8) =
P((X=k)∩(X+Y =8))
P(X+Y =8)
. Dado que
(X + Y = 8) = ¦(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)¦
se tiene que P(X + Y = 8) =
5
36
. Adem´as
P((X = k) ∩ (X + Y = 8)) =

1
36
si 2 ≤ k ≤ 6
0 si k = 1.
(1.2)
Por lo tanto
P(X = k[X + Y = 8)) =

1
5
si 2 ≤ k ≤ 6
0 si k = 1
(1.3)
b) P(Y = k[X = 3) =
P((Y =k)∩(X=3))
P(X=3)
=
1/36
1/6
=
1
6
= P(Y = k).
Observe que el segundo lanzamiento no afecta la probabilidad del resultado del primer
50
lanzamiento.
c) P(X + Y = 7[X = 3) =
P((X+Y =7)∩(X=3))
P(X=3)
=
1/36
1/6
=
1
6
.
3. Para controlar una cierta enfermedad en una poblaci´on donde la proporci´on de
enfermos es p se usa un determinado examen m´edico para detectar enfermos. Se sabe
que la probabilidad de que al aplicar el examen a un enfermo lo muestre como tal
es de 0,9, y que la probabilidad de que al aplicarlo a una persona sana la muestre
como enferma es de 0.01. Calcule la probabilidad de que una persona este realmente
enferma si el examen la muestra como tal.
Soluci´on. Sean E: la persona est´a enferma y R: el examen resulta positivo (detecta
la enfermedad). Se desea calcular
P(E[R) =
P(E ∩ R)
P(R)
.
Sabemos que:
P(E) = p,
P(R[E) =
P(R ∩ E)
P(E)
= 0, 9 ⇒P(E ∩ R) = 0, 9p
P(R[E
c
) =
P(R ∩ E
c
)
P(E
c
)
= 0, 01 ⇒P(E
c
∩ R) = 0, 01(1 −p).
Por lo tanto P(R) = P(R ∩ E) + P(R ∩ E
c
) = 0, 9p + 0, 01(1 −p) con lo que
P(E[R) =
0, 9p
0, 9p + 0, 01(1 −p)
=
90p
89p + 1
.
En particular si p =
1
30
se tiene que P(E[R) · 0, 76. Note que si p es peque˜ no la
efectividad del examen para detectar la enfermedad es dudosa.
4. Tiempo de vida de un aparato que no envejece. Consideremos un aparato el´ectri-
co cuyo funcionamiento no es afectado por el paso del tiempo, sino que se destruye
por alguna perturbaci´on aleatoria. Esto puede expresarse de la siguiente manera: Da-
do que el aparato est´a funcionando en el instante s su tiempo de vida a partir de
ese instante evoluciona como si el aparato hubiera comenzado a funcionar en s. Si
denotamos por T al tiempo de vida del aparato lo anterior significa que
P(T > s + h[T > s) = P(T > h) h > 0,
es decir
P(¦T > s + h¦ ∩ ¦T > s¦)
P(T > s)
=
P(T > s + h)
P(T > s)
= P(T > h).
51
Si denotamos φ(t) = P(T > t) la igualdad anterior significa que
φ(s + h) = φ(s) φ(h).
Se puede comprobar que
φ(t) = e
−λt
; donde t ≥ 0, λ ≥ 0.
1.9.2. Resultados B´asicos sobre Probabilidad Condicional.
Proposici´on 1.1 (Probabilidad de la intersecci´on). Sean A
1
, . . . , A
n
una colecci´on
finita de eventos tales que P(A
1
∩ A
2
∩ . . . ∩ A
n
) > 0. entonces se verifica que
P(A
1
∩A
2
∩. . . ∩A
n
) = P(A
1
)P(A
2
[A
1
)P(A
3
[A
1
∩A
2
) . . . P(A
n
[A
1
∩A
2
∩. . . ∩A
n−1
).
Demostraci´on. Observemos que P(A
2
[A
1
) =
P(A
1
∩A
2
)
P(A
1
)
, P(A
3
[A
1
∩ A
2
) =
P(A
1
∩A
2
∩A
3
)
P(A
1
∩A
2
)
,
y de manera similar P(A
k
[A
1
∩ A
2
∩ . . . ∩ A
k−1
) =
P(A
1
∩A
2
∩...A
k
)
P(A
1
∩A
2
...A
k−1
)
. Como
0 < P(A
1
∩ A
2
∩ . . . ∩ A
n
) ≤ P(A
1
∩ A
2
. . . A
n−1
) ≤ . . . ≤ P(A
1
),
entonces todas las probabilidades condicionales estan bien definidas. El resultado se
obtiene por inducci´on sobre n.
Ejemplos 1.19
Calcule la probabilidad de que al lanzar seis dados distintos y perfectos se obten-
gan seis caras distintas.
Soluci´on. Consideremos los siguientes eventos:
A
1
=el resultado del primer dado es a
1
∈ ¦1, 2, . . . 6¦
A
2
= el resultado del segundo dado es a
2
= a
1
A
3
= el resultado del tercer dado es a
3
= a
1
, a
2
A
4
= el resultado del cuarto dado es a
4
= a
1
, a
2
, a
3
A
5
= el resultado del quinto dado es a
5
= a
1
, a
2
, a
3
, a
4
A
6
= el resultado del sexto dado es a
6
= a
1
, a
2
, a
3
, a
4
, a
5
.
Entonces queremos calcular P(A
1
∩ A
2
. . . ∩ A
6
) donde P(A
1
) = 1, P(A
2
[A
1
) =
5
6
,
P(A
3
[A
1
∩ A
2
) =
4
6
, P(A
4
[A
1
∩ A
2
∩ A
3
) =
3
6
, P(A
5
[A
1
∩ A
2
∩ A
3
∩ A
4
) =
2
6
y
P(A
6
[A
1
∩ A
2
∩ A
3
∩ A
4
∩ A
5
) =
1
6
. Esto implica que
P(A
1
∩ A
2
. . . ∩ A
6
) = 1
5
6

4
6

3
6

2
6

1
6
=
5!
6
5
=
6!
6
6
Nota. Compare con la situaci´on en que se sientan seis personas en seis sillas: es
la misma situaci´on si se asume que las sillas estan enumeradas y las seis personas
representan los seis dados.
52
Proposici´on 1.2 (F´ormula de la Probabilidad Total.) Sea (Ω, /, P) un espacio de
probabilidad y sea (A
n
)
n≥1
⊆ / una partici´on del espacio Ω, esto es Ω = ∪A
n
y
A
i
∩ A
j
= ∅, para i = j. Entonces para todo evento B se cumple que
P(B) =
¸
i≥1
P(A
i
)P(B[A
i
).
Demostraci´on. Escribimos
B = B ∩ Ω = B ∩ (∪
i≥1
A
i
) = ∪
i≥1
(B ∩ A
i
).
Entonces, como la familia (B ∩ A
i
)
i≥1
es disjunta, tenemos que
P(B) = P(∪
i≥1
(B ∩ A
i
)) =
¸
i≥1
P(B ∩ A
i
) =
¸
i≥1
P(A
i
)P(B[A
i
).
Comentarios.
1. Si para alg´ un n, P(A
n
) = 0, entonces P(B ∩ A
n
) = 0, por lo que no importa que
P(B[A
n
) no este definido, ya que el t´ermino correspondiente no aprece en la f´ormula.
2. La f´ormula anterior permite descomponer el evento B en eventos cuyas probabili-
dades pueden, en algunos casos, ser calculadas m´as f´acilmente.
Ejemplos 1.20
1. Una urna contiene 6 bolas rojas y 4 negras. Se extraen al azar y sin reposici´on
2 bolas. Considere los siguientes eventos:
A
1
=la primera bola es roja; A
2
= la segunda bola es roja. Calcule P(A
2
).
Soluci´on. Tenemos que P(A
1
) =
6
10
=
3
5
y P(A
1
∩ A
2
) = P(A
1
)P(A
2
[A
1
) =
3
5
5
9
=
1
3
.
Por lo tanto
P(A
2
) = P(A
1
)P(A
2
[A
1
) + P(A
c
1
)P(A
2
[A
c
1
) =
1
3
+
2
5
6
9
=
3
5
.
2. Una compa˜ n´ıa de seguros clasifica a las personas en dos grupos: aquellos que son
propensos a accidentes y aquellos que no lo son. Las estadisticas muestran que una
persona propensa a accidentes tendr´a un accidente en alg´ un momento en un per´ıodo
de un a˜ no con probabilidad 0.4, mientras que la probabilidad del mismo evento para
una persona no propensa a accidentes es 0.2. Se asume que el 30 % de la poblaci´on
es propensa a accidentes. a)Calcule la probabilidad de que un nuevo asegurado tenga
un accidente en el a˜ no siguiente a la compra de la p´oliza, b) Suponga que un nuevo
asegurado tiene un accidente en el a˜ no siguiente a la compra de la p´oliza. Calcule la
probabilidad de que el asegurado sea propenso a accidentes.
Soluci´on. a) Sea A =el asegurado tiene un accidente en el a˜ no siguiente a la compra
de la p´oliza y B = el asegurado es propenso a accidentes. Entonces
P(A) = P(A ∩ B) + P(A ∩ B
c
) = P(B)P(A[B) + P(B
c
)P(A[B
c
)
= 0,3 0,4 + 0,7 0,2 = 0,12 + 0,14 = 0,26.
53
b) Se desea calcular
P(B[A) =
P(B)P(A[B)
P(A)
=
0,3 0,4
0,26
=
6
13
.
La F´ormula de Bayes.
En la f´ormula de la probabilidad total, supongamos que el evento B ha ocurri-
do. Si los eventos (A
n
)
n≥1
se interpretan como ”hip´otesis.
a
cerca de una determinada
situaci´on, puede ser de inter´es el saber de qu´e manera la ocurrencia de B afecta la
probabilidad de las hip´otesis. Es decir, consideramos una situaci´on inversa a la que
se presenta en la proposici´on anterior.
Teorema 1.1 (Teorema de Bayes) Sea (A
n
)
n≥1
una sucesi´on disjunta de eventos en
un espacio de probabilidad (Ω, /, P) tales que Ω = ∪A
n
. Sea B ∈ / tal que P(B) > 0.
Entonces para cada n se cumple que
P(A
n
[B) =
P(A
n
)P(B[A
n
)
¸
i≥1
P(A
i
)P(B[A
i
)
.
Demostraci´on. Es immediata utilizando la f´ormula de la probabilidad total y la defini-
ci´on de probabilidad condicional, ya que P(A
n
[B) =
P(A
n
∩B)
P(B)
.
Comentario. Otra importante interpretaci´on se obtiene si se considera (A
n
)
n≥1
co-
mo posibles ¸causas”del evento B. La f´ormula expresa la contribuci´on de cada una de
las causas en la ocurrencia de B, dado que B ocurre. Por ejemplo, se consideran como
posibles causas de una inundaci´ on A
1
= llueve en exceso, A
2
= se echan desperdicios
en los desaguaderos, A
3
=no se hace mantenimiento a las quebradas, A
4
=se modifica
el cause de los rios por siembras o construcciones, etc.
Ejemplos 1.21
1. Un paciente sufre de una enfermedad que es fatal en el 50 % de los casos. Un
posible tratamiento es quir´ urgico. Se ha demostrado que de los sobrevivientes el 40 %
ha tenido cirug´ıa y de los no sobrevivientes 10 % ha tenido cirug´ıa. Encuentre la prob-
abilidad de que un paciente sobreviva si ha tenido cirug´ıa.
Soluci´on. Sean S = el paciente sobrevive y C =el paciente tuvo cirug´ıa. Entonces
P(S) = 0,5 = P(S
c
). Adem´as sabemos que P(C[S) = 0,4 y P(C[S
c
) = 0,1. Entonces
la probabilidad buscada es
P(S[C) =
P(S)P(C[S)
P(S)P(C[S) + P(S
c
)P(C[S
c
)
=
0,4 0,5
(0,4 0,5) + (0,1 0,5)
=
0,2
0,2 + 0,05
= 0,8
2. Un examen para detectar la presencia de un virus, detecta al virus en un 95 % de los
54
casos, cuando este est´a presente; pero puede presentar un falso resultado positivo en un
5 % de los casos. Si en determinada poblaci´on la enfermedad aparece en alrededor de
0.3 % de las personas, calcule la probabilidad de que una persona tenga la enfermedad
dado que el resultado fu´e positivo.
Soluci´on. Sean R =el examen result´o positivo; E =la enfermedad est´a presente.
Sabemos que P(R[E) = 0,95, P(R
c
[E) = 0,05, P(R[E
c
) = 0,05 y P(E) = 0,003.
Entonces
P(E[R) =
P(E)P(R[E)
P(E)P(R[E) + P(E
c
)P(R[E
c
)
=
0,95 0,003
0,95 0,003 + 0,05 0,997
= 0,05.
3. El Dilema del Prisionero.
(a) Espacio muestral considerado por el guardia: ¦¦A, B¦; ¦A, C¦; ¦B, C¦¦. Si se
asume una probabilidad uniforme (todos los resultados son igualmente probables),
entonces el guardia tiene raz´on al asignar a A la probabilidad de
2
3
de ser liberado.
(b) En este espacio no es posible sin embargo considerar la probabilidad condicional
de que A sea liberado dado que el guardia se˜ nala a B (o a C) como uno de los presos
a ser liberados, ya que en el espacio muestral considerado no se tiene el evento el
guardia dice que B (o C) ser´a liberado.
(c) Considerar espacio muestral m´as complejo que incluya los eventos sugeridos por
el guardia. Calcular las probabilidades en este caso bajo dos conjuntos de supisiciones:
(i) el guardia se˜ nala indistintamente a B ´o C cuando estos son los liberados; (ii) el
guardia siempre identifica a B.
(d) Conclusiones: En el caso (i) la probabilidad de que A sea liberado no cambia una
vez que el guardia identifica a uno de los prisioneros.
Independencia.
Se estudiar´a la situaci´on en que la ocurrencia de un evento B no afecta en modo
alguno la ocurrencia de otro evento A; tal y como se intuye en el ejemplo del dilema
del prisionero. En este caso ocurre que la probabilidad condicional de A dado B es
la misma probabilidad de A. Esto lo observamos en el ejemplo 5-b (se lanza un dado
dos veces y se tiene que P(Y = k[X = 3) =
P((Y =k)∩(X=3))
P(X=3)
=
1/36
1/6
=
1
6
= P(Y = k)),
lo que significa que el resultado del primer lanzamiento no influencia el resultado en
el segundo lanzamiento. Veamos otro ejemplo.
Ejemplos 1.22
Un lote de 10 objetos contiene cuatro defectuosos y seis en buen estado. Se extraen
dos objetos sucesivamente y con reposici´on. Considere los eventos:
D
1
= el primer objeto es defectuoso y D
2
= el segundo objeto es defectuoso .
En este caso P(D
1
[D
2
) = P(D
1
) =
4
10
= P(D
2
) = P(D
2
[D
1
), ya que el espacio
muestral no cambia cuando ocurre alguno de estos eventos.
55
Definici´on 1.4 Dos eventos A y B son independientes si P(A[B) = P(A). Esto es
equivalente a tener que P(A ∩ B) = P(A)P(B).
Observe que Ω y ∅ son independientes de cualquier evento.
Proposici´on 1.3 Si A y B son independientes, tambi´en lo son: a) A y B
c
, b) A
c
y
B
c
.
Demostraci´on. a) Dado que P(A) = P(A ∩ B) + P(A ∩ B
c
) tenemos que
P(A∩B
c
) = P(A)−P(A∩B) = P(A)−P(A)P(B) = P(A)(1−P(B)) = P(A)P(B
c
).
b) En este caso tenemos que
P(A
c
∩ B
c
) = P((A ∪ B)
c
) = 1 −P(A ∪ B) = 1 −P(A) −P(B) + P(A ∩ B)
= 1 −P(A) −P(B) + P(A)P(B) = 1 −P(A) −P(B)(1 −P(A))
= (1 −P(A))(1 −P(B)) = P(A
c
)P(B
c
)
Ejemplos 1.23
Suponga que en ejemplo 1.22 la extracci´on se realiza sin reposici´on. En este caso
calculamos
P(D
2
) = P(D
2
∩ D
1
) + P(D
2
∩ D
c
1
) = P(D
2
[D
1
)P(D
1
) + P(D
2
[D
c
1
)P(D
c
1
)
=
3
9
4
10
+
4
9
6
10
=
36
90
=
2
5
.
Como, por otra parte P(D
2
[D
1
) =
3
9
=
2
5
tenemos que D
1
y D
2
no son independientes.
Definici´on 1.5 Una familia arbitraria de eventos ( = ¦A
i
: i ∈ I¦ se dice
independiente si para cualquier colecci´on finita de eventos A
i
1
, A
i
2
, . . . , A
i
n
de ( se
cumple:
P(∩
n
j=1
A
i
j
) =
n
¸
j=1
P(A
i
j
).
Ejemplos 1.24
Calcule la probabilidad de obtener tres 6 al lanzar ocho dados.
El problema equivale a calcular la probabilidad de obtener tres 6 al lanzar ocho veces
el mismo dado. Sea E
i
=se obtiene un 6 en el i-´esimo lanzamiento. Por independencia
tenemos que
P(E
1
∩ E
2
∩ E
3
∩ E
c
4
∩ E
c
5
∩ E
c
6
∩ E
c
7
∩ E
c
8
) = (
1
6
)
3
(
5
6
)
5
.
Se puede verificar f´acilmente que esta es la probabilidad de cualquier conjunto de ocho
lanzamientos de un dado en que se produzcan exactamente tres 6. Finalmente como
existen (
8
3
) conjuntos de este tipo, la probabilidad buscada es (
8
3
)(
1
6
)
3
(
5
6
)
5
.
56
Ejercicios 1.4
1. Una caja contiene metras de las cuales 10 son blancas, 5 amarillas y 10 negras.
Se escoge una metra al azar de la caja y se observa que no es negra. ¿Cu´al es la
probabilidad de que sea amarilla?
2. Se lanzan dos dados perfectos. ¿Cu´al es la probabilidad condicional de que al menos
uno de ellos caiga en un 6 dado que caen en n´ umeros diferentes?
3. Si dos dados perfectos son lanzados, ¿Cu´al es la probabilidad condicional de que
el primero caiga en un 6 dado que la suma de los dados es i? Calcule la probabilidad
para todos los valores i en tre 2 y 12.
4. Una urna contiene 6 bolas blancas y 9 negras. Si 4 bolas se extraen aleatoria-
mente y sin reposici´on, ¿cu´al es la probabilidad de que las dos primeras sean blancas
y las dos ´ ultimas negras?
5. Una urna contiene 12 bolas de las cuales 8 son blancas. Se extrae una mues-
tra de 4 bolas con reemplazamiento (sin reemplazamiento). ¿Cu´al es la probabilidad
condicional (en ambos casos) de que la primera y la tercera bolas seleccionadas sean
blancas, dado que la muestra contiene exactamente 3 bolas blancas?
6. El dilema de un m´edico. Un m´edico refiere a un colega la siguiente situaci´on:
”Si tengo la certeza de al menos un 80 % de que mi paciente sufre de esta determi-
nada enfermedad, entonces siempre recomiendo cirug´ıa, mientras que si no estoy tan
seguro recomiendo evaluaciones adicionales que resultan costosas y, en algunos casos,
dolorosas. Con el se˜ nor Gonzalez inicialmente tuve s´olo un 60 % de certidumbre de
que sufr´ıa la enfermedad, por lo cual orden´e la serie de evaluaciones A que siempre
dan un resultado positivo cuando el paciente tiene la enfemedad y casi nunca (da re-
sultado positivo) si el paciente no tiene la enfermedad. El resultado fue positivo, pero
cuando estaba listo para recomendar cirug´ıa el paciente me informa por primera vez
que es diab´etico. Esto complica las cosas porque, aunque no cambia mi 60 % de cer-
tidumbre inicial, afecta la interpretaci´on de los resultados de la evaluaci´on A, el cual
no produce resultados positivos cuando el paciente es saludable, pero desafortunada-
mente produce resultados positivos en 30 % de los pacientes diab´eticos que no sufren
la enfermedad. Ahora ¿qu´e debo hacer? ¿M´as evaluaciones o cirug´ıa de inmediato?”
7. Un examen de sangre de un laboratorio tiene efectividad de 95 % al detectar una
cierta enfermedad cuando esta est´a en efecto presente. Sin embargo el examen puede
tambien dar un ”falso positivo”de 1 % para personas sanas. Si 0,5 % de la poblaci´on
tiene la enfermedad, ¿cu´al es la probabilidad de que una persona tenga la enfermedad
dado que el examen resulta positivo?
57
8. Un detector de mentiras muestra una se˜ nal positiva (indicando una mentira) 10 %
de las veces que un sujeto dice la verdad y 94 % de las veces que miente. Si dos per-
sonas son sospechosas de un crimen que se sabe ha cometido uno solo de ellos, y
ambos dicen ser inocentes, ¿cu´al es la probabilidad de que una se˜ nal positiva del de-
tector correspona al culpable?
9. Se obtiene una muestra de cuatro bolas a partir de una bolsa que contiene doce,
de las cuales ocho son blancas. Si el muestreo es sin reposici´on, halle la probabilidad
de que la tercera bola sea blanca, si sabemos que la muestra tiene tres bolas blancas.
¿Que sucede si el muestreo es con reposici´on?
10. Se lanzan dos dados sim´eticos. Calcule la probabilidad de que la suma sea 7 dado
que: a) La suma es impar. b) La suma es mayor que 6. c) El resultado del primer
dado fue impar. d) El resultado del segundo dado fue par. e) El resultado de al menos
un dado fue impar. f ) Los dos dados tuvieron el mismo resultado. g) Los dos dados
tuvieron resultados distintos. h) La suma de los dos dados fue 13.
11. Una bolsa contiene cuatro bolas blancas y dos negras y otra contiene tes de cada
color. Se escoge una bolsa al azar y luego se selecciona una bola, tambien el azar.
¿Cu´al es la probabilidad de que sea blanca?
12. Una caja contiene 10 bombillos, cuatro de los cuales estan malos. Los bombil-
los se prueban extrayendolos al azar, uno a uno y sn reposici´on hasta sacar los cuatro
en mal estado. ¿Cu´al es la probabilidad de que el ´ ultimo en mal estado salga en la
quinta prueba? ¿Y en la d´edima?
13. Cierta vacuna brinda protecci´on contra una enfermedad, de modo que uan per-
sona vacunadatiene probabilidad 0,4 de contraer la enfermedad, mientras que una sin
vacunar tiene probabilidad de 0,8 de enfermarse. 75 % de la poblaci´on est´a vacunada.
¿Cu´al es la probabilidad de que una persona que tiene la enferemedad este vacunada?
14. En un hospital se aplica una prueba para detectar c´ancer. Se ha determinado
que en 97 % de los pacientes cancerosos el resultado de la prueba es positivo y s´olo
en un 5 % de los pacientes sanos la prueba arroja un resultado positivo. Si 2 % de
los pacientes del hospital sufre de c´ancer, ¿cu´al es la probabilidad de que un paciente
elegido al azar que reacciona positivamente a la prueba tenga realmente c´ancer?
15. Suponga que 5 % de los hombres y 25 % de cada 10.000 mujeres son dalt´onicos.
Se escoge un dalt´onico al azar, ¿cu´al es la probabilidad de que sea hombre?
16. Una ferreter´ıa tiene tres cajas con igual cantidad e tornillos. Dos de las cajas
58
tiene 5 % de tornillos malos y la otra contiene 10 %. Se escogen dos cajas al azar, se
mezclan en otra caja y de ella se sacan cinco tornillos, uno de los cuales es defectuoso.
¿Cu´al es la probabilidad de que una de las cajas de la mezcla sea la que conten´ıa 10 %
de tornillos defectuosos?
17. Tres sucursales de una tienda tienen 8, 12 y 14 empleados de los cuales 4,7 y
10 son mujeres, respectivamente. a) Se escoge una sucursal al azar y de ella se escoge
un empleado. Si ´este es una mujer, ¿cu´al es la probabilidad de que ella trabaje en la
sucursal con 12 empleados? b) Si se escoge un segundo empleado de la misma sucur-
sal, ¿cu´al es la probabilidad de que se escoja una mujer?
18. Las se˜ nales telegr´aficas de ”puntoτ raya”se envian en proporci´on de 3:4. Debido
a ciertas condiciones que causan una transmisi´on err´atica, un punto se transforma
en raya con probabilidad 1/4 y una raya en punto con probabilidad 1/3. Si se recibe
un punto, ¿cu´al es la probabilidad de que haya sido enviado un punto?
19. Si A
1
, . . . , A
n
son eventos independientes, demuestre que
P(A
1
∪ A
2
∪ . . . ∪ A
n
) = 1 −(1 −P(A
1
)) (1 −P(A
2
)) . . . (1 −P(A
n
)).
20. Un dado A tiene 4 caras rojas y 2 blancas, mientras que un dado B tiene 2 caras
rojas y 4 blancas. Se lanza una moneda legal. Si cae en cara se lanza el dado A y si
cae en sello se lanza el B.
(a) Demuestre que la probabilidad de rojo en cualquier lanamiento es 1/2.
(b) Si los primeros dos lanzamientos resultan en rojo, ¿cu´al es la probabilidad de que
en el tercer lanzamiento se obtenga un rojo?
(c) Si los primeros dos lanzamientos resultan en rojo, ¿cu´al es la probabilidad de que
se este usando el dado A?
21. Sean A y B disjuntos y de probabilidad positiva. ¿Pueden A y B ser eventos
independientes?
22. Un dado perfecto es lanzado sucesivamente. Halle la probabilidad de obtener al
menos un 6 en cuatro lanzamientos.
23. Una muestra de tama˜ no 4 se extrae, con reposici´on, de una bolsa que contiene
6 bolas de las cuales 4 son blancas. Sea A =exactamente una de las dos primeras
extraidas es blanca y B =la cuarta bola es blanca. (a) ¿Son A y B independientes?
¿Qu´e sucede si el muestreo se realiza sin reposici´on?
(b) Definamos C =exactamente dos de las bolas extraidas son blancas. ¿Son A, B y
C independientes? ¿Son B y C independientes?. Considere ambos muestreos: con y
sin reposici´on.
59
24. Un fabricante de motos inscribe tres corredores en una carrera. Sea A
i
=el i-
´esimo corredor finaliza la carrera en alguno de los tres primeros lugares, i = 1, 2, 3. Si
los eventos A
1
, A
2
y A
3
son independientes y P(A
1
) = P(A
2
) = P(A
3
) = 0, 1; calcule
las probabilidades de los siguientes eventos:
(a) Ninguno de los corredores termina entre los tres primeros.
(b) Al menos uno de los corredores termina entre los tres primeros.
(c) Al menos dos terminan entre los tres primeros.
(d) Todos terminan entre los tres primeros.
25. Sean A y B eventos independientes tales que con probabilidad 1/6 ocurren si-
mult´aneamente y con probabilidad 1/3 ninguno de ellos ocurre. Halle P(A) y P(B).
¿Est´an estas probabilidades determinadas de manera ´ unica?
26. Sean A y B eventos independientes tales que con probabilidad 1/6 ocurren si-
mult´aneamente y con probabilidad 1/3 A ocurre y B no ocurre. Halle P(A) y P(B).
¿Est´an estas probabilidades determinadas de manera ´ unica?
27. ¿Cu´al es el menor valor de n para el cual la probabilidad de obtener al menos
un 6 en una serie de n lanzamientos de un dado perfecto es mayor que 3/4?
28. Los eventos A
1
, A
2
, . . . son independientes y P(A
j
) = p, j = 1, 2, . . .. Halle el
menor valor de n para el cual P(∪
n
i=1
A
k
) ≥ p
0
para un n´ umero fijo p
0
.
29. Una m´aquina consta de 4 componentes conectados en paralelo, de manera que
la m´aquina falla s´olo si los cuatro componentes fallan. Supongamos que los compo-
nentes son independientes entre si y sus probabilidades de fallar cuando la m´aquina
es encendida son 0,1; 0,2; 0,3 y 0,4 . ¿Cu´al es la probabilidad de que funcione al
encenderla?
60
Cap´ıtulo 2
Variables Aleatorias
2.1. Introducci´on.
En algunas situaciones nos interesa asociar a cada resultado de un espacio muestral
un valor num´erico. Como veremos en los ejemplos siguientes esto equivale a definir
una funci´on sobre los elementos del espacio muestral.
Ejemplos 2.1
Consideramos un espacio de probabilidad (Ω, /, P) dado.
1. Se lanza una moneda n veces y se quiere saber la probabilidad de obtener r caras,
r = 0, 1, . . . , n. Recordemos que en este caso el espacio muestral esta dado por
Ω = ¦(a
1
, a
2
, . . . , a
n
) : a
i
= c ´o a
i
= s; i = 1, . . . , n¦.
Si asociamos a los resultados los valores c = 1 y s = 0 y definimos
Y = Y (ω) = # de caras en n lanzamientos ,
el evento r caras en n lanzamientos se puede expresar como ¦ω ∈ Ω : Y (ω) = r¦,
donde Y ∈ ¦0, 1, . . . , n¦.
Cuando n = 3 se tiene (Y = 3) = ¦ccc¦; (Y = 2) = ¦ccs, csc, scc¦; (Y = 1) =
¦ssc, scs, css¦; (Y = 0) = ¦sss¦.
2. Se extrae una muestra de n objetos de una linea de producci´on. Se escribe un
posible resultado como ¦e
1
, . . . , e
n
¦ donde para cada i ∈ ¦1, . . . , n¦
e
i
=

0 si el objeto es bueno
1 si el objeto es defectuoso
(2.1)
Sea X =# de objetos defectuosos=
¸
n
i=1
e
i
. El evento r objetos defectuosos= (X = r)
consiste en todos los resultados ¦e
1
, . . . , e
n
¦ en los que hay r unos.
61
62
3. Se lanza un dado dos veces. Sean X =resultado del primer lanzamiento, Y =resultado
del segundo lanzamiento, W =m´aximo resultado en los dos lanzamientos y Z =m´ıni-
mo de los resultados en los dos lanzamientos.
4. Se atiende un tel´efono. ¿Cu´antas llamadas pueden esperarse en un per´ıodo de
5 minutos? Sea X = el n´ umero de llamadas en [0,5]. Note que X ∈ ¦0, 1, 2, . . .¦.
En cada una de las situaciones anteriores hemos asociado un valor num´erico ´ unico
a cada uno de los elementos del espacio muestral; en algunos casos esto se hace de
manera muy natural. Es de importancia el que los eventos se pueden expresar en
t´erminos de estos valores num´ericos. Comenzamos formalizando esta idea en el caso
de espacios de probabilidad discretos, lo que permitir´a entender m´as claramente el
caso general.
Definici´on 2.1 Sea (Ω, {(Ω), P) un espacio de probabilidad discreto. Una variable
aleatoria o variable aleatoria real es una funci´on
X : Ω →R
que a cada ω ∈ Ω le asocia un ´ unico valor real X(ω).
Ejemplos 2.2
1. En el ejemplo 2.1.1 tenemos Y ((ccc)) = 3, Y ((csc)) = 2, Y ((sss)) = 0, etc.
Si asumimos que la moneda es perfectamente sim´etrica, entonces
P(Y = 0) = 1/8, P(Y = 1) = 3/8, P(Y = 2) = 3/8 y P(Y = 3) = 1/8.
2. Sea c ∈ R un n´ umero fijo. Defina X(ω) = c para todo ω ∈ Ω, es decir X es
constante. Entonces para todo intervalo I ⊆ R se tiene que
X
−1
(I) = ¦ω ∈ Ω : X(ω) ∈ I¦ =

Ω si c ∈ I
∅ si c ∈ I
c
(2.2)
Por lo tanto
P

X
−1
(I)

= P

¦ω ∈ Ω : X(ω) ∈ I¦

=

1 si c ∈ I
0 si c ∈ I
c
(2.3)
3. Sea A ∈ / un evento dado y
X(ω) = χ
A
(ω) =

1 si ω ∈ A
0 si ω ∈ A
c
(2.4)
63
Entonces para todo intervalo I ⊆ R se tiene que
X
−1
(I) = ¦ω ∈ Ω : X(ω) ∈ I¦ =

Ω si ¦0, 1¦ ⊆ I
∅ si ¦0, 1¦ ⊆ I
c
A si 0 / ∈ I y 1 ∈ I
A
c
si 0 ∈ I y 1 / ∈ I
Por lo tanto
P

X
−1
(I)

= P

¦ω ∈ Ω : X(ω) ∈ I¦

=

1 si ¦0, 1¦ ⊆ I
0 si ¦0, 1¦ ⊆ I
c
P(A) si 0 / ∈ I y 1 ∈ I
P(A
c
) si 0 ∈ I y 1 / ∈ I
4. Una urna contiene bolas numeradas del 1 al 20. Se seleccionan 3 al azar sin reem-
plazamiento. Si apostamos que al menos una de las bolas tiene un n´ umero mayor
´o igual a 17, ¿cu´al es la probabilidad de que ganemos la apuesta?
Definamos la variable aleatoria X =el mayor n´ umero seleccionado. Entonces X es
una v.a. que toma los valores 3, 4, . . . , 20. Si suponemos que todas las bolas son igual-
mente probables, entonces se tiene que
P(X = i) =
(
i−1
2
)
(
20
3
)
, i = 3, 4, . . . , 20.
Por lo tanto
P(ganar) = P(X = 20) + P(X = 19) + P(X = 18) + P(X = 17) = 0,508.
Definici´on 2.2 Sea (Ω, /, P) un espacio de probabilidad. Una variable aleatoria o
variable aleatoria real es una funci´on
X : Ω →R
que satisface la propiedad de que para todo intervalo I ⊆ R el conjunto
X
−1
(I) = ¦ω ∈ Ω : X(ω) ∈ I¦ ∈ /,
es decir, es un evento.
El conjunto X
−1
(I) se denomina preim´agen de I por la funci´on X; por lo que se dice
que la funci´on X es una variable aleatoria si la preim´agen de cualquier intervalo es
un evento.
Definici´on 2.3 Una variable aleatoria se denomina discreta, si su rango es un con-
junto discreto (finito ´o numerable). En este caso existe un conjunto ¦x
n
¦
n≥1
(conjunto
de valores de X) tal que
¸
n≥1
P(X = x
n
) = 1.
64
En particular, las variables aleatorias definidas sobre espacios de probabilidad
discretos son discretas. Sin embargo una variable aleatoria definida sobre un espacio
de probabilidad no discreto puede ser discreta.
Ejemplos 2.3
1. Se escoge al azar un n´ umero en [0, 1]. En este caso Ω = [0, 1] y si se define
X(ω) = ω ∈ [0, 1], se tiene que X no es una variable aleatoria discreta.
2. Si en los ejemplos 2.2.2 y 2.2.3 se considera un espacio muestral Ω = [a, b) ⊆ R,
donde a < b, se obtienen variables aleatorias discretas definidas sobre espacios no
discretos.
Definici´on 2.4 Dada una variable aleatoria discreta X cuyo conjunto de valores es
un conjunto ¦x
n
¦
n≥1
, la funci´on
p : ¦x
n
¦
n≥1
−→ [0, 1]
x
n
→ p(n) = p
n
= P(X = x
n
)
(2.5)
se denomina funci´on de probabilidad de la variable aleatoria X ´o funci´on
de masa de probabilidad de la variable aleatoria X.
Nota. Esta funci´on satisface la condici´on
¸
n≥1
p
n
=
¸
n≥1
P(X = x
n
) = 1.
Proposici´on 2.1 Si X y Y son variables aleatorias entonces tambi´en lo son : X+Y ,
X −Y , XY y X/Y cuando Y = 0.
Definici´on 2.5 Un intervalo o rect´angulo en R
m
es un conjunto de la forma ¦(x
1
, . . . , x
m
) :
x
1
∈ I
1
, . . . , x
m
∈ I
m
¦ = I
1
I
2
. . . I
m
donde, para i = 1, . . . , m, I
i
⊆ R es un
intervalo.
Definici´on 2.6 Una variable aleatoria vectorial es una funci´on
Y : Ω →R
m
tal que la preim´agen de cualquier intervalo I de R
m
es un evento.
Proposici´on 2.2 Sean X : Ω → R
m
y g : R
m
→ R. Consideremos sobre R
m
la
σ-´algebra de Borel B (la menor σ-´algebra que contiene a todos los intervalos). Si X
y g son variables aleatorias, entonces la funci´on definida por Y = g ◦ X es tambi´en
una variable aleatoria.
Demostraci´on. Es suficiente demostrar que la preim´agen de cualquier intervalo I es
un evento.
Y
−1
(I) = ¦ω : Y ∈ I¦ = ¦ω : g(X(ω)) ∈ I¦ = ¦ω : X(ω) ∈ g
−1
(I)¦ = X
−1
(g
−1
(I)) ∈ /
65
2.2. Funci´on de Distribuci´on.
Definici´on 2.7 Si X es una variable aleatoria, se define la funci´on de distribuci´on
de X como la funci´on F
X
: R −→[0, 1] tal que para cada y ∈ R,
F
X
(y) = P(¦ω ∈ Ω : X(ω) ≤ y¦) = P(X ≤ y).
Comentarios.
1. En algunos casos se utiliza la notaci´on F
X
en lugar de F.
2. Si X es una variable aleatoria discreta tal que X(Ω) = ¦x
1
, . . . , x
n
, . . .¦, entonces
se define F
X
(x) =
¸
x
n
≤x
p
n
donde p
n
= P(X = x
n
).
Ejemplos 2.4
1. Considere la variable aleatoria definida en el ejemplo 2.1.1: X =# de caras en
3 lanzamientos. En este caso la funci´on de distibuci´on est´a dada de la siguiente for-
ma:
F(0) =
1
8
; F(1) =
1
8
+
3
8
=
1
2
; F(1,5) = F(1); F(2) =
1
2
+
3
8
=
7
8
; F(3) = 1; F(4) = 1.
F(x)
x
1
1/8
1/2
7/8
-
p
p
p
p
p
p
1 2 3
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p p p p p p p p p
2.2.1. Propiedades de la Funci´on de Distribuci´on.
Teorema 2.1 Si F es la funci´on de distribuci´on de una variable aleatoria X, en-
tonces: a) 0 ≤ F(t) ≤ 1 para todo t ∈ R.
b) P(a < X ≤ b) = F(b) −F(a) para a < b.
c) F(a) ≤ F(b) si a < b (no decreciente).
d) l´ım
t→a
+ F(t) = F(a) (continua a la derecha)
e) l´ım
t→a
− F(t) = F(a) −P(X = a).
f ) l´ım
t→∞
F(t) = 1 y l´ım
t→−∞
F(t) = 0.
Demostraci´on.
a) Es inmediato ya que por definici´on F
X
(y) = P(X ≤ y) ∈ [0, 1].
b) Escribimos ¦ω ∈ Ω : X(ω) ≤ b¦ como la uni´on disjunta
¦ω ∈ Ω : X(ω) ≤ b¦ = ¦ω ∈ Ω : X(ω) ≤ a¦ ∪ ¦ω ∈ Ω : a < X(ω) ≤ b¦.
66
Aplicando la aditividad de la probabilidad obtenemos
P(¦ω ∈ Ω : X(ω) ≤ b¦) = P(¦ω ∈ Ω : X(ω) ≤ a¦) + P(¦ω ∈ Ω : a < X(ω) ≤ b¦);
es decir,
F(b) = P(X ≤ b) = P(X ≤ a) + P(a < X ≤ b) = F(a) + P(a < X ≤ b).
c) Se deduce directamente de b) ya que 0 < P(a < X ≤ b) = F(b) −F(a) para a < b.
d) Como F es no decreciente y acotada, el limite existe. Por b) sabemos que
F(t) −F(a) = P(a < X ≤ t) para t > a.
Entonces
l´ım
t→a
+
F(t) = F(a) + l´ım
t→a
+
P(a < X ≤ t).
Veremos que l´ım
t→a
+ P(a < X ≤ t) = 0. Para n ≥ 1 sea
q
n
= P(¦ω ∈ Ω : a < X(ω) ≤ a + 1/n¦),
entonces
l´ım
t→a
+
P(a < X ≤ t) = l´ım
n→∞
P(a < X ≤ a + 1/n) = l´ım
n→∞
q
n
.
Consideremos ahora la sucesi´on de eventos
S
n
= ¦ω ∈ Ω : a +
1
n + 1
< X(ω) ≤ a +
1
n
¦,
para n ≥ 1. La sucesi´on ¦S
n
¦
n≥1
consta de eventos dos a dos disjuntos tales que:
di. ¦ω ∈ Ω : a < X(ω) ≤ a +1¦ = ∪
n≥1
¦ω ∈ Ω : a +
1
n+1
< X(ω) ≤ a +
1
n
¦ = ∪
n≥1
S
n
.
dii. P(S
n
) = P(a < X ≤ a +
1
n
) −P(a < X ≤ a +
1
n+1
) = q
n
−q
n+1
.
diii. q
1
= P(a < X ≤ a + 1) =
¸
n≥1
P(S
n
) =
¸
n≥1
(q
n
−q
n+1
) = q
1
−l´ım
n→∞
q
n
. Por
lo tanto
0 = l´ım
n→∞
q
n
= l´ım
t→a
+
P(a < X ≤ t).
e) Por b) tenemos que F(a) − F(t) = P(t < X ≤ a); por lo tanto basta demostrar
que
l´ım
t→a

P(t < X ≤ a) = P(X = a).
Puesto que P(t < X ≤ a) = P(t < X < a) + P(X = a), ser´a suficiente demostrar
que
l´ım
t→a

P(t < X < a) = 0.
Para demostrar esto, veremos que para cualquier sucesi´on creciente ¦y
n
¦
n≥1
que
satisface: y
n
< a, para todo n ≥ 1, y y
n
→ a cuando n → ∞; se cumple que
l´ım
n→∞
P(y
n
< X < a) = 0.
67
Sean A
n
= ¦ω ∈ Ω : y
n
< X < a¦ y q
n
= P(A
n
). Como la sucesi´on ¦y
n
¦
n≥1
es
creciente se tiene que, para todo n ≥ 1, A
n+1
⊆ A
n
(verif´ıquelo). Por lo tanto
T
n
= ¦y
n
< X ≤ y
n+1
¦ = ¦y
n
< X < a¦ −¦y
n+1
< X < a¦ = A
n
−A
n+1
,
es tal que P(T
n
) = P(A
n
) −P(A
n−1
) = q
n
−q
n+1
. Adem´as, tenemos que ¦T
n
¦
n≥1
es
una sucesi´on disjunta de eventos, por lo que
q
1
= P(y
1
< X < a) = P(∪
n≥1
T
n
) =
¸
n≥1
P(T
n
) =
¸
n≥1
(q
n
−q
n+1
)
= l´ım
n→∞
n
¸
k=1
(q
k
−q
k+1
) = q
1
− l´ım
n→∞
q
n
=⇒ l´ım
n→∞
q
n
= 0.
f) i) Para demostrar que l´ım
x→−∞
F(x) = 0 consideremos cualquier sucesi´on decre-
ciente ¦x
n
¦
n≥1
tal que l´ım
n→∞
x
n
= −∞. Sea B
n
= ¦ω ∈ Ω : X ≤ x
n
¦. Por ser
¦x
n
¦ una sucesi´on decreciente, la sucesi´on ¦B
n
¦ tambien es decreciente y es tal que

n≥1
B
n
= ∅ (verif´ıquelo). Por lo tanto se tiene que
l´ım
x→−∞
F(x) = l´ım
n→∞
F(x
n
) = l´ım
n→∞
P(X ≤ x
n
) = l´ım
n→∞
P(B
n
) = P(∩
n≥1
B
n
) = 0.
ii) An´alogamente, para demostrar que l´ım
x→∞
F(x) = 1, consideramos cualquier suce-
si´on creciente ¦x
n
¦
n≥1
tal que l´ım
n→∞
x
n
= ∞. Entonces definimos la sucesi´on de
eventos B
n
= ¦ω ∈ Ω : X ≤ x
n
¦, la cual es creciente y tal que ∪
n≥1
B
n
= Ω
(verif´ıquelo). Se tiene entonces que
l´ım
x→∞
F(x) = l´ım
n→∞
F(x
n
) = l´ım
n→∞
P(X ≤ x
n
) = l´ım
n→∞
P(B
n
) = P(∪
n≥1
B
n
) = 1.
Comentarios.
1. La propiedad e) indica que para todo a ∈ R, P(X = a) es igual al ”salto”de la
funci´on de distribuci´on F en el punto a. Por lo tanto P(X = a) = 0 en todos los
puntos a de continuidad de F.
2. Las propiedades c), d) y f) caracterizan a las funciones de distribuci´on. Es decir,
si una funci´on G satisface estas propiedades, entonces existe una variable aleatoria Y
que tiene a G como funci´on de distribuci´on.
La funci´on de distribuci´on de una variable aleatoria permite calcular las
probabilidades de los eventos de inter´es determinados por la variable aleatoria.
Ejemplos 2.5
1. Supongamos que la funci´on de distribuci´on de una variable aleatoria X est´a dada
68
por la funci´on
F(x) =

0 si x < 0
x
2
si 0 ≤ x < 1
2
3
si 1 ≤ x < 2
11
12
si 2 ≤ x < 3
1 si 3 ≤ b
Tenemos entonces que:
a. P(X < 3) = P(X ≤ 3) −P(X = 3) = F(3) −P(X = 3) = 1 −(1 −
11
12
) =
11
12
.
b. P(X = 1) =
2
3

1
2
=
1
6
.
c. P(X >
1
2
) = 1 −P(x ≤
1
2
) = 1 −
1
4
=
3
4
.
d. P(2 < X ≤ 4) = F(4) −F(2) = 1 −
11
12
=
1
12
.
F(x)
x
1
2/3
1/2
11/12
-
p
p
p
p
p
p
p
p
p
1 2 3
5
5
5
5
5
5
5
5
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p p p p p p p p p
Figura 2.1: Gr´afico de F(x).
2. La funci´on de distribuci´on de una variable aleatoria es
F(t) =

0 si t < −1
1
4
si −1 ≤ t <
−1
2
t
2
+
1
2
si
−1
2
≤ t < 0
t
4
+
3
4
si 0 ≤ t <
1
2
1 si
1
2
≤ t
(2.6)
Halle a) P(X = −2), P(X = −1), P(X =
−1
2
), P(X = 0).
b) P(
−1
2
< X <
1
4
), P(X >
1
2
), P(X ≤
−1
2
), P(X < 0).
69
Ejercicios 2.1
1. Dos bolas se escogen de una urna que contiene 8 bolas blancas, 4 negras y 2 anaran-
jadas. La escogencia se hace al azar y se ganan dos puntos por cada bola negra y se
pierde un punto por cada bola blanca seleccionada. Defina la variable aleatoria X co-
mo las ganancias obtenidas. Encuentre la funci´on de probabilidad de X, esto es, halle
los posibles valores de X y las probabilidades de ocurrencia de estos valores.
2. Se lanzan 3 dados perfectamente sim´etricos. Encuentre la probabilidad de cada
uno de los posibles valores de X =suma de los 3 dados.
3. Cinco hombres y cinco mujeres son clasificados de acuerdo a los resultados de
un examen en el cual no hay dos puntajes iguales y los 10! posibles resultados son
igualmente probables. Sea X el m´as alto rango recibido por una mujer (X = 1 si una
mujer queda en primer lugar, X = 2 si un hombre queda en primer lugar y una mujer
en el segundo). Encuentre P(X = i), i = 1, . . . , 10.
4. Dos dados diferentes se lanzan dos veces. Encuentre los posibles valores que puede
tomar cada una de las variables aleatorias siguientes:
a) El m´aximo valor en los dos lanzamientos.
b) El minimo valor en los dos lanzamientos.
c) Suma de los dos lanzamientos.
d) Valor del primer lanzamiento menos valor del segundo lanzamiento.
5. Suponga que la funci´on de distribuci´on de una variable aleatoria X est´a dada
por
F(b) =

0 si b < 0
b
4
si 0 ≤ b < 1
1
2
+
b−1
4
si 1 ≤ b < 2
11
12
si 2 ≤ b < 3
1 si 3 ≤ b
(2.7)
a) Grafique la funci´on F. b) Encuentre P(X = i), i = 1, 2, 3. c) Encuentre P(
1
2
<
X <
3
2
).
6. Sea X una variable aleatoria con funci´on de distribuci´on
F(b) =

0 si b < 0
1
2
si 0 ≤ b < 1
3
5
si 1 ≤ b < 2
4
5
si 2 ≤ b < 3
9
10
si 3 ≤ b < 3,5
1 si 3,5 ≤ b
(2.8)
70
Halle los posibles valores de X y la funci´on de masa de probabilidad (o funci´on de
probabilidad) de X. Grafique la funci´on F.
7. La funci´on de distribuci´on F de una variable aleatoria X viene definida por
F(t) =

0 si t < −2
1
2
si −2 ≤ t < 0
3
4
si 0 ≤ t < 2
1 si 2 ≤ t
(2.9)
a) Graf´ıque la funci´on F.
b)Describa la funci´on de masa de probabilidad p (funci´on de probabilidad de X) y
repres´entela graficamente.
c) Calcule las siguientes probabilidades: P(X = 1), P(X ≤ 1), P(X < 1), P(X = 2),
P(X ≤ 2), P(0 < X < 2), P(0 < X ≤ 2),P(1 ≤ X ≤ 2).
8. La funci´on de masa de probabilidad p de una variable aleatoria X es nula sal-
vo en los puntos t = 0, 1, 2, donde toma los valores p(0) = 3c
3
, p(1) = 4c − 10c
2
y
p(2) = 5c −1 para un c > 0.
a) Determine el valor de c.
b) Calcule las probabilidades: P(X < 1), P(X < 2), P(1 < X ≤ 2) y P(0 < X < 3).
c) Halle y graf´ıque la funci´on de distribuci´on F.
d) Halle el mayor valor de t tal que F(t) <
1
2
.
e) Halle el menor valor de t tal que F(t) >
1
3
.
9. Una variable aleatoria tiene funci´on de distribuci´on continua F, dada por
F(t) =

0 si t ≤ 0
ct si 0 ≤ t ≤ 1
1 si 1 < t
(2.10)
a) Determine el valor de c. b) Calcule las probabilidades: P(X =
1
3
), P(X <
1
3
),
P([X[ <
1
3
).
10. Sea X una variable aleatoria con funci´on de distribuci´on
F(t) =

0 si t < −3
1
8
si −3 ≤ t < −2
3
16
si −2 ≤ t < −1,5
5
16
si −1,5 ≤ t < 0
9
16
si 0 ≤ t < 1
10
16
si 1 ≤ t < 2,5
14
16
si 2,5 ≤ t < 3
1 si 3 ≤ t
(2.11)
71
i) Grafique F.
ii) Calcule P(X = i) para i ∈ ¦−3, −2, −1,5, −1, 0, 1, 1,5, 2, 2,5, 3, 3,5, 4¦; P(X ≤ 2);
P(−1 < X ≤ 3); P(X > 1,5); P(X < 0).
iii) Halle la funci´on de probabilidad de X.
11. Sea X una variable aleatoria con funci´on de distribuci´on
F(t) =

0 si t < −2
1
5
si −2 ≤ t < 0
3t
2
10
+
1
5
si 0 ≤ t < 1
2
3
si 1 ≤ t < 2
t
6
+
1
3
si 2 ≤ t < 3
1 si 3 ≤ t
(2.12)
Grafique F y calcule P(X = i) para i ∈ ¦−3, −2, −1, 0, 0,5, 1, 2, 3, 4¦; P(X = 1);
P(0 ≤ X ≤ 1); P(X ≤ 2,5); P(X < −1) y P(X > 4).
12. Sea X una variable aleatoria con funci´on de distribuci´on
F(t) =

0 si t < −1
1
6
si −1 ≤ t < 0,5
1
2
si 0,5 ≤ t < 2
2
3
si 2 ≤ t < 3
5
6
si 3 ≤ t < 4
1 si 4 ≤ t
(2.13)
i) Grafique F.
ii) Calcule P(X = i) para i ∈ ¦−3, −2, −1,5, −1, 0, 1, 0,5, 2, 2,5, 3, 3,5, 4¦; P(X ≥
2,5); P(−1 < X ≤ 3); P(X > 0); P(X < 3).
iii) Halle la funci´on de probabilidad de X.
72
2.3. Algunas Distribuciones Importantes.
Como el dominio de una variable aleatoria es un espacio muestral, el valor que
toma la variable no se puede predecir con exactitud. Por esto estaremos interesados en
conocer, m´as que los valores de la variable, la probabilidad de que el valor que toma
la variable aleatoria pertenezca a ciertos conjuntos. Esto se conocer´a si se conoce la
funci´on de distribuci´on de la variable.
2.3.1. Distribuciones de Algunas V.A. Discretas.
1. Variable Aleatoria de Bernoulli.
Un experimento que tiene dos posibles resultados se denomina ensayo de
Bernoulli. Identifiquemos los resultados de un ensayo de Bernoulli como ´exito y
fracaso; y sea p ∈ (0, 1) la probabilidad de obtener un exito en una realizaci´on del
experimento. Si definimos la v.a. X = 1 cuando el resultado es ´exito y X = 0 cuando
el resultado es fracaso tenemos que X tiene funci´on de probabilidad dada por
P(X = 1) = p
P(X = 0) = 1 −p. (2.14)
Una variable aleatoria discreta con funci´on de probabilidad dada por (2.10) se de-
nomina variable aleatoria de Bernoulli .
2. Variable Aleatoria Binomial.
Supongamos que se realizan n ensayos de Bernoulli independientes y con prob-
abilidad de ´exito p. La variable aleatoria definida como Y =# de ´exitos en los n
ensayos, se denomina variable aleatoria binomial con par´ametros n y p. Esto
tambien se expresa mediante la notaci´on Y ∼ b(n, p). El conjunto de valores de Y es
¦0, 1, . . . , n¦ y su distribuci´on est´a dada por
p
i
= b(i; n, p) = P(Y = i) =

n
i

p
i
(1 −p)
n−i
, i = 0, 1, . . . , n.
La funci´on dada por ¦p
i
¦
n
i=1
es una funci´on de probabilidad ya que
n
¸
i=0
p
i
=
n
¸
i=1

n
i

p
i
(1 −p)
n−i
= (p + 1 −p)
n
= 1.
Ejemplos 2.6
1. Se lanzan 5 monedas perfectas. Sea X =# de caras, entonces X es una vari-
able aleatoria binomial con par´ametros n = 5 y p = 0,5. Es decir X ∼ b(5, 0,5) con
funci´on de probabilidad dada por P(X = i) =

5
i

(0,5)
i
(0,5)
n−i
. Los valores de esta
73
funci´on se dan en la siguiente tabla:
i 0 1 2 3 4 5
P(X = i) 1/32 5/32 10/32 10/32 5/32 1/32
.
p
i
i
1
10/32
5/32
1/32
-
p
p
p
p
r
1 2 3 4 5
r
r r
p
p
p
p
p
p
p
p
r
r
p
p
p
p
p
p
p
p
p
p
p
p
p
p
Figura 2.2: Funci´on de probabilidad de X.
2. Se sabe que los tornillos que produce una f´abrica son defectuosos con probabilidad
0.01, independientemente entre si. Se venden los tornillos en paquetes de 10 y se
ofrece garant´ıa de que a lo sumo 1 de los tornillos es defectuoso. ¿Qu´e proporci´on de
paquetes ser´an devueltos?
Sea X =# defectuosos en un paquete. Entonces X ∼ b(10, 0,01) y la probabilidad de
que un paquete sea devuelto es
P(X > 1) = 1 −P(X ≤ 1) = 1 −P(X = 0) −P(X = 1)
= 1 −

10
0

(0,01)
0
(0,99)
10

10
1

(0,01)
1
(0,99)
9
= 0,004.
Por lo tanto la proporci´on de cajas devueltas es 0.4 %.
3. Variable Aleatoria Geom´etrica.
Suponga que ensayos de Bernoulli, independientes y con probabilidad p ∈ (0, 1) de
´exito, se realizan hasta que se obtiene un ´exito. La variable aleatoria X =# de ensayos
requeridos para obtener un ´exito se denomina variable aleatoria geom´etrica. El
conjunto de valores de X es ¦1, 2, . . .¦ y su funci´on de probabilidad est´a dada por
p
n
= P(X = n) = (1 −p)
n−1
p; n = 1, 2, . . . ,
que ciertamente satisface

¸
k=1
p
k
=

¸
k=1
(1 −p)
k−1
p =

¸
k=0
(1 −p)
k
p =
p
1 −(1 −p)
= 1.
74
Ejemplos 2.7
1. Una urna contiene N bolas blancas y M bolas negras. Se seleccionan bolas aleato-
riamente, una a la vez y con reposici´on, hasta que una bola negra es obtenida. ¿Cu´al
es la probabilidad de que se necesiten exactamente n extracciones? ¿Cu´al es la prob-
abilidad de que se necesiten al menos k extracciones?
Sea X =# extracciones necesarias para obtener una bola negra. La v.a. X es ge-
om´etrica con probabilidad de ´exito p =
M
M+N
y se desea calcular
i) P(X = n) =
M
M + N

N
M +N

n−1
=
MN
n−1
(M + N)
n
.
ii) P(X ≥ k) =
M
M + N

¸
n=k

N
M + N

n−1
=

N
M +N

k−1
. Demu´estrelo.
4. Variable Aleatoria de Poisson.
Sea X una variable aleatoria que tiene el conjunto de valores ¦0, 1, 2, . . .¦. Se dice
que X es una variable aleatoria de Poisson con par´ametro λ, λ ∈ (0, ∞), si
la funci´on de probabilidad de X est´a dada por
p
i
= P
o
(i) = P(X = i) = e
−λ
λ
i
i!
, i = 0, 1, 2 . . . .
La funci´on P
o
define una medida de probabilidad ya que

¸
k=0
P
o
(k) =

¸
k=0
e
−λ
λ
k
k!
= e
−λ
e
λ
= 1.
En este caso se denota X ∼ {(λ).
Aplicaciones de la V.A. de Poisson.
La distribuci´on de Poisson se utiliza, entre otras cosas para modelar situaciones en las
que eventos ocurren un cierto n´ umero de veces en intervalos (usualmente de tiempos)
dados. El par´ametro λ se interpreta usualmente como el n´ umero de ocurrencias del
evento por unidad de tiempo o como el ”valor promedio”de la variable aleatoria, en
un sentido que ser´a aclarado posteriormente.
Ejemplos 2.8
1. Suponga que el n´ umero de errores tipogr´aficos en una p´agina de un libro es una
75
v.a. de Poisson con par´ametro λ = 1/2. Si X =# errores por p´agina, entonces la
probabilidad de que haya al menos un error en una p´agina es
P(X ≥ 1) = 1 −P(X < 1) = 1 −P(X = 0) = 1 −e
−λ
λ
0
0!
= 1 −e
−1/2
= 0,393.
Otras situaciones en que se usa la v.a. de Poisson.
P1. X =# de llamadas telef´onicas que llega a una central en un per´ıodo de tiem-
po.
λ =# llamadas por unidad de tiempo.
P2. X =# clientes que entra en un banco en un dia.
P3. X =# de personas en una comunidad que vive m´as de 100 a˜ nos.
P4. La distribuci´on de Poisson puede utilizarse en algunos casos para dar una aprox-
imaci´on de una distribuci´on binomial. Sea X ∼ b(n, p) tal que n es un valor grande y
p es peque˜ no. Definamos λ > 0 como λ = p n, entonces
P(X = k) =

n
k

λ
n
)
k
(1 −
λ
n

n−k
=
n!
k!(n −k)!

λ
n
)
k
(1 −
λ
n

n−k
=
(n −k + 1)(n −k + 2) . . . (n −1)n
k!

λ
k
n
k

(1 −
λ
n
)
n
(1 −
λ
n
)
k
=
(n −k + 1)(n −k + 2) . . . (n −1)n
n
k

λ
k
k!

(1 −
λ
n
)
n
(1 −
λ
n
)
k
=
(n −k + 1)
n
(n −k + 2)
n
. . .
(n −1)
n
n
n

λ
k
k!

(1 −
λ
n
)
n
(1 −
λ
n
)
k
Tomando l´ım
n→∞
tenemos que
P(X = k) →1 1 . . . 1

λ
k
k!

l´ım
n→∞
(1 −
λ
n
)
n
l´ım
n→∞
(1 −
λ
n
)
k
=

λ
k
k!

e
−λ
.
Es decir que para n ”sufucientemente grande”la distribuci´on binomial b(n, p) puede
ser aproximada por una distribuci´on de Poisson con par´ametro λ = np.
Ejemplos 2.9
1. Se realiza un experimento que consiste en contar el n´ umero de part´ıculas α ir-
radiadas, en un intervalo de 1 segundo, por cada gramo de un material radioactivo.
Si la experiencia indica que, en promedio, 3.2 part´ıculas α son irradiadas, ¿cu´al es la
probabilidad de que no aparezcan m´as de 2 part´ıculas( en 1 segundo)?
76
Sea X =# de part´ıculas de material radioactivo descargadas en un segundo.
Se puede pensar en un gramo de material radioactivo como un gran conjunto de n
´atomos, cada uno de los cuales tiene probabilidad p de desintegrarse durante el per´ıodo
considerado, emitiendo una part´ıcula α. Entonces X tiene una distribuci´on binomial
con par´ametros (n, p) donde n es un n´ umero muy grande y p = 3,2/n, ya que todos
los ´atomos tienen igual probabilidad de descargar una part´ıcula. Por consiguiente el
c´alculo de las probabilidades p
i
pueden ser engorroso, lo que hace preciso considerar
b(n, p) · {(np) = {(3,2). De esta forma tenemos
P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2) = e
−3,2

1 + 3,2 +
(3,2)
2
2

= 0,382.
P5. N´ umero de eventos que ocurre en un intervalo de longitud t. Supongamos que un
evento dado ocurre en ciertos puntos aleatorios de tiempo de modo que, para alg´ un
λ > 0 se cumplen:
Hi. La probabilidad de que ocurra exactamente un evento en un intervalo de longitud
h es λh +o(h); donde o(h) es un valor peque˜ no en relaci´on con h.
Hii. La probabilidad de que 2 ´o m´as eventos ocurran en un intervalo de longitud h es
o(h).
Hiii. Dados enteros n, j
1
, j
2
, . . . , j
n
y cualquier conjunto de intervalos disjuntos I
1
, . . . , I
n
;
si se definen los eventos E
i
=ocurren j
i
eventos en el intervalo I
i
i = 1, . . . , n, en-
tonces estos eventos son independientes.
Proposici´on 2.3 Supongamos que se cumplen las hip´otesis Hi, Hii y Hiii. Sea N(t) =#
de eventos en un intervalo de longitud t, entonces N(t) es una variable aleatoria de
Poisson con par´ametro λt; es decir,
P(N(t) = k) = e
−λt
(λt)
k
k!
, k = 0, 1, 2, . . . .
Ejemplos 2.10
1. En una regi´on de California, USA, ocurren terremotos de acuerdo a las hip´otesis
Hi, Hii y Hiii, a una tasa de 2 por semana. Tomando una semana como unidad de
tiempo:
i. Encuentre la probabilidad de que al menos 3 terremotos ocurran durante las dos
semanas siguientes.
ii. Encuentre la distribuci´on de probabilidad de el tiempo, comenzando desde ahora,
hasta el pr´oximo terremoto.
Puesto que λ se interpreta como el n´ umero de ocurrencias por unidad de tiempo,
tenemos que λ = 2. Sea X(t) =# de terremotos en t semanas. Entonces queremos
calcular i.
P(X(2) ≥ 3) = 1 −P(X(2) = 0) −P(X(2) = 1) −P(X(2) = 2)
= 1 −e
−4
(1 + 4 + 8) = 1 −13e
−4
.
77
ii. Sea T =tiempo hasta el pr´oximo terremoto (medido en semanas). Entonces
P(T > t) = P(X(t) = 0) = e
−λt
=⇒F(t) = P(T ≤ t) = 1 −P(T > t)
= 1 −e
−λt
= 1 −e
−2t
.
5. Variable Aleatoria Hipergeom´etrica.
Sea p ∈ (0, 1) dado y suponga que se va a seleccionar, aleatoriamente y sin reposi-
ci´on, una muestra de tama˜ no n de una urna que contiene N bolas, de las cuales Np
son blancas y N −Np son negras. Si X =# de bolas blancas seleccionadas, entonces
X tiene funci´on de probabilidad dada por
p
k
= P(X = k) =

Np
k

N−Np
n−k

N
n

, k = 0, 1, . . . , m´ın(n, Np).
En este caso se dice que X es una variable aleatoria hipergeom´etrica.
Ejemplos 2.11
1. Un comprador de componentes electr´onicos los compra en lotes de 10. Su polit-
ica es inspeccionar 3 componentes y aceptar el lote solo si los 3 son no defectuosos.
Si 30 % de los lotes tienen 4 componentes defectuosas y 70 % solo 1, ¿qu´e proporci´on
de lotes rechaza el comprador?
Sean X =# de componentes defectuosas seleccionadas;
A =el comprador acepta el lote;
B =el lote tiene 4 defectuosas.
El evento A es equivalente a ¦X = 0¦. Escribiendo A = A ∩ (B ∪ B
c
) se tiene
que
P(X = 0) = P(A) = P(A ∩ B) + P(A ∩ B
c
) = P(B)P(A[B) + P(B
c
)P(A[B
c
)
=
3
10

4
0

6
3

10
3
+
7
10

1
0

9
3

10
3
=
54
100
.
Por lo que se acepta el 46 % de los lotes.
78
Ejercicios 2.2
1. Sea b(k; n,
λ
n
) = (
n
k
)(
λ
n
)
k
(1−
λ
n
)
n−k
la funci´on de probabilidad de una variable aleato-
ria binomial con par´ametros (n,
λ
n
).
i) Demuestre que l´ım
n→∞
b(k;n,
λ
n
)
b(k−1;n,
λ
n
)
=
λ
k
, para k = 0, 1, . . ..
ii) Demuestre que l´ım
n→∞
b(k; n,
λ
n
) = e
−λ λ
k
k!
. Sugerencia: Use inducci´on sobre k y la
parte i).
2. Si X es una variable aleatoria binomial con par´ametros (n, p), 0 < p < 1, de-
muestre que f(k) = P(X = k) crece al principio monotonamente y luego decrece
monotonamente alcanzando su m´aximo cuando k = [(n + 1)p] donde [x] =parte en-
tera de x. Sugerencia: considere los cocientes:
P(X = k)
P(X = k −1)
=
b(k; n, p)
b(k −1; n, p)
.
3. Considere el siguiente juego: Un apostador apuesta a un n´ umero entre 1 y 6. Tres
dados son lanzados; si el n´ umero al que apost´o el jugador aparece i veces, i = 1, 2, 3 el
jugador gana i unidades, si el n´ umero no aparece el jugador pierde una unidad. Halle
la distribuci´on de probabilidad de la ganancia del jugador. Si se asume que el juego
continua indefinidamente, ¿qu´e ganancia acumular´ıa el jugador?
4. Suponga que una caracter´ıstica particular de una persona, como el color de ojos o
el ser zurdo, se clasifica basandose en un par de genes. Suponga que d representa un
gen dominante y r un gen recesivo. Un h´ıbrido es una persona con genes rd. Un ni˜ no
recibe un gen de cada progenitor. Si, con respecto a una caracter´ıstica particular, dos
padres h´ıbridos tienen 4 ni˜ nos, ¿cu´al es la probabilidad de que 3 de los 4 ni˜ nos tengan
la apariencia del gen dominante? Nota: la apariencia de dd es igual a la apariencia
de un h´ıbrido
5. Se extrae una bola de una urna que contiene 3 bolas negras y 3 bolas blancas.
Se reemplaza la bola extraida y se extrae otra bola. Se prosigue asi indefinidamente.
¿Cu´al es la probabilidad de que de las 4 primeras bolas extraidas, exactamente 2 sean
blancas?
6. En un examen de selecci´on m´ ultiple, con 3 posibles respuestas para cada una de 5
preguntas, ¿cu´al es la probabilidad de que un estudiante responda al menos 4 pregun-
tas correctamente si selecciona sus respuestas al azar?
7. Un hombre afirma tener percepci´on extrasensorial. Para verificarlo, se lanza una
moneda insesgada (perfecta) 10 veces y se le pide al hombre predecir el resultado de
cada lanzamiento. Si ´el obtiene 7 aciertos, ¿cu´al es la probabilidad de que una persona
79
sin poder extrasensorial obtenga el mismo n´ umero de aciertos?
8. Un canal de cominicaci´on transmite d´ıgitos 0 y 1. Debido a est´atica, el d´ıgito
se transmite incorectamente con probabilidad 0.2. Se quiere transmitir un mensaje
importante consistente en uno de los d´ıgitos 0 ´o 1. Para reducir la posibilidad de er-
ror, se transmite 00000 en lugar de 0 y 11111 en lugar de 1. El que recibe identifica
el mensaje como el d´ıgito que aparece un mayor n´ umero de veces. ¿Cu´al es la proba-
bilidad de que se reciba el mensaje equivocado? Explique qu´e suposiciones relativas a
independencia est´a haciendo.
9. Un sistema de sat´elite consiste de n componentes y funciona en un dia deter-
minado si al menos k de las n componentes funcionan. En un dia lluvioso, cada una
de las n componentes funciona, independientemente, con probabilidad p
1
, mientras
que en un dia seco cada una de ellas funciona, independientemente, con probabilidad
p
2
. Si la probabilidad de lluvia ma˜ nana es α, ¿cu´al es la probabilidad de que el sistema
funcione ma˜ nana?
10. Suponga que el n´ umero de accidentes que ocurre en una autopista cada dia es
una variable aleatoria de Poisson con par´ametro λ = 3.
i) Encuentre la probabilidad de que 3 ´o m´as accidentes se produzcan hoy.
ii) Encuentre la probabilidad de que al menos un accidente se produzca hoy.
11. Compare la aproximaci´on de Poisson con la probabilidad binomial correcta en
cada uno de los casos siguientes:
i) P(X = 2) cuando n = 8 y p = 0,1.
ii) P(X = 9) cuando n = 10 y p = 0,95.
iii) P(X = 0) cuando n = 10 y p = 0,1.
iv) P(X = 4) cuando n = 9 y p = 0,2.
12. Si usted compra un ticket de loteria en cada una de 50 loterias diferentes, siendo
en cada una la probabilidad de ganar igual a
1
100
, halle la probabilidad (aproximada)
de que usted ganar´a un premio: i) al menos una vez; ii) exactamente una vez; c) al
menos dos veces.
13. La gente entra a un casino a una rata de 1 cada 2 minutos. Halle la probabil-
idad de que: i) nadie entre entre 12:00 y 12:05; ii) al menos 4 personas entren en el
casino durante ese tiempo.
14. El n´ umero de llamadas recibidas en una oficina entre 9:00 a.m. y 10:00 a.m.
es, en promedio, alrededor de 30. Use la distribuci´on de Poisson para encontrar la
probabilidad de que en un dia tipico no haya ninguna llamada entre 9:45 a.m. y 10:00
a.m. Sugerencia: Observe que λ = 30 y tome 1 hora como unidad de tiempo.
80
15. Los clientes llegan a un banco de acuerdo con una distribuci´on de Poisson con
par´ametro 40 (basado en una hora como unidad de tiempo). Dado que 30 clientes lle-
garon en la primera hora, encuentre la probabilidad de que 60 clientes lleguen durante
la primera hora y media.
16. Sea X una variable aleatoria de Poisson con par´ametro λ. Demuestre que la
funci´on de probabilidad de X crece mon´otonamente y luego decrece mon´otonamente,
alcanzando su m´aximo valor en [λ].
17. Halle la probabilidad de que en una compa˜ n´ıa en la que trabajan 500 personas
exactamente k de ellas cumplan a˜ no el mismo dia.
18. Suponga que en una comunidad de 20000 personas se ha determinado que la
probabilidad de vivir 100 a˜ nos es igual a 0.002. Halle la probabilidad (aproximada) de
que haya 10 centenarios.
19. Una poblaci´on de N animales habita en cierta regi´on. El siguiente experimento es
realizado: primero se captura un grupo de r animales, se les marca y son devueltos a
su medio. Una vez que se han mezclado de nuevo se captura un grupo de n animales.
Si todos los animales tienen igual probabilidad de ser capturados, halle la probabilidad
de que el n´ umero de animales marcados en la segunda captura sea igual a k. ¿ Cu´ales
son los posibles valores de k ?
20. En el proceso de control de calidad, una industria somete a inspecci´on un lote
de 10000 piezas de la siguiente forma: se selecciona una muestra de 1500 piezas y se
examinan en busca de piezas defectuosas. Si existen en el lote un total de 850 piezas
defectuosas, ¿cu´al es la probabilidad de que se encuentren 300 piezas defectuosas en
la muestra seleccionada?
21. Se lanzan 3 monedas id´enticas y se sabe que estas tienen probabilidad de cara
igual a 1/3. Halle la funci´on de probabilidad del n´ umero de caras.
22. El n´ umero de personas que utiliza un determinado cajero autom´atico en un dia,
es una variable aleatoria de Poisson con par´ametro λ = 10. a) Halle la probabilidad
de que el cajero no sea utilizado en el dia de hoy. b) Halle la probabilidad de que al
menos dos personas utilicen el cajero en el dia de ma˜ nana.
23. Una extra˜ na enfermedad aparece en el 5 % de los miembros de una comunidad
que consta de 15000 individuos. Calcule, aproximadamente, la probabilidad de que 10
personas sufran la enfermedad.
81
24. El n´ umero de veces que un individuo se resfria en un a˜ no dado es una vari-
able aleatoria de Poisson con par´ametro λ = 5. Suponga que un nuevo medicamento
reduce el par´ametro de Poisson a λ = 3 en un 75 % de la poblaci´on. El otro 25 % no
se beneficia de la droga. Si una persona usa la droga por un a˜ no y tiene dos resfriados
en ese tiempo, ¿ cu´al es la probabilidad de que esta persona sea uno de los que se
benefician de la droga ?
25. Un examen de selecci´on m´ ultiple tiene 10 preguntas, cada una de las cuales
tiene 5 respuestas posibles. Un estudiante selecciona las respuestas al azar.
i) ¿Cu´al es la distribuci´on del n´ umero de respuestas correctas dadas por el estudi-
ante?.
ii) ¿Cu´al es la probabilidad de que el estudiante responda al menos 9 preguntas
correctamente?
26. El n´ umero de inundaciones que se producen anualmente en una localidad es una
variable aleatoria de Poisson. Si, en promedio, ocurren 3 inundaciones por a˜ no, halle
la probabilidad de que la pr´oxima inundaci´on se produzca en los pr´oximos 6 meses.
82
2.3.2. Densidades. Distribuciones de V A. Continuas.
Definici´on 2.8 Una funci´on f : R −→ R es una funci´on de densidad sobre R
si y solo si f satisface las condiciones siguientes:
i) Para todo x ∈ R, f(x) ≥ 0.
ii)


−∞
f(u)du = 1.
f(x)
x
1
b−a
-
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
a b
(a)

d
d
d
d
d
d
x
f(x)
-1 1
(b)
Figura 2.3: Gr´aficos de funciones de densidad.
Definici´on 2.9 Una variable aleatoria X es continua ´o absolutamente contin-
ua si existe una funci´on de densidad f tal que para todo a ∈ R
F(a) = P(X ≤ a) =

a
−∞
f(u)du.
En este caso f se denomina funci´on de densidad de probabilidad de X.
Comentarios.
1. La funci´on de densidad permite responder a cualquier pregunta de car´acter
probabil´ıstico en relaci´on con la variable aleatoria.
2. De la definici´on anterior se deduce que la funci´on de distribuci´on F es continua;
por lo que, para todo x ∈ R, P(X = x) = 0.
3. Para cualquier par de n´ umeros reales a < b se tiene que
P(a ≤ X ≤ b) = P(a < X ≤ b) = P(a < X < b) = P(a ≤ X < b) =

b
a
f(u)du.
4. Para todo conjunto de Borel B se cumple que
P(X ∈ B) =

B
f(u)du.
Por lo tanto P(X ∈ B) representa geom´etricamente el ´area bajo la curva de f que se
genera sobre el conjunto B.
83
5. Por el teorema fundamental del c´alculo la funci´on de distribuci´on F es derivable
en cada punto y de continuidad de la funci´on de densidad f. En cada uno de estos
puntos se cumple que F

(y) = f(y), es decir que F es la primitiva de f.
6. La funci´on de probabilidad es el concepto an´alogo a la funci´on de densidad en el
caso discreto.
Variable Aleatoria Discreta Variable Aleatoria Continua
P(X ≤ t) =
¸
x
n
≤t
p
n
P(X ≤ t) =

t
−∞
f(u)du
¸

n=0
p
n
= 1


−∞
f(u)du = 1
Ejemplos 2.12
1. Sea X una variable aleatoria continua con funci´on de densidad
f(x) =

c(4x −2x
2
) si 0 < x < 2
0 si x / ∈ (0, 2)
(2.15)
i) Halle el valor de c. ii) Halle P(X > 1).
i) El valor c debe satisfacer c

2
0
(4x −2x
2
)dx = 1. Entonces
c(4
x
2
2
−2
x
3
3
)

x=2
x=0
= c(2 4 −
2
3
8) = c
8
3
=⇒c =
3
8
.
ii) P(X > 1) =


1
f(u)du =
3
8

2
1
(4u −2u
2
)du =
1
2
.
2. La cantidad de tiempo, en horas, que una computadora funciona antes de da˜ narse
es una variable aleatoria continua con funci´on de densidad de probabilidad
f(x) =

λe

x
100
si x ≥ 0
0 si x < 0
(2.16)
i) ¿Cu´al es la probabilidad de que una computadora funcione entre 50 y 150 horas
antes de descomponerse?
ii) ¿Cu´al es la probabilidad de que funcione menos de 100 horas?
Debemos en primer lugar determinar el valor de λ.
1 = λ


0
e

x
100
dx = λ(−100e

x
100
)


0
= λ 100 =⇒λ =
1
100
.
84
i) P(50 ≤ X ≤ 150) =
1
100

150
50
e

x
100
dx =
1
100
−100e

x
100

150
50
= e

1
2
−e

3
2
= 0,384.
ii) P(X < 100) =
1
100

100
0
e

x
100
dx =
1
100
−100e

x
100

100
0
= −e
−1
+ 1 = 0,633.
3. Suponga que la funci´on de densidad de una variable aleatoria X esta dada por
f(x) =

α si x ∈ [0, 100]
0 en otros casos.
Halle P(−2 ≤ X ≤ 3).
En primer lugar observamos que

100
0
α = 1 ⇒ α =
1
100
,
por lo que
P(−2 ≤ X ≤ 3) =

3
−2
f(x)dx =

3
0
αdx =

3
0
1
100
dx =
3
100
.
4. Sea X una variable aleatoria continua con funci´on de densidad
f(x) =

α(x −2x
2
) si 0 < x <
1
2
0 en otros casos,
Determinamos el valor de α:
α
1
2
0
(x −2x
2
)dx = α
1
24
⇒ α = 24.
Entonces tenemos que
P(X >
1
4
) = 24
1
2
1
4
(x −2x
2
) = 24
1
48
=
1
2
.
Distribuciones de Algunas Variables Aleatorias Continuas.
1. Variable Aleatoria Uniforme.
Una variable aleatoria X se dice que tiene distribuci´on uniforme sobre [a, b] o
que est´a uniformemente distribuida si su funci´on de densidad de probabilidad
est´a dada por
f(x) =

1
b−a
si x ∈ [a, b]
0 si x / ∈ [a, b],
(figura 2.3 (a)). En este caso la funci´on de distribuci´on est´a dada por
F(t) =

0 si t < a
t−a
b−a
si t ∈ [a, b)
1 si t ≥ b
85
F(x)
x
1 -
a b
5
5
5
5
5
5
5
5
5
5
5
5
5
5
p
p
p
p
p
p
p
p
p
p
p
p
p p p p p p p p p
Figura 2.4: Gr´afico de F(x).
Ejemplos 2.13
1. Sea X una variable aleatoria continua uniformemente distribuida sobre [0, 10].
Entonces
P(3 < X < 8) =

8
3
1
10
dx =
5
10
=
1
2
;
P(X > 6) =

10
6
1
10
dx =
4
10
=
2
5
;
P(X > 11) = 0 y P(X < 11) = 1.
2. Variable Aleatoria Normal.
Una variable aleatoria X se dice que tiene distribuci´on normal o que est´a nor-
malmente distribuida, con par´ametros µ y σ
2
(σ > 0), si su funci´on de densidad
de probabilidad est´a dada por
f(x) =
1
σ


e

(x−µ)
2

2
; para todo x ∈ R .
La funci´on de distribuci´on de una variable aleatoria normal es
F(t) =
1
σ

t
−∞
e

(x−µ)
2

2
dx; para todo t ∈ R ,
y utilizaremos la notaci´on X ∼ N(µ, σ
2
) para decir que X est´a normalmente dis-
tribuida con par´ametros µ y σ
2
.
Comentarios.
1. La distribuci´on normal es tambien denominada distribuci´on de Laplace-Gauss.
2. En el caso en que µ = 0 y σ
2
= 1 se dice que X tiene distribuci´on normal est´andar
o unitaria y se utiliza la notaci´on
φ(x) =
1


e

x
2
2
; y Φ(t) =
1

t
−∞
e

x
2
2
dx;
86
para la funci´on de densidad y la funci´on de distribuci´on de X respectivamente.
3. Dado que f es claramente no negativa, para demostrar que es una funci´on de
densidad es suficiente demostrar que su integral sobre R es igual a 1. Es decir,


−∞
f(x)dx =
1
σ


−∞
e

(x−µ)
2

2
dx = 1.
Mediante el cambio de variables y =
x−µ
σ
obtenemos: dy =
1
σ
dx y y ∈ (−∞, ∞); con
esto


−∞
f(x)dx =
1


−∞
e

y
2
2
dy.
Demostrar que la integral del miembro de la derecha en esta ´ ultima igualdad es igual
a 1, es equivalente a demostrar que


−∞
e

y
2
2
dy =

2π.
Para esto consideremos
I =


−∞
e

y
2
2
dy =⇒I
2
=


−∞
e

x
2
2
dx


−∞
e

y
2
2
dy,
esto es
I
2
=


−∞


−∞
e

x
2
2
e

y
2
2
dxdy =


−∞


−∞
e

(x
2
+y
2
)
2
dxdy.
Pasando a coordenadas polares obtenemos x = r cos(θ), y = rsen(θ) y dxdy = rdrdθ
donde r ∈ [0, ∞) y θ ∈ [0, 2π]. Entonces
I
2
=


0


0
e

r
2
2
rdθdr = 2π


0
e

r
2
2
rdr = 2π.
Proposici´on 2.4 Si X es una variable aleatoria normalmente distribuida con par´amet-
ros µ y σ
2
, entonces Y = αX + β es una variable aleatoria normalmente distribuida
con par´ametros αµ + β y α
2
σ
2
.
Demostraci´on. Denotemos como F
Y
a la funci´on de distribuci´on de Y . Consideramos
el caso en que α > 0. El caso en que α < 0 es an´alogo y se deja al lector.
F
Y
(t) = P(Y ≤ t) = P(αX + β ≤ t) = P(X ≤
t −β
α
) =
1
σ


t−β
α
−∞
e

(x−µ)
2

2
dx.
Mediante el cambio de variables z = αx + β, obtenemos x =
z−β
α
y dz = αdx; donde
adem´as se tiene que −∞< z < t. Entonces
1
σ


t−β
α
−∞
e

(x−µ)
2

2
dx =
1
σ

t
−∞
e

(
z−β
α
−µ)
2

2
1
α
dz =
1
α
1
σ

t
−∞
e

(z−β−αµ)
2

2
σ
2
dz,
87
por lo tanto la funci´on de densidad de Y es
f
Y
(z) =
1
ασ


e

(z−β−αµ)
2

2
σ
2
, de donde Y ∼ N(αµ + β, α
2
σ
2
).
Un sencillo pero importante corolario de la proposici´on anterior es que si X ∼
N(µ, σ
2
), entonces la variable aleatoria
Z =
X −µ
σ
=
1
σ
X +


µ
σ

∼ N

1
σ
µ +


µ
σ

,
1
σ
2
σ
2

= N(0, 1).
Este hecho resulta muy ´ util, pues hace posible que la distribuci´on de cualquier variable
aleatoria X ∼ N(µ, σ
2
) pueda expresarse en t´erminos de una normal est´andar, ya que
F
X
(t) = P(X ≤ t) = P(
X −µ
σ

t −µ
σ
) = Φ(
t −µ
σ
).
Proposici´on 2.5 Para la distribuci´on normal est´andar se cumple que
Φ(−t) = 1 −Φ(t) es decir Φ(t) + Φ(−t) = 1.
Demostraci´on.
Φ(−t) + Φ(t) =
1

−t
−∞
e

x
2
2
dx +
1

t
−∞
e

x
2
2
dx;
haciendo el cambio de variables y = −x se tiene que dy = −dx y y ∈ [t, ∞). Entonces
Φ(−t) + Φ(t) =
1


t
e

y
2
2
dy +
1

t
−∞
e

x
2
2
dx = 1.
Comentario. Las propiedades anteriores permiten calcular probabilidades de
variables aleatorias normales usando la distribuci´on normal est´andar para valores de
x ≥ 0.
Ejemplos 2.14
1. Sea X ∼ N(3, 9), entonces Z =
X−3
3
∼ N(0, 1). Por lo tanto
P(2 < X < 5) = P(
2 −3
3
<
X −3
3
<
5 −3
3
) = P(
−1
3
< Z <
2
3
) = Φ(
2
3
) −Φ(
−1
3
)
= Φ(
2
3
) −1 + Φ(
1
3
) = 0, 7454 −1 + 0, 6293 = 0, 3747.
P(X > 0) = P(
X −3
3
> −1) = 1 −Φ(−1) = Φ(1) = 0, 8413.
P([X −3[ > 6) = P(X −3 > 6) +P(X −3 < −6)
= P(
X −3
3
> 2) +P(
X −3
3
< −2) = P(Z > 2) +P(Z < −2)
= 1 −Φ(2) + Φ(−2) = 1 −Φ(2) + 1 −Φ(2)
= 2(1 −Φ(2)) = 2(1 −0, 9772) = 0, 0456.
88
3. Variable Aleatoria Exponencial.
Una variable aleatoria continua X se dice que tiene distribuci´on exponencial ´o que
est´a exponencialmente distribuida, con par´ametro λ > 0, si su funci´on de densi-
dad es
f(x) =

λe
−λx
si x ≥ 0
0 si x < 0
(2.17)
En este caso la funci´on de distribuci´on est´a dada por
F(t) = P(X ≤ t) =

t
0
λe
−λx
dx si t ≥ 0
0 si t < 0
=

1 −e
−λt
si t ≥ 0
0 si t < 0
(2.18)
Ejemplos 2.15
1. En el ejemplo 2.10.1 se ha definido la variable X(t) =#terremotos en t sem-
anas y puesto que X(t) ∼ {(2t), se tiene que la variable aleatoria T =tiempo hasta
el pr´oximo terremoto tiene funci´on de distribuci´on dada por F
T
(t) = 1 − e
−2t
; es
decir, T es una variable aleatoria exponencial con par´ametro λ = 2.
2. La duraci´on de una llamada, en minutos, es una variable aleatoria exponencial
con par´ametro λ =
1
10
. Si una persona llega inmediatamente antes que usted a un
tel´efono p´ ublico, encuentre la probabilidad de que usted tenga que esperar: i) m´as de
10 minutos; ii) entre 10 y 20 minutos.
Sea X =la duraci´on de una llamada, entonces se quiere calcular:
i) P(X > 10) = 1 −P(X ≤ 10) = 1 −(1 −e
−10
10
) = e
−1
= 0, 368.
ii)P(10 < X < 20) =

20
10
1
10
e
−u
10
du = −e
−u
10
[
20
10
= −e
−2
+e
−1
= 0, 23255.
4. Variable Aleatoria Gamma.
Una variable aleatoria X se dice que tiene distribuci´on gamma con par´ametros
(t, λ), donde t > 0 y λ > 0, si su funci´on de densidad es
f(x) =

λe
−λx
(λx)
t−1
Γ(t)
si x ≥ 0
0 si x < 0,
(2.19)
donde Γ(t) =


0
e
−y
y
t−1
dy.
Comentarios.
89
1. Una variable aleatoria gamma con par´ametros (1, λ) es una variable aleatoria espo-
nencial con par´ametro λ.
2. Si se integra por partes la funci´on Γ se obtiene que
Γ(t) =


0
e
−y
y
t−1
dy = −e
−y
y
t−1


0
+


0
e
−y
(t −1)y
t−2
dy
= (t −1)


0
e
−y
y
t−2
dy = (t −1)Γ(t −1).
En particular, para t = n ∈ N, se puede demostrar f´acilmemte por inducci´on que
Γ(n) = (n −1)!, ya que
Γ(n) = (n −1)Γ(n −1) = (n −1)(n −2)Γ(n −2) = . . .
= (n −1)(n −2) . . . 3,2Γ(1) = (n −1)!
3. La distribuci´on gamma con par´ametros (n, λ), donde n ∈ N, aparece en las aplica-
ciones con frecuencia como la distribuci´on de la variable aleatoria T
n
=tiempo hasta
que ocurran n eventos; la cual es una generalizaci´on de la variable T presentada en
los ejemplos 2.10.1 y 2.15.1. En efecto, supongamos que la ocurrencia de un cierto
fen´omeno satisface las hip´otesis Hi, Hii y Hiii, con par´ametro λ. Como antes definimos
X(t) =# de eventos en [0,t] y tenemos que X(t) ∼ {(λt). Si denotamos por F
n
la
funci´on de distribuci´on de T
n
, entonces para cada t ≥ 0
F
n
(t) = P(T
n
≤ t) = P(X(t) ≥ n) =

¸
k=n
P(X(t) = k) =

¸
k=n
e
−λt
(λt)
k
k!
=

¸
k=n
g
k
(t).
Como para cada k ≥ 1 la funci´on g
k
es derivable y
¸

k=n
g

k
(t) converge uniforme-
mente, la funci´on de densidad de T
n
, digamos f
n
, puede obtenerse derivando t´ermino
a t´ermino la serie que representa a la funci´on de distribuci´on F
n
, es decir
f
n
(t) = F

n
(t) =

¸
k=n
g

k
(t) = λe
−λt
(λt)
n−1
(n −1)!
,
lo que significa que T
n
tiene distribuci´on gamma con par´ametros (n, λ).
4. Cuando n es un entero positivo, la distribuci´on gamma con par´ametros (
n
2
,
1
2
)
se denomina chi cuadrado con n grados de libertad, lo que se denota como χ
2
n
. Usual-
mente se usa esta distribuci´on para describir el error cometido al tratar de dar en
un blanco en R
n
, cuando cada coordenada del error est´a normalmente distribuida.
Estudiaremos m´as adelante la relaci´on entre esta distribuci´on y la normal.
90
5. Variable Aleatoria Cauchy.
Una variable aleatoria X se dice que tiene distribuci´on de Cauchy con par´ametro
α ∈ R, si su funci´on de densidad es
f(x) =
1
π
1
[1 + (x −α)
2
]
, donde −∞< x < ∞.
La funci´on de distribuci´on de Cauchy est´a dada por
F(t) =
1
π

t
−∞
1
[1 + (x −α)
2
]
dx =
1
π
arctg(x −α)[
t
−∞
=
1
2
+
arctg(t −α)
π
.
Ejemplos 2.16
1. Una aguja que puede girar en torno al punto (−1, 0) del eje x se impulsa para
que gire y luego se la deja parar espont´aneamente. Sea θ el ´angulo que forma la aguja
con el eje x y supongamos que θ est´a uniformemente distribuido sobre [−
π
2
,
π
2
], es
decir que
F
θ
(t) =

0 si t < −
π
2
t+
π
2
π
si t ∈ [−
π
2
,
π
2
)
1 si t ≥
π
2
Entonces la variable aleatoria Y (θ) = tg(θ) tiene distribuci´on de Cauchy con par´ametro
α = 0. En efecto
P(Y (θ) ≤ t) = P(tg(θ) ≤ t) = P(θ ≤ arctg(t)) =
1
2
+
arctg(t)
π
.
6. Variable Aleatoria Beta.
Una variable aleatoria X se dice que tiene distribuci´on de beta con par´ametros a
y b, si su funci´on de densidad est´a dada por
f(x) =

1
B(a,b)
x
a−1
(1 −x)
b−1
si x ∈ (0, 1)
0 si x / ∈ (0, 1)
donde B(a, b) =

1
0
x
a−1
(1 −x)
b−1
dx se denomina funci´on beta.
Ap´endice.
Problema Famoso: La paradoja de Bertrand.
Considere una ¸cuerda aleatoria”de un circulo de radio r. ¿Cu´al es la probabilidad de
91
que la longitud de la cuerda sea mayor que el lado del tri´angulo equil´atero inscrito en
ese circulo?
Para resolver este problema debemos precisar que se entiende por ¸cuerda aleato-
ria”.
Soluci´on 1: La posici´on de una cuerda puede ser determinada por su distancia al cen-
tro del circulo, que denotaremos por O. Esta distancia puede variar entre 0 y r. Ahora
consideremos un tri´angulo equil´atero ABC inscrito en el circulo de radio r y sean a
1
, a
2
y a
3
las distancias del centro a cada uno de los lados. Tenemos que: OA = OB = OC,
si OA
1
es la mediatriz de AB, OA
2
es la mediatriz de AC y OA
3
es la mediatriz de
CB, entonces A
1
es el punto medio de AB, A
2
es el punto medio de AC y A
3
es el
punto medio de CB. Sea m = [AA
1
[; entonces a
1
= a
2
= a
3
= a =

r
2
−m
2
y como
m satisface cos30

=
m
r
=

3
2
entonces m = r

3
2
y a =

r
2
−(r

3
2
)
2
=
r
2
.
La longitud de la cuerda es mayor que el lado del tri´angulo si su distancia al
centro es menor que a =
r
2
. Si asumimos entonces que una cuerda aleatoria es aquella
cuya distancia D al centro O es una variable aleatoria uniformemente distribuida en
[0, r], la probabilidad de que la cuerda sea mayor que el lado del tri´angulo equil´atero
inscrito ABC es P(D <
r
2
) =

r
2
0
1
r
dx =
1
2
.
Soluci´on 2. Dada una cuerda arbitraria en el circulo, considere la tangente al cir-
culo que pasa por uno de los extremos de la cuerda. La posici´on de la cuerda queda
determinada por el ´angulo θ entre la tangente y la cuerda; el cual varia entre 0 y 180

.
En este caso la longitud de la cuerda es mayor que la longitud del lado del tri´angulo si
60

< θ < 120

. Asumiendo θ uniformemente distribuido se tiene que la probabilidad
buscada es P(60

< θ < 120

) =
120

−60

180

=
1
3
.
Se observa entonces que el resultado varia dependiendo del experimento que se use
para caracterizar una cuerda aleatoria.
92
Ejercicios 2.3
1. Sea X una variable aleatoria con funci´on de densidad de probabilidad
f(x) =

c(1 −x
2
) si −1 < x < 1
0 si x / ∈ (−1, 1)
(2.20)
i) ¿Cu´al es el valor de c? ii) ¿Cu´al es la funci´on de distribuci´on de X?
2. Un sistema puede funcionar por una cantidad aleatoria de tiempo X, medida en
meses. Si la densidad de X est´a dada por
f(x) =

cxe
−x/2
si x > 0
0 si x ≤ 0,
(2.21)
¿cu´al es la probabilidad de que el sistema funcione por lo menos 5 meses?
3. A una parada de autob´ us llegan unidades cada 15 minutos, a partir de las 7:00
a.m. Si un pasajero llega a la parada a una hora que est´a uniformemente distribuida
entre las 7:00 y las 7:30, encuentre la probabilidad de que su espera por el autob´ us
sea de: i) menos de 5 minutos. ii) m´as de 10 minutos.
4. Los trenes que se dirigen a un punto A llegan a la estaci´on a intervalos de 15
minutos comenzando a las 7:00 a.m., mientras que los trenes que se dirigen al punto
B llegan a intervalos de 15 minutos comenzando a las 7:05 a.m. Si un pasajero llega
a la estaci´on a una hora uniformemente distribuida entre las 7:00 y las 8:00 a.m. y
se monta en el primer tren que llega, ¿qu´e proporci´on de veces la persona se dirige al
punto A? ¿Qu´e pasa si el pasajero llega a una hora uniformemente distribuida entre
7:10 y 8:10 a.m.?
5. Si X · N(10, 36) calcule: i) P(X > 5); ii) P(4 < X < 16); iii) P(X < 8);
iv) P(X < 20); v) P(X > 16).
6. La cantidad anual de lluvia, en pulgadas, en cierta regi´on est´a normalmente dis-
tribuida con par´ametros µ = 40 y σ = 4. ¿Cu´al es la probabilidad de que, comenzando
con este a˜ no, haya que esperar 10 a˜ nos antes de tener un caudal de lluvia por encima
de 50 pulgadas? ¿Qu´e suposiciones est´a haciendo? Sugerencia: Considere la variable
aleatoria T=# a˜ nos para que lluevan m´as de 50 pulgadas.
7. Expertos certifican que la duraci´on en dias de un embarazo es una variable aleatoria
aproximadamente normal con par´ametros µ = 270 y σ
2
= 100. Para la realizaci´on de
un estudio se seleccionan 10 mujeres embarazadas. Aquellas cuyos embarazos duren
menos de 240 dias ´o m´as de 290 ser´an incluidas en un programa de tratamiento
especial. ¿Cu´al es la probabilidad de que menos de 8 mujeres sean incluidas en el
93
programa?
8. La altura, en pulgadas de un hombre de 25 a˜ nos es una variable aleatoria nor-
mal con par´ametros µ = 71 y σ
2
= 6,25. ¿Qu´e porcentaje de hombres de 25 a˜ nos
miden m´as de 6 pies 2 pulgadas? ¿Qu´e porcentaje de hombres de m´as de 6 pies miden
m´as de 6 pies 5 pulgadas? Nota: un pie = 12 pulgadas.
9. El ancho, en pulgadas, de una ranura de una pieza de duraluminio forjado est´a nor-
malmente distribuido con µ = 0,9 y σ = 0,003. Los limites especificados son 0.9-0.005
a 0.9+0.005. ¿Qu´e porcentaje de piezas ser´an defectuosas? ¿Cu´al es el m´aximo valor
σ
M
de σ que permitir´a no m´as de un 1 % de piezas defectuosas cuando los anchos de
las ranuras est´an normalmente distribuidos con par´ametros µ = 0,9 y σ = σ
M
?
10. Sea X una variable aleatoria con distribuci´on normal est´andard. Demuestre que:
i) P([X[ < k) = 2Φ(k) −1 ii) P([X[ > k) = 2(1 −Φ(k)).
11. Si la variable aleatoria X · N(1, 4), calcule: i) P(−3 ≤ X ≤ 3);
ii) P(−5 ≤ X ≤ 3); iii) P(−1 ≤ X ≤ 0).
12. Demuestre que si X es una variable aleatoria exponencial con par´ametro λ, y
c > 0; entonces cX es exponencial con par´ametro λ/c.
13. El tiempo, en horas, requerido para reparar una m´aquina es una variable aleatoria
exponencialmente distribuida con par´ametro λ = 1/2.
i) ¿Cu´al es la probabilidad de que el tiempo de reparaci´on sea mayor de 2 horas?
ii) ¿Cu´al es la probabilidad condicional de que la reparaci´on tome al menos 10 horas,
dado que toma m´as de 9 horas?
14. El n´ umero de a˜ nos que un radio funciona est´a exponencialmente distribuido con
par´ametro λ = 1/8. ¿Cu´al es la probabilidad de que un radio funcione por m´as de 8
a˜ nos?
15. Sea X una variable aleatoria de Cauchy con funci´on de densidad de dada por:
f(x) =
1
π[1 + ((x −α)
2
]
, x ∈ R, α > 0.
a) Demuestre que f es en efecto una densidad.
b) Calcule: P(X ≤ −1); P(X > 0); P(X < 1).
16. 1. Si X es una variable aleatoria normal con par´ametros µ = 2, σ
2
= 9, cal-
cule:
a) P(X > 4); b) P(−3 < X < 5); c) P(8 < X < 12).
94
Cap´ıtulo 3
Esperanza y Varianza de Variables
Aleatorias.
I) Caso discreto.
Definici´on 3.1 Sea X una variable aleatoria discreta tal que su conjunto de valores es
¦x
n
¦
n≥1
y su funci´on de probabilidad ¦p
n
¦
n≥1
, donde p
n
= P(X = x
n
). La esperanza
matem´atica o valor esperado de X es el n´ umero denotado por E[X] y definido
como
E[X] =

¸
n=0
x
n
P(X = x
n
) =

¸
n=0
x
n
p
n
;
siempre y cuando la serie anterior sea convergente. En este caso se dice que existe la
esperanza matem´atica de X.
Observe que E[X] es un promedio ponderado de los valores de la variable aleatoria
X. En algunos casos E[X] se denomina media ´o media ponderada de X.
Ejemplos 3.1
1. Sea X el resultado de lanzar un dado perfecto. Entonces como p
i
=
1
6
para i =
1, . . . , 6
E[X] = 1p
1
+ 2p
2
+ 3p
3
+ 4p
4
+ 5p
5
+ 6p
6
=
21
6
=
7
2
.
2. Sea X una variable aleatoria de Bernoulli con par´ametro p =probabilidad de ´exito.
Es decir, X = 1 si ocurre un ´exito y X = 0 si ocurre un fracaso. Entonces
E[X] = 0(1 −p) + 1p = p.
3. Sea X una variable aleatoria Binomial con par´ametros (n, p). Entonces
E[X] =
n
¸
k=0
kP(X = k) =
n
¸
k=1
k

n
k

p
k
(1 −p)
n−k
=
n
¸
k=0
kn!
k!(n −k)!
p
k
(1 −p)
n−k
95
96
=
n
¸
k=1
(n −1)!n
(k −1)!(n −k)!
pp
k−1
(1 −p)
n−k
= np
n−1
¸
k=0
(n −1)!
k!(n −k −1)!
p
k
(1 −p)
n−k−1
= np
n−1
¸
k=0

n−1
k

p
k
(1 −p)
n−1−k
= np(p + (1 −p))
n−1
= np.
4. Sea X una variable aleatoria de Poisson con par´ametro λ. Entonces E[X] = λ.
II) Caso continuo.
Definici´on 3.2 Sea X una variable aleatoria continua con funci´on de densidad f.
Se define la esperanza de X como
E[X] =


−∞
xf(x)dx;
siempre que la integral anterior sea finita. En este caso (E[X] < ∞) se dice que X
tiene esperanza o tambi´en que es integrable con respecto a la medida de probabilidad
dada.
Ejemplos 3.2
1. Si X es una variable aleatoria uniformemente distribuida sobre [a, b], entonces
E[X] =

b
a
x
1
b −a
dx =
x
2
2(b −a)
[
b
a
=
a + b
2
.
2. Si X es una variable aleatoria normalmente distribuida con par´ametros (µ, σ
2
),
entonces
E[X] =


−∞
x
1
σ


e

(x−µ)
2

2
dx =
1
σ


−∞
(x −µ + µ)e

(x−µ)
2

2
dx
=
1
σ


−∞
(x −µ)e

(x−µ)
2

2
dx +
1
σ


−∞
µe

(x−µ)
2

2
dx
=
σ


−∞
(x −µ)
σ
e

(x−µ)
2

2
dx +µ = µ
3. Sea X una variable aleatoria exponencial con par´ametro λ, entonces
E[X] =


0
λxe
−λx
dx = λ

−x
λ
e
−λx

1
λ
2
e
−λx


0
=
1
λ
.
97
Aplicaciones.
El juego de San Petersburgo. Se lanza una moneda perfecta hasta que salga
cara. Si esto ocurre en el i−´esimo lanzamiento usted recibir´a $2
i
. Sea X =ganancia
obtenida, entonces X toma los valores 2, 2
2
, . . . , 2
k
, . . . ,. Entonces la ganancia esper-
ada es igual a
E[X] = 2
1
2
+ 2
2
1
2
2
+ 2
3
1
2
3
. . . =

¸
k=1
1 = ∞.
Es decir la esperanza de X no existe. Sin embargo, si se asume que la casa nunca se
arruina, esto tambien podria interpretarse como que la ganancia tiende a crecer sin
limites. En este caso, es razonable preguntar ¿cu´anto estar´ıa usted dispuesto a pagar
para entrar en el juego? Si usted paga $2
10
= $1024 por entrar, entonces para ganar
necesita que haya al menos 9 sellos consecutivos. La probabilidad de este evento es
menor o igual a 0,00195; que es bastante peque˜ no. Se presenta en este juego una
situaci´on parad´ojica, ya que, pese a que se tiene una ganancia esperada infinita, no
es razonable arriesgarse pu´es la probabilidad de ganar es muy peque˜ na.
Determinaci´on de Primas de Seguros. Una persona de 36 a˜ nos adquiere un
seguro de vida de $50.000 por 20 a˜ nos. Sea p
36
= P(el individuo sobrevive m´as de
20 a˜ nos). ¿Cu´al deber´a ser la prima que cobre la compa˜ n´ıa para que la ganancia
esperada sea positiva?
Sea L la prima total a pagarse durante los 20 a˜ nos y sea Y =ganancia de la compa˜ n´ıa,
entonces
E[Y ] = Lp
36
−50,000(1 −p
36
) > 0 ⇐⇒L >
50,000(1 −p
36
)
p
36
.
Juego justo e injusto. Suponga que X es una variable aleatoria que representa
la ganancia de un jugador en un juego de azar. Cuando X < 0 se considera que hay
p´erdida o que se paga una cuota para entrar en el juego. Decimos que el juego es
justo´o equitativo, si E[X] = 0. Si E[X] = 0 decimos que el juego es injusto, siendo
E[X] > 0 cuando el juego es favorable al jugador y E[X] < 0 cuando el juego es
desfavorable al jugador.
Si consideramos el juego de Lotto consistente en acertar 6 n´ umeros de 54, tenemos
que la probabilidad de ganar un juego es p = 1/25,827,165 · 3,810
−8
. Suponga que
la ganancia posible es de $10.000.000 y que se paga un d´olar por 2 juegos. Entonces
la oportunidad de perder es p
1
=
25,827,163
25,827,165
· 0,999 y la probabilidad de ganar es
p
2
· 7, 6 10
−8
. Por lo tanto
E[X] = (−1)(0,999) + 10
7
)7, 6 10
−8
= −,999 + 0,76 = −0,239,
de donde se concluye que, de acuerdo al criterio dado, el juego es injusto y desfavorable
al jugador.
98
Lema 3.1 Si Y es una variable aleatoria continua, entonces
E

Y

=


0
P¦Y > y¦dy −


0
P¦Y < −y¦dy.
Demostraci´on. Denotemos por f
Y
la funci´on de densidad de Y . Entonces puesto que
P¦Y > y¦ =


y
f
Y
(x)dx


0
P¦Y > y¦dy =


0


y
f
Y
(x)dxdy.
Intercambiando el orden de integraci´ on en la igualdad anterior tenemos que


0
P¦Y > y¦dy =


0

x
0
f
Y
(x)dydx =


0
xf
Y
(x)dx. (3.1)
De manera an´aloga se tiene que


0
P¦Y < −y¦dy =


0

−y
−∞
f
Y
(x)dxdy =

0
−∞

−x
0
f
Y
(x)dydx = −

0
−∞
xf
Y
(x)dx. (3.2)
Combinando (3.1) y (3.2) obtenemos


0
P¦Y > y¦dy −


0
P¦Y < −y¦dy =


0
xf
Y
(x)dx +

0
−∞
xf
Y
(x)dx.
=


−∞
xf
Y
(x)dx = E

Y

.
Proposici´on 3.1 Si X es una variable aleatoria continua con funci´on de densidad
f, entonces para toda funci´on a valores reales g se cumple que
E

g(X)

=


−∞
g(x)f(x)dx.
Demostraci´on. Por el lema anterior se tiene que
E

g(X)

=


0
P¦g(X) > y¦dy −


0
P¦g(X) < −y¦dy
=


0

{x:g(x)>y}
f(x)dxdy −


0

{x:g(x)<−y}
f(x)dxdy
=

{x:g(x)>0}

g(x)
0
f(x)dydx −

{x:g(x)<0}

−g(x)
0
f(x)dydx
=

{x:g(x)>0}
g(x)f(x)dx +

{x:g(x)<0}
g(x)f(x)dx
=


−∞
g(x)f(x)dx.
Comentario: Existe una versi´on del resultado anterior en el caso en que X es una
variable aleatoria discreta. La demostraci´on es sencilla y se deja como ejercicio.
99
Proposici´on 3.2 Si X es una variable aleatoria y a y b son constantes entonces
E

aX + b

= aE

X

+ b
siempre que las esperanzas existan.
Demostraci´on. Caso discreto. Como p
n
= P¦ω : X = x
n
¦ = P¦ω : aX + b =
ax
n
+ b¦, n ≥ 1, tenemos que
E

aX + b

=
¸
n≥0
(ax
n
+ b)p
n
= a
¸
n≥0
x
n
p
n
+ b
¸
n≥0
p
n
= aE[X] + b.
Caso continuo. Sea f la funci´on de distribuci´on de X y sea Y = aX + b. Por la
proposici´on 1 tenemos que
E

aX +b

=


−∞
(ax + b)f(x)dx = a


−∞
xf(x)dx +b


−∞
f(x)dx = aE

X

+ b.
Definici´on 3.3 Si X es una variable aleatoria con media E[X] = µ, entonces la
varianza de X, denotada V ar[X], se define como
V ar[X] = E

(X −E[X])
2

.
La varianza de X es una medida de la dispersi´on de los valores de X alrrededor
de la media.
Proposici´on 3.3 V ar[X] = E[X
2
] −

E[X]

2
.
Demostraci´on. Utilizando la proposici´on anterior, se tiene
E

(X −E[X])
2

= E

X
2
−2XE[X]) + (E[X])
2

= E[X
2
] −2E[X]E[X]) + (E[X])
2
= E[X
2
] −(E[X])
2
.
Ejemplos 3.3
1. Sea X una variable aleatoria normal, X · N(µ, σ
2
). Como E[X] = µ, se tiene que
V ar[X] = E

(X −E[X])
2

=
σ
2
σ


−∞
(x −µ)
2
σ
2
e

(x−µ)
2

2
dx
=
σ
2


−∞
y
2
e

y
2
2
dy =
σ
2

−ye

y
2
2
[

−∞
+


−∞
e

y
2
2
dy

=
σ
2

0 +

= σ
2
.
100
2. Sea X · b(n, p). Sabemos que E[X] = np. Entonces
E[X
2
] =
n
¸
k=0
k
2
P(X = k) =
n
¸
k=1
k
2

n
k

p
k
(1 −p)
n−k
=
n
¸
k=0
k
2
n!
k!(n −k)!
p
k
(1 −p)
n−k
=
n
¸
k=0
(k
2
−k + k)
n!
k!(n −k)!
p
k
(1 −p)
n−k
=
n
¸
k=0
k(k −1)
n!
k!(n −k)!
p
k
(1 −p)
n−k
+E[X]
=
n
¸
k=2
n!
(k −2)!(n −k)!
p
k
(1 −p)
n−k
+ E[X]
= p
2
n(n −1)
n
¸
k=2
(n −2)!
(k −2)!(n −k)!
p
k−2
(1 −p)
n−k
+E[X]
= p
2
n(n −1)
n
¸
k=2

n−2
k−2

p
k−2
(1 −p)
n−k
+ E[X]
= p
2
n(n −1)(p + (1 −p))
n−2
+ E[X]
= p
2
n(n −1) +np = np

1 + (n −1)p

.
Por lo tanto
V ax[X] = E[X
2
] −

E[X]

2
= np

1 + (n −1)p

−(np)
2
= np(1 −p).
Definici´on 3.4 Dada una variable aleatoria X con varianza σ
2
, la desviaci´on t´ıpi-
ca ´o est´andar de X es igual a σ.
Este valor d´a una medida de la desviaci´on de los valores de la variable aleatoria con
respecto a su media. Cuanto menor es la desviaci´on est´andar m´as se aglutinan los
valores de la variable aleatoria en torno a la media.
El valor E[[X −E[X][] se denomina desviaci´on media absoluta.
101
Ejercicios 3.1
1. Sea X una variable aleatoria de Cauchy con par´ametro α > 0; es decir, tal que la
funci´on de densidad de X est´a dada por:
f(x) =
1
π[1 + ((x −α)
2
]
, x ∈ R.
Demuestre que X no tiene esperanza. Sugerencia: considere α = 0.
2. Sea X es una variable aleatoria con distribuci´on gamma con par´ametros (t, λ), t >
0, λ > 0; es decir, con funci´on de densidad dada por:
f(x) =

0 si x < 0
λe
−λx
(λx)
t−1
Γ(t)
si x ≥ 0
(3.3)
donde Γ(t) =


0
e
−y
y
t−1
dy. a) Demuestre que f es una densidad. b) Halle E[X] y
V ar[X].
3. Halle la esperanza, la varianza y la desviaci´on est´andar de cada una de las sigu-
ientes variables aleatorias:
i) X geom´etrica con par´ametro p ∈ (0, 1).
ii) X · b(n, p) con p ∈ (0, 1).
iii) X · {(λ), con λ > 0.
iv) X uniforma sobre [a, b].
v) X exponencial con par´ametro λ > 0.
vi) X gamma con par´ametros (t, λ).
4. Sea X =# de caras obtenido, cuando se realizan dos lanzamientos independi-
entes de una moneda insesgada (perfecta). Calcule E[X].
5. Si X es uniformemente distribuida sobre [0, 1], calcule E[e
X
].
6. Sea X =resultado de lanzar un dado perfecto. Calcule V ar[X].
7. Uno de los n´ umeros del 1 al 10 se selecciona aleatoriamente. Usted trata de adivinar
el n´ umero haciendo preguntas cuyas respuestas ser´an ”si”´o ”no”. Calcule el n´ umero
esperado de preguntas que necesitar´a hacer en cada uno de los siguientes casos:
i) Su i-´esima pregunta es: ¿es el n´ umero igual a i?
ii) Con cada pregunta usted trata de eliminar la mitad de los n´ umeros que quedan.
8. Una muestra de 3 objetos es seleccionada aleatoriamente de una caja que con-
tiene 20 objetos de los cuales 4 son defectuosos. Encuentre el n´ umero esperado de
102
objetos defectuosos en la muestra.
9. Calcule E[X] si X tiene funci´on de densidad:
i) f(x) =

cxe
−x/2
si x > 0
0 si x ≤ 0,
(3.4)
ii) f(x) =

c(1 −x
2
) si −1 < x < 1
0 si x / ∈ (−1, 1)
(3.5)
10. El tiempo de vida, en horas, de tubos electr´onicos es una variable aleatoria con
funci´on de densidad
f(x) =

c
2
xe
−cx
si x > 0
0 si x ≤ 0,
(3.6)
donde c > 0. Calcule el tiempo de vida esperado de estos tubos.
11. Sea X una variable aleatoria discreta con funci´on de masa de probabilidad p(x).
Demuestre que para cualquier funci´on a valores reales g
E

g(x)

=
¸
{x:p(x)>0}
g(x)p(x).
103
3.1. Distribuci´on Conjunta de Variables Aleato-
rias.
En muchas situaciones es necesario tomar en cuenta el comportamiento de varias
variables aleatorias al mismo tiempo. Para describir simultaneamente estas variables
es necesario definir la funci´on de distribuci´on conjunta de las mismas. Comenzamos
por considerar la funci´on de distribuci´on conjunta de dos variables aleatorias. Este
concepto se generaliza naturalmente al caso en que se tiene cualquier cantidad finita
de variables aleatorias.
Definici´on 3.5 Dadas dos variables aleatorias X e Y , se define la funci´on de dis-
tribuci´on conjunta de X e Y como
F(a, b) = P(X ≤ a, Y ≤ b); donde −∞< a, b < ∞.
Comentarios.
1. Si definimos A
n
= (X ≤ a, Y ≤ n), podemos verificar que para cada n ≥ 1
A
n−1
⊆ A
n
, por lo que
l´ım
n→∞
F(a, n) = l´ım
n→∞
P(A
n
) = P( l´ım
n→∞
A
n
) = P(X ≤ a, Y < ∞) = P(X ≤ a) = F
X
(a).
Analogamente se tiene que
l´ım
n→∞
F(n, b) = F
Y
(b);
lo que permite expresar las distribuciones de X e Y en t´erminos de la distribuci´on
conjunta.
2. El c´alculo de probabilidades puede hacerse en t´erminos de la funcion de distribuci´on
conjunta.
P(X > a, Y > b) = 1 −P((X > a, Y > b)
c
) = 1 −P((X > a)
c
∪ (Y > b)
c
)
= 1 −P((X ≤ a) ∪ (Y ≤ b))
= 1 −P(X ≤ a) −P(Y ≤ b) + P(X ≤ a, Y ≤ b)
= 1 −F
X
(a) −F
Y
(b) + F(a, b).
3. Si F(x, y) es una funci´on de distribuci´on conjunta de dos variables X e Y , las
distribuciones individuales F
X
y F
Y
se denominan distribuciones marginales.
Propiedades de la funci´on de distribuci´on conjunta.
1. F(x, y) es creciente en cualquiera de las dos variables: Sea x < x

, puesto que
(X ≤ x) ⊆ (X ≤ x

) se tiene que
F(x, y) = P(X ≤ x, Y ≤ y) ≤ P(X ≤ x

, Y ≤ y) = F(x

, y).
104
La verificaci´ on para la segunda variable es an´aloga.
2. l´ım
x→−∞
F(x, y) = l´ım
y→−∞
F(x, y) = 0.
3. l´ım
x→∞
l´ım
y→∞
F(x, y) = 1.
4. Como F es creciente en ambas variables, entonces 0 ≤ F(x, y) ≤ 1 para cada x ∈ R
y y ∈ R.
5. F es continua a la derecha en ambas variables.
Nota. Contrariamente a lo que ocurre en el caso de una variable, estas propiedades
no caracterizan a una funci´on de distribuci´on conjunta; es decir, se puede encontrar
una funci´on que satisfaga las propiedades anteriores y que no sea una funci´on de
distribuci´on conjunta. Considere por ejemplo la funci´on:
F(x, y) =

1 si x + y ≥ 0
0 si x + y < 0
(3.7)
satisface las condiciones anteriores, sin embargo si F es una funci´on de densidad
entonces
P(−1 < X ≤ 3, −1 <≤ 3) = F(3, 3) −F(3, −1) −F(−1, 3) + F(−1, −1) = −1
lo cual claramente representa una contradicci´ on. Para que una funci´on F que satisface
las condiciones anteriores sea una distribuci´on conjunta debe cumplirse que, para
a < b y c < d dados,
P(X ≤ b, Y ≤ d) −P(X ≤ b, Y ≤ c) −P(X ≤ a, Y ≤ d) + P(X ≤ a, Y ≤ c) ≥ 0.
Definici´on 3.6 Si X e Y son variables aleatorias discretas, entonces la funci´on de
probabilidad conjunta de (X, Y ) se define como
p(x, y) = P(X = x, Y = y).
En este caso las funciones de probabilidad marginales de X e Y estan dadas por
p
X
(t) = P(X = t) =
¸
{y:p(t,y)>0}
p(t, y); p
Y
(t) = P(Y = t) =
¸
{x:p(x,t)>0}
p(x, t),
respectivamente.
Ejemplos 3.4
1. Suponga que 3 bolas son seleccionadas aleatoriamente de una urna que contiene 3
bolas rojas, 4 blancas y 5 azules. Sean X =# bolas rojas e Y =# bolas blancas. En-
tonces la funci´on de probabilidad conjunta de X e Y asi como tambien las funciones
de probabilidad marginales se pueden resumir en la tabla siguiente
105
i ` j 0 1 2 3 P(X = i)
0
10
220
40
220
30
220
4
220
84
220
1
30
220
60
220
18
220
0
108
220
2
15
220
12
220
0 0
27
220
3
1
220
0 0 0
1
220
P(Y = j)
56
220
112
220
48
220
4
220
Definici´on 3.7 Se dice que las variables aleatorias X e Y son conjuntamente
continuas si existe una funci´on f : R
2
−→[0, ∞), tal que para todo (x, y) ∈ R
2
F(x, y) =

y
−∞

x
−∞
f(u, v)dudv.
En este caso diremos que F tiene densidad f.
Comentarios.
1. Es claro a partir de esta definici´on que si F tiene densidad f, entonces para cualquier
rect´angulo A = [a, b] [c, d] se cumple que
P((X, Y ) ∈ A) =

A
f(u, v)dudv =

b
a

d
c
f(u, v)dvdu.
Tambien es posible demostrar que para cualquier conjunto de Borel C ⊆ R
2
se cumple
que
P((X, Y ) ∈ C) =

C
f(u, v)dudv.
En particular dado un rect´angulo C = C
1
C
2
donde C
1
y C
2
son conjuntos de Borel,
se tiene que
P((X, Y ) ∈ C) =

C
1

C
2
f(u, v)dvdu.
2. Si X e Y son conjuntamente continuas ellas son continuas ya que para cada conjunto
de borel A
P(X ∈ A) = P(X ∈ A, Y ∈ (−∞, ∞)) =

A


−∞
f(u, v)dvdu =

A
f
X
(x)dx,
106
donde f
X
(x) =


−∞
f(u, v)dv, la cual es efectivamente una densidad, debido a que f
lo es. De manera an´aloga se tiene que f
Y
(y) =


−∞
f(u, v)du. Las funciones f
X
y f
Y
se denominan densidades marginales de X e Y respectivamente.
Ejemplos 3.5
1. Supongamos que la funci´on de densidad conjunta de X e Y est´a dada por
f(x, y) =

2e
−x−2y
si 0 < x < ∞, 0 < y < ∞
0 en otros casos
(3.8)
Entonces
i. P(X > 1, Y ≤ 1) =

1
0


1
f(x, y)dxdy =

1
0


1
2e
−x−2y
dxdy
= 2

1
0
e
−2y


1
e
−x
dx

dy = 2

1
0
e
−2y

−e
−x
[

1

dy
= 2

1
0
e
−2y

e
−1

dy = e
−1
e
−2y
[
1
0
= e
−1
(1 −e
−2
).
ii. P(X < Y ) =

{(x,y):x<y}
f(x, y)dxdy =


0
2

y
0
e
−x−2y
dxdy
=


0
2e
−2y

−e
−x
[
y
0

dy =


0
2e
−2y
(1 −e
−y
)dy
=


0
2e
−2y
dy −


0
2e
−3y
dy = −e
−2y
[

0
+
2
3
e
−3y
[

0
= 1 −
2
3
=
1
3
.
iii. P(X < a) =

a
0


0
2e
−x−2y
dydx =

a
0
e
−x
dx = −e
−x
[
a
0
= 1 −e
−a
.
2. Supongamos que la funci´on de densidad conjunta de X e Y est´a dada por
f(x, y) =

e
−(x+y)
si 0 < x < ∞, 0 < y < ∞
0 en otros casos
(3.9)
Entonces la funci´on de distribuci´on de la variable
X
Y
, para t > 0 es igual a
FX
Y
(t) = P(
X
Y
≤ t) =

{(x,y):
x
y
≤t}
e
−(x+y)
dxdy
=


0

ty
0
e
−(x+y)
dxdy = 1 −
1
1 + t
.
Diferenciando se obtiene la funci´on de densidad de
X
Y
fX
Y
(t) =
1
(1 + t)
2
, t > 0.
107
La noci´on de distribuci´on conjunta de dos variables aleatorias se generaliza de
manera natural al considerar la distribuci´on conjunta de n variables aleatorias
X
1
, X
2
, . . . , X
n
: para n´ umeros reales a
1
, a
2
, . . . , a
n
se define
F(a
1
, a
2
, . . . , a
n
) = P(X
1
≤ a
1
, X
2
≤ a
2
, . . . , X
n
≤ a
n
).
En este caso se dice que las variables aleatorias X
1
, X
2
, . . . , X
n
son conjuntamente
continuas si existe una funci´on f : R
n
−→[0, ∞), tal que para todo (x
1
, . . . , x
n
) ∈ R
n
F(x
1
, . . . , x
n
) =

x
1
−∞
. . .

x
n
−∞
f(u, v)dudv.
La funci´on f se denomina densidad conjunta de (X
1
, . . . , X
n
).
3.1.1. Esperanza de Funciones de Variables Aleatorias.
En esta secci´on consideramos una una familia finita de n variables aleatorias
X
1
, X
2
, . . . , X
n
y una funci´on g : R
n
−→ R lo suficientemente regular para que
Y = g(X
1
, X
2
, . . . , X
n
) sea una variable aleatoria.
Preliminares.
1) Esperanza de la Suma de Variables Aleatorias.
Proposici´on 3.4 Dadas variables aleatorias X e Y , la suma X +Y es una variable
aleatoria cuya esperanza es E[X+Y ] = E[X]+E[Y ], siempre que todas las esperanzas
existan.
Demostraci´on.
I) Caso Discreto. Sean X e Y variables aleatorias discretas con funci´on de proba-
bilidad p
ij
= P(X = x
i
, Y = y
j
) para i, j ≥ 0. Si se define S = X + Y , se tiene que
S es una variable aleatoria con funci´on de probabilidad
q
k
= P(S = s
k
) =
¸
{(i,j):x
i
+y
j
=s
k
}
p
ij
.
Entonces
E[S] =
¸
k
s
k
P(S = s
k
) =
¸
k
s
k
¸
{(i,j):x
i
+y
j
=s
k
}
p
ij
=
¸
k
¸
{(i,j):x
i
+y
j
=s
k
}
s
k
p
ij
=
¸
k
¸
{(i,j):x
i
+y
j
=s
k
}
(x
i
+ y
j
)p
ij
=
¸
i
¸
j
(x
i
+ y
j
)p
ij
=
¸
i
x
i
¸
j
p
ij
+
¸
j
y
j
¸
i
p
ij
=
¸
i
x
i
p
X
(i) +
¸
j
y
j
p
Y
(j) = E[X] + E[Y ].
108
II) Caso Continuo. Sean X e Y variables aleatorias conjuntamente continuas con
funci´on de densidad conjunta f, y sea S = X+Y . Entonces la funci´on de distribuci´on
de S est´a dada por
F
X+Y
(t) = P(S ≤ t) = P(X + Y ≤ t) =

{(x,y):x+y≤t}
f(x, y)dxdy
=


−∞

t−x
−∞
f(x, y)dydx.
Haciendo el cambio de variables y = z −x, se tiene que −∞< z < t por lo que

t−x
−∞
f(x, y)dy =

t
−∞
f(x, z −x)dz;
de aqui que
F
X+Y
(t) =


−∞

t
−∞
f(x, z −x)dzdx =

t
−∞


−∞
f(x, z −x)dxdz =

t
−∞
f
Z
(z)dz;
donde f
Z
(z) =


−∞
f(x, z −x)dx ya que Z = X + Y . Se tiene finalmente que
E[X + Y ] = E[Z] =


−∞
zf
Z
(z)dz =


−∞
z


−∞
f(x, z −x)dxdz
=


−∞


−∞
zf(x, z −x)dxdz.
Haciendo el cambio z = x + y se tiene que
E[X + Y ] = E[Z] =


−∞


−∞
(x + y)f(x, y)dydx
=


−∞
x


−∞
f(x, y)dydx +


−∞
y


−∞
f(x, y)dxdy
=


−∞
xf
X
(x)dx +


−∞
yf
Y
(y)dy = E[X] + E[Y ].
2) Monoton´ıa de la Esperanza.
Proposici´on 3.5 Sean Y y Z variables aleatorias tales que Y > Z, entonces E[Y ] ≥
E[Z].
Demostraci´on. Utilizando la proposici´on anterior tenemos que
E[Y ] −E[Z] = E[Y −Z] =


−∞


−∞
(y −z)f(y, z)dydz ≥ 0,
ya que y −z ≥ 0.
109
Teorema 3.1 Esperanza de una Funci´ on de Variables Aleatorias.
Sean X
1
, X
2
, . . . , X
n
variables aleatorias conjuntamente continuas con funci´on de den-
sidad dada por f : R
n
−→ R y sea g : R
n
−→ R una funci´on lo suficientemente
regular para que Y = g(X
1
, X
2
, . . . , X
n
) sea una variable aleatoria. Entonces el valor
esperado de Y se calcula mediante la f´ormula
E[Y ] =

. . .

R
n
g(x
1
, x
2
, . . . , x
n
)f(x
1
, x
2
, . . . , x
n
)dx
1
. . . dx
n
,
siempre que la integral m´ ultiple sea absolutamente convergente, es decir siempre que

. . .

R
n
[g(x
1
, x
2
, . . . , x
n
)[f(x
1
, x
2
, . . . , x
n
)dx
1
. . . dx
n
< ∞.
Demostraci´on. Paso 1. Observe que, en virtud de la proposici´on anterior, es suficiente
demostrar el teorema en el caso en que g ≥ 0, ya que si g no es no negativa se puede
escribir como una diferencia de funciones no negativas, en efecto g = g
+
−g

, donde
g
+
(x) =

g(x) si g(x) ≥ 0
0 si g(x) < 0
(3.10)
y
g

(x) =

−g(x) si g(x) ≤ 0
0 si g(x) > 0
(3.11)
son la parte positiva y la parte negativa de g respectivamente. En este caso se ten-
dr´a que, denotando X = (X
1
, . . . , X
n
) y x = (x
1
, . . . , x
n
), y usando la proposici´on
3
E[g(X)] = E[g
+
(X)] −E[g

(X)] =

R
n
g
+
(x)f(x)dx −

R
n
g

(x)f(x)dx
=

R
n

g
+
(x) −g

(x)

f(x)dx =

R
n
g(x)f(x)dx.
Paso 2. Para g ≥ 0 definamos para cada entero m ≥ 0
g
m
(x) =
k
2
m
si
k
2
m
≤ g(x) <
k + 1
2
m
, k = 0, 1, . . . .
Como g
m
(x) =
k
2
m
≤ g(x) <
k
2
m
+
1
2
m
se tiene que
g(x) −
1
2
m

k
2
m
= g
m
(x) ≤ g(x), para todo x ∈ R
n
. (3.12)
Entonces para cada ω ∈ Ω
g(X(ω)) −
1
2
m
≤ g
m
(X(ω)) ≤ g(X(ω)), para todo ω, (3.13)
110
donde X(ω) = (X
1
(ω), . . . , X
n
(ω)). Tomando esperanza en esta ´ ultima expresi´on y
utilizando la monoton´ıa de la esperanza matem´atica, tenemos que
E[g(X)] −
1
2
m
≤ E[g
m
(X)] ≤ E[g(X)], (3.14)
Multiplicando en (3.12) por f, que es no negativa, obtenemos
g(x)f(x) −
1
2
m
f(x) ≤ g
m
(x)f(x) ≤ g(x)f(x),
por lo que

R
n
g(x)f(x)dx −

R
n
1
2
m
f(x)dx ≤

R
n
g
m
(x)f(x)dx ≤

R
n
g(x)f(x)dx.
Tomando limite en m
l´ım
m→∞

R
n
g(x)f(x)dx −
1
2
m

≤ l´ım
m→∞

R
n
g
m
(x)f(x)dx ≤ l´ım
m→∞

R
n
g(x)f(x)dx.
Esto significa que
l´ım
m→∞

R
n
g
m
(x)f(x)dx =

R
n
g(x)f(x)dx;
por lo que ser´a suficiente demostrar que
E[g(X)] = l´ım
m→∞

R
n
g
m
(x)f(x)dx. (3.15)
Por otra parte, tomando limite en m en (3.14) obtenemos que
l´ım
m→∞

E[g(X)] −
1
2
m

≤ l´ım
m→∞
E[g
m
(X)] ≤ l´ım
m→∞
E[g(X)],
es implica que
E[g(X)] = l´ım
m→∞
E[g
m
(X)].
Bastar´a entonces demostrar que
E[g
m
(X)] =

R
n
g
m
(x)f(x)dx.
Paso 3. Observando que g
m
(X) es una variable aleatoria discreta, se tiene
E[g
m
(X)] =

¸
k=0
k
2
m
P

g
m
(X) =
k
2
m

=

¸
k=0
k
2
m
P

k
2
m
≤ g(X) <
k + 1
2
m

=

¸
k=0
k
2
m
P

X ∈ g
−1
([
k
2
m
,
k + 1
2
m
))

=

¸
k=0
k
2
m

g
−1
([
k
2
m
,
k+1
2
m
))
f(x)dx
=

¸
k=0

g
−1
([
k
2
m
,
k+1
2
m
))
g
m
(x)f(x)dx =

R
n
g
m
(x)f(x)dx.
111
3.1.2. Variables Aleatorias Independientes.
La independencia de variables aleatorias se define en t´erminos de la independencia
entre eventos. Recordamos que eventos E
1
y E
2
son independientes si y s´olo si P(E
1

E
2
) = P(E
1
)P(E
2
).
Definici´on 3.8 Dos variables aleatorias X e Y son independientes si y s´olo si para
conjuntos de Borel cualesquiera A ⊆ R y B ⊆ R se cumple que
P(X ∈ A, Y ∈ B) = P(X ∈ A)P(Y ∈ B).
Observe que de acuerdo a la definici´on anterior dos variables aleatorias X e Y son
independientes si y s´olo si lo son los eventos asociados a ellas: X
−1
(A) y Y
−1
(B),
donde A y B son conjuntos de Borel cualesquiera.
Ejemplos 3.6
1. Supongamos que se tienen m+n ensayos de Bernoulli independientes. Sea X =#
de ´exitos en los n primeros ensayos e Y =# de ´exitos en los ´ ultimos m ensayos. En-
tonces X e Y son independientes. Si definimos Z =# de ´exitos en los m+n ensayos
tendremos que X y Z no son independientes, asi como tampoco lo son Y y Z.
2. ( Problema del coleccionista) Un ni˜ no est´a coleccionando 10 mu˜ necos ofrecidos
en la promoci´on de un producto alimenticio de consumo masivo. Si en cada compra
del producto se puede obtener con igual probabilidad cualquiera de los mu˜ necos, ¿cu´al
es el n´ umero esperado de compras que necesita hacer el ni˜ no para completar la colec-
ci´on?
Una vez que se obtiene el primer mu˜ neco, se consideran las compras sucesivas co-
mo ensayos de Bernoulli en los que ´exito significa obtener un mu˜ neco distinto a los
anteriores. Por lo tanto definiendo X
1
=# de compras hasta obtener un mu˜ neco dis-
tinto al primero, la probabilidad de ´exito en cada compra ser´a igual a p
1
=
9
10
. Una
vez que se obtiene el segundo mu˜ neco distinto, las compras sucesivas son ensayos de
Bernoulli independientes con probabilidad de ´exito igual a p
2
=
8
10
, y si se continua
de esta forma hasta obtener todos los mu˜ necos se tendr´a que el n´ umero de compras
necesarias para completar la colecci´on es igual a X = 1 + X
1
+ X
2
+ . . . + X
9
donde
X
i
= # compras necesarias para obtener un mu˜ neco distinto a todos los ya obtenidos
siendo las X
i
’s variables aleatorias independientes geom´etricamente distribuidas con
par´ametro (probabilidad de ´exito) p
i
=
10−i
10
para i = 1, . . . , 9. En vista de esto se tiene
que
E[X] = 1 + E[X
1
] + . . . + E[X
9
] = 1 +
10
9
+
10
8
+ . . . + 10 = 29, 25.
Por lo tanto el n´ umero esperado de compras necesarias para completar la colecci´on es
29.
112
Distribuci´on Conjunta de Variables Aleatorias Independientes.
Proposici´on 3.6 Sean X e Y variables aleatorias independientes con funci´on de
distribuci´on conjunta F(a, b) = P(X ≤ a, Y ≤ b). Entonces
F(a, b) = P(X ≤ a)P(Y ≤ b) = F
X
(a)F
Y
(b), para todo par (a, b).
Si X e Y son conjutamente continuas e independientes con densidad conjunta f
entonces se cumple que f(x, y) = f
X
(x)f
Y
(y).
Ejemplos 3.7
1. Un hombre y una mujer deciden encontrarse en un lugar. Si cada uno de ellos
llega a una hora uniformemente distribuida entre las 12 m y la 1 pm, encuentre la
probabilidad de que el primero en llegar tenga que esperar m´as de 10 minutos.
Sean X =tiempo, despu´es de las 12m, que tarda el hombre en llegar y Y =tiempo,
despu´es de las 12m, que tarda la mujer en llegar. Entonces X e Y son variables
aleatorias independientes, cada una uniformemente distribuida en un intervalo de 60
minutos. Por lo tanto se quiere determinar
P([X−Y [ > 10) = P(X−Y > 10)+P(X−Y < −10) = 2

60
10

y−10
0

1
60

2
dxdy =
25
36
.
2. El Problema de la Aguja de Buffon (1777). Suponga que en una superficie se trazan
rectas paralelas de manera tal que la distancia entre dos rectas es igual a una cantidad
fija D. Una aguja de longitud L ≤ D se lanza aleatoriamente sobre la superficie. La
aguja puede o bien intersectar una de las lineas o caer entre dos de ellas. El problema
consiste en encontrar la probabilidad de que la aguja intercepte una de las lineas.
Para resolver el problema observamos que la posici´on de la aguja con respecto a las
lineas est´a completamente determinada por el ´angulo que se forma entre la aguja y
las lineas (en direcci´on positiva →) y por la distancia entre el punto medio de la
aguja y la linea m´as cercana a ella. Denotaremos estos par´ametros por θ y X respec-
tivamente. Tenemos entonces que θ y X son variables aleatorias independientes tales
que θ est´a uniformemente distribuida en [0, π] y X est´a uniformemente distribuida
en [0,
D
2
].

p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
θ
q
X
h
D
p
p
p
p
p
p
p
p
p
p
p
p
El segmento perpendicular trazado desde el punto medio de la aguja a la recta m´as
cercana a esta tiene longitud X. Consideramos el triangulo formado por este segmen-
to, la aguja y la recta. Denotando por h la longitud de la hipotenusa de este triangulo,
113
se tiene que la aguja intercepta a la recta si y solo si h ≤
L
2
. Como h =
X
sen(θ)
, la
probabilidad de que la aguja intercepte a la recta es
P

X
sen(θ)

L
2

=

X
sen(θ)

L
2
f(y, x)dydx =

X
sen(θ)

L
2
f
θ
(y)f
X
(x)dydx
=

π
0
L
2
sen(y)
0
2

dxdy =
2

π
0
L
2
sen(y)dy =
2L

.
Suma de Variables Aleatorias Independientes.
Como vimos antes si X e Y son variables aleatorias conjuntamente continuas con
densidad conjunta f y Z = X + Y se tiene que
F
X+Y
(t) =


−∞

t
−∞
f(x, z −x)dzdx =

t
−∞


−∞
f(x, z −x)dxdz =

t
−∞
f
Z
(z)dz;
donde f
Z
(z) =


−∞
f(x, z −x)dx. Si X e Y son independientes, entonces
f
Z
(z) =


−∞
f
X
(x)f
Y
(z −x)dx = f
X
∗ f
Y
(z);
donde el simbolo ∗ denota el producto de convoluci´on de f
X
y f
Y
.
La siguiente proposici´on constituye un ejemplo importante de este resultado.
Proposici´on 3.7 Sean X e Y variables aleatorias independientes con distribuci´on
gamma con par´ametros (s, λ) y (t, λ) donde s y t son enteros positivos. Entonces
Z = X + Y tiene distribuci´on gamma con par´ametros (s + t, λ).
Demostraci´on. Como X e Y son variables aleatorias independientes, para a > 0, se
tiene
f
X+Y
(a) =


−∞
f
X
(a −y)f
Y
(y)dy =
1
Γ(s)Γ(t)

a
0
λe
−λ(a−y)
(λ(a −y))
s−1
λe
−λy
(λy)
t−1
dy
=
λ
s
λ
t
Γ(s)Γ(t)

a
0
e
−λa+λy
e
−λy
(a −y)
s−1
y
t−1
dy =
λ
s
λ
t
e
−λa
Γ(s)Γ(t)

a
0
(a −y)
s−1
y
t−1
dy
=
λ
s
λ
t
e
−λa
Γ(s)Γ(t)

a
0
a
s−1
(1 −
y
a
)
s−1
y
t−1
dy.
Haciendo el cambio de variables x =
y
a
tenemos que
f
X+Y
(a) =
λ
s
λ
t
e
−λa
a
s+t−1
Γ(s)Γ(t)

1
0
(1 −x)
s−1
x
t−1
dx
= e
−λa
a
s+t−1

λ
s
λ
t
Γ(s)Γ(t)

1
0
(1 −x)
s−1
x
t−1
dx

= Ke
−λa
a
s+t−1
.
114
Como f
X+Y
es una densidad, la constante K debe satisfacer


0
Ke
−λa
a
s+t−1
da = 1 =⇒ K =
1


0
e
−λa
a
s+t−1
da
;
haciendo el cambio de variables u = λa tenemos


0
e
−λa
a
s+t−1
da =


0
e
−λa

λa

s+t−1
λ
s+t−1
da =


0
e
−u
u
s+t−1
λ
s+t−1
du
λ
=
1
λ
s+t


0
e
−u
u
s+t−1
du =
Γ(s +t)
λ
s+t
.
En consecuencia
K =
λ
s+t
Γ(s + t)
=
λ
s+t
(s + t −1)!
.
Sustituyendo K en la expresi´on que se dedujo para f
X+Y
f
X+Y
(a) = λe
−λa

λa

s+t−1
Γ(s + t)
=⇒ X + Y ∼ Γ(s +t, λ).
La siguiente proposici´on se obtiene como corolario del teorema 1.
Proposici´on 3.8 Sean X e Y variables aleatorias independientes y sean g y h fun-
ciones reales con suficiente regularidad. Entonces se cumple que
E

g(X)h(Y )

= E

g(X)

E

h(Y )

.
En particular E

XY

= E

X

E

Y

.
Demostraci´on.
1) Caso discreto. Sean X e Y discretas con funci´on de probabilidad p(x, y). Entonces
E

g(X)h(Y )

=
¸
i
¸
j
g(x
i
)h(y
j
)p(x
i
, y
j
) =
¸
i
¸
j
g(x
i
)h(y
j
)p
X
(x
i
)p
Y
(y
j
)
=
¸
i
g(x
i
)p
X
(x
i
)
¸
j
h(y
j
)p
Y
(y
j
) = E

X

E

Y

.
2) Caso continuo. Supongamos que X e Y son variables aleatorias conjuntamente
continuas con densidad conjunta f(x, y). Se tiene que
E

g(X)h(Y )

=


−∞


−∞
g(x)h(y)f(x, y)dxdy =


−∞


−∞
g(x)h(y)f
X
(x)f
Y
(y)dxdy
=


−∞
g(x)f
X
(x)dx


−∞
h(y)f
Y
(y)dy = E

g(X)

E

h(Y )

.
115
Definici´on 3.9 Sean X e Y variables aleatorias dadas. La covarianza entre X e
Y , denotada Cov

X, Y

, se define como
Cov

X, Y

= E

(X −E[X])(Y −E[Y ])

.
Una forma equivalente de esta definici´on se obtiene mediante el siguiente c´alculo
Cov

X, Y

= E

(X −E[X])(Y −E[Y ])

= E

XY −XE[Y ] −E[X]Y +E[X]E[Y ])

= E

XY

−2E[X]E[Y ] + E[X]E[Y ] = E

XY

−E[X]E[Y ].
De esta expresi´on se observa que si X e Y son independientes entonces Cov

X, Y

= 0.
El reciproco de esta propiedad no es en general cierto.
Ejemplos 3.8
1. Sea X una variable aleatoria con funci´on de probabilidad
P(X = 0) = P(X = 1) = P(X = −1) =
1
3
.
Sea Y la variable aleatoria definida como
Y =

0 si X = 0
1 si X = 0.
Entonces XY = 0 por lo que E[XY ] = 0; adem´as E[X] =
−1
3
+
1
3
+0
1
3
= 0 por lo que
Cov

X, Y

= 0. Sin embargo, X e Y no son independientes ya que:
P(X = 0, Y = 0) = 0 = P(X = 0)P(Y = 0) =
1
3

2
3
.
La noci´on de covarianza permite obtener una expresi´on para la varianza de la
suma de variables aleatorias:
V ar

X +Y

= E

X + Y −E[X + Y ]

2

= E

X −E[X] + Y −E[Y ]

2

= E

X −E[X]

2
+

Y −E[Y ]

2
+ 2

X −E[X]

Y −E[Y ]

= V ar[X] + V ar[Y ] + 2Cov[X, Y ].
Inductivamente puede verificarse que para variables aleatorias X
1
, X
2
, . . . , X
n
V ar

n
¸
i=1
X
i

=
n
¸
i=1
V ar[X
i
] + 2
¸¸
i<j
Cov[X
i
, X
j
].
De estas expresiones se observa que, para variables aleatorias independientes la
varianza de la suma es la suma de las varianzas:
V ar

n
¸
i=1
X
i

=
n
¸
i=1
V ar[X
i
].
116
Definici´on 3.10 Dadas dos variables aleatorias X e Y el coeficiente de cor-
relaci´on ´o correlaci´on de X e Y , denotado por ρ(X, Y ), se define como
ρ(X, Y ) =
Cov[X, Y ]

V ar[X]V ar[Y ]
siempre que V ar[X] = 0 y V ar[Y ] = 0.
Proposici´on 3.9 Dadas variables aleatorias X e Y , se cumple que
−1 ≤ ρ(X, Y ) ≤ 1.
Demostraci´on. Sean σ
2
X
= V ar[X] y σ
2
Y
= V ar[Y ], entonces
0 ≤ V ar

X
σ
X
+
Y
σ
Y

=
V ar[X]
σ
2
X
+
V ar[Y ]
σ
2
Y
+ 2
Cov[X, Y ]
σ
X
σ
Y
= 1 + 1 + 2ρ(X, Y );
por lo tanto ρ(X, Y ) ≥ −1. Por otra parte
0 ≤ V ar

X
σ
X

Y
σ
Y

=
V ar[X]
σ
2
X
+
V ar[Y ]
σ
2
Y
−2
Cov[X, Y ]
σ
X
σ
Y
= 1 + 1 −2ρ(X, Y );
de donde ρ(X, Y ) ≤ 1.
3.1.3. Funciones de Varias Variables Aleatorias.
El Teorema de la funci´on inversa. Preliminares.
Sea S ⊆ R
n
abierto y g : S −→ R
n
; g = (g
1
, g
2
, . . . , g
n
). Diremos que g ∈ C
1
si
todas las componentes de g tienen derivadas parciales continuas; es decir, para cada
i ∈ ¦1, . . . , n¦,
δg
δx
j
existe y es continua para j ∈ ¦1, . . . , n¦.
Si x = (x
1
, x
2
, . . . , x
n
), se define la matriz jacobiana de g en x, como la matriz
n n
D
g
(x) =

δg
δx
j
(x)

n×n
=

¸
¸
¸
¸
¸
¸
δg
1
δx
1
(x)
δg
1
δx
2
(x) . . .
δg
1
δx
n
(x)
δg
2
δx
1
(x)
δg
2
δx
2
(x) . . .
δg
2
δx
n
(x)
.
.
.
.
.
.
.
.
.
.
.
.
δg
n
δx
1
(x)
δg
n
δx
2
(x) . . .
δg
n
δx
n
(x)
¸

n×n
(3.16)
El determinante de la matriz jacobiana se denomina determinante jacobiano de g (o
simplemente jacobiano de g y se denota por
J
g
(x) =
δg
1
δx
1
δg
1
δx
2
. . .
δg
1
δx
n
δg
2
δx
1
δg
2
δx
2
. . .
δg
2
δx
n
.
.
.
.
.
.
.
.
.
.
.
.
δg
n
δx
1
δg
n
δx
2
. . .
δg
n
δx
n
(3.17)
117
Ejemplos 3.9
Sea g : R
2
−→ R
2
definida por g(x, y) = (e
x+2y
, sen(y + 2x)). El jacobiano de g
en el punto (
π
2
, 0) es el determinante
J
g
(
π
2
, 0) =
e
π
2
2e
π
2
2cos(π) cos(π)
= 3e
π
2
(3.18)
Teorema 3.2 (de la funci´on inversa) Sea S ⊆ R
n
abierto y g : S −→ R
n
; g =
(g
1
, g
2
, . . . , g
n
) ∈ C
1
y sea T = g(S). Si a ∈ S es un punto tal que el determinante
jacobiano de g en a es no nulo (J
g
(a) = 0), entonces existen conjuntos abiertos U ⊆ S
y V ⊆ T y una funci´on h univocamente determinada tales que
i) a ∈ U y g(a) ∈ V .
ii) g(U) = V .
iii) g es inyectiva en U.
iv) h esta definida en V , h(V ) = U y h(g(x)) = x para todo x ∈ U.
v) h ∈ C
1
en V .
Teorema 3.3 (de cambio de variables) Sea V ⊆ R
n
abierto y sea h : V ⊆ R
n
−→R
n
tal que
i) h ∈ C
1
en U.
ii) h es inyectiva en V .
iii) El determinante jacobiano J
h
(y) = 0 para todo y ∈ V .
Sea adem´as f : h(V ) ⊆ R
n
−→R una funci´on tal que existe

h(V )
f(x
1
, x
2
, . . . , x
n
)dx
1
dx
2
. . . x
n
=

h(V )
f(x)dx.
Entonces

h(V )
f(x)dx =

V
f(h(y))[J
h
(y)[dy =

V
f(h(y
1
, . . . , y
n
)[J
h
(y
1
, . . . , y
n
)[dy
1
. . . dy
n
.
Una aplicaci´on directa de estos teoremas se tiene en la siguiente situaci´on.
Sean X
1
, X
2
, . . . , X
n
variables aleatorias conjuntamente continuas con funci´on de
densidad f : R
n
−→ R y sea g : R
n
−→ R
n
una funci´on en C
1
que satisface las
condiciones del teorema de la funci´on inversa sobre U ⊆ R
n
, donde U es tal que
f[
U
c ≡ 0. Definamos
Y = g(X
1
, X
2
, . . . , X
n
) = g(X) = (g
1
(X
1
, X
2
, . . . , X
n
), . . . , g
n
(X
1
, X
2
, . . . , X
n
)),
118
y sea h : V −→ U la inversa local de g (dada por el teorema de la funci´on inversa).
La variable aleatoria Y puede interpretarse como un cambio de coordenadas aplicado
a X y podemos obtener su funci´on de densidad en vista de que
P(Y ∈ V ) = P(g(X) ∈ V ) = P(X ∈ h(V )) =

h(V )
f(x)dx =

V
f(h(y))[J
h
(y)[dy.
Por lo tanto
f
Y
(y
1
, . . . , y
n
)) =

f(h
1
(y
1
, . . . , y
n
), . . . , h
n
(y
1
, . . . , y
n
))[J
h
(y
1
, . . . , y
n
)[ si Y ∈ V
0 si Y / ∈ V
(3.19)
Ejemplos 3.10 ´
1. Sean X
1
, X
2
variables aleatorias conjuntamente continuas con densidad conjunta
f
X
1
,X
2
. Sean Y
1
= X
1
+ X
2
y Y
2
= X
1
− X
2
. Para obtener la densidad conjunta de
(Y
1
, Y
2
) procedemos como sigue. Sean
y
1
= g
1
(x
1
, x
2
) = x
1
+ x
2
y y
2
= g
2
(x
1
, x
2
) = x
1
−x
2
.
Entonces
y
1
+ y
2
= x
1
+ x
2
+ x
1
−x
2
= 2x
1
=⇒ x
1
=
y
1
+ y
2
2
= h
1
(y
1
, y
2
) y
y
1
−y
2
= x
1
+ x
2
−x
1
+ x
2
= 2x
2
=⇒ x
2
=
y
1
−y
2
2
= h
2
(y
1
, y
2
).
Adem´as tenemos que
J
h
(y
1
, y
2
) =

J
g
(x
1
, x
2
)

−1
=
δg
1
δx
1
δg
1
δx
2
δg
2
δx
1
δg
2
δx
2
−1
=
1 1
1 −1
−1
=
−1
2
. (3.20)
Por lo tanto
f
Y
1
,Y
2
(y
1
, y
2
)) =

1
2
f
X
1
,X
2

y
1
+y
2
2
,
y
1
−y
2
2

si y
1
= g
1
(x
1
, x
2
) y y
2
= g
2
(x
1
, x
2
)
0 en otro caso
(3.21)
En particular si X
1
y X
2
son independientes y ambas uniformemente distribuidas
sobre (0, 1), tendremos que
f
Y
1
,Y
2
(y
1
, y
2
)) =

1
2
si 0 <
y
1
+y
2
2
< 1 y 0 <
y
1
−y
2
2
< 1
0 en otro caso
=

1
2
si 0 < y
1
+ y
2
< 2 y 0 < y
1
−y
2
< 2
0 en otro caso
119
Si X
1
y X
2
son independientes con densidad exponencial con par´ametros λ
1
y λ
2
respectivamente, entonces
f
Y
1
,Y
2
(y
1
, y
2
)) =

λ
1
λ
2
2
e
λ
1
2
(y
1
+y
2
)
e
λ
2
2
(y
1
−y
2
)
si 0 < y
1
+ y
2
y 0 < y
1
−y
2
0 en otro caso
(3.22)
2. Sean X e Y variables aleatorias independientes, cada una con distribuci´on gamma
con par´ametros (α, λ) y (β, λ) respectivamente. Hallaremos la densidad conjunta de
U y V cuando U = X +Y y V =
X
X+Y
.
Tenemos que
u = g
1
(x, y) = x + y y v = g
2
(x, y) =
x
x +y
;
por lo tanto
x = u v = h
1
(u, v) y y = u −x = u −u v = u(1 −v) = h
2
(u, v).
Por otra parte tenemos que
J
h
(u, v) =

J
g
(x, y)

−1
=
δg
1
δx
δg
1
δy
δg
2
δx
δg
2
δy
−1
=
1 1
(x+y)−x
(x+y)
2
0−x
(x+y)
2
−1
=
1 1
y
(x+y)
2
x
(x+y)
2
−1
=

−(x + y)
(x + y)
2

−1
= −(x + y) = −u.
Entonces
f
U,V
(u, v)) =

f
X,Y
(uv, u(1 −v))u si 0 < v < 1 y 0 ≤ u
0 en otro caso
=

λe
−λuv
(λuv)
α−1
Γ(α)

λe
−λu(1−v)
(λu(1−v))
β−1
Γ(β)
u si 0 < v < 1 y 0 ≤ u
0 en otro caso
=

λe
−λu
(λuv)
α+β−1
Γ(α+β)

v
α−1
(1−v))
β−1
Γ(α+β)
Γ(α)Γ(β)
u si 0 < v < 1 y 0 ≤ u
0 en otro caso.
120
Ejercicios 3.2
1. Un grupo de N hombres lanza sus sombreros en el centro de un sal´on. Los sombreros
se mezclan y cada hombre selecciona uno al azar. a) Encuentre el n´ umero esperado
de hombres que selecciona su propio sombrero. b) Calcule la varianza del n´ umero
de hombres que selecciona su sombrero.Sugerencia: considere las variables aleatorias
definidas como:
X
i
=

1 si el i-´esimo hombre selecciona su sombrero
0 si no
(3.23)
para i = 1, . . . , N.
2. Binomial Negativa. Si se realizan ensayos independientes de Bernoulli, con proba-
bilidad p de ´exito, determine el n´ umero esperado de ensayos requeridos para obtener
r ´exitos. Sugerencia: considere las variables aleatorias siguientes:
X
1
= # de ensayos para primer ´exito;
X
2
= # de ensayos, despu´es del primer ´exito, para el segundo ´exito; . . .
X
i
=# de ensayos, despu´es del ´exito i −1, para obtener el i-´esimo ´exito.
3. Si X e Y son id´enticamente distribuidas, no necesariamente independientes, de-
muestre que Cov[X + Y, X −Y ] = 0.
4. Si E[X] = 1 y V ar[X] = 5 encuentre: a) E[(X + 2)
2
]. b) V ar[4 + 3X].
Sugerencia: Demuestre que V ar[aX + b] = a
2
V ar[X].
5. Sea X una variable aleatoria binomial negativa (ver ejercicio anterior). Halle
V ar[X].
6. Demuestre que: a) Cov[a + bX, c + dY ] = bdCov[X, Y ].
b) Cov[X +Y, Z] = Cov[X, Z] + Cov[Y, Z].
c) Cov[
¸
n
i=1
X
i
,
¸
m
j=1
Y
j
] =
¸
n
i=1
¸
m
j=1
Cov[X
i
, Y
j
].
7. Sean X =# de veces que aparece 1 en n lanzamientos de un dado sim´etrico y
Y =# de veces que aparece 2 en n lanzamientos de un dado sim´etrico. Halle la
Cov[X, Y ]. Use la parte c) del ejercicio anterior.
8. Sean X
1
, X
2
, . . . , X
n
variables aleatorias independientes e id´enticamente distribuidas
con media µ y varianza σ
2
. Sea
¯
X =
1
n
¸
n
i=1
X
i
. Demuestre que: a) E[
¯
X] = µ.
b) V ar[
¯
X] = σ
2
/n. c) E[
¸
n
i=1
(X
i

¯
X)
2
] = (n −1)σ
2
.
121
9. Sea Y = a + bX. Demuestre que
ρ(X, Y )) =

1 si b > 0
−1 si b < 0
(3.24)
10. Demuestre la desigualdad de Cauchy-Schwartz: (E[XY ])
2
≤ E[X
2
]E[Y
2
].
Sugerencia: Para cada t ∈ R considere E[(tX + Y )
2
] ≥ 0. Obtenga una ecuaci´on
cuadr´atica en t con a lo sumo una raiz real. Esto implica que el discriminante de esta
ecuaci´on es menor ´o igual a cero.
11. Verifique que Cov[X, Y ] = 1/8 si (X, Y ) son variables aleatorias con densidad
conjunta
f(x, y) =

2e
−2x
x
si 0 < x < ∞, 0 ≤ y ≤ x
0 en otros casos
(3.25)
12. La funci´on de densidad conjunta de X e Y est´a dada por f(x, y) =
1
y
e
−(y+
x
y
)
si
x > 0 e y > 0. a) Encuentre E[X] y E[Y ]. b) Demuestre que Cov[X, Y ] = 1.
13. Sean X
1
, X
2
, X
3
, X
4
variables aleatorias no correlacionadas, es decir ρ(X
i
, X
j
) = 0
para i = j. Suponga que todas estas variables tienen esperanza cero y varianza uno.
Calcule las correlaciones de: a) X
1
+X
2
y X
2
+ X
3
. b) X
1
+ X
2
y X
3
+ X
4
.
14. Halle la convoluci´on f ∗ g en cada uno de los casos siguientes:
a) f(x) =

1 si x ∈ [1, 2]
0 en otros casos
(3.26)
g(x) =

1 si x ∈ [−2, −1]
0 en otros casos
(3.27)
b) f(x) = g(x) =

1 si x ≥ 0
0 si x < 0
(3.28)
¿Qu´e representan las convoluciones anteriores probabilisticamente?
15. Sean X e Y variables aleatorias binomiales con par´ametros (n, p) y (m, p)
respectivamente. Asuma que X e Y son independientes y calcule analiticamente la
distribuci´on de X + Y .
16. Use el ejercicio anterior y un razonamiento intuitivo para demostrar que

m+n
k

=
k
¸
i=0

n
i

m
k−i

donde k ≤ n y k ≤ m.
122
17. Sean X
1
, X
2
, . . . , X
n
variables aleatorias independientes todas ellas exponencial-
mente distribuidas con par´ametro λ. Halle la distribuci´on de X
1
+ X
2
+ . . . + X
n
.
Sugerencia: Observe la relaci´on entre las variables gamma y exponencial.
18. Sean X
1
y X
2
variables aleatorias independientes con distribuci´on de Poisson
con par´ametros λ
1
y λ
2
respectivamente. Demuestre que X
1
+ X
2
tiene distribuci´on
de Poisson con par´ametro λ
1
+ λ
2
.
19. Si X est´a uniformemente distribuida sobre (0, 1) y Y est´a exponencialmente
distribuida con par´ametro λ = 1, encuentre la distribuci´on de a) Z = X + Y , b)
Z = X/Y . Asuma independencia.
20. Si X e Y son variables aleatorias independientes ambas uniformemente dis-
tribuidas sobre (0, 1), encuentre la funci´on de densidad conjunta de R =

X
2
+ Y
2
y θ = tan
−1
(Y/X).
21. Si X e Y tienen funci´on de densidad conjunta
f(x, y) =
1
x
2
y
2
para x ≥ 1, y ≥ 1 ,
a) Calcule la funci´on de densidad conjunta de U = XY , V = X/Y . b) Halle las
densidades marginales.
22. Sean X e Y variables aleatorias independientes e id´enticamente distribuidas con
distribuci´on uniforme sobre (0, 1). Calcule la funci´on de densidad conjunta de: a)
U = X + Y , V = X/Y . b) U = X, V = X/Y . c) U = X + Y , V = X/(X + Y ).
23. Repita el ejercicio anterior en el caso en que X e Y tienen distribuci´on expo-
nencial con par´ametro λ = 1.
24. Sean X
1
y X
2
variables aleatorias independientes e id´enticamente distribuidas
con distribuci´on exponencial con par´ametro λ. Encuentre la funci´on de densidad con-
junta de Y
1
= X
1
+ X
2
y Y
2
= e
X
1
.
25. Sean X, Y y Z variables aleatorias independientes con id´entica funci´on de den-
sidad dada por f(x) = e
−x
, 0 < x < ∞. Calcule la funci´on de densidad conjunta de
U = X + Y, V = X + Z y W = Y + Z.
26. Suponga que 15 % de las familias en una comunidad no tienen hijos, 20 % tienen
un hijo, 35 % tienen 2 hijos y 30 % tienen 3 hijos. Suponga adem´as que en cada fa-
milia cada ni˜ no es con igual probabilidad, e independientemente, hembra o var´on. Si
se escoge una familia al azar y se definen H =# de hembras V =# de varones. Haga
123
una tabla que muestre la funci´on de masa de probabilidad conjunta para (H, V ) y las
funciones de masa de probabilidad marginales.
27. En una comunidad las familias adquieren s´olo dos tipos de mascota: perros y
gatos. Cada mascota(perro ´o gato) es adquirida independientemente y con la misma
probabilidad. Se sabe que un 40 % de las familias no tiene mascota, 30 % tiene 1 mas-
cota, 20 % tiene 2 mascotas y 10 % tiene 3 mascotas. Si C =# de perros y G =# de
gatos en una familia; halle la funci´on de probabilidad conjunta de (C, G) y calcule el
n´ umero esperado de perros.
28. Se lanzan dos dados perfectos y distintos. Sea X =# de dados que caen en un
n´ umero impar y Y = suma de los dados. (i) Halle la funci´on de probabilidad conjunta
de (X, Y ). (ii) Halle la probabilidad condicional de X dado que Y = 2.
29. Se lanzan dos dados perfectos, uno rojo y uno verde. Sean X =resultado del
dado rojo y Y =menor de los resultados. (i) Halle la funci´on de probabilidad conjun-
ta de (X, Y ). (ii) Halle la funci´on de probabilidad conjunta de X dado que Y = y.
(iii) Calcule V ar[Y ].
30. Dos dados sim´etricos son lanzados. Sean X =menor valor obtenido y Y =mayor
valor obtenido. (i) Halle la funci´on de probabilidad conjunta de (X, Y ). (ii) Halle
V ar[Y ].
31. Considere un grupo de cartas que consiste en J, Q, K y A de las cuatro pintas.
Se reparte una mano de 2 cartas. Sean X =# de diamantes y Y =# de corazones.
Obtebga la funci´on de probabilidad conjunta de (X, Y ) y calcule V ar[X].
32. Considere un circulo de radio R y suponga que un punto del circulo se escoge
aleatoriamente de manera tal que todas las regiones dentro del circulo tienen igual
probabilidad de contener el punto. Es decir, que el punto est´a uniformemente distribui-
do dentro del circulo. Suponga que el centro del circulo es el origen de coordenadas
y defina X e Y como las coordenadas del punto. Entonces la funci´on de densidad
conjunta est´a dada por
f(x, y) =

c si x
2
+ y
2
≤ R
2
0 si x
2
+ y
2
> R
2
(3.29)
donde c > 0. a) Determine el valor de c. b) Encuentre las funciones de densidad
marginales de X y Y. c) Calcule la probabilidad de que la distancia entre el punto y
el origen no sea mayor que A.
33. Un grupo de 5 transistores contiene 2 defectuosos. Se prueban los transistores,
uno a la vez, hasta encontrar los defectuosos. Sean N
1
=# de pruebas realizadas
124
hasta que el primer defectuoso es encontrado y N
2
=# de pruebas adicionales real-
izadas hasta que el segundo defectuoso es encontrado. Encuentre la funci´on de masa
de probabilidad conjunta de (N
1
, N
2
). Haga una tabla.
34. La funci´on de densidad de probabilidad conjunta de X y Y est´a dada por:
f(x, y) = c(y
2
−x
2
)e
−y
, −y ≤ x ≤ y, 0 < y < ∞.
a) Encuentre el valor de c. b) Encuentre las densidades marginales de X y Y .
35. La funci´on de probabilidad conjunta de X e Y est´a dada por
f(x, y) = e
−(x+y)
, 0 ≤ x < ∞, 0 ≤ y < ∞.
a) Encuentre P(X < Y ); b) P(X < a); c) Halle la funci´on de densidad de Z =
X
Y
.
36. Se estima que 45 % de los clientes que entran a una tienda de televisores com-
prar´a un televisor normal, 15 % comprar´a un televisor con reproductor de video in-
corporado y 40 % no comprar´a nada. Si 5 clientes entran hoy, ¿cu´al es la probabilidad
de que se vendan exactamente 2 televisores normales y 1 con video incorporado?
125
3.1.4. Distribuci´on Condicional de Variables Aleatorias.
I) Caso Discreto.
Definici´on 3.11 Sean X e Y variables aleatorias discretas con funciones de probabil-
idad p
X
y p
Y
respectivamente. Se define la funci´on de probabilidad condicional
de X dado que Y = y como
p
X|Y
(x[y) = P(X = x[Y = y) =
P(X = x, Y = y)
P(Y = y)
=
p(x, y)
p
Y
(y)
; siempre que p
Y
(y) > 0.
La funci´on de probabilidad condicional de Y dado que X = x se define de
manera an´aloga.
Definici´on 3.12 Sean X e Y variables aleatorias discretas con funciones de proba-
bilidad p
X
y p
Y
respectivamente. Se define la funci´on de distribuci´on de proba-
bilidad condicional de X dado que Y = y como
F
X|Y
(x[y) = P(X ≤ x[Y = y) =
¸
s≤x
p
X|Y
(s[y) =
¸
s≤x
P(X = s[Y = y).
Ejemplos 3.11
1. Sean X e Y variables aleatorias con funci´on de probabilidad conjunta p(x, y) defini-
da como
p(0, 0) = 0,4; p(0, 1) = 0,2; p(1, 0) = 0,1; p(1, 1) = 0,3.
La funci´on de masa de probabilidad condicional de X dado que Y = 1 est´a dada por
p
X|Y
(x[1) =
p(x, 1)
p
Y
(1)
; para x = 0, 1.
En este caso
p
Y
(1) = p(0, 1) + p(1, 1) = 0,5;
por lo que
p
X|Y
(0[1) =
p(0, 1)
p
Y
(1)
=
2
5
y p
X|Y
(1[1) =
p(1, 1)
p
Y
(1)
=
3
5
.
2) Caso Continuo.
Definici´on 3.13 Sean X e Y variables aleatorias conjuntamente continuas con fun-
ci´on de densidad conjunta f(x, y). Entonces la funci´on de densidad de proba-
bilidad condicional de X dado que Y = y, est´a dada por
f
X|Y
(x[y) =
f(x, y)
f
Y
(y)
, siempre que f
Y
(y) = 0.
126
Definici´on 3.14 Sean X e Y variables aleatorias conjuntamente continuas con fun-
ci´on de densidad conjunta f(x, y). Entonces la funci´on de distribuci´on condi-
cional de X dado que Y = y, se define como
F
X|Y
(a[y) = P(X ≤ a[Y = y) =

a
−∞
f
X|Y
(s[y)ds.
Para un conjunto de Borel A dado tendremos que
P(X ∈ A[Y = y) =

A
f
X|Y
(s[y)ds.
Comentario. La expresi´on P(X ≤ a[Y = y) tiene sentido s´olo como notaci´on, ya
que en el caso continuo P(Y = y) = 0. Sin embargo para en la definici´on anterior
s´olo se requiere que f
Y
(y) = 0.
Ejemplos 3.12
1. La densidad conjunta de X e Y est´a dada por
f(x, y)) =

12
5
x(2 −x −y) si 0 < x < 1 y 0 < y < 1
0 en otro caso
Se tiene entonces que la densidad marginal de Y es igual a
f
Y
=

1
0
12
5
x(2 −x −y)dx =
12
5
(4 −3y)
6
.
Por lo tanto
f
X|Y
(x[y) =
12
5
x(2 −x −y)
12
5
4−3y
6
=
6x(2 −x −y)
4 −3y
.
Valores Esperados Condicionales.
En el caso de variables aleatorias conjuntamente discretas X e Y , la funci´on de
probabilidad conjunta p
X|Y
(x[y) es, para cada valor fijo y de Y , una funci´on de prob-
abilidad (verif´ıquelo!). De manera an´aloga en el caso continuo la funci´on de densidad
condicional f
X|Y
(x[y) de dos variables aleatorias conjuntamente continuas X e Y , es
una funci´on de densidad para y fijo. En ambos casos, esto puede verificarse usando
las definiciones correspondientes. Tiene entonces sentido definir la esperanza condi-
cional de X dado que Y = y como la esperanza de X con respecto a p
X|Y
(x[y)
´o f
X|Y
(x[y), seg´ un sea el caso. Tenemos entonces que, en el caso discreto
E[X[Y = y] =
¸
x
xp
X|Y
(x[y).
127
Mientras que en el caso continuo
E[X[Y = y] =


−∞
xf
X|Y
(x[y)dx.
Ejemplos 3.13
1. Sean X e Y variables aleatorias conjuntamente continuas con densidad conjun-
ta
f(x, y) =

1
y
e

x
y
e
−y
si 0 < x < ∞, 0 < y < ∞
0 en otros casos
(3.30)
Hemos visto que
f
X|Y
(x[y) =
e

x
y
y
, si 0 < x < ∞, 0 < y < ∞ .
Entonces, para cada y fijo se tiene
E[X[Y = y] =


0
x
e

x
y
y
dx = y


0
ue
−u
du = y.
Comentario. Note que la esperanza condicional, con respecto a Y es una funci´on de
los valores de Y .
Proposici´on 3.10 Dadas variables aleatorias X e Y , E[X] = E

E[X[Y ]

.
Demostraci´on
a) Sean X e Y variables aleatorias discretas, con funciones de probabilidad
p
X
(n) = P(X = x
n
) y p
Y
(n) = P(Y = y
n
)
respectivamente. Entonces
E

E[X[Y ]

=
¸
n≥1
E[X[Y = y
n
]p
Y
(n) =
¸
n≥1
¸
m≥1
x
m
p(m, n)
p
Y
(n)
p
Y
(n)
=
¸
m≥1
x
m
¸
n≥1
p(m, n) =
¸
m≥1
x
m
p
X
(m) = E[X].
b) Sean X e Y variables aleatorias conjuntamente continuas con funci´on de densidad
conjunta f(x, y). Entonces
E

E[X[Y ]

=


−∞
E[X[Y = y]f
Y
(y)dy =


−∞


−∞
xf
X|Y
(x[y)dx

f
Y
(y)dy
=


−∞


−∞
x
f(x, y)
f
Y
(y)
dx

f
Y
(y)dy =


−∞
x


−∞
f(x, y)dydx
=


−∞
xf
X
(x)dx = E[X].
128
Ejercicios 3.3
1. Se escoge un n´ umero X aleatoriamente de el conjunto A = ¦1, 2, 3, 4, 5¦. Luego
se escoge un n´ umero Y del subconjunto de A de n´ umeros no mayores que X.
i) Halle la funci´on de probabilidad conjunta de X e Y . ii) Halle la funci´on de
probabilidad condicional de X dado que Y = i, i = 1, . . . , 5.
iii) Diga si X e Y son independientes y porqu´e.
2. Sea U una variable aleatoria uniformemente distribuida sobre (0, 1). Calcule la
distribuci´on condicional de U dado que: a) U > a; b)U < a; donde 0 < a < 1.
3. La densidad de probabilidad conjunta de X y Y est´a dada por
f(x, y) =
6
7
(x
2
+
xy
2
), 0 < x < 1, 0 < y < 2.
i) Encuentre P(Y >
1
2
[X <
1
2
). ii) Halle P(X > Y ).
iii) Calcule la funci´on de densidad de X.
4. Se lanzan dos dados perfectos y distinguibles. Sea X =el mayor valor obtenido
y sea Y =el menor valor obtenido. Halle la funci´on de probabilidad condicional de Y
dado que X = i, i = 1, 2, . . . , 6. Diga si las variables aleatorias son independientes.
Justifique su respuesta.
5. La funci´on de probabilidad conjunta de X e Y est´a dada por:
p(1, 1) =
1
8
; p(1, 2) =
1
4
; p(2, 1) =
1
8
; p(2, 2) =
1
2
.
Halle la funci´on de probabilidad de X dado que Y = i para i = 1, 2.
6. La funci´on de densidad conjunta de X e Y est´a dada por
f(x, y) = xe
−x(y+1)
, x > 0, y > 0.
i) Encuentre la densidad condicional de X dado que Y = y y la densidad condicional
de Y dado que X = x.
ii) Encuentre la funci´on de densidad de Z = XY .
7. La funci´on de densidad conjunta de X e Y est´a dada por
f(x, y) = c(y
2
−x
2
)e
−y
, −y ≤ x ≤ y, 0 < y < ∞.
Encuentre la distribuci´on condicional de X dado que Y = y.
129
8. Un dado perfecto es lanzado sucesivamente. Sean X =# lanzamientos para obtener
un 6 e Y =# lanzamientos para obtener un 5. Encuentre (a) E[X]; (b) E[X[Y = 1];
y (c) E[X[Y = 5].
9. Una urna contiene 4 bolas blancas y 6 negras. Se sacan, sin reemplazamiento,
3 bolas; y luego, tambi´en sin reemplazamiento 5 bolas. Sean X =# bolas blancas en
las primeras 3 extracciones e Y =# bolas blancas en las ´ ultimas 5 extracciones. Halle
E[X[Y = i], para i = 1, 2, 3, 4.
10. La densidad conjunta de X e Y est´a dada por
f(x, y) =
e
−x
y
e
−y
y
, 0 < x < ∞; 0 < y < ∞.
Calcule E[X
2
[Y = y].
11. La densidad conjunta de X e Y est´a dada por
f(x, y) =
e
−y
y
, 0 < x < y; 0 < y < ∞.
Calcule E[X
3
[Y = y].
130
Cap´ıtulo 4
Teoremas Limite
4.1. Funci´on Generadora de Momentos.
Sea X una variable aleatoria que toma s´olo valores enteros no negativos y sea
a
j
= P(X = j), para j ≥ 0,
su funci´on de probabilidad. Sabemos que la funci´on de probabilidad proporciona la
informaci´on probabilistica acerca de la variable aleatoria. Estudiaremos una forma
muy ´ util de condensar esta informaci´on.
Para una variable ficticia z ∈ R consideremos la serie de potencias en z
g(z) = a
0
+ a
1
z + a
2
z
2
+. . . =

¸
i=0
a
i
z
i
.
Como
¸

i=0
a
i
= 1 tenemos que
[g(z)[ ≤

¸
i=0
[a
i
[[z
i
[ ≤ 1 siempre que [z[ ≤ 1;
por lo que la serie de potencias g(z) converge siempre que [z[ ≤ 1. Esto implica que
para [z[ ≤ 1 la serie g(z) puede ser diferenciada ”t´ermino a t´ermino”. Evaluando g(z)
y sus sucesivas derivadas en z = 0 se obtiene
g(0) = a
0
g

(z) = a
1
+ 2a
2
z + 3a
3
z
2
+ . . . =⇒ g

(0) = a
1
g

(z) = 2a
2
+ 3 2a
3
z + 4 3a
4
z
2
. . . =⇒ g

(0) = 2a
2
g

(z) = 3 2a
3
+ 4 3 a
4
z . . . =⇒ g

(0) = 3 2a
3
.
.
.
g
(n)
(z) = n!a
n
+ n!(n + 1)a
n+1
z + n!(n + 1)(n + 2)z
2
+ . . . =⇒ g
(n)
(0) = n!a
n
. . .
131
132
Por lo tanto, a partir de la funci´on g se puede obtener la funci´on de probabilidad
de X evaluando en 0 las sucesivas derivadas de g; esto significa que la funci´on g en
cierto modo caracteriza la funci´on de distribuci´on de X.
Definici´on 4.1 Dada una variable aleatoria X cuyos valores son enteros no nega-
tivos, se define la funci´on generadora de momentos ´o funci´on generatriz de
X como la serie de potencias
g(z) =

¸
i=0
a
i
z
i
.
Definici´on 4.2 Dada una variable aleatoria X y un entero k > 0, la esperanza E[X
k
]
se denomina momento de orden k ´o k-´esimo momento de X. Asi mismo la
esperanza E[(X −E[X])
k
] se denomina momento centrado de orden k de X.
Si evaluamos las derivadas de g(z) en z = 1 tenemos que
g

(z) = a
1
+ 2a
2
z + 3a
3
z
2
+ . . . =⇒ g

(1) =

¸
i=1
ia
i
= E[X]
g

(1) =

¸
i=0
i(i −1)a
i
=

¸
i=0
i
2
a
i


¸
i=0
ia
i
= E[X
2
] −E[X]
g

(1) =

¸
i=0
i(i −1)(i −2)a
i
;
.
.
.
Esto significa que tambi´en pueden obtenerse los momentos de cualquier orden evalu-
ando las derivadas de la funci´on generadora de momentos en z = 1
Ejemplos 4.1
1. Sea X una variable aleatoria binomial, X ∼ b(n, p). Entonces la funci´on gen-
eradora de momentos de X es igual a
g(z) =
n
¸
k=0

n
k

p
k
(1 −p)
n−k
z
k
=
n
¸
k=0

n
k

(zp)
k
(1 −p)
n−k
= (pz + 1 −p)
n
.
Por lo que
g

(z) = np(pz + 1 −p)
n−1
=⇒ g

(1) = np = E[X]
g

(z) = n(n −1)p
2
(pz + 1 −p)
n−2
=⇒ g

(1) = n(n −1)p
2
133
En este caso
E[X
2
] = n(n−1)p
2
+np = n
2
p
2
−np
2
+np =⇒ V ar[X] = E[X
2
]−

E[X]

2
= np(1−p).
2. Sea X una variable aleatoria geom´etrica con par´ametro p. La funci´on generadora
de momentos de X es
g(z) =

¸
k=1
p(1 −p)
k−1
z
k
=
p
1 −p

¸
k=1
[(1 −p)z]
k
=
pz
1 −(1 −p)z
.
Teorema 4.1 La distribuci´on de probabilidad de una variable aleatoria con valores
enteros no negativos est´a univocamente determinada por su funci´on generatriz.
Demostraci´on. Por una parte sabemos que dada la funci´on generatriz de X, g
X
(z) =
¸

i=0
a
i
z
i
, la funci´on de probabilidad de X se obtiene como P(X = j) =
g
(j)
X
(0)
j!
.
Supongamos ahora que Y es una variable aleatoria con valores enteros no negativos
y con funci´on de probabilidad dada por P(Y = j) = b
j
, j ≥ 0. Si Y tiene la misma
funci´on generatriz que X entonces
g
X
(z) =

¸
i=0
a
i
z
i
= g
Y
(z) =

¸
i=0
b
i
z
i
=⇒d(z) =

¸
i=0

b
i
−a
i

z
i
= 0.
Esto implica que d
(j)
(z) = 0, en particular d
(j)
(0) = j!(b
j
−a
j
) = 0; es decir, a
j
= b
j
para todo j ≥ 0, por lo que X e Y estan id´enticamente distribuidas.
Proposici´on 4.1 Sean X
1
, . . . , X
n
variables aleatorias independientes con valores
enteros no negativos y sean g
1
, . . . , g
n
sus funciones generatrices. Entonces la funci´on
generatriz de la suma X
1
+ . . . + X
n
es el producto de las funciones generatrices
g
1
g
2
. . . g
n
.
Demostraci´on 1. Supongamos que n = 2. Sean ¯ a = (a
j
)
j≥1
y
¯
b = (b
j
)
j≥1
, donde para
cada j ≥ 1, a
j
= P(X
1
= j) y b
j
= P(X
2
= j). Entonces
P(X
1
+X
2
= k) =
k
¸
j=0
P(X
1
= j, X
2
= k−j) =
k
¸
j=0
P(X
1
= j)P(X
2
= k−j) = c
k
=
k
¸
j=0
a
j
b
k−j
;
donde c
l
= (a ∗ b)(l) es la convoluci´on (discreta) de ¯ a y
¯
b. Entonces se tiene que la
funci´on generatriz de la suma es
s(z) =

¸
k=0
P(X
1
+X
2
= k)z
k
=

¸
k=0
c
k
z
k
;
y
g(z)h(z) =


¸
j=0
a
j
z
j


¸
k=0
b
k
z
k

=

¸
k=0

¸
j=0
a
j
b
k
z
j+k
=

¸
l=0
c
l
z
l
.
134
Por lo tanto el resultado es v´alido para n = 2. Para n ∈ N cualquiera el resultado se
obtiene por inducci´on sobre n.
Demostraci´on 2. Podemos escribir para z ∈ R:
g(z) =

¸
j=0
a
j
z
j
=

¸
j=0
P(X = j)z
j
= E

z
X

,
por lo que la funci´on generatriz de la variable aleatoria X
1
+ . . . + X
n
es igual a
E

z
X
1
+...+X
n

= E

z
X
1
z
X
2
. . . z
X
n

= E

z
X
1

E

z
X
2

. . . E

z
X
n

= g
1
(z) . . . g
n
(z)
donde g
i
es la funci´on generatriz de X
i
.
Ejemplos 4.2
1. Sea X la variable aleatoria binomial negativa con par´ametros (n, p), es decir X =#
ensayos requeridos para obtener n ´exitos siendo p la probabilidad de ´exito en cada en-
sayo. Entonces X = X
1
+. . . +X
n
donde X
i
=# ensayos requeridos, despu´es del ´exito
i-1, para obtener el i-´esimo ´exito. Las variables X
i
son independientes y tienen dis-
tribuci´on geom´etrica con par´ametro p y funci´on generatriz g(z); por lo que la funci´on
generadora de momentos de X es igual a
h(z) = g(z)
n
=

pz
1 −(1 −p)z

n
.
Tenemos adem´as que
E[X] = h

(1) = n

p
2
+ p −p
2
p
2

=
n
p
.
4.1.1. C´alculo de Momentos.
La representaci´on de la funci´on generadora de momentos utilizada en la segunda
demostraci´on de la proposici´on anterior motiva la siguiente generalizaci´on.
Sea z = e
−t
para t ∈ (0, ∞) y sea X > 0 una variable aleatoria. Se define la
funci´on generadora de momentos de X como
φ(t) = E

z
X

= E

e
−tX

=

¸
{x:P(X=x)>0}
e
−xt
P(X = x) si X es discreta


−∞
e
−tx
f(x)dx si X es continua con densidad f
La funci´on φ se denomina transformada de Laplace de X (´o de la funci´on de densidad
f).
135
Comentarios.
- La funci´on generatriz existe siempre que X tome valores no negativos, en el ca-
so continuo, esto significa que f(u) = 0 para todo u < 0. De lo contrario la esperanza
de Z
X
podria no existir.
- Con esta definici´on de la funci´on generatriz no es tan sencillo obtener los valores
de la funci´on de probabilidad o la funci´on de densidad; sin embargo, al igual que
en el primer caso estudiado (X > 0 toma s´olo valores enteros), la distribuci´on de la
variable aleatoria X est´a determinada en forma ´ unica por su funci´on generatriz.
- Es posible usar la funci´on generatriz para obtener momentos de cualquier orden. De
manera an´aloga a lo hecho para g se calcula la derivada de φ y se eval´ ua en t = 0. En
el caso discreto se puede calcular la derivada de la serie correspondiente derivando
t´ermino a t´ermino. De manera similar en el caso continuo la derivada de la integral
se calcula como la integral de la derivada del integrando. Esto significa que
φ

(t) =
d
dt
E

e
−tX

= E
¸
d
dt

e
−tX

¸
= E[−Xe
−tX
].
En el caso en que X es una variable aleatoria discreta se tiene que
E[−Xe
−tX
] =
¸
{x:P(X=x)>0}
−xe
−xt
P(X = x).
En el caso en que X es una variable aleatoria continua
E[−Xe
−Xx
] =


−∞
−xe
−tx
f(x)dx.
Por lo tanto
φ

(0) = −E[X]
φ

(0) = E[X
2
]
. . .
φ
(n)
(0) = (−1)
n
E[X
n
]
Ejemplos 4.3 Distribuci´on exponencial con par´ametro λ
f(x) =

λe
−λx
x ≥ 0
0 x < 0
φ(t) = E[e
−tX
] =


0
e
−tx
λe
−λx
dx = λ


0
e
−(λ+t)x
dx =
λ
λ + t
136
E[X] = −φ

(0) =
1
λ
E[X
2
] = φ

(0) =
2
λ
2
⇒var[X] =
2
λ
2

1
λ
2
=
1
λ
2
La siguiente proposici´on establece una propiedad an´aloga a la enunciada en la
proposici´on 1.
Proposici´on 4.2 Sean X
1
, X
2
, . . . , X
n
variables aleatorias independientes con fun-
ciones generatrices φ
1
, φ
2
, . . . , φ
n
. Entonces la funci´on generatriz de X
1
+X
2
+. . . . , X
n
es igual a φ
1
φ
2
. . . φ
n
.
Demostraci´on. Para i ∈ ¦1, 2, . . . , n¦ se tiene que φ
X
i
(t) = E

e
−tX
i

, por lo que
φ
X
1
+X
2
+...+X
n
(t) = E

e
−t(X
1
+X
2
+...+X
n
)

= E

e
−tX
1
e
−tX
2
. . . e
−tX
n

= E

e
−tX
1

E

e
−tX
2

. . . E

e
−tX
n

= φ
X
1
(t) φ
X
2
(t) . . . φ
X
n
(t).
Definici´on general de la funci´on generadora de momentos.
Si se consideran variables aleatorias con valores reales (no necesariamente no neg-
ativas), la funci´on generadora de momentos se puede definir de dos maneras:
i) φ(t) = E

e
tX

, para t ∈ R, siempre que la esperanza exista.
Ejemplos 4.4
Sea X una variable aleatoria normalmente distribuida con media y varianza (µ, σ
2
),
se tiene que
φ
X
(t) = E[e
tX
] =
1
σ


−∞
e
tx
e
−(x−µ)
2

2
dx =
1
σ


−∞
e
2tx
2
e
−x
2
+2xµ−µ
2

2
dx
=
1
σ


−∞
e
2txσ
2

2
e
−x
2
+2xµ−µ
2

2
dx =
1
σ


−∞
e
−µ
2

2
e
−x
2
+2xµ+2txσ
2

2
dx
=
1
σ


−∞
e
−µ
2

2
e
−x
2
+2x(µ+tσ
2
)−(µ+tσ
2
)
2
+(µ+tσ
2
)
2

2
dx
=
1
σ


−∞
e
−µ
2
+(µ+tσ
2
)
2

2
e

x
2
−2x(µ+tσ
2
)+(µ+tσ
2
)
2

2
dx
= e
−µ
2
+(µ+tσ
2
)
2

2
1
σ


−∞
e

(x−(µ+tσ
2
))
2

2
dx = e
µt+
t
2
σ
2
2
En particular si µ = 0 σ = 1 se tiene que φ
X
(t) = e
t
2
2
137
Con esta definici´on de la funci´on generadora de momentos es claro que se cumple
la propiedad enunciada en las proposiciones 1 y 2. Sigue siendo igualmente v´alida
la propiedad de que la funci´on generadora de momentos de una variable aleatoria
determina de manera univoca su distribuci´on. Estos hechos se combinan para obtener
la importante propiedad que sigue.
Proposici´on 4.3 Si X y Y son variables aleatorias independientes normalmente
distribuidas con media y varianza (µ
1
, σ
2
1
) y (µ
2
, σ
2
2
) respectivamente se tiene que la
suma X +Y tambi´en est´a normalmente distribuida con par´ametros (µ
1

2
, σ
2
1

2
2
)
φ
X+Y
(t) = E[e
t(X+Y )
] = φ
X
(t)φ
Y
(t) = e
µ
1
t+
t
2
σ
2
1
2
e
µ
2
t+
t
2
σ
2
2
2
= e

1

2
)t+
t
2

2
1

2
2
)
2
que es la funci´on generadora de momentos de una variable aleatoria normal con media
µ
1
+ µ
2
y varianza
σ
2
1

2
2
2
, esto equivale a afirmar que X + Y ∼ N(µ
1

2
,
σ
2
1

2
2
2
).
Esta propiedad puede extenderse por inducci´on a la suma de n variables aleatorias
independientes y normalmente distribuidas.
ii) En el caso en que E

e
tX

no existe, se define la funci´on generadora de momentos
de X como
φ(t) = E

e
itX

, donde i =

−1. (4.1)
Observemos que utilizando la f´ormula de De Moivre: e
i
u = cos(u)+isen(u) es evidente
que [e
itX
[ = 1 por lo que la esperanza anterior siempre es finita.
La transformada dada en (4.1) se denomina transformada de Fourier de X (´o de
la densidad f)
138
Ejercicios 4.1
Dada una variable aleatoria X, considere la funci´on generadora de momentos de X
φ(t) = E[e
tX
], t ∈ R y la transformada de Laplace de X como L(t) = E[e
−tX
], t ≥ 0.
1. Halle la funci´on generadora de momentos de las variables aleatorias siguientes:
a) Binomial con par´ametros (n, p), 0 ≤ p ≤ 1.
b) Poisson con par´ametro λ > 0.
c) Geom´etrica con par´ametro 0 ≤ p ≤ 1.
d) Binomial negativa con par´ametros (r, p), 0 ≤ p ≤ 1.
e) Uniforme sobre (a, b).
f ) Gamma con par´ametro λ > 0.
En cada uno de los casos anteriores derive para verificar las f´orulas de la esperanza
y la varianza.
2. Si Y = aX + b, donde a y b son constantes, exprese la funci´on generadora de
momentos de Y en t´erminos de la funci´on generadora de momentos de X.
3. Halle la transformada de Laplace para cada una de las siguientes densidades: a)
f(u) =
1
c
, u ∈ [0, c].
b) f es la densidad uniforme sobre (a, b).
c) f(u) =
2u
c
2
, u ∈ (0, c), c > 0.
d) f es la densidad gamma con par´ametros (n, λ), λ > 0.
4. Sea X una variable aleatoria normal con par´ametros (µ, σ
2
).
a) Calcule E[(X −µ)
3
].
b) Use a) para determinar E[X
3
].
c) Verifique el resultado obtenido en b) usando la transformada de Laplace o la fun-
ci´on generadora de momentos de X.
5. Use la funci´on generadora de momentos para determinar la distribuci´on de X
1
+
X
2
+ . . . + X
n
, donde X
1
, . . . , X
n
son variables aleatorias independientes e id´entica-
mente distribuidas exponencialmente con par´ametro λ
6. La funci´on generadora de momentos de una variable aleatoria X est´a dada por
g
X
(z) = e
2z−2
y la de Y por g
Y
(z) = (
1
4
)
10
(3z + 1)
10
. Si X e Y son independientes,
calcule: a) P(X + Y = 2); b) P(XY = 0); c) E[XY ].
7. Suponga que la funci´on generadora de momentos de una variable aleatoria X
est´a dada por g(z) = e
3(z−1)
. Calcule P(X = 0). Halle la funci´on de distribuci´on
de X.
139
8. Se lanzan 3 dados sim´etricos e id´enticos. Halle la funci´on generatriz de la suma
de los tres dados. Halle la probabilidad de que la suma sea igual a 3.
9. Considere n sucesos independientes A
j
, j = 1, . . . , n, con P(A
j
) = p
j
j = 1, . . . , n.
Denotemos por N el n´ umero de estos eventos que ocurren. Halle la funci´on generatriz
de N y calcule E[N] usando esta funci´on.
140
4.2. Leyes de grandes n´ umeros.
4.2.1. Introducci´on
Hasta ahora hemos definido la probablidad de un evento, en situaciones discretas,
como la frecuencia relativa de ocurrencia del evento. Esta es una manera de obtener
distribuciones emp´ıricas ampliamente usada. Es lo que nos permite aceptar que la
probabilidad de que se obtenga una cara al lanzar una moneda legal es 1/2. Los
teoremas de esta secci´on constituyen el fundamento te´orico de esta pr´actica y por ello
se encuentran entre los resultados fundamentales de la teor´ıa de las probabilidades.
La idea es la siguiente: Suponga que se tiene una sucesi´on X
1
, X
2
, ... de variables
aleatorias independientes, id´enticamente distribuidas y con esperanza finita E[X
i
] = µ
(por ejemplo, variables asociadas con ensayos de Bernoulli).
Sea S
n
= X
1
+X
2
+ +X
n
, n ≥ 1, suma de las n primeras X
i
’s. Estudiaremos
el comportamiento de los promedios
S
n
n
cuando n →∞.
La Ley de los grandes n´ umeros establece que estos promedios se acercan a E[X
i
] =
µ. La manera en que se establece esta proximidad se expondr´a m´as adelante.
En t´erminos de las frecuencias relativas consideremos ensayos independientes en
los cuales un evento A ocurre con probabilidad p. Definamos
X
i
=

1 si A ocurre en i-´esimo ensayo
0 si A no ocurre en i-´esimo ensayo
entonces la frecuencia relativa
S
n
n
en este caso es el promedio de casos en que ocurre
A.
La Ley de los Grandes N´ umeros dice que, para n grande
S
n
n
∼ E[X
i
] = p = P(A)
P(A) ≈ frecuencia relativa de A, lo que permite estimar p por
S
n
n
para n ”sufi-
cientemente grande”.
Esta ley se formular´a para variables aleatorias m´as generales, por ejemplo X
i
no
tiene que ser ≥ 0.
4.2.2. Desigualdad de Markov
Proposici´on 4.4 Si X es una variable aleatoria con valores no negativos, entonces
para a > 0
P(X ≥ a) ≤
E[X]
a
Demostraci´on 1. Caso discreto. X discreta P(X = x
j
) = p
j
con
¸
j
p
j
= 1
141
E[X] =
¸
j
x
j
p
j
. Sea A = ¦j : x
j
≥ a¦ entonces: P(X ≥ a) =
¸
j∈A
p
j
E[X] =
¸
j∈A
x
j
p
j
+
¸
j∈A
c
x
j
p
j

¸
j∈A
x
j
p
j

¸
j∈A
ap
j
= aP(X ≥ a)
P(X ≥ a) ≤
E[X]
a
.
Caso continuo: P(X ≥ a) =


a
f(x)dx y se tiene
E[X] =


−∞
xf(x)dx =

a
−∞
xf(x)dx +


a
xf(x)dx ≥


a
xf(x)dx ≥ a


a
f(x)dx
E[X] ≥ aP(X ≥ a)
Demostraci´on 2. Utilizando la notaci´on de la demostraci´on anterior, sea A = ¦j :
x
j
≥ a¦. Como X ≥ 0 se tiene que aχ
A
≤ Xχ
A
≤ X. Utilizando la monoton´ıa de la
esperanza se obtiene
E


A

≤ E


A

≤ E[X]
Lo que implica que
aP(A) = aP(X ≥ a) ≤ E

X

=⇒P(X ≥ a) ≤
E[X]
a
.
Proposici´on 4.5 Desigualdad de Chebyshev
Si X es una variable aleatoria con media finita µ y varianza σ
2
, entonces para
cualquier k > 0
P¦[X −µ[ ≥ k¦ ≤
σ
2
k
2
=
E[(X −µ)
2
]
k
2
(X no tiene que ser > 0 pero E[X] < ∞).
Demostraci´on. Como (X − µ)
2
> 0 se puede usar la desigualdad de Markov con
y = (X −µ)
2
, a = k
2
> 0. Se obtiene:
P([X −µ[ ≥ k) = P((X −µ)
2
≥ k
2
) ≤
E[(X −µ)
2
]
k
2
=
σ
2
k
2
.
Nota: Estas desigualdades dan cotas de la probabilidad cuando s´olo la esperanza ´o la
esperanza y la varianza son conocidas.
Ejemplos 4.5
1. Suponga que se sabe que el n´ umero de art´ıculos producidos por una f´abrica du-
rante una semana es una variable aleatoria con media = 50
142
(a) ¿Qu´e puede decirse acerca de la probabilidad de que se produzcan m´as de 75
art´ıculos en 1 semana?
(b) Si la varianza de la producci´on en 1 semana es igual a 25, entonces ¿qu´e puede
decirse acerca de la probabilidad de que esta semana se produzcan entre 40 y 60 art´ıcu-
los?
Soluci´on
(a) X = # art´ıculos a la semana
P(X > 75) ≤
E[X]
75
=
50
75
=
2
3
.
(b) P(40 ≤ X ≤ 60) = P(−10 < X−50 < 10) = P([X−50[ < 10) = 1−p([X−50[ ≥
10)
P([X −50[ ≥ 10) ≤
25
10
2
=
1
4
⇒P(40 ≤ X ≤ 60) ≥ 1 −
1
4
=
3
4
2. Si X est´a uniformemente distribuida sobre (0,10), entonces E[X] = 5, V ar[X] =
25
3
y por la desigualdad de Chebyshev: P([X−5[ > 4) ≤
25
3×16

= 0,52. Note que el resultado
correcto es: P([X −5[ > 4) = 0,2
Aplicaciones de la desigualdad de Chebyshev
Proposici´on 4.6 Si V arX = 0 = σ
2
entonces P(X = E[X]) = 1. Esto dice que s´olo
una variable aleatoria constante con probabilidad 1 puede tener varianza 0.
Demostraci´on. P

[X −µ[ >
1
n

≤ σ
2
n
2
= 0 porque σ
2
= 0
P([X −µ[ = 0) =

¸
n

[X −µ[ >
1
n


¸
n
P

[X −µ[ >
1
n

= 0
⇒P([X −µ[ = 0) = 1.
Teorema 4.2 Ley d´ebil de los Grandes n´ umeros
Sean X
1
, X
2
, ... una sucesi´on de variables aleatorias independientes, id´enticamente
distribuidas cada una con media E[X
i
] = µ y varianza σ
2
(ambas finitas). Entonces
para cada ε > 0
P

X
1
+ +X
n
n
−µ

≥ ε

→0 cuando n →∞.
Demostraci´on. Puesto que ¦X
i
¦
i≥1
son independientes e id´enticamente distribuidas,
para cada n
E
¸
X
1
+ + X
n
n

=
1
n
¸
E[X
i
] =
1
n
nµ = µ
y
143
V ar
¸
X
1
+ + X
n
n

=
1
n
2
¸
V arX
i
=
1
n
σ
2
.
Aplicando la desigualdad de Chebyshev a
S
n
n
=
X
1
+ + X
n
n
se tiene que
P

X
1
+ +X
n
n
−µ

≥ ε


σ
2

2
−→0
n →∞
Ejemplos 4.6
1. Sea A un evento que ocurre con probabilidad p = P(A) en un experimento
dado y S
n
= # veces que A ocurre en n realizaciones del experimento, observe
que S
n
es una variable aleatoria binomial con par´ametros (n, p). Se tiene que
P

S
n
n
−p

≥ ε

→0 cuando n →∞⇒p
n
=
S
n
n
se aproxima a p cuando n es
suficientemente grande.
2. Supongamos que una falla en un sistema mec´anico ocurre de acuerdo a una
distribuci´on de Poisson con par´ametro λ > 0. Entonces el n´ umero de fallas en
un intervalo [0, t] est´a dado por X(t) y es tal que
P(X(t) = k) = e
−λt
(λt)
k
k!
Sea
˜
X(t) =
X(t)
t
= # fallas por unidad de tiempo.
Entonces
E[
˜
X(t)] =
1
t
E[X(t)] =
λt
t
= λ
V ar(
˜
X(t)) =
1
t
2
V ar(X(t)) =
λt
t
2
=
λ
t
P([
˜
X(t) −λ[ ≥ ε) ≤
1
ε
2
λ
t
−→0
t →∞
˜
X(t) es aproximada por su esperanza λ cuando t es suficientemente grande.
En general se tiene que el promedio
X
1
+ +X
n
n

= E[X
i
].
144
Ejercicios 4.2
1. Sea X una variable aleatoria tal que E[X] = µ y V ar[X] = σ
2
. Demuestre que
P([X −µ[ ≥ kσ) ≤
1
k
2
.
2. Si X es una variable aleatoria tal que E[X] = µ y V ar[X] = σ
2
, el radio r =
|µ|
σ
se denomina medida del radio de la se˜ nal de ruido de X. La idea es que la vari-
able aleatoria puede expresarse como X = µ + (X − µ) donde µ representa la se˜ nal
(´o equivalentemente µ es una medida de la se˜ nal aleatoria X y X − µ el ruido. Si
definimos D =
|X−µ|
|µ|
como la desviaci´on relativa de X de la se˜ nal, demuestre que
para α > 0 P(D ≤ α) ≥ 1 −
1
r
2
α
2
.
3. Suponga que X es una variable aleatoria con media y varianza iguales a 20.
¿Qu´e puede decirse de P(0 ≤ X ≤ 40)?
4. El n´ umero de objetos producidos por una f´abrica es una variable aleatoria X con
media 100. (a) D´e una cota superior de la probabilidad de que se produzcan al menos
200 art´ıculos. (b) Si la varianza de X es 25, d´e una cota de la probabilidad de que se
produzcan entre 80 y 120 art´ıculos.
5. Se sabe que el n´ umero esperado de objetos defectuosos producidos en una f´abrica
en una semana es 18. (a) ¿Qu´e puede decirse de la probabilidad de que esta semana
el n´ umero de objetos defectuosos sea mayor que 25?. (b) Si la varianza del n´ umero de
objetos defectuosos en una semana es igual a 9, ¿qu´e puede decirse de la probabilidad
de que esta semana se produzcan entre 11 y 25 objetos defectuosos?
6. Por experiencia un profesor sabe que la nota del examen final de un estudiante
es una variable aleatoria con media de 15 puntos y varianza igual a 5 puntos. a)
D´e una cota superior para la probabilidad de que la nota de un estudiante sea mayor
que 17. b) ¿Qu´e puede decirse acerca de la probabilidad de que la nota del estudiante
est´e entre 12 y 18 puntos?. c) ¿Cu´antos estudiantes tendr´an que tomar el examen
final para asegurar, con probabilidad no menor a 0.9, que el promedio de la clase es-
tar´a entre 12 y 18 puntos?
7. Sean X
1
, . . . , X
20
variables aleatorias de Poisson, independientes con media igual
a 1. a) Use la desigualdad de Markov para acotar P(X
1
+ . . . + X
20
> 15). b) Use el
Teorema Central del L´ımite para aproximar P(X
1
+ . . . + X
20
> 15).
8. Sea X una variable aleatoria gamma con par´ametros (n, 1). ¿Qu´e tan grande se
necesita n para que P([
X
n
−1[ > 0,01) < 0,01.
9. Se toma una muestra al azar y con reposici´on, a efectos de estimar la fracci´on p
145
de hembras en una poblaci´on. Encuentre un tama˜ no de muestra que asegure que, con
una probabilidad de al menos 0,99, la estimaci´on se har´a con un error menor a 0,005.
10. Se desea estimar la probabilidad de falla p en un proceso de producci´on mediante
la observaci´on de n objetos producidos, elegidos independientemente. Por informaci´on
previa que se tiene acerca del proceso, se sabe que p est´a comprendida entre 0.1 y 0.3.
Halle el tama˜ no n de la muestra para que probabilidad de que la frecuencia relativa
de objetos defectuosos en la muestra difiera del verdadero valor p en m´as de 0,01 sea
menor a 0,05.
11. Se observan n repeticiones independientes de un juego de ruleta. Halle n para
que con probabilidad menor que 0.1, la frecuencia relativa del n´ umero de veces que
ocurre la primera docena sea mayor que
1
3
.
Nota. Los resultados posibles en un juego de ruleta son 00, 0, 1, 2, . . . , 36 y la primera
docena consta de los numeros 1, 2, . . . , 12.
146
4.2.3. Convergencia de variables aleatorias.
Definici´on 4.3 Una sucesi´on de variables aleatorias X
1
, X
2
, . . . converge en
probabilidad a la variable aleatoria X, si se verifica que para todo > 0
P

[X
n
−X[ ≥

−→0 cuando n −→∞.
En este caso se usa la notaci´on X
n
(P)
−→X (n −→∞).
Observemos que en t´erminos de esta definici´on la ley d´ebil de los grandes n´ umeros
puede enunciarse diciendo que la sucesi´on de variables aleatorias Y
n
=
S
n
n
converge
en probabilidad a la variable aleatoria Y constantemente igual a µ.
Definici´on 4.4 Una sucesi´on de variables aleatorias X
1
, X
2
, . . . converge casi
seguramente (o con probabilidad 1) a la variable aleatoria X, si se verifica que
P

X
n
−→X cuando n −→∞

= 1. (4.2)
En este caso se usa la notaci´on X
n
−→X c.s. (o c.p. 1).
La expresi´on (4.2) significa que el evento formado por los ω ∈ Ω tales que
l´ım
n→∞
X
n
(ω) = X(ω)
tiene probabilidad cero.
Definici´on 4.5 Sean X
1
, X
2
, . . . y X variables aleatorias con funciones de
distribuci´on F
1
, F
2
, . . . y F respectivamente. Se dice que X
n
converge en distribuci´on
a X si se verifica que
l´ım
n→∞
P

X
n
≤ x

= P

X ≤ x

siempre que x sea un punto de continuidad de F (P(X = x) = 0).
Para la convergencia en distribuci´on usamos la notaci´on X
n
=⇒X.
4.2.4. Teorema central del l´ımite
Teorema 4.3 Sea X
1
, ..., X
n
, ... una sucesi´on de variables aleatorias independientes
e id´enticamente distribuidas con media µ y varianza σ
2
. Entonces la sucesi´on de
variables aleatorias Y
n
=
X
1
+ + X
n
−nµ
σ

n
converge en distribuci´on a una variable
aleatoria normal unitaria cuando n →∞. Es decir:
l´ım
n→∞
P(Y
n
≤ a) = l´ım
n→∞
P

X
1
+ +X
n
−nµ
σ

n
≤ a

= Φ(a) =
1

a
−∞
e

x
2
2
dx
147
4.2.5. Aplicaciones
Antes de presentar la demostraci´on de una de las versiones m´as conocidas del
teorema central del l´ımite, el teorema de De Moivre-Laplace, veremos algunas de sus
aplicaciones m´as comunes al c´alculo de probabilidades.
Ejemplos 4.7
1. El n´ umero de estudiantes que se inscribe en una clase de psicolog´ıa es una
variable aleatoria Poisson con media λ = 100. Si el n´ umero de estudiantes
inscritos es mayor que 120 entonces se dividir´a la clase en 2 grupos ¿Cu´al es
la probabilidad de que esto pase?
X = # estudiantes P(X > 120) = e
−100

¸
k=120
(100)
k
k!
.
Esta suma es dif´ıcil de calcular, por lo tanto usando el hecho de que la suma de
variables independientes de Poisson, con par´ametros λ
1
y λ
2
es una variable de
Poisson con par´ametro λ
1
+ λ
2
se tiene que
X = X
1
+ + X
100
donde X
i
Poisson λ = 1 para i ≥ 1 variable aleatoria
independientes. Se puede usar el teorema central del l´ımite para obtener una
aproximaci´on de la probabilidad deseada. Observe que E[X
i
] = 1 = V ar[X
i
].
P(X > 120) = P(X
1
+ +X
100
> 120)
= P

X
1
+ + X
100
−100 1
1

100
>
120 −100

100

= P

X −100
10
> 2

∼ 1 −Φ(2) = 0,0228.
2. Si X
i
, i = 1, ..., 10 son variables aleatorias independientes uniformemente dis-
tribuidas sobre (0,1). Calcule una aproximaci´on a P

10
¸
i=1
X
i
> 6

.
Se tiene que
E

X
i

=

1
0
xdx =
x
2
2

1
0
=
1
2
y E

X
2
i

=

1
0
x
2
dx =
x
3
3

1
0
=
1
3
;
por lo tanto V ar

X
i

=
1
3

1
4
=
1
12
. Aplicando el teorema central del l´ımite se
tiene que
P(
10
¸
i=1
X
i
> 6) = P

¸
10
i=1
X
i
−10
1
2
1

12


10
>
6 −5

10

12

= P

¸
10
i=1
X
i
−5

10
12
>

12

10

∼ 1 −Φ(

1,2) = 1 −Φ(1,09545) ∼ 0,16.
148
Teorema Central del L´ımite
Teorema 4.4 (Teorema de De Moivre-Laplace)
Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias independientes de Bernoulli con
probabilidad p de ´exito. Sea S
n
= # ´exitos en n ensayos de Bernoulli. Para q = 1−p,
y constantes a < b cualesquiera se cumple que
l´ım
n→∞
P

a <
S
n
−np

npq
≤ b

= Φ(b) −Φ(a) =
1

b
a
e
−x
2
/2
dx
Comentarios:
1. Para todo i ≥ 1 E[X
i
] = p = µ y V ar[X
i
] = pq.
2. Para cada n ≥ 1, S
n
es una variable aleatoria binomial con par´ametro (n, p). El
teorema de De Moivre-Laplace establece que es posible aproximar una variable
aleatoria binomial por una normal con par´ametros (np, npq)
Preliminares
1. La F´ormula de Stirling.
Lema 4.1 Cuando n −→∞, se cumple que
n! ∼

n
e

n

2πn.
Comentario. La f´ormula de Stirling implica que

n
k

=
n!
k!(n −k)!

n
e

n

2πn

k
e

k

2πk

n−k
e

n−k

2π (n −k)
=
n
k
k
k

n
n−k
(n −k)
n−k

n
k

1
2π (n −k)

n
k

n
k

k

n
n −k

n−k

1

n
k(n −k)
2. Lema 4.2 Sea S
n
una variable aleatoria binomial con par´ametros (n, p) y sea
q = 1 −p, sea
x
n,k
= x
k
=
k −np

npq
0 ≤ k ≤ n
Para A > 0 dado se define S
A
= ¦k : [x
k
[ ≤ A¦. Entonces si k ∈ S
A
se cumple
que
P(S
n
= k) =

n
k

p
k
q
n−k

1

2πnpq
e
−x
2
k
/2
,
para n suficientemente grande. Sobre S
A
la convergencia es uniforme.
149
Demostraci´on. Sea k ∈ S
A
, por definici´on de x
k
se tiene que k = np +

npqx
k
lo que
implica que
k
np
= 1 +

npq
np
x
k
= 1 +

q

np
x
k
−→1 cuando n →∞;
es decir que,
k ∼ np. (4.3)
Por otra parte
n −k = n −np −

npqx
k
= nq −

npqx
k
n −k
nq
= 1 −

npq
nq
x
k
= 1 −

p

nq
x
k
−→1 cuando n →∞;
por lo cual
n −k ∼ nq (4.4)
para n suficientemente grande.
De (4.3) y (4.4) se deduce que (para n suficientemente grande) k(n −k) ∼ npnq.
Usando la formula de Stirling tenemos que (para n suficientemente grande)

n
k

p
k
q
n−k

n
k

k

n
n −k

n−k

1

n
k(n −k)
p
k
q
n−k
=

np
k

k

nq
n −k

n−k

1

n
k(n −k)

np
k

k

nq
n −k

n−k

n
2πnpnq
=

np
k

k

nq
n −k

n−k
1

2πnpq
.
Para demostrar el lema ser´a entonces suficiente demostrar que

np
k

k

nq
n −k

n−k
∼ e
−x
2
k
/2
.
Sabemos que np = k −

npqx
k
y nq = n −k +

npqx
k
lo que implica que
np
k
= 1 −

npqx
k
k
y
nq
n −k
= 1 +

npqx
k
n −k
.
150
Entonces
ln

np
k

k

nq
n −k

n−k
= k ln

1 −

npqx
k
k

+ (n −k) ln

1 +

npqx
k
n −k

.
Recordemos que usando la f´ormula de Taylor se obtiene la aproximaci´on
ln(1 +x) ∼ x −
x
2
2
+
x
3
3

x
4
4
+ . . . + (−1)
n−1
x
n
n
.
Aplicando esta expresi´on a los t´erminos del lado derecho de la ´ ultima igualdad se
obtiene
k ln

1 −

npqx
k
k

= k



npqx
k
k

npq(x
k
)
2
2k
2
+ . . .

(n −k) ln

1 +

npqx
k
n −k

= (n −k)


npqx
k
n −k

npq(x
k
)
2
2(n −k)
2
+ . . .

siempre que


npqx
k
k

< 1 y


npqx
k
n −k

< 1
lo cual es cierto para n suficientemente grande ya que en este caso k ∼ np y n−k ∼ nq.
Se tiene entonces que
ln

np
k

k

nq
n −k

n−k
∼ −

npqx
k

npq(x
k
)
2
2k
+

npqx
k

npq(x
k
)
2
2(n −k)
= −npq
x
2
k
2

1
k
+
1
n −k

= −npq
x
2
k
2
n
(n −k) k
= −
x
2
k
2
np
k

nq
n −k

−x
2
k
2
.
Por lo tanto

np
k

k

nq
n −k

n−k
∼ e
−x
2
k
/2
.
Demostraci´on del teorema de De Moivre-Laplace.
Cuando ocurre el evento ¦S
n
= k¦ se tiene
S
n
−np

npq
= X
k
= X
n,k
, entonces
P

a <
S
n
−np

npq
≤ b

= P

n
¸
k=0

a <
S
n
−np

npq
≤ b, S
n
= k

=
n
¸
k=0
P

a <
S
n
−np

npq
≤ b[S
n
= k

P (S
n
= k) .
151
Observando que
P

a <
S
n
−np

npq
≤ b[S
n
= k

=

1 si x
k
∈ (a, b]
0 si x
k
/ ∈ (a, b]
(4.5)
se tiene
P

a <
S
n
−np

npq
≤ b

=
¸
{a<x
k
≤b}
P (S
n
= k) =
¸
{a<x
k
≤b}

n
k

p
k
q
n−k

¸
{a<x
k
≤b}
1

2πnpq
e
−x
2
k
/2
=
1


¸
{a<x
k
≤b}
1

npq
e
−x
2
k
/2
Ahora bien
x
k+1
−x
k
=
k + 1 −np

npq

k −np

npq
=
1

npq
.
Esto implica que
P

a <
S
n
−np

npq
≤ b


1


¸
{a<x
k
≤b}
e
−x
2
k
/2
(x
k+1
−x
k
) (4.6)
Por otra parte la correspondencia k ←→ x
k
es 1 − 1 y cuando k var´ıa de 0 a n
x
k
=
k−np

npq
var´ıa desde −

np
q
hasta

nq
p
. Tomando n suficientente grande se tendr´a que
(a, b] ⊆

np
q
,

nq
p

y los puntos x
k
que caen dentro de (a, b] forman una partici´on
de (a, b] en intervalos de longitud
1

npq
.
Por lo tanto la suma en (4,6) es la suma (inferior) de Riemann de

b
a
e
−x
2
/2
dx.
Es decir que
P

a <
S
n
−np

npq
≤ b


1

b
a
e
−x
2
/2
dx.
Teorema 4.5 Sea ¦X
n
¦
n≥1
una sucesi´on de variables aleatorias independientes, de
Bernoulli, con probabilidad p de ´exito y sea q = 1 −p. Sea S
n
=
n
¸
i=1
X
i
(=# ´exitos en
n ensayos de Bernoulli). Entonces se cumple que
l´ım
n→∞
P

S
n
−np

npq
≤ x
¸
=
1

x
−∞
e
−u
2
/2
du.
Demostraci´on. Sea
˜
S
n
=
S
n
−np

npq
. Para > 0 dado elijamos n´ umeros reales a
1
y a
2
tales
que
i) a
1
< x < a
2
,
152
ii) Φ(a
1
) <

2
y
iii) 1 −Φ(a
2
) <

2
.
Se tiene entonces que
¦x <
˜
S
n
≤ a
2
¦ ⊆ ¦
˜
S
n
> x¦ =⇒P

x <
˜
S
n
≤ a
2

≤ P

˜
S
n
> x

=⇒1 −P

x <
˜
S
n
≤ a
2

≥ 1 −P

˜
S
n
> x

= P

˜
S
n
≤ x

.
Por otra parte
¦a
1
<
˜
S
n
≤ x¦ ⊆ ¦
˜
S
n
≤ x¦ =⇒P

a
1
<
˜
S
n
≤ x

≤ P

˜
S
n
≤ x

≤ 1−P

x <
˜
S
n
≤ a
2

.
Aplicando el teorema de De Moivre-Laplace
1 −P

x <
˜
S
n
≤ a
2

−→1 −

Φ(a
2
) −Φ(x)

cuando n →∞ y
P

a
1
<
˜
S
n
≤ x

−→Φ(x) −Φ(a
1
) cuando n →∞.
Por lo tanto existe N tal que si n > N:
1 −P

x <
˜
S
n
≤ a
2

≤ Φ(x) +

1 −Φ(a
2
)

+

2
y
P

a
1
<
˜
S
n
≤ x

≥ Φ(x) −Φ(a
1
) −

2
=⇒Φ(x) −Φ(a
1
) −

2
≤ P

˜
S
n
≤ x

≤ Φ(x) +

1 −Φ(a
2
)

+

2
=⇒Φ(x) −

2


2
≤ P

˜
S
n
≤ x

≤ Φ(x) +

2
+

2
=⇒[P

˜
S
n
≤ x

−Φ(x)[ ≤ .
Acerca de la demostraci´on del Teorema Central del Limite (para variables
aleatorias independientes e id´enticamente distribuidas).
A continuaci´ on presentaremos los lineamientos generales de la demostraci´on del
teorema 4.3, la cual est´a basada en el siguiente lema que enunciaremos sin de-
mostraci´on.
Lema 4.3 Sean Z
1,
Z
2
, y Z variables aleatorias con funciones de distribuci´on
F
1
, F
2
, . . . y F y funciones generadoras de momentos ϕ
1
, ϕ
2
, . . . y ϕ, respectivamente.
Si ϕ
n
(t) →ϕ(t) para todo t, cuando n →∞, entonces
F
n
(t) →F(t) para todo t cuando n →∞
.
153
Consecuencia del lema: Si Z ∼ N(0, 1) entonces ϕ(t) = e
t
2
/2
. El lema implica que
si
ϕ
n
(t) →e
t
2
/2
, n →∞, entonces F
n
(t) −−→
n→∞
Φ(t) =
1

t
−∞
e
−x
2
/2
dx.
Demostraci´on del teorema 3. Asumiremos que para cada X
i
, i ≥ 1 la funci´on gener-
adora de momentos ϕ
i
(t) = E

e
tX
i

existe y es finita.
(I) Supongamos que µ = 0 y σ
2
= 1. Denotemos por ϕ
i,n
a la funci´on generado-
ra de momentos de
X
i

n
; es decir, ϕX
i

n
, se tiene que
ϕ
i
(t) = E[e
tX
i
] =⇒ϕ
i,n
(t) = E
¸
e
t
X
i

n

= E
¸
e
t

n
X
i

= ϕ
i

t

n

Por lo tanto la funci´on generadora de momentos de S
n
=
n
¸
i=1

X
i

n

est´a dada por
ϕ
S
n
(t) =
n
¸
i=1
ϕ
i

t

n

=
¸
ϕ
i

t

n
¸
n
=
¸
ϕ
1

t

n
¸
n
.
Sea L(t) = ln ϕ
1
(t). Para demostrar el teorema ser´a suficiente demostrar que

ϕ
1

t

n

n
−→ e
t
2
/2
cuando n −→∞. Esto equivale a demostrar que
n ln

ϕ
1

t

n

−−→
n→∞
t
2
/2 ´o
n L

t

n

−−→
n→∞
t
2
/2
Diferenciando L y evaluando en cero las sucesivas derivadas obtenemos
L(0) = log ϕ(0) = ln(1) = 0
L

(0) =
ϕ

(0)
ϕ(0)
=
µ
1
= µ = 0
L

(0) =
ϕ(0)ϕ

(0) −(ϕ

(0))
2
(ϕ(0))
2
= E[X
2
] −µ
2
= E[X
2
] = V ar[X] = 1
Observemos que, como L es continua
l´ım
n→∞
L

t

n

= L(0) = 0 =⇒ l´ım
n→∞
n ln

ϕ
1

t

n

= l´ım
n→∞
L

t

n

1
n

0
0

.
154
Aplicando la regla de L’Hˆopital
l´ım
n→∞
n ln

ϕ
1

t

n

= l´ım
n→∞

¸
L

t

n

t
2
n
−2
n
3/2
¸

= l´ım
n→∞

¸
L

t

n

t
2

n
¸

= l´ım
n→∞

L

t

n

t
2
2

= L

(0)
t
2
2
=
t
2
2
(II) Caso general. Sea X

i
=
X
i
−µ
σ
. Entonces E[X

i
= 0] y V ar[X

i
] = 1. Entonces el
resultado de la parte (I) vale para las X

i
lo que significa que
P

X

1
+ + X

n

n
≤ a

= P

¸
X
i
−µ
σ

n
≤ a

= P

X
1
+ + X
n
−nµ
σ

n
≤ a

−−→
n→∞
Φ(a)
Nota: Se ha demostrado que para cada a F
n
(a) = P

X
1
+···+X
n
−nµ
σ

n
≤ a

−−→
n→∞
Φ(a)
Puede demostrarse que para cada ε > 0, existe N tal que [F
n
(a) − φ(a)[ < ε ∀a
siempre que n ≥ N. Es decir que la convergencia es uniforme en a.
Teorema Central del L´ımite para variables aleatorias independientes no
id´enticamente distribuidas.
Enunciamos dos versiones m´as generales del teorema central del l´ımite.
Teorema 4.6 Sea X
1,
X
2
, una sucesi´on de variables aleatorias independientes con
medias µ
i
= E[X
i
] y varianzas V ar[X
i
] = σ
2
i
, i ≥ 1. Si
a) Las variables X
i
, i ≥ 1 est´an uniformemente acotadas es decir, si existe M > 0
tal que P([X
i
[ ≤ M) = 1 para todo i ≥ 1.
b) Se cumple que

¸
i=1
σ
2
i
= ∞, entonces
P

¸
¸
¸
¸
¸
n
¸
i=1
(X
i
−µ
i
)

n
¸
i=1
σ
2
i
≤ a
¸

−−→
n→∞
Φ(a)
155
Teorema 4.7 (Lindeberg) Sea X
1,
X
2
, una sucesi´on de varaiables aleatorias in-
dependientes con medias µ
i
= E[X
i
] = 0 y varianzas V ar[X
i
] = σ
2
i
< ∞ i ≥ 1. Si
S
n
= X
1
+ . . . + X
n
, entonces E [S
n
] = 0 y V ar [S
n
] =
n
¸
i=1
σ
2
i
= ς
2
n
.
Condici´on de Lindeberg. Dado > 0 sea A
i,n
= ¦ω : [X
i
[ > ς
n
¦, entonces
1
ς
2
n
n
¸
i=1
E

X
2
i
χ
A
i,n

−−→
n→∞
0.
Si se cumple la condici´on de Lindeberg entonces
P

S
n
ς
n
≤ a

−−→
n→∞
Φ(a).
4.3. Ley Fuerte de los Grandes N´ umeros.
4.3.1. Preliminares.
Hemos visto que la ley d´ebil de los grandes n´ umeros establece que si X
1
, X
2
,
son variables aleatorias independientes e id´enticamente distribuidas con media µ y
varianza σ
2
, entonces para cada ε > 0
P

X
1
+ + X
n
n
−µ

≥ ε

−−−−→
n →∞ 0
¿Qu´e significa esto?. Esta ley afirma que si se toma n suficientemente grande,
el evento A
n
= ¦ω :

X
1
+ + X
n
n
−µ

< ¦ tiene una alta probabilidad de ocurrir.
Sin embargo esto no garantiza que si ω ∈ A
n
la sucesi´on
S
n
(ω)
n
=
X
1
(ω)+···+X
n
(ω)
n
se
mantendr´ a ¸cerca”de µ para todo m > n.
Un resultado m´as categ´orico lo constituye la ley fuerte de los grandes n´ umeros.
Teorema 4.8 (Ley Fuerte de los Grandes N´ umeros). Sea (X
n
)
n≥1
una sucesi´on de
variables aleatorias independientes, id´enticamente distribuidas y tales que E[X
i
] =
µ, i = 1, . Entonces con probabilidad 1
l´ım
n→∞
X
1
+ + X
n
n
= µ;
es decir,
P

ω : l´ım
n→∞
S
n
(ω)
n
= µ
¸
= 1
156
Comentarios.
1. Si A =

ω : l´ım
n→∞
S
n
(ω)
n
= µ
¸
, para todo ω
1
∈ A se cumple que
S
n

1
)
n
estar´a ar-
bitrariamente pr´oximo a µ cuando n −→∞.
2. Esto en el caso de variables aleatorias de Bernoulli, el teorema afirma que para n
grande
S
n
n
−p es peque˜ no y con probabilidad 1 permanecer´a asi.
Demostraremos la ley fuerte de los grandes n´ umeros para variables aleatorias de
Bernoulli. Pero antes demostraremos un importante lema.
Lema 4.4 (Lema de Borel-Cantelli.) Sea ¦A
n
¦
n≥1
una sucesi´on de eventos en un
espacio de probabilidad. Sea
¯
A = ¦ω ∈ Ω : ω ∈ A
n
para infinitos valores de n ¦.
(
¯
A se denomina limite superior de los conjuntos ¦A
n
¦). Entonces
1. Si

¸
n=1
P(A
n
) < ∞ se cumple que P

¯
A

= 0.
2. Si

¸
n=1
P (A
n
) = ∞ y ¦A
n
¦
n≥1
es una sucesi´on de eventos independientes en-
tonces se cumple que ⇒P

¯
A

= 1.
Demostraci´on. Comenzamos por demostrar que
¯
A =

¸
m=1

¸
n=m
A
n
. (4.7)
Si definimos B
m
=

¸
n=m
A
n
, (4.7) equivale a demostrar que
¯
A =

¸
m=1
B
m
.
Sea ω ∈
¯
A, como ω pertenece a A
n
para infinitos valores de n, se tiene que para
todo m ≥ 1 existe n
0
≥ m tal que ω ∈ A
n
0
. Por lo tanto
ω ∈

¸
n=m
A
n
= B
m
=⇒ω ∈

¸
m=1
B
m
=⇒
¯
A ⊆

¸
m=1
B
m
Por otra parte si ω ∈

¸
m=1
B
m
se tiene que ω ∈ B
m
para todo m ≥ 1; por lo que
para todo m ≥ 1 existe n
1
≥ m tal que ω ∈ A
n
1
⇒ω ∈ infinitos A
n

s
, es decir ω ∈
¯
A.
157
1. Si

¸
n=1
P(A
n
) < ∞, de la definici´on de B
m
deducimos que
P (B
m
) ≤

¸
n=m
P (A
n
)
−−−−−→
m →∞ 0.
Pero como
¯
A ⊆ B
m
para todo m entonces P(
¯
A) ≤ P(B
m
). Tomando l´ım
m→∞
obtenemos que es P(
¯
A) ≤ l´ım
m→∞
P(B
m
) = 0 ⇒P(
¯
A) = 0.
2. Supongamos que

¸
n=1
P(A
n
) = ∞. Basta demostrar que P(
¯
A
c
) = 0
¯
A =

¸
m=1
B
m

¯
A
c
=

¸
m=1
B
c
m
, donde B
c
m
=

¸
n=m
A
c
n

l
¸
n=m
A
c
n
,
Entonces P

¯
A
c



¸
m=1
P (B
c
m
). Demostraremos que P (B
c
m
) = 0 ∀m.
P (B
c
m
) = P


¸
n=m
A
c
n

. Ahora bien, usando la independencia de los A
i

s
tenemos que para cada l ≥ m P

l
¸
n=m
A
c
n

=
l
¸
n=m
P (A
c
n
) =
l
¸
n=m
(1 −P (A
n
)) .
Usando la desigualdad: 1 −x ≤ e
−x
para x = P (A
n
) obentemos:
P(B
c
m
) ≤ P

l
¸
n=m
A
c
n

=
l
¸
n=m
(1 −P(A
n
)) ≤
l
¸
n=m
e
−P(A
n
)
= e

l
¸
n=m
P(A
n
)
.
Para m dado, cuando l →∞ se obtiene
0 ≤ P (B
c
m
) = P


¸
n=m
A
c
n

≤ e


¸
m
P(A
n
)
= 0 ⇒P

¯
A

= 1
Lema 4.5 Sean ϕ(x) =
1


e

x
2
2
la densidad normal, µ = 0, σ
2
= 1, y sea Φ(x) =
1

x
−∞
e
−t
2
/2
dt la funci´on de distribuci´on normal. Entonces, cuando x → ∞, se
cumple que 1 −Φ(x) ∼
ϕ(x)
x
.
Demostraci´on. Para t > 0 es claro que

1 −
3
t
4

ϕ(t) < ϕ(t) <

1 +
1
t
2

ϕ(t)
158
Entonces


x

1 −
3
t
4

ϕ(t) dt <


x
ϕ(t) dt <


x

1 +
1
t
2

ϕ(t) dt
1


x

1 −
3
t
4

e
−t
2
/2
dt <


x
ϕ(t) dt <
1


x

1 +
1
t
2

e
−t
2
/2
(t) dt
=⇒

1
x

1
x
3

e
−x
2/2


<


x
ϕ(t) dt <
1
x
e
−x
2/2


Por lo tanto, para valores grandes de x se cumple que
1 −Φ(x) ∼
1
x
e
−x
2/2


.
4.3.2. Ley fuerte de los grandes n´ umeros para variables
aleatorias de Bernoulli.
Teorema 4.9 Sean X
1
, X
2
, una sucesi´on de variables aleatorias de Bernoulli in-
dependientes con probabilidad p de ´exito. Sea S
n
=
n
¸
i=1
X
i
.
Entonces con probabilidad 1
l´ım
n→∞
S
n
n
= p
Demostraci´on. Sea A
k
=

ω :

S
k
−kp

kpq



2a log k

, para a > 1. Entonces usando
el teorema de De Moivre Laplace tenemos que S

k
=
S
k
−kp

kpq
∼ N(0, 1) para valores
grandes de k. Entonces, usando el lema 4.5
P (A
k
) = P

[S

k
[ >

2a log k

= P

S

k
>

2a log k

+ P

S

k
< −

2a log k

∼ 1 −Φ

2a log k

+ Φ

2a log k

= 1 −Φ

2a log k

+ 1 −Φ

2a log k

= 2

1 −Φ

2a log k


2e
−2a log k
2



2a log k
=
2
2

π

a log k
e
log k
−a
< e
log k
−a
=
1
k
a
, a > 1
=⇒

¸
k=1
P (A
k
) <

¸
k=1
1
k
a
< ∞.
159
Por el lema de Borel-Cantelli se tiene que P(
¯
A) = 0. Por lo tanto, con probabilidad
1, A
k
= ¦[S

k
[ >

2a log k¦ ocurre s´olo para un n´ umero finito de k

s.
Por otra parte si

S
n
n
−p

> ε, entonces

S
n
−np

n

pq

>
ε

pq

n >

2a log n para n
suficientemente grande de donde se obtiene que si se cumple si

S
n
n
−p

> ε para
infinitos valores de n entonces [S

n
[ >

2a log n para infinitos n

s lo cual contradice el
hecho de que P(
¯
A) = 0. Por lo tanto ∀ε > 0 con probabilidad 1,

S
n
n
−p

> ε puede
ocurrir s´olo para finitos n

s. Esto implica que, con probabilidad 1
S
n
n
→p (n →∞)
Teorema 4.10 (Ley fuerte de los grandes numeros para variables aleatorias inde-
pendientes.) Sean X
1
, X
2
, . . . variables aleatorias independientes con E [X
i
] = 0 y
V ar [X
i
] = σ
2
i
< ∞. Si

¸
i=1
σ
2
i
i
2
< ∞, entonces con probabilidad 1
X
1
+ . . . + X
n
n
−→0, cuando n −→∞.
160
Ejercicios 4.3
1. Sea X =# caras en 40 lanzamientos de una moneda perfecta. Halle una aproxi-
maci´on de P(X = 20).
2. El tama˜ no ideal de una clase en una universidad es de 150 estudiantes. La univer-
sidad sabe por experiencia que s´olo 30 % de los estudiantes admitidos asistir´a, por lo
tanto tiene la politica de admitir 450 estudiantes para la mencionada clase. Halle la
probabilidad de que el n´ umero de estudiantes que asista sea mayor o igual a 150.
3. Dos tipos de monedas son producidos por una f´abrica: unas son perfectamente
sim´etricas, otras arrojan cara en un 55 % de los casos. Tenemos una de esas mon-
edas pero no sabemos de que tipo es. Para determinar si es perfecta o no hacemos
la siguiente prueba estad´ıstica: lanzamos la moneda 1000 veces y si caen 525 ´o m´as
caras concluimos que no es perfecta. Si la moneda es perfecta, ¿Cu´al es la probabili-
dad de que lleguemos a una conclusi´on equivocada? ¿Cu´al si la moneda no es perfecta?
4.Considere una sucesi´on de experimentos independientes. Sea E un evento que ocurre
con probabilidad P(E) y Y
n
=# veces que ocurre E en n ensayos. Demuestre que con
probabilidad 1
Y
n
n
→P(E) cuando n →∞.
5. Una moneda perfecta es lanzada en ensayos independientes sucesivos. Sea S
n
= el
total de caras despu´es de n ensayos. D´e un estimado de P(
S
n
n
< x).
6. Un evento E ocurre con probabilidad
1
4
en una realizaci´on de un experimento.
D´e una aproximaci´on de la frecuencia relativa de ocurrencia de E si el experimento
se realiza de forma independiente n veces, para n suficientemente grande. Justifique
su respuesta.
7. Un jugador gana o pierde 1 d´olar con probabilidades p y q respectivamente. Si el
puede (y lo hace) seguir jugando incluso despu´es de haber perdido todo, a) ¿Qu´e puede
decirse de la ganancia acumulada en un n´ umero grande de juegos? b) Demuestre que
si el juego no es justo y p < 1/2, entonces a medida que el jugador continua jugan-
do su deuda aumenta constantemente con una probabilidad abrumadora. Sugerencia:
an +b

n →−∞ cuando n →∞, para a < 0 y b > 0.
8. Se tienen 100 componentes que se usan uno despu´es de otro de manera secuencial,
reemplazando de inmediato un componente cuando este falla. Si el tiempo de vida
de cada componente est´a exponencialmente distribuido con media igual a 10 horas,
independientemente uno de otro, estime la probabilidad de que despu´es de 1200 horas
todav´ıa se encuentre alg´ un componente funcionando.
161
9. En una m´aquina de juego se gana o pierde 1 punto en cada jugada. En un dia
especial el casino ofrece fichas gratis a los jugadores que acumulen m´as de 80 puntos
en los primeros 100 juegos. Los jugadores experimentados saben que en la m´aquina
roja la probabilidad de ganar un juego es
4
5
. (a) ¿Cu´al es la probabilidad de que un
jugador gane las fichas extra si juega en la m´aquina roja?. (b) Si cada jugador real-
iza s´olo 100 jugadas, ¿cu´al es la probabilidad de que los primeros 8 jugadores en la
m´aquina roja no obtengan las fichas extra?
10. Se tienen 25 componentes electr´onicos cuyos tiempos de vida son variables aleato-
rias independientes exponencialmente distribuidas con media igual a 1 a˜ no. Si se usa
s´olo uno de estos componentes a la vez y cada componente da˜ nado se reeplaza inmedi-
atamente; halle la probabilidad de que los 25 componentes tengan un tiempo total de
vida que oscile entre 30 y 40 a˜ nos.
11. Se lanza un dado perfecto consecutivamente hasta que la suma de todos los valores
obtenidos sea mayor que 260. Halle la probabilidad de que se requieran al menos 65
lanzamientos.
12. Una bolsa contiene 10 bolas numeradas del 1 al 10. Se saca una bola al azar,
se anota el n´ umero y se coloca la bola de nuevo en la bolsa. La operaci´on se repite
sucesivamente hasta que la suma de los n´ umeros obtenidos sea mayor que 500. Halle
la probabilidad aproximada de que se requieran al menos 82 extracciones.
13. Un apostador tiene probabilidad
1
3
de ganar en una jugada. Si ´el juega undefinida-
mente, d´e un valor aproximado del n´ umero promedio de juegos que ganar´a. Justifique
su respuesta.
14. Una computadora genera una secuencia de 10000 d´ıgitos aleatorios. Halle la prob-
abilidad de que el d´ıgito 7 aparezca m´as de 968 veces.
15. Al lanzar una moneda 10.000 veces se obtuvieron 5.500 caras. ¿Se puede suponer
que la moneda es legal?
16. Calcule una aproximaci´on de la probabilidad de que el n´ umero de 6 obtenidos
al lanzar un dado perfecto 12.000 veces est´e comprendido entre 1900 y 2153.
17. Encuentre k tal que la probabilidad de obtener entre 490 y k veces cara en 1000
lanzamientos de una moneda perfecta sea
1
2
.
18. Un dado se lanza hasta que la suma de las caras sea mayor que 300. Halle la
probabilidad de que se requieran al menos 80 lanzamientos.
162
Bibliograf´ıa
[1] K.L.Chung, Teor´ıa Elemental de la Probabilidad y de los Procesos Estoc´asticos,
Ed. Revert´e (1983) .
[2] W. Feller, Introducci´on a la Teor´ıa de Probabilidades y sus Aplicaciones, Limusa-
Wiley (1973).
[3] M.M. Olivares Notas de Probabilidades. Escuela de Matem´aticas, UCV (2003).
[4] S. Ross, A First Course in Probability, 3rd. Ed. Macmillan (1988).
[5] J. Ortega, Notas del Curso de Probabilidades. No ha sido publicado.
163

2

´ Indice general
1. Modelos Probabil´ ısticos. Teor´ Combinatoria. F´rmula de Bayes. ıa o 1.1. Introducci´n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 1.2. Breve rese˜a hist´rica. . . . . . . . . . . . . . . . . . . . . . . . . . . n o 1.3. Modelo Probabil´ ıstico. . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Teor´ de Conjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . ıa 1.4.1. Definiciones B´sicas y Notaciones. . . . . . . . . . . . . . . . . a 1.4.2. Operaciones con Conjuntos. . . . . . . . . . . . . . . . . . . . 1.5. Espacio de Probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Espacios de Probabilidad. . . . . . . . . . . . . . . . . . . . . 1.6. Propiedades de la Probabilidad. . . . . . . . . . . . . . . . . . . . . . 1.7. Introducci´n a la Teor´ Combinatoria. . . . . . . . . . . . . . . . . . o ıa 1.7.1. Muestreo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.2. F´rmulas Combinatorias. . . . . . . . . . . . . . . . . . . . . . o 1.8. Problemas de Colocaci´n. . . . . . . . . . . . . . . . . . . . . . . . . o 1.9. Probabilidad Condicional e Independencia. . . . . . . . . . . . . . . . 1.9.1. Probabilidad Condicional. . . . . . . . . . . . . . . . . . . . . 1.9.2. Resultados B´sicos sobre Probabilidad Condicional. . . . . . . a 2. Variables Aleatorias 2.1. Introducci´n. . . . . . . . . . . . . . . . . . . . . . . o 2.2. Funci´n de Distribuci´n. . . . . . . . . . . . . . . . . o o 2.2.1. Propiedades de la Funci´n de Distribuci´n. . . o o 2.3. Algunas Distribuciones Importantes. . . . . . . . . . 2.3.1. Distribuciones de Algunas V.A. Discretas. . . 2.3.2. Densidades. Distribuciones de V A. Continuas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 10 14 14 15 21 22 22 29 31 37 38 47 47 51 61 61 65 65 72 72 82 95 103 107 111 116 125

3. Esperanza y Varianza de Variables Aleatorias. 3.1. Distribuci´n Conjunta de Variables Aleatorias. . . . . . . o 3.1.1. Esperanza de Funciones de Variables Aleatorias. . 3.1.2. Variables Aleatorias Independientes. . . . . . . . 3.1.3. Funciones de Varias Variables Aleatorias. . . . . . 3.1.4. Distribuci´n Condicional de Variables Aleatorias. o 3

. . 4. .2. . . C´lculo de Momentos. . o 4. . . . .1. . . . . . . . u 4. . .5. . . . . .2. .2. . . . .1.4 4. . . . .1. . Desigualdad de Markov . . . . . . . . Teoremas Limite 4. . . o 4. . . . . . . de . . . . u 4. . Ley fuerte de los grandes n´meros para variables aleatorias u Bernoulli. . . . .4. . . . .1. . . . . . . . . . . . Preliminares. . Funci´n Generadora de Momentos. . . . . . . . . . . . . . . 4. . . . . . . . . Teorema central del l´ ımite . . . . . Introducci´n . Leyes de grandes n´meros. . . . . . . . . . .2. . .1. . . . . . . . . . . .2. Convergencia de variables aleatorias. . . . . . . . . . . . . . . . . 4. . . . .3. . . . . . . . . . . . . . Ley Fuerte de los Grandes N´meros.3. . . . . .2. . . . . . . . . Aplicaciones . . . . . . . . . 158 . . .3. . . . . .2. . . . . . . . . . . . . . 4. . . . . . . . .3. . . . . . . . . . . . . . . . . . . . 131 131 134 140 140 140 146 146 147 155 155 . . 4. . . a 4. . . . . . . . . . . . . . . . . .2. . .

o Este curso es una introducci´n a la teor´ de las probabilidades. Consideraremos adem´s algunas de las a much´ ısimas aplicaciones de las probabilidades en la descripci´n y el estudio del mundo o que nos rodea. 5 . Esto se debe a que la teor´ de las probabilidades permite estuıa diar y ”medir”la incertidumbre que forma parte de casi todo lo que ocurre a nuestro alrededor. el cual se extiende a todas las ramas de las ciencias naturales. siendo la parte que ignoramos muy releo vante. esto es e a la construcci´n de un modelo probabil´ o ıstico. o 1. Antes de formular los conceptos b´sicos relacionados con la construcci´n de un a o modelo probabil´ ıstico. consideraremos varias situaciones concretas que nos permitir´n a apreciar la relevancia de dichos conceptos. Pese a esto y a´n cuando en ocasiones dichos problemas a u resulten pintorescos y hasta graciosos su soluci´n puede no ser obvia y en algunos o casos puede ser bastante dif´ ıcil. Se estudiar´ la a forma en que tales situaciones pueden expresarse en t´rminos matem´ticos. normalmente nuestro conocimiento de la realidad circundante es s´lo parcial. F´rmula de Bayes.Cap´ ıtulo 1 Modelos Probabil´ ısticos. Introducci´n. la tecnolog´ ıa y las ciencias sociales. por desconocimiento de las leyes que rigen los fen´menos o por no poder manejar o todas las variables que intervienen en los mismos. De hecho. Teor´ ıa Combinatoria. cuando no de vital importancia. ya sea por falta de instrumentos de medici´n adecuados o preo cisos. Muchos problemas interesantes en probabilidades pueden formularse con muy poca herramienta matem´tica.1. Se tiene como o ıa primer objetivo alcanzar la comprensi´n de la naturaleza de las situaciones que coo munmente pueden ser descritas mediante modelos probabil´ ısticos. La teor´ de las probabilidades se caracteriza por el amplio campo de aplicaciones ıa que posee.

Uno de estos jugadores. Usted tiene que escoger una puerta y se ganara lo que este tras ella. En cada partida el ganador recibe un punto y gana el que primero acumule n puntos. Breve rese˜ a hist´rica. ¿seria un o cambio de puerta ventajoso para usted? Nota: Observe que las respuestas a los problemas anteriores depende de que podamos ”medir”el chance de ganar en cada caso. o una de las cuales esconde un lujoso autom´vil nuevo. pero solo puede apostar a u un n´mero. Si por alguna raz´n el juego debe ser suspendido antes de o que haya un ganador. en los que se apostaban grandes sumas de dinero. Entre los jugadores. eran una actividad generalizada entre las personas adineradas. ¿Cu´l es su mejor opci´n? u a o 2. Asumiendo que usted quiere llevarse el carro. 1. etc.6 Los siguientes ejemplos ilustran algunas de las situaciones que pueden plantearse en el marco de las probabilidades. Suponga que usted est´ en la fase final de un concurso que se transmite por telea visi´n. El problema de los puntos. cartas. En este momento crucial el animador del concurso lo coloca ante tres puertas. los cuales.2. Surgian constantemente nuevos y cada vez m´s complicados juegos con a dados. El hor´scopo u o de un jugador dice que sus n´meros de suerte son 3 y 6. El carro y las cabras (The New York Times. De M´r´. (1 es f´cil: hay m´s chance con 6) a a 3. n o El inicio de la teor´ de las probabilidades se produce oficialmente a mediados ıa del siglo XVII y est´ estrechamente relacionado con los juegos de azar. ruletas. Un jugador apuesta a un n´mero u y gana si ese n´mero es la suma de las caras mostradas por los dados. ee . En un casino se lanzan dos dados distintos. Entonces el animador abre una de las puertas que oculta a una cabra y le pregunta si le gustar´ ıa cambiar su elecci´n inicial. Detr´s de cada una de las otras o a dos puertas se encuentra una linda cabra. Usted se decide y anuncia su escogencia. Ejemplos 1. ¿c´mo deber´ repartirse el premio final entre los concursantes? o ıa 1. surgian al mismo tiempo preguntas relacionadas con m´todos que permie tieran medir el riesgo en una determinada apuesta. 1991).1 Apuestas y juegos. Suponga que dos personas estan jugando un juego en el que el ganador recibir´ una a cantidad a de dinero. a en la sociedad francesa de 1650.

Ejemplos 1.Se colocan r bolas en n celdas. esto es la imposibilidad de predecir lo que ocurrir´ en la pr´xima realizaci´n del experimento aleatorio. Las bolas se colocan al azar en las celdas. B y o C y tres celdas enumeradas 1. ¿Cu´l a es la probabilidad de que exactamente una celda quede vacia? . Colocaci´n de tres bolas en tres celdas. . Como ıa hemos visto en los ejemplos anteriores. Se tienen 3 bolas etiquetadas A. cambi´ la forma en que se o pensaba acerca de las probabilidades transformandola en una disciplina independiente y fundamental en el desarrollo de la ciencia. la incertiduma bre inherente a un fen´meno dado. entre quienes se encontraba Pierre Fermat. u .Fotograf´a: Una placa fotogr´fica est´ cubierta por granos sensibles a la luz. .Accidentes: r accidentes en 7 dias de la semana.1958) postul´ el ”principio de incertidumbre” seg´n el cual para part´ o u ıculas muy peque˜as es imposible conocer la velocidad y la posici´n exactamente: mientras n o m´s nos acercamos a la posici´n exacta m´s difusa se hace la idea de velocidad. Lo a o a mejor que puede hacerse es dar una respuesta probabil´ ıstica en esta situaci´n. Inı a a teresa saber el n´mero de cuantos de luz (bolas) que golpea un grano (celda). las situaciones que se estudian en probabilidades se caracterizan por la incertidumbre. que a falta de mayor informaci´n permit´ predecir o aproximar lo que no se pod´ calcular. Cumplea˜os.7 consult´ en Paris con el famoso matem´tico y fil´sofo Blaise Pascal sobre algunas de o a o estas preguntas. De a alli surgieron comentarios y soluciones a muchos de los problemas planteados iniciandose de esa forma lo que hoy se conoce como la teor´ de las probabilidades. Esto origin´ una famosa correspondencia entre Pascal y algunos de o sus amigos matem´ticos de la epoca. ¿Cu´ntas personas deber´ estar presentes en un sal´n para que n a ıan o la probabilidad de que al menos dos celebren su cumplea˜os el mismo dia sea mayor n que 1/2 ? 2. La probabilidad da la a o o posibilidad de ”medir”.2 Situaciones Diversas. . A´n cuando las aplicaciones de la teor´ de las o u ıa probabilidades se extendieron con rapidez a diferentes ´reas de la ciencia. en un sentido que precisaremos m´s adelante. 1. Este o principio que en la actualidad es generalmente aceptado. o ıa ıa Esta concepci´n cambi´ en el siglo XX cuando Werner Heisemberg (premio Nobel o o de f´ ısica. durante a mucho tiempo se consideraban las probabilidades como una disciplina menor. 2y 3.Estudio del efecto gen´tico de la radiaci´n: Las part´ e o ıculas α son las bolas y los cromosomas representan las celdas.

si te digo u el nombre de uno de los prisioneros que ser´ liberado pasar´s a ser uno de dos pria a sioneros a ser liberados con lo que tu chance de salir libre se reducir´ a 1/2. . . la intuici´n sugiere u o o que cada uno de los posibles resultados debe tener la misma posibilidad de ocurrir. El prisionero A le pide al guardia el nombre de uno de los prisioneros. ω2 . Seleccionar un n´mero de loteria. . 4. que llamaremos A. Sin embargo. ω3 . Espacio muestral: Ω = {C. Espacio muestral: Ω = {1. ¿De qu´ manera la informaci´n suministrada por el guardia afecta el chance e o que el preso tiene de ser liberado? ¿C´mo podemos analizar este problema? o Uno de los aspectos m´s b´sicos de este problema es que. B y C. B}. Espacio muestral: Ω = {1. sin que prive ning´n criterio de selecci´n.3 1. saben que dos de ellos ser´n liberados a y el tercero permanecer´ preso por un largo tiempo. 3. Tres prisioneros. es decir. El Dilema de los Prisioneros. {A. Como no a quiero perjudicarte no te dir´ nada. El guardia se niega con el siguiente argumento: e ”En este momento t´ probabilidad de ser liberado es de 2/3. Denotaremos estos resultados como {A. es que si asumimos que los presos a ser liberados se escogen al azar. . Lanzar una moneda con dos caras distintas. distinto de ´l mismo. en este caso 1/3 (´ un chance de 33 %).8 3. 2. u Seleccionar seis n´meros en el juego de Lotto. ωi = ωj i = j}. o o Ejemplos 1. 10000}. . Puesto que no se tiene ning´n a u criterio para decidir quien es liberado y quien no. 6}. A y C son liberados ´ B y C son liberados. este n´mero deber´ ser el mismo para todos los u ıa resultados. Lanzar un dado con seis caras distintas. C} o respectivamente. ω4 . . a ser liberado. 2. al ser liberados dos pria a sioneros. . 2. cabe preguntarse si el razonamiento del guardia es n o correcto. si hemos de asignar un n´mero a la posibilidad de ocurrencia de cada u resultado y si asumimos que se le asigna el n´mero 1 a un resultado que tiene un u chance de ocurrencia de 1 00 %. Observe que la situaci´n anterior o o es un caso particular de la siguiente situaci´n m´s general: o a Se considera una acci´n que puede ser repetida cuantas veces se quiera en las mismas o condiciones y de la cual se obtiene en cada repetici´n uno y s´lo uno de r resultados o o posibles. Por lo tanto. Suponemos adem´s que no tenemos control alguno sobre el resultado a proa ducirse en cada realizaci´n de la acci´n. S}. ω5 . 3.” e Ante esta extra˜a situaci´n. 5. se tienen tres resultados posibles: A y B son liberados. . ninguno de ellos sabe quienes ser´n a los elegidos. 4. ω6 } : ωi ∈ {1. C} y {B. . Otro aspecto importante. Espacio muestral: u Ω = {{ω1 . 50}.

. B}. Paso 2. si el dado es perfectamente sim´trico. con esto no se pierde generalidad ya que los otros caos pueden ser tratados de manera similar. Observe que O1 es equivalente o a seleccionar {A. El conductor del programa descubre una de las cabras y le da al participante . O4 = {quedan libres B y C. j = 1. o M´s adelante analizaremos este problema en mayor profundidad. Esto equivale a seleccionar al azar uno de los tres pares (no ordenados) {A. Consideremos el experimento que consiste en seleccionar al azar un par de presos para ser liberados. Asumiremos que el carro se encuentra detr´s de la puera ta 1. Sean O1 = {quedan libres A y B. u Consideramos ahora la soluci´n de alguno de los problemas planteados en ejempo los anteriores. a´n cuando sabemos cuales son los resultados u posibles. Para responder a esto debemos considerar un experimento con un espacio muestral (resultados) diferente. 10000. Como cada par tiene probabilidad 1/3 de ser seleccionado. . 6. Adem´s. El dilema de los prisioneros. Entonces la probabilidad de liberar a A sigue siendo 1/3 + 1/3 = 2/3. y concluimos que la informaci´n sumunistrada por el guardia no altera las posibilidades de A de salir libre. Sin embargo en este contexto no nos es posible determinar si el hecho de que el guardia d´ a conocer a A la identidad de uno de los que ser´ liberado e a afecta las posibilidades de A de salir libre. . i = 1. C} que tambien tiene probabilidad 1/3. C} . el el el el guardia guardia guardia guardia informa informa informa informa que que que que B C B C ser´ a ser´ a ser´ a ser´ a liberado} liberado} liberado} liberado} En esta situaci´n A es liberado si ocurre O1 u O2 . u M´s adelante aprenderemos a determinar la probabilidad de una combinaci´n de a o n´meros en el Lotto. B} o {A. . El participante elige una puerta. B} por lo que O1 tiene probabilidad 1/3 y an´logamente O2 es a equivalente a seleccionar {A. a El carro y las cabras. la moneda es perfecta a e y la selecci´n de los n´meros de loter´ se hace sin trampas estaremos de acuerdo en o u ıa que todos los resultados son igualmente plausibles cada vez que se realiza el experimento: • Al lanzar el dado la probabilidad de obtener un i es igual a 1/6. O3 = {quedan libres B y C. la probabilidad de que A sea liberado es la probabilidad de que ocurra {A. . • Al lanzar la moneda la probabilidad de obtener una cara es de 1/2. es decir 1/3 + 1/3 = 2/3 que es lo que el guardia afirma. {A. Consideremos el experimento que consiste en los siguientes pasos: Paso 1. • Al seleccionar un n´mero la probabilidad de obtener j e 1/10000. O2 = {quedan libres A y C. . .9 En cada uno de los casos anteriores. C} o {B. . C}. no podemos predecir con exactitud lo que ocurrir´ en la siguiente realizaci´n a o del experimento.

(3. 1)}. 3. (2. o Un resultado de este experimento puede representarse como una terna (elecci´n o 1. 2). 2. El participante hace su elecci´n definitiva. En este caso el espacio muestral asociado o o al experimento esta dado por: Ω = {(1. o Paso 3. 2. 3. FENOMENO NATURAL 2. 3). (1. o a del estudio de este modelo se sacan conclusiones que son aplicadas a la situaci´n real. 1). 1). 1). elecci´n 2) y dependiendo de la elecci´n final del participante se tienen dos o o situaciones posibles: o bien el concursante cambia su elecci´n inicial o la ratifica. 1)} que es el evento de elegir la puerta 1. o Situaci´n 1: se cambia de puerta. cabra. 1). 3. o 1. Dado que el participante no tiene ninguna idea de la ubicaci´n del carro. (2. 1.3. Situaci´n 2: se ratifica la elecci´n inicial. (I) Un experimento aleatorio es una acci´n que puede ser repetida bajo las miso mas condiciones tantas veces como se quiera. El participante gana el carro si ocurre {(1. (1. 1)} es el evento de elegir la puerta 3. 2. (1. Lo o que queremos es determinar si estas dos situaciones diferentes le dan al participante diferentes posibilidades de ganar el carro. del cual se conocen todos los resultados . 2. 3. Modelo Probabil´ ıstico. 2. esto es 1/3. MODELO ´ MATEMATICO 3. 1)} es el evento de elegir la puerta 2 y {(3. 1)} y como {(2. Dado un fen´meno natural se formula un modelo matem´tico que lo aproxime. (3. 3)}. El participante gana el carro en el evento {(2. CONCLUSIONES A continuaci´n describiremos los elementos b´sicos en la formulaci´n de un moo a o delo probabil´ ıstico. 2). 3. lo unico que podemos afirmar es que las tres puertas o ´ tienen la misma posibilidad de ser seleccionadas en la primera elecci´n. 2. En este caso el espacio muestral asociado al o experimento esta dado por: Ω = {(1. 2. Por lo tanto en este caso la posibilidad de ganar es de 1/3. (3.10 la opci´n de cambiar de puerta. 3. 1). 3. se tiene la posibilidad de ganar el carro es igual a 1/3 + 1/3 = 2/3.

2.2) (6. c). 4. (c.5) 6 (1. infinito numerable Ω = {(c). El espacio muestral es el conjunto. (s.6) (5.}. . donde B significa bueno y D defectuoso. 2. (s. 5.1) (5. 6} . El espacio muestral es el conjunto Ω = {(c. uno rojo y uno verde. . 4.4) (5. i donde i = 0 si el i-´simo art´ e ıculo est´ bueno y a fectuoso.6) 2. c).4) (3. 5. . . .5) (4.2) 3 (1. Ejemplos 1. (s.3) (2. 4.5) (5.2) (4. 3. s.6) (4. Se lanzan dos dados. (s. En este caso el espacio muestral se puede escribir como Ω = {B. El espacio muestral asociado a este experimento es el conjunto: Ω = (a.5) (3. s).3) (5. En una f´brica se toma uno de los art´ a ıculos producidos y se prueba para determinar si es defectuoso.3) 4 (1. (s. En caso contrario se dice que el espacio muestral es continuo.1) (3. Se lanza una moneda dos veces y se anota el resultado de cada lanzamiento. o (II) El espacio muestral asociado a un experimento aleatorio es el conjunto de los posibles resultados del experimento. el espacio muestral puede ser representado por el conjunto Ω = {( 1 .4 1. c).3) (6.2) (2.6) (3.2) (3. = 1 si el i-´simo art´ e ıculo est´ dea .3) (3.11 posibles sin que se pueda predecir con exactitud el resultado que se obtendr´ en la a siguiente repetici´n.4) 5 (1. 3. Este espacio puede tambien ser representado como R\V 1 2 3 4 5 6 1 (1. .1) (4.4) (2. D}. s.3) (4. Un espacio muestral se dice discreto si posee una cantidad finita o numerablemente infinita de elementos. b) : a ∈ {1. s. s)}.4) (6.6) (6. b ∈ {1. n )}.4) (4.5) (2.1) (6.2) (5. Si en cambio se extraen n art´ ıculos y se prueban.1) (2. 3. c). Se lanza una moneda hasta obtener una cara.5) (6. . 6}. c). simult´neamente y se anota el rea sultado.6) (2.1) 2 (1.

. 1). no es o o unico ya que de depende de lo que la persona que realiza el experimento considere ´ importante. . y) : x2 + y 2 ≤ 1}. 1] y que satisface o u ciertas condiciones que ser´n detalladas m´s adelante. Ejemplos 1. La probabilidad de un evento a a se interpreta como una medida de la plausibilidad de que dicho evento ocurra. por razones que ser´n expuestas m´s adelante. (1. (3. s). Comentarios. 3). medida de probabilidad o funci´n de probabilidad ) es una o funci´n que asigna a cada evento A en Ω un n´mero P (A) ∈ [0. Entonces habr´ que incluir en el espacio muestral ıa elementos de la forma: (b. (2. El evento la suma es 5 est´ dado por B = a {(1. Se lanzan dos dados distintos y se apuesta a que la suma es tres. Dado un espacio muestral Ω correspondiente a un o experimento aleatorio. El evento el dado rojo cae en 1 y el verde entre 3 y 6 es el conjunto C = {(1. y (1. c). (s. con lo que se obtiene un espacio muestral diferente asociado al mismo experimento. a a a (IV) Definici´n preliminar. una probabilidad (tambi´n denominada distribuci´n de e o probabilidad. es decir Ω = {(x. El espacio muestral es en este caso el conjunto de puntos del plano que se encuentran dentro de la circunferencia de radio 1. (c. 6) se podr´ considerar el caso en ıa que uno de los dados cae fuera de nuestro rango visual y decidir que en este caso su valor no puede ser registrado. Antes . Se escoge un punto al azar lanzando un dardo a un disco de un metro. . 1)}. 2). . 6)}. 5). Se lanza una moneda dos veces. se apuesta al evento A = {(1. al lanzar dos dados (ej. 3). 2). 4). 1)}. • Los resultados individuales de un experimento aleatorio son llamados tambi´n evene tos simples. Por ejemplo.5 1. (2. .12 5. (4. 2. c)}. 4). Si el espacio muestral es infinito esto a no ser´ necesariamente cierto. . El espacio muestral. esto es un conjunto de resultados. esto es. • Cuando se tenga una cantidad finita de resultados posibles. (III) Un evento asociado a un experimento es un subconjunto del espacio muestral. como abstracci´n de una situaci´n real. cualquier subconjunto del espacio muestral se considerar´ un evento. (1. • Al realizar un experimento decimos que un evento A ocurre si el resultado obtenido pertenece a A. (1. b). Comentarios. El evento se obtiene al menos una cara es el conjunto D = {(c. .

una medida de la plausibilidad de este evento podr´ estar dada por la proporci´n de mangos podridos: ıa o P (A) = |A|/|Ω|. se tiene que para n grande cada uno de los m resultados ocurrir´ aproximadamente n/m veces. Esto es de importancia si consideramos el experimento aleatorio consistente en sacar un mango al azar de la caja y el evento A =el mango est´ podrido. Para cada evento A se define n(A) como el n´mero de veces e u que el evento A ocurre en las n primeras repeticiones. es decir. y todos los resultados son igualmente probables. Suponga que un experimento con espacio muestral Ω se realiza repetidamente en id´nticas condiciones. discutiremos algunas nociones ino tuitivas que han sido utilizadas para tratar de definir esta medida. n Aqui se define la probabilidad de un evento como el limite de los promedios de las veces que el evento ocurre. Esto es. En segundo lugar es posible que sucesiones de frecuencias correspondientes a distintas sucesiones de realizaciones del experimento tengan limites diferentes. a Si A es un evento que posee a elementos entonces en n realizaciones del experimento A ocurrir´ n(A) = an veces aproximadamente. y para un subconjunto A de Ω definimos |A| =´rea de A a podemos entonces definir la probabilidad de A como la raz´n P (A) = |A|/|Ω|. Si el espacio muestral es finito o ıa y tiene m elementos. Si consideramos el espacio o muestral del ejemplo 14. Proporci´n Relativa. o Suponga que se tiene una caja de mangos y se sabe que hay algunos mangos podridos en ella. donde las barras indican el n´mero de elementos del conjunto.13 de formular la definici´n precisa de probabilidad. si o u sabemos que hay 35 mangos podridos. con lo cual la definici´n no tendr´ sentido. Esta definici´n tiene varios inconvenientes. resulta m´s razonable tomar en a cuenta la proporci´n relativa de frutas podridas que su n´mero absoluto. Entonces la frecuencia relativa de A a m satisface a |A| n(A) = = = P (A) n m |Ω| P (A) = n→∞ l´ ım . A efectos de fijar un valor por la caja. Esta u noci´n puede extenderse a espacios muestrales infinitos. la importancia de esta cantidad ciertamente depender´ del n´mero total de mangos en la caja: si hay s´lo 50 mangos una gran a u o cantidad del total no sirve mientras que si hay 500 mangos 35 malos es una cantidad menos significativa. a Dado que el espacio muestral asociado a este experimento es el conjunto de todos los mangos y que cualquier mango puede ser seleccionado por igual. En primer lugar no podemos garantizar o la existencia del l´ ımite. el limite de las frecuencias relativas del evento. o Frecuencia Relativa. Entonces se puede definir n(A) .

Si E y F son conjuntos decimos que E est´ contenido en F o que E es a un subconjunto de F . si todo elemento de E es tambien elemento de F . Un conjunto E se dice numerablemente infinito si se puede establecer una biyecci´n entre E y el conjunto de los n´meros naturales N.4.1. a Un conjunto es una colecci´n de objetos determinada por una regla que especifica o exactamente que objetos pertenecen a la colecci´n. 3. lo que se denota E ⊂ F . o Dado que la probabilidad es una funci´n de conjuntos. 1. Si E ⊆ F y E y F no son iguales. o • Se utilizar´n letras may´sculas. En general A = {a ∈ S : ℘(a)}. ıa Definiciones B´sicas y Notaciones.4. esto ocurre si y solamente si E ⊆ F y F ⊆ E. Es decir. o Los objetos pertenecientes a un conjunto se denominan elementos o puntos del conjunto.14 si consideramos la proporci´n relativa como medida del evento A. latinas o griegas. Teor´ de Conjuntos. En particular denotamos por R al conjunto u de los n´meros reales y por N al conjunto de los n´meros naturales. u u • Dado un conjunto S. a • Dando una lista de todos los elementos que pertenecen al conjunto: A = {1. se dice que E est´ estrictamente a contenido en F . 1 ≤ a ≤ 5}. 5} = el conjunto de los impares entre 1 y 5. Un conjunto es o u numerable o contable si es finito o numerablemente infinito. para denotar a los conjuntos y a u min´sculas para denotar a los elementos. a ıa a 1. Nota. Notaci´n. Dos conjuntos E y F son iguales si poseen exactamente los mismos elementos. . haremos un repaso de las o nociones b´sicas de teor´ de conjuntos que ser´n esenciales en el resto del curso. • El simbolo ∅ denota al conjunto vacio (conjunto que no tiene elementos). • Escribiendo de manera simb´lica la propiedad que caracteriza a sus elementos: o A = {a ∈ N : a impar . denotado E ⊆ F . en los o casos en que todos los resultados tienen la misma probabilidad la frecuencia relativa coincide con la proporci´n relativa. Los conjuntos pueden representarse de varias maneras: • Describiendo verbalmente la regla que define a sus elementos: el conjunto de los estudiantes de matem´tica en la UCV. a ∈ S se lee ”a pertenece a S” y a ∈ S se lee ”a no pertenece / a S”.

Por ejemplo si Ω es el espacio muestral correspondio ente al lanzamiento de dos dados. es decir su u intersecci´n es vacia: A ∩ B = ∅. Propiedades. Demuestrelo. / Cuando F ⊆ E se usa la notaci´n E \ F = E − F . • Leyes Distributivas: i) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C): si x ∈ (A ∪ B) ∩ C entonces x ∈ A ∪ B y x ∈ C. o la diferencia sim´trica de E y F se define como e E F = (E \ F ) ∪ (F \ E) = (E ∪ F ) \ (E ∩ F ). de donde deducimos que x ∈ A ∩ C o o x ∈ B ∩ C. En lo que sigue el conjunto X ser´ dea nominado espacio y sus elementos puntos. Dado un subconjunto E de X.15 1. Finalmente. Operaciones con Conjuntos.2.4. Note que Ac = X − A. • (Ac )c = A. Reciprocamente si x ∈ (A ∩ C) ∪ (B ∩ C). La diferencia de E yF es el conjunto E \ F = {x ∈ E : x ∈ F } = E ∩ F c . por lo tanto x ∈ A ´ x ∈ B y x ∈ C. lo que implica que (A ∪ B) ∩ C ⊆ (A ∩ C) ∪ (B ∩ C). complemento de E en X se define como E c = {x ∈ X : x ∈ E}. Lo que demuestra la otra contenci´n. / Dados los conjuntos E y F . • A ∪ A = A = A ∩ A. • Leyes de Morgan: . o ii) (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C). Sea X un conjunto (no vacio) de elementos. la uni´n de E y F es el conjunto o E ∪ F = {x ∈ X : x ∈ E ´ x ∈ F }. o La intersecci´n de E y F es el conjunto o E ∩ F = {x : x ∈ E y x ∈ F }. entonces x ciertamente pertenece a C y adem´s vemos que a x ∈ A o x ∈ B. Dos conjuntos E y F son disjuntos si no tienen elementos en com´n. son conjuntos disjuntos los eventos: A = la suma es 8 y B = al menos un uno.

D´ un ejemplo. usualmente se asume I ⊆ R que puede ser finito. . . n} para alg´n n ∈ N. . en general (A \ B) \ C = A \ (B \ C) y A \ B = B \ A. es decir. Demuestre esta igualdad a partir de la anterior. . . . Cuando el conjunto de ´ ındices I es finito. Cuando I es numerable se tiene ∞ Ei = {x : x ∈ Ei para alg´n i ∈ N} u i=1 y ∞ Ei = {x : x ∈ Ei para todo i ∈ N}. . como o o el conjunto consistente de los elementos que pertenecen a Eα para al menos un α ∈ I. . Definimos la uni´n de una colecci´n de conjuntos. y para cada α ∈ I sea Eα un conjunto. . o Sea I un conjunto arbitrario de elementos llamados ´ ındices. Notaci´n. 2. la intersecci´n de una colecci´n de conjuntos se denota a o o Eα y se define como el conjunto conformado por los elementos que pertenecen a α∈I Eα para todo α ∈ I. . denotada por α∈I Eα . podemos decir que I = {1. La colecci´n de los Eα se denota Eα o o α∈I . En este caso la uni´n y la intersecci´n se escriben como: u o o n Ei = {x : x ∈ Ei para alg´n i ∈ {1. • La diferencia de conjuntos no es ni asociativa ni conmutativa. . . De manera an´loga. n}} i=1 respectivamente. infinito numerable o infinito no numerable.16 i) (A ∪ B)c = Ac ∩ B c : si x ∈ (A ∪ B)c entonces x ∈ A ∪ B lo que implica que x ∈ A / / c c c c y x ∈ B es decir x ∈ A ∩ B . / ii) (A ∩ B)c = Ac ∪ B c . Eα = F α∈I α∈I . n}} u i=1 y n Ei = {x : x ∈ Ei para todo i ∈ {1. e Operaciones con Familias (finitas ´ infinitas) de Conjuntos. Reciprocamente si x ∈ A ∩ B entonces como x ∈ A y / / x ∈ B se tiene que x ∈ (A ∪ B)c . i=1 Las leyes distributivas se generalizan de manera natural para familias arbitrarias de conjuntos: (F ∩ Eα ).

α∈I Eα α∈I c = Funci´n Indicatr´ o ız.1) Notaci´n. • IA∪B (ω) = IA (ω) ∨ IB (ω).17 F α∈I Eα = α∈I (F ∪ Eα ). 1}. Eα c . Dados dos n´meros reales a y b: o u • el m´nimo entre a y b se denota por a ∧ b. ı • el m´ximo entre a y b se denota por a ∨ b. IA (ω) =    1 si ω ∈ A 0 si ω ∈ A / (1. . a La funci´n indicatr´ satisface las siguientes propiedades: o ız • IA∩B (ω) = IA (ω) ∧ IB (ω) = IA (ω)IB (ω). Se tienen tambien las leyes de Morgan: Eα α∈I c = α∈I Eα c . • IΩ = IA (ω) + IAc (ω). Dado un conjunto A ⊆ X la funci´n indicatr´ de A (tambi´n llamada funci´n o ız e o indicadora o caracter´ ıstica de A) se define de la siguiente manera: IA : X −→ {0.

6. Una caja contiene 3 metras.3. luego. Explique porqu´ es este espacio discreto.3. Se toma una metra de la caja. Encuentre la probabilidad de los siguientes eventos: i) se obtiene un seis y al menos una cara. Se lanza un dado continuamente hasta que aparezca un 6. 6. si est´ dormio n a do. se realiza sacando la segunda metra sin reemplazar la primera. ¿Cu´l es la probabilidad ahora de ganar el a carro? ¿Cu´l es la probabilidad de ganar el carro si usted no cambia de puerta? a 3. Encuentre la probabilidad de que la alarma interrumpa su sue˜o. (b) Asuma que todos los resultados en (a) tienen la misma probabilidad. Suponga que usted se cambia a una de las otras puertas (escogiendola al azar). Describa el espacio muestral con cada posible instante en que la alarma suena. Suponga que est´ dormido cuando la alarma lo a despierta un dia. (b) Si E ⊆ F . 1 verde y una azul. entonces F c ⊆ E c . (a) Describa un espacio muestral S que contenga todos los resultados de este experimento. Se mide el tiempo de vida de un transistor cada hora. etc. Considere el caso en que el experimento de 6. 6.5.18 Ejercicios 1. 6:10 am. 2 blancas y 4 negras.m. iii) se obtiene al u menos una cara y un n´mero menor que 5. 1 roja. Variaci´n del problema del carro y la cabra. Describa un espacio muestral con cada uno de los posibles instantes de tiempo en que la alarma puede sonar. Suponga que la alarma de su reloj suena en alg´n momento entre la las 6 y las 7 u a. u 2. ¿Es el espacio continuo ´ discreto? o 4. n 6. Usted escoge una puerta al azar y entonces el animador abre una de las puertas que oculta una cabra. Asuma que en el espacio discreto del ejercicio 4 todos los resultados son igualmente probables (distribuci´n uniforme) y que usted siempre sue˜a lo mismo. . se reemplaza la metra en la caja y luego se toma otra metra.2. En esta oportunidad hay cuatro puero tas: tres cabras y un carro. Demuestre que (a) E ∩ F ⊆ E ⊆ E ∪ F .1 1.1. ii) se obtiene un n´mero par y una cara en el segundo lanzamiento de la moneda. (c) F = (F ∩ E) ∪ (F ∩ E c ). 7. suponga que la alarma s´lo puede sonar en intervalos o de 5 minutos: 6 am. e 5. 6. 6:05 am. se lanza una moneda dos veces.4. Un dado es lanzado y. Describa el espacio muestral asociado a cada uno de los experimentos siguientes: 6. Se sacan aleatoriamente 3 bolas de una bolsa que contiene 3 bolas rojas. entre las 6:18 y las 6:43 am. En el ejercicio anterior.

demuestre que E −(F ∪G) = (E −F )∩(E −G). o o 14. despu´s B y e por ultimo C. Se lanzan dos dados. c) A − (B − C). B y C lanzan una moneda por turnos. Sea E el evento de que la suma sea impar. D´ una representaci´n del espacio ´ e o muestral y defina los siguientes eventos: i) A = A gana. verbalmente. Si E. Gana el primero en obtener una cara. F y G son conjuntos dados. B =art´ ıculos de bajo costo y C =art´ ıculos de buena calidad. Considere los conjuntos: A =art´ ıculos de vestir. 11. ii) B = B gana. Describa los eventos E ∩ F . lo que simbolizan los conjuntos: a) A ∪ (B ∩ C). 21. Demuestre las leyes distributivas y las leyes de Morgan para familias infinitas de conjuntos. Demuestre que (A ∪ B) − (C ∪ D) ⊆ (A − C) ∪ (B − D). 16. 8. . E ∪ F . 18. y que A ∩ B = ∅ si y s´lo si o o IA IB = 0. F ∩ G.19 (d) E ∪ F = E ∪ (F \ E). Considere la operaci´n /”definida de la siguiente forma: A/B = Ac ∪B. b) (A/B) ∩ (A/C) = A/(B ∩ C). iii) (A∪B)c . E ∩ F c y E ∩ F ∩ G. Demuestre que A ⊆ B si y s´lo si A ∩ B = A ´ A ∪ B = B. Exprese las operaciones de uni´n. Jugadores A. F el evento de que al menos uno de los dados cae en 1. (e) F = (E ∪ F ) ∩ (E c ∪ F ) ∩ (E ∪ F c ). 15. e 10. Demuestre o que: a) (A/B) ∩ (B/C) ⊆ A/C. 12. primero lanza A. y G el evento de que la suma es 5. Describa. c)(A/B) ∩ (B/A) = (A B)c . 9. Demuestre que E ∪ F = (E F ) (E ∩ F ) y que E − F = E (E ∩ F ). intersecci´n y complementaci´n de conjuno o o tos en t´rminos de diferencia de conjuntos. Demuestre que A ⊆ B si y s´lo si IA ≤ IB . e 17. Demuestre que (A ∪ B) ∩ C = A ∪ (B ∩ C). Demuestre que si dos conjuntos tienen complementos id´nticos ellos son iguales. 19. 20. b) (A − B) − C. o o 13. Demuestre que A y B son disjuntos si y s´lo si A − B = A ´ A ∪ B = A B.

23. Se lanzan dos dados distintos. 1 negra y 1 roja. (b) Halle los eventos: Vi = la celda i est´ vacia i ∈ {1. Ui = la celda i contiene a una bola. Se asigna a cara el valor 1 e y a sello el valor 2. E ∩ F . Considere el experimento que consiste en colocar 3 bolas etiquetadas como A. u 25. (b) Describa el evento ninguna cara y un n´mero par. G \ H y E ∩ G ∩ H. (a) Describa el espacio muestral asociado a este experimento. (a) Halle el espacio muestral asociado a este experimento. H = la suma es par. 2. F ∩ H. B y C en tres celdas enumeradas como 1. 2 y 3. Halle los eventos E = la suma es no menor que 9. Luego se saca una segunda bola. (b) Describa los eventos A = al menos una bola blanca y B = a lo sumo una bola blanca.20 22. se anota el color y se introducen en la caja dos bolas cada una de uno de los colores que queda en la caja. F \ G. . 3}. G = al menos un dado cae en 3. Se saca una bola. Una caja tiene 2 bolas blancas. Se tienen dos monedas perfectamente sim´tricas. F = la suma es no menor a 4. Se lanzan las monedas simult´neamente y se registra la suma de a las caras mostradas. (a) Describa el espacio muestral asociado a este experimento. 24.

podemos o estar interesados en el subconjunto: ”d objetos defectuosos” = {(a1 . i = 1.21 1. . El conjunto vacio. como A. A´n cuando la familia A de u ”subconjuntos de inter´s” depende de la situaci´n estudiada. o eiii. ∅. ya que a ∩∞ An = (∪∞ Ac )c . . An ∈ A. u Recordemos que un evento A ⊆ Ω ocurre.4. 2. usando i basta o considerar An+1 = An+2 = . Espacio de Probabilidad. . . = ∅. . . A ∈ A ⇒ Ac ∈ A. esta siempre satisface e o las siguientes propiedades: e1. ocurren o no. e2. a Algunas de las propiedades que se deducen inmediatamente de la definici´n anteo rior son ei. Como se mencion´ antes. . . n=1 n=1 n basta entonces aplicar e2 y e3. conjunto de resultados. Si {An }n≥1 ⊆ A. o Definici´n 1. . an ) : ai ∈ {0.4. n. . e2 y e3 se denomina σ-´lgebra de subconjuntos de Ω. A Ω o lo llamaremos evento cierto o seguro. al realizar un experimento. es decir. cuando se realiza un experimento nos interesar´ saber si ciertos a a subconjuntos del espacio muestral Ω.5. la uni´n de o eventos ocurre si el resultado pertenece a alguno de los eventos que integran la uni´n. la intersecci´n numerable de n=1 eventos es un evento. Esto se deduce f´cilmente usando las leyes de Morgan. e Por ejemplo.1 Una familia A de subconjuntos de Ω que satisface las propiedades o e1. . . A estos subconjuntos de inter´s los llamamos eventos o sucesos. En la pr´ctica. eii. . Ω ∈ A. entonces ∩∞ An ∈ A. si el resultado ω obtenido es tal que ω ∈ A. 1}. ya que este evento siempre ocurre. . Denotaremos a la familia de subconjuntos de Ω formada por los eventos. . es decir. . . e3. An en A. La uni´n finita de eventos es un evento: dados A1 . si A es un evento entonces ”A no ocurre”tambien es un evento. luego se puede aplicar e3. . entonces ∪∞ An ∈ A. Note que al realizar un experimento. si consideramos la situaci´n descrita en el ejemplo 1. en general no todos o los subconjuntos de un espacio muestral son eventos. para n = 1. es decir que la realizaci´n del experimento produce un resultado. es un evento ya que ∅ = Ωc . } para alg´n d natural. es decir que la uni´n nuo n=1 merable de eventos es un evento.

Una o medida de probabilidad o probabilidad sobre Ω. si {An }n≥1 ⊆ A son disjuntos dos a dos. P es contablemente aditiva o σ-aditiva. pi. . Las siguientes propiedades son consecuencia directa de la definici´n de probabilio dad. P es finitamente aditiva. . aplicando p2. A. Definici´n 1. la asignaci´n de probabilidades a los eventos considerados sobre Ω. . Propiedades de la Probabilidad. lo que implica que ∞ P (Ai ) = 0. el valor P (A) se denomina probabilidad de A.. se tiene que: P (Ω) = P (∪∞ Ai ) = i=1 ∞ ∞ P (Ai ) = P (Ω) + i=1 i=2 P (Ai ). P es no negativa. p2. i=1 Para demostrar esto se considera la sucesi´n {An }n≥1 donde An = ∅ para n ≥ k + 1 o y se aplican las propiedades p2 y pi. 3. es decir. es una funci´n P definida sobre o A que satisface los siguientes axiomas: p1. Estos conjuntos son claramente disjuntos dos a dos: para i = j se cumple Ai ∩ Aj = ∅.k} ⊆ A son tales que Ai ∩Aj = ∅. P (∅) = 0.5. i=1 i=1 p3. es decir para todo evento A ∈ A se cumple que P (A) ≥ 0.. o 1. entonces P (∪∞ Ai ) = ∞ P (Ai ). pii. La terna (Ω. entonces P (∪k Ai ) = i=1 k P (Ai ). P ) se denomina un espacio de probabilidad.1.. El evento cierto tiene probabilidad 1: P (Ω) = 1. . esto es. Por lo tanto.6. lo que significa que Ai ∩ Aj = ∅ para cada i = j.. Para demostrar esto consideremos la sucesi´n {An }n≥1 ⊆ A donde o A1 = Ω y Ai = ∅. As´ como el espacio muestral Ω se define de acuerdo con la situaci´n que se desea ı o modelar. es decir. se tiene entonces i=2 que P (Ai ) = 0 para todo i ≥ 2.22 1. Como para todo i P (Ai ) ≥ 0. si {Ai }i∈{1. tambien depende o de la situaci´n particular estudiada.. esto es. Espacios de Probabilidad. i = 2. P (∅) = 0. o la definici´n de una medida de probabilidad para un problema dado.2 Sea Ω un espacio muestral y A una familia de eventos de Ω . para i = j.

B2 = A2 − A1 . pv. Dados eventos A y B. . pvii. podemos o suponer sin p´rdida de generalidad que i > j. Dado que Ω = A ∪ Ac y que A ∩ Ac = ∅. Nota.23 piii. ya que P (B − A) ≥ 0. entonces e Bi ∩ Bj = (Ai − Ai−1 ) ∩ (Aj − Aj−1 ) = (Ai ∩ Ac ) ∩ (Aj ∩ Ac ) = Ai ∩ ∅ = ∅. Para demostrar esto podemos escribir B como uni´n de conjuntos disjuntos: B = A ∪ (B − A) = A ∪ (B ∩ Ac ) y as´ tenemos que o ı P (B) = P (A) + P (B − A) ≥ P (A). Si A ⊆ B entonces P (A) ≤ P (B). Como A ⊆ Ω esta propiedad es una consecuencia inmediata de la anterior. Observe que si A ⊆ B entonces P (B − A) = P (B) − P (A). i−1 j−1 . se tiene que P (Ω) = P (A) + P (Ac ) = 1 =⇒ P (Ac ) = 1 − P (A). Bn = An − An−1 . no necesariamente disjuntos. . se cumple que P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Si {An }n≥1 es una sucesi´n creciente de eventos. aplicando la propiedad de aditividad finita se obtiene P (A ∪ B) = P (A) + P (B \ A) y P (B) = P (B ∩ A) + P (B \ A). pvi. . . Si escribimos A ∪ B = A ∪ (B \ A) y B = (B ∩ A) ∪ (B ∩ Ac ). . es decir que satisface o A1 ⊆ A2 ⊆ A3 ⊆ . . . . . ım n=1 n→∞ Para demostrar esta propiedad definamos la sucesi´n {Bn }n≥1 como: o B1 = A1 . . Los conjuntos de esta nueva sucesi´n son dos a dos disjuntos: sean i = j. . P (Ac ) = 1 − P (A). piv. Para todo A ∈ A se cumple que P (A) ≤ 1. de donde P (A ∪ B) − P (A) = P (B \ A) = P (B) − P (B ∩ A) lo que implica que P (A) + P (B) = P (A ∪ B) + P (B ∩ A). . entonces. P (∪∞ An ) = l´ P (An ).

. Entonces P (∪k Ai ) = i=1 k k P (Ai ) − i=1 i<j=2 P (Ai ∩ Aj ) + . se tiene que. o P (Bi ) = P (Ai − Ai−1 ) = P (Ai ) − P (Ai−1 ). aplicando pvii se obtiene P (∩∞ An ) = P ((∪∞ Ac )c ) = 1 − P (∪∞ Ac ) n=1 n=1 n n=1 n = 1 − n→∞ P (Ac ) = 1 − n→∞(1 − P (An )) = n→∞ P (An ). Por otra parte es claro que cada Bi es un evento y que j−1 ∪∞ An = ∪∞ Bn . haciendo uso de pvi. ım n=1 n→∞ En este caso la sucesi´n o {Ac } n es creciente.. .k} ⊆ A una familia de eventos no necesariamente disjunta. Sea {Ai }i∈{1. . Dados los eventos A. n=1 n=1 Utilizando la ecuaci´n obtenida en piv. .. Se aplica pvi reiteradamente. .. entonces. px. ım n→∞ pviii. Si {An }n≥1 es una sucesi´n decreciente de eventos. Esta propiedad se puede demostrarse por inducci´n sobre k. P (∩∞ An ) = l´ P (An ). B y C se cumple que P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C). ..24 ya que Aj ∩ Ac ⊆ Ai−1 . para todo i ≥ 2. ∩ Ak ). Entonces P (∪∞ An ) n=1 = = P (∪∞ Bn ) n=1 n→∞ ∞ ∞ = i=1 n P (Bi ) = i=1 (P (Ai ) − P (Ai−1 )) l´ {P (A1 ) + ım i=2 (P (Ai ) − P (Ai−1 ))} = l´ P (An ). l´ ım l´ ım l´ ım n pix. . o . es decir que satisface o A1 ⊇ A2 ⊇ A3 ⊇ . + (−1)k+1 P (A1 ∩ .

. . i = 1. Eno 2 1 tonces Ω = {0. i = 0.} un conjunto infinito numerable. . 5. Verif´ ıquelo. . 3. Ω = {ω1 .} un conjunto infinito numerable y sea 0 < p < 1. . . . . . ∅. Se tiene que P (Ω) = i=1 ∞ ∞ P (ωi ) = p i=1 (1 − p)i−1 = 1. . .4. define una medida de probabilidad. ωn }. Definimos P (0) = 3 y P (1) = 3 . Esta funci´n se denomina funci´n de o o probabilidad de Poisson. tenemos que todos los resultados son igualmente probables y podee mos considerar A = ℘(A). . . . . . . 6. 2. Se tiene un experimento en el que ocurren dos posibles resultados: 0 ´ 1. Sean Ω = {ω1 . sea λ > 0 constante P (ωi ) = e−λ λi . i = 1. . Nota: La familia de eventos en este caso es A = {Ω. i! n i=1 pi = 1. n tales que Definimos P (ωi ) = pi . . por lo que P es una probabilidad. Lanzamiento de dos dados distintos. . Sea Ω = {ω0 . . i = 1. . P es una probabilidad sobre A. . . Verifiquelo. Defina P (ωi ) = (1 − p)i−1 p. . Si se tiene un espacio muestral finito Ω = {ω1 . . ωn }. {1}}. . {0}.25 Ejemplos 1. . En general tomando 0 < p < 1. . 1. . se obtiene una medida de probabilidad definiendo P (0) = p y P (1) = 1 − p. n. 4. Suponiendo que los dados son perfectae mente sim´tricos.1. A = ℘(Ω) y pi ≥ 0. El espacio muestral correspondiente a este experimento fu´ descrito en el ejemplo 1. 2. Asi que definiendo para un evento A ⊆ Ω: P (A) = |A| |Ω| se obtiene una medida de probabilidad. en que todos los resultados son igualmente probables la funci´n del espacio anterior define una medida de o probabilidad en este espacio.6 1. 1}.

3. (b) ¿Cu´ntos elementos contiene U1 U2 ? a 4. Diga que n´mero de ases tiene el jugador sentado hacia el oeste en cada uno u de los siguientes eventos: c c c c a) O1 . Di = la celda i contiene dos bolas y a Ti = la celda i contiene tres bolas para i ∈ {1. por R el conjunto de las manzanas podridas y sea S un conjunto cualquiera sacado del cesto. 2. 6. (e) los tres eventos ocurren. mientras que las manzanas podridas son gratis. Supongamos que cada manzana cuesta una moneda. Denotemos por Ω el conjunto de todas las manzanas. (iii) D1 D2 = ∅. c) N2 S1 E1 O1 = ∅. y que los valores de las respectivas unidades de terreno est´n en la relaci´n 1:3:2. Definamos Q(S) = |S \ R| . d) O2 − O3 . |Ω − R| Entonces Q es el valor relativo de S con respecto al valor del cesto. Demuestre que Q es una medida de probabilidad en Ω. Considere el experimento que consiste en colocar 3 bolas etiquetadas como A. g) (N2 ∪ S2 )E2 .26 Ejercicios 1. (d) al menos dos de los eventos ocurren. (j) a lo sumo tres de ellos ocurren. Ui = la celda i contiene una bola. 3. e)(N2 ∪ S2 )O3 = ∅. B y C. (ii) V1 V2 = T3 . Encuentre expresiones para los eventos siguientes en t´rminos de E. 4}. (a) Demuestre que: (i) U1 U2 ⊆ U3 . b) S3 O2 = ∅. 2. a o 1. c c c c d) N2 S2 ⊆ O1 . c) N1 S1 E1 . |A| = # elementos en A. Considere los eventos: Vi = la celda i est´ vacia. Ek y Ok eventos an´logos para sur. (v) U2 D1 ⊆ V3 \ D2 U1 . En un juego de cartas sea k ∈ {1. Sean E. f ) O4 = N1 S1 E1 . 3}. Sea Nk el evento el jugador sentado hacia el norte tiene al menos k ases. (g) a lo sumo uno de ellos ocurre. 5. Se tiene un cesto de manzanas. En el ejemplo anterior verifique que: a) S3 ⊆ S2 . F y G tres eventos. Sean Sk . Supongamos que las tierras de una hacienda H de forma cuadrada se encuentran divididas en tres franjas de igual superficie A. (b) E y G ambos ocurren pero no F. 2 y 3. b) N2 S2 . En algunos casos se usar´ la notaci´n A ∩ B = AB. o (c) al menos uno de los eventos ocurre. F y G: e (a) s´lo E ocurre. (h) a lo sumo dos de los eventos ocurre (i) exactamente dos de ellos ocurren. (f ) ninguno de los eventos ocurre. este a y oeste. 2. e) N1 S1 E1 O1 . (iv) T1 ⊆ T2 . f ) N3 O1 . El valor relativo de una a o . B y C en tres celdas enumeradas como 1.2 Nota.

donde P (SA) = . I y II = 8 %. o 13.8 entonces P (A ∩ B) ≥ 0. B y C tienen respectivamente 57. Sea P una probabilidad. Los grupos A.7. Suponga que el grupo A tiene 123 miembros. II = 30 %. II y III = 4 % y I. Demuestre que si P (A) = 0. Una ciudad con una poblaci´n de 100. Halle el n´mero total de personas pertenecientes a la u uni´n de los tres grupos. u o b) ¿Cu´nta gente lee al menos dos diarios? a c) Si I y III son diarios matutinos y II es un diario vespertino. D´ un ejemplo de esto. ¿Cu´ntos miembros pertenecen a ambos grupos? a 12. Demuestre que si P y Q son dos medidas de probabilidad definidas sobre un mismo espacio muestral numerable. 49 y 43 miembros. Demuestre que: (a) La probabilidad de que exactamente uno de los eventos E o F ocurra es igual a P (E) + P (F ) − 2P (E ∩ F ). e 8. o III = 5 %. 9. 10. II y III = 1 %. (b) P (E \ F ) = P (E) − P (E ∩ F ). En general demuestre que para dos eventos A y B cualesquiera se tiene que P (A ∩ B) ≥ P (A) + P (B) − 1. II y III. 11. A y B comparten 13. entonces aP + bQ es tambien una medida probabil´ ıstica siempre que a y b sean no negativos y se verifique a + b = 1.000 habitantes tiene tres diarios: I. a) Encuentre el n´mero de personas que lee s´lo un diario. Dos grupos comparten ciertos miembros. que el grupo B tiene 78 y que el n´mero total de individuos en ambos grupos es u 184. Hay s´lo un individuo o perteneciente a los tres grupos. o La proporci´n de gente en la ciudad que lee estos diarios es: I = 10 %. (c) P (E c \ F ) = 1 − P (E) − P (F ) + P (E ∩ F ).9 y P (B) = 0. ¿Cu´ntas personas a lee al menos un diario matutino y un diario vespertino? d)¿Cu´ntas personas leen s´lo un diario matutino y un diario vespertino? a o . I y III = 2 %. 7. Demuestre que para eventos A.27 parcela medible S de esa hacienda con respecto al valor total del terreno es: V (S) = P (SA) + 3P (SB) + 2P (SC) area(S ∩ A) . 2 area(H) Demuestre que V es una medida de probabilidad. A y C comparten 7 y B y C comparten 4 miembros. B y C P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C).

P(Ω). . . 2 (c) P ({ωn }) = (2n−1)(2n+1) . Los siguientes datos fueron suministrados por un estudio de un grupo de 1000 suscriptores a una revista.1. 87 hombres casados y 25 hombres casados graduados universitarios. Demuestre que los n´meros reportados en el u estudio son incorrectos. 1 (a) P ({ωn }) = n(n+1) . Para una constante c y 1 ≤ n ≤ m defina P ({ωn }) = cq n−1 p. . 1) y q = 1 − p. Sea Ω = {ω1 . Diga como se define P (A) para A ∈ P(Ω). Sea Ω = {ω1 . 2 (b) P ({ωn }) = 3n−1 . diga si (Ω. . 42 hombres graduados universitarios. Sea p ∈ (0. 525 graduados universitarios. Determine el valor de c para que P sea una medida de probabilidad. Justifique sus respuestas.28 14. Halle la probabilidad de cada uno de los eventos se˜alados en el ejercicio 1. ω2 . n asumiendo que ambos dados son perfectos. 18. 470 personas casadas. En caso negativo. . Sugerencia: Use el ejercicio 1. ω2 . P ) es un espacio de probabilidad. ¿Cu´l es la probabilidad de que la suma de dos dados distintos y perfectos sea a 6 ´ menos de 6? o 16.20. 17. estado civil y educaci´n habian: 312 o hombres. . En lo relativo a sexo. . 147 graduados universitarios casados. En cada uno de los casos siguientes.} un espacio muestral discreto. . 15. ωm } un espacio muestral. diga si se puede modificar P para que la respuesta sea afirmativa.

¿Cu´ntas subcomisiones diferentes son posibles? a 4. elaborar una lista con todos los elementos del espacio muestral.7 1. consistente de 1 estudiante o de cada carrera. Introducci´n a la Teor´ Combinatoria. u ¿Cu´ntas posibles maneras hay de seleccionar una lista de n´meros ganadores? a u 8. no sea u posible. ¿Cu´ntas placas diferentes de 7 car´cteres se pueden formar si los primeros 3 a a car´cteres son letras y los ultimos 4 son n´meros? a ´ u 6. e debido al n´mero de posibles resultados y/o a la naturaleza del experimento. 1 peruanos. x2 . . 4 de computaci´n. . 1} pueden ser definidas ? a 5. 5 de fisica y 2 de matem´tica.29 1. en muchos casos. ı o a Se quiere formar una subcomisi´n de cuatro estudiantes. a)¿De cu´ntas maneras distintas pueden salir sus a caras? b) ¿De cu´ntas maneras puede suceder que todos muestren caras distintas? a 2. n Se elegir´ un hombre y a uno de sus hijos como el padre y el hijo del a˜o. 3 venezolanos y 2 colombianos. . Se lanzan seis dados distintos. o ıa Como se ha visto para los espacios muestrales finitos. Se forma una comisi´n de estudiantes de ciencias que se distribuyen por carreras o de la siguiente manera 3 de biolog´a. En una peque˜a comunidad hay 10 hombres cada uno de los cuales tiene 3 hijos. . Un jurado internacional consta de 2 chilenos. a posibles comisiones hay? A continuaci´n enunciamos una de las reglas fundamentales de conteo. ¿Cu´ntas iniciales diferentes pueden formarse con dos letras del alfabeto si las a letras no pueden ser repetidas? 7.7. En un juego del Loto se gana con seis aciertos escogidos de un total de 54 n´meros. el determinar el n´mero de elementos del espacio muestral u y del n´mero de elementos en los eventos considerados. ´ pr´ctico. Es por esto importante deu sarrollar t´cnicas para contar los elementos de un conjunto dado en los casos en que. el c´lculo de las probabilidades a requiere. xn } −→ {0. Se elige una comisi´n conformada por un representante de cada pa´ ¿Cu´ntas o ıs. ¿cu´ntas a n a parejas de padre-hijo son posibles? 3. ¿Cu´ntas funciones f : {x1 . o . e Ejemplos 1. o a En estos casos se necesitan t´cnicas combinatorias.

Padre-hijo del a˜o. . × mr . Entonces el n´mero total de posibles u selecciones (´ resultados) es igual a o m1 × m2 × . o Ejemplos 1. suponiendo que todos los dados son perfectamente sim´tricos y que por lo tanto todos los ree sultados son igualmente probables. Observe que la situaci´n anterior puede tambien presentarse como la realo izaci´n de r experimentos con m1 . Al lanzar seis dados distintos se tienen a) |Ω| = 6×6×6×6×6×6 = 66 resultados posibles. Dado que el padre puede escogerse de 10 posibles maneras y n para cada elecci´n del padre hay 3 posibles elecciones de hijo se tiene un total de o 10 × 3 = 30 parejas posibles. se tiene que P (A) = |A| 6! = 6 |Ω| 6 2. tendremos resultados de la forma (l1 .2 = 6!. entonces. mr resultados posibles. a Se realiza una selecci´n m´ltiple de r componentes tales que: la primera compoo u nente se selecciona de un conjunto de m1 elementos. Subcomisiones de Estudiantes. . Placas de auto. 6. . . l2 . n2 . . n4 ) y |Ω| = 27 × 27 × 10 × 10 × 10 × 10 = 7. ¿Cu´ntas iniciales diferentes pueden formarse con dos letras del alfaa beto si las letras no pueden ser repetidas? Hay 27 × 26 = 702 iniciales posibles. Si A es el evento todos los dados presentan caras distintas. . la segunda se selecciona de un conjunto de m2 elementos y asi sucesivamente. Puesto que f (xi ) tiene que ser 0 ´ 1 para cada i = 1. Considerando nuevamente la selecci´n de la subo comisi´n como un resultado de la realizaci´n de 4 experimentos (´ selecciones) se o o o tiene que hay 3 × 4 × 5 × 2 = 120 posibles subcomisiones.30 Principio B´sico de Conteo.000. NOTA.3. . 3. m2 . n3 . Asumiendo que las letras y los n´meros pueden repetirse en una u misma placa.290. respectivamente.4. 5.8 1. . Seis dados. n se tiene que o hay 2n funciones posibles. b) El n´mero de resultados en que todos los dados muestran caras distintas es igual u a 6. .5. . Funciones. 4. Nota. l3 . n1 . Iniciales.

3. . resulta poco pr´ctico o imposible hacer el an´lisis considerando o a a a todos los miembros de la misma. o 2. . . . . m} para j = 1. a e a En lo que sigue consideramos la siguiente situaci´n. . n3 . o I) Muestreo Ordenado con Reposici´n ´ Variaciones con Repetici´n.7. todas diferentes mientras no se especifique lo contrario. Se anotan en orden los n´meros de las bolas extraidas: (a1 . . . n4 ) y |Ω| = 27 × 27 × 27 × 10 × 10 × 10 × 10 = 196. l2 . . Los resultados se pueden expresar como sextuplas (c1 . De la urna se extraen n bolas. c2 . de 1 a m.31 7. Una muestra ´ muestra aleatoria es una porci´n de determinada poblaci´n o o o que se selecciona al azar y se analiza para sacar conclusiones acerca de toda la poblaci´n.9 1. c6 ) donde ci representa el n´mero obtenido en el i-´simo dado. ¿Cu´ntas iniciales diferentes pueden formarse con dos ´ tres letras del a o alfabeto si las letras pueden ser repetidas? • (27 × 27) + (27 × 27 × 27) = 20. tendremos resultados de la forma (l1 . n. a2 . Hay 2 × 1 × 2 × 2 = 8 comisiones posibles. a Ejemplos 1. Para estudiar los o problemas b´sicos de combinatoria. . Comisi´n internacional. debido a la gran cantidad de individo ´ uos en la poblaci´n.1. n1 . l3 . Esto puede hacerse de diferentes maneras. dependiendo de si cada bola extraida se repone o no en la urna (muestreo con o sin reposici´n) y de o si la extracci´n se realiza o no en cierto orden (muestreo ordenado o sin orden). Esto es particularmente util cuando.412. Asumiendo que las letras y los n´meros pueden repetirse en una u misma placa. . ya que cada bola extraida podr´ seleccionarse de m maneras posibles. . n2 . c4 . Utilizando el principio b´sico de conteo a n se obtienen m × m × . describiremos los m´todos b´sicos de muestreo. c3 .830. . Como u e se observ´ antes |Ω| = 66 . Una urna contiene m bolas enuo meradas. El proceso de selecci´n de una muestra se denomina muestreo. an ) o u donde aj ∈ {1. Muestreo. c5 . Se lanzan seis dados distintos. Se o o o extraen sucesivamente n bolas. Iniciales.000. Placas de auto. . × m = m posibles resultados. como ocurre por ejemplo al realizar una encuesta de opini´n a la poblaci´n o sondear un lote de la producci´n de una f´brica para o o o a controlar la calidad. . devolviendo a la urna cada bola antes de la siguiente extracci´n. o 1.

550. tendremos resultados de la forma (l1 .880 posibles ordenes de bateo. 2.32 II) Muesteo Ordenado sin Reposici´n ´ Variaciones. . l3 . Una junta directiva formada por un presidente.000. Placas de auto. Cuando m = n se est´n considerando las posibles a maneras de ordenar (permutar. n2 . . n1 . ¿Cu´ntos ordenes de bateo son posibles en un equipo de beisbol que consiste de a 9 jugadores? •Hay 9! = 362. l2 . ¿Cu´ntas iniciales diferentes pueden formarse con dos ´ tres letras del a o alfabeto si las letras no pueden ser repetidas? • (27 × 26) + (27 × 26 × 25) = 17. Ejemplos 1. Jaime. Iniciales. . 2. 7! b) n = m: Permutaciones. 2 de historia y 1 de literatura. . 3. sin reponer en la urna las bolas extraidas. an ) u se pueden elegir de m × (m − 1) × (m − 2) × .11 1. a)¿De cu´ntas maneras puede a organizarse la banda? b)¿De cu´ntas si Jos´ y Jaime tocan los cuatro instrumentos a e y Jacobo y Jes´s s´lo dos de ellos? u o • a) 1 × 2 × 3 × 4 = 4! b) 2 × 1 × 2 × 1 = 4. 3 de quimia ca. La notaci´n Vn se lee variaciones de m elementos en grupos de n. n3 . jerarquizar) m elementos: # permutaciones de m elm ementos=m! = Vm . a2 . 3. Jacobo y Jes´s forman una banda musical con 4 instrumentos. Si el estudiante quiere arreglar los libros en un estante de forma tal que los de una misma materia queden juntos ¿cu´ntos arreglos a . o Ejemplos 1. × (m − (n − 1)) = m! m = Vn (m − n)! m maneras. un tesorero y un secretario se elige de un grupo de 10 personas. n4 ) y |Ω| = 27 × 26 × 25 × 10 × 9 × 8 × 7 = 88. Se extraen de la urna n bolas en forma sucesiva. Si e u cada uno de ellos puede tocar los cuatro instrumentos. Jos´. o o a) n < m. . Un estudiante tiene 10 libros de los cuales 4 son de matem´ticas. Asumiendo que las letras y los n´meros no pueden repetirse en u una misma placa.452.10 1. Se anotan en orden los n´meros de las bolas extraidas: (a1 . ¿Cu´ntas juntas diferentes son posibles? a • Hay V310 = 10! juntas posibles. .

Por una parte. adem´s toda muestra ordenada (de n elementos) es una a de las n! ordenaciones obtenidas permutando un grupo de n elementos. (m − n)! por lo que x= donde m Cn = # de subconjuntos de n elementos extraidos de un conjunto de m elementos.12 1. o Dado un conjunto de m elementos veremos de cu´ntas maneras pueden combinarse a estos elementos en grupos de n. m! m = Cn = n!(m − n)! m n . m! m Vn = = n!x. se tiene que cada muestra (combinaci´n) de tama˜o n produce n! muestras ordenadas. De una urna que contiene m bolas se extraen n bolas (n ≤ m) sin reponerlas en la urna y sin tomar en cuenta el orden de extracci´n. Por lo tanto hay 4! × 4! × 3! × 2! × 1! maneras de colocar los libros en el estante. luego los de qu´ a ımica. Como a efectos del juego el orden de los n´meros en la lista u no afecta el resultado.33 posibles hay? • Se tienen 4! × 3! × 2! × 1! maneras de arreglar los libros de forma tal que los de matem´tica se encuentren primero. hay 54 C6 = 54 6 = 54 × 53 × 52 × 51 × 50 × 49 × 48! = 25. despu´s los de historia y por e ultimo el de literatura. se tiene que si x es el n´mero de combinaciones de m elementos u en grupos de n. III) Muestreo sin Orden y sin Reposici´n. Tambi´n las asignaturas se pueden ordenar de 4! ´ e maneras y para cada ordenamiento de las asignaturas se pueden tener 4! × 3! × 2! × 1! ordenamientos de los libros. De un grupo de 20 personas se forma una comisi´n de 3.165 6! × 48! . Juego del Loto. las variaciones se obtienen al considerar todas las permutaciones posibles de las combinaciones. Cada uno de o los resultados de este muestreo se denomina combinaci´n. Entonces. o a) Combinaciones. es decir n! variaciones de m o n elementos en grupos de n. Ejemplos 1.827. 2. ¿Cuantas comisiones o diferentes pueden formarse? 20 Hay C3 = 20 3 = 20! 3!(20−3)! = 20×19×18 3×2×1 = 1140 comisiones posibles. Es decir.

mr Ejemplos 1. m m1 . donde m1 + m2 + . 3.13 1. ..6. por 3 2 lo tanto hay 7 5 7. Las mujeres pueden elegirse de maneras y los hombres de maneras. los ordenamientos de bolas del mismo color no son distinguibles. . + mr = m. las bolas de color 2 de m2 ! maneras. . se × 5 2 = 300 posibles comites. ...m2 . a) ¿cu´ntos posibles comites consistentes a de 2 hombres y 3 mujeres pueden formarse? b) ¿Cu´ntos si dos de las mujeres estan a peleadas y se rehusan a participar juntas en el mismo comit´? e 7 5 • i.34 posibles juegos.2.4 × = = 350 3 2 3. ¿Cu´ntas disposiciones a diferentes de las bolas son posibles? Como hemos visto las m bolas pueden ordenarse de m! maneras. Por lo tanto hay m! = m1 ! × m2 ! × . Si el resultado del torneo s´lo muestra la a n o . Si dos de las mujeres no quieren trabajar juntas hay en que ninguna de las mujeres peleadas participa y que s´lo una de ellas participa.1 2. . se tiene un total de m1 ! × m2 ! × . Supongamos que se tiene m1 bolas de color 1. . m2 bolas de color 2. . Como hay o tienen 2 5 2 × + × 0 3 1 5 2 5 2 2 1 2 0 × 5 2 5 3 grupos de 3 mujeres × grupos de 3 mujeres en maneras de elegir a los hombres. .5 5. mr bolas de color r. De un grupo de 5 hombres y 7 mujeres. . las de color r de mr ! maneras.1 • ii. × mr ! disposiciones distinguibles. en cada una de estas disposiciones. u e 2 5 5 que es igual a × × = 50. Observe que otra manera de encontrar el n´mero de comites en este caso es restando u del resultado en la parte i el n´mero de comit´s en que participan las dos mujeres. . Sin embargo. Supongamos adem´s que los colores son diferentes pero a no hay manera de distinguir entre bolas de un mismo color. En un torneo de ajedrez hay 10 participantes de los cuales 4 son rusos. . . ×mr ! ordenamientos indistinguibles. 3 estadounidenses. 2 1 2 b) Permutaciones de m Bolas Distinguibles por Grupos. 2 brit´nicos y 1 brasile˜o. y como las bolas de color 1 se pueden ordenar de m1 ! maneras.. . .

c. Como una mano consta de 5 cartas y el orden 52 posibles manos. ¿Cu´ntos posibles arreglos pueden formarse usando las letras de la palabra a PEPPER? • Hay 6 3. a. el n´mero total de manos es en este caso u |A| = 4 × 13 5 y P (A) = 4× 52 5 13 5 . Juegos de Cartas.35 nacionalidad del jugador en el orden en que se coloco. se tienen 5 b) A = 5 cartas de una pinta. Hay 4 pintas con 13 denominaciones (valores) 13 diferentes. • El valor a lo elegimos entre 13 valores posibles. c y d son valores distintos.2 = 6! 3!2! = 60 arreglos posibles. 4. Entonces para cada pinta se tienen maneras de seleccionar 5 cartas 5 de esa pinta. o P\D ♣ ♦ ♥ ♠ A A A A A 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6 7 7 7 7 7 8 8 8 8 8 9 9 9 9 9 10 10 10 10 10 J J J J J Q Q Q Q Q K K K K K Determine el n´mero de manos de cartas con las caracteristicas especificadas y calcule u la probabilidad de obtener los juegos correspondientes asumiendo que el mazo de cartas se barajea concienzudamente y que no se hace trampa al distribuirlas: a) Ω = Posibles manos de pocker. en que las cartas aparecen no es importante. ¿cu´ntos posibles resultados a hay? • Como no se distingue entre los participantes de una misma nacionalidad. Por consiguiente. b. n 5. ¿Cu´ntas se˜ales diferentes pueden formarse con 9 banderas de las cuales 5 son a n blancas. se tienen 10! = 12.600 4! × 3! × 2! posibles ordenamientos. d}. 2 rojas y 2 azules si banderas de un mismo color son id´nticas? e 9 9! • Hay = 5!2!2! = 756 se˜ales diferentes. b.2.2 3. c) B = Un par: {a. donde a. P= pinta y D = denominaci´n o valor. • Para cada valor de a hay 4 pintas posibles de las que podemos elegir 2 pintas de 4 2 . 2.

36 maneras. d) C = Dos pares: {a. a. a. e) D = Un trio: {a. b. • An´logamente las denominaciones b y c se pueden elegir de a maneras diferentes 2 y para cada una de estas denominaciones se tienen 4 pintas posibles. 2 • El primer par se elige de entre 4 pintas de maneras. 13 • Hay denominaciones posibles para los pares. . b. c y d entre los 12 o 12 restantes de maneras. • Para la ultima carta hay 11 valores posibles cada uno en 4 pintas diferentes. De forma an´loga se elige a 2 el segundo par. b y c son valores distintos. • Hay 13 maneras de elegir el valor de a que aparecer´ en todas las pintas. 3 • Finalmente observemos que cada una de las cartas con valores b. a. Por lo tanto |D| = 13 × 4 3 12 3 × 12 2 ×4 2 trios y P (D) = 13 × 4 3 × 52 5 12 2 × 42 f ) E = Un cuarteto: {a. a. Por lo tanto 4 13 × × 12 × 4 4 4 |E| = 13 × × 12 × 4 y P (E) = 52 4 5 g) F = Un par y un trio (casa llena): {a. a. b. • La denominaci´n (valor) de a puede seleccionarse de 13 maneras. o 4 • Para cada una de estas denominaciones las pintas se pueden escoger de maneras. a. esto es a 4 = 1 formas. • Una vez hecha esta elecci´n. Por lo ´ tanto el n´mero de manos con dos pares es igual a u 13 4 |C| = 13 2 × 4 2 × 4 2 × 11 × 4 y P (C) = 2 × 4 2 × 52 5 4 2 × 11 × 4 . a. 4 • Para la carta restante hay 12 maneras de escoger el valor b y 4 pintas posibles. b y c son valores distintos. b} donde a y b son valores distintos. podemos escoger los valores b. a. b} donde a y b son valores distintos. por lo que |B| = 13 × 4 2 × 12 3 ×4 3 y P (B) = 13 × 4 2 × 52 5 12 3 × 43 posibles manos con un par. c y d puede presentarse en 4 pintas diferentes. c} donde a. c} donde a. b.

7.2.. . c3.37 • Hay 13 maneras de elegir el valor a y 12 de elegir el valor b. 1. o m n = m−1 n−1 + m−1 n para 0 ≤ n ≤ m − 1. Esto se demuestra = (1 + 1)m . = m.. . Esto implica que elegir un subconjunto de n elementos equivale a elegir uno de m − n elementos y reciprocamente. m m m 1 m n = 1. 4 • Para cada elecci´n de a hay o maneras de elegir las pintas del trio y por cada valor de b 4 2 3 por lo tanto 4 3 4 2 |F | = 13 × × 12 × y P (D) = 13 × 4 3 × 12 × 52 5 4 2 . + m m n r m k m 0 . . F´rmula del binomio de Newton. . c6. c1. = m m−n . Por lo tanto m−1 m−1 m = |C| = |C1 | + |C2 | = + n n−1 n c5. Corolario de la f´rmula anterior: 2 = o k=0 m m m k k=0 ak bm−k . o Se considera un conjunto C = {c1 . para 0 ≤ n ≤ m. (a + b) = o usando inducci´n sobre m. todo subconjunto de m − n elementos es complemento de un conjunto de n elementos. F´rmula de Steaffel. n+m r = n 0 m r + n 1 m r−1 + n 2 m r−2 + . La igualdad en c3 se verifica porque todo subconjunto de n elementos produce un subconjunto de m − n elementos. cm } del cual se extrae un subconjunto de n elementos. su complemento. c2. o c7. Observe que si fijamos un elemento c1 de C el conjunto C de todos los subconjuntos de C de n elementos es igual a la uni´n disjunta C = C1 ∪ C2 donde C1 son los subo conjuntos de C que contienen a c1 y C2 son los subconjuntos de C que no contienen a c1 . Por otra parte. F´rmulas Combinatorias. . c4.

Ninguna caja puede contener m´s a de una bola.Las fichas estan numeradas.En la k-´sima caja se coloca la ficha e n´mero i.Muestreo con Reposici´n o .Sin Orden. m=n Resultado (a1 .Ordenado I) n < m. . .La k-´sima caja puede recibir m´s e a de una ficha. m=n . . .En la i-´sima extracci´n se e o obtiene el n´mero k = ai u . . .En la i-´sima extracci´n se e o obtiene el n´mero k = ai . .Un n´mero k ∈ {1. n ≤ m. . u .Las fichas no estan numeradas.Cada caja puede contener un n´mero arbitrario de fichas. Problemas de Colocaci´n. . . MUESTREO • Se tienen m bolas numeradas en una urna de la cual se extraen n.Muestreo sin Reposici´n o . an ). i = j. o Las situaciones descritas mediante los diferentes tipos de muestreo. . an ai = aj .Muestreo sin Reposici´n o . . . .8. . .Puede haber repeticiones.Muestreo con Reposici´n o . an . Describiremos brevemente la relaci´n de estos esquemas de colocaci´n con o o los diferentes tipos de muestreo que hemos estudiado.Una caja puede contener m´s de una ficha. . . . an ). . . u .En la k-´sima caja se coloca la ficha e n´mero i. . . .Cada caja recibe exactamente una ficha numerada. II) Permutaciones. . ´ COLOCACION • Se tienen m cajas numeradas y n fichas (numeradas ´ no) que se o colocan aleatoriamente en las cajas. . . n ≤ m. u . I) n < m.Ninguna caja puede contener m´s a de una ficha.La k-´sima caja recibe a lo sumo e una ficha. . u . a .Sin Orden El resultado a1 .Cada n´mero k ∈ {1. .Ordenado Resultado (a1 . .Se colocan n fichas en cajas seleccionadas al azar. . m} u aparece en el resultado exactamente una vez. m} u aparece a lo sumo una vez. . u . . an ). . Se coloca una ficha al azar en cada una de n cajas Cada caja puede contener un n´mero arbitrario de bolas. Resultado (a1 . .Las fichas estan numeradas. .38 1. . . . . Resultado a1 . pueden tambi´n presentarse utilizando esquemas de colocaci´n de bolas en cajas (de manera e o aleatoria). u . . .El n´mero k puede repetirse. .

2. Un resultado del espacio muestral asociado al muestreo sin orden y con reposici´n es de la forma (aj1 . 3. dos en la caja 3 y dos en la caja 4. El n´mero obtenido en una extracci´n es el n´mero u o u de la caja donde se colocar´ la bola siguiente. a a NOTA: Cada vez que el ´ ındice ji aparezca se coloca una bola en la caja ji . . ajr significa que hay una bola en la caja jr . 4. 1 ≤ k ≤ r. i = 1. . el resultado (3. . 4. aj3 significa que hay una bola en la caja j3 . 3. permitiendo m´s de una bola en una caja: a jk bolas en la caja # k equivale a sacar la bola con el n´mero k jk veces. . se anota el n´mero y se devuelve la bola a la caja. Es decir se tienen las etiquetas con los n´meros de las cajas u en una bolsa y se sacan aleatoriamente y con reposici´n 6 veces. el mismo resulta irrelea vante ya que lo que importa es el n´mero de bolas que al final tiene cada caja. . 4.14 Supongamos que se tienen 6 bolas id´nticas para ser distribuidas en 4 cajas e numeradas del 1 al 4. Si representamos o aji = ji . a En una muestra en la que el objeto ai se repite ri veces. Podemos imaginar que sacamos aleatoriamente y con reposici´n r fichas. o Consideramos una caja que contiene n bolas numeradas. u En primer lugar determinaremos el n´mero de elementos del espacio muestral asou ciado a ´ste experimento. Ejemplos 1. una en la caja 2. 4. Una manera natural de enfocar esta situaci´n es considerane o do el problema equivalente de colocar r bolas indistinguibles en n cajas numeradas. n. . 3. Esta notaci´n o resultar´ conveniente m´s adelante cuando se consideren bolas distinguibles..39 IV) Muestreo sin Orden y con Reposici´n. 3. . 1) significa que se colocaron una bola en la caja 1. Por u ejemplo (3.. Note que. ajr ) o donde 1 ≤ jk ≤ n. 1) y (4. u Veamos que en efecto ambos problemas son equivalentes. . numeradas o del 1 al n. aj2 significa que hay una bola en la caja j2 . 4. 1. . 2. 2) representan el mismo resultado. a´n cuando el orden u en que se colocan las bolas est´ registrado en el resultado. se tiene que n ri = r y la caja i contiene ri bolas o equivalentemente el n´mero i se sac´ ri u o i=1 . Este proceso se repite r veces y los u n´meros se anotan sin tomar en cuenta el orden en que aparecen. contenidas en una caja. Que el muestreo es con reposici´n significa que los jk s o pueden repetirse: aj1 significa que hay una bola en la caja j1 . Se extrae una bola.

Se tienen r dados id´nticos. aj2 . Si cualquiera de ellos puede n e n recoger m´s de un juguete. En una pi˜ata hay 10 juguetes id´nticos y 8 ni˜os. Un posible elemento en el caso en que n = 8 y r = 8 ser´ ıa {∗|| ∗ ∗ ∗ | ∗ | ∗ ∗|| ∗ |}. r7 = 1 y r8 = 0. a3 . ¿de cu´ntas maneras pueden quedar repartidos los juguetes? a a Identificamos a cada ni˜o con una caja y a cada juguete con una bola. . r3 = 3. r4 = 1. donde r ≥ n. esto equivale a que al menos n − r cajas queden vacias. a7 ) por lo o que r1 = 1. por lo tanto el es como o tener banderas de dos colores combinadas al azar para formar se˜ales: hay un total n de n − 1 + r banderas de las cuales n − 1 son del color 1 y r son del color 2. n+r−1 n+r−1 (n + r − 1)! = . Si r ≥ n todav´ puede haber cajas vacias (ri ’s ıa iguales a cero). . En la representaci´n anterior este elemento es (a1 . a4 . . Se tienen n u cajas y se extraen r bolas. u Podemos representar las n cajas por n − 1 barras verticales (|) y las bolas por estrellas (∗). Toda configuraci´n consta de n − 1 barras y r estrellas. . . r5 = 2. ¿Cu´ntos posibles resultados hay en un lanzamiene a to? Podemos representar los resultados mediante un conjunto {aj1 .40 veces. r2 = 0. ∗ |∗} ninguna caja vacia significa que no quedan dos barras contiguas. Como hay 6 cajas y r bolas. donde aji significa un dado cae en el n´mero ji . Algunos casos especiales. es u u n decir. ji ∈ {1. 6}. Calculemos el n´mero de elementos del espacio muestral. a5 . . Entonces n n = 8 y r = 10 por lo que hay 8+10−1 17 = 10 10 maneras de repartir los juguetes. r6 = 0. Esto a su vez equivale a u colocar una bola en la caja ji . a3 . |Ω| = = r n−1 (n − 1)!r! Ejemplos 1. Si r < n entonces al menos n − r de los ri son iguales a cero. a) N´mero de colocaciones en las que no queda ninguna caja vacia. a3 . . Si representamos un resultado como antes {∗| . El n´mero de elementos del espacio muestral es el n´mero de posibles se˜ales. . . . ajr }. el n´mero de sesultados posibles es igual a u 6+r−1 r = 6+r−1 6−1 = 5+r 5 .15 1. Para contar el n´mero de elementos en este evento podemos pensar en colocar las r bolas u . 2. a5 .

. por lo tanto hay disposiciones posibles. es claro que una caja puede contener m´s de a una bola. r1 !r2 ! . . con orden y con reposici´n. . de entre los r − 1 disponibles. b) N´mero de colocaciones en que ninguna caja contiene m´s de una bola. Adem´s es claro que el n´mero de elementos pertenecientes a este espacio a u r muestral es igual e n .16 1. . . . Si se disponen las n − 1 barras {·| · | · | . r N´ mero de colocaciones de r bolas distinguibles en n cajas. |·} que generan n espacios donde se n colocaran r bolas.41 (sin las barras): {∗∗∗∗. br ) donde la i-´sima coordenada corresponde a la caja donde se coloc´ la bola i. Esto puede hacerse r−1 de formas. . ri ≥ 0 y 1 ≤ ji ≤ n para i = 1. Esto equivu a ale a extraer r bolas. El n´mero de elementos en este evento es u n! . Esto puede hacerse mediante la extracci´n aleatoria. de r etiquetas enuo o meradas de 1 hasta n. + rk = r. Consideremos el evento ri bolas en la caja ji donde r1 + r2 + . Un resultado puede representarse como una r-tupla ordenada (b1 . . . . En el ejemplo anterior (2) ¿cu´l es la probabilidad de que no quede ningun ni˜o a n sin juguete? 9 7 17 10 . . . b2 . . Por la e o forma en que se realiza el muestreo. por lo que este es el n´mero de elementos en el evento considerado. . k. Una disposici´n de bolas en cajas se obtiene cuando se seleccionan n − 1 o espacios. Un resultado t´ ıpico de este evento se caracteriza por no presentar dos estrellas contiguas. . u Se colocan al azar r bolas numeradas en n cajas numeradas. rk ! Verifiquelo. para colocar las barras. u n−1 Ejemplos 1. . r ≤ n sin reemplazo. ∗} con lo que quedan r−1 espacios para ser ocupados por las n − 1 barras. .

1 es n blanco y 1 es azul. c) hay 4 hombres y 4 mujeres y no se sientan juntas dos personas del mismo sexo. Suponga que siete espacios adyacentes van a ser ocupados por las letras c y s de forma tal que c aparece cuatro veces y s tres veces.42 Ejercicios 1. Un departamento de polic´ en un pueblo peque˜o tiene 10 oficiales. c)MISSISSIPPI.3 1. Un ni˜o tiene 12 bloques de madera de los cuales 6 son negros. d) hay 5 hombres y ellos deben sentarse juntos. Un grupo de seis personas va al teatro. Considere un juego de lotto en el que se gana el premio m´ximo acertando seis a n´meros tomados de un panel de n´meros del 1 al 40. 3. ¿Cu´ntos arreglos pueden hacerse con las letras de : a a) FACIL. Calcule la probabilidad de gau u nar con un juego. Si el ni˜o pone los bloques en linea. d)COMARCA. e) hay 4 parejas casadas y cada pareja debe sentarse junta? 8. o 4. 5. 10. a calcule la probabilidad de que dos personas del mismo sexo nunca queden en asientos contiguos. ¿De cu´ntas maneras pueden sentarse 8 personas en fila en las condiciones a siguientes: a) no hay restricciones. ¿cu´ntas disposia ciones son posibles si personas de la misma nacionalidad deben sentarse juntas? 6. ¿Cu´ntos arreglos diferentes a pueden formarse de esta manera? Nota: recuerde que no se distingue entre dos letras c ´ dos letras s. Si el grupo en el ejercicio anterior est´ conformado por tres hombres y tres mujeres. a) ¿De cu´ntas maneras pueden 3 ni˜os y 3 ni˜as sentarse en una fila? a n n b) ¿De cuantas maneras pueden 3 ni˜os y 3 ni˜as sentarse en una fila si los ni˜os n n n deben sentarse juntos y las ni˜as deben sentarse juntas? n c) ¿De cu´ntas maneras si s´lo los ni˜os deben sentarse juntos? a o n d) ¿De cu´ntas maneras si no se permite que dos personas del mismo sexo se sienten a juntas? 7. b)MANZANO. ¿cu´ntos arreglos son posibles? n a 9. Si el deıa n . b) las personas A y B deben sentarse juntas. 3 franceses y 3 italianos se sientan en una fila. 4 son rojos. ¿De cu´ntas maneras diferentes pueden a sentarse en seis asientos adyacentes? 2. Si 4 venezolanos.

a d) E debe tener uno de los cargos. ¿Cu´l es la probabilidad de que el estudiante responda cora rectamente a todas las preguntas? 15. ¿de cu´ntas maneras puede la a persona figurarse como estan formados los matrimonios? ¿De cu´ntas maneras si hay a 3 matrimonios? 16. ¿Cu´ntas juntas a son posibles? 12. ¿Cu´l es la probabilia dad de que se forme por lo menos un par? 19. e) F aceptar´ s´lo el cargo de presidente? a o 13. Una prueba consta de 12 preguntas con respuestas V (verdadero) y F (falso). Marcos y otras siete personas se quedan encerrados en un ascensor y para pasar el tiempo Marcos trata de calcular la probabilidad de que todas las ocho personas atra- . 2 empleados y 3 profesores que se escogen de un grupo de 5 estudiantes. 4 y 5. Si hay 6 muo jeres y 4 hombres y se sabe que hay 4 matrimonios. Un presidente un tesorero y un secretario van a ser elegidos de un grupo de 10 personas. D´ el n´mero de elecciones posibles en cada uno de los siguientes casos: e u a) No hay restricciones. c) C y D trabajan juntos o no trabajar´n. Una junta de 7 se forma con 2 estudiantes. ¿cu´ntas divisiones diferentes de los 10 oficiales en los 3 o a grupos son posibles? 11.43 partamento tiene 5 oficiales patrullando las calles. ¿Cu´ntas comin a siones diferentes pueden formarse? 14. Si dos bolas se extraen al azar y al mismo tiempo de una caja que contiene 6 bolas blancas y 5 bolas negras. ¿Cu´l es la probabilidad de elegir 3 hombres y 2 mujeres? a 17. Un estudiante que no estudi´ pide ayuda al profesor y ´ste le dice que 6 de las preguntas o e son verdaderas y 6 falsas. Un comit´ de 5 se selecciona aleatoriamente de un grupo de 6 hombres y 9 mue jeres. Una persona llega a una reuni´n en la que no conoce a nadie. Se dividen 12 personas en 3 comisiones de tama˜o 3. b) A y B no trabajan juntos. Suponga que Marcos est´ asistiendo a una convenci´n para nacidos en el mes de a o Enero. 2 trabajando en la estaci´n y 3 o en reserva en la estaci´n. Se escogen al azar 4 zapatos de un conjunto de 5 pares. 6 empleados y 4 profesores. ¿cu´l es la probabilidad de que una de las bolas sea a blanca y la otra negra? 18.

u 25. Asumiendo que cada cara de la moneda tiene igual probabilidad. B = Se requiere un n´mero par de lanzamientos. ¿Cu´l es la probabilidad de sacar 6 ´ menos de 6 con tres dados distintos? ¿Cu´l a o a es la probabilidad si los dados son id´nticos? Suponga que los dados son perfectamente e sim´tricos. . Demuestre la f´rmula del binomio de Newton. Demuestre la f´rmula de Steaffel. 3. Un grupo de 6 hombres y 6 mujeres se dividen aleatoriamente en dos grupos de 6 personas cada uno. . ¿cu´l es la probabilidad de u a que al menos dos de ellas tengan la misma fecha (dia/mes) de cumplea˜os? n 21. Se reparten al azar 5 bolas distinguibles en 3 casillas. e o 24. Si un conjunto de 3 bolas es extraido aleatoriamente. Demuestre anal´ e o ıticamente la f´rmula. halle la probabilidad de los siguientes eventos: A = El experimento termina antes del sexto lanzamiento. Una urna contiene 3 bolas rojas y 7 negras. Sugerencia. o 28. ¿cu´l es la probabilidad de que la suma de las caras a sea igual a i ∈ {2. 6 bolas azules y 8 bolas verdes. ¿cu´l es la probabilidad de que todas las bolas sean a del mismo color? ¿Cu´l es la probabilidad de que todas sean de colores diferentes? a Nota: considere los casos en que las extracciones se realizan con reemplazamiento y sin reemplazamiento. Considere los eventos: EA = A saca la bola roja y Ei = la bola roja se saca en la i-´sima extracci´n.44 padas tengan cumplea˜os diferentes. Una urna contiene 5 bolas rojas. ¿Qu´ respuesta deber´ obtener Marcos? ¿Cu´l n e ıa a es la probabilidad de que al menos dos personas tengan el mismo cumplea˜os? Nota: n Asuma que las ocho personas son nacidas en enero. e 23. . u 27. Determine la probabili- . Se lanza una moneda hasta que aparezca por primera vez el mismo resultado dos veces. 20. o 30. D´ un argumento combinatorio para justificar la f´rmula c5. Jugadores A y B extraen bolas de la urna consecutivamente y comenzando por A. Encuentre la probabilidad de que cada grupo tenga el mismo n´mero de hombres. 26. 12}? 22. . Si se lanzan dos dados. o 29. Encuentre la probabilidad de que A saque la bola roja. Si r personas se encuentran en un edificio p´blico. hasta que una bola roja sea seleccionada.

Se colocan n bolas distinguibles en n cajas numeradas. a) ¿De cu´ntas maneras pueden salir sus caras superiores? a b) ¿De cu´ntas maneras puede ocurrir que sus caras superiores sean todas distina tas? . Se tienen 2k cajas numeradas (desde 1 hasta 2k) y k bolas numeradas (desde 1 hasta k). Encuentre la probabilidad de que exactamente una caja quede vacia. ¿Cu´l es la probabilidad a de que 2 pasajeros no se bajen en el mismo piso? 37. . 36. 2. encuentre la u a probabilidad de que a) los d´gitos 1 y 2 est´n en su posici´n correcta. Se lanzan 6 dados distinguibles. Un ascensor con 7 pasajeros se detiene en 10 pisos. n est´n colocados en un orden aleatorio. . e o 35. 2 y 3 est´n en su posici´n correcta. ¿De cu´ntas maneras pueden colocarse n bolas id´nticas en n cajas numeradas a e de tal modo que exactamente dos cajas queden vacias? ¿De cu´ntas maneras de tal a modo que una caja quede vacia? 32. u b) Halle el n´mero de configuraciones tales que la caja #1 resulte vacia. Se disponen en fila 3 bolas blancas y 6 bolas negras de manerta que no haya dos bolas blancas consecutivas.45 dad de que por lo menos haya una en cada casilla. . Los n´meros 1. 33. Se distribuyen las k bolas en las 2k cajas de modo que cada caja contenga a lo sumo una bola. ¿Cu´ntas maneras hay de hacerlo? a 38. Si se colocan n bolas numeradas en n cajas numeradas. u c) Halle el n´mero de configuraciones tales que la caja #1 resulte vacia y la caja u #2 contenga la bola #2. . ¿cu´l es la probabilia dad de que cada caja contenga una bola? 34. ı e o b) los d´ ıgitos 1. 3. a) Halle el n´mero de configuraciones tales que la caja #1 resulte ocupada. 31.

numeradas desde 1 hasta 2n. 2. . . Se tiene un lote con N productos entre los cuales hay n defectuosos. Consideremos el conjunto de todas la poligonales (n. b) Al menos j piezas defectuosas. c) A lo sumo j piezas defectuosas. que parten del origen. S0 = 0 y que en cada paso saltan una unidad hacia arriba o una unidad hacia abajo. .. j ≤ n y j ≤ k. es decir. Halle la probabilidad de que haya a lo sumo una bola con el mismo n´mero en ambos conjuntos? u 42. a) ¿Cu´ntas poligonales se pueden construir en el intervalo de tiempo [0. Con los 12 palos as´ obtenidos se vuelven a formar 6 palos reaı grup´ndolos al azar en parejas. . Seleccionamos n bolas de cada caja. 43. ¿Cu´ntos enteros hay entre 106 (un mill´n) y 107 (diez millones) tales que a o a) no tengan dos d´gitos consecutivos iguales? ı b) tengan todos sus d´gitos diferentes? ı 40. Sn ) con n = 0. . . . 1. Se tienen 6 palos de igual longitud y cada uno de ellos se parte en dos: uno largo y uno corto. . j ≤ n y j ≤ k.46 c) ¿Cu´l es la probabilidad de que todas sus caras superiores sean iguales? a d) ¿Cu´l es la probabilidad de que al menos dos dados muestren sus caras superia ores iguales? 39. b) Halle la probabilidad de que cada trozo largo sea unido a uno corto. j ≤ n y j ≤ k. + Xn . n). es decir. a a) Halle la probabilidad de juntar los trozos en la forma original. Dos cajas contienen 2n bolas cada una. Halle la probabilidad de que en una muestra aleatoria de tama˜o k se encuentren: n a) j piezas defectuosas. Sn = X1 + X2 + . {Sn }n≥1 as´ definido se denomina paseo al azar o ı o caminata aleatoria. n]? a b) ¿Cu´ntas poligonales son tales que Sn = 0? a 41. 2. . donde XK = 1 ´ −1 (k = 1.

h). Supongamos que el dado rojo muestra 2. (2.17 1. v). (v. (2. Asumimos que todos los resultados son igualmente probables. reposici´n dos estudiantes. ¿Cu´l n a es la probabilidad de que tenga una hermana? Podemos describir el espacio muestral como {(h. ¿cu´l es la probabilidad de que la suma sea igual a o a 8? ¿mayor que 10? Si el primer dado es igual a 2. que tambi´n es diferente e de P (C). 1). (v. es decir ocurre B. Considere el espacio muestral correspondiente al lanzamiento de dos dados (uno rojo y uno verde) y supongamos que todos los resultados son igualmente probables.9. Como sabemos que uno de los ni˜os n es el rey. B = dado rojo muestra 2 y C = suma mayor que 10. (2. Se tiene que la 1 probabilidad de A dado B es igual a 6 . el n´mero de eventos eleo u mentales (´ resultados) es 20 × 19. v).1. 5). ¿cu´l es la probabilidad de que el segundo tambien lo sea? a Observe que. o Ejemplos 1. (v. de forma que el espacio muestral puede representarse coo mo un conjunto de pares (e1 . 4). se verifica que la probabilidad de que ocurra C dado que ha ocurrido B es igual a 0. v)}. e2 ). por lo que la 2 probabilidad de que el rey tenga una hermana es 3 3. (v.9. (2. v)}. Considere una poblaci´n de 20 estudiantes entre los cuales hay 14 que estudian o Ciencias y 6 que estudian Ingenier´ Se escogen al azar. ¿Tiene el rey una hermana? El rey viene de una familia de dos ni˜os. (2. 2. Probabilidad Condicional e Independencia. Consideramos situaciones en las que para calcular la probabilidad de un evento se tiene informaci´n adicional como. 1. entonces los resultados posibles son: S = {(2. Supongamos que el primer estudiante es de Ciencias. siendo S el espacio muestral actualizado. o Sean E1 =el primer estudiante es de Ciencias y E2 =el segundo estudiante es de Ciencias. en forma sucesiva y sin ıa. por ejemplo la ocurrencia de alg´n otro evento. 6)}. el espacio muestral actualizado es S = {(h. 2). en el que todos los resultados son igualmente probables. (h. Note que esta probabilidad es diferente de 5 P (A) = 36 .47 1. Probabilidad Condicional. . h). h). o u Nos preguntamos ¿en qu´ medida afecta esta informaci´n la probabilidad buscada ? e o Ilustraremos esta situaci´n con algunos ejemplos. 3). dado que el muestreo es sin reposici´n. dada esta informaci´n. Sean A = suma igual a 8. Observando el espacio muestral actualizado S . Entonces.

Entonces o P (∪n≥1 An |B) = P (∪n≥1 An ∩ B) P (∪n≥1 (An ∩ B)) = P (B) P (B) P (An ∩ B) P (An |B). P (h|v) y P (E2 |E1 ). P (B) iii) Sea (An )n≥1 una sucesi´n de eventos disjuntos dos a dos. para todo A ∈ A. = P (B) P (B) = 1. P (B) NOTA: en los ejemplos anteriores se calcularon: P (A|B).3 Sea (Ω. entonces P (A|B) = 3. Una vez m´s observe que P (E2 ) = (20×19) = 10 = 13 . Propiedades b´sicas. P ) un espacio de probabilidad y sea B ∈ A tal que P (B) > 0. por lo que o P (E2 |E1 ) = P (E2 ) = 14 × 20 7 = . Si A y B son disjuntos. (Ω∩B) ii) P (Ω|B) = P P (B) = P (B) = 1. A. Definimos la funci´n de conjuntos probabilidad condicional dado B. P (E1 ) Esta probabilidad se denomina probabilidad condicional de E2 dado E1 y se denota (14×19) 7 P (E2 |E1 ). Si B ⊆ A entonces P (A|B) = P (A∩B) P (B) = 0.48 El espacio muestral actualizado es: E1 . Entonces 1. 20 × 20 10 Definici´n 1. por lo tanto la probabilidad de que ocurra E2 dado que ocurre E1 es 14 × 13 = 14 × 19 (14×13) (20×19) (14×19) (20×19) = P (E1 ∩ E2 ) . = = P (B) n≥1 n≥1 P (A∩B) P (B) 2. A. En efecto o i) P (A|B) ≥ 0 para cada A ∈ A. este espacio tiene 14 × 19 posibles resultados de los cuales 14 ×13 son favorables a E2 . P ) un espacio de probabilidad y sea B ∈ A tal que P (B) > o 0. a Sea (Ω. a 19 Si las selecciones se realizan con reposici´n el resultado de la primera extracci´n no o o nos da informaci´n alguna en cuanto al resultado de la segunda. La funci´n P (•|B) es una probabilidad. denotado o P (•|B) mediante P (A ∩ B) P (A|B) = . .

a) Si la suma de los resultados es 8. Tenemos entonces que pn = 6 ( 25 )n−1 . 6 n≥1 36 6 n≥0 36 11 n≥1 Soluci´n 2. si la suma de los dados es igual a 7 A gana y si la suma es igual a 8 B gana. 6). Se lanza un dado dos veces. Lo anterior es equivalente a decir que P (A) es la probabilidad condicional o de que la suma sea 7 dado que el juego termina en alg´n lanzamiento. 4)} y el evento la suma es 7 por 1 E7 = {(1. (4. n − 1 no se obtiene un 7 o un 8. . . 5). . Observe que el segundo lanzamiento no afecta la probabilidad del resultado del primer . 8}) = P ({7}) 6 = . 8}) 11 2. (2. 2). ¿cu´l es la probabilidad de que la suma o a sea 7? Soluci´n. . ¿Cu´l es la probabilidad de que A gane? a Soluci´n 1. 3). 4). 6}? b) Si el primer lanzamiento result´ en un 3. ¿cu´l es la probabilidad de que el segundo o a sea k ∈ {1. Sea pn la probabilidad de que A gane en n lanzamientos. Denotemos por X el resultado del primer lanzamiento y por Y el resultado o 1 del segundo lanzamiento. El juego termina al obtener un ganador. 3)}. ¿cu´l es la proba abilidad de que el primer resultado sea k ∈ {1. si 2 ≤ k ≤ 6 si k = 1 (1. a) Se quiere P (X = k|X + Y = 8) = P ((X=k)∩(X+Y =8)) . . (6. . . (3. 2. (5. Esto significa o que en los lanzamientos 1. 2). 6}? c) Si el primer lanzamiento result´ en un 3. 5). 2. . es decir u P (A) = P ({7}|{7.2) 0 1 6 1 5 (1. (6. A y B juegan el siguiente juego de dados: Se lanzan dos dados. 4)} se tiene que P (X + Y = 8) = 5 . 6). 2. (3. 1). 6). . (5.3) = 1/36 1/6 = = P (Y = k). (5. Tenemos que P (X = k) = 6 = P (Y = k). (6. 36 Adem´s a 1 36 P ((X = k) ∩ (X + Y = 8)) = Por lo tanto P (X = k|X + Y = 8)) = b) P (Y = k|X = 3) = P ((Y =k)∩(X=3)) P (X=3) 0 si 2 ≤ k ≤ 6 si k = 1. 5). . 3). 36 Con lo cual 1 25 25 1 6 pn = P (A) = ( )n−1 = ( )n = . Denotamos el evento la suma es 8 por E8 = {(2.18 1.49 Ejemplos 1. P (X+Y =8) Dado que (X + Y = 8) = {(2. . (4. (3. P ({7. 2). (4.

P (R) 1 En particular si p = 30 se tiene que P (E|R) 0. Note que si p es peque˜o la n efectividad del examen para detectar la enfermedad es dudosa. 9p + 0.01. 01(1 − p). 01(1 − p) con lo que P (E|R) = 0. Sean E: la persona est´ enferma y R: el examen resulta positivo (detecta o a la enfermedad). 01(1 − p) 89p + 1 P (E ∩ R) . es decir P ({T > s + h} ∩ {T > s}) P (T > s + h) = = P (T > h). 01 ⇒ P (E c ∩ R) = 0. sino que se destruye por alguna perturbaci´n aleatoria. 4. c) P (X + Y = 7|X = 3) = P ((X+Y =7)∩(X=3)) P (X=3) = 1/36 1/6 1 = 6.9. Se sabe e que la probabilidad de que al aplicar el examen a un enfermo lo muestre como tal es de 0. Consideremos un aparato el´ctrie co cuyo funcionamiento no es afectado por el paso del tiempo. P (R ∩ E) P (R|E) = = 0.50 lanzamiento. Calcule la probabilidad de que una persona este realmente enferma si el examen la muestra como tal. 9p 90p = . Tiempo de vida de un aparato que no envejece. P (R|E c ) = P (E c ) Por lo tanto P (R) = P (R ∩ E) + P (R ∩ E c ) = 0. y que la probabilidad de que al aplicarlo a una persona sana la muestre como enferma es de 0. 3. Para controlar una cierta enfermedad en una poblaci´n donde la proporci´n de o o enfermos es p se usa un determinado examen m´dico para detectar enfermos. P (T > s) P (T > s) . 9 ⇒ P (E ∩ R) = 0. 76. Esto puede expresarse de la siguiente manera: Dao do que el aparato est´ funcionando en el instante s su tiempo de vida a partir de a ese instante evoluciona como si el aparato hubiera comenzado a funcionar en s. 9p + 0. 0. Si denotamos por T al tiempo de vida del aparato lo anterior significa que P (T > s + h|T > s) = P (T > h) h > 0. Soluci´n. Se desea calcular P (E|R) = Sabemos que: P (E) = p. 9p P (E) P (R ∩ E c ) = 0.

. P (A2 |A1 ) = 5 . P (A1 ) P P (A ∩A ∩. P (A5 |A1 ∩ A2 ∩ A3 ∩ A4 ) = 2 y 6 6 1 P (A6 |A1 ∩ A2 ∩ A3 ∩ A4 ∩ A5 ) = 6 . . Entonces queremos calcular P (A1 ∩ A2 . Se puede comprobar que φ(t) = e−λt . a2 . ∩ An−1 ). 2. ∩ A6 ) = 1 × . ... . . 1. . . .Ak−1)) . ∩ An ) > 0. Como 0 < P (A1 ∩ A2 ∩ . entonces se verifica que P (A1 ∩ A2 ∩ . .. λ ≥ 0. P (An |A1 ∩ A2 ∩ . . a2 A4 = el resultado del cuarto dado es a4 = a1 .19 Calcule la probabilidad de que al lanzar seis dados distintos y perfectos se obtengan seis caras distintas.2. .. a2 . donde t ≥ 0. ∩ A6 ) donde P (A1 ) = 1. An−1 ) ≤ . Soluci´n. 6 3 P (A3 |A1 ∩ A2 ) = 4 . Sean A1 . . Consideremos los siguientes eventos: o A1 =el resultado del primer dado es a1 ∈ {1. ∩ P (A1 ∩A2 ) 1 ∩A2 ∩A . .51 Si denotamos φ(t) = P (T > t) la igualdad anterior significa que φ(s + h) = φ(s) × φ(h). . El resultado se obtiene por inducci´n sobre n. Demostraci´n. a5 . o Ejemplos 1. P (A4 |A1 ∩ A2 ∩ A3 ) = 6 . Resultados B´sicos sobre Probabilidad Condicional. . a3 . . ≤ P (A1 ). a3 .Ak Ak−1 ) = P (A11∩A22. . . . . entonces todas las probabilidades condicionales estan bien definidas. Observemos que P (A2 |A1 ) = o y de manera similar P (Ak |A1 ∩ A2 ∩ . a2 . . . . P (A1 ∩ A2 . . ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . ∩ An ) ≤ P (A1 ∩ A2 . a Proposici´n 1. a3 A5 = el resultado del quinto dado es a5 = a1 . .1 (Probabilidad de la intersecci´n). . Esto implica que 5 4 3 2 1 5! 6! × × × × = 5 = 6 6 6 6 6 6 6 6 Nota. a4 A6 = el resultado del sexto dado es a6 = a1 . 6} A2 = el resultado del segundo dado es a2 = a1 A3 = el resultado del tercer dado es a3 = a1 . P (A3 |A1 ∩ A2 ) = P (A(A1 ∩A2 ) 3 ) . Compare con la situaci´n en que se sientan seis personas en seis sillas: es o la misma situaci´n si se asume que las sillas estan enumeradas y las seis personas o representan los seis dados.9. An una colecci´n o o o finita de eventos tales que P (A1 ∩ A2 ∩ . . a4 .

o 5 5 3 Por lo tanto 1 26 3 P (A2 ) = P (A1 )P (A2 |A1 ) + P (Ac )P (A2 |Ac ) = + = . P ) un espacio de o o probabilidad y sea (An )n≥1 ⊆ A una partici´n del espacio Ω. por lo que no importa que u P (B|An ) no este definido.52 Proposici´n 1. a)Calcule la probabilidad de que un nuevo asegurado tenga un accidente en el a˜o siguiente a la compra de la p´liza.14 = 0. 6 5 Soluci´n. Entonces para todo evento B se cumple que P (B) = i≥1 P (Ai )P (B|Ai ). ser calculadas m´s f´cilmente. Demostraci´n. . Las estadisticas muestran que una persona propensa a accidentes tendr´ un accidente en alg´n momento en un per´ a u ıodo de un a˜o con probabilidad 0.2 = 0.4. para i = j.7 × 0. Si para alg´n n. 1. Entonces o P (A) = P (A ∩ B) + P (A ∩ B c ) = P (B)P (A|B) + P (B c )P (A|B c ) = 0. La f´rmula anterior permite descomponer el evento B en eventos cuyas probabilio dades pueden. tenemos que P (B) = P (∪i≥1 (B ∩ Ai )) = i≥1 P (B ∩ Ai ) = i≥1 P (Ai )P (B|Ai ). Se extraen al azar y sin reposici´n o 2 bolas. a a Ejemplos 1. Calcule la n o probabilidad de que el asegurado sea propenso a accidentes. Soluci´n. en algunos casos.26. Entonces. Una compa˜´a de seguros clasifica a las personas en dos grupos: aquellos que son nı propensos a accidentes y aquellos que no lo son.3 × 0.2. A2 = la segunda bola es roja. A. 1 1 3 59 5 2. P (An ) = 0. a) Sea A =el asegurado tiene un accidente en el a˜o siguiente a la compra o n de la p´liza y B = el asegurado es propenso a accidentes. Una urna contiene 6 bolas rojas y 4 negras. Comentarios. como la familia (B ∩ Ai )i≥1 es disjunta. Considere los siguientes eventos: A1 =la primera bola es roja. ya que el t´rmino correspondiente no aprece en la f´rmula. entonces P (B ∩ An ) = 0. mientras que la probabilidad del mismo evento para n una persona no propensa a accidentes es 0.2 (F´rmula de la Probabilidad Total. Escribimos o B = B ∩ Ω = B ∩ (∪i≥1 Ai ) = ∪i≥1 (B ∩ Ai ).12 + 0.20 1.4 + 0. b) Suponga que un nuevo n o asegurado tiene un accidente en el a˜o siguiente a la compra de la p´liza. e o 2. Calcule P (A2 ).) Sea (Ω. esto es Ω = ∪An y o Ai ∩ Aj = ∅. Se asume que el 30 % de la poblaci´n o es propensa a accidentes. Tenemos que P (A1 ) = 10 = 3 y P (A1 ∩ A2 ) = P (A1 )P (A2 |A1 ) = 3 9 = 1 .

Sean S = el paciente sobrevive y C =el paciente tuvo cirug´ Entonces o ıa. Un posible tratamiento es quir´rgico.1.2 P (S)P (C|S) = = = 0.5 = P (S c ).26 13 Demostraci´n. abilidad de que un paciente sobreviva si ha tenido cirug´ ıa. A4 =se modifica el cause de los rios por siembras o construcciones. Un examen para detectar la presencia de un virus. etc. o P Comentario.05 2. Ejemplos 1. o Teorema 1. P ) tales que Ω = ∪An . Si los eventos (An )n≥1 se interpretan como ”hip´tesis. dado que B ocurre. Entonces a la probabilidad buscada es P (S|C) = 0. ya que P (An |B) = P (A(B) . A2 = se echan desperdicios o en los desaguaderos. puede ser de inter´s el saber de qu´ manera la ocurrencia de B afecta la o e e probabilidad de las hip´tesis. P (A) 0. Se ha demostrado que de los sobrevivientes el 40 % u ha tenido cirug´a y de los no sobrevivientes 10 % ha tenido cirug´ Encuentre la probı ıa. o En la f´rmula de la probabilidad total. supongamos que el evento B ha ocurrio do.5) 0. consideramos una situaci´n inversa a la que o o se presenta en la proposici´n anterior. Adem´s sabemos que P (C|S) = 0.1 (Teorema de Bayes) Sea (An )n≥1 una sucesi´n disjunta de eventos en o un espacio de probabilidad (Ω. P (S) = 0.4 × 0. i≥1 P (Ai )P (B|Ai ) P (B)P (A|B) 0. se consideran como posibles causas de una inundaci´n A1 = llueve en exceso. Es decir.4 × 0. detecta al virus en un 95 % de los . Sea B ∈ A tal que P (B) > 0. La f´rmula expresa la contribuci´n de cada una de c o o las causas en la ocurrencia de B. Soluci´n. Es immediata utilizando la f´rmula de la probabilidad total y la definio o n ∩B) ci´n de probabilidad condicional.5) + (0.3 × 0. A.53 b) Se desea calcular P (B|A) = La F´rmula de Bayes.1 × 0.4 y P (C|S c ) = 0.5 0.2 + 0. Entonces para cada n se cumple que P (An |B) = P (An )P (B|An ) . Por ejemplo. Un paciente sufre de una enfermedad que es fatal en el 50 % de los casos.acerca de una determinada o situaci´n.21 1. A3 =no se hace mantenimiento a las quebradas. Otra importante interpretaci´n se obtiene si se considera (An )n≥1 coo mo posibles ¸ausas”del evento B.4 6 = = .8 P (S)P (C|S) + P (S c )P (C|S c ) (0.

B}. Sean R =el examen result´ positivo.05 y P (E) = 0. E =la enfermedad est´ presente. o (b) En este espacio no es posible sin embargo considerar la probabilidad condicional de que A sea liberado dado que el guardia se˜ala a B (o a C) como uno de los presos n a ser liberados. o o a Sabemos que P (R|E) = 0. Se estudiar´ la situaci´n en que la ocurrencia de un evento B no afecta en modo a o alguno la ocurrencia de otro evento A. Ejemplos 1.3 % de las personas.05. Esto lo observamos en el ejemplo 5-b (se lanza un dado =k)∩(X=3)) dos veces y se tiene que P (Y = k|X = 3) = P ((Y P (X=3) = 1/36 = 1 = P (Y = k)).95. 2 entonces el guardia tiene raz´n al asignar a A la probabilidad de 3 de ser liberado. 4 En este caso P (D1 |D2 ) = P (D1 ) = 10 = P (D2 ) = P (D2 |D1 ). P (R|E c ) = 0. Calcular las probabilidades en este caso bajo dos conjuntos de supisiciones: (i) el guardia se˜ala indistintamente a B ´ C cuando estos son los liberados. Si se asume una probabilidad uniforme (todos los resultados son igualmente probables). a (c) Considerar espacio muestral m´s complejo que incluya los eventos sugeridos por a el guardia. Considere los eventos: o D1 = el primer objeto es defectuoso y D2 = el segundo objeto es defectuoso .22 Un lote de 10 objetos contiene cuatro defectuosos y seis en buen estado. (d) Conclusiones: En el caso (i) la probabilidad de que A sea liberado no cambia una vez que el guardia identifica a uno de los prisioneros.05 × 0. (ii) el n o guardia siempre identifica a B.95 × 0. e Soluci´n. ya que el espacio muestral no cambia cuando ocurre alguno de estos eventos. C}}.54 casos. (a) Espacio muestral considerado por el guardia: {{A. cuando este est´ presente. 1/6 6 lo que significa que el resultado del primer lanzamiento no influencia el resultado en el segundo lanzamiento. ya que en el espacio muestral considerado no se tiene el evento el guardia dice que B (o C) ser´ liberado.003. Independencia. El Dilema del Prisionero. calcule la probabilidad de que una persona tenga la enfermedad dado que el resultado fu´ positivo. C}. pero puede presentar un falso resultado positivo en un a 5 % de los casos. {B. P (Rc |E) = 0. Veamos otro ejemplo.997 3.003 + 0. Entonces P (E|R) = P (E)P (R|E) 0.003 = = 0. . Se extraen dos objetos sucesivamente y con reposici´n.95 × 0. {A. c )P (R|E c ) P (E)P (R|E) + P (E 0. En este caso ocurre que la probabilidad condicional de A dado B es la misma probabilidad de A. Si en determinada poblaci´n la enfermedad aparece en alrededor de o 0. tal y como se intuye en el ejemplo del dilema del prisionero.05.

55 Definici´n 1.4 Dos eventos A y B son independientes si P (A|B) = P (A). Esto es o equivalente a tener que P (A ∩ B) = P (A)P (B). Observe que Ω y ∅ son independientes de cualquier evento. Proposici´n 1.3 Si A y B son independientes, tambi´n lo son: a) A y B c , b) Ac y o e Bc. Demostraci´n. a) Dado que P (A) = P (A ∩ B) + P (A ∩ B c ) tenemos que o P (A∩B c ) = P (A)−P (A∩B) = P (A)−P (A)P (B) = P (A)(1−P (B)) = P (A)P (B c ). b) En este caso tenemos que P (Ac ∩ B c ) = P ((A ∪ B)c ) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B) = 1 − P (A) − P (B) + P (A)P (B) = 1 − P (A) − P (B)(1 − P (A)) = (1 − P (A))(1 − P (B)) = P (Ac )P (B c ) Ejemplos 1.23 Suponga que en ejemplo 1.22 la extracci´n se realiza sin reposici´n. En este caso o o calculamos
c c c P (D2 ) = P (D2 ∩ D1 ) + P (D2 ∩ D1 ) = P (D2 |D1 )P (D1 ) + P (D2 |D1 )P (D1 ) 3 4 4 6 36 2 = + = = . 9 10 9 10 90 5

Como, por otra parte P (D2 |D1 ) =

3 9

=

2 5

tenemos que D1 y D2 no son independientes.

Definici´n 1.5 Una familia arbitraria de eventos C = {Ai : i ∈ I} se dice o independiente si para cualquier colecci´n finita de eventos Ai1 , Ai2 , . . . , Ain de C se o cumple: P (∩n Aij ) = j=1 Ejemplos 1.24 Calcule la probabilidad de obtener tres 6 al lanzar ocho dados. El problema equivale a calcular la probabilidad de obtener tres 6 al lanzar ocho veces el mismo dado. Sea Ei =se obtiene un 6 en el i-´simo lanzamiento. Por independencia e tenemos que 1 5 c c c c c P (E1 ∩ E2 ∩ E3 ∩ E4 ∩ E5 ∩ E6 ∩ E7 ∩ E8 ) = ( )3 ( )5 . 6 6 Se puede verificar f´cilmente que esta es la probabilidad de cualquier conjunto de ocho a lanzamientos de un dado en que se produzcan exactamente tres 6. Finalmente como 1 5 existen (8 ) conjuntos de este tipo, la probabilidad buscada es (8 )( 6 )3 ( 6 )5 . 3 3
n

P (Aij ).
j=1

56 Ejercicios 1.4 1. Una caja contiene metras de las cuales 10 son blancas, 5 amarillas y 10 negras. Se escoge una metra al azar de la caja y se observa que no es negra. ¿Cu´l es la a probabilidad de que sea amarilla? 2. Se lanzan dos dados perfectos. ¿Cu´l es la probabilidad condicional de que al menos a uno de ellos caiga en un 6 dado que caen en n´meros diferentes? u 3. Si dos dados perfectos son lanzados, ¿Cu´l es la probabilidad condicional de que a el primero caiga en un 6 dado que la suma de los dados es i? Calcule la probabilidad para todos los valores i en tre 2 y 12. 4. Una urna contiene 6 bolas blancas y 9 negras. Si 4 bolas se extraen aleatoriamente y sin reposici´n, ¿cu´l es la probabilidad de que las dos primeras sean blancas o a y las dos ultimas negras? ´ 5. Una urna contiene 12 bolas de las cuales 8 son blancas. Se extrae una muestra de 4 bolas con reemplazamiento (sin reemplazamiento). ¿Cu´l es la probabilidad a condicional (en ambos casos) de que la primera y la tercera bolas seleccionadas sean blancas, dado que la muestra contiene exactamente 3 bolas blancas? 6. El dilema de un m´dico. Un m´dico refiere a un colega la siguiente situaci´n: e e o ”Si tengo la certeza de al menos un 80 % de que mi paciente sufre de esta determinada enfermedad, entonces siempre recomiendo cirug´ mientras que si no estoy tan ıa, seguro recomiendo evaluaciones adicionales que resultan costosas y, en algunos casos, dolorosas. Con el se˜or Gonzalez inicialmente tuve s´lo un 60 % de certidumbre de n o que sufr´a la enfermedad, por lo cual orden´ la serie de evaluaciones A que siempre ı e dan un resultado positivo cuando el paciente tiene la enfemedad y casi nunca (da resultado positivo) si el paciente no tiene la enfermedad. El resultado fue positivo, pero cuando estaba listo para recomendar cirug´ el paciente me informa por primera vez ıa que es diab´tico. Esto complica las cosas porque, aunque no cambia mi 60 % de cere tidumbre inicial, afecta la interpretaci´n de los resultados de la evaluaci´n A, el cual o o no produce resultados positivos cuando el paciente es saludable, pero desafortunadamente produce resultados positivos en 30 % de los pacientes diab´ticos que no sufren e la enfermedad. Ahora ¿qu´ debo hacer? ¿M´s evaluaciones o cirug´ de inmediato?” e a ıa 7. Un examen de sangre de un laboratorio tiene efectividad de 95 % al detectar una cierta enfermedad cuando esta est´ en efecto presente. Sin embargo el examen puede a tambien dar un ”falso positivo”de 1 % para personas sanas. Si 0,5 % de la poblaci´n o tiene la enfermedad, ¿cu´l es la probabilidad de que una persona tenga la enfermedad a dado que el examen resulta positivo?

57

8. Un detector de mentiras muestra una se˜al positiva (indicando una mentira) 10 % n de las veces que un sujeto dice la verdad y 94 % de las veces que miente. Si dos personas son sospechosas de un crimen que se sabe ha cometido uno solo de ellos, y ambos dicen ser inocentes, ¿cu´l es la probabilidad de que una se˜al positiva del dea n tector correspona al culpable? 9. Se obtiene una muestra de cuatro bolas a partir de una bolsa que contiene doce, de las cuales ocho son blancas. Si el muestreo es sin reposici´n, halle la probabilidad o de que la tercera bola sea blanca, si sabemos que la muestra tiene tres bolas blancas. ¿Que sucede si el muestreo es con reposici´n? o 10. Se lanzan dos dados sim´ticos. Calcule la probabilidad de que la suma sea 7 dado e que: a) La suma es impar. b) La suma es mayor que 6. c) El resultado del primer dado fue impar. d) El resultado del segundo dado fue par. e) El resultado de al menos un dado fue impar. f ) Los dos dados tuvieron el mismo resultado. g) Los dos dados tuvieron resultados distintos. h) La suma de los dos dados fue 13. 11. Una bolsa contiene cuatro bolas blancas y dos negras y otra contiene tes de cada color. Se escoge una bolsa al azar y luego se selecciona una bola, tambien el azar. ¿Cu´l es la probabilidad de que sea blanca? a 12. Una caja contiene 10 bombillos, cuatro de los cuales estan malos. Los bombillos se prueban extrayendolos al azar, uno a uno y sn reposici´n hasta sacar los cuatro o en mal estado. ¿Cu´l es la probabilidad de que el ultimo en mal estado salga en la a ´ quinta prueba? ¿Y en la d´dima? e 13. Cierta vacuna brinda protecci´n contra una enfermedad, de modo que uan pero sona vacunadatiene probabilidad 0,4 de contraer la enfermedad, mientras que una sin vacunar tiene probabilidad de 0,8 de enfermarse. 75 % de la poblaci´n est´ vacunada. o a ¿Cu´l es la probabilidad de que una persona que tiene la enferemedad este vacunada? a 14. En un hospital se aplica una prueba para detectar c´ncer. Se ha determinado a que en 97 % de los pacientes cancerosos el resultado de la prueba es positivo y s´lo o en un 5 % de los pacientes sanos la prueba arroja un resultado positivo. Si 2 % de los pacientes del hospital sufre de c´ncer, ¿cu´l es la probabilidad de que un paciente a a elegido al azar que reacciona positivamente a la prueba tenga realmente c´ncer? a 15. Suponga que 5 % de los hombres y 25 % de cada 10.000 mujeres son dalt´nicos. o Se escoge un dalt´nico al azar, ¿cu´l es la probabilidad de que sea hombre? o a 16. Una ferreter´a tiene tres cajas con igual cantidad e tornillos. Dos de las cajas ı

B y C independientes? ¿Son B y C independientes?. mientras que un dado B tiene 2 caras rojas y 4 blancas. . ¿cu´l es la probabilidad de que ella trabaje en la e a sucursal con 12 empleados? b) Si se escoge un segundo empleado de la misma sucursal. uno de los cuales es defectuoso. respectivamente. a) Se escoge una sucursal al azar y de ella se escoge un empleado. se mezclan en otra caja y de ella se sacan cinco tornillos. Un dado perfecto es lanzado sucesivamente. o . Si ´ste es una mujer. . An son eventos independientes. Se escogen dos cajas al azar. ¿cu´l es la probabilidad de que haya sido enviado un punto? a 19. Sean A y B disjuntos y de probabilidad positiva. Las se˜ales telegr´ficas de ”puntoτ raya”se envian en proporci´n de 3:4. ¿cu´l es la probabilidad de que a en el tercer lanzamiento se obtenga un rojo? (c) Si los primeros dos lanzamientos resultan en rojo. 12 y 14 empleados de los cuales 4. 23. Un dado A tiene 4 caras rojas y 2 blancas. . ¿cu´l es la probabilidad de que a se este usando el dado A? 21. .7 y 10 son mujeres. Considere ambos muestreos: con y sin reposici´n. Debido n a o a ciertas condiciones que causan una transmisi´n err´tica. ¿cu´l es la probabilidad de que se escoja una mujer? a 18. Sea A =exactamente una de las dos primeras extraidas es blanca y B =la cuarta bola es blanca. . (a) Demuestre que la probabilidad de rojo en cualquier lanamiento es 1/2. Si cae en cara se lanza el dado A y si cae en sello se lanza el B. ¿Pueden A y B ser eventos independientes? 22. (a) ¿Son A y B independientes? ¿Qu´ sucede si el muestreo se realiza sin reposici´n? e o (b) Definamos C =exactamente dos de las bolas extraidas son blancas. × (1 − P (An )). Se lanza una moneda legal. . 20. ¿Cu´l es la probabilidad de que una de las cajas de la mezcla sea la que conten´ 10 % a ıa de tornillos defectuosos? 17. Tres sucursales de una tienda tienen 8. ¿Son A. Si se recibe un punto. un punto se transforma o a en raya con probabilidad 1/4 y una raya en punto con probabilidad 1/3. con reposici´n. Una muestra de tama˜o 4 se extrae. . de una bolsa que contiene n o 6 bolas de las cuales 4 son blancas. . (b) Si los primeros dos lanzamientos resultan en rojo. Halle la probabilidad de obtener al menos un 6 en cuatro lanzamientos.58 tiene 5 % de tornillos malos y la otra contiene 10 %. demuestre que P (A1 ∪ A2 ∪ . Si A1 . ∪ An ) = 1 − (1 − P (A1 )) × (1 − P (A2 )) .

j = 1.4 . 0. Sean A y B eventos independientes tales que con probabilidad 1/6 ocurren simult´neamente y con probabilidad 1/3 A ocurre y B no ocurre. A2 y A3 son independientes y P (A1 ) = P (A2 ) = P (A3 ) = 0. 1. 0. 25. ¿Cu´l es la probabilidad de que funcione al a encenderla? . u i=1 29.1. 2. Sean A y B eventos independientes tales que con probabilidad 1/6 ocurren simult´neamente y con probabilidad 1/3 ninguno de ellos ocurre. a ¿Est´n estas probabilidades determinadas de manera unica? a ´ 26. . son independientes y P (Aj ) = p. A2 . ¿Cu´l es el menor valor de n para el cual la probabilidad de obtener al menos a un 6 en una serie de n lanzamientos de un dado perfecto es mayor que 3/4? 28. .59 24. . Supongamos que los compoa o nentes son independientes entre si y sus probabilidades de fallar cuando la m´quina a es encendida son 0. (b) Al menos uno de los corredores termina entre los tres primeros. Si e los eventos A1 . a ¿Est´n estas probabilidades determinadas de manera unica? a ´ 27. .3 y 0.2. Una m´quina consta de 4 componentes conectados en paralelo. Halle el menor valor de n para el cual P (∪n Ak ) ≥ p0 para un n´mero fijo p0 . i = 1. calcule las probabilidades de los siguientes eventos: (a) Ninguno de los corredores termina entre los tres primeros. Un fabricante de motos inscribe tres corredores en una carrera. Halle P (A) y P (B).. . (c) Al menos dos terminan entre los tres primeros. 3. 2. de manera que a la m´quina falla s´lo si los cuatro componentes fallan. . (d) Todos terminan entre los tres primeros. Sea Ai =el i´simo corredor finaliza la carrera en alguno de los tres primeros lugares. Halle P (A) y P (B). Los eventos A1 .

60 .

. Recordemos que en este caso el espacio muestral esta dado por Ω = {(a1 . n}.1 Consideramos un espacio de probabilidad (Ω. . 61 . an ) : ai = c ´ ai = s. o En algunas situaciones nos interesa asociar a cada resultado de un espacio muestral un valor num´rico. Introducci´n. n} ei = 0 si el objeto es bueno 1 si el objeto es defectuoso (2.Cap´ ıtulo 2 Variables Aleatorias 2. 1. . . (Y = 2) = {ccs. en } en los que hay r unos. Se extrae una muestra de n objetos de una linea de producci´n. a2 .1. o Ejemplos 2. . el evento r caras en n lanzamientos se puede expresar como {ω ∈ Ω : Y (ω) = r}. scc}. . Se lanza una moneda n veces y se quiere saber la probabilidad de obtener r caras. css}. . n. . . r = 0. n}. (Y = 1) = {ssc. . i = 1. . . El evento r objetos defectuosos= (X = r) i=1 consiste en todos los resultados {e1 . . .1) Sea X =# de objetos defectuosos= n ei . . . 2. Cuando n = 3 se tiene (Y = 3) = {ccc}. 1. 1. A. . Se escribe un o posible resultado como {e1 . . . . . . en } donde para cada i ∈ {1. Como veremos en los ejemplos siguientes esto equivale a definir e una funci´n sobre los elementos del espacio muestral. . . o Si asociamos a los resultados los valores c = 1 y s = 0 y definimos Y = Y (ω) = # de caras en n lanzamientos . . donde Y ∈ {0. P ) dado. scs. (Y = 0) = {sss}. . csc. . .

Entonces para todo intervalo I ⊆ R se tiene que X −1 (I) = {ω ∈ Ω : X(ω) ∈ I} = Por lo tanto P X −1 (I) = P {ω ∈ Ω : X(ω) ∈ I} = 3. Es de importancia el que los eventos se pueden expresar en t´rminos de estos valores num´ricos. entonces e P (Y = 0) = 1/8. P ) un espacio de probabilidad discreto. ¿Cu´ntas llamadas pueden esperarse en un per´ e a ıodo de 5 minutos? Sea X = el n´mero de llamadas en [0. en algunos casos esto se hace de manera muy natural. etc.}. Comenzamos formalizando esta idea en el caso e e de espacios de probabilidad discretos. En el ejemplo 2.1 tenemos Y ((ccc)) = 3.1 Sea (Ω. Note que X ∈ {0. Una variable o aleatoria o variable aleatoria real es una funci´n o X:Ω→R que a cada ω ∈ Ω le asocia un unico valor real X(ω). Sea A ∈ A un evento dado y X(ω) = χA (ω) = 1 si ω ∈ A 0 si ω ∈ Ac (2.2) . Definici´n 2. Sean X =resultado del primer lanzamiento. Sea c ∈ R un n´mero fijo. Y ((csc)) = 2. es decir X es u constante. u En cada una de las situaciones anteriores hemos asociado un valor num´rico unico e ´ a cada uno de los elementos del espacio muestral. . 1. ´ Ejemplos 2. . Y ((sss)) = 0. .3) Ω si c ∈ I ∅ si c ∈ I c (2.1. 2.5]. Se atiende un tel´fono.2 1. Defina X(ω) = c para todo ω ∈ Ω.62 3. W =m´ximo resultado en los dos lanzamientos y Z =m´ a ınimo de los resultados en los dos lanzamientos. Si asumimos que la moneda es perfectamente sim´trica. lo que permitir´ entender m´s claramente el a a caso general. P (Y = 2) = 3/8 y P (Y = 3) = 1/8. P (Y = 1) = 3/8. P(Ω).4) 1 si c ∈ I 0 si c ∈ I c (2. 4. 2. Y =resultado del segundo lanzamiento. Se lanza un dado dos veces.

i = 3. . 1} ⊆ I c P X −1 (I) = P {ω ∈ Ω : X(ω) ∈ I} =  /  P (A) si 0 ∈ I y 1 ∈ I   c P (A ) si 0 ∈ I y 1 ∈ I / 4. . 1} ⊆ I c si 0 ∈ I y 1 ∈ I / si 0 ∈ I y 1 ∈ I / Por lo tanto 1 si {0. Se seleccionan 3 al azar sin reemplazamiento.3 Una variable aleatoria se denomina discreta. 20. . Una variable aleatoria o o variable aleatoria real es una funci´n o X:Ω→R que satisface la propiedad de que para todo intervalo I ⊆ R el conjunto X −1 (I) = {ω ∈ Ω : X(ω) ∈ I} ∈ A. El conjunto X −1 (I) se denomina preim´gen de I por la funci´n X. Definici´n 2. . 4. Definici´n 2. . Si apostamos que al menos una de las bolas tiene un n´mero mayor u o ´ igual a 17. es decir. 4. A. 1} ⊆ I 0 si {0.2 Sea (Ω. por lo que se dice a o que la funci´n X es una variable aleatoria si la preim´gen de cualquier intervalo es o a un evento. 1} ⊆ I si {0. P ) un espacio de probabilidad. Una urna contiene bolas numeradas del 1 al 20. ¿cu´l es la probabilidad de que ganemos la apuesta? a Definamos la variable aleatoria X =el mayor n´mero seleccionado. entonces se tiene que P (X = i) = Por lo tanto P (ganar) = P (X = 20) + P (X = 19) + P (X = 18) + P (X = 17) = 0. . (i−1 ) 2 . Si suponemos que todas las bolas son igualmente probables. si su rango es un cono junto discreto (finito ´ numerable).63 Entonces para todo intervalo I ⊆ R se tiene que   Ω    ∅  A    X −1 (I) = {ω ∈ Ω : X(ω) ∈ I} = Ac si {0. Entonces X es u una v. .a. es un evento.508. . 20. que toma los valores 3. En este caso existe un conjunto {xn }n≥1 (conjunto o de valores de X) tal que n≥1 P (X = xn ) = 1. (20 ) 3      .

Ejemplos 2. × Im donde. En este caso Ω = [0.2. Nota.2. a Proposici´n 2. . xm ) : o x1 ∈ I1 . .2 y 2. o e X − Y . 1]. .5 Un intervalo o rect´ngulo en Rm es un conjunto de la forma {(x1 . la funci´n o p : {xn }n≥1 −→ [0. a Definici´n 2. entonces la funci´n definida por Y = g ◦ X es tambi´n o e una variable aleatoria. . . .3 se considera un espacio muestral Ω = [a. Es suficiente demostrar que la preim´gen de cualquier intervalo I es o a un evento. m.5) se denomina funci´n de probabilidad de la variable aleatoria X ´ funci´n o o o de masa de probabilidad de la variable aleatoria X. 1].6 Una variable aleatoria vectorial es una funci´n o o Y : Ω → Rm tal que la preim´gen de cualquier intervalo I de Rm es un evento. b) ⊆ R. donde a < b. . Definici´n 2.4 Dada una variable aleatoria discreta X cuyo conjunto de valores es o un conjunto {xn }n≥1 . 2. . Sin embargo una variable aleatoria definida sobre un espacio de probabilidad no discreto puede ser discreta.2 Sean X : Ω → Rm y g : Rm → R. Si X a a y g son variables aleatorias. Demostraci´n. xm ∈ Im } = I1 × I2 × . 1] xn → p(n) = pn = P (X = xn ) (2. Y −1 (I) = {ω : Y ∈ I} = {ω : g(X(ω)) ∈ I} = {ω : X(ω) ∈ g −1 (I)} = X −1 (g −1 (I)) ∈ A .64 En particular.3 1. Se escoge al azar un n´mero en [0. XY y X/Y cuando Y = 0. . . Definici´n 2. Si en los ejemplos 2. 1] y si se define u X(ω) = ω ∈ [0.1 Si X y Y son variables aleatorias entonces tambi´n lo son : X +Y . Consideremos sobre Rm la o σ-´lgebra de Borel B (la menor σ-´lgebra que contiene a todos los intervalos). se tiene que X no es una variable aleatoria discreta. las variables aleatorias definidas sobre espacios de probabilidad discretos son discretas. Proposici´n 2. Esta funci´n satisface la condici´n o o n≥1 pn = n≥1 P (X = xn ) = 1. se obtienen variables aleatorias discretas definidas sobre espacios no discretos. . . Ii ⊆ R es un intervalo. para i = 1. . .

1: X =# de caras en 3 lanzamientos. o b) Escribimos {ω ∈ Ω : X(ω) ≤ b} como la uni´n disjunta o {ω ∈ Ω : X(ω) ≤ b} = {ω ∈ Ω : X(ω) ≤ a} ∪ {ω ∈ Ω : a < X(ω) ≤ b}. F (4) = 1. . .7 Si X es una variable aleatoria. b) P (a < X ≤ b) = F (b) − F (a) para a < b. o a) Es inmediato ya que por definici´n FX (y) = P (X ≤ y) ∈ [0. F (2) = + = . Funci´n de Distribuci´n. o o Teorema 2. 1] tal que para cada y ∈ R. . Ejemplos 2. eno o tonces: a) 0 ≤ F (t) ≤ 1 para todo t ∈ R. Comentarios.4 1. 8 8 8 2 2 8 8 F(x) 1 pp pp pp 7/8 1/2 1/8 1 2 pp pp pp pp pp p 3 pp pp pp pp pp pp p pppppppp x 2. o FX (y) = P ({ω ∈ Ω : X(ω) ≤ y}) = P (X ≤ y). . 1. Considere la variable aleatoria definida en el ejemplo 2. F (1. En algunos casos se utiliza la notaci´n FX en lugar de F . . ım f ) l´ t→∞ F (t) = 1 y l´ t→−∞ F (t) = 0. 1].2. entonces se define FX (x) = xn ≤x pn donde pn = P (X = xn ). . . c) F (a) ≤ F (b) si a < b (no decreciente). En este caso la funci´n de distibuci´n est´ dada de la siguiente foro o a ma: 1 1 3 1 1 3 7 F (0) = . F (3) = 1.}.2. F (1) = + = . . o o Definici´n 2. d) l´ t→a+ F (t) = F (a) (continua a la derecha) ım e) l´ t→a− F (t) = F (a) − P (X = a).1 Si F es la funci´n de distribuci´n de una variable aleatoria X.65 2. se define la funci´n de distribuci´n o o o de X como la funci´n FX : R −→ [0.1.5) = F (1). Propiedades de la Funci´n de Distribuci´n.1. ım ım Demostraci´n. Si X es una variable aleatoria discreta tal que X(Ω) = {x1 . xn . o 2.

La sucesi´n {Sn }n≥1 consta de eventos dos a dos disjuntos tales que: o 1 1 di. q1 = P (a < X ≤ a + 1) = n≥1 P (Sn ) = n≥1 (qn − qn+1 ) = q1 − l´ n→∞ qn .66 Aplicando la aditividad de la probabilidad obtenemos P ({ω ∈ Ω : X(ω) ≤ b}) = P ({ω ∈ Ω : X(ω) ≤ a}) + P ({ω ∈ Ω : a < X(ω) ≤ b}). ım t→a Para demostrar esto. ım . y yn → a cuando n → ∞. F (b) = P (X ≤ b) = P (X ≤ a) + P (a < X ≤ b) = F (a) + P (a < X ≤ b). d) Como F es no decreciente y acotada. Por lo tanto 0 = l´ qn = l´ + P (a < X ≤ t). {ω ∈ Ω : a < X(ω) ≤ a + 1} = ∪n≥1 {ω ∈ Ω : a + n+1 < X(ω) ≤ a + n } = ∪n≥1 Sn . se cumple que l´ n→∞ P (yn < X < a) = 0. ım ım t→a Veremos que l´ t→a+ P (a < X ≤ t) = 0. ser´ suficiente demostrar a que l´ − P (t < X < a) = 0. es decir. 1 1 dii. ım ım ım n→∞ n→∞ Consideremos ahora la sucesi´n de eventos o Sn = {ω ∈ Ω : a + 1 1 < X(ω) ≤ a + }. veremos que para cualquier sucesi´n creciente {yn }n≥1 que o satisface: yn < a. c) Se deduce directamente de b) ya que 0 < P (a < X ≤ b) = F (b) − F (a) para a < b. Entonces t→a+ l´ F (t) = F (a) + l´ + P (a < X ≤ t). para todo n ≥ 1. ım t→a Puesto que P (t < X ≤ a) = P (t < X < a) + P (X = a). n+1 n para n ≥ 1. entonces t→a+ l´ P (a < X ≤ t) = l´ P (a < X ≤ a + 1/n) = l´ qn . por lo tanto basta demostrar que l´ − P (t < X ≤ a) = P (X = a). ım ım n→∞ t→a e) Por b) tenemos que F (a) − F (t) = P (t < X ≤ a). ım diii. Para n ≥ 1 sea ım qn = P ({ω ∈ Ω : a < X(ω) ≤ a + 1/n}). P (Sn ) = P (a < X ≤ a + n ) − P (a < X ≤ a + n+1 ) = qn − qn+1 . el limite existe. Por b) sabemos que F (t) − F (a) = P (a < X ≤ t) para t > a.

Entonces definimos la sucesi´n de o ım o eventos Bn = {ω ∈ Ω : X ≤ xn }. Adem´s. ım ım ım ım n→∞ n→∞ n→∞ ii) An´logamente. Se tiene entonces que x→∞ l´ F (x) = l´ F (xn ) = l´ P (X ≤ xn ) = l´ P (Bn ) = P (∪n≥1 Bn ) = 1. Por lo tanto P (X = a) = 0 en todos los o o puntos a de continuidad de F . La propiedad e) indica que para todo a ∈ R. e Ejemplos 2. Supongamos que la funci´n de distribuci´n de una variable aleatoria X est´ dada o o a . Por lo tanto se tiene que x→−∞ l´ F (x) = l´ F (xn ) = l´ P (X ≤ xn ) = l´ P (Bn ) = P (∩n≥1 Bn ) = 0. es tal que P (Tn ) = P (An ) − P (An−1 ) = qn − qn+1 . Por ser ım {xn } una sucesi´n decreciente. ım ım ım ım n→∞ n→∞ n→∞ Comentarios. Es decir. la cual es creciente y tal que ∪n≥1 Bn = Ω (verif´ ıquelo). o o La funci´n de distribuci´n de una variable aleatoria permite calcular las o o probabilidades de los eventos de inter´s determinados por la variable aleatoria. o si una funci´n G satisface estas propiedades. 1. tenemos que {Tn }n≥1 es a una sucesi´n disjunta de eventos.5 1. l´ ım f) i) Para demostrar que l´ x→−∞ F (x) = 0 consideremos cualquier sucesi´n decreım o ciente {xn }n≥1 tal que l´ n→∞ xn = −∞.67 Sean An = {ω ∈ Ω : yn < X < a} y qn = P (An ). para todo n ≥ 1. consideramos cualquier sucea ım si´n creciente {xn }n≥1 tal que l´ n→∞ xn = ∞. Sea Bn = {ω ∈ Ω : X ≤ xn }. por lo que o q1 = P (y1 < X < a) = P (∪n≥1 Tn ) = n≥1 n P (Tn ) = (qn − qn+1 ) n≥1 = l´ ım n→∞ k=1 (qk − qk+1 ) = q1 − n→∞ qn l´ ım =⇒ n→∞ qn = 0. An+1 ⊆ An (verif´ ıquelo). Por lo tanto Tn = {yn < X ≤ yn+1 } = {yn < X < a} − {yn+1 < X < a} = An − An+1 . Las propiedades c). entonces existe una variable aleatoria Y o que tiene a G como funci´n de distribuci´n. 2. Como la sucesi´n {yn }n≥1 es o creciente se tiene que. d) y f) caracterizan a las funciones de distribuci´n. para demostrar que l´ x→∞ F (x) = 1. la sucesi´n {Bn } tambien es decreciente y es tal que o o ∩n≥1 Bn = ∅ (verif´ ıquelo). P (X = a) es igual al ”salto”de la funci´n de distribuci´n F en el punto a.

P (X > 2 ) = 1 − P (x ≤ 1 ) = 1 − 4 = 3 . 2 1 b) P ( −1 < X < 1 ). La funci´n de distribuci´n de una variable aleatoria es o o              0 1 4 t 1 si t < −1 si −1 ≤ t < −1 2 si −1 2 F (t) = +2  2      t   +3  4  4   1 ≤t<0 1 2 (2. P (X = −1). P (X > 2 ).68 por la funci´n o   0    x     2                 2 3 si x < 0 si 0 ≤ x < 1 si 1 ≤ x < 2 si 2 ≤ x < 3 si 3 ≤ b 11 ) 12 F (x) = 11 12 1 Tenemos entonces que: a. P (2 < X ≤ 4) = F (4) − F (2) = 1 − 11 = 12 . a 2. P (X = 0). 2 4 2 . 3 6 1 1 c.1: Gr´fico de F (x). 2 4 1 d. P (X < 3) = P (X ≤ 3) − P (X = 3) = F (3) − P (X = 3) = 1 − (1 − 1 b. 12 F(x) 1 11/12 2/3 1/2 pp p 5p 5 pp 5 pp 5 p 1 2 pp pp pp pp pp p 3 pp pp pp pp pp pp p pppppppp x Figura 2. P (X < 0). 12 = 11 .6) si 0 ≤ t < si 1 ≤ t 2 Halle a) P (X = −2). P (X = 1) = 2 − 2 = 1 . P (X ≤ −1 ). P (X = −1 ).

a b) El minimo valor en los dos lanzamientos. Encuentre P (X = i). Sea X una variable aleatoria con funci´n de distribuci´n o o                    0 1 2 3 5 4 5 9 10 F (b) = 1 si b < 0 si 0 ≤ b < 1 si 1 ≤ b < 2 si 2 ≤ b < 3 si 3 ≤ b < 3. Se lanzan 3 dados perfectamente sim´tricos. i = 1. La escogencia se hace al azar y se ganan dos puntos por cada bola negra y se pierde un punto por cada bola blanca seleccionada. Dos dados diferentes se lanzan dos veces.5 si 3. X = 2 si un hombre queda en primer lugar y una mujer en el segundo). Dos bolas se escogen de una urna que contiene 8 bolas blancas. 4 negras y 2 anaranjadas.1 1. 2.8) .69 Ejercicios 2. 10. halle o los posibles valores de X y las probabilidades de ocurrencia de estos valores. Suponga que la funci´n de distribuci´n de una variable aleatoria X est´ dada o o a por   0 si b < 0    b   si 0 ≤ b < 1  4 1 b−1 F (b) = (2. . 2. . 3. b) Encuentre P (X = i). .7) + si 1 ≤ b < 2  2 11 4   si 2 ≤ b < 3   12   1 si 3 ≤ b 1 a) Grafique la funci´n F . Cinco hombres y cinco mujeres son clasificados de acuerdo a los resultados de un examen en el cual no hay dos puntajes iguales y los 10! posibles resultados son igualmente probables. 5. Defina la variable aleatoria X como las ganancias obtenidas. 4. 3. c) Encuentre P ( 2 < o 3 X < 2 ). i = 1. d) Valor del primer lanzamiento menos valor del segundo lanzamiento. Encuentre los posibles valores que puede tomar cada una de las variables aleatorias siguientes: a) El m´ximo valor en los dos lanzamientos. Encuentre la probabilidad de cada e uno de los posibles valores de X =suma de los 3 dados. esto es. Sea X el m´s alto rango recibido por una mujer (X = 1 si una a mujer queda en primer lugar. 6. . c) Suma de los dos lanzamientos.5 ≤ b (2. Encuentre la funci´n de probabilidad de X.

donde toma los valores p(0) = 3c3 . P (X ≤ 1). P (X = 2). b) Calcule las probabilidades: P (X < 1). 1. P (X < 2). P (X < 1). 1 e) Halle el menor valor de t tal que F (t) > 3 . 2. Grafique la funci´n F .P (1 ≤ X ≤ 2). Una variable aleatoria tiene funci´n de distribuci´n continua F . 3 (2.9) a) Graf´que la funci´n F . o 7.5 ≤ t < 0 si 0 ≤ t < 1 si 1 ≤ t < 2.5 si −1. 3 a) Determine el valor de c. P (0 < X < 2).11) F (t) =                   1 . ı o b)Describa la funci´n de masa de probabilidad p (funci´n de probabilidad de X) y o o repres´ntela graficamente. dada por o o F (t) =   0  si t ≤ 0 ct si 0 ≤ t ≤ 1   1 si 1 < t 1 ). La funci´n de masa de probabilidad p de una variable aleatoria X es nula salo vo en los puntos t = 0. 3 10. La funci´n de distribuci´n F de una variable aleatoria X viene definida por o o si t < −2 si −2 ≤ t < 0 2 F (t) =  3 si 0 ≤ t < 2  4   1 si 2 ≤ t   0   1  (2. ı o o 1 d) Halle el mayor valor de t tal que F (t) < 2 . p(1) = 4c − 10c2 y p(2) = 5c − 1 para un c > 0. 8. c) Halle y graf´que la funci´n de distribuci´n F . Sea X una variable aleatoria con funci´n de distribuci´n o o                    0 1 8 3 16 5 16 9 16 10 16 14 16 si t < −3 si −3 ≤ t < −2 si −2 ≤ t < −1. P (1 < X ≤ 2) y P (0 < X < 3).5 si 2.10) P (X < 1 ).70 Halle los posibles valores de X y la funci´n de masa de probabilidad (o funci´n de o o probabilidad) de X. e c) Calcule las siguientes probabilidades: P (X = 1). P (0 < X ≤ 2). 9. P (X ≤ 2). a) Determine el valor de c.5 ≤ t < 3 si 3 ≤ t (2. b) Calcule las probabilidades: P (X = P (|X| < 1 ).

4}. 12.5). 0.5. 2. P (0 ≤ X ≤ 1). −2. 0. −1. −1. P (X ≤ 2). −2. 4}. ii) Calcule P (X = i) para i ∈ {−3. −2. 2. 1. P (−1 < X ≤ 3). P (X < 0). 3.5. 2. 4}.5. 0.5. 1. Sea X una variable aleatoria con funci´n de distribuci´n o o              0 1 6 1 2 2 3 5 6 si t < −1 si −1 ≤ t < 0. iii) Halle la funci´n de probabilidad de X.13) F (t) =             1 i) Grafique F .5). P (X ≥ 2. o 11. P (X < −1) y P (X > 4).5. 3.5.5. 2. ii) Calcule P (X = i) para i ∈ {−3. −1.5 ≤ t < 2 si 2 ≤ t < 3 si 3 ≤ t < 4 si 4 ≤ t (2.5 si 0. −1. P (X > 1. 0. 3. 3. 1. 3. P (X = 1).71 i) Grafique F . 0. Sea X una variable aleatoria con funci´n de distribuci´n o o  0    1     25  3t  +1 F (t) =  10 2 5    t 3 1     6+3  1 si t < −2 si −2 ≤ t < 0 si 0 ≤ t < 1 si 1 ≤ t < 2 si 2 ≤ t < 3 si 3 ≤ t (2. P (−1 < X ≤ 3). −1.12) Grafique F y calcule P (X = i) para i ∈ {−3.5). o . 1. P (X > 0). P (X < 3). 2.5.5. iii) Halle la funci´n de probabilidad de X. P (X ≤ 2.

Discretas.5)i (0. Algunas Distribuciones Importantes.10) se deo nomina variable aleatoria de Bernoulli . .72 2. . y sea p ∈ (0. el valor que toma la variable no se puede predecir con exactitud. Distribuciones de Algunas V. 1) la probabilidad de obtener un exito en una realizaci´n del o experimento. El conjunto de valores de Y es o {0. Es decir X ∼ b(5. Por esto estaremos interesados en conocer. m´s que los valores de la variable. Si definimos la v. Ejemplos 2. Esto se conocer´ si se conoce la a funci´n de distribuci´n de la variable. La variable aleatoria definida como Y =# de ´xitos en los n e e ensayos. Los valores de esta i .1. (2. p) = P (Y = i) = n i pi (1 − p)n−i .5.3. la probabilidad de que el valor que toma a la variable aleatoria pertenezca a ciertos conjuntos.3. Supongamos que se realizan n ensayos de Bernoulli independientes y con probabilidad de ´xito p.a.6 1. i = 0. 1. . X = 1 cuando el resultado es ´xito y X = 0 cuando e el resultado es fracaso tenemos que X tiene funci´n de probabilidad dada por o P (X = 1) = p P (X = 0) = 1 − p.5) con a 5 funci´n de probabilidad dada por P (X = i) = o (0. Se lanzan 5 monedas perfectas.A. 1. Variable Aleatoria Binomial. 2.5)n−i . entonces X es una variable aleatoria binomial con par´metros n = 5 y p = 0. Sea X =# de caras. . p). o o 2. n. n. Esto a tambien se expresa mediante la notaci´n Y ∼ b(n. se denomina variable aleatoria binomial con par´metros n y p. . Variable Aleatoria de Bernoulli. La funci´n dada por {pi }n es una funci´n de probabilidad ya que o o i=1 n n pi = i=0 i=1 n i pi (1 − p)n−i = (p + 1 − p)n = 1.14) Una variable aleatoria discreta con funci´n de probabilidad dada por (2. . Un experimento que tiene dos posibles resultados se denomina ensayo de Bernoulli. . . n} y su distribuci´n est´ dada por o a pi = b(i. 1. 0. Identifiquemos los resultados de un ensayo de Bernoulli como ´xito y e fracaso. Como el dominio de una variable aleatoria es un espacio muestral.

.004. . 1 − (1 − p) .01)0 (0.2: Funci´n de probabilidad de X. o 3.99)9 = 0. que ciertamente satisface ∞ ∞ pk = k=1 (1 − p)k−1 p = ∞ (1 − p)k p = k=1 k=0 p = 1. o 2. Por lo tanto la proporci´n de cajas devueltas es 0.4 %.99)10 − (0. . Variable Aleatoria Geom´trica. 1/32 pi 1 r pp pp pp pp r pp pp pp pp 10/32 5/32 1/32 r 1 pr pp p 2 3 4 r pp pp 5 r pp i Figura 2.01. e Suponga que ensayos de Bernoulli. Se sabe que los tornillos que produce una f´brica son defectuosos con probabilidad a 0. Se venden los tornillos en paquetes de 10 y se ofrece garant´a de que a lo sumo 1 de los tornillos es defectuoso. 2. 2. . se realizan hasta que se obtiene un ´xito. . 1) de ´xito. n = 1.73 funci´n se dan en la siguiente tabla: o i 0 P (X = i) 1/32 1 5/32 2 10/32 3 10/32 4 5/32 5 .01) y la probabilidad de que un paquete sea devuelto es P (X > 1) = 1 − P (X ≤ 1) = 1 − P (X = 0) − P (X = 1) = 1− 10 0 10 1 (0. . La variable aleatoria X =# de ensayos e e requeridos para obtener un ´xito se denomina variable aleatoria geom´trica.01)1 (0. independientes y con probabilidad p ∈ (0. 0. ¿Qu´ proporci´n de ı e o paquetes ser´n devueltos? a Sea X =# defectuosos en un paquete. .} y su funci´n de probabilidad est´ dada por o a pn = P (X = n) = (1 − p)n−1 p. Entonces X ∼ b(10. independientemente entre si. El e e conjunto de valores de X es {1.

A. La distribuci´n de Poisson se utiliza. Una urna contiene N bolas blancas y M bolas negras. λ ∈ (0. 2. . entre otras cosas para modelar situaciones en las o que eventos ocurren un cierto n´mero de veces en intervalos (usualmente de tiempos) u dados. 2 .74 Ejemplos 2.a. . ∞). . El par´metro λ se interpreta usualmente como el n´mero de ocurrencias del a u evento por unidad de tiempo o como el ”valor promedio”de la variable aleatoria. . Suponga que el n´mero de errores tipogr´ficos en una p´gina de un libro es una u a a . si a la funci´n de probabilidad de X est´ dada por o a pi = Po (i) = P (X = i) = e−λ λi . de Poisson.}. ¿Cu´l o a es la probabilidad de que se necesiten exactamente n extracciones? ¿Cu´l es la proba abilidad de que se necesiten al menos k extracciones? Sea X =# extracciones necesarias para obtener una bola negra. . i = 0. En este caso se denota X ∼ P(λ). en un sentido que ser´ aclarado posteriormente. La v. M +N M +N (M + N )n ∞ n−1 N M N = ii) P (X ≥ k) = M + N n=k M + N M +N k−1 . Se seleccionan bolas aleatoriamente. X es geom´trica con probabilidad de ´xito p = MM y se desea calcular e e +N n−1 M N M N n−1 i) P (X = n) = = . e 4. Sea X una variable aleatoria que tiene el conjunto de valores {0. Demu´strelo. una a la vez y con reposici´n. . i! La funci´n Po define una medida de probabilidad ya que o ∞ ∞ Po (k) = k=0 k=0 e −λ λ k k! = e−λ × eλ = 1. Aplicaciones de la V. a Ejemplos 2.7 1.8 1. 1. Variable Aleatoria de Poisson. 1. hasta que una bola negra es obtenida. Se dice que X es una variable aleatoria de Poisson con par´metro λ.

. o a Ejemplos 2. Definamos λ > 0 como λ = p × n. Si la experiencia indica que. entonces la a a probabilidad de que haya al menos un error en una p´gina es a P (X ≥ 1) = 1 − P (X < 1) = 1 − P (X = 0) = 1 − e−λ Otras situaciones en que se usa la v. . p) tal que n es un valor grande y o o p es peque˜o. X =# de llamadas telef´nicas que llega a una central en un per´ o ıodo de tiempo. λ n n n n k! (1 − n )k Tomando l´ n→∞ tenemos que ım P (X = k) → 1 × 1 × . X =# de personas en una comunidad que vive m´s de 100 a˜os. P3. p) puede o ser aproximada por una distribuci´n de Poisson con par´metro λ = np. × 1 × λ l´ n→∞ (1 − n )n ım λk λk −λ × = e . . de Poisson con par´metro λ = 1/2. de Poisson.75 v. λ =# llamadas por unidad de tiempo. λ k! k! l´ n→∞ (1 − n )k ım Es decir que para n ”sufucientemente grande”la distribuci´n binomial b(n. ¿cu´l es la a probabilidad de que no aparezcan m´s de 2 part´ a ıculas( en 1 segundo)? . en promedio. (n − 1)n λ n = λ k! nk (1 − n )k n λ0 = 1 − e−1/2 = 0. 3. 0! = = λ (n − k + 1)(n − k + 2) . P1. . entonces n P (X = k) = λ k λ n−k n! λ k λ n−k ) (1 − = ) (1 − k n n k!(n − k)! n n k (1 − λ )n (n − k + 1)(n − k + 2) .2 part´ ıculas α son irradiadas.a. (n − 1)n λk (1 − n )n λ nk k! (1 − n )k λ (n − k + 1) (n − k + 2) (n − 1) n λk (1 − n )n . . Se realiza un experimento que consiste en contar el n´mero de part´ u ıculas α irradiadas. a n P4. Si X =# errores por p´gina.9 1. La distribuci´n de Poisson puede utilizarse en algunos casos para dar una aproxo imaci´n de una distribuci´n binomial.393. P2. . X =# clientes que entra en un banco en un dia... Sea X ∼ b(n.a. por cada gramo de un material radioactivo. en un intervalo de 1 segundo.

La probabilidad de que 2 ´ m´s eventos ocurran en un intervalo de longitud h es o a o(h). k! . comenzando desde ahora. Se puede pensar en un gramo de material radioactivo como un gran conjunto de n ´tomos. . Entonces queremos calcular i. entonces N (t) es una variable aleatoria de Poisson con par´metro λt.3 Supongamos que se cumplen las hip´tesis Hi. N´mero de eventos que ocurre en un intervalo de longitud t. Supongamos que un u evento dado ocurre en ciertos puntos aleatorios de tiempo de modo que. . De esta forma tenemos (3.76 Sea X =# de part´ ıculas de material radioactivo descargadas en un segundo. donde o(h) es un valor peque˜o en relaci´n con h. Hiii. Sea X(t) =# de terremotos en t semanas.2 Proposici´n 2. Entonces X tiene una distribuci´n binomial o con par´metros (n.2)2 P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = e 1 + 3. Hii y Hiii. j1 . . Sea N (t) =# o o de eventos en un intervalo de longitud t. In .2 + = 0. . p) donde n es un n´mero muy grande y p = 3. .2). Por consiguiente el c´lculo de las probabilidades pi pueden ser engorroso. Encuentre la probabilidad de que al menos 3 terremotos ocurran durante las dos semanas siguientes. . si se definen los eventos Ei =ocurren ji eventos en el intervalo Ii i = 1. 2. n o Hii. . En una regi´n de California. 1. k = 0. . Hii y Hiii. a P (N (t) = k) = e−λt Ejemplos 2. −3. j2 . . ocurren terremotos de acuerdo a las hip´tesis o o Hi. . o Puesto que λ se interpreta como el n´mero de ocurrencias por unidad de tiempo. emitiendo una part´ ıcula α. .10 1. . entonces estos eventos son independientes. . P (X(2) ≥ 3) = 1 − P (X(2) = 0) − P (X(2) = 1) − P (X(2) = 2) = 1 − e−4 (1 + 4 + 8) = 1 − 13e−4 . USA. p) P(np) = P(3. o hasta el pr´ximo terremoto. jn y cualquier conjunto de intervalos disjuntos I1 . para alg´n u λ > 0 se cumplen: Hi. Encuentre la distribuci´n de probabilidad de el tiempo. lo que hace preciso considerar a b(n. . 2 P5. ya que todos a u los ´tomos tienen igual probabilidad de descargar una part´ a ıcula. La probabilidad de que ocurra exactamente un evento en un intervalo de longitud h es λh + o(h). Dados enteros n. cada uno de los cuales tiene probabilidad p de desintegrarse durante el per´ a ıodo considerado. ii. a una tasa de 2 por semana.2/n. . Tomando una semana como unidad de tiempo: i.382. (λt)k . u tenemos que λ = 2. . es decir. n.

11 1. entonces X tiene funci´n de probabilidad dada por o Np N −N p n−k N n pk = P (X = k) = k . de las cuales N p o n son blancas y N − N p son negras. . e Sea p ∈ (0. m´ ın(n. ¿qu´ proporci´n e o de lotes rechaza el comprador? Sean X =# de componentes defectuosas seleccionadas. Si X =# de bolas blancas seleccionadas. Su polito ica es inspeccionar 3 componentes y aceptar el lote solo si los 3 son no defectuosos. . k = 0.77 ii. e Ejemplos 2. 5. A =el comprador acepta el lote. B =el lote tiene 4 defectuosas. 1. 1) dado y suponga que se va a seleccionar. . Sea T =tiempo hasta el pr´ximo terremoto (medido en semanas). En este caso se dice que X es una variable aleatoria hipergeom´trica. aleatoriamente y sin reposici´n. . Variable Aleatoria Hipergeom´trica. . Si 30 % de los lotes tienen 4 componentes defectuosas y 70 % solo 1. una muestra de tama˜o n de una urna que contiene N bolas. El evento A es equivalente a {X = 0}. Un comprador de componentes electr´nicos los compra en lotes de 10. 100 Por lo que se acepta el 46 % de los lotes. N p). Entonces o P (T > t) = P (X(t) = 0) = e−λt =⇒ F (t) = P (T ≤ t) = 1 − P (T > t) = 1 − e−λt = 1 − e−2t . Escribiendo A = A ∩ (B ∪ B c ) se tiene que P (X = 0) = P (A) = P (A ∩ B) + P (A ∩ B c ) = P (B)P (A|B) + P (B c )P (A|B c ) 3 = 10 4 0 10 3 6 3 1 0 10 3 9 3 7 + 10 = 54 .

Si. como el color de ojos o ı el ser zurdo. Un h´ ıbrido es una persona con genes rd. n. ¿qu´ ganancia acumular´ el jugador? e ıa 4. 2. 3 el u o jugador gana i unidades. Si ´l obtiene 7 aciertos. . ¿cu´l es la probabilidad de que un estudiante responda al menos 4 preguna tas correctamente si selecciona sus respuestas al azar? 7.78 Ejercicios 2. Halle u la distribuci´n de probabilidad de la ganancia del jugador. n. 1. p) 3. Si X es una variable aleatoria binomial con par´metros (n. . p). exactamente 2 sean a blancas? 6. En un examen de selecci´n m´ltiple. n ) = λ . si el n´mero al que apost´ el jugador aparece i veces. se clasifica basandose en un par de genes. ¿cu´l es la probabilidad de que una persona e a . Considere el siguiente juego: Un apostador apuesta a un n´mero entre 1 y 6. Se extrae una bola de una urna que contiene 3 bolas negras y 3 bolas blancas. . para λ k b(k−1.n. Un ni˜o n recibe un gen de cada progenitor. a i) Demuestre que l´ n→∞ ım ii) Demuestre que parte i). con 3 posibles respuestas para cada una de 5 o u preguntas. dea muestre que f (k) = P (X = k) crece al principio monotonamente y luego decrece monotonamente alcanzando su m´ximo cuando k = [(n + 1)p] donde [x] =parte ena tera de x. Tres u dados son lanzados. Suponga que d representa un gen dominante y r un gen recesivo. 0 < p < 1. ¿Cu´l es la probabilidad de que de las 4 primeras bolas extraidas. n ) k λ l´ n→∞ b(k. Un hombre afirma tener percepci´n extrasensorial. n ). Sea b(k. n ) = e−λ λ . λ b(k. P (X = k − 1) b(k − 1. Para verificarlo. n. Sugerencia: Use inducci´n sobre k y la o 2. p) P (X = k) = . Si se asume que el juego o continua indefinidamente.. Suponga que una caracter´stica particular de una persona.n. con respecto a una caracter´ ıstica particular. i = 1. n. dos padres h´bridos tienen 4 ni˜os. Se prosigue asi indefinidamente. si el n´mero no aparece el jugador pierde una unidad. Sugerencia: considere los cocientes: b(k. ım k! k = 0. n ) = (n )( n )k (1− n )n−k la funci´n de probabilidad de una variable aleatoo k λ ria binomial con par´metros (n. Se reemplaza la bola extraida y se extrae otra bola. se lanza una o moneda insesgada (perfecta) 10 veces y se le pide al hombre predecir el resultado de cada lanzamiento. ¿cu´l es la probabilidad de que 3 de los 4 ni˜os tengan ı n a n la apariencia del gen dominante? Nota: la apariencia de dd es igual a la apariencia de un h´ ıbrido 5.2 λ λ λ 1.

. Use la distribuci´n de Poisson para encontrar la o probabilidad de que en un dia tipico no haya ninguna llamada entre 9:45 a. con probabilidad p2 . Compare la aproximaci´n de Poisson con la probabilidad binomial correcta en o cada uno de los casos siguientes: i) P (X = 2) cuando n = 8 y p = 0. en promedio. cada una de las n componentes funciona. siendo 1 en cada una la probabilidad de ganar igual a 100 . c) al a menos dos veces.m. Halle la probabilidad de que: i) nadie entre entre 12:00 y 12:05. ¿cu´l es la probabilidad de que el sistema n a funcione ma˜ana? n 10. En un dia lluvioso. se transmite 00000 en lugar de 0 y 11111 en lugar de 1. alrededor de 30.79 sin poder extrasensorial obtenga el mismo n´mero de aciertos? u 8. Si la probabilidad de lluvia ma˜ana es α. Se quiere transmitir un mensaje importante consistente en uno de los d´ ıgitos 0 ´ 1. halle la probabilidad (aproximada) de que usted ganar´ un premio: i) al menos una vez.m. 12. 11. El n´mero de llamadas recibidas en una oficina entre 9:00 a. Un canal de cominicaci´n transmite d´ o ıgitos 0 y 1. ii) al menos 4 personas entren en el casino durante ese tiempo.2. y 10:00 a.95.1. a i) Encuentre la probabilidad de que 3 ´ m´s accidentes se produzcan hoy.m. independientemente. Para reducir la posibilidad de ero ror.1. a 9. Si usted compra un ticket de loteria en cada una de 50 loterias diferentes. ii) P (X = 9) cuando n = 10 y p = 0. iii) P (X = 0) cuando n = 10 y p = 0.2. Sugerencia: Observe que λ = 30 y tome 1 hora como unidad de tiempo. ii) exactamente una vez. 13. con probabilidad p1 . independientemente. Suponga que el n´mero de accidentes que ocurre en una autopista cada dia es u una variable aleatoria de Poisson con par´metro λ = 3. el d´ a ıgito se transmite incorectamente con probabilidad 0.m. ¿Cu´l es la probau a bilidad de que se reciba el mensaje equivocado? Explique qu´ suposiciones relativas a e independencia est´ haciendo. mientras que en un dia seco cada una de ellas funciona. 14. o a ii) Encuentre la probabilidad de que al menos un accidente se produzca hoy. Un sistema de sat´lite consiste de n componentes y funciona en un dia detere minado si al menos k de las n componentes funcionan. La gente entra a un casino a una rata de 1 cada 2 minutos. iv) P (X = 4) cuando n = 9 y p = 0. y 10:00 a. Debido a est´tica. u es. El que recibe identifica el mensaje como el d´ ıgito que aparece un mayor n´mero de veces.

El n´mero de personas que utiliza un determinado cajero autom´tico en un dia. n 23. Si existen en el lote un total de 850 piezas defectuosas.002. Los clientes llegan a un banco de acuerdo con una distribuci´n de Poisson con o par´metro 40 (basado en una hora como unidad de tiempo). o u 22. Suponga que en una comunidad de 20000 personas se ha determinado que la probabilidad de vivir 100 a˜os es igual a 0. Halle la funci´n de probabilidad del n´mero de caras.80 15. Calcule. Halle la probabilidad de que en una compa˜´ en la que trabajan 500 personas nıa exactamente k de ellas cumplan a˜o el mismo dia. una industria somete a inspecci´n un lote o de 10000 piezas de la siguiente forma: se selecciona una muestra de 1500 piezas y se examinan en busca de piezas defectuosas. Se lanzan 3 monedas id´nticas y se sabe que estas tienen probabilidad de cara e igual a 1/3. Una extra˜a enfermedad aparece en el 5 % de los miembros de una comunidad n que consta de 15000 individuos. aproximadamente. b) Halle la probabilidad de que al menos dos personas utilicen el cajero en el dia de ma˜ana. encuentre la probabilidad de que 60 clientes lleguen durante la primera hora y media. 16. o o o alcanzando su m´ximo valor en [λ]. Demuestre que la a funci´n de probabilidad de X crece mon´tonamente y luego decrece mon´tonamente. El siguiente experimento es o o realizado: primero se captura un grupo de r animales. . la probabilidad de que 10 personas sufran la enfermedad. a 17. 19. n 18. ¿cu´l es la probabilidad de que se encuentren 300 piezas defectuosas en a la muestra seleccionada? 21. Halle la probabilidad (aproximada) de n que haya 10 centenarios. Una vez que se han mezclado de nuevo se captura un grupo de n animales. En el proceso de control de calidad. u a es una variable aleatoria de Poisson con par´metro λ = 10. Sea X una variable aleatoria de Poisson con par´metro λ. halle la probabilidad de que el n´mero de animales marcados en la segunda captura sea igual a k. ¿ Cu´les u a son los posibles valores de k ? 20. Dado que 30 clientes llea garon en la primera hora. a) Halle la probabilidad a de que el cajero no sea utilizado en el dia de hoy. Una poblaci´n de N animales habita en cierta regi´n. Si todos los animales tienen igual probabilidad de ser capturados. se les marca y son devueltos a su medio.

81 24. El n´mero de inundaciones que se producen anualmente en una localidad es una u variable aleatoria de Poisson. Si. ii) ¿Cu´l es la probabilidad de que el estudiante responda al menos 9 preguntas a correctamente? 26. en promedio. Si una persona usa la droga por un a˜o y tiene dos resfriados n en ese tiempo. ¿ cu´l es la probabilidad de que esta persona sea uno de los que se a benefician de la droga ? 25. i) ¿Cu´l es la distribuci´n del n´mero de respuestas correctas dadas por el estudia o u ante?. halle n la probabilidad de que la pr´xima inundaci´n se produzca en los pr´ximos 6 meses. Un examen de selecci´n m´ltiple tiene 10 preguntas. Un estudiante selecciona las respuestas al azar. El n´mero de veces que un individuo se resfria en un a˜o dado es una variu n able aleatoria de Poisson con par´metro λ = 5. o o o . El otro 25 % no a o se beneficia de la droga. cada una de las cuales o u tiene 5 respuestas posibles. ocurren 3 inundaciones por a˜o. Suponga que un nuevo medicamento a reduce el par´metro de Poisson a λ = 3 en un 75 % de la poblaci´n.

Distribuciones de V A. o Comentarios.82 2.9 Una variable aleatoria X es continua ´ absolutamente contino ua si existe una funci´n de densidad f tal que para todo a ∈ R o F (a) = P (X ≤ a) = a −∞ f (u)du. Definici´n 2. f (u)du. para todo x ∈ R. o 2. . P (X = x) = 0. Densidades. Para cualquier par de n´meros reales a < b se tiene que u P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = 4. a o Definici´n 2. 1. Por lo tanto P (X ∈ B) representa geom´tricamente el ´rea bajo la curva de f que se e a genera sobre el conjunto B.3: Gr´ficos de funciones de densidad. De la definici´n anterior se deduce que la funci´n de distribuci´n F es continua. ii) ∞ −∞ f (u)du = 1. o o o por lo que.8 Una funci´n f : R −→ R es una funci´n de densidad sobre R o o o si y solo si f satisface las condiciones siguientes: i) Para todo x ∈ R. f(x) 1 b−a f(x) pp pp pp pp pp pp pp pp - a (a) b x -1  d    d d   d 1 x (b) Figura 2.2. Continuas. 3. En este caso f se denomina funci´n de densidad de probabilidad de X.3. f (x) ≥ 0. Para todo conjunto de Borel B se cumple que P (X ∈ B) = B b a f (u)du. La funci´n de densidad permite responder a cualquier pregunta de car´cter o a probabil´ ıstico en relaci´n con la variable aleatoria.

2) / (2. En cada uno de estos o puntos se cumple que F (y) = f (y).15) i) Halle el valor de c. La cantidad de tiempo. Variable Aleatoria Discreta P (X ≤ t) = xn ≤t Variable Aleatoria Continua P (X ≤ t) = ∞ −∞ t −∞ pn f (u)du ∞ n=0 pn = 1 f (u)du = 1 Ejemplos 2. 6. Sea X una variable aleatoria continua con funci´n de densidad o f (x) = c(4x − 2x2 ) si 0 < x < 2 0 si x ∈ (0. 100 .12 1. c(4 − 2 ) 2 3 x=0 3 3 8 ii) P (X > 1) = ∞ 1 f (u)du = 3 8 2 1 1 (4u − 2u2 )du = . Por el teorema fundamental del c´lculo la funci´n de distribuci´n F es derivable a o o en cada punto y de continuidad de la funci´n de densidad f .83 5.16) i) ¿Cu´l es la probabilidad de que una computadora funcione entre 50 y 150 horas a antes de descomponerse? ii) ¿Cu´l es la probabilidad de que funcione menos de 100 horas? a Debemos en primer lugar determinar el valor de λ. en horas. es decir que F es la primitiva de f . La funci´n de probabilidad es el concepto an´logo a la funci´n de densidad en el o a o caso discreto. 2 2. i) El valor c debe satisfacer c 2 0 (4x − 2x2 )dx = 1. 1=λ ∞ 0 e− 100 dx = λ(−100e− 100 ) x x ∞ 0 = λ × 100 =⇒ λ = 1 . que una computadora funciona antes de da˜arse n es una variable aleatoria continua con funci´n de densidad de probabilidad o f (x) = λe− 100 si x ≥ 0 0 si x < 0 x (2. ii) Halle P (X > 1). Entonces x3 x=2 2 8 3 x2 = c(2 × 4 − × 8) = c × =⇒ c = .

48 2 Distribuciones de Algunas Variables Aleatorias Continuas. En primer lugar observamos que 100 0 α=1 ⇒ α= 1 . 3.3 (a)). En este caso la funci´n de distribuci´n est´ dada por o o a F (t) =      0 t−a b−a 1 si t < a si t ∈ [a. b) si t ≥ b . 1 P (X > ) = 24 4 1 2 1 4 (x − 2x2 ) = 24 × 1 1 = .384. 1 24 0 (x − 2x2 )dx = α × ⇒ α = 24. 100] 0 en otros casos. b] o o que est´ uniformemente distribuida si su funci´n de densidad de probabilidad a o est´ dada por a f (x) = 1 b−a 0 si x ∈ [a. Suponga que la funci´n de densidad de una variable aleatoria X esta dada por o f (x) = α si x ∈ [0. Variable Aleatoria Uniforme. 100 3 por lo que 1 3 dx = . Una variable aleatoria X se dice que tiene distribuci´n uniforme sobre [a. 100 −2 0 0 100 4. b] si x ∈ [a. 1 3 100 − x 1 e 100 dx 100 0 = 1 100 × −100e− 100 100 0 = −e−1 + 1 = 0.633. Halle P (−2 ≤ X ≤ 3). Sea X una variable aleatoria continua con funci´n de densidad o P (−2 ≤ X ≤ 3) = 3 f (x)dx = 3 αdx = f (x) = Determinamos el valor de α: α Entonces tenemos que 1 2 α(x − 2x2 ) si 0 < x < 1 2 0 en otros casos.84 i) P (50 ≤ X ≤ 150) = ii) P (X < 100) = 150 − x 1 e 100 dx 100 50 = 1 100 × −100e− 100 x x 150 50 = e− 2 − e− 2 = 0. b]. 1. / (figura 2.

En el caso en que µ = 0 y σ 2 = 1 se dice que X tiene distribuci´n normal est´ndar o a o unitaria y se utiliza la notaci´n o x2 1 1 φ(x) = √ e− 2 . 10]. 10 10 5 6 P (X > 11) = 0 2. Sea X una variable aleatoria continua uniformemente distribuida sobre [0. para todo x ∈ R . a Ejemplos 2. con par´metros µ y σ (σ > 0). a Comentarios. σ 2 ) para decir que X est´ normalmente diso a tribuida con par´metros µ y σ 2 .4: Gr´fico de F (x). . 10 2 3 10 10 1 4 2 P (X > 6) = dx = = . y utilizaremos la notaci´n X ∼ N (µ. La distribuci´n normal es tambien denominada distribuci´n de Laplace-Gauss.13 1.85 F(x) 1 - a p 5p 5 pp pp 5 pp 5 pp 5 5 pp 5 p pppppppp b x Figura 2. para todo t ∈ R . o o 2. Entonces 8 1 5 1 P (3 < X < 8) = dx = = . si su funci´n de densidad a o de probabilidad est´ dada por a (x−µ)2 1 f (x) = √ e− 2σ2 . σ 2π y P (X < 11) = 1. Variable Aleatoria Normal. 1. Una variable aleatoria X se dice que tiene distribuci´n normal o que est´ noro a 2 malmente distribuida. y Φ(t) = √ 2π 2π e− −∞ t x2 2 dx. La funci´n de distribuci´n de una variable aleatoria normal es o o 1 F (t) = √ σ 2π e− −∞ t (x−µ)2 2σ 2 dx.

obtenemos x = adem´s se tiene que −∞ < z < t.86 para la funci´n de densidad y la funci´n de distribuci´n de X respectivamente. entonces Y = αX + β es una variable aleatoria normalmente distribuida con par´metros αµ + β y α2 σ 2 . ∞) y θ ∈ [0. Proposici´n 2. e− e− −∞ ∞ dxdy = ∞ −∞ e− −∞ dxdy. y = rsen(θ) y dxdy = rdrdθ donde r ∈ [0. donde t (z−β−αµ)2 2α2 σ 2 −∞ e − (x−µ)2 2σ 2 1 dx = √ σ 2π e −∞ t − z−β ( α −µ)2 2σ 2 1 1 1 √ dz = α α σ 2π e− −∞ dz. a Demostraci´n. e− −∞ ∞ −∞ ∞ y2 2 dy =⇒ I 2 = x2 2 y2 2 e− −∞ ∞ x2 2 dx × ∞ e− −∞ (x2 +y 2 ) 2 ∞ y2 2 dy. a t−β 1 FY (t) = P (Y ≤ t) = P (αX + β ≤ t) = P (X ≤ )= √ α σ 2π Mediante el cambio de variables z = αx + β. o o o 3. ∞). Entonces I2 = ∞ 0 0 2π e− r2 2 rdθdr = 2π ∞ 0 e− r2 2 rdr = 2π. 2π]. Consideramos o o o el caso en que α > 0. Dado que f es claramente no negativa. . 1 Mediante el cambio de variables y = x−µ obtenemos: dy = σ dx y y ∈ (−∞. para demostrar que es una funci´n de o densidad es suficiente demostrar que su integral sobre R es igual a 1. Denotemos como FY a la funci´n de distribuci´n de Y . es equivalente a demostrar que e− −∞ Para esto consideremos I= esto es I2 = ∞ y2 2 dy = √ 2π. Entonces a 1 √ σ 2π t−β α t−β α −∞ e− (x−µ)2 2σ 2 dx. con σ esto ∞ ∞ y2 1 f (x)dx = √ e− 2 dy. 1 f (x)dx = √ −∞ σ 2π ∞ e− −∞ ∞ (x−µ)2 2σ 2 dx = 1. El caso en que α < 0 es an´logo y se deja al lector.4 Si X es una variable aleatoria normalmente distribuida con par´meto a 2 ros µ y σ . Es decir. Pasando a coordenadas polares obtenemos x = r cos(θ). −∞ 2π −∞ Demostrar que la integral del miembro de la derecha en esta ultima igualdad es igual ´ a 1. z−β α y dz = αdx.

ya que e a Z= X −µ t−µ t−µ ≤ ) = Φ( ). 3 P (|X − 3| > 6) = P (X − 3 > 6) + P (X − 3 < −6) X −3 X −3 = P( > 2) + P ( < −2) = P (Z > 2) + P (Z < −2) 3 3 = 1 − Φ(2) + Φ(−2) = 1 − Φ(2) + 1 − Φ(2) = 2(1 − Φ(2)) = 2(1 − 0.87 por lo tanto la funci´n de densidad de Y es o (z−β−αµ)2 1 √ e− 2α2 σ2 .14 1.5 Para la distribuci´n normal est´ndar se cumple que o o a FX (t) = P (X ≤ t) = P ( Φ(−t) = 1 − Φ(t) es decir Φ(t) + Φ(−t) = 1. . 2 σ 2 = N (0. Entonces ∞ t 2 y2 1 e− 2 dy + √1 −∞ e− x2 dx = 1. Sea X ∼ N (3. 8413. 0456. 9772) = 0. entonces Z = P (2 < X < 5) = P ( X−3 3 ∼ N (0. fY (z) = ασ 2π Un sencillo pero importante corolario de la proposici´n anterior es que si X ∼ o 2 N (µ. Por lo tanto 2−3 X −3 5−3 −1 2 2 −1 < < ) = P( < Z < ) = Φ( ) − Φ( ) 3 3 3 3 3 3 3 2 1 = Φ( ) − 1 + Φ( ) = 0. haciendo el cambio de variables y = −x se tiene que dy = −dx y y ∈ [t. 6293 = 0. o 1 Φ(−t) + Φ(t) = √ 2π e− −∞ −t x2 2 1 dx + √ 2π e− −∞ t x2 2 dx. pues hace posible que la distribuci´n de cualquier variable ´ o 2 aleatoria X ∼ N (µ. σ ) pueda expresarse en t´rminos de una normal est´ndar. 1). entonces la variable aleatoria X −µ 1 µ 1 µ 1 = X+ − ∼N µ+ − . σ σ σ Proposici´n 2. α2 σ 2 ). Demostraci´n. Φ(−t) + Φ(t) = √ 2π t 2π Comentario. 3747. 1). Ejemplos 2. 9). ∞). 3 3 X −3 P (X > 0) = P ( > −1) = 1 − Φ(−1) = Φ(1) = 0. Las propiedades anteriores permiten calcular probabilidades de variables aleatorias normales usando la distribuci´n normal est´ndar para valores de o a x ≥ 0. de donde Y ∼ N (αµ + β. σ σ σ σ σ σ Este hecho resulta muy util. 7454 − 1 + 0. σ ).

T es una variable aleatoria exponencial con par´metro λ = 2. donde t > 0 y λ > 0.17) 0 si x < 0 En este caso la funci´n de distribuci´n est´ dada por o o a F (t) = P (X ≤ t) = Ejemplos 2. si su funci´n de densia a o dad es λe−λx si x ≥ 0 f (x) = (2. . 10 10 4. λ).18) ) = e−1 = 0. es o o o decir. Comentarios. entonces se quiere calcular: o i) P (X > 10) = 1 − P (X ≤ 10) = 1 − (1 − e ii)P (10 < X < 20) = 20 10 −10 10 t 0 λe−λx dx si t ≥ 0 = 0 si t < 0 1 − e−λt si t ≥ 0 0 si t < 0 (2. Una variable aleatoria X se dice que tiene distribuci´n gamma con par´metros o a (t. Sea X =la duraci´n de una llamada. en minutos. La duraci´n de una llamada. ii) entre 10 y 20 minutos. 368. a 2. encuentre la probabilidad de que usted tenga que esperar: i) m´s de e u a 10 minutos.10.19) e−y yt−1 dy.88 3. con par´metro λ > 0. es una variable aleatoria exponencial o 1 con par´metro λ = 10 . Variable Aleatoria Exponencial.1 se ha definido la variable X(t) =#terremotos en t semanas y puesto que X(t) ∼ P(2t). Si una persona llega inmediatamente antes que usted a un a tel´fono p´blico. En el ejemplo 2. Variable Aleatoria Gamma. Una variable aleatoria continua X se dice que tiene distribuci´n exponencial ´ que o o est´ exponencialmente distribuida. (2. si su funci´n de densidad es o f (x) = donde Γ(t) = ∞ 0   λe−λx (λx)t−1  Γ(t) 0 si x ≥ 0 si x < 0. 23255.15 1. se tiene que la variable aleatoria T =tiempo hasta el pr´ximo terremoto tiene funci´n de distribuci´n dada por FT (t) = 1 − e−2t . −u 1 −u e 10 du = −e 10 |20 = −e−2 + e−1 = 0.

1 y 2. En particular. Una variable aleatoria gamma con par´metros (1. λ). entonces para cada t ≥ 0 o o ∞ ∞ Fn (t) = P (Tn ≤ t) = P (X(t) ≥ n) = k=n P (X(t) = k) = k=n e−λt ∞ (λt)k = gk (t). Si se integra por partes la funci´n Γ se obtiene que o Γ(t) = ∞ 0 e−y yt−1 dy = −e−y yt−1 0 + ∞ 0 ∞ ∞ 0 e−y (t − 1)y t−2 dy = (t − 1) e−y yt−2 dy = (t − 1)Γ(t − 1). la distribuci´n gamma con par´metros ( n . cuando cada coordenada del error est´ normalmente distribuida. λ).15. con par´metro λ. λ) es una variable aleatoria espoa nencial con par´metro λ.2Γ(1) = (n − 1)! 3. supongamos que la ocurrencia de un cierto fen´meno satisface las hip´tesis Hi. Si denotamos por Fn la funci´n de distribuci´n de Tn . 1 ) o a 2 2 se denomina chi cuadrado con n grados de libertad. Cuando n es un entero positivo. . a o o . la cual es una generalizaci´n de la variable T presentada en o los ejemplos 2. Como antes definimos o o a X(t) =# de eventos en [0. . para t = n ∈ N. la funci´n de densidad de Tn . . o a 4.10. La distribuci´n gamma con par´metros (n. aparece en las aplicao a ciones con frecuencia como la distribuci´n de la variable aleatoria Tn =tiempo hasta o que ocurran n eventos. lo que se denota como χ2 .1. Hii y Hiii.t] y tenemos que X(t) ∼ P(λt). digamos fn . k! k=n Como para cada k ≥ 1 la funci´n gk es derivable y ∞ gk (t) converge uniformeo k=n mente. 3.89 1. es decir e o o ∞ fn (t) = Fn (t) = k=n gk (t) = λe−λt (λt)n−1 . a 2. donde n ∈ N. En efecto. se puede demostrar f´cilmemte por inducci´n que a o Γ(n) = (n − 1)!. (n − 1)! lo que significa que Tn tiene distribuci´n gamma con par´metros (n. ya que Γ(n) = (n − 1)Γ(n − 1) = (n − 1)(n − 2)Γ(n − 2) = . a Estudiaremos m´s adelante la relaci´n entre esta distribuci´n y la normal. . Usualn mente se usa esta distribuci´n para describir el error cometido al tratar de dar en o un blanco en Rn . puede obtenerse derivando t´rmino o e a t´rmino la serie que representa a la funci´n de distribuci´n Fn . = (n − 1)(n − 2) .

1) 0 si x ∈ (0. Una variable aleatoria X se dice que tiene distribuci´n de Cauchy con par´metro o a α ∈ R. 1) / xa−1 (1 − x)b−1 dx se denomina funci´n beta. Una variable aleatoria X se dice que tiene distribuci´n de beta con par´metros a o a y b. Variable Aleatoria Beta. b) = 1 0 1 xa−1 (1 B(a. o Ap´ndice. si su funci´n de densidad es o f (x) = 1 1 .16 1. π ]. ¿Cu´l es la probabilidad de c a . 0) del eje x se impulsa para que gire y luego se la deja parar espont´neamente. e Problema Famoso: La paradoja de Bertrand. Sea θ el ´ngulo que forma la aguja a a con el eje x y supongamos que θ est´ uniformemente distribuido sobre [− π . En efecto P (Y (θ) ≤ t) = P (tg(θ) ≤ t) = P (θ ≤ arctg(t)) = 6. 2 π − x)b−1 si x ∈ (0. La funci´n de distribuci´n de Cauchy est´ dada por o o a F (t) = 1 π t −∞ 1 arctg(t − α) 1 1 dx = arctg(x − α)|t = + .90 5. π ) 2 2 si t ≥ π 2 Entonces la variable aleatoria Y (θ) = tg(θ) tiene distribuci´n de Cauchy con par´metro o a α = 0.b) 1 arctg(t) + . Variable Aleatoria Cauchy. Considere una ¸uerda aleatoria”de un circulo de radio r. si su funci´n de densidad est´ dada por o a f (x) = donde B(a. −∞ 2] [1 + (x − α) π 2 π Ejemplos 2. Una aguja que puede girar en torno al punto (−1. es a 2 2 decir que Fθ (t) =      t+ π 2 0 1 π si t < − π 2 si t ∈ [− π . π [1 + (x − α)2 ] donde − ∞ < x < ∞.

180◦ 3 Se observa entonces que el resultado varia dependiendo del experimento que se use para caracterizar una cuerda aleatoria. r].91 que la longitud de la cuerda sea mayor que el lado del tri´ngulo equil´tero inscrito en a a ese circulo? Para resolver este problema debemos precisar que se entiende por ¸uerda aleatoc ria”. Dada una cuerda arbitraria en el circulo. Ahora consideremos un tri´ngulo equil´tero ABC inscrito en el circulo de radio r y sean a1 . que denotaremos por O. entonces A1 es el punto medio de AB. Asumiendo θ uniformemente distribuido se tiene que la probabilidad ◦ ◦ buscada es P (60◦ < θ < 120◦ ) = 120 −60 = 1 . Tenemos que: OA = OB = OC. si OA1 es la mediatriz de AB. Soluci´n 1: La posici´n de una cuerda puede ser determinada por su distancia al ceno o tro del circulo. el cual varia entre 0 y 180◦ . r La longitud de la cuerda es mayor que el lado del tri´ngulo si su distancia al a r centro es menor que a = 2 . La posici´n de la cuerda queda o determinada por el ´ngulo θ entre la tangente y la cuerda. a En este caso la longitud de la cuerda es mayor que la longitud del lado del tri´ngulo si a ◦ ◦ 60 < θ < 120 . Soluci´n 2. considere la tangente al ciro culo que pasa por uno de los extremos de la cuerda. Sea m = |AA1 |. Esta distancia puede variar entre 0 y r. a2 a a y a3 las distancias del centro a cada uno de los lados. entonces a1 = a2 = a3 = a = r2 − m2 y como √ √ √ r m satisface cos30◦ = m = 23 entonces m = r 23 y a = r2 − (r 23 )2 = 2 . OA2 es la mediatriz de AC y OA3 es la mediatriz de CB. la probabilidad de que la cuerda sea mayor que el lado del tri´ngulo equil´tero a a r r 1 2 1 inscrito ABC es P (D < 2 ) = 0 r dx = 2 . Si asumimos entonces que una cuerda aleatoria es aquella cuya distancia D al centro O es una variable aleatoria uniformemente distribuida en [0. . A2 es el punto medio √ AC y A3 es el de punto medio de CB.

iii) P (X < 8). (2. a 4. ii) P (4 < X < 16). a partir de las 7:00 u a. Si la densidad de X est´ dada por a f (x) = cxe−x/2 si x > 0 0 si x ≤ 0. Para la realizaci´n de a o un estudio se seleccionan 10 mujeres embarazadas. haya que esperar 10 a˜os antes de tener un caudal de lluvia por encima n n de 50 pulgadas? ¿Qu´ suposiciones est´ haciendo? Sugerencia: Considere la variable e a aleatoria T=# a˜os para que lluevan m´s de 50 pulgadas.92 Ejercicios 2.? 5. mientras que los trenes que se dirigen al punto B llegan a intervalos de 15 minutos comenzando a las 7:05 a. 1) / (2. n a 7.m. comenzando a a con este a˜o.m. ii) m´s de 10 minutos. Si X N (10. Expertos certifican que la duraci´n en dias de un embarazo es una variable aleatoria o aproximadamente normal con par´metros µ = 270 y σ 2 = 100.m. Los trenes que se dirigen a un punto A llegan a la estaci´n a intervalos de 15 o minutos comenzando a las 7:00 a. Sea X una variable aleatoria con funci´n de densidad de probabilidad o f (x) = i) ¿Cu´l es el valor de c? a c(1 − x2 ) si −1 < x < 1 0 si x ∈ (−1. medida en meses. 6.20) ii) ¿Cu´l es la funci´n de distribuci´n de X? a o o 2. v) P (X > 16).m. La cantidad anual de lluvia.21) ¿cu´l es la probabilidad de que el sistema funcione por lo menos 5 meses? a 3. 36) calcule: i) P (X > 5). Si un pasajero llega a la parada a una hora que est´ uniformemente distribuida a entre las 7:00 y las 7:30. Aquellas cuyos embarazos duren menos de 240 dias ´ m´s de 290 ser´n incluidas en un programa de tratamiento o a a especial. y o se monta en el primer tren que llega. Si un pasajero llega a la estaci´n a una hora uniformemente distribuida entre las 7:00 y las 8:00 a. encuentre la probabilidad de que su espera por el autob´s u sea de: i) menos de 5 minutos.. en cierta regi´n est´ normalmente diso a tribuida con par´metros µ = 40 y σ = 4. Un sistema puede funcionar por una cantidad aleatoria de tiempo X. ¿Cu´l es la probabilidad de que menos de 8 mujeres sean incluidas en el a . ¿qu´ proporci´n de veces la persona se dirige al e o punto A? ¿Qu´ pasa si el pasajero llega a una hora uniformemente distribuida entre e 7:10 y 8:10 a. en pulgadas.3 1. iv) P (X < 20). A una parada de autob´s llegan unidades cada 15 minutos.m. ¿Cu´l es la probabilidad de que.

Sea X una variable aleatoria con distribuci´n normal est´ndard. Demuestre que: o a i) P (|X| < k) = 2Φ(k) − 1 ii) P (|X| > k) = 2(1 − Φ(k)). a o dado que toma m´s de 9 horas? a 14. cala cule: a) P (X > 4). x ∈ R. entonces cX es exponencial con par´metro λ/c. El ancho. σ 2 = 9. 1. P (X < 1). 11. a i) ¿Cu´l es la probabilidad de que el tiempo de reparaci´n sea mayor de 2 horas? a o ii) ¿Cu´l es la probabilidad condicional de que la reparaci´n tome al menos 10 horas. 4). a 13. Sea X una variable aleatoria de Cauchy con funci´n de densidad de dada por: o f (x) = 1 . en pulgadas de un hombre de 25 a˜os es una variable aleatoria norn 2 mal con par´metros µ = 71 y σ = 6. Los limites especificados son 0.005 a 0. iii) P (−1 ≤ X ≤ 0). en horas. b) Calcule: P (X ≤ −1). P (X > 0). El tiempo. π[1 + ((x − α)2 ] a) Demuestre que f es en efecto una densidad. Si X es una variable aleatoria normal con par´metros µ = 2. Demuestre que si X es una variable aleatoria exponencial con par´metro λ. c) P (8 < X < 12).9-0. α > 0. en pulgadas. requerido para reparar una m´quina es una variable aleatoria a exponencialmente distribuida con par´metro λ = 1/2.005. y a c > 0. b) P (−3 < X < 5). El n´mero de a˜os que un radio funciona est´ exponencialmente distribuido con u n a par´metro λ = 1/8. ¿Cu´l es la probabilidad de que un radio funcione por m´s de 8 a a a a˜os? n 15.93 programa? 8. ¿Qu´ porcentaje de hombres de 25 a˜os a e n miden m´s de 6 pies 2 pulgadas? ¿Qu´ porcentaje de hombres de m´s de 6 pies miden a e a m´s de 6 pies 5 pulgadas? Nota: un pie = 12 pulgadas.003.9 y σ = σM ? a a 10.25. a 9.9 y σ = 0.9+0. calcule: i) P (−3 ≤ X ≤ 3). . ¿Qu´ porcentaje de piezas ser´n defectuosas? ¿Cu´l es el m´ximo valor e a a a σM de σ que permitir´ no m´s de un 1 % de piezas defectuosas cuando los anchos de a a las ranuras est´n normalmente distribuidos con par´metros µ = 0. de una ranura de una pieza de duraluminio forjado est´ nora malmente distribuido con µ = 0. La altura. Si la variable aleatoria X N (1. 12. ii) P (−5 ≤ X ≤ 3). 16.

94 .

X = 1 si ocurre un ´xito y X = 0 si ocurre un fracaso. 6 2 2. p). a e Es decir. . Entonces como pi = 6 para i = 1.1 1 1.1 Sea X una variable aleatoria discreta tal que su conjunto de valores es o {xn }n≥1 y su funci´n de probabilidad {pn }n≥1 . En algunos casos E[X] se denomina media ´ media ponderada de X. Entonces e E[X] = 0(1 − p) + 1p = p. Sea X una variable aleatoria de Bernoulli con par´metro p =probabilidad de ´xito. 3. La esperanza o matem´tica o valor esperado de X es el n´mero denotado por E[X] y definido a u como ∞ ∞ E[X] = n=0 xn P (X = xn ) = n=0 xn p n . siempre y cuando la serie anterior sea convergente. o Ejemplos 3. . . donde pn = P (X = xn ). En este caso se dice que existe la esperanza matem´tica de X. . 6 21 7 E[X] = 1p1 + 2p2 + 3p3 + 4p4 + 5p5 + 6p6 = = . Definici´n 3. Sea X una variable aleatoria Binomial con par´metros (n. a Observe que E[X] es un promedio ponderado de los valores de la variable aleatoria X. Sea X el resultado de lanzar un dado perfecto. I) Caso discreto. Entonces a n n E[X] = k=0 kP (X = k) = k=1 k n k pk (1 − p)n−k = 95 kn! pk (1 − p)n−k k!(n − k)! k=0 n .Cap´ ıtulo 3 Esperanza y Varianza de Variables Aleatorias.

Si X es una variable aleatoria uniformemente distribuida sobre [a.96 = (n − 1)!n ppk−1 (1 − p)n−k (k − 1)!(n − k)! k=1 n−1 n = np = np (n − 1)! pk (1 − p)n−k−1 k=0 k!(n − k − 1)! n−1 k n−1 k=0 pk (1 − p)n−1−k = np(p + (1 − p))n−1 = np. a II) Caso continuo. Definici´n 3. En este caso (E[X] < ∞) se dice que X tiene esperanza o tambi´n que es integrable con respecto a la medida de probabilidad e dada. b].2 Sea X una variable aleatoria continua con funci´n de densidad f . siempre que la integral anterior sea finita. o o Se define la esperanza de X como E[X] = ∞ −∞ xf (x)dx. a b−a 2(b − a) 2 2. entonces a E[X] = ∞ 0 λxe−λx dx = λ −x −λx 1 e − λ2 e−λx λ ∞ 0 = 1 .2 1. Sea X una variable aleatoria de Poisson con par´metro λ. λ . Entonces E[X] = λ. σ 2 ). Sea X una variable aleatoria exponencial con par´metro λ. a entonces E[X] = ∞ (x−µ)2 (x−µ)2 1 1 − 2σ 2 dx = √ x √ (x − µ + µ) − 2σ2 dx −∞ σ 2π σ 2π −∞ ∞ ∞ (x−µ)2 (x−µ)2 1 1 √ = (x − µ) − 2σ2 dx + √ µ − 2σ2 dx σ 2π −∞ σ 2π −∞ ∞ (x − µ) (x−µ)2 σ − 2σ 2 dx + µ = µ = √ σ 2π −∞ ∞ e e e e e 3. 4. Si X es una variable aleatoria normalmente distribuida con par´metros (µ. entonces E[X] = b a x 1 x2 a+b dx = |b = . Ejemplos 3.

165 p2 7. es razonable preguntar ¿cu´nto estar´ usted dispuesto a pagar a ıa para entrar en el juego? Si usted paga $210 = $1024 por entrar. ya que. E[X] = 2 + 22 2 + 23 3 . . si se asume que la casa nunca se arruina. entonces X toma los valores 2. . Se presenta en este juego una n situaci´n parad´jica. de acuerdo al criterio dado. Suponga que X es una variable aleatoria que representa la ganancia de un jugador en un juego de azar. Por lo tanto E[X] = (−1)(0.000(1 − p36 ) > 0 ⇐⇒ L > 50. .163 25. de donde se concluye que. p36 Juego justo e injusto.97 Aplicaciones. Cuando X < 0 se considera que hay p´rdida o que se paga una cuota para entrar en el juego. . Suponga que la ganancia posible es de $10. no o o es razonable arriesgarse pu´s la probabilidad de ganar es muy peque˜a.000(1 − p36 ) .8 × 10−8 . 2 . Decimos que el juego es e justo´o equitativo.000 y que se paga un d´lar por 2 juegos.239. 2 . Se lanza una moneda perfecta hasta que salga cara. En este caso. 6 × 10−8 .000. . tenemos u que la probabilidad de ganar un juego es p = 1/25. . entonces para ganar necesita que haya al menos 9 sellos consecutivos.999) + 107 )7. Entonces la ganancia esperada es igual a ∞ 1 1 1 1 = ∞. . Sin embargo. Si E[X] = 0 decimos que el juego es injusto.999 + 0. ¿Cu´l deber´ ser la prima que cobre la compa˜´ para que la ganancia n a a nıa esperada sea positiva? Sea L la prima total a pagarse durante los 20 a˜os y sea Y =ganancia de la compa˜´ n nıa. esto tambien podria interpretarse como que la ganancia tiende a crecer sin limites. siendo E[X] > 0 cuando el juego es favorable al jugador y E[X] < 0 cuando el juego es desfavorable al jugador.827. . . e n Determinaci´n de Primas de Seguros. . si E[X] = 0. Entonces o 0.827.827.76 = −0. Si esto ocurre en el i−´simo lanzamiento usted recibir´ $2i . entonces E[Y ] = Lp36 − 50. el juego es injusto y desfavorable al jugador. pese a que se tiene una ganancia esperada infinita.00195. .165 3. Sea X =ganancia e a 2 k obtenida.. que es bastante peque˜o. Sea p36 = P (el individuo sobrevive m´s de n a 20 a˜os).000 por 20 a˜os. = 2 2 2 k=1 Es decir la esperanza de X no existe. La probabilidad de este evento es menor o igual a 0. 6 × 10−8 = −. Una persona de 36 a˜os adquiere un o n seguro de vida de $50. Si consideramos el juego de Lotto consistente en acertar 6 n´meros de 54.999 y la probabilidad de ganar es la oportunidad de perder es p1 = 25. El juego de San Petersburgo.

entonces para toda funci´n a valores reales g se cumple que o E g(X) = ∞ −∞ g(x)f (x)dx. (3.1) De manera an´loga se tiene que a ∞ 0 P {Y < −y}dy = ∞ 0 −y −∞ fY (x)dxdy = 0 −∞ 0 −x fY (x)dydx = − 0 −∞ xfY (x)dx. Demostraci´n. entonces E Y = ∞ 0 P {Y > y}dy − ∞ 0 P {Y < −y}dy.98 Lema 3. Denotemos por fY la funci´n de densidad de Y .2) ( Combinando (3.1 Si Y es una variable aleatoria continua.2) obtenemos ∞ 0 P {Y > y}dy − ∞ 0 P {Y < −y}dy = = ∞ 0 ∞ xfY (x)dx + 0 −∞ xfY (x)dx. Comentario: Existe una versi´n del resultado anterior en el caso en que X es una o variable aleatoria discreta. La demostraci´n es sencilla y se deja como ejercicio. Por el lema anterior se tiene que o E g(X) = = = = = ∞ 0 0 ∞ P {g(X) > y}dy − {x:g(x)>y} g(x) 0 ∞ 0 P {g(X) < −y}dy ∞ 0 {x:g(x)<−y} −g(x) {x:g(x)<0} 0 f (x)dxdy − f (x)dydx − f (x)dxdy f (x)dydx {x:g(x)>0} {x:g(x)>0} ∞ −∞ g(x)f (x)dx + {x:g(x)<0} g(x)f (x)dx g(x)f (x)dx.1) y (3. o Proposici´n 3. Demostraci´n. 3. o . Intercambiando el orden de integraci´n en la igualdad anterior tenemos que o ∞ 0 P {Y > y}dy = ∞ 0 0 x fY (x)dydx = ∞ 0 xfY (x)dx. Entonces puesto que o o ∞ P {Y > y} = y fY (x)dx ∞ 0 P {Y > y}dy = ∞ 0 y ∞ fY (x)dxdy. −∞ xfY (x)dx = E Y .1 Si X es una variable aleatoria continua con funci´n de densidad o f .

denotada V ar[X]. n≥0 Caso continuo. o Demostraci´n. tenemos que E aX + b = (axn + b)pn = a n≥0 xn pn + b n≥0 pn = aE[X] + b. Caso discreto. Como pn = P {ω : X = xn } = P {ω : aX + b = o axn + b}. Demostraci´n. Por la o o proposici´n 1 tenemos que o E aX + b = ∞ −∞ (ax + b)f (x)dx = a ∞ −∞ xf (x)dx + b ∞ −∞ f (x)dx = aE X + b. se tiene o o E (X − E[X])2 = E X 2 − 2XE[X]) + (E[X])2 = E[X 2 ] − 2E[X]E[X]) + (E[X])2 = E[X 2 ] − (E[X])2 . se tiene que 2 ∞ (x − µ)2 (x−µ)2 σ2 − 2σ 2 dx V ar[X] = E (X − E[X])2 = √ σ2 σ 2π −∞ ∞ ∞ y2 y2 y2 σ2 σ2 = √ y 2 e− 2 dy = √ − y e− 2 | ∞ + e− 2 dy −∞ −∞ 2π −∞ 2π 2 √ σ = √ 0 + 2π = σ 2 . X N (µ. Sea X una variable aleatoria normal. Proposici´n 3. La varianza de X es una medida de la dispersi´n de los valores de X alrrededor o de la media. n ≥ 1.2 Si X es una variable aleatoria y a y b son constantes entonces o E aX + b = aE X + b siempre que las esperanzas existan. se define como V ar[X] = E (X − E[X])2 .99 Proposici´n 3.3 V ar[X] = E[X 2 ] − E[X] . Como E[X] = µ. Definici´n 3. σ 2 ). 2π e . entonces la o varianza de X. Sea f la funci´n de distribuci´n de X y sea Y = aX + b. Utilizando la proposici´n anterior.3 1.3 Si X es una variable aleatoria con media E[X] = µ. Ejemplos 3.

o . Por lo tanto V ax[X] = E[X 2 ] − E[X] 2 = np 1 + (n − 1)p − (np)2 = np(1 − p). Sabemos que E[X] = np. o a Este valor d´ una medida de la desviaci´n de los valores de la variable aleatoria con a o respecto a su media. la desviaci´n t´ o o ıpica ´ est´ndar de X es igual a σ. p).100 2.4 Dada una variable aleatoria X con varianza σ 2 . Cuanto menor es la desviaci´n est´ndar m´s se aglutinan los o a a valores de la variable aleatoria en torno a la media. El valor E[|X − E[X]|] se denomina desviaci´n media absoluta. Definici´n 3. Entonces n k=0 n E[X 2 ] = = = k 2 P (X = k) = 2 n k=1 k2 n k pk (1 − p)n−k n k n! n! pk (1 − p)n−k = pk (1 − p)n−k (k 2 − k + k) k!(n − k)! k!(n − k)! k=0 k=0 n k(k − 1) k=0 n n! pk (1 − p)n−k + E[X] k!(n − k)! = n! pk (1 − p)n−k + E[X] (k − 2)!(n − k)! k=2 (n − 2)! pk−2 (1 − p)n−k + E[X] (k − 2)!(n − k)! k=2 n k=2 n−2 k−2 n = p2 n(n − 1) = p n(n − 1) 2 pk−2 (1 − p)n−k + E[X] = p2 n(n − 1)(p + (1 − p))n−2 + E[X] = p2 n(n − 1) + np = np 1 + (n − 1)p . Sea X b(n.

101 Ejercicios 3.1 1. Sea X una variable aleatoria de Cauchy con par´metro α > 0; es decir, tal que la a funci´n de densidad de X est´ dada por: o a f (x) = 1 , x ∈ R. π[1 + ((x − α)2 ]

Demuestre que X no tiene esperanza. Sugerencia: considere α = 0. 2. Sea X es una variable aleatoria con distribuci´n gamma con par´metros (t, λ), t > o a 0, λ > 0; es decir, con funci´n de densidad dada por: o f (x) = donde Γ(t) = V ar[X].
∞ −y t−1 dy. 0 e y

0 λe−λx (λx) Γ(t)
t−1

si x < 0 si x ≥ 0

(3.3)

a) Demuestre que f es una densidad. b) Halle E[X] y

3. Halle la esperanza, la varianza y la desviaci´n est´ndar de cada una de las siguo a ientes variables aleatorias: i) X geom´trica con par´metro p ∈ (0, 1). e a ii) X b(n, p) con p ∈ (0, 1). iii) X P(λ), con λ > 0. iv) X uniforma sobre [a, b]. v) X exponencial con par´metro λ > 0. a vi) X gamma con par´metros (t, λ). a 4. Sea X =# de caras obtenido, cuando se realizan dos lanzamientos independientes de una moneda insesgada (perfecta). Calcule E[X]. 5. Si X es uniformemente distribuida sobre [0, 1], calcule E[eX ]. 6. Sea X =resultado de lanzar un dado perfecto. Calcule V ar[X]. 7. Uno de los n´meros del 1 al 10 se selecciona aleatoriamente. Usted trata de adivinar u el n´mero haciendo preguntas cuyas respuestas ser´n ”si”´ ”no”. Calcule el n´mero u a o u esperado de preguntas que necesitar´ hacer en cada uno de los siguientes casos: a i) Su i-´sima pregunta es: ¿es el n´mero igual a i? e u ii) Con cada pregunta usted trata de eliminar la mitad de los n´meros que quedan. u 8. Una muestra de 3 objetos es seleccionada aleatoriamente de una caja que contiene 20 objetos de los cuales 4 son defectuosos. Encuentre el n´mero esperado de u

102 objetos defectuosos en la muestra. 9. Calcule E[X] si X tiene funci´n de densidad: o i) f (x) = ii) f (x) = cxe−x/2 si x > 0 0 si x ≤ 0, c(1 − x2 ) si −1 < x < 1 0 si x ∈ (−1, 1) / (3.4) (3.5)

10. El tiempo de vida, en horas, de tubos electr´nicos es una variable aleatoria con o funci´n de densidad o c2 xe−cx si x > 0 f (x) = (3.6) 0 si x ≤ 0, donde c > 0. Calcule el tiempo de vida esperado de estos tubos. 11. Sea X una variable aleatoria discreta con funci´n de masa de probabilidad p(x). o Demuestre que para cualquier funci´n a valores reales g o E g(x) =
{x:p(x)>0}

g(x)p(x).

103

3.1.

Distribuci´n Conjunta de Variables Aleatoo rias.

En muchas situaciones es necesario tomar en cuenta el comportamiento de varias variables aleatorias al mismo tiempo. Para describir simultaneamente estas variables es necesario definir la funci´n de distribuci´n conjunta de las mismas. Comenzamos o o por considerar la funci´n de distribuci´n conjunta de dos variables aleatorias. Este o o concepto se generaliza naturalmente al caso en que se tiene cualquier cantidad finita de variables aleatorias. Definici´n 3.5 Dadas dos variables aleatorias X e Y , se define la funci´n de diso o tribuci´n conjunta de X e Y como o F (a, b) = P (X ≤ a, Y ≤ b); donde − ∞ < a, b < ∞.

Comentarios. 1. Si definimos An = (X ≤ a, Y ≤ n), podemos verificar que para cada n ≥ 1 An−1 ⊆ An , por lo que
n→∞

l´ F (a, n) = n→∞ P (An ) = P (n→∞ An ) = P (X ≤ a, Y < ∞) = P (X ≤ a) = FX (a). ım l´ ım l´ ım l´ F (n, b) = FY (b); ım

Analogamente se tiene que
n→∞

lo que permite expresar las distribuciones de X e Y en t´rminos de la distribuci´n e o conjunta. 2. El c´lculo de probabilidades puede hacerse en t´rminos de la funcion de distribuci´n a e o conjunta. P (X > a, Y > b) = = = = 1 − P ((X > a, Y > b)c ) = 1 − P ((X > a)c ∪ (Y > b)c ) 1 − P ((X ≤ a) ∪ (Y ≤ b)) 1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b) 1 − FX (a) − FY (b) + F (a, b).

3. Si F (x, y) es una funci´n de distribuci´n conjunta de dos variables X e Y , las o o distribuciones individuales FX y FY se denominan distribuciones marginales. Propiedades de la funci´n de distribuci´n conjunta. o o 1. F (x, y) es creciente en cualquiera de las dos variables: Sea x < x , puesto que (X ≤ x) ⊆ (X ≤ x ) se tiene que F (x, y) = P (X ≤ x, Y ≤ y) ≤ P (X ≤ x , Y ≤ y) = F (x , y).

Como F es creciente en ambas variables. es decir. F es continua a la derecha en ambas variables. respectivamente. 4 blancas y 5 azules. 5. Y ≤ c) − P (X ≤ a. entonces la funci´n de o o probabilidad conjunta de (X. y) = P (X = x. −1 <≤ 3) = F (3. Nota. pY (t) = P (Y = t) = {x:p(x.104 La verificaci´n para la segunda variable es an´loga. Entonces la funci´n de probabilidad conjunta de X e Y asi como tambien las funciones o de probabilidad marginales se pueden resumir en la tabla siguiente . para o a < b y c < d dados. Definici´n 3. Y ) se define como p(x. t). Y ≤ c) ≥ 0. y) = 0. −1) = −1 lo cual claramente representa una contradicci´n. ım ım 3. Y ≤ d) + P (X ≤ a. l´ x→∞ l´ y→∞ F (x. sin embargo si F es una funci´n de densidad o entonces P (−1 < X ≤ 3. Y = y). Ejemplos 3. En este caso las funciones de probabilidad marginales de X e Y estan dadas por pX (t) = P (X = t) = {y:p(t. P (X ≤ b. Y ≤ d) − P (X ≤ b. o a 2. Considere por ejemplo la funci´n: o o F (x. y) = 1. l´ x→−∞ F (x. estas propiedades no caracterizan a una funci´n de distribuci´n conjunta.4 1. se puede encontrar o o una funci´n que satisfaga las propiedades anteriores y que no sea una funci´n de o o distribuci´n conjunta. 3) − F (3. Sean X =# bolas rojas e Y =# bolas blancas.y)>0} p(t.7) satisface las condiciones anteriores.t)>0} p(x. y) = 1 si x + y ≥ 0 0 si x + y < 0 (3. Contrariamente a lo que ocurre en el caso de una variable. Suponga que 3 bolas son seleccionadas aleatoriamente de una urna que contiene 3 bolas rojas.6 Si X e Y son variables aleatorias discretas. y). −1) − F (−1. y) ≤ 1 para cada x ∈ R y y ∈ R. entonces 0 ≤ F (x. y) = l´ y→−∞ F (x. 3) + F (−1. ım ım 4. Para que una funci´n F que satisface o o las condiciones anteriores sea una distribuci´n conjunta debe cumplirse que.

v)dvdu = A fX (x)dx. entonces para cualquier o rect´ngulo A = [a. Es claro a partir de esta definici´n que si F tiene densidad f . d] se cumple que a P ((X. Y ∈ (−∞. ∞). C En particular dado un rect´ngulo C = C1 × C2 donde C1 y C2 son conjuntos de Borel. C1 C2 2. Si X e Y son conjuntamente continuas ellas son continuas ya que para cada conjunto de borel A P (X ∈ A) = P (X ∈ A. y) ∈ R2 o F (x. y) = y −∞ x −∞ f (u. Comentarios. En este caso diremos que F tiene densidad f . b] × [c.105 i\j 0 0 10 220 1 40 220 2 30 220 3 4 220 P (X = i) 84 220 1 30 220 60 220 18 220 0 108 220 2 15 220 12 220 0 0 27 220 3 1 220 0 112 220 0 48 220 0 4 220 1 220 P (Y = j) 56 220 Definici´n 3. v)dudv. a se tiene que P ((X. tal que para todo (x. v)dvdu. Y ) ∈ A) = f (u. Tambien es posible demostrar que para cualquier conjunto de Borel C ⊆ R2 se cumple que P ((X. v)dudv. ∞)) = ∞ A −∞ f (u. . Y ) ∈ C) = f (u. v)dudv = b a c d A f (u. 1. Y ) ∈ C) = f (u. v)dvdu.7 Se dice que las variables aleatorias X e Y son conjuntamente o continuas si existe una funci´n f : R2 −→ [0.

Y (3. y) = e−(x+y) si 0 < x < ∞.5 1. y)dxdy = 0 2 y 0 e−x−2y dxdy 2e − e−x |y dy = 0 ∞ 0 2e−2y (1 − e−y )dy 2e−2y dy − a ∞ 0 2 2 1 2e−3y dy = −e−2y |∞ + e−3y |∞ = 1 − = . 0 0 3 3 3 a 0 iii. 0 < y < ∞ 0 en otros casos X . v)dv. P (X < Y ) = = = 0 ∞ 0 e−2y e−x dx dy = 2 e−2y − e−x |∞ dy 1 e−2y e−1 dy = e−1 e−2y |1 = e−1 (1 − e−2 ). P (X < a) = 0 2e−x−2y dydx = e−x dx = −e−x |a = 1 − e−a . t > 0. la cual es efectivamente una densidad. (1 + t)2 .y):x<y} ∞ −2y f (x.9) Entonces la funci´n de distribuci´n de la variable o o F X (t) = P ( Y para t > 0 es igual a X ≤ t) = Y ty 0 {(x. 0 < y < ∞ 0 en otros casos 1 0 1 ∞ (3. 1+t = ∞ 0 e−(x+y) dxdy = 1 − X Y Diferenciando se obtiene la funci´n de densidad de o f X (t) = Y 1 . debido a que f ∞ lo es. Supongamos que la funci´n de densidad conjunta de X e Y est´ dada por o a f (x. y)dxdy = ∞ 1 2e−x−2y dxdy 1 0 = 2 = 2 ii.8) f (x. Y ≤ 1) = 1 0 1 0 1 0 1 ∞ 2e−x−2y si 0 < x < ∞. Supongamos que la funci´n de densidad conjunta de X e Y est´ dada por o a f (x. y) = Entonces i. 0 ∞ 0 ∞ {(x. Ejemplos 3. De manera an´loga se tiene que fY (y) = −∞ f (u.y): x ≤t} y e−(x+y) dxdy 1 .106 ∞ donde fX (x) = −∞ f (u. 0 2. Las funciones fX y fY a se denominan densidades marginales de X e Y respectivamente. v)du. P (X > 1.

j):xi +yj =sk } pij . . . .1. Xn ). . Xn son conjuntamente continuas si existe una funci´n f : Rn −→ [0. Entonces E[S] = k sk P (S = sk ) = k sk {(i. la suma X + Y es una variable o aleatoria cuya esperanza es E[X +Y ] = E[X]+E[Y ]. . . a2 . . . Sean X e Y variables aleatorias discretas con funci´n de probao bilidad pij = P (X = xi . . an ) = P (X1 ≤ a1 .j):xi +yj =sk } i j (xi + yj )pij xi pX (i) + i j xi j pij + j yj i pij = yj pY (j) = E[X] + E[Y ]. X2 . . o I) Caso Discreto. . . . . .j):xi +yj =sk } pij = k {(i. 1) Esperanza de la Suma de Variables Aleatorias. ∞). . . Preliminares. .. o 3. .1. X2 ≤ a2 . .4 Dadas variables aleatorias X e Y . . X2 . tal que para todo (x1 . . an se define u F (a1 . xn ) ∈ Rn o F (x1 . . a2 . . Xn : para n´meros reales a1 . La funci´n f se denomina densidad conjunta de (X1 . En esta secci´n consideramos una una familia finita de n variables aleatorias o X1 . . Y = yj ) para i. .107 La noci´n de distribuci´n conjunta de dos variables aleatorias se generaliza de o o manera natural al considerar la distribuci´n conjunta de n variables aleatorias o X1 . v)dudv. . En este caso se dice que las variables aleatorias X1 . . Proposici´n 3. Esperanza de Funciones de Variables Aleatorias. Si se define S = X + Y . X2 . siempre que todas las esperanzas existan. Demostraci´n. . . se tiene que S es una variable aleatoria con funci´n de probabilidad o qk = P (S = sk ) = {(i. Xn ≤ an ). . xn −∞ f (u. . Xn y una funci´n g : Rn −→ R lo suficientemente regular para que o Y = g(X1 . .j):xi +yj =sk } sk pij = = i (xi + yj )pij = k {(i. j ≥ 0. . . .. . . . xn ) = x1 −∞ . X2 . . Xn ) sea una variable aleatoria. .

z − x)dz. y)dydx.5 Sean Y y Z variables aleatorias tales que Y > Z. y)dy = t −∞ f (x. z − x)dx ya que Z = X + Y . y)dxdy xfX (x)dx + yfY (y)dy = E[X] + E[Y ]. y)dxdy f (x. Se tiene finalmente que ∞ −∞ E[X + Y ] = E[Z] = = ∞ −∞ ∞ −∞ zfZ (z)dz = ∞ −∞ z ∞ −∞ f (x. Haciendo el cambio de variables y = z − x. Utilizando la proposici´n anterior tenemos que o o E[Y ] − E[Z] = E[Y − Z] = ya que y − z ≥ 0.108 II) Caso Continuo. . Sean X e Y variables aleatorias conjuntamente continuas con funci´n de densidad conjunta f . z − x)dxdz. de aqui que FX+Y (t) = donde fZ (z) = ∞ −∞ ∞ −∞ t −∞ f (x. z − x)dxdz zf (x. 2) Monoton´ de la Esperanza. entonces E[Y ] ≥ o E[Z]. z)dydz ≥ 0. f (x. z − x)dzdx = t −∞ ∞ −∞ f (x. ıa Proposici´n 3. y)dydx ∞ −∞ x f (x. z − x)dxdz = t −∞ fZ (z)dz.y):x+y≤t} f (x. y)dydx + ∞ −∞ y ∞ −∞ f (x. se tiene que −∞ < z < t por lo que t−x −∞ f (x. Entonces la funci´n de distribuci´n o o o de S est´ dada por a FX+Y (t) = P (S ≤ t) = P (X + Y ≤ t) = = ∞ −∞ t−x −∞ {(x. y sea S = X + Y . Haciendo el cambio z = x + y se tiene que E[X + Y ] = E[Z] = = = ∞ −∞ ∞ −∞ ∞ −∞ ∞ −∞ ∞ −∞ (x + y)f (x. ∞ −∞ ∞ −∞ (y − z)f (y. Demostraci´n.

. en virtud de la proposici´n anterior. . . Demostraci´n. . . . . x2 . siempre que la integral m´ltiple sea absolutamente convergente. xn )dx1 . . . . dxn . . para todo ω. . es decir siempre que u . dxn < ∞. X2 . xn )f (x1 . xn )dx1 .. . . es suficiente o o demostrar el teorema en el caso en que g ≥ 0. . Entonces el valor esperado de Y se calcula mediante la f´rmula o E[Y ] = . . . . . . k = 0. x2 . denotando X = (X1 . .11) g(x) si g(x) ≥ 0 0 si g(x) < 0 (3.12) g(x) − 1 k ≤ m = gm (x) ≤ g(x). Rn |g(x1 . . . . . 1. . .. .. o Sean X1 . donde g + (x) = y g − (x) = −g(x) si g(x) ≤ 0 0 si g(x) > 0 (3. 2m 2 Entonces para cada ω ∈ Ω g(X(ω)) − 1 ≤ gm (X(ω)) ≤ g(X(ω)). x2 . ya que si g no es no negativa se puede escribir como una diferencia de funciones no negativas. . Xn ) y x = (x1 . En este caso se tendr´ que. Rn g(x1 . . . x2 . y usando la proposici´n a o 3 E[g(X)] = E[g + (X)] − E[g − (X)] = = Rn g + (x)f (x)dx − Rn g − (x)f (x)dx R n g + (x) − g − (x) f (x)dx = Rn g(x)f (x)dx. m 2 2 2 k 2m ≤ g(x) < + 1 2m se tiene que (3. 2m (3.13) .10) son la parte positiva y la parte negativa de g respectivamente. . Paso 1. xn ). . Xn ) sea una variable aleatoria. Xn variables aleatorias conjuntamente continuas con funci´n de deno sidad dada por f : Rn −→ R y sea g : Rn −→ R una funci´n lo suficientemente o regular para que Y = g(X1 . X2 . . Para g ≥ 0 definamos para cada entero m ≥ 0 gm (x) = Como gm (x) = k 2m k k k+1 si m ≤ g(x) < m . . . . para todo x ∈ Rn . Observe que.109 Teorema 3. .. . Paso 2. . xn )|f (x1 .1 Esperanza de una Funci´n de Variables Aleatorias. en efecto g = g + − g − .

. m )) = m m 2 2 k=0 2 k=0 2 ∞ g −1 ([ 2k . obtenemos g(x)f (x) − por lo que R Tomando limite en m R Esto significa que m→∞ n 1 f (x) ≤ gm (x)f (x) ≤ g(x)f (x). (3.14) 2 Multiplicando en (3.12) por f . k+1 )) m 2m f (x)dx = k k+1 −1 k=0 g ([ 2m . 2m )) gm (x)f (x)dx = Rn gm (x)f (x)dx. ım m→∞ Bastar´ entonces demostrar que a gm (x)f (x)dx. Tomando esperanza en esta ultima expresi´n y ´ o utilizando la monoton´ de la esperanza matem´tica. que es no negativa. Observando que gm (X) es una variable aleatoria discreta. .15) l´ ım E[g(X)] − 1 ≤ l´ E[gm (X)] ≤ l´ E[g(X)]. . tomando limite en m en (3. se tiene E[gm (X)] = ∞ k k k+1 k k P gm (X) = m = P m ≤ g(X) < m m m 2 2 2 k=0 2 k=0 2 ∞ ∞ E[gm (X)] = ∞ k k k+1 k −1 = P X ∈ g ([ m . . ≤ l´ ım m→∞ Rn m→∞ Rn 2m gm (x)f (x)dx = g(x)f (x)dx. Rn Por otra parte. tenemos que ıa a 1 E[g(X)] − m ≤ E[gm (X)] ≤ E[g(X)].110 donde X(ω) = (X1 (ω). ım ım m→∞ m→∞ 2m es implica que E[g(X)] = l´ E[gm (X)]. 2m g(x)f (x)dx − 1 f (x)dx ≤ gm (x)f (x)dx ≤ g(x)f (x)dx. R 2m Rn Rn n l´ ım n g(x)f (x)dx − 1 gm (x)f (x)dx ≤ l´ ım g(x)f (x)dx.14) obtenemos que m→∞ E[g(X)] = m→∞ l´ ım (3. . Xn (ω)). Rn Paso 3. Rn Rn por lo que ser´ suficiente demostrar que a m→∞ l´ ım gm (x)f (x)dx.

1. Si definimos Z =# de ´xitos en los m+n ensayos e tendremos que X y Z no son independientes. 9. + X9 donde o Xi = # compras necesarias para obtener un mu˜eco distinto a todos los ya obtenidos n siendo las Xi ’s variables aleatorias independientes geom´tricamente distribuidas con e 10−i par´metro (probabilidad de ´xito) pi = 10 para i = 1. . Ene e ´ tonces X e Y son independientes. . . .111 3. La independencia de variables aleatorias se define en t´rminos de la independencia e entre eventos. Variables Aleatorias Independientes. En vista de esto se tiene a e que 10 10 + + . + E[X9 ] = 1 + 9 8 Por lo tanto el n´mero esperado de compras necesarias para completar la colecci´n es u o 29. . . Definici´n 3. + 10 = 29. . Por lo tanto definiendo X1 =# de compras hasta obtener un mu˜eco disn 9 tinto al primero. Sea X =# de ´xitos en los n primeros ensayos e Y =# de ´xitos en los ultimos m ensayos. 2. Una e a vez que se obtiene el segundo mu˜eco distinto.6 1. Si en cada compra o del producto se puede obtener con igual probabilidad cualquiera de los mu˜ecos. . . E[X] = 1 + E[X1 ] + . Recordamos que eventos E1 y E2 son independientes si y s´lo si P (E1 ∩ o E2 ) = P (E1 )P (E2 ). Y ∈ B) = P (X ∈ A)P (Y ∈ B). o donde A y B son conjuntos de Borel cualesquiera. asi como tampoco lo son Y y Z. la probabilidad de ´xito en cada compra ser´ igual a p1 = 10 . ¿cu´l n a es el n´mero esperado de compras que necesita hacer el ni˜o para completar la colecu n ci´n? o Una vez que se obtiene el primer mu˜eco. y si se continua e de esta forma hasta obtener todos los mu˜ecos se tendr´ que el n´mero de compras n a u necesarias para completar la colecci´n es igual a X = 1 + X1 + X2 + . se consideran las compras sucesivas con mo ensayos de Bernoulli en los que ´xito significa obtener un mu˜eco distinto a los e n anteriores. Ejemplos 3. . 25.8 Dos variables aleatorias X e Y son independientes si y s´lo si para o o conjuntos de Borel cualesquiera A ⊆ R y B ⊆ R se cumple que P (X ∈ A. . ( Problema del coleccionista) Un ni˜o est´ coleccionando 10 mu˜ecos ofrecidos n a n en la promoci´n de un producto alimenticio de consumo masivo.2. las compras sucesivas son ensayos de n 8 Bernoulli independientes con probabilidad de ´xito igual a p2 = 10 . Supongamos que se tienen m + n ensayos de Bernoulli independientes. Observe que de acuerdo a la definici´n anterior dos variables aleatorias X e Y son o independientes si y s´lo si lo son los eventos asociados a ellas: X −1 (A) y Y −1 (B).

El problema consiste en encontrar la probabilidad de que la aguja intercepte una de las lineas. b). Entonces o F (a. Para resolver el problema observamos que la posici´n de la aguja con respecto a las o lineas est´ completamente determinada por el ´ngulo que se forma entre la aguja y a a las lineas (en direcci´n positiva →) y por la distancia entre el punto medio de la o aguja y la linea m´s cercana a ella. Tenemos entonces que θ y X son variables aleatorias independientes tales que θ est´ uniformemente distribuida en [0. a Sean X =tiempo. Suponga que en una superficie se trazan rectas paralelas de manera tal que la distancia entre dos rectas es igual a una cantidad fija D. encuentre la probabilidad de que el primero en llegar tenga que esperar m´s de 10 minutos.6 Sean X e Y variables aleatorias independientes con funci´n de o o distribuci´n conjunta F (a. . la aguja y la recta. y) = fX (x)fY (y). Por lo tanto se quiere determinar P (|X−Y | > 10) = P (X−Y > 10)+P (X−Y < −10) = 2 60 10 0 y−10 1 2 25 dxdy = . Consideramos el triangulo formado por este segmento. b) = P (X ≤ a)P (Y ≤ b) = FX (a)FY (b). Y ≤ b). para todo par (a. π] y X est´ uniformemente distribuida a a p pp   pp   X ppppq  h     pp θ p pp pp pp pp ppp p D p ppp pp   en [0. b) = P (X ≤ a. D ]. Una aguja de longitud L ≤ D se lanza aleatoriamente sobre la superficie. Entonces X e Y son variables e aleatorias independientes. cada una uniformemente distribuida en un intervalo de 60 minutos. Si X e Y son conjutamente continuas e independientes con densidad conjunta f entonces se cumple que f (x. que tarda el hombre en llegar y Y =tiempo. El Problema de la Aguja de Buffon (1777). Si cada uno de ellos llega a una hora uniformemente distribuida entre las 12 m y la 1 pm.7 1. o Proposici´n 3. Ejemplos 3.112 Distribuci´n Conjunta de Variables Aleatorias Independientes. e despu´s de las 12m. 2 El segmento perpendicular trazado desde el punto medio de la aguja a la recta m´s a cercana a esta tiene longitud X. Denotando por h la longitud de la hipotenusa de este triangulo. La aguja puede o bien intersectar una de las lineas o caer entre dos de ellas. Un hombre y una mujer deciden encontrarse en un lugar. despu´s de las 12m. Denotaremos estos par´metros por θ y X respeca a tivamente. que tarda la mujer en llegar. 60 36 2.

donde el simbolo ∗ denota el producto de convoluci´n de fX y fY . se o tiene ∞ a 1 fX+Y (a) = fX (a − y)fY (y)dy = λe−λ(a−y) (λ(a − y))s−1 λe−λy (λy)t−1 dy Γ(s)Γ(t) 0 −∞ a λs λt λs λt e−λa a = e−λa+λy e−λy (a − y)s−1 y t−1 dy = (a − y)s−1 y t−1 dy Γ(s)Γ(t) 0 Γ(s)Γ(t) 0 y λs λt e−λa a s−1 a (1 − )s−1 y t−1 dy. entonces fZ (z) = ∞ −∞ fX (x)fY (z − x)dx = fX ∗ fY (z). Como X e Y son variables aleatorias independientes. Si X e Y son independientes. z − x)dxdz = t −∞ fZ (z)dz. para a > 0. f (x. o Proposici´n 3. 2 Dπ Suma de Variables Aleatorias Independientes. x)dydx = 2 2 dxdy = Dπ Dπ X ≤L sen(θ) 2 fθ (y)fX (x)dydx π 0 2L L sen(y)dy = . λ) y (t. λ). sen(θ) la f (y. Entonces a Z = X + Y tiene distribuci´n gamma con par´metros (s + t. λ) donde s y t son enteros positivos. o La siguiente proposici´n constituye un ejemplo importante de este resultado. o a Demostraci´n.113 se tiene que la aguja intercepta a la recta si y solo si h ≤ probabilidad de que la aguja intercepte a la recta es P X L ≤ sen(θ) 2 = = π 0 0 X ≤L sen(θ) 2 L sen(y) 2 L . z − x)dzdx = t −∞ ∞ −∞ f (x. Como vimos antes si X e Y son variables aleatorias conjuntamente continuas con densidad conjunta f y Z = X + Y se tiene que FX+Y (t) = donde fZ (z) = ∞ −∞ ∞ −∞ t −∞ f (x. = Γ(s)Γ(t) 0 a Haciendo el cambio de variables x = fX+Y (a) = y a tenemos que λs λt e−λa as+t−1 1 (1 − x)s−1 xt−1 dx Γ(s)Γ(t) 0 s t 1 λλ = e−λa as+t−1 (1 − x)s−1 xt−1 dx Γ(s)Γ(t) 0 = K e−λa as+t−1 . z − x)dx. .7 Sean X e Y variables aleatorias independientes con distribuci´n o o gamma con par´metros (s. 2 Como h = X .

y). Se tiene que E g(X)h(Y ) = = ∞ −∞ ∞ −∞ ∞ −∞ g(x)h(y)f (x. La siguiente proposici´n se obtiene como corolario del teorema 1. Entonces se cumple que E g(X)h(Y ) = E g(X) E h(Y ) . o 1) Caso discreto. o Proposici´n 3.8 Sean X e Y variables aleatorias independientes y sean g y h funo ciones reales con suficiente regularidad. Demostraci´n. Sean X e Y discretas con funci´n de probabilidad p(x. Supongamos que X e Y son variables aleatorias conjuntamente continuas con densidad conjunta f (x. haciendo el cambio de variables u = λa tenemos ∞ 0 e−λa as+t−1 da = = ∞ 0 e−λa 1 λs+t us+t−1 du λs+t−1 λs+t−1 λ 0 ∞ Γ(s + t) e−u us+t−1 du = s+t . λ 0 da = ∞ λa s+t−1 e−u En consecuencia λs+t λs+t K= = . 2) Caso continuo.114 Como fX+Y es una densidad. Entonces o E g(X)h(Y ) = i j g(xi )h(yj )p(xi . y)dxdy = ∞ −∞ ∞ −∞ ∞ −∞ g(x)h(y)fX (x)fY (y)dxdy g(x)fX (x)dx h(y)fY (y)dy = E g(X) E h(Y ) . la constante K debe satisfacer ∞ 0 K e−λa as+t−1 da = 1 =⇒ K = 1 ∞ 0 e −λa as+t−1 da . y). λ). Γ(s + t) (s + t − 1)! Sustituyendo K en la expresi´n que se dedujo para fX+Y o fX+Y (a) = λe −λa λa s+t−1 Γ(s + t) =⇒ X + Y ∼ Γ(s + t. . yj ) = i j g(xi )h(yj )pX (xi )pY (yj ) = i g(xi )pX (xi ) j h(yj )pY (yj ) = E X E Y . En particular E XY = E X E Y .

X2 . Y = E (X − E[X])(Y − E[Y ]) . Xj ]. Xn n n V ar i=1 Xi = i=1 V ar[Xi ] + 2 i<j Cov[Xi . Ejemplos 3. . Y ]. 3 Sea Y la variable aleatoria definida como Y = 0 si X = 0 1 si X = 0. . Sea X una variable aleatoria con funci´n de probabilidad o 1 P (X = 0) = P (X = 1) = P (X = −1) = . Sin embargo. o El reciproco de esta propiedad no es en general cierto. Y = 0) = 0 = P (X = 0)P (Y = 0) = V ar X + Y = E X + Y − E[X + Y ] = E X − E[X] 2 2 2 2 . Y = E (X − E[X])(Y − E[Y ]) = E XY − XE[Y ] − E[X]Y + E[X]E[Y ]) = E XY − 2E[X]E[Y ] + E[X]E[Y ] = E XY − E[X]E[Y ]. De esta expresi´n se observa que si X e Y son independientes entonces Cov X. . denotada Cov X. Inductivamente puede verificarse que para variables aleatorias X1 . Y . 3 la varianza de la 2 = E X − E[X] + Y − E[Y ] + Y − E[Y ] + 2 X − E[X] Y − E[Y ] = V ar[X] + V ar[Y ] + 2Cov[X. para variables aleatorias independientes la varianza de la suma es la suma de las varianzas: n n V ar i=1 Xi = i=1 V ar[Xi ]. Y = 0. X e Y no son independientes ya que: 1 × 3 La noci´n de covarianza permite obtener una expresi´n para o o suma de variables aleatorias: P (X = 0. La covarianza entre X e o Y .9 Sean X e Y variables aleatorias dadas. se define como Cov X. Y = 0. Una forma equivalente de esta definici´n se obtiene mediante el siguiente c´lculo o a Cov X. Entonces XY = 0 por lo que E[XY ] = 0.115 Definici´n 3. . De estas expresiones se observa que.8 1. adem´s E[X] = −1 + 1 + 0 1 = 0 por lo que a 3 3 3 Cov X. .

. . . Sean σX = V ar[X] y σY = V ar[Y ].16) . para cada δg i ∈ {1.. como la matriz n×n  δg  δg δg1 1 (x) δx1 (x) ..   . Funciones de Varias Variables Aleatorias. . gn ). . . . denotado por ρ(X. 3. 2 2 Demostraci´n. n}. . . . Proposici´n 3. . . . δxj existe y es continua para j ∈ {1. (3. . es decir. δg1 δxn δg2 δxn . .. . Y ] V ar[X]V ar[Y ] siempre que V ar[X] = 0 y V ar[Y ] = 0. se define la matriz jacobiana de g en x. Y ) = Cov[X. Diremos que g ∈ C 1 si todas las componentes de g tienen derivadas parciales continuas. . δxn (x) n×n δx1 δx2 n El determinante de la matriz jacobiana se denomina determinante jacobiano de g (o simplemente jacobiano de g y se denota por δg1 δx1 δg2 δx1 δg1 δx2 δg2 δx2 Jg (x) = . n}. . . se define como o o o ρ(X. . g2 . .17) δgn δx1 δgn δx2 δgn δxn .116 Definici´n 3. Y ] V ar[X] V ar[Y ] + = + +2 = 1 + 1 + 2ρ(X. .1. . . Si x = (x1 . . 2 2 σX σY σX σY σX σY de donde ρ(X. . Y ). . . δxn (x)  Dg (x) = = (x)  (3. . . Y ). . Y ). El Teorema de la funci´n inversa. . Y ) ≥ −1. Y ] X Y V ar[X] V ar[Y ] + −2 − = = 1 + 1 − 2ρ(X. . δxn (x) δx1 2  δg2  δg2 δg2   δg  δx1 (x) δx2 (x) . . . Por otra parte 0 ≤ V ar Cov[X. entonces o 0 ≤ V ar X Y Cov[X. . g = (g1 . Preliminares.9 Dadas variables aleatorias X e Y .3. .   δg δgn (x) δgn (x) . o Sea S ⊆ Rn abierto y g : S −→ Rn . . . 2 2 σX σY σX σY σX σY por lo tanto ρ(X. xn )... x2 . se cumple que o −1 ≤ ρ(X. Y ) ≤ 1. n×n δxj .. .10 Dadas dos variables aleatorias X e Y el coeficiente de coro relaci´n ´ correlaci´n de X e Y . . . . Y ) ≤ 1. .

18) Teorema 3. . .117 Ejemplos 3. . . . h(V ) = U y h(g(x)) = x para todo x ∈ U . . . . v) h ∈ C 1 en V . Si a ∈ S es un punto tal que el determinante jacobiano de g en a es no nulo (Jg (a) = 0).2 (de la funci´n inversa) Sea S ⊆ Rn abierto y g : S −→ Rn .9 Sea g : R2 −→ R2 definida por g(x. . ii) h es inyectiva en V . iv) h esta definida en V . xn = h(V ) f (x)dx. sen(y + 2x)). . entonces existen conjuntos abiertos U ⊆ S y V ⊆ T y una funci´n h univocamente determinada tales que o i) a ∈ U y g(a) ∈ V . x2 . . . . . . 0) es el determinante 2 π π e2 2e 2 Jg ( . gn ) ∈ C y sea T = g(S). Xn )). . X2 . . . . .3 (de cambio de variables) Sea V ⊆ Rn abierto y sea h : V ⊆ Rn −→ Rn tal que i) h ∈ C 1 en U . . X2 . . gn (X1 . . X2 . X2 . . Xn ). . Xn variables aleatorias conjuntamente continuas con funci´n de o densidad f : Rn −→ R y sea g : Rn −→ Rn una funci´n en C 1 que satisface las o condiciones del teorema de la funci´n inversa sobre U ⊆ Rn . g = o 1 (g1 . . . ii) g(U ) = V . . g2 . yn )|dy1 . iii) g es inyectiva en U . . El jacobiano de g en el punto ( π . Entonces h(V ) f (x)dx = V f (h(y))|Jh (y)|dy = V f (h(y1 . yn )|Jh (y1 . . xn )dx1 dx2 . y) = (ex+2y . Teorema 3. . Xn ) = g(X) = (g1 (X1 . donde U es tal que o f |U c ≡ 0. . iii) El determinante jacobiano Jh (y) = 0 para todo y ∈ V . . . 0) = = 3e 2 2cos(π) cos(π) 2 π π (3. Definamos Y = g(X1 . . dyn . . Una aplicaci´n directa de estos teoremas se tiene en la siguiente situaci´n. o o Sean X1 . . . . Sea adem´s f : h(V ) ⊆ Rn −→ R una funci´n tal que existe a o h(V ) f (x1 . . .

. yn ))|Jh (y1 . Sean Y1 = X1 + X2 y Y2 = X1 − X2 . . . x2 ) y y2 = g2 (x1 . 2 2 −1 y y2 = g2 (x1 . . 1). Sean y1 = g1 (x1 .10 ´ 1. y2 )) = fY1 . =⇒ x1 = y1 + y2 = h1 (y1 . . X2 variables aleatorias conjuntamente continuas con densidad conjunta fX1 . yn ). Y2 ) procedemos como sigue. y2 ) 2 y =⇒ x2 = y1 − y2 = h2 (y1 . . Ejemplos 3. y2 ). 2 (3. . . . . x2 ) = x1 − x2 . . Para obtener la densidad conjunta de (Y1 . Sean X1 . y2 ) = Jg (x1 . 2 = δg1 δx1 δg2 δx1 δg1 −1 δx2 δg2 δx2 1 1 = 1 −1 −1 = −1 . . x2 ) 0 en otro caso (3. . tendremos que fY1 . .20) si 0 < y1 +y2 2 < 1 y 0 < y1 −y2 < 1 2 en otro caso si 0 < y1 + y2 < 2 y 0 < y1 − y2 < 2 en otro caso .X2 . x2 ) = x1 + x2 Entonces y1 + y2 = x1 + x2 + x1 − x2 = 2x1 y1 − y2 = x1 + x2 − x1 + x2 = 2x2 Adem´s tenemos que a Jh (y1 . .118 y sea h : V −→ U la inversa local de g (dada por el teorema de la funci´n inversa). o La variable aleatoria Y puede interpretarse como un cambio de coordenadas aplicado a X y podemos obtener su funci´n de densidad en vista de que o P (Y ∈ V ) = P (g(X) ∈ V ) = P (X ∈ h(V )) = Por lo tanto fY (y1 . .21) En particular si X1 y X2 son independientes y ambas uniformemente distribuidas sobre (0. yn )) = f (h1 (y1 . . . y2 )) = = 0 0 1 2 1 2 1 f 2 X1 . . . hn (y1 .Y2 (y1 .19) h(V ) f (x)dx = V f (h(y))|Jh (y)|dy.X2 y1 +y2 y1 −y2 . x2 ) Por lo tanto si y1 = g1 (x1 .Y2 (y1 . yn )| si Y ∈ V 0 si Y ∈ V / (3.

.Y2 (y1 .V (u. y) = x .119 Si X1 y X2 son independientes con densidad exponencial con par´metros λ1 y λ2 a respectivamente.22) 2. Sean X e Y variables aleatorias independientes. λ) respectivamente. v)) = =  = fX. cada una con distribuci´n gamma o con par´metros (α. Tenemos que u = g1 (x. y) = x + y por lo tanto x = u × v = h1 (u. x+y y y = u − x = u − u × v = u(1 − v) = h2 (u. Entonces fU. v) = Jg (x.Y (uv. y2 )) = λ1 λ2 2 e 21 (y1 +y2 ) e 22 (y1 −y2 ) si 0 < y1 + y2 y 0 < y1 − y2 0 en otro caso λ λ (3. λ) y (β. entonces fY1 . v). v) Por otra parte tenemos que Jh (u. Hallaremos la densidad conjunta de a X U y V cuando U = X + Y y V = X+Y . u(1 − v))u si 0 < v < 1 y 0 ≤ u 0 en otro caso   λe−λuv (λuv)α−1 Γ(α) −λu(1−v) (λu(1−v))β−1 × λe u si 0 < v < 1 y 0 ≤ u Γ(β) 0 en otro caso   λe−λu (λuv)α+β−1  Γ(α+β) × v α−1 (1−v))β−1 Γ(α+β) u Γ(α)Γ(β) 0 si 0 < v < 1 y 0 ≤ u en otro caso. = = δg1 δx δg2 δx δg1 −1 δy δg2 δy = 1 (x+y)−x (x+y)2 1 0−x (x+y)2 −1 = 1 y (x+y)2 1 x (x+y)2 −1 −(x + y) (x + y)2 −1 = −(x + y) = −u. y) −1 y v = g2 (x.

Halle V ar[X]. Si E[X] = 1 y V ar[X] = 5 encuentre: a) E[(X + 2)2 ].2 1.23) para i = 1. para obtener el i-´simo ´xito. Sugerencia: Demuestre que V ar[aX + b] = a2 V ar[X]. 6. 4. . 2. m Yj ] = n j=1 Cov[Xi . Demuestre que: a) Cov[a + bX. Z] = Cov[X. Xn variables aleatorias independientes e id´nticamente distribuidas e 2 ¯ = 1 n Xi . Demuestre que: a) E[X] = µ. . . determine el n´mero esperado de ensayos requeridos para obtener e u r ´xitos. j=1 i=1 i=1 7. Sean X1 . Sea X n i=1 n 2 2 2 ¯ ¯ b) V ar[X] = σ /n.Sugerencia: considere las variables aleatorias definidas como: 1 si el i-´simo hombre selecciona su sombrero e 0 si no Xi = (3. para el segundo ´xito. N . . . e e e Xi =# de ensayos. despu´s del primer ´xito. a) Encuentre el n´mero esperado u de hombres que selecciona su propio sombrero. . Si se realizan ensayos independientes de Bernoulli. . . con probabilidad p de ´xito. ¯ con media µ y varianza σ . Un grupo de N hombres lanza sus sombreros en el centro de un sal´n. no necesariamente independientes. Y ]. dee muestre que Cov[X + Y. . . c) E[ i=1 (Xi − X) ] = (n − 1)σ . b) V ar[4 + 3X]. Sea X una variable aleatoria binomial negativa (ver ejercicio anterior). Los sombreros o se mezclan y cada hombre selecciona uno al azar. b) Cov[X + Y. Halle la e Cov[X. despu´s del ´xito i − 1. Yj ]. Sugerencia: considere las variables aleatorias siguientes: e X1 = # de ensayos para primer ´xito. e X2 = # de ensayos. . m c) Cov[ n Xi . Z] + Cov[Y. c + dY ] = bdCov[X. 8. . Si X e Y son id´nticamente distribuidas. Use la parte c) del ejercicio anterior. Binomial Negativa. Sean X =# de veces que aparece 1 en n lanzamientos de un dado sim´trico y e Y =# de veces que aparece 2 en n lanzamientos de un dado sim´trico. Z]. b) Calcule la varianza del n´mero u de hombres que selecciona su sombrero. Y ]. 5.120 Ejercicios 3. e e e e 3. X2 . X − Y ] = 0.

Use el ejercicio anterior y un razonamiento intuitivo para demostrar que m+n k k = i=0 n i m k−i donde k ≤ n y k ≤ m. Suponga que todas estas variables tienen esperanza cero y varianza uno. Y ] = 1. b) Demuestre que Cov[X. b) X1 + X2 y X3 + X4 . p) a respectivamente. Sean X1 . x 13. 14. Y ] = 1/8 si (X. o o 11. Sugerencia: Para cada t ∈ R considere E[(tX + Y )2 ] ≥ 0. 2] 0 en otros casos 1 si x ∈ [−2. Verifique que Cov[X. es decir ρ(Xi . Calcule las correlaciones de: a) X1 + X2 y X2 + X3 . p) y (m.24) 10.26) (3.27) (3. Demuestre que ρ(X. o 16. y) = (3. Esto implica que el discriminante de esta a ecuaci´n es menor ´ igual a cero. La funci´n de densidad conjunta de X e Y est´ dada por f (x. −1] 0 en otros casos 1 si x ≥ 0 0 si x < 0 (3. 0 ≤ y ≤ x x f (x. Sean X e Y variables aleatorias binomiales con par´metros (n. . X2 .121 9. Obtenga una ecuaci´n o cuadr´tica en t con a lo sumo una raiz real. Xj ) = 0 para i = j. Halle la convoluci´n f ∗ g en cada uno de los casos siguientes: o a) f (x) = g(x) = 1 si x ∈ [1. y) = y e−(y+ y ) si o a x > 0 e y > 0. Y ) son variables aleatorias con densidad conjunta 2e−2x si 0 < x < ∞.28) b) f (x) = g(x) = ¿Qu´ representan las convoluciones anteriores probabilisticamente? e 15. X4 variables aleatorias no correlacionadas. Sea Y = a + bX. a) Encuentre E[X] y E[Y ]. Y )) = 1 si b > 0 −1 si b < 0 (3.25) 0 en otros casos 1 12. Asuma que X e Y son independientes y calcule analiticamente la distribuci´n de X + Y . X3 . Demuestre la desigualdad de Cauchy-Schwartz: (E[XY ])2 ≤ E[X 2 ]E[Y 2 ].

Si X e Y son variables aleatorias independientes ambas uniformemente dis√ tribuidas sobre (0. Asuma independencia. 22. b) a o Z = X/Y . Si X e Y tienen funci´n de densidad conjunta o f (x. Sean X e Y variables aleatorias independientes e id´nticamente distribuidas con e distribuci´n uniforme sobre (0. Si n o se escoge una familia al azar y se definen H =# de hembras V =# de varones. Y y Z variables aleatorias independientes con id´ntica funci´n de dene o sidad dada por f (x) = e−x . Calcule la funci´n de densidad conjunta de o U = X + Y. Calcule la funci´n de densidad conjunta de: a) o o U = X + Y . . . b) Halle las o densidades marginales. Repita el ejercicio anterior en el caso en que X e Y tienen distribuci´n expoo nencial con par´metro λ = 1. 1) y Y est´ exponencialmente a a distribuida con par´metro λ = 1. V = X + Z y W = Y + Z. V = X/(X + Y ). Sean X. Demuestre que X1 + X2 tiene distribuci´n a o de Poisson con par´metro λ1 + λ2 . a o Sugerencia: Observe la relaci´n entre las variables gamma y exponencial. Sean X1 y X2 variables aleatorias independientes con distribuci´n de Poisson o con par´metros λ1 y λ2 respectivamente. c) U = X + Y . 1). a 24. Xn variables aleatorias independientes todas ellas exponencialmente distribuidas con par´metro λ. X2 . 21. a) Calcule la funci´n de densidad conjunta de U = XY . encuentre la funci´n de densidad conjunta de R = X 2 + Y 2 o y θ = tan−1 (Y /X). y) = 1 x2 y 2 para x ≥ 1. hembra o var´n. Suponga adem´s que en cada faa milia cada ni˜o es con igual probabilidad. . encuentre la distribuci´n de a) Z = X + Y . y ≥ 1 . Halle la distribuci´n de X1 + X2 + . Suponga que 15 % de las familias en una comunidad no tienen hijos. 1). 20. Haga . . . 0 < x < ∞. . Encuentre la funci´n de densidad cono a o X1 junta de Y1 = X1 + X2 y Y2 = e . 35 % tienen 2 hijos y 30 % tienen 3 hijos. V = X/Y . V = X/Y . + Xn . 20 % tienen un hijo. o 18.122 17. 23. V = X/Y . a 19. Sean X1 y X2 variables aleatorias independientes e id´nticamente distribuidas e con distribuci´n exponencial con par´metro λ. b) U = X. e independientemente. Si X est´ uniformemente distribuida sobre (0. 25. 26. Sean X1 .

(ii) Halle la probabilidad condicional de X dado que Y = 2. hasta encontrar los defectuosos. 33. Cada mascota(perro ´ gato) es adquirida independientemente y con la misma o probabilidad. Y ) y calcule V ar[X]. c) Calcule la probabilidad de que la distancia entre el punto y el origen no sea mayor que A. 27. 31. Y ). a) Determine el valor de c. Un grupo de 5 transistores contiene 2 defectuosos. Q. Sean X =menor valor obtenido y Y =mayor e valor obtenido. Obtebga la funci´n de probabilidad conjunta de (X. y) = c si x2 + y 2 ≤ R2 0 si x2 + y 2 > R2 (3. (ii) Halle o V ar[Y ]. 29. uno rojo y uno verde. u 28. Considere un circulo de radio R y suponga que un punto del circulo se escoge aleatoriamente de manera tal que todas las regiones dentro del circulo tienen igual probabilidad de contener el punto. o (iii) Calcule V ar[Y ]. Sean X =# de diamantes y Y =# de corazones. que el punto est´ uniformemente distribuia do dentro del circulo. Considere un grupo de cartas que consiste en J. Dos dados sim´tricos son lanzados. V ) y las o funciones de masa de probabilidad marginales. K y A de las cuatro pintas. (i) Halle la funci´n de probabilidad conjuno ta de (X. Y ). 30 % tiene 1 mascota. Y ). halle la funci´n de probabilidad conjunta de (C. Sea X =# de dados que caen en un n´mero impar y Y = suma de los dados. o 32. G) y calcule el o n´mero esperado de perros. Se reparte una mano de 2 cartas. 20 % tiene 2 mascotas y 10 % tiene 3 mascotas.29) donde c > 0.123 una tabla que muestre la funci´n de masa de probabilidad conjunta para (H. Se prueban los transistores. Entonces la funci´n de densidad o conjunta est´ dada por a f (x. Si C =# de perros y G =# de gatos en una familia. uno a la vez. Se sabe que un 40 % de las familias no tiene mascota. Es decir. Sean N1 =# de pruebas realizadas . Sean X =resultado del dado rojo y Y =menor de los resultados. Se lanzan dos dados perfectos y distintos. (ii) Halle la funci´n de probabilidad conjunta de X dado que Y = y. En una comunidad las familias adquieren s´lo dos tipos de mascota: perros y o gatos. Suponga que el centro del circulo es el origen de coordenadas y defina X e Y como las coordenadas del punto. (i) Halle la funci´n de probabilidad conjunta u o de (X. (i) Halle la funci´n de probabilidad conjunta de (X. 30. b) Encuentre las funciones de densidad marginales de X y Y. Se lanzan dos dados perfectos.

a) Encuentre el valor de c. 15 % comprar´ un televisor con reproductor de video ina a corporado y 40 % no comprar´ nada. y) = e−(x+y) . Se estima que 45 % de los clientes que entran a una tienda de televisores comprar´ un televisor normal. 35. N2 ). 0 ≤ y < ∞. b) P (X < a). Y a) Encuentre P (X < Y ). b) Encuentre las densidades marginales de X y Y . −y ≤ x ≤ y. X . Haga una tabla. Si 5 clientes entran hoy. ¿cu´l es la probabilidad a a de que se vendan exactamente 2 televisores normales y 1 con video incorporado? . c) Halle la funci´n de densidad de Z = o 36. 0 ≤ x < ∞. Encuentre la funci´n de masa o de probabilidad conjunta de (N1 . La funci´n de densidad de probabilidad conjunta de X y Y est´ dada por: o a f (x. 0 < y < ∞.124 hasta que el primer defectuoso es encontrado y N2 =# de pruebas adicionales realizadas hasta que el segundo defectuoso es encontrado. 34. La funci´n de probabilidad conjunta de X e Y est´ dada por o a f (x. y) = c(y 2 − x2 )e−y .

1) + p(1. p(0.2. Se define la funci´n de distribuci´n de probao o bilidad condicional de X dado que Y = y como F X|Y (x|y) = P (X ≤ x|Y = y) = s≤x pX|Y (s|y) = s≤x P (X = s|Y = y). p (1) Y para x = 0.4.1. p(1. 1) . 1) = 0. 1) = 3 . 1) = 0.5. y) definio da como p(0.11 1. Definici´n 3. P (Y = y) pY (y) La funci´n de probabilidad condicional de Y dado que X = x se define de o manera an´loga. Distribuci´n Condicional de Variables Aleatorias. y) . 1) = 0. siempre que pY (y) > 0. y).1. pX|Y (0|1) = p(0. . p(1. En este caso por lo que pY (1) = p(0. Definici´n 3. Entonces la funci´n de densidad de probao o bilidad condicional de X dado que Y = y.4. 0) = 0. o I) Caso Discreto. Se define la funci´n de probabilidad condicional o de X dado que Y = y como pX|Y (x|y) = P (X = x|Y = y) = P (X = x. p (1) 5 Y 2) Caso Continuo. y) = . (y) Y siempre que fY (y) = 0. 1.12 Sean X e Y variables aleatorias discretas con funciones de probao bilidad pX y pY respectivamente. a Definici´n 3.3. 1) = 2 p (1) 5 Y y pX|Y (1|1) = p(1. La funci´n de masa de probabilidad condicional de X dado que Y = 1 est´ dada por o a pX|Y (x|1) = p(x. Sean X e Y variables aleatorias con funci´n de probabilidad conjunta p(x.13 Sean X e Y variables aleatorias conjuntamente continuas con funo ci´n de densidad conjunta f (x. est´ dada por a f X|Y (x|y) = ff(x. 0) = 0. Y = y) p(x. Ejemplos 3.11 Sean X e Y variables aleatorias discretas con funciones de probabilo idad pX y pY respectivamente.125 3.

14 Sean X e Y variables aleatorias conjuntamente continuas con funo ci´n de densidad conjunta f (x.12 1. se define como F X|Y (a|y) = P (X ≤ a|Y = y) = Para un conjunto de Borel A dado tendremos que P (X ∈ A|Y = y) = A a −∞ f X|Y (s|y)ds. y). . seg´n sea el caso. f X|Y (s|y)ds. Tenemos entonces que. 5 5 6 12 x(2 − x − 5 12 4−3y 5 6 f X|Y (x|y) = y) = 6x(2 − x − y) . una funci´n de probo abilidad (verif´ ıquelo!). ya o o o que en el caso continuo P (Y = y) = 0.126 Definici´n 3. esto puede verificarse usando o las definiciones correspondientes. o Ejemplos 3. En ambos casos. la funci´n de o probabilidad conjunta pX|Y (x|y) es. De manera an´loga en el caso continuo la funci´n de densidad a o condicional f X|Y (x|y) de dos variables aleatorias conjuntamente continuas X e Y . en el caso discreto u E[X|Y = y] = x xpX|Y (x|y). En el caso de variables aleatorias conjuntamente discretas X e Y . Tiene entonces sentido definir la esperanza condicional de X dado que Y = y como la esperanza de X con respecto a pX|Y (x|y) ´ o f X|Y (x|y). Comentario. 4 − 3y Valores Esperados Condicionales. es una funci´n de densidad para y fijo. La expresi´n P (X ≤ a|Y = y) tiene sentido s´lo como notaci´n. La densidad conjunta de X e Y est´ dada por a f (x. y)) = 12 x(2 5 − x − y) si 0 < x < 1 y 0 < y < 1 0 en otro caso Se tiene entonces que la densidad marginal de Y es igual a fY = Por lo tanto 1 0 12 12 (4 − 3y) x(2 − x − y)dx = . para cada valor fijo y de Y . Sin embargo para en la definici´n anterior o s´lo se requiere que fY (y) = 0. Entonces la funci´n de distribuci´n condio o o cional de X dado que Y = y.

n) = n≥1 m≥1 xm pX (m) = E[X]. para cada y fijo se tiene E[X|Y = y] = ∞ 0 x e− y y x dx = y ∞ 0 ue−u du = y. Comentario. Entonces E E[X|Y ] = n≥1 y pY (n) = P (Y = yn ) E[X|Y = yn ]pY (n) = xm xm n≥1 m≥1 p(m.127 Mientras que en el caso continuo E[X|Y = y] = Ejemplos 3.30) f (x. Sean X e Y variables aleatorias conjuntamente continuas con densidad conjunta x 1 − y −y e e si 0 < x < ∞. y). Entonces. y) = 0 en otros casos Hemos visto que ∞ −∞ xf X|Y (x|y)dx. y) dx f (y)dy = Y f Y (y) −∞ f (x. b) Sean X e Y variables aleatorias conjuntamente continuas con funci´n de densidad o conjunta f (x. n) p (n) pY (n) Y = m≥1 p(m. y)dydx xf X (x)dx = E[X]. E[X] = E E[X|Y ] .13 1. f X|Y (x|y) = e− y y x . Proposici´n 3. o Demostraci´n o a) Sean X e Y variables aleatorias discretas.10 Dadas variables aleatorias X e Y . . 0 < y < ∞ . con respecto a Y es una funci´n de o los valores de Y . Note que la esperanza condicional. 0 < y < ∞ y (3. con funciones de probabilidad pX (n) = P (X = xn) respectivamente. si 0 < x < ∞. Entonces E E[X|Y ] = = = ∞ −∞ ∞ −∞ ∞ −∞ E[X|Y = y]f Y (y)dy = ∞ −∞ ∞ −∞ ∞ −∞ ∞ xf X|Y (x|y)dx x ∞ −∞ f Y (y)dy x f (x.

2) = . e 2. La densidad de probabilidad conjunta de X y Y est´ dada por a 6 xy f (x. 6. 8 4 8 2 Halle la funci´n de probabilidad de X dado que Y = i para i = 1. o 4. . . p(1. −y ≤ x ≤ y. 2 2 iii) Calcule la funci´n de densidad de X. La funci´n de densidad conjunta de X e Y est´ dada por o a f (x. 0 < y < ∞. 0 < y < 2. donde 0 < a < 1. i = 1. iii) Diga si X e Y son independientes y porqu´. 4. o 6. Se escoge un n´mero X aleatoriamente de el conjunto A = {1. u u i) Halle la funci´n de probabilidad conjunta de X e Y . 1). b)U < a. Encuentre la distribuci´n condicional de X dado que Y = y. o 7. . o . 1) = . 3. ii) Encuentre la funci´n de densidad de Z = XY . y) = xe−x(y+1) . Halle la funci´n de probabilidad condicional de Y o dado que X = i. 2.128 Ejercicios 3. o ii) Halle la funci´n de o probabilidad condicional de X dado que Y = i. . x > 0. Se lanzan dos dados perfectos y distinguibles. La funci´n de probabilidad conjunta de X e Y est´ dada por: o a 1 1 1 1 p(1. . y > 0. La funci´n de densidad conjunta de X e Y est´ dada por o a f (x. 1) = . 5. p(2. 2. 2) = . ii) Halle P (X > Y ). Sea X =el mayor valor obtenido y sea Y =el menor valor obtenido. . y) = (x2 + ). Diga si las variables aleatorias son independientes. p(2. i) Encuentre la densidad condicional de X dado que Y = y y la densidad condicional de Y dado que X = x. Calcule la distribuci´n condicional de U dado que: a) U > a. i = 1. . 2. 7 2 i) Encuentre P (Y > 1 |X < 1 ). o 3. . Justifique su respuesta. Sea U una variable aleatoria uniformemente distribuida sobre (0. Luego u se escoge un n´mero Y del subconjunto de A de n´meros no mayores que X. y) = c(y 2 − x2 )e−y . 0 < x < 1.3 1. 5. 5}.

11. Encuentre (a) E[X]. . e−y y . La densidad conjunta de X e Y est´ dada por a f (x. y luego. sin reemplazamiento. y) = Calcule E[X 3 |Y = y]. y (c) E[X|Y = 5]. La densidad conjunta de X e Y est´ dada por a f (x. y) = Calcule E[X 2 |Y = y].129 8. Una urna contiene 4 bolas blancas y 6 negras. para i = 1. e y e−y y −x . 0 < x < y. 0 < y < ∞. 0 < x < ∞. Halle ´ E[X|Y = i]. 4. Se sacan. 0 < y < ∞. (b) E[X|Y = 1]. 3. 3 bolas. tambi´n sin reemplazamiento 5 bolas. 9. 2. Un dado perfecto es lanzado sucesivamente. Sean X =# bolas blancas en e las primeras 3 extracciones e Y =# bolas blancas en las ultimas 5 extracciones. Sean X =# lanzamientos para obtener un 6 e Y =# lanzamientos para obtener un 5. 10.

130 .

(n) g (z) . . Estudiaremos una forma o muy util de condensar esta informaci´n. para j ≥ 0. . Funci´n Generadora de Momentos. . o aj = P (X = j).1. Evaluando g(z) e e y sus sucesivas derivadas en z = 0 se obtiene g(0) g (z) g (z) g (z) . = = = = a0 a1 + 2a2 z + 3a3 z 2 + . . . . Esto implica que para |z| ≤ 1 la serie g(z) puede ser diferenciada ”t´rmino a t´rmino”.Cap´ ıtulo 4 Teoremas Limite 4. por lo que la serie de potencias g(z) converge siempre que |z| ≤ 1. . . =⇒ g (0) = a1 2a2 + 3 × 2a3 z + 4 × 3a4 z 2 . . =⇒ g (0) = 2a2 3 × 2a3 + 4 × 3 × a4 z . ´ o Para una variable ficticia z ∈ R consideremos la serie de potencias en z g(z) = a0 + a1 z + a2 z 2 + . Sabemos que la funci´n de probabilidad proporciona la o o informaci´n probabilistica acerca de la variable aleatoria.. ai = 1 tenemos que ∞ |g(z)| ≤ i=0 |ai ||z i | ≤ 1 siempre que |z| ≤ 1. =⇒ g (0) = 3 × 2a3 = n!an + n!(n + 1)an+1 z + n!(n + 1)(n + 2)z 2 + . . = Como ∞ i=0 ∞ i=0 ai z i .. =⇒ g (n) (0) = n!an 131 . . . Sea X una variable aleatoria que toma s´lo valores enteros no negativos y sea o su funci´n de probabilidad.

. Sea X una variable aleatoria binomial. . . la esperanza E[X k ] o se denomina momento de orden k ´ k-´simo momento de X.132 Por lo tanto. Por lo que g (z) = np(pz + 1 − p)n−1 =⇒ g (1) = np = E[X] g (z) = n(n − 1)p2 (pz + 1 − p)n−2 =⇒ g (1) = n(n − 1)p2 . Asi mismo la o e k esperanza E[(X − E[X]) ] se denomina momento centrado de orden k de X.1 Dada una variable aleatoria X cuyos valores son enteros no negao tivos. Entonces la funci´n geno eradora de momentos de X es igual a n g(z) = k=0 n k pk (1 − p)n−k z k = n k=0 n k (zp)k (1 − p)n−k = (pz + 1 − p)n .2 Dada una variable aleatoria X y un entero k > 0. Definici´n 4. a partir de la funci´n g se puede obtener la funci´n de probabilidad o o de X evaluando en 0 las sucesivas derivadas de g. X ∼ b(n. p). Si evaluamos las derivadas de g(z) en z = 1 tenemos que g (z) = a1 + 2a2 z + 3a3 z 2 + . o o Definici´n 4.1 1. se define la funci´n generadora de momentos ´ funci´n generatriz de o o o X como la serie de potencias ∞ g(z) = i=0 ai z i . Esto significa que tambi´n pueden obtenerse los momentos de cualquier orden evalue ando las derivadas de la funci´n generadora de momentos en z = 1 o Ejemplos 4. esto significa que la funci´n g en o cierto modo caracteriza la funci´n de distribuci´n de X. . . =⇒ g (1) = ∞ ∞ ∞ iai = E[X] i=1 g (1) = i=0 ∞ i(i − 1)ai = i=0 i ai − i=0 2 ∞ iai = E[X 2 ] − E[X] g (1) = i=0 i(i − 1)(i − 2)ai .

. Supongamos que n = 2. . Entonces k k k P (X1 +X2 = k) = j=0 P (X1 = j. j ≥ 0. donde para o ¯ b cada j ≥ 1. la funci´n de probabilidad de X se obtiene como P (X = j) = Xj! . Si Y tiene la misma o funci´n generatriz que X entonces o ∞ ∞ i=0 g (j) (0) gX (z) = i=0 ai z i = gY (z) = ∞ i=0 bi z i =⇒ d(z) = ∞ i=0 bi − ai z i = 0. . ∞ l=0 y g(z)h(z) = ∞ j=0 aj z j bk z k = aj bk z j+k = cl z l . . es decir. Demostraci´n 1. . . gX (z) = o o ai z i . Esto implica que d(j) (z) = 0. . donde cl = (a ∗ b)(l) es la convoluci´n (discreta) de a y ¯ Entonces se tiene que la o ¯ b. funci´n generatriz de la suma es o ∞ s(z) = k=0 P (X1 + X2 = k)z k = ∞ k=0 ∞ ∞ ∞ k=0 ck z k .1 La distribuci´n de probabilidad de una variable aleatoria con valores o enteros no negativos est´ univocamente determinada por su funci´n generatriz. e Proposici´n 4. gn sus funciones generatrices. 1 − p k=1 1 − (1 − p)z Teorema 4. + Xn es el producto de las funciones generatrices g1 × g2 × . X2 = k−j) = j=0 P (X1 = j)P (X2 = k−j) = ck = j=0 aj bk−j . 2. × gn . aj = P (X1 = j) y bj = P (X2 = j). . Por una parte sabemos que dada la funci´n generatriz de X. . Entonces la funci´n o generatriz de la suma X1 + . o Supongamos ahora que Y es una variable aleatoria con valores enteros no negativos y con funci´n de probabilidad dada por P (Y = j) = bj . . en particular d(j) (0) = j!(bj − aj ) = 0. k=0 j=0 . aj = bj para todo j ≥ 0.1 Sean X1 . por lo que X e Y estan id´nticamente distribuidas. Sea X una variable aleatoria geom´trica con par´metro p. . La funci´n generadora e a o de momentos de X es ∞ g(z) = k=1 p(1 − p) k−1 k p ∞ pz z = [(1 − p)z]k = . . Xn variables aleatorias independientes con valores o enteros no negativos y sean g1 .133 En este caso E[X 2 ] = n(n−1)p2 +np = n2 p2 −np2 +np =⇒ V ar[X] = E[X 2 ]− E[X] 2 = np(1−p). a o Demostraci´n. Sean a = (aj )j≥1 y ¯ = (bj )j≥1 .

134 Por lo tanto el resultado es v´lido para n = 2. Para n ∈ N cualquiera el resultado se a obtiene por inducci´n sobre n. o Demostraci´n 2. Podemos escribir para z ∈ R: o

g(z) =
j=0

aj z =
j=0

j

P (X = j)z j = E z X ,

por lo que la funci´n generatriz de la variable aleatoria X1 + . . . + Xn es igual a o E z X1 +...+Xn = E z X1 z X2 . . . z Xn = E z X1 E z X2 . . . E z Xn = g1 (z) . . . gn (z) donde gi es la funci´n generatriz de Xi . o

Ejemplos 4.2 1. Sea X la variable aleatoria binomial negativa con par´metros (n, p), es decir X =# a ensayos requeridos para obtener n ´xitos siendo p la probabilidad de ´xito en cada ene e sayo. Entonces X = X1 +. . .+Xn donde Xi =# ensayos requeridos, despu´s del ´xito e e i-1, para obtener el i-´simo ´xito. Las variables Xi son independientes y tienen dise e tribuci´n geom´trica con par´metro p y funci´n generatriz g(z); por lo que la funci´n o e a o o generadora de momentos de X es igual a n pz h(z) = g(z)n = . 1 − (1 − p)z Tenemos adem´s que a E[X] = h (1) = n n p2 + p − p2 = . 2 p p

4.1.1.

C´lculo de Momentos. a

La representaci´n de la funci´n generadora de momentos utilizada en la segunda o o demostraci´n de la proposici´n anterior motiva la siguiente generalizaci´n. o o o Sea z = e−t para t ∈ (0, ∞) y sea X > 0 una variable aleatoria. Se define la funci´n generadora de momentos de X como o
 e−xt P (X = x)     {x:P (X=x)>0}    
∞ −∞

si X es discreta

φ(t) = E z X = E e−tX =  

e−tx f (x)dx

si X es continua con densidad f

La funci´n φ se denomina transformada de Laplace de X (´ de la funci´n de densidad o o o f ).

135 Comentarios. - La funci´n generatriz existe siempre que X tome valores no negativos, en el cao so continuo, esto significa que f (u) = 0 para todo u < 0. De lo contrario la esperanza de Z X podria no existir. - Con esta definici´n de la funci´n generatriz no es tan sencillo obtener los valores o o de la funci´n de probabilidad o la funci´n de densidad; sin embargo, al igual que o o en el primer caso estudiado (X > 0 toma s´lo valores enteros), la distribuci´n de la o o variable aleatoria X est´ determinada en forma unica por su funci´n generatriz. a ´ o - Es posible usar la funci´n generatriz para obtener momentos de cualquier orden. De o manera an´loga a lo hecho para g se calcula la derivada de φ y se eval´a en t = 0. En a u el caso discreto se puede calcular la derivada de la serie correspondiente derivando t´rmino a t´rmino. De manera similar en el caso continuo la derivada de la integral e e se calcula como la integral de la derivada del integrando. Esto significa que φ (t) = d −tX d E e−tX = E e dt dt = E[−Xe−tX ].

En el caso en que X es una variable aleatoria discreta se tiene que E[−Xe−tX ] =
{x:P (X=x)>0}

−xe−xt P (X = x).

En el caso en que X es una variable aleatoria continua E[−Xe−Xx ] = Por lo tanto φ (0) = − E[X] φ” (0) = E[X 2 ] ... (n) φ (0) = (−1)n E[X n ] o a Ejemplos 4.3 Distribuci´n exponencial con par´metro λ f (x) = φ(t) = E[e−tX ] =
∞ 0 ∞ −∞

−xe−tx f (x)dx.

λe−λx x ≥ 0 0 x<0
∞ 0

e−tx λe−λx dx = λ

e−(λ+t)x dx =

λ λ+t

136 1 λ 2 E[X 2 ] = φ (0) = 2 λ 2 1 1 ⇒ var[X] = 2 − 2 = 2 λ λ λ La siguiente proposici´n establece una propiedad an´loga a la enunciada en la o a proposici´n 1. o E[X] = − φ (0) = Proposici´n 4.2 Sean X1 , X2 , . . . , Xn variables aleatorias independientes con funo ciones generatrices φ1 , φ2 , . . . , φn . Entonces la funci´n generatriz de X1 +X2 +. . . . , Xn o es igual a φ1 × φ2 × . . . × φn . Demostraci´n. Para i ∈ {1, 2, . . . , n} se tiene que φXi (t) = E e−tXi , por lo que o φX1 +X2 +...+Xn (t) = E e−t(X1 +X2 +...+Xn ) = E e−tX1 e−tX2 . . . e−tXn = E e−tX1 E e−tX2 . . . E e−tXn = φX1 (t) × φX2 (t) × . . . × φXn (t). Definici´n general de la funci´n generadora de momentos. o o Si se consideran variables aleatorias con valores reales (no necesariamente no negativas), la funci´n generadora de momentos se puede definir de dos maneras: o i) φ(t) = E etX , para t ∈ R, siempre que la esperanza exista.

Ejemplos 4.4 Sea X una variable aleatoria normalmente distribuida con media y varianza (µ, σ 2 ), se tiene que
∞ ∞ 2tx −x2 +2xµ−µ2 −(x−µ)2 1 1 2σ 2 dx φX (t) = E[etX ] = √ etx e 2σ2 dx = √ e2 e σ 2π −∞ σ 2π −∞ ∞ 2txσ2 −x2 +2xµ−µ2 ∞ −µ2 −x2 +2xµ+2txσ2 1 1 2σ 2 2σ 2 √ = e 2σ2 e dx = √ e 2σ2 e dx σ 2π −∞ σ 2π −∞ ∞ −µ2 −x2 +2x(µ+tσ2 )−(µ+tσ2 )2 +(µ+tσ2 )2 1 2σ 2 √ = e 2σ2 e dx σ 2π −∞ ∞ −µ2 +(µ+tσ2 )2 x2 −2x(µ+tσ 2 )+(µ+tσ 2 )2 1 2σ 2 2σ 2 √ e e− dx = σ 2π −∞ ∞ (x−(µ+tσ 2 ))2 −µ2 +(µ+tσ 2 )2 t2 σ 2 1 2σ 2 2σ 2 √ = e e− dx = eµt+ 2 σ 2π −∞

En particular si µ = 0

σ = 1 se tiene que φX (t) = e 2

t2

σ2 ) respectivamente se tiene que la 2 2 suma X + Y tambi´n est´ normalmente distribuida con par´metros (µ1 + µ2 .3 Si X y Y son variables aleatorias independientes normalmente o 2 2 distribuidas con media y varianza (µ1 . (4. ii) En el caso en que E etX no existe. donde i = −1. Sigue siendo igualmente v´lida a la propiedad de que la funci´n generadora de momentos de una variable aleatoria o determina de manera univoca su distribuci´n. Esta propiedad puede extenderse por inducci´n a la suma de n variables aleatorias o independientes y normalmente distribuidas.1) Observemos que utilizando la f´rmula de De Moivre: ei u = cos(u)+isen(u) es evidente o itX que |e | = 1 por lo que la esperanza anterior siempre es finita.137 Con esta definici´n de la funci´n generadora de momentos es claro que se cumple o o la propiedad enunciada en las proposiciones 1 y 2. Proposici´n 4.1) se denomina transformada de Fourier de X (´ de o la densidad f ) . σ1 ) y (µ2 . se define la funci´n generadora de momentos o de X como √ φ(t) = E eitX . σ1 + σ2 ) e a a φX+Y (t) = E[et(X+Y ) ] = φX (t)φY (t) = eµ1 t+ 2 t2 σ1 2 eµ2 t+ 2 t2 σ2 2 = e(µ1 +µ2 )t+ 2 2 t2 (σ1 +σ2 ) 2 que es la funci´n generadora de momentos de una variable aleatoria normal con media o σ 2 +σ 2 σ 2 +σ 2 µ1 + µ2 y varianza 1 2 2 . La transformada dada en (4. esto equivale a afirmar que X + Y ∼ N (µ1 + µ2 . 1 2 2 ). Estos hechos se combinan para obtener o la importante propiedad que sigue.

Use la funci´n generadora de momentos para determinar la distribuci´n de X1 + o o X2 + . donde a y b son constantes. c b) f es la densidad uniforme sobre (a. b). λ > 0. c2 d) f es la densidad gamma con par´metros (n. c) f (u) = 2u . c). donde X1 . 0 ≤ p ≤ 1. λ). u ∈ [0. b) P (XY = 0). e a d) Binomial negativa con par´metros (r. Halle la funci´n de distribuci´n o o de X. a En cada uno de los casos anteriores derive para verificar las f´rulas de la esperanza o y la varianza. calcule: a) P (X + Y = 2). t ∈ R y la transformada de Laplace de X como L(t) = E[e−tX ]. Suponga que la funci´n generadora de momentos de una variable aleatoria X o 3(z−1) est´ dada por g(z) = e a . exprese la funci´n generadora de o momentos de Y en t´rminos de la funci´n generadora de momentos de X. a b) Poisson con par´metro λ > 0. Sea X una variable aleatoria normal con par´metros (µ. Calcule P (X = 0). . La funci´n generadora de momentos de una variable aleatoria X est´ dada por o a 1 gX (z) = e2z−2 y la de Y por gY (z) = ( 4 )10 (3z + 1)10 . a a) Calcule E[(X − µ)3 ]. 7. b) Use a) para determinar E[X 3 ]. c) Verifique el resultado obtenido en b) usando la transformada de Laplace o la funci´n generadora de momentos de X. a 4. + Xn . b). Halle la transformada de Laplace para cada una de las siguientes densidades: a) f (u) = 1 . o 5. σ 2 ). Halle la funci´n generadora de momentos de las variables aleatorias siguientes: o a) Binomial con par´metros (n. . 1. f ) Gamma con par´metro λ > 0.1 Dada una variable aleatoria X. . u ∈ (0. . considere la funci´n generadora de momentos de X o tX φ(t) = E[e ]. e o 3. c]. . 2. Si X e Y son independientes. Si Y = aX + b. Xn son variables aleatorias independientes e id´nticae mente distribuidas exponencialmente con par´metro λ a 6. p). a c) Geom´trica con par´metro 0 ≤ p ≤ 1. c) E[XY ]. t ≥ 0.138 Ejercicios 4. 0 ≤ p ≤ 1. a e) Uniforme sobre (a. c > 0. . p). .

n. . j = 1. . Considere n sucesos independientes Aj . . . .139 8. con P (Aj ) = pj j = 1. n. . Halle la funci´n generatriz de la suma e e o de los tres dados. . Denotemos por N el n´mero de estos eventos que ocurren. 9. o . Halle la funci´n generatriz u o de N y calcule E[N ] usando esta funci´n. Halle la probabilidad de que la suma sea igual a 3. . Se lanzan 3 dados sim´tricos e id´nticos.

Sea Sn = X1 + X2 + · · · + Xn . como la frecuencia relativa de ocurrencia del evento. suma de las n primeras Xi ’s.1. .140 4. lo que permite estimar p por Sn para n ”sufin cientemente grande”. 4. variables asociadas con ensayos de Bernoulli). id´nticamente distribuidas y con esperanza finita E[Xi ] = µ e (por ejemplo.. de variables o aleatorias independientes. ıa La idea es la siguiente: Suponga que se tiene una sucesi´n X1 .2.4 Si X es una variable aleatoria con valores no negativos. Definamos Xi = 1 si 0 si A ocurre en i-´simo ensayo e A no ocurre en i-´simo ensayo e entonces la frecuencia relativa Sn en este caso es el promedio de casos en que ocurre n A. entonces o para a > 0 P (X ≥ a) ≤ E[X] a j Demostraci´n 1. a a En t´rminos de las frecuencias relativas consideremos ensayos independientes en e los cuales un evento A ocurre con probabilidad p.2. X discreta P (X = xj ) = pj con o pj = 1 . Esta ley se formular´ para variables aleatorias m´s generales. Desigualdad de Markov Proposici´n 4. 4. X2 . n ≥ 1. Es lo que nos permite aceptar que la probabilidad de que se obtenga una cara al lanzar una moneda legal es 1/2. Esta es una manera de obtener distribuciones emp´ ıricas ampliamente usada. Leyes de grandes n´ meros. en situaciones discretas.2..2. Estudiaremos Sn el comportamiento de los promedios cuando n → ∞. La manera en que se establece esta proximidad se expondr´ m´s adelante. n La Ley de los grandes n´meros establece que estos promedios se acercan a E[Xi ] = u µ. Caso discreto. u Introducci´n o Hasta ahora hemos definido la probablidad de un evento. La Ley de los Grandes N´meros dice que. para n grande u Sn ∼ E[Xi ] = p = P (A) n P (A) ≈ frecuencia relativa de A. Los teoremas de esta secci´n constituyen el fundamento te´rico de esta pr´ctica y por ello o o a se encuentran entre los resultados fundamentales de la teor´ de las probabilidades. por ejemplo Xi no a a tiene que ser ≥ 0.

Suponga que se sabe que el n´mero de art´culos producidos por una f´brica duu ı a rante una semana es una variable aleatoria con media = 50 .5 1. Utilizando la notaci´n de la demostraci´n anterior. a = k 2 > 0. Sea A = {j : xj ≥ a} entonces: P (X ≥ a) = xj p j + j∈A j∈Ac j j∈A pj E[X] = xj p j ≥ j∈A xj p j ≥ j∈A apj = aP (X ≥ a) E[X] . P (|X − µ| ≥ k) = P ((X − µ)2 ≥ k 2 ) ≤ σ2 E[(X − µ)2 ] = k2 k2 Ejemplos 4. a ∞ Caso continuo: P (X ≥ a) = a f (x)dx y se tiene P (X ≥ a) ≤ E[X] = ∞ −∞ xf (x)dx = a −∞ xf (x)dx + ∞ a xf (x)dx ≥ ∞ a xf (x)dx ≥ a ∞ a f (x)dx E[X] ≥ aP (X ≥ a) Demostraci´n 2.5 Desigualdad de Chebyshev o Si X es una variable aleatoria con media finita µ y varianza σ 2 . Como X ≥ 0 se tiene que aχA ≤ XχA ≤ X. Demostraci´n. Como (X − µ)2 > 0 se puede usar la desigualdad de Markov con o y = (X − µ)2 . Utilizando la monoton´ de la ıa esperanza se obtiene E aχA ≤ E XχA ≤ E[X] Lo que implica que aP (A) = aP (X ≥ a) ≤ E X =⇒ P (X ≥ a) ≤ E[X] . Se obtiene: E[(X − µ)2 ] σ2 = 2.141 E[X] = xj pj . a Proposici´n 4. k2 k Nota: Estas desigualdades dan cotas de la probabilidad cuando s´lo la esperanza ´ la o o esperanza y la varianza son conocidas. entonces para cualquier k > 0 P {|X − µ| ≥ k} ≤ (X no tiene que ser > 0 pero E[X] < ∞). sea A = {j : o o o xj ≥ a}.

V ar[X] = 25 a 3 25 y por la desigualdad de Chebyshev: P (|X−5| > 4) ≤ 3×16 ∼ 0. Demostraci´n. P |X − µ| > o P (|X − µ| = 0) = n 1 n ≤ σ 2 n2 = 0 porque σ 2 = 0 |X − µ| > 1 n ≤ n P |X − µ| > 1 =0 n ⇒ P (|X − µ| = 0) = 1. X2 . o e para cada n E y 1 X1 + · · · + Xn = n n E[Xi ] = 1 · nµ = µ n . 75 75 3 (b) P (40 ≤ X ≤ 60) = P (−10 < X −50 < 10) = P (|X −50| < 10) = 1−p(|X −50| ≥ 10) 1 25 P (|X − 50| ≥ 10) ≤ 102 = 4 ⇒ P (40 ≤ X ≤ 60) ≥ 1 − 1 = 3 4 4 2.142 (a) ¿Qu´ puede decirse acerca de la probabilidad de que se produzcan m´s de 75 e a art´culos en 1 semana? ı (b) Si la varianza de la producci´n en 1 semana es igual a 25.6 Si V arX = 0 = σ 2 entonces P (X = E[X]) = 1..10). Demostraci´n. id´nticamente o e distribuidas cada una con media E[Xi ] = µ y varianza σ 2 (ambas finitas).52. Teorema 4.2 Ley d´bil de los Grandes n´ meros e u Sean X1 . . Esto dice que s´lo o o una variable aleatoria constante con probabilidad 1 puede tener varianza 0. una sucesi´n de variables aleatorias independientes. Puesto que {Xi }i≥1 son independientes e id´nticamente distribuidas. Entonces para cada ε > 0 P X1 + · · · + Xn − µ ≥ ε → 0 cuando n n → ∞..2 Aplicaciones de la desigualdad de Chebyshev Proposici´n 4. entonces ¿qu´ puede o e decirse acerca de la probabilidad de que esta semana se produzcan entre 40 y 60 art´ ıculos? Soluci´n o (a) X = # art´culos a la semana ı P (X > 75) ≤ E[X] 50 2 = = . Si X est´ uniformemente distribuida sobre (0. Note que el resultado = correcto es: P (|X − 5| > 4) = 0. entonces E[X] = 5.

n n n Sn X1 + · · · + Xn Aplicando la desigualdad de Chebyshev a = se tiene que n n σ 2 −→0 X1 + · · · + Xn P −µ ≥ε ≤ 2 n→∞ n nε V ar Ejemplos 4.143 X1 + · · · + Xn 1 1 = 2 V arXi = σ 2 . Supongamos que una falla en un sistema mec´nico ocurre de acuerdo a una a distribuci´n de Poisson con par´metro λ > 0. Sea A un evento que ocurre con probabilidad p = P (A) en un experimento dado y Sn = # veces que A ocurre en n realizaciones del experimento. observe que Sn es una variable aleatoria binomial con par´metros (n.6 1. p). En general se tiene que el promedio X1 + · · · + Xn ∼ = E[Xi ]. Se tiene que a Sn Sn P n − p ≥ ε → 0 cuando n → ∞ ⇒ pn = n se aproxima a p cuando n es suficientemente grande. 2. t] est´ dado por X(t) y es tal que a P (X(t) = k) = e−λt ˜ Sea X(t) = Entonces ˜ E[X(t)] = 1 E[X(t)] = t ˜ V ar(X(t)) = 1 V t2 λt t X(t) t (λt)k k! = # fallas por unidad de tiempo. =λ λt t2 ar(X(t)) = 1 λ ε2 t = λ t ˜ P (|X(t) − λ| ≥ ε) ≤ t→∞ −→0 ˜ X(t) es aproximada por su esperanza λ cuando t es suficientemente grande. n . Entonces el n´mero de fallas en o a u un intervalo [0.

01) < 0. Sea X una variable aleatoria tal que E[X] = µ y V ar[X] = σ 2 . (a) ¿Qu´ puede decirse de la probabilidad de que esta semana e el n´mero de objetos defectuosos sea mayor que 25?. . (b) Si la varianza del n´mero de u u objetos defectuosos en una semana es igual a 9. Se toma una muestra al azar y con reposici´n. ı 8.144 Ejercicios 4. Sean X1 . c) ¿Cu´ntos estudiantes tendr´n que tomar el examen e a a final para asegurar. independientes con media igual a 1. Si X es una variable aleatoria tal que E[X] = µ y V ar[X] = σ 2 . d´ una cota de la probabilidad de que se ı e produzcan entre 80 y 120 art´culos. b) Use el Teorema Central del L´mite para aproximar P (X1 + . ı 5. demuestre que o n 1 para α > 0 P (D ≤ α) ≥ 1 − r2 α2 . + X20 > 15). La idea es que la varin able aleatoria puede expresarse como X = µ + (X − µ) donde µ representa la se˜al n (´ equivalentemente µ es una medida de la se˜al aleatoria X y X − µ el ruido. Se sabe que el n´mero esperado de objetos defectuosos producidos en una f´brica u a en una semana es 18. (b) Si la varianza de X es 25. Suponga que X es una variable aleatoria con media y varianza iguales a 20. Sea X una variable aleatoria gamma con par´metros (n. . . a) Use la desigualdad de Markov para acotar P (X1 + . . que el promedio de la clase estar´ entre 12 y 18 puntos? a 7. b) ¿Qu´ puede decirse acerca de la probabilidad de que la nota del estudiante e est´ entre 12 y 18 puntos?. ¿Qu´ tan grande se a e X necesita n para que P (| n − 1| > 0. . . X20 variables aleatorias de Poisson. 9. el radio r = |µ| σ se denomina medida del radio de la se˜al de ruido de X. a) D´ una cota superior para la probabilidad de que la nota de un estudiante sea mayor e que 17. . a efectos de estimar la fracci´n p o o .9. 1). ¿qu´ puede decirse de la probabilidad e de que esta semana se produzcan entre 11 y 25 objetos defectuosos? 6. El n´mero de objetos producidos por una f´brica es una variable aleatoria X con u a media 100. Demuestre que P (|X − µ| ≥ kσ) ≤ k12 . 2. Por experiencia un profesor sabe que la nota del examen final de un estudiante es una variable aleatoria con media de 15 puntos y varianza igual a 5 puntos. + X20 > 15). Si o n |X−µ| definimos D = |µ| como la desviaci´n relativa de X de la se˜al. con probabilidad no menor a 0. 3. . ¿Qu´ puede decirse de P (0 ≤ X ≤ 40)? e 4.01. (a) D´ una cota superior de la probabilidad de que se produzcan al menos e 200 art´culos.2 1.

99. Se desea estimar la probabilidad de falla p en un proceso de producci´n mediante o la observaci´n de n objetos producidos. se sabe que p est´ comprendida entre 0. Nota.145 de hembras en una poblaci´n. . Por informaci´n o o previa que se tiene acerca del proceso. . .1. .1 y 0. .05.01 sea a menor a 0.3.005. . la estimaci´n se har´ con un error menor a 0. . . Se observan n repeticiones independientes de un juego de ruleta. la frecuencia relativa del n´mero de veces que u 1 ocurre la primera docena sea mayor que 3 . 12. elegidos independientemente. o a 10. a Halle el tama˜o n de la muestra para que probabilidad de que la frecuencia relativa n de objetos defectuosos en la muestra difiera del verdadero valor p en m´s de 0. 2. Los resultados posibles en un juego de ruleta son 00. 2. 0. Halle n para que con probabilidad menor que 0. con o n una probabilidad de al menos 0. . 1. Encuentre un tama˜o de muestra que asegure que. 36 y la primera docena consta de los numeros 1. 11.

146

4.2.3.

Convergencia de variables aleatorias.
en

Definici´n 4.3 Una sucesi´n de variables aleatorias X1 , X2 , . . . converge o o probabilidad a la variable aleatoria X, si se verifica que para todo > 0 P |Xn − X| ≥ −→ 0
(P )

cuando

n −→ ∞.

En este caso se usa la notaci´n Xn −→ X (n −→ ∞). o Observemos que en t´rminos de esta definici´n la ley d´bil de los grandes n´meros e o e u puede enunciarse diciendo que la sucesi´n de variables aleatorias Yn = Sn converge o n en probabilidad a la variable aleatoria Y constantemente igual a µ. Definici´n 4.4 Una sucesi´n de variables aleatorias X1 , X2 , . . . converge casi o o seguramente (o con probabilidad 1) a la variable aleatoria X, si se verifica que P Xn −→ X cuando n −→ ∞ = 1. (4.2)

En este caso se usa la notaci´n Xn −→ X c.s. (o c.p. 1). o La expresi´n (4.2) significa que el evento formado por los ω ∈ Ω tales que o
n→∞

l´ Xn (ω) = X(ω) ım

tiene probabilidad cero. Definici´n 4.5 Sean X1 , X2 , . . . y X variables aleatorias con funciones de o distribuci´n F1 , F2 , . . . y F respectivamente. Se dice que Xn converge en distribuci´n o o a X si se verifica que l´ P Xn ≤ x = P X ≤ x ım
n→∞

siempre que x sea un punto de continuidad de F (P (X = x) = 0). Para la convergencia en distribuci´n usamos la notaci´n Xn =⇒ X. o o

4.2.4.

Teorema central del l´ ımite

Teorema 4.3 Sea X1 , ..., Xn , ... una sucesi´n de variables aleatorias independientes o e id´nticamente distribuidas con media µ y varianza σ 2 . Entonces la sucesi´n de e o X1 + · · · + Xn − nµ √ variables aleatorias Yn = converge en distribuci´n a una variable o σ n aleatoria normal unitaria cuando n → ∞. Es decir: 1 X1 + · + Xn − nµ √ ≤ a = Φ(a) = √ σ n 2π
a −∞

n→∞

l´ P (Yn ≤ a) = l´ P ım ım
n→∞

e− 2 dx

x2

147

4.2.5.

Aplicaciones

Antes de presentar la demostraci´n de una de las versiones m´s conocidas del o a teorema central del l´ ımite, el teorema de De Moivre-Laplace, veremos algunas de sus aplicaciones m´s comunes al c´lculo de probabilidades. a a Ejemplos 4.7 1. El n´mero de estudiantes que se inscribe en una clase de psicolog´ es una u ıa variable aleatoria Poisson con media λ = 100. Si el n´mero de estudiantes u inscritos es mayor que 120 entonces se dividir´ la clase en 2 grupos ¿Cu´l es a a la probabilidad de que esto pase? X = # estudiantes P (X > 120) = e−100
∞ k=120 (100)k . k!

Esta suma es dif´cil de calcular, por lo tanto usando el hecho de que la suma de ı variables independientes de Poisson, con par´metros λ1 y λ2 es una variable de a Poisson con par´metro λ1 + λ2 se tiene que a X = X1 + · · · + X100 donde Xi Poisson λ = 1 para i ≥ 1 variable aleatoria independientes. Se puede usar el teorema central del l´ ımite para obtener una aproximaci´n de la probabilidad deseada. Observe que E[Xi ] = 1 = V ar[Xi ]. o P (X > 120) = P (X1 + · · · + X100 > 120) X1 + · · · + X100 − 100 × 1 120 − 100 √ = P > √ 1 × 100 100 X − 100 = P > 2 ∼ 1 − Φ(2) = 0,0228. 10 2. Si Xi , i = 1, ..., 10 son variables aleatorias independientes uniformemente distribuidas sobre (0,1). Calcule una aproximaci´n a P o Se tiene que E Xi =
1 0 10 i=1

Xi > 6 . x3 3 1 = ; 3

xdx =

x2 2

1 0

=

1 2

y

E Xi2 =

1 0

x2 dx =

1 0

1 1 1 por lo tanto V ar Xi = − = . Aplicando el teorema central del l´mite se ı 3 4 12 tiene que √ 10 1 10 10 6−5 12 i=1 Xi − 10 × 2 i=1 Xi − 5 √ P ( Xi > 6) = P > √10 = P >√ 1 10 √ √ × 10 10 i=1 12
12 12

∼ 1 − Φ( 1,2) = 1 − Φ(1,09545) ∼ 0,16.

148

Teorema Central del L´ ımite
Teorema 4.4 (Teorema de De Moivre-Laplace) Sea (Xn )n≥1 una sucesi´n de variables aleatorias independientes de Bernoulli con o probabilidad p de ´xito. Sea Sn = # ´xitos en n ensayos de Bernoulli. Para q = 1−p, e e y constantes a < b cualesquiera se cumple que Sn − np 1 l´ P a < √ ım ≤ b = Φ (b) − Φ (a) = √ n→∞ npq 2π Comentarios: 1. Para todo i ≥ 1 E[Xi ] = p = µ y V ar[Xi ] = pq. 2. Para cada n ≥ 1, Sn es una variable aleatoria binomial con par´metro (n, p). El a teorema de De Moivre-Laplace establece que es posible aproximar una variable aleatoria binomial por una normal con par´metros (np, npq) a Preliminares 1. La F´rmula de Stirling. o Lema 4.1 Cuando n −→ ∞, se cumple que n n√ n! ∼ 2πn. e Comentario. La f´rmula de Stirling implica que o n k n! = ∼ k!(n − k)! =
k n b a

e−x

2 /2

dx

k e

n e

2πn 2π (n − k)

2πk

n−k e

n−k

n k

nk n nn−k 1 · · n−k · k k (n − k) k 2π (n − k) n−k n k n 1 n ∼ k n−k 2π k(n − k)

2. Lema 4.2 Sea Sn una variable aleatoria binomial con par´metros (n, p) y sea a q = 1 − p, sea k − np 0≤k≤n xn,k = xk = √ npq Para A > 0 dado se define SA = {k : |xk | ≤ A}. Entonces si k ∈ SA se cumple que 1 2 n e−xk /2 , P (Sn = k) = pk q n−k ∼ √ k 2πnpq para n suficientemente grande. Sobre SA la convergencia es uniforme.

De (4. Sea k ∈ SA . nq nq nq por lo cual n − k ∼ nq (4. k ∼ np. 2πnpq k k nq n−k nq n−k nq n−k n−k n−k n−k Para demostrar el lema ser´ entonces suficiente demostrar que a np k Sabemos que np = k − √ k nq n−k n−k ∼ e−xk /2 . Por otra parte √ √ n − k = n − np − npqxk = nq − npqxk √ √ npq p n−k = 1− xk = 1 − √ xk −→ 1 cuando n → ∞.4) (4.3) y (4.149 √ Demostraci´n. k k n−k n−k . 2 √ npqxk y nq = n − k + npqxk lo que implica que √ √ npqxk npqxk nq np =1− y =1+ .4) se deduce que (para n suficientemente grande) k(n − k) ∼ npnq.3) para n suficientemente grande. Usando la formula de Stirling tenemos que (para n suficientemente grande) n k pk q n−k ∼ = ∼ = n k np k np k np k k n n−k k n−k 1 n pk q n−k 2π k(n − k) n 1 2π k(n − k) n 2πnpnq 1 √ . por definici´n de xk se tiene que k = np + npqxk lo que o o implica que √ √ npq q k =1+ xk = 1 + √ xk −→ 1 cuando n → ∞. np np np es decir que.

n−k Recordemos que usando la f´rmula de Taylor se obtiene la aproximaci´n o o n x2 x3 x4 n−1 x ln(1 + x) ∼ x − + − + . Sn = k npq = Sn − np P a< √ ≤ b|Sn = k P (Sn = k) .. k k 2k 2 √ √ npqxk npqxk npq(xk )2 (n − k) ln 1 + = (n − k) − + . + (−1) . 2 3 4 n Aplicando esta expresi´n a los t´rminos del lado derecho de la ultima igualdad se o e ´ obtiene √ √ npqxk npqxk npq(xk )2 k ln 1 − = k − − + . 2 k n−k 2 np k k Por lo tanto nq n−k n−k ∼ e−xk /2 .. Se tiene entonces que ln np k k √ nq n−k n−k npq(xk )2 √ npq(xk )2 √ ∼ − npqxk − + npqxk − 2k 2(n − k) 2 2 n x 1 1 x = −npq k + = −npq k 2 k n−k 2 (n − k) k x2 np nq −x2 k = − k · ∼ .k . . .. 2 Demostraci´n del teorema de De Moivre-Laplace.150 Entonces np ln k k nq n−k n−k √ = k ln 1 − npqxk k √ + (n − k) ln 1 + npqxk . n−k n−k 2(n − k)2 siempre que √ npqxk npqxk <1 y <1 k n−k lo cual es cierto para n suficientemente grande ya que en este caso k ∼ np y n−k ∼ nq. o Cuando ocurre el evento {Sn = k} se tiene Sn − np ≤b P a< √ npq n Sn −np √ npq = Xk = Xn.. entonces = P k=0 n Sn − np a< √ ≤ b. npq k=0 .

Sea Sn = e n ensayos de Bernoulli). npq 2π a e−x 2 /2 dx.6) Por otra parte la correspondencia k ←→ xk es 1 − 1 y cuando k var´ de 0 a n ıa √ xk = k−np var´ desde − np hasta nq . o Teorema 4. con probabilidad p de ´xito y sea q = 1 − p. b] en intervalos de longitud Por lo tanto la suma en (4.5 Sea {Xn }n≥1 una sucesi´n de variables aleatorias independientes. √ npq npq npq e−xk /2 (xk+1 − xk ) {a<xk ≤b} 2 (4. Entonces se cumple que l´ P ım 1 Sn − np ≤x = √ √ npq 2π x −∞ n i=1 Xi (=# ´xitos en e n→∞ e−u 2 /2 du. b] ⊆ − np . npq b a de (a. b] forman una partici´n o √1 . ˜ Demostraci´n. de Bernoulli.6) es la suma (inferior) de Riemann de Es decir que b Sn − np 1 2 P a< √ ≤b ∼ √ e−x /2 dx. b] / (4. b] si xk ∈ (a.151 Observando que Sn − np P a< √ ≤ b|Sn = k = npq se tiene Sn − np P a< √ ≤b npq = {a<xk ≤b} 1 0 si xk ∈ (a. Sea Sn = o que i) a1 < x < a2 . npq Para > 0 dado elijamos n´meros reales a1 y a2 tales u .5) P (Sn = k) = {a<xk ≤b} n k pk q n−k √ 1 −x2 /2 e k npq 1 1 2 √ ∼ e−xk /2 = √ 2πnpq 2π {a<xk ≤b} Ahora bien xk+1 − xk = Esto implica que Sn − np 1 P a< √ ≤b ∼ √ npq 2π {a<xk ≤b} k + 1 − np k − np 1 − √ =√ . q nq p y los puntos xk que caen dentro de (a. Tomando n suficientente grande se tendr´ que ıa a npq q p (a. Sn −np √ .

F2 . . . cuando n → ∞. Z2 . o Lema 4. . y ϕ. . Aplicando el teorema de De Moivre-Laplace ˜ 1 − P x < Sn ≤ a2 −→ 1 − Φ(a2 ) − Φ(x) cuando n → ∞ y ˜ P a1 < Sn ≤ x −→ Φ(x) − Φ(a1 ) cuando n → ∞. y F y funciones generadoras de momentos ϕ1 .3. Por otra parte ˜ ˜ ˜ ˜ ˜ {a1 < Sn ≤ x} ⊆ {Sn ≤ x} =⇒ P a1 < Sn ≤ x ≤ P Sn ≤ x ≤ 1−P x < Sn ≤ a2 . e A continuaci´n presentaremos los lineamientos generales de la demostraci´n del o o teorema 4. la cual est´ basada en el siguiente lema que enunciaremos sin dea mostraci´n. Se tiene entonces que ˜ ˜ ˜ ˜ {x < Sn ≤ a2 } ⊆ {Sn > x} =⇒ P x < Sn ≤ a2 ≤ P Sn > x ˜ ˜ ˜ =⇒ 1 − P x < Sn ≤ a2 ≥ 1 − P Sn > x = P Sn ≤ x .152 ii) Φ(a1 ) < 2 y iii) 1 − Φ(a2 ) < 2 . entonces Fn (t) → F (t) para todo t cuando n → ∞ . ϕ2 . Por lo tanto existe N tal que si n > N : ˜ 1 − P x < Sn ≤ a2 ≤ Φ(x) + 1 − Φ(a2 ) + ˜ P a1 < Sn ≤ x ≥ Φ(x) − Φ(a1 ) − =⇒ Φ(x) − Φ(a1 ) − =⇒ Φ(x) − 2 2 2 2 2 y ˜ ≤ P Sn ≤ x ≤ Φ(x) + 1 − Φ(a2 ) + 2 ˜ ≤ P Sn ≤ x ≤ Φ(x) + 2 + 2 − ˜ =⇒ |P Sn ≤ x − Φ(x)| ≤ . Acerca de la demostraci´n del Teorema Central del Limite (para variables o aleatorias independientes e id´nticamente distribuidas). respectivamente. . . · · · y Z variables aleatorias con funciones de distribuci´n o F1 . Si ϕn (t) → ϕ(t) para todo t. .3 Sean Z1.

entonces Fn (t) − → Φ(t) = √ e−x /2 dx. se tiene que ra de momentos de n √ n 2 ϕi (t) = E[etXi ] =⇒ ϕi. i ≥ 1 la funci´n genero o tXi adora de momentos ϕi (t) = E e existe y es finita. es decir. ϕSn (t) = i=1 ϕi t √ n = ϕi t √ n n = ϕ1 t √ n Sea L(t) = ln ϕ1 (t). 0 . n → ∞. n→∞ 2π −∞ Demostraci´n del teorema 3.n a la funci´n generadoo X √ i . Esto equivale a demostrar que t n ln ϕ1 √ n t n L √ n − → t2 /2 − n→∞ − → t2 /2 − n→∞ ´ o Diferenciando L y evaluando en cero las sucesivas derivadas obtenemos L(0) = log ϕ(0) = ln(1) = 0 L (0) = ϕ (0) µ = =µ=0 ϕ(0) 1 ϕ(0)ϕ (0) − (ϕ (0))2 L (0) = = E[X 2 ] − µ2 = E[X 2 ] = V ar[X] = 1 2 (ϕ(0)) Observemos que. ϕ Xi . 1) entonces ϕ(t) = et /2 . Para demostrar el teorema ser´ suficiente demostrar que a n t t2 /2 ϕ1 √n −→ e cuando n −→ ∞. Asumiremos que para cada Xi . como L es continua t l´ L √ ım n→∞ n t = L(0) = 0 =⇒ l´ n ln ϕ1 √ ım n→∞ n = l´ ım L t √ n 1 n n→∞ 0 . El lema implica que si t 1 2 2 − ϕn (t) → et /2 .153 Consecuencia del lema: Si Z ∼ N (0. (I) Supongamos que µ = 0 y σ 2 = 1. Denotemos por ϕi.n (t) = E e i t √n X =E e t √ Xi n t = ϕi √ n n i=1 X √i n n Por lo tanto la funci´n generadora de momentos de Sn = o n est´ dada por a .

Entonces E[Xi∗ = 0] y V ar[Xi∗ ] = 1. Entonces el resultado de la parte (I) vale para las Xi∗ lo que significa que ∗ ∗ X1 + · · · + Xn √ ≤a =P n P Xi − µ √ ≤a =P σ n X1 + · · · + Xn − nµ − √ ≤ a − →Φ(a) n→∞ σ n X1 +···+Xn −nµ √ σ n Nota: Se ha demostrado que para cada a Fn (a) = P − ≤ a − →Φ (a) n→∞ Puede demostrarse que para cada ε > 0. i ≥ 1. existe N tal que |Fn (a) − φ(a)| < ε ∀a siempre que n ≥ N .· · · una sucesi´n de variables aleatorias independientes con o 2 medias µi = E[Xi ] y varianzas V ar[Xi ] = σi . si existe M > 0 tal que P (|Xi | ≤ M ) = 1 para todo i ≥ 1. entonces    (Xi − µi )  i=1   − P ≤ a − → Φ(a)  n→∞ n   2 i=1 n  σi .154 Aplicando la regla de L’Hˆpital o  n→∞ l´ n ln ϕ1 ım t √ n = = n→∞ l´  ım L t t √ ·2 n  n−2 · n3/2   = n→∞  l´ ım L t √ n 2 √ n ·t   l´ ım L n→∞ t √ n t2 2 = L (0) · t2 t2 = 2 2 −µ (II) Caso general. b) Se cumple que ∞ i=1 2 σi = ∞. Sea Xi∗ = Xiσ . i ≥ 1 est´n uniformemente acotadas es decir. Si a a) Las variables Xi . e Enunciamos dos versiones m´s generales del teorema central del l´ a ımite. Es decir que la convergencia es uniforme en a. Teorema Central del L´ ımite para variables aleatorias independientes no id´nticamente distribuidas.6 Sea X1. X2 . Teorema 4.

7 (Lindeberg) Sea X1. u Preliminares.3. · · · e u son variables aleatorias independientes e id´nticamente distribuidas con media µ y e varianza σ 2 .· · · una sucesi´n de varaiables aleatorias ino 2 dependientes con medias µi = E[Xi ] = 0 y varianzas V ar[Xi ] = σi < ∞ i ≥ 1. n (ω) Sin embargo esto no garantiza que si ω ∈ An la sucesi´n Snn = X1 (ω)+···+Xn (ω) se o n mantendr´ ¸erca”de µ para todo m > n. Hemos visto que la ley d´bil de los grandes n´meros establece que si X1 . X2 . entonces para cada ε > 0 P X1 + · · · + Xn −→ − µ ≥ ε −→ ∞ 0 n− − n ¿Qu´ significa esto?. Sea (Xn )n≥1 una sucesi´n de u o variables aleatorias independientes. · · ·. 4. n Sn (ω) =µ n→∞ n es decir. n→∞ Si se cumple la condici´n de Lindeberg entonces o P Sn − ≤ a − → Φ(a). + Xn . ac Un resultado m´s categ´rico lo constituye la ley fuerte de los grandes n´meros. X2 . Ley Fuerte de los Grandes N´ meros. . .155 Teorema 4. n→∞ ςn 4.n = {ω : |Xi | > ςn }. > 0 sea Ai. Entonces con probabilidad 1 n→∞ l´ ım X1 + · · · + Xn = µ. id´nticamente distribuidas y tales que E[Xi ] = e µ. i = 1. entonces E [Sn ] = 0 y V ar [Sn ] = Condici´n de Lindeberg.n − → 0. P ω : l´ ım = 1 . entonces − E Xi2 χAi. Si Sn = X1 + .1.3. a o u Teorema 4. e X1 + · · · + Xn el evento An = {ω : − µ < } tiene una alta probabilidad de ocurrir. Dado o 1 2 ςn n i=1 n i=1 2 2 σi = ςn .8 (Ley Fuerte de los Grandes N´meros). Esta ley afirma que si se toma n suficientemente grande.

m=1 Por otra parte si ω ∈ . Por lo tanto ∞ ∞ ω∈ n=m An = Bm =⇒ ω ∈ m=1 ∞ ¯ Bm =⇒ A ⊆ ∞ Bm m=1 Bm se tiene que ω ∈ Bm para todo m ≥ 1. (ω) 1. como ω pertenece a An para infinitos valores de n. se tiene que para todo m ≥ 1 existe n0 ≥ m tal que ω ∈ An0 . (4.4 (Lema de Borel-Cantelli. Pero antes demostraremos un importante lema. Lema 4. Si A = ω : l´ n→∞ Snn = µ . Si 2. Si ∞ n=1 ∞ n=1 ¯ P (An ) < ∞ se cumple que P A = 0. ¯ ( A se denomina limite superior de los conjuntos {An }). el teorema afirma que para n grande Sn − p es peque˜o y con probabilidad 1 permanecer´ asi.) Sea {An }n≥1 una sucesi´n de eventos en un o espacio de probabilidad. Sea ¯ A = {ω ∈ Ω : ω ∈ An para infinitos valores de n }. P (An ) = ∞ y {An }n≥1 es una sucesi´n de eventos independientes eno ¯ tonces se cumple que ⇒ P A = 1.156 Comentarios.7) An . Entonces 1. Esto en el caso de variables aleatorias de Bernoulli. para todo ω1 ∈ A se cumple que Sn (ω1 ) estar´ arım a n bitrariamente pr´ximo a µ cuando n −→ ∞. m=1 ¯ Sea ω ∈ A. n a n Demostraremos la ley fuerte de los grandes n´meros para variables aleatorias de u Bernoulli. m=1 n=m (4. es decir ω ∈ A. o 2. por lo que ¯ para todo m ≥ 1 existe n1 ≥ m tal que ω ∈ An1 ⇒ ω ∈ infinitos An s .7) equivale a demostrar que ¯ A= ∞ Bm . Comenzamos por demostrar que o ¯ A= Si definimos Bm = ∞ n=m ∞ ∞ An . Demostraci´n.

Supongamos que ¯ A= ∞ m=1 ∞ n=1 ¯ P (An ) = ∞. se o o ϕ(x) .5 Sean ϕ(x) = √1 2π x −t2 /2 dt −∞ e x √1 e− 2 2π la densidad normal. σ 2 = 1. Demostraremos que P (Bm ) = 0 ∀m. de la definici´n de Bm deducimos que o ∞ P (Bm ) ≤ n=m − −→ P (An ) − − − 0. Para t > 0 es claro que o 1− 3 1 ϕ (t) < ϕ (t) < 1 + 2 ϕ (t) t4 t . Basta demostrar que P (Ac ) = 0 ∞ m=1 ∞ c Bm . n ¯ Entonces P Ac ≤ c P (Bm ) = P ∞ n=m m=1 c c P (Bm ). usando la independencia de los Ai s n l n=m tenemos que para cada l ≥ m P Ac = n l n=m P (Ac ) = n l n=m (1 − P (An )) . Entonces. Usando la desigualdad: 1 − x ≤ e−x para x = P (An ) obentemos: c P (Bm ) ≤ P l n=m Ac = n l l l (1 − P (An )) ≤ n=m n=m e−P (An ) = e − n=m P (An ) . m→∞ ¯ ¯ Pero como A ⊆ Bm para todo m entonces P (A) ≤ P (Bm ). l´ ım 2. µ = 0. Ac . Ahora bien. Si ∞ n=1 P (An ) < ∞. cuando l → ∞ se obtiene c 0 ≤ P (Bm ) = P ∞ n=m 2 ∞ Ac ≤ e n − m P (An ) ¯ =0 ⇒P A =1 Lema 4. y sea Φ(x) = la funci´n de distribuci´n normal. ¯ Bm ⇒ Ac = donde c Bm ∞ = n=m Ac n l ⊆ n=m Ac . x cumple que 1 − Φ(x) ∼ Demostraci´n.157 1. Tomando m→∞ l´ ım ¯ ¯ obtenemos que es P (A) ≤ m→∞ P (Bm ) = 0 ⇒ P (A) = 0. cuando x → ∞. Para m dado.

5 ∗ P (Ak ) = P |Sk | > ∗ 2a log k = P Sk > ∗ 2a log k + P Sk < − 2a log k ∼ 1−Φ = 1−Φ ∼ √ 2a log k + Φ − 2a log k 2a log k + 1 − Φ 2a log k = 2 1 − Φ 2a log k 2e 2 2 1 −a −a elog k < elog k = a . Ley fuerte de los grandes n´ meros para variables u aleatorias de Bernoulli. Entonces con probabilidad 1 n→∞ i=1 l´ ım √ Demostraci´n. usando el lema 4. x 2π 4. para valores grandes de x se cumple que 1 e−x 1 − Φ(x) ∼ √ .3. o Teorema 4. Entonces. para a > 1. 1) para valores grandes de k. X2 · · ·. Sea Ak = ω : Sk −kp o kpq Sn =p n √ ≥ 2a log k . una sucesi´n de variables aleatorias de Bernoulli inn dependientes con probabilidad p de ´xito. Entonces usando kpq ∗ √ el teorema de De Moivre Laplace tenemos que Sk = Sk −kp ∼ N (0. a > 1 = √ √ √ k 2 π a log k 2π 2a log k ∞ −2a log k =⇒ k=1 P (Ak ) < 1 < ∞.2.158 Entonces ∞ x 1− 1− 3 ϕ (t) dt < t4 3 −t2 /2 e dt < t4 e−x √ 2π 2/2 ∞ x ∞ x ∞ x ϕ (t) dt < ∞ x 1+ ∞ x 2/2 1 ϕ (t) dt t2 1+ 1 −t2 /2 e (t) dt t2 1 √ 2π ∞ x 1 ϕ (t) dt < √ 2π 1 1 =⇒ − 3 x x < 1 e−x ϕ (t) dt < √ x 2π 2/2 Por lo tanto. Sea Sn = e Xi . a k=1 k ∞ .9 Sean X1 .

Ak = {|Sk | > 2a log k} ocurre s´lo para un n´mero finito de k s. X1 + . Por lo tanto ∀ε > 0 con probabilidad 1. entonces S √n −np √ n pq > √ √ε n pq > √ 2a log n Sn n para n suficientemente grande de donde se obtiene que si se cumple si − p > ε para √ ∗ infinitos valores de n entonces |Sn | > 2a log n para infinitos n s lo cual contradice el ¯ hecho de que P (A) = 0. variables aleatorias independientes con E [Xi ] = 0 y 2 V ar [Xi ] = σi < ∞. entonces con probabilidad 1 cuando n −→ ∞. . Sn − p > ε puede n ocurrir s´lo para finitos n s. n . Por lo tanto.) Sean X1 .10 (Ley fuerte de los grandes numeros para variables aleatorias independientes. . Esto implica que. Si ∞ σ2 i i2 i=1 < ∞. con probabilidad √ ∗ o u 1. . con probabilidad 1 o Sn →p n (n → ∞) Teorema 4. Por otra parte si Sn n − p > ε.159 ¯ Por el lema de Borel-Cantelli se tiene que P (A) = 0. X2 . + Xn −→ 0. . .

estime la probabilidad de que despu´s de 1200 horas e todav´a se encuentre alg´n componente funcionando. Un jugador gana o pierde 1 d´lar con probabilidades p y q respectivamente. Sea E un evento que ocurre o con probabilidad P (E) y Yn =# veces que ocurre E en n ensayos. e e n 6. Tenemos una de esas mone edas pero no sabemos de que tipo es. Sugerencia: √ an + b n → −∞ cuando n → ∞. para n suficientemente grande. Si el o puede (y lo hace) seguir jugando incluso despu´s de haber perdido todo. u 3. a independientemente uno de otro. Demuestre que con probabilidad 1 Yn → P (E) cuando n → ∞. El tama˜o ideal de una clase en una universidad es de 150 estudiantes. para a < 0 y b > 0. Si la moneda es perfecta. Una moneda perfecta es lanzada en ensayos independientes sucesivos. o 4 D´ una aproximaci´n de la frecuencia relativa de ocurrencia de E si el experimento e o se realiza de forma independiente n veces. Dos tipos de monedas son producidos por una f´brica: unas son perfectamente a sim´tricas. Halle una aproximaci´n de P (X = 20). Halle la probabilidad de que el n´mero de estudiantes que asista sea mayor o igual a 150. Se tienen 100 componentes que se usan uno despu´s de otro de manera secuencial. a) ¿Qu´ puede e e decirse de la ganancia acumulada en un n´mero grande de juegos? b) Demuestre que u si el juego no es justo y p < 1/2. Un evento E ocurre con probabilidad 1 en una realizaci´n de un experimento. Sea Sn = el total de caras despu´s de n ensayos.160 Ejercicios 4. n 5. Justifique su respuesta. D´ un estimado de P ( Sn < x).Considere una sucesi´n de experimentos independientes. otras arrojan cara en un 55 % de los casos.3 1. 8. Si el tiempo de vida de cada componente est´ exponencialmente distribuido con media igual a 10 horas. e reemplazando de inmediato un componente cuando este falla. 7. La univern sidad sabe por experiencia que s´lo 30 % de los estudiantes admitidos asistir´. ı u . Para determinar si es perfecta o no hacemos la siguiente prueba estad´ ıstica: lanzamos la moneda 1000 veces y si caen 525 ´ m´s o a caras concluimos que no es perfecta. entonces a medida que el jugador continua jugando su deuda aumenta constantemente con una probabilidad abrumadora. o 2. por lo o a tanto tiene la politica de admitir 450 estudiantes para la mencionada clase. ¿Cu´l es la probabilia dad de que lleguemos a una conclusi´n equivocada? ¿Cu´l si la moneda no es perfecta? o a 4. Sea X =# caras en 40 lanzamientos de una moneda perfecta.

Si ´l juega undefinidae 3 mente. En un dia a especial el casino ofrece fichas gratis a los jugadores que acumulen m´s de 80 puntos a en los primeros 100 juegos. Se tienen 25 componentes electr´nicos cuyos tiempos de vida son variables aleatoo rias independientes exponencialmente distribuidas con media igual a 1 a˜o. (a) ¿Cu´l es la probabilidad de que un a jugador gane las fichas extra si juega en la m´quina roja?. Halle u la probabilidad aproximada de que se requieran al menos 82 extracciones. 14. Al lanzar una moneda 10.500 caras. n 11. e 17. Un dado se lanza hasta que la suma de las caras sea mayor que 300.000 veces est´ comprendido entre 1900 y 2153. ı a 15. Una computadora genera una secuencia de 10000 d´ ıgitos aleatorios. La operaci´n se repite u o sucesivamente hasta que la suma de los n´meros obtenidos sea mayor que 500. (b) Si cada jugador reala iza s´lo 100 jugadas.161 9. Halle la probabilidad de que se requieran al menos 80 lanzamientos. Se lanza un dado perfecto consecutivamente hasta que la suma de todos los valores obtenidos sea mayor que 260. Justifique e u a su respuesta. Se saca una bola al azar. Halle la probabilidad de que se requieran al menos 65 lanzamientos. 12. ¿cu´l es la probabilidad de que los primeros 8 jugadores en la o a m´quina roja no obtengan las fichas extra? a 10. halle la probabilidad de que los 25 componentes tengan un tiempo total de vida que oscile entre 30 y 40 a˜os.000 veces se obtuvieron 5. d´ un valor aproximado del n´mero promedio de juegos que ganar´. 13. Un apostador tiene probabilidad 1 de ganar en una jugada. Encuentre k tal que la probabilidad de obtener entre 490 y k veces cara en 1000 lanzamientos de una moneda perfecta sea 1 . Halle la probabilidad de que el d´gito 7 aparezca m´s de 968 veces. En una m´quina de juego se gana o pierde 1 punto en cada jugada. Una bolsa contiene 10 bolas numeradas del 1 al 10. . 2 18. Los jugadores experimentados saben que en la m´quina a 4 roja la probabilidad de ganar un juego es 5 . se anota el n´mero y se coloca la bola de nuevo en la bolsa. Calcule una aproximaci´n de la probabilidad de que el n´mero de 6 obtenidos o u al lanzar un dado perfecto 12. ¿Se puede suponer que la moneda es legal? 16. Si se usa n s´lo uno de estos componentes a la vez y cada componente da˜ado se reeplaza inmedio n atamente.

162 .

No ha sido publicado. Revert´ (1983) . 163 . A First Course in Probability. Ed. UCV (2003). ı a Ed. Feller. 3rd. Limusao ı Wiley (1973). Notas del Curso de Probabilidades. Escuela de Matem´ticas.M. Ortega.Chung. Olivares Notas de Probabilidades.Bibliograf´ ıa [1] K. e [2] W. Teor´a Elemental de la Probabilidad y de los Procesos Estoc´sticos. Ross. a [4] S. [3] M.L. [5] J. Introducci´n a la Teor´a de Probabilidades y sus Aplicaciones. Macmillan (1988).

Sign up to vote on this title
UsefulNot useful