You are on page 1of 489

http:leeydescarga.

com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

,//*PROBABILIDAD
Y APLICACIONES
ESTADSTICAS
Edicin revisada
Paul L. =er
Wushington Stute University
"
"

Versin en espaol

Carlos Prado Campos


Universidud Cutlica de Chile
'

Con la colaboracin de

Germn Ardila Cullar


Universidud Nucional de Colombiu
Edicin revisada y corregida por
Sergio Octavio Esparza
Instituto Politcnico Nacional, Mxico

Y
Ral Montes de Oca M.
Universidad Autnoma Metropolitana
Unidud Iztupcdapa, Mxico

*
vv

ADDISON-WESLEY IBEROAMERICANA
Argentina Brasil Chile Colombia Ecuador Espana
Estados Unidos Mexico Per Puerto Rico (1 Venezuela

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

Versin e n espaol de la segunda edicin de la obra IntroductoT P1-obability


a w l Statistical A~,l,lications, d e Paul L. Rleyer, publicada originahnente e n inql6s por Addison-Wesley Publishing Company, Inc., Reading, hlassachusetts,
E.U.A. 0 1 9 7 0 .
Esta edici6n en espaol es la nica autorizada
6,
i
,

.1.
<

Diseo de portada:Arrnando Jimnez

@ 1973 por Fondo Educativo Interamericano


@ 198G, 1992 por ADDISON-WESLEY IBEROAMERICANA, S. A.
Wilmington, Delaware, E.U.A.

Impreso enlos Estados Unidos. Printed i n the U.S.A.


ISBN 0-201-5 1877-5
4 5 6 7 8 9 lO-CRs-9796S594

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

Prlogo a la edicin en espaol


El creciente empleo d e la estadstica en diversas reas del conocimiento
hace cada vez m& imperiosa l a necesidad de contarcon textos adecuados para iniciarel estudio deesta disciplina. En consecuencia, creoque
la traduccin d e esta obra del profesor Paul Meyer vendr a satisfacer
dicha demanda entre los estudiantes d e habla hispana. Mi experiencia
pedaggica en escuelas d e ingeniera y d e matemticas con estudiantes
que por primera vez toman un curso deestadstica me indica que este
de prciblemas aplicados d e actuatesto, que contiene una gran variedad
lidad, muchos ejemplos desarrollados
y comentarios tiles acerca d e los
aspectos tericos d e la materia, es fundamental paral a comprensin d e
un curso d e esta naturaleza.

Suntiugo de Chile
1973

http:leeydescarga.com/libreria

CARLOS
PRADO
CAMPOS

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

Prlogo a la edicin revisada


La calurosa acogida que recibi
la edicin en espaliol d e esta obra
Nos dimospuesa la
nos impulsamejorarlaendiversosaspectos.
tarea de revisar el texto nuevamentey corregir las erratas de la edici6n
previa. Durante esta labor contamos con el apoyo incondicional del Dr.
Sergio Octavio Esparza, del Instituto Politcnico Nacional, Mxico,
y
del M. e n C. Ral Montes d e Oca M., d e la Universidad Autnoma
Metropolitana, unidad Iztapalapa, Mxico, a quienes agradecemos su
valiosa colaboraci6n.
Deseamos manifestar tambin quela presente edicin es un homenaj e pstumo a nuestro autor, el DI-. Paul L. "eyer.

Mxico, 1992

http:leeydescarga.com/libreria

ADDISON- W E S L E Y
IBEROAMERICANA

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

Prefacio a la primera edicin

Este texto est destinado para u n curso de un scmestreo para dos cursos trimestrales de introduccin ala teora dlc la probabilidad y algunas
de sus aplicaciones. El prerrequisito es un mo d c clculo diferencial e
o estadstiintegral. No se supone conocimiento prcvio de probabilidad
ca. E n la Mhshington StateUniversity, cl cuIso para cl cual se desarroll6
este texto ha sido impartido durantevarios aios, principalmente a estudiantcs que se especializarn cn ingcnierao en ciencias naturales. La
mayora d e ellos slo pucdcn dcdicar un semcstrc a l estudio de esta materia. Sin enlbargo, comoya cstin hniliarizados con cl clculo, pueden
empczar dicho cstudiom i s allh clcl nivel estrictamente elemental.
Muchos tcmas matcmriticos pucden prcsentarse en diversos grados
de dificultad, y esto es cspecialmente en probabilidad. En este texto
sc pretende aprovechar la ventaja que suponcn los conocimientos matemticos del lector, sin sobrepasarlos. En (51 sc usa un lenguaje matemlico prcciso, pero se tiene cuidadod e no prorundizar demasiado en
dctallcs matemticos innecesarios. e s t e n o es ciertamente u n libro d e
cocina. Aunque se prescntan y exponcn varios conccptos de manera
informal, las dcfinicioncs y los teoremas sc enuncian con cuidado. Si
no es posible o deseable la dcmostracin detallada de un teorema, al
menos se da 1111bosquejo d e las ideas mhs importantes. Una de las caractersticas distintivasd e este textoson las Observaciones que siguen
a la ma)-ora de los teoremas y definiciones; en cllas, el resultado particular o el conccpto prcsentado se esamin;an desde un punto d e vista
intuitivo.
Dcbido ala restriccin autoimpuestade escribir un testo relativamente b r e w sobrc una matcriaquc abarca una extensa rea,
h l h o necesidad
de hacer una sclcccin para incluir o excluir cicrtos temas. Parece scr
que no hay manera obvia d e resolver estc problcma. Ciertamente, no
sostengo que para algunos de los temas excluidos no se podra haber
encontrado sitio, ni prctendo que no haya alguna parte que se pudiera
haber omitido. Sin embargo, en gran partese ha hccho hincapik en las
nociones Tkdamentales, presentirdolas con detalle considerable. S610
el captulo 11, sobre confiabilidad, puede considerarse artculo de lujo; pero, aun aqu, creo que las nociones asociadas con problemas d e
confiabilidad son d e inters para muchas personas. Ademhs, los con-

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

vi Prefacio a la primera edicwn


ccptos de confiabiliclad son u11medio excelente para ilustrar muchasd e
las ideas prescntadas antes q1le ellos en el libro.
Arln si se picnsa qllc l a cxtcnsiGn ha sido limitada por el tiempo disponible, se ha logrado ulla sclccci6n amplia y razonable d e temas. Una
ojeada al nclicc general muestra dem a n e r a evidente que unas tres cuartas p a r t e s del texto trata de temas probabilsticos, mientras la cuarta
parte restante est5 dedicada a una esposicin d e inferencia estadstica. Aunque no hay nada de extraordinario en esta divisin particular
dcl knfasis entre probabilidad y estadstica, creo que un conocimiento
profundo de los principios lhicos de la probabilidad es imperativo para una comprensi6n adccuada delos nlbtodos estadsticos. Idealmente,
a un curso en probalilidad debera seguir otro en teora
estadstica y
metodologa; sin embargo, como se indic antes, la mayora d e los estudiantes que toman este curso no tienen tiempo para dos semestres
de
esposicin d e estas materias y, por tanto, me sent obligado a exponer
a l menos algunos d e los aspectos ms importantes en el rea general d e
la inferencia estadstica.

El xito potencial dc una presentacin particular de


la materia no debera juzgarse solamente enf u n c i h d elas ideas especficas aprendidas
y de las tkcnicas especificas atlquiritlas; el juicio final tambin debe tener
en cuenta si cl cstudiante est5 bien preparado para continuar estudiando el tema ya sea por s mismo o por medio de un curso formal adicional.
Si se considera que este criterioes importante, se hace evidente que debiera insistirse en los conceptos bhicos y en las tcnicas fundamentales,
rclcgando al mismo tiempo los mtodos y temas muy especializados a
un papel secundario. Esto tan1bii.n result ser un factor importante en
l a decisin sobre los temas por incluir.
Es dificil exagerar la importancia d e la teora d e la probabilidad. El
modelo matemtico apropiado
para el estudio de un grannmero d e fenBmenos observables es probabilstico en vez de determinista.AdemLis,
el tema completo d e la inferencia estadstica est basado en consideraciones probal)ilsticas. Las tcnicas estadsticas se cuentan entre algunas
d e las herramientas ms importantes de cientficos e ingenieros. Para
poder utilizar esas tbcnicas inteligentemente se requiere una profunda
comprensicin de los conceptos probabilisticos.
Se espera que, adenls de Gmiliarizarse con muchos mtodos y conceptos especficos el lector desarrolle cierto criterio: pensar probabilsticanlente sustituyendo preguntas tales como: (Durante cunto tiempo
funcionar5 este mecanismo? por (Cules la probabilidad de que este

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

Prefacio a la primera edicin vii

mecanismo funcione durante ms de cien horas?. En muchas situaciones, la segunda pregunta puede no slo ser la ms atinada sino, d e
hecho, la nica pertinente.
Como es ya tradicional, muchos d e los conceptos importantes d e
la probabilidad se han ilustrado con la ayuda de varios tjuegos d e
azar: lanzar monedas o dados, sacar cartas de una baraja, hacer girar
una ruleta, etc. Aunque no he evitado por completo referirme a tales
juegos, porque sirven para ilustrar bien nocionesbsicas, he intentado
poner en contactoal estudiante con ilustraciones ms pertinentes
d e las
aplicaciones d e la probabilidad: la emisin d e partculas (Y de una fuente
radiactiva, muestre0 d e lote, la duracin de instrumentos electrnicos
y los problemas asociados d e mecanismos y confiabilidad del sistema,
etctera.
Estoy reacio a mencionar una
d e las caractersticas ms obvias en
cualquiertexto d e matemticas: los problemas; y, sinembargo, es
posible que valga la pena sealar que trabajar con problemas debe
considerarse parte integrante del curso.Slo mediante el acto personal
de plantear y resolver los ejercicios, es colno el estudiante tendr la
posibilidad d e desarrollar una comprensin y apreciacin d e las ideas,
as como familiarizarse conlas tcnicas pertinentes. Es por eso que enel
libro se incluyen ms d e 330 problemas y, al final del texto, figuran las
respuestas a ms d e la mitad d e ellos. Adems d e los problemas para cl
lector, hay muchos ejemplos resueltos en diferentes partesloalargo del
libro.
Este libro se ha escrito
en forma bastante consecutiva:
la comprensin
d e la mayora d e los captulos requiere familiaridad con los anteriores;
sin embargo, es posible tratar superficialmentelos captulos 10 y 11 si se
est interesado, en particular, en dedicar ms tiempo a las aplicaciones
estadsticas examinadas en los captulos 13 a 15.
Como debe suceder a quienquiera que escribe un texto, debo estar
agradecido a muchas personas: amis colegas, por muchas conversaciones estimulantes y tiles; a mis propios profesores, por el conocimiento
del tema y su inters en I; a los revisores d e las primeras versiones
del manuscrito, porsus muchas sugerenciasy crticas iltiles; a AddisonWesley Publishing Company, por su gran ayuda y cooperacin desde
las primeras etapas de este proyecto hasta su finalizacin; a la sefiorita
Carol Sloan, por ser una mecangrafa muy eficientey activa; a D. Van
Nostrand, Inc., T h e Free Press, Inc. y Macnnillan Publishing Company,
por su autorizacin para reproducirlas tablas 3, 6 y 1 del apndice,respectivamente; a McGraw-I Iill Book Company, Inc., Oxford University

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

viii Prefacio a la primera edicin


Press, Inc., Pergamon Press, Ltd. y Prentice-Hall, Inc., por su autorizay, finalmente, ani esposa,
cin para incluir ciertos ejemplos en el texto;
no slo por la paciencia que mostr durante milabor, sino tambin por
dejarme y llevarse a nuestros dos hijos a visitar a sus abuelos durante dos cruciales meses de verano, en los cuales pude convertir nuestro
hogar en untaller desordenado pero tranquilo, del cual emergi milagrosamente, al fin, la ltima versin d e este libro.
PAULL. M E Y E R

Pullmnun, Washington
Abril, 1965

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

Prefacio a l a segunda edicin


En vista del considerable nmerode comentarios favorables quehe recibido durante los ltimos alios tanto de estudiantes como d e profesores que han utilizado la primera edicin d e este libro, se han hecho en
I relativamente pocos cambios. Con el uso repetido del testo he encontrado que su organizacin bsica y el nivel general de presentacin
(como la mezcla de argumentos matemticos rigurosos con presentaciones y ejemplos ms informales) son los ms apropiados para el tipo d e
estudiante que toma este curso.
Sin embargo, se han hecho varios cambios y adiciones. En primer
lugar se hizo u n esfuerzo para eliminar varias erratas de imprenta y
otros errores que aparecieronena
l primera edicin. El autor est muy
agradecido a los numerosos lectores que no slo descubrieron algunos
de ellos, sino que se interesaron lo suficiente como para indicrmelos.
En segundo lugar se intent hacer ms claras las relaciones entre
variasdistribuciones d e probabilidades,demodoque
el estudiante
pueda comprender mejor cmo usar
varios modelos probabilsticos para
aproximarlos entres.
Finalmente, se han aiiadido nuevos problemas a
la ya larga lista
incluida en la primera edicin.
El autor desea agradecer nuevamente Addison-Wesley
a
su cooperacin en todos los aspectos que condujeron aesta nueva edicin.

Pullman, Washington
Diciembre, 1969

http:leeydescarga.com/libreria

P. L. M.

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

ndice General

Captulo 1 Introduccin a la probabilidad


1.1
1.2
1.3
1.4
1.5
1.6

1.7
1.8

Modelos matemticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Introduccin a los conjuntos .....................
Ejemplos de experimentos no deterministas . . . .
El espacio muestral ...............................
Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Frecuencia relativa................................
Nociones bsicas de probatbilidad . . . . . . . . . . . . . . . .
Varias observaciones...............................
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo 2 Espacios muestrales finitos


2.1
2.2

El espacio muestral finito .........................


Resultadosigualmenteprobables . . . . . . . . . . . . . . . .
2.3Mtodos
deenumeracin ........................
Problemas .........................................

Captulo 5 Probabilidad condicional e


independencia
3.1Probabilidadcondicional
.........................
3.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Eventos independientes ..........................
3.4Consideracionesesquemiiticas;
probabilidad condicional e independencia. . . . . .
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

http:leeydescarga.com/libreria

http:leeydescarga.com/libreria

1
1
4
5
10
13
15
17
21
23

27
27
25
31
40

43
43
51
54
GI

63

http:leeydescarga.com/libreria

Captulo 4 Variables aleatorias


unidimensionales
4.1
4.2
4.3
4.4
4.5
4.6
4.7

4.S

Nocin general d e una variable aleatoria . . . . . . . .


Variables aleatoriasdiscretas .....................
I d a distribucinbinomial . . . . . . . . . . . . . . . . . . . . . . . . .
Variables alealoriascontinuas . . . . . . . . . . . . . . . . . . . .
Funcin de distribucinacumulativa . . . . . . . . . . . .
Dist ribucioncsmixtas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variables aleatorias distribuidas
..
unllormemcntc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.,
Una observac~on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo 5 Funciones de variables


aleatorias
5.1
5.2
5.3
5.4

U n eJenlplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eventosequivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variables aleatol-ias discretas . . . . . . . . . . . . . . . . . . . . .
\'n~-iables alcatorins continuas . . . . . . . . . . . . . . . . . . . .
I'roblernas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo 6 Variables aleatorias


bidimensionales y de mayor
dimensin
6.1
6.2
6.3
6.4
6.5
6.6

\'ariaI)lcs aleatorias bidimensionalcs . . . . . . . . . . . . .


Distribuciones d e probabilidades
nlarginalcs y condicionales . . . . . . . . . . . . . . . . . . . . . . .
Variables aleatorias independientes . . . . . . . . . . . . . .
Funcioncs d c 1 1 m varinblc aleatoria . . . . . . . . . . . . .
Distribuci6n tiel producto y del cocicntc d e
variables aleatorias independientes . . . . . . . . . . . . . .
Variablcs alcatorias n.-dinlensionales . . . . . . . . . . . .
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69
69
76
79
55
90
94

97
98

105
105
106
108
111
117

121
121

125

134

137

142
145

148

xiii

h d i c e general

Captulo 7 Otras caractersticas de las


aleatorias
variables
7.1
7.2
7.3
7.4
7.5
7.6
7.7
7.8
7.9
7.10
7.11

El valor esperado de una variable aleatoria . . . . . 153


Esperanza de una funcin de
161
una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variables aleatorias bidimensionales . . . . . . . . . . . . . 166
Propiedades del valor esperado . . . . . . . . . . . . . . . . . . 165
La varianza de una variable aleatoria. . . . . . . . . . . . 175
Propiedades de la varianxa d e
179
una variable aleatoria .............................
Expresiones aproximadas parala
esperanza y la varianza ...........................
132
Desigualdad de Chebyshev .......................
156
El coeficiente d e correlacin .....................
189
Esperanza condicional ............................
194
Regresin del promedio ..........................
197
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
202

Captulo 8 La variable aleatoria de Poisson


y otras variables alleatorias
discretas
S. 1
8.2

153

La distribucin d e Poisson . . . . . . . . . . . . . . . . . .
La distribucih d e Poisson corno una
aproximacin a la distribucin binomial. . . .
s.3 El proceso d e Poisson ........................
s.4 La distribucin geomtrica. . . . . . . . . . . . . . . . . .
8.5 La distribucin d e Pascal ....................
S.6 Relacin entre las distribuciones
binomial y d e Pascal .........................
s.7 La distribucin hipergeomtrica. . . . . . . . . . . .
8.8 La distribucin multinomial . . . . . . . . . . . . . . . .
Problemas ....................................

209
... 209
...
...
...
...

211

215
224

225

. . . 230
. . . 231
. . 233
. . . 234

xiv ttdice getreral

Captulo 9 Algunasvariables aleatorias


continuas importantes
9. I

9.2

9.3
9.4
9.5
9.6
9.7
9.S
9.9
9.10
9.1 1
9.12

239

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
La distribuci6n normal . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propiedades de la distribucicjn normal . . . . . . . . . .
Tabulaci6n d e la distribucibn normal . . . . . . . . . . . .
La distribucih exponencial . . . . . . . . . . . . . . . . . . . . . .
Propiedades d e la distribucidn esponencial . . . . .
La distribucin gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propiedades de la distribucidn gama . . . . . . . . . . . .
La distribucin x-cuadrada . . . . . . . . . . . . . . . . . . . . . .
Comparacin entre varias distribucioncs. . . . . . . .
La distribucin normal bivariada . . . . . . . . . . . . . . . .
Distribuciones truncadas .........................
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo10 La funcin generadora de


momentos

239
239
240
244
249
250
254
255

255

260
261
263
269

275

10.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 La funcin generadora de momentos . . . . . . . . . . .
10.3Ejemplos
de funcionesgeneradoras
d e momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4 Propiedades d e la funcin generadora
d e momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.5 Propiedadesreproductivas .......................
10.6 Sucesiones d e variablesaleatorias . . . . . . . . . . . . . . . .
10.7 Nota final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo11 Aplicaciones a la teora de la


confiabilidad
11.1Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 La ley normal de falla . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3 La ley exponencia1 d e falla . . . . . . . . . . . . . . . . . . . . . . .

275
276
c
215

251

256
291
292

292

297
297
301
303

11.4

La ley exponencial de falla y la

distribucin de Poisson ...........................


11.5 La ley de fallas de \Veibull . . . . . . . . . . . . . . . . . . . . . . . .
11.6Confiabilidad d e los sistemas .....................
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

307
309
311
316

Captulo 12 Sumas de variablesaleatorias323


323

12.1
Introduccin
......................................
12.2 La ley de los grandes nilmcros . . . . . . . . . . . . . . . . . . .
12.3Al~roximacinnormal de la
distribucin binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.4 El teorema de lmite centr.11 ......................
por la
12.5Otrasdistribucionesaproximadas
distribuci6n normal: d e Poisson, de Pascal
y p n a .............................................
12.6 La distribuci6n de la suma de L I ~
nilmero finito d c variables alcxorias . . . . . . . . . . . .
Proble~nas.........................................

Captulo13 Muestras y distribuciones


muestrales

324
327
331

338
339
346

3 49

13.1Introduccin
......................................
...............................
13.2Muestrasaleatorias
........................................
13.3
Estadsticos
13.4 Algunosestadsticos importantes . . . . . . . . . . . . . . . . .
13.5 La transformaci6nintegral .......................
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo14
Estimacin

de parimetros

14.1Introduccin
......................................
14.2Criteriosparaestimados
..........................
14.3 Algunosejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.4 Estimados de mximaverosimilitud . . . . . . . . . . . . .
14.5 El mtodo de los mnimos cuadrados . . . . . . . . . . . .

349
351
354
355
363
3g5

373
373
375

375

354
395

xvi h d i c e general
14.6
14.7
14.8
14.9

El coeficiente d e correlacin . . . . . . . . . . . . . . . . . . . . .
Intervalos de confianza ...........................
la distribucin t de Student . . . . . . . . . . . . . . . . . . . . . .
MAS sobre los intervalos de confianza . . . . . . . . . . . .
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Captulo15 Pruebas de hiptesis


15.1
15.2

15.3
15.4

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Formulacin gencral: distribucin normal
con varianza conocida ............................
Ejemplosadicionales .............................
Prueba para la bondad de ajuste . . . . . . . . . . . . . . . . .
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

399
401
403
406
411

417
417
424
429
434
442

...............................................

447

Apndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

451

Respuestas a problemas seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

465

ndice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

475

Referencias . . . . .

1.1 Modelos matemticos


En este captulo se tratar el tipo de fenmeno del que
nos ocuparemos
en este libro. Adems, formularemos un modelo matem5tico que
nos
servir para investigar este fenmeno en forma bastante precisa.
Al principio es muy importante distinguir entre
el fenmeno observable en s mismo y el modelo matemtico para dicho fenmeno.
Evidentemente, no influimos de manera alguna sobre lo que observarnos; sin embargo, al elegir un modelo, si podemos aplicar nuestro juiJ. Neyman,
cio crtico. Esto ha sido muy bien expresado por el profesor
quien escribi:*
Cada vez que utilizamos las matematicas con el objeto d e estudiar fenmenos observables es indispensable empezar por consLruir un modelo
maten1,itico (determinism o probabilstico) para estos fenmenos. Necesariamente, este modelo debe simplificar Ins cosas y permitir la omisi6n d e

* University of

Press, 1954.

Califomia Publications in Statistics, 7?01. I , University of California

a2 Introdzcccwn
probabilidad la

1.1

ciertos deulles.El xito delmodelo depende desi los detalles que se omitieron tienen o no importancia en el desarrollo de
los fenmenos estudiados.
La solucirin del problema matemtico puede ser correctay an as estar en
desacuerdo con los datos observados, debido sencillamente aque no estaba
probada la validez d e las suposiciones bsicas que se hicieron. Normalmente
es bastante dificil afirmar con certeza
si un modelo matemritico es adecuado
o no, antes de obtener algunos datos, mediante
la obsenracibn. Para verificar
la validez del modelo, debemosdeducir un cierto nmero deconsecuencias
del mismo y luego compararcon las observaciones esos resultados~redichos.

Debemos tener presentes las ideas anteriores al considerar algunos


fenmenos obtenidos en la observacin y los modelos apropiados para
su descripcin. Examinemos primero lo que podra llamarse adecuadamente un modeelo detenninista. A s designamos al modelo que estipula
que las Condiciones en las que se verifica un experimento dcterminan
el resultado del mismo. Por ejemplo, si colocamos una batera en un
circuito simple, el modelo matcrntico que posiblemente describira el
flujo observable de corriente sera I = E / R , que es la ley de Ohm. El
modelo predice el valor d e I tan pronto se dan E y R. En otras palabras, si sc repitiese el experimento anterior cierto nmero de veces,
empleando cada vez el mismo circuito (esto es, manteniendo fijas E y
R), posiblemente hubiEramos esperado observar el mismo valor d e I.
Cualquier desviacin que pudiese ocurrir sera tan pequea que
la mayor parte de los objetivos de la descripcin anterior (que es el modelo)
se cumpliran. La realidad es que la batera, el alambre y el ampermetro utilizados para generar y medir la corriente y nuestra destreza para
usar los instrumentos de medicin dctcrminan el resultado de cada repeticin. (Hay cicrtos factores que muy bien pueden scr distintos de
repeticin CII repeticin y que, sin cmbargo, no afectarn cl resultado
de mancra notable. Por ejemplo, se puede considerar con razn que
la temperatura y la humcdad en el laboratorio, o bien la altura de la
persona quc lee el ampermetro, no tienen influencia en el resultado.)
IIay muchos cjcmplos de experimentos en la naturaleza para los
cuales los modelosdeterministassonapropiados.Porejemplo,
las
leyes gravitacionales describen con precisin lo que sucedea un cuerpo
que cac cn ciertascondiciones.
Las leyes deKepler nosindicanel
comporramicnto de los planetas. En cada caso, cl modelo sefiala que las
condiciones en las cuales se verifican ciertos fenmenos determinan cl
valor d e ciertas variables observables: la nzcgnitud de la velocidad, elrea
recorrida durante cierto periodo d e tiempo, etc. Estas cifras aparecen

1.1

matemticos

Modelos

en muchas de las frmulas con las cuales estamos familiarizados. Por


ejemplo,sabemosqueenciertascondiciones,
la distanciarecorrida
(verticalmente sobre el suelo) porun objeto est dada por:S = -1Gt2
vat, donde vo es la velocidad inicial y t es el tiempo empleado. Lo que
queremos destacar no
es la forma particulard e la ecuacin anterior (que
es cuadrtica), sino el hecho de que hay una relacin definida entret y
S que determina unvocamente la cantidad del primer miembro d e l a
ecuacin, si sedan las del segundo miembro.

En muchoscasos el modelo matematico determinista antes descrito es


suficiente. Sin embargo, hay tambin muchos fenmenosque necesitan
un modelo matem5tico distinto para su investigacin. Esos son los que
llamaremos modelos nodeterministas o probabikticos. (Otro trmino muy
usado es modelo estochistico.) Ms adelante, en este capitulo consideraremos en forma muy precisa cmo se pueden describir tales modelos
probabi.lsticos. De momento consideraremos unos cuantos ejemplos.
Supongamos que tenemos un pedazo de material radiactivo que emite partculas a. Con la ayuda de un dispositivo para medir podramos
registrar el nmero departculas emitidas d,uranteun determinado intervalo d e tiempo. Es evidente que no podemos predecir exactamente
cl nmero de partculas emitidas, aunque sepamos la forma exacta, la
dimensin, la composicin qumica y la masa del objeto que se considera. As no parece haber un modelo determinista razonable que nos
indique el nmero de partculas emitidas, digamos n, como una funcin d e varias caractersticas propias de la fuente de radiactividad. En
s u lugar, debemos considerar un modelo probabilstico.

A manera de otro ejemplo, consideraremos


la siguiente situacin meteorolgica. Deseamos determinar cuantalluvia caer debido a una tormenta que pasa por una zona especfica. Los instrumentos para registrar la cantidad d e lluvia estn listos. Las observaciones meteorolgicas pueden darnos informacin considerable sobre la tormenta que se
aproxima: la presin baromtrica en diversos puntos, los cambios d e
presin, la velocidad del viento, el origeny la direccin d e la tormenta,
as como otros datos tomados a gran altura. Pero como esta informacin tan valiosa es para predecir de modo muy general la forma de la
precipitacin (dbil, regular, intensa), sencillamente no permite saber
con mucha exactitud cunta lluvia caer&. De nuevo, estamos considerando un fenmeno que por s mismo no se presta a un tratamiento
determinista. Un modelo probabilstico describe la situacin con mayor
exactitud.

4a Introduccwn

1.2

En principio podramos indicar cunta


lluvia cay, sila teora se
hubieradesarrollado (lo que no sehizo).
Por lo tanto,usamos un
modelo probabilstico. En el ejemplo relacionado con la desintegracin
radiactiva, debemos usarun modelo probabilstico aun en principio.
A riesgo de adelantarnos a discutir un concepto que se definirms
tarde, indiquemos simplemente que en un modelo determinista se supone que el resultado real(sea numrico o de otra especie) est definido
por las condiciones en las cuales se efecta el experimento o procedilas condiciones
miento. En un modelo no determinista, sin embargo,
experimentales slo determinan el comportamiento probabilstico (ms
especficamente, la distribucin probabilstica) d e los resultados observables.
En otras palabras, en un modelo determinista,
utilizamos consideraciones especficas para predecir el resultado, mientras que en un modelo probabilstico usamos la misma clase d e consideraciones que para
especificar una distribucin d e probabilidades.

1.2 Introduccin a los conjuntos


Con elfin d e discutir los conceptos bsicos del modclo probabilstico que
deseamos desarrollar, ser muy conveniente
tener presentes algunas
ideas y conceptos d e la teora matemtica d e conjuntos. Este tema es
muy extenso y se h a escrito mucho acercad e l. Sin embargo, aquslo
necesitaremos algunas nocionesbsicas.
Un conjunto es una coleccin d e objetos. Comnmente los conjuntos
se designan con letras maysculas A , B , etc. Para describir qu objetos
estn contenidos enel conjunto A, se dispone dctres mtodos.
a) Podemos anotar los elementos d e A. Por ejemplo, A = { 1 , 2 , 3 , 4 }
indica el conjunto que contienelos enteros positivos 1, 2, 3 y 4.
6) Podemosdescribiralconjunto
A con palabras.Porejemplo,
los nmeros reales entre
podramos decir queA est formado por todos
O y 1, inclusive.
c) Paradescribir
el conjuntoanterior,simplementeescribimos
A = {x 1 O 5 x 6 1); es decir, -4 es el conjunto d e todas las x, dond e x es un nmero real comprendido entreO y 1, inclusive.
Los objetos que formanla coleccin del conjuntoA se llaman miembros
o elementos d e A. Cuando a es u n elemento d e A escribimos a E A y
cuando a 110 es un elemento de ilescribimos a A.
IIay dos c o ~ ~ j u n t oespeciales
s
que a menudo son de inters. En la
mayor parte de los problemas estamos interesados en el estudio de un

1.2

Introduccin a los conjuntos

conjunto definido de objetos, y no de otros; por ejemplo, en todos los


nmeros reales, en todos los artculos que salen de unalnea de produc24 horas, etc. Definimos el conjunto universal
cin durante un periodo de
como el conjunto de todos
los objetos que se consideran. Normalmente
este conjunto se designa con U .
Otro conjunto que se debe destacar de maaneraespecial puede aparecer como sigue. Supongamos que
se describe el conjunto A como
el conjunto de todos los nmeros reales x que satisfacen la ecuacin
x 2 1 = O. Evidentemente sabemos que no pueden existir tales nmeros. El conjunto A no contiene ningn elemento!Esta situacin ocurre
tan a menudo quejustifica la introduccin de un nombreespecial para
tal conjunto. Por lo tanto, definimos el con-junto nulo o vacio como el
conjunto que no contiene elementos. En general, este conjunto se designa con 0.
Puede suceder que cuando se consideran dos conjuntos A y B, ser
miembro de A implica ser un elemento d e j9. En tal caso se dice que
A es un subconjunto de B y se escribe A c B . Se da una interpretacin
semejante a B c A . Decimos que dos conjuntos son el mismoA = B, si
y slo si A c B y B c A . Esto es, dos conjuntos son iguales si y s610 si
contienen los mismos elementos.
Las dos propiedades siguientes del conjunto nulo
y del conjunto
universal son inmediatas.
a ) Para cualquier conjunto A, se tiene 0 c A .
b ) Una vez que se ha acordado el conjuntlo universal, entonces para
cualquier conjunto A considerado que est5 enU , tenemos A c U .

EJEMPLO1.1. Supongaque U = todos los nilmerosreales, A =


{ x I x 2 + 2 x - 3 = O}, B = {x I (x - 2 ) ( x 2 22 - 3) = O} y
C = { x I x = -3,1,2}. Entonces A c B y B := C .

Ahora consideremos la importante idea decombinar conjuntos dados


con el fin de formar un nuevo conjunto. Se consideran
dos operaciones
bsicas. stas son paralelas, en ciertos aspectos, a las operaciones d e
suma y multiplicacin de nmeros. Supongamos que A y B son dos
conjuntos. Definamos C como la unidn de A y B (algunas veces llamada
la suma deA y d e B ) d e la manera siguiente:

C = { x I x E A o x E B ( o ambos)}.

6 Introduccwn a la probabilidad

1.2

Esto lo escribimos as: C = A U B. A s , C est formada por todoslos


elementos que estn enA, o en B , o en ambos.
Definimos D como la interseccidn d e A y B (algunas veces designado
como el producto deA y B ) como sigue:

Escribamos esto como D = A n B . Es as como D posee todos los


elementos que estn enA y en B.
Finalmente presentamos la idea del complemento de un conjunto A
como sigue: el conjunto designado por A, formado por todos los elementos que no e s t h en A (sino en el conjunto universal U ) se llama el
complemento de A. Esto es, AC = {x 1 x $! A } .
Se puede usar con mucha ventaja un recurso grfico conocido como
diugramu de Vnn cuando se combinan conjuntos de
l a manera antes
indicada. En cada uno de
los diagramas de l a figura 1.1, la regin
sombreadu representa el conjunto considerado.

AuB

AnB

FIGURA1.1
EJEMPLO1.2. Supngaseque U = {1,2,3,4,5,6,7,8,9,10};
A =
{1,2,3,il},B={3,4,5,6}.I-IallamosqueAC={5,G,7,8,9,10),AUB=
{ 1,2,3,4,5,6}y An B = {3,4}. Ntese que al describir un conjunto (tal
como A U I?) anotamos cada elemento exactamente unavez.
Las operaciones anteriores de unin e interseccin definidas justamente para dos conjuntos pueden extenderse de una manera
obvia para cualquier nmero finito de conjuntos.
As definimos A U B U C como
A U ( B U C ) o ( A U B ) U C, que es el mismo, como fcilmente se puede
verificar. De igual manera, definimos A n B n C como A n ( B n C) o
(AnB)nC que tambin puedeverificarse que soniguales. Y es evidente

1.2

Zntroduccidn a los conjuntos

que podemos continuar esas construcciones de conjuntos nuevos para


cualquier nmero finito d e conjuntos dados.
Afirmbamos que ciertos conjuntos eran l o mismo, por ejemplo A n
( B n C ) y ( A n B ) n C . Resulta que hay varios conjuntos equivalentes,
algunos d e los cuales se indican ms ade1ant:e. Si recordamos que dos
conjuntos son iguales siempre que contenganlos mismos elementos, es
fcil verificar que los enunciados establecidos son verdaderos. El lector
debe convencerse pors mismo con ayudad e los diagramas d e Venn.
U)

C)

AUB=BUA,
Au(BuC) = (AuB)uC,

b) A n B = B n A ,
(1.1)
d ) A n ( B n C ) = (AnB)nC.

Nos referimos a a) y b) como las propiedades conmutativas, y a c) y d )


como las propiedades asociutivas.
Hay otrosconjuntos idnticosque contienen unin, intersecciny complementacin. Los ms importantes se indican a continuacin. En cada
caso, su validez puede verificarse con ayuda de un diagrama de
Venn.

e) A u ( B n C ) = ( A u B ) n ( A u C ) ,
J) A n ( B u C ) = ( A n B ) u ( A n C ) ,

g) A n 8 = 0 ,
h) A U 8 = A ,
j ) ( A n B)' = ACU B C ,

i) (A u B)' = ACn BC,


K)
= A.

(1.2)

Observamos queg) y h ) indican que0 se comporta entrelos conjuntos


(respecto a las operaciones U e n) como lo lhace el nmero cero entre
nmeros (respecto alas operaciones d e sumfay multiplicacin).
Para lo que sigue se necesita una construccin adicional de un conjunto, dados dos (o ms) conjuntos.
Definicin. Sean A y B dos conjuntos. Indicaremos comoelproducto
cartesiano de A y B, escrito como A x B , al conjunto { ( a ,b ) , a E
A, b E B } , esto es, el conjunto de todos
los pares ordenados, donde
el primer elemento se toma deA y el segundo deB .

EJEMPLO1.3. Sea A = {1,2,3}; B = {1,:2,3,4}.


Entonces, A x B = {(1,1),(1.2), . . . , ( 1 , 4 ) , ( ' 2 , 1),. . . ,(2,4),(3,1),
. . . , (37.2)).

Obseruacin: En general, A x B f B x A .

8a Introduccwn

la probabilidad

1.3

La nocin anterior puede extenderse como sigue:si A l , . . . ,A , son


conjuntos, entonces A , x A:!x . . . x A, = { ( a l ,u:!,. . . , u n ) ,a; E A ; } esto
es, el conjunto d e todas las n-tuplas ordenadas.
IJn caso especialmente importante aparece cuando tomamos el productocartesiano deunconjunto consigomismo,esto
es, A x A o
A x A x n . Ejemplos as aparecen cuando nos relacionamos con
el plano
euclidiano, R x R, donde R es el conjunto de todos los nmeros reales
y el espacio euclidiano tridimensional se representa como R x R x R.
El nmero de elementos en un conjunto nos serde mucha utilidad.Si
hay un nmerofinito d e elementos enA , digamos a l , a:!,. . . ,an decimos
que A esfinito. Si hay un nmeroinfinito de elementos enA que pueden
ponerse en unacorresfiondencia uno-a-uno con los enteros positivos, decimos que A es infinito contable o infinito numerable. (Se puede demostrar,
por ejemplo, queel conjunto de todoslos nmeros racionales es infinito
contable.) Finalmente debemos considerar el caso de un conjunto infinito no numerable. Tales conjuntos contienen un nmero infinito d e
elementos que no pueden ser enumerados. Se puede demostrar, por
ejemplo, que para dos nmeros reales cualesquiera b > a , el conjunto
A = { z I a 5 2 5 b } tiene un nilmero no numerable de elementos.
Puesto que debemos asociar con cada nmero real un punto sobre la
recta d e los nmeros reales, lo anterior expresa que cualquier intervalo
(no degenerado) contiene ms de un ntmero contable de puntos.
Los conceptos antes mencionados, aunque representan
slo un breve
bosquejo d e la teora de conjuntos, son
suficientes para nuestro propsito: describir con rigor y precisi6n considerables las ideas bsicas d e la
teora d e l a probabilidad.

1.3 Ejemplos de experimentos no deterministas


Estamos ahora listos para discutir lo que entendemos por experimento
aleatorio o no determinista. (Ms precisamente, daremos ejemplos
de fenmenos para los cuales los modelos no deterministas son apropiados. Esta es una distincin que el lector deber mantener presente.
As nos referiremos fi-ecuentementea experimentos no deterministaso
aleatorios, cuando de hecho estamos hablando de un modelo no determinista para un experimento.) No pretenderemos dar una definicin
precisa d e diccionario para este concepto. En su lugar, daremos numerosos ejemplos quela ilustran.
E1 : Se lanza un dado y se observa el nmero que aparece enla cara
supcrior.

1.3

Ejemplos de experimentos no deterministas

Sc lanza una moncda cuatro vcccs y se cuenta el n i m e r o total


d e caras obtenidas.
Se lanza u n a monctln cuatro veces y se observa l a sucesin d e
caras y scllos obtenidos.
Sc h1)rican artculos cn una lnea de produccin y se cuenta el
nQmcro de artculos dcfcctuosos producidos en un periodo d e
24 horns.
E l ala d c 1111 acroplano se armacon un gran nnm-o de rernachcs. Sc cuenta el nillncrod c rcmachcs defectuosos.
Se fabrica una bonlbilla. Luego se prueba s u duracin conect h d o l a e nun portakn1paras y se anota cl tiempo transcurrido
(en horas) hasta quc se qucnm.
En un lote d e 1 O artculos hay3 dcfectuosos. Se elige un artculo
despus de otro (sin sustituir el artjiculo clegido) hasta que se
obtiene cl illtinlo artculo dcfcctuoso. Sc cuenta el nmero total
de artculos sacados dcl lotc.
Se fabricanartculoshastaproducir
10 no dcfectuosos. Se
cuenta el nmero total de artculos manufkturados.
Se lanza un proyectil. Dcsp1Ii.s de un tiempo dcterminado t , se
anotan los tres componentes dcl a velocidad ' u z , vUyy v2.
Elo: Se observa un proyectil recin lanzadoen ticmpos, t l , t z , . . . ,t n .
En cada o p o r t ~ ~ n i d ased anota l a a'ltura del proyectil sobre el
suclo.
El 1 : hfcdir l a resistencia a la tensin d e m a barra de acero.
El2: De u n a urna que conticne slo esferas negras, se escoge una
esfcl-a y se anota su color.
E13: U n tc1-lngraro marca la temperaturacontinuamenteenun
periodo de 24 horas. En un sitio y en una fecha senlados, "leer"
dicho tcrmcigrafo.
E l 4 : En la situacin descrita cn E13 se anmotan
las temperaturas minima y mxima, 2 y y del periodo de 24 lloras considcrado.

?Qui. ticncn cn comn los expcrilncntos anteriores? Los siguientes


d c un exl):l,pri?nento
aspectos son importantes para nucstra descripcin

aleatorio.
a ) Es posiiblc rcpctir cada cspcl-imcnto en forma indefinidasin cambiar esencialmente Ins condicioncs.
b ) Aunque cn gcncral no podcmos illdi,car cuA ser& un resultado
f m d c u k a r , podemos dcscribir el conjunto de todos los resultados posibles

del expcrinlcnto.

10

Introduccin

a la probabilidad

1.4

c) A medida queel experimento se repite,los resultados individuales


parecen ocurrir en forma caprichosa. Sin embargo, como el experimento se repite un gran nmero deveces, aparece un patrn definido
o regularidad. Esta regularidad hace posible la construccin de un moMs
delo matemtico preciso con el cual analizamos el experimento.
adelante abundaremos sobre la naturaleza e importancia d e esta regularidad. Por el momento,el lector slo necesita pensar en lanzamientos
rcpetidos de una moneda regular. Aunque
las caras y sellos aparecern sucesivamente de maneracasi arbitraria, es bien conocido el hecho
emprico d e que, despus de un gran nmero de lanzamientos,
la proporcin d e caras y sellos ser aproximadamente igual.
Debe notarse que todos los experimentos antes descritos satisfacen
estascaractersticasgenerales.(Porsupuesto,laltimacaracterstica
mencionada solamente se puede verificar por experimentacin; dejaremos a la intuicin del lector creer que si el experimento se repitiese
un gran nmero de veces, la regularidad mencionada sera evidente.
Por ejemplo, si se probase un nmero de
bombillas del mismo fabricante, posiblemente el nmero debombillas quemadas, digamos en msd e
100 horas, podra ser predicha con bastante exactitud.) Ntese que el
experimento E12 tiene la peculiaridad de que slo es posibleun resultado. En general, tales experimentos no sern de inters, porel hecho
de que no sabemos qu resultado particular ocurrir cuandose realice
un experimentoy que lo hace interesante para nosotros.
Obseruacin: Al describir los diversos experimentos, hemos especificado no
slo el procedimiento que se realiza, sino tambin lo que estamos interesados
e n observar (ver, por ejemplo, la diferencia entre E2 y E3. ste es un punto
muy importante al cual nos referiremos ms adelante cuando estudiemos las
variables aleatorias. Por el momento, observemos simplemente que, como una
consecuencia de un solo procedimiento experimental o la ocurrencia d e un
solo fcnmeno, se pudieron calcular varios valores numricos diferentes. Por
ejemplo, si se elige una persona entre un gran grupo
(y la eleccin propiamente
dicha se hace seglin el procedimiento experimental antes indicado), podramos
estar interesados en la altura, peso, ingreso anual, nilmero dehijos, etc., de la
persona. Naturalmente, enIn mayora d e los casos sabemos, antesde comenzar
nuestro experimento, las caractersticas numkricas que nos interesan.

1.4 El espacio muestra1


Definicin. Con cadaexperimento E deltipoqueconsidcramos,
definimos el espucio m u e s t d como el conjuntod e todos los resulta-

1.4

El espacio muestral

11

dos posibles d e E. Usualmcnte designarnos este conjunto como S .


(En nuestro contexto,S representa el conjunto universal descrito
previamente.)
Consideremos cada uno de los experimentos anteriores y describamos el espacio muestrald e cada uno. El espacio muestral S; se referir
al experimento E;.

S1: (1,273, 4,576).


S2 : { 0 , 1 , 2 , 3 , 4 } .
S3 : {Todas las sucesiones posibles de la forma a l , a2, a s , a4 donde
cada ai = C o S segn si aparece cara o sello en el i-simo
lanzamien to}.
S, : {O, 1,2, ..., N } , donde N es el nmero mhximo que se pudo
producir en 24 horas.
S5 : {O, 1 , 2 , ...,M } , donde M es el nmero de remachesinstalados.
S6 : { t I t 2 01.

S7 : {3,4,5,6,7,8,9,10j:
SS : {10,11,12 ,...}.
Sg : { wz, vy ,w 2 , I vz, vy ,vz nmeros reales;}.
2710: h l , ..., hn I h; 2 0,i = 1 , 2 , . . . , n } .
s11: { S I S 2 O}.
S12 : {esfera negra}.
S13: Este espacio muestral es el ms importante
d e los que aquconsideramos. Prcticamente debemos suponer que la temperatura
en cierta localidad especficanunca puede subir
o bajar con relaM y m. Fuera deesta restriccin,
cin a ciertos valores, digamos
debemos admitirla posibilidad d e q u eaparezca cualquier grfica con determinadas caractersticas.Es posible que sta no tenga
saltos (esto es, representar una funcin continua). Adems, la
grfica tendrh ciertas caractersticas (le suavidad que pueden resumirse en forma matemtica al decir que
la grfica representa
una funcin diferenciable. As, finalmente podemos enunciar
que el espacio muestral es

{fI f
514:

una funcin diferenciable, que satisface

m 5 f(t)

5 Al,para toda t } .

{(z,y) I m 5 z 5 y 5 M } . Es decir, ,914 consta detodos


los puntos que estn sobre y en un tringulo en el plano bidimensional z, y.

12

11:

Introducci?t a la probabilidad

( E n este librono nos preocuparemos por los espacios mllcstrales dc la


complejidad encontrada cn S1.3. Sin cmlnrgo, talcs espacios nlllestrales
aparecen, pero para SII estudio sc ncccsitan ~natemfticasmAs avanzadas
que las quc presuponemos.)

A fin dc describir 1111 espacio Inucsrral asociado con u n experimento,


debcmos tcncr una idea 1111ly clara (IC lo qllc mcdirnos u observamos.
Por tanto, deberiamos 11al)lar d c un cspacio Inllcstl-al asociado con un
cspcrimcnto en vez de cl cspacio Inllcstral. A cstc rcspccto obsrvese
l a diferencia cntrc
y S2.
Ntesc tambin qtle cl rcsllltado d c 1111cspc~-inlcntono ncccsita ser
un nilmcro. Por cjemplo, en Ex c a d a I-csulrndo cs una sucesi~l
de caras
y sellos. E n E9 y E 1 0 cada resultado collsistc cn u n \rector, mientras que
cn E13 es una funci6n.
ScrA importante an:tlizar d e n ~ l e ~clonzwcro de rcsultados en un
espacio mucstral. Surgcn tres 1)osiil)ilidatfcs:cl cspacio mucstral puede
ser finito, infinito numcra1)leo i~lfinitono numcrablc. Iicfiribndose a los
ejemplos anteriorcs, notenloscluc S 1 ,
,C3: Sq, $95,S 7 y SI:! son finitos,
S8 es infinito numerable, y S G , Sg, ,$lo, S 1 1 , ,S13 )I ,914 son infinitos no
numerables.
En este punto podra ser iltil comentar l a difcrencia cntrc un espacio muestral matcmticarnentc idcalizadoy uno I-calizablcdc manera
experimental. Para estc prophsito, considcr-amos el cxpcrimcnto E6 y
s u espacio mucstral asociado
Es evidcnte quc cuando anotamos el
tiempo total t durante el cual funciona una bond)illa, somos vctimas
de la prccisi6n de nuestros instrumcntos dc mcdici6n. Supongamos
que
tcnemos un instrumcnto quc
es capaz de marcar el ticmpo con dos
cili-as
decimales, por ejemplo16:43horas. Con esta rcstricci6n impuesta nucstro espacio muestra1 llcga a ser injnito numel-cdle: {0.0,0.01,0.02,. . . }.
Aun ms, es m u y realista suponcr quc ninguna bonhilla puede durar
posiblelncnte ms de I1 horas, donde /I p o d ~ ascr u n nilmero muy
grande. As, parece que si somos conlplcramcntc realistas cn l a descrip,
considel-alldo u n espacio muescin d e estc espacio ~ n u c s t r a l cstamos
t r a l j n i t o : {0.0,0.01,0.02,. . . , H } . El nillncro total d e resultados sera
(11/0.01) + 1, q\Ie scra un nilnlero m t l y grande si I1 es n~ocic~-adan~ente
grande, por ejemplo, 11 = 100. Rcsultal-a matem5ticamente mAs simple y convenicntc sllponcr que todos los valores d e t 2 O son resultados
a l como se dcfini
posibles y, por tanto, considcrar cl cspacio m ~ ~ c s t r$56
en principio.

S,

S,.

1.5

Eventos

13

En virtud delos comentarios anteriores, varios d e los espacios muestrales descritos son ideales. En todas
las situaciones subsiguientes, el
espacio muestral considerado ser el que resulte
ms conveniente en
trminos matemticos. En la mayora de los, problemas no habr muchas dudas en cuantoa la eleccin apropiada del espacio muestral.
1.5 Eventos

Otra nocin bsica es el concepto de un evento. Un eventoA (respecto


a u n espacio muestral particular S asociado con un experimento E) es
simplemente un conjunto de resultados
posibles. En la terminologa d e
conjuntos, un evento es un subconjunto del espacio muestral S. En vista
de nuestra exposicin previa, esto significa que S mismo es u n evento
y tambin lo es el conjunto vaco 0. Cualquierresultadoindividual
tambin puede considerarse como un evento.
Los siguientes son ejemplosd e eventos. Otra vez nos referimos a los
experimentos antes anotados: A; se referiri a un evento asociado con
el experimento E,.

A l : Un nmero par ocurre; esto es, Al := {2,4,6}.


A2: (2); es decir, ocurren dos caras.
A S : {CCCC, CCCS, CCSC, CSCC, SCCC};
es decir, salen ms ca-

ras que sellos.


{O}; es decir, todos los artculos fuerlon no defectuosos.
As: { 3 , 4 , ...,M } ; es decir, ms de dos rernaches fueron defectuosos.
A6: {t I t < 3); es decir, la bombilla s e quema en menos de tres
horas.
A14: {(z,y) I y = z 20}; es decir, el mximo es 20 mayor que el
mnimo.
Aq:

Cuando el espacio muestral S es finito o infinito numerable, todo


subconjuntosepuedeconsiderarcomounevento.
[Es un ejercicio
fcil d e verificar, y que haremos en breve, si S tiene n elementos, hay
exactamente 2n subconjuntos (eventos).l Sin embargo, si S es infinito
no numerable, aparece una dificultad terica.Resulta que no cualquier
subconjunto concebiblese puedeconsiderarcomounevento.Por
razones que escapan al nivel d e esta presentacin, ciertos subconjuntos
no admisibles deben ser excluidos. Por fortuna,
tales conjuntos no
admisibles en realidad no aparecen en las aplicaciones y, por tanto, no
nos interesarn aqu. En lo que sigue se supondr tcitamente que cada

14 Itztroduccin a la probabilidad

1.5

vez que mencionemos un evento ser la


declase que nos est permitido
considerar.
Podemos usar ahora los diversos mtodos para combinar conjuntos
(es decir, eventos)y obtener los nucvos conjuntos (es decir, eventos) que
presentamos con anterioridad.
a) Si A

y B son eventos, A

U I? es

el evento que ocurre si y slo si il o

B (o ambos) ocurren.
b) Si A y B son eventos, A n B es cl evento que ocurre si y slo si A y
B ocurren.
c) Si A es un evento,A es cl evento que ocurre
si y slo si A n o ocurre.
d ) Si z41,. . . , A , cs cualq~liercoleccin finita de eventos, entonces
U=
;,
A; es el evento que OCUI-re
si y slo si al menos uno d e los eventos A;
ocurre.
e ) Si A l : . . . , A , es cualquicr coleccidn finita d e eventos, entonces
ny==,A ; es el evento que ocurresi y slo si todos los eventos Ai ocurren.
J) Si A l , . . . ,A,, . . . es cualquier coleccin infinita (numerable) de
eventos, entonces uEl A ; cs el evento que ocurre si y slo si al menos
uno de los cventos A ; ocurre.
g) Si Al ~.. . , A , , . . . es cualquier coleccin infinita (numerable) d e
eventos, entonces
A l es el evento que ocurre si y slo si todos los
eventos A ; ocurren.
h ) Stlp6ngasc que S reprcscnta el espacio mucstral asociado con un
experimento E y realizarnos E dos veces. Entonces S x S se puede utilizar
para rcpresentar todos los resultados d e csas dos repeticiones. Es decir,
(sl,s2) E S x S significa quc s1 result cuando se realiz E la primera
vez y S? cuando se realiz E la segunda vez.
i) Evidcntcmente, cl ejemplo h se puede generalizar. Consideremosn
repeticiones d c u n espcrimcnto E cuyo espacio muestrales S. Entonces,
S x S x . . . x S = { ( S ] , S ? , . . . ,,S,,),
si E S, i = 1,. . . , T I } representa el
conjunto dctodos los ~-csultadosposibles cuando E se realiza n veces. En
cierto sentido, S x S x . - x S cs un espacio mucstral en si mismo, o sea
cl espacio mtlcstr-al asociado con n repeticiones d e E .

nzl

Definicin. Se dice que dos eventos, A y B son mutuanzente e x c l y e n t e s


si no puedcn ocurrir juntos. Expresamos esto escribiendo
AnB =
0; cs dccir, la intcr-scccibn d e A y B es el conjunto vaco.

EJEMPLO1.4. Se prucbaunartefactoclectrdnico
y seregistrasu
tiempo total deuso, digamos t . Supongamos que el espacio muestral es
{ t 1 i 2 O}. Sean il, 4 y C tres eventos definidos como sigue:

1 .G

Frecuencia relativa

A = {t 1 t

< loo};

B = { t 1 50 5 t 5 200};

C = {t 1 t

15

> 150).

Entonces,

Como se estudi en la seccin anterior, una de las caractersticas


bsicas del concepto de experimento
es que nosabemos qu resultado
si A es u n evento
particular se obtendr al realizarlo. En otras palabras,
A
asociado con el experimento, no podemos indicar con certeza que
ocurrir o no.Por
lo tanto, llega a ser muy importantetratarde
asociar un nmero con el evento A que medir, de alguna manera, la
posibilidad de queel eventoA ocurra. Esta tarea nos conduce a l a teora
de probabilidad.

l .6 Frecuencia relativa
Para motivar el planteamiento adoptado para la solucin del problema
anterior,consideremoselprocedimientos8iguiente.Supngaseque
repetimos n veces el experimento E y sean A y B dos eventos asociados
con E . Sean nA y ng el nmero respectivo de veces que el evento A y el
evento B ocurricron en Ins n repeticiones.

Definicin. fA = nA/n se llamafrecuenci,u reldivadcl eventoA en las


n repeticiones de E . La frecuencia relativa fA tiene las siguientes
propiedades importantes, que son veri,ficables fcilmente.
1) 0 5 fA 5 12) f A = 1 si y slo si A ocurre cada vez en Ias n repeticiones.
3 ) fJi = O si y slo si 4 nunca ocurre en las n repeticiones.
4) Si A y B son dos eventos que se excluyen mutuamente y si filvg

es la frecuencia relativa asociadaal evento A U B, entonces f ~ =


n
fA -k fB.
5) f A , basada en las n repeticiones del experimento y considerada
para una funcin d e n, converge en cierto sentidoprobabilstico
a P ( A ) cuando n + OO.

16a Irttroduccin la probabilidad

1.6

Observacin: La propiedad 5) obviamente est5 indicada d e manera vaga en


este momento. Slo m& adelante (Sec. 12.2) podremos precisar ms esta idea.
Por ahora indiquemos simplemente que la propicdad 5) encierra la nocin
bastante intuitivade quela frecuencia relativa con base en un nmero
creciente
d e observaciones tiende aestabilizarse en la prosimidad de unvalor definido.
Esto no es lo mismo que el concepto corrientede convergencia que se encuentra
en otra parte enmatemticas. En realidad, como se indicaqu, Sta no es del
todo una conclusin matemfitica, sino simplemente un hecho emprico.
La mayor parte de nosotros intuitivamente estamos conscientes d e este fenmeno d e estabilizacin, aunque puede ser que nunca
lo haynmos verificado.
Hacerlo requiere una considerable cantidad de tiempo y paciencia, p que se
necesita un gran nimero de repeticiones de un experimento. Sin embargo,
algunas veces podemos ser observadores inocentes de este fenmeno, comolo
ilustra el siguiente ejemplo.

EJEMPLO1.5. Supngase que estamos parados en una acera y nos


fijamos en dos losas d e concreto adyacentes. Imaginemos que empieza
a llover d e tal manera que realmente podcmos distinguir unas gotas de
otras y les seguimos la pista para averiguarsi caen en una losa o en otra.
Continuamos observandolas gotas individualesy anotamos su punto de
impacto. Simbolizando la i-sima gota por X;, donde X; = 1 si la gota
cae en unalosa y O si cae en la otra, podramos observar una sucesin tal
como 1, 1, O, 1, O, O,O, 1, O, O, 1. Ahora est claro que no podemos predecir dnde caer la gota en particular. (Nuestro experimento consiste
en una especie d e situacin meteorolgica que origina la cada d e las
gotas de lluvia.) Si calculamos la frecuencia relativa del evento A = {la
gota cae en la losa l}, entonces la sucesin anterior d e resultados da
origen a las frecuencias relativas si uientes (con base en la observacin
4 4 4 5
d e 1, 2, 3, . . . gotas): 1,1,32 , T3 , 33 , 3 75 , F,
i5,m,n,.
. . Esos valores muestran un grado considerable de variacin, especialmente a l comienzo.
Intuitivamente es claro que si continuara en forma indefinida el experimento anterior, esas frecuencias relativas se estabilizaran prximas al
Porque tenemos toda la razn para creer que despus de que
valor
haya transcurrido cierto tiempo, las dos tosas estaran igualmente mojadas.
Esta propiedad deestabilidad d e la frecuencia relativa esan una nocin bastante intuitiva y slo m& tarde podremos precisarla matemticamente. Lo importante deesta propiedad es quesi un experimento se
realiza un gran nmero deveces, la frecuencia relativa con que ocurre
un eventoA tiende a variar cadavez menos a medida que el nmero de

i.

1.7

de

bdsicasNociones

probabilidad

17

repeticiones aumenta. A esta caracterstica s e le designa como regulari&d estadisticu.


Tambin hemos sido algo imprecisos en nuestra definicin de experimento. Exactamente, cundo un procedimiento o mecanismo, en el
sentido que le estamos dando, es un experimento susceptible de estudiarse rnatemticamcnte mediante un modelo no determinista? Antes
indicamos que debe ser
posible efectuar un experimento unay otra vez
sin cambiar las condiciones esenciales. Allora podemos agregar otro requisito. Cuando el experimento se realiza repetidamente debe presentar la regularidad estadstica a la que antes nos referimos.Ms adelante
estudiaremos un teorema (llamadola ley d e los grandes nmeros) que
muestra quela regularidad estadstica es en realidad unaconsecueizciu d e
la primera condicin: la repetibilidad.

1.7 Nociones bsicas de probabilidad

Volvamos ahora al problema antes propuesto: asignar un nmero


a
cada evcnto A que medir l a posibilidad dte que A ocurra cuando el
experimento se realiza. Un planteamientoposible podra serel siguiente:
veces, calcular la frecuencia
repetir el experimento un gran nmero de
relativa fA y usar este nmero. Cuando recordamos las propiedades
, claro que este nmero da una indicacin muy definida d e
d e f ~ est
que posibilidad existe de que A ocurra. An ms, como sabemos que
el experimento se repite ms y ms veces, 1.a frecuencia relativa fA se
estabilizacerca de algn nmero, digamos p . Sin embargo, hay dos
objeciones serias a este planteamiento. a) IVo est claro cuan grande
debe sern antes de queconozcamos el nmero. lOOO? 2000? 10 OOO?
b) Una vez que el experimento se ha descrito por completo
y se ha
especificado el evento A , el nmero que buscamos no debe depender
la
del experimentador o de una racha de suerte en particular con
que 1 experimenta. (Por ejemplo,
es posible que con una moneda
perfectamente balanceada quese lanz 10 veces resulte 9 caras y 1 sello.
La frecuencia relativa del evento A = { salen caras} es as igual a m.
9
Aunque es posible que en los 10 lanzamientos siguientes el modelo d e
caras y sellos puede estar invertido.) Lo quc queremoses un medio de
obtener tal nmero sin recurrir a la experimentacin. Por supuesto,
para que el nmero estipulado sea
significativo, cualquier experimento
debera dar una frecuencia relativa cercana al valor estipulado, en
en cuales se calcul
l a frecuencia
especial si el nmero de repeticiones las
relativa es muy grande. Procederemos formalmente como sigue.

probabilidad
18 laIntroduccirt a

1.7

Definicin. Sea E un experimento y S un espacio muestral asociado


con E . Con cada evento A asociamos un nmero real, designado
con P ( A )y llamadofirobahilidad de A, el cual satisfacelas siguientes
propiedades.

1) O 5 P ( A ) 5 1.
2) P ( S ) = 1.
3) Si A y B son eventos que se excluyen mutuamente, P(,4 U B ) =
P(A) P(B).
4) Si A l , A2,. . . ,A,,, . . . son eventos que se excluyen mutuamentede
par en par, entonces

Observemos que dela propiedad 3 se deduce de inmediato que para


cualquier n finito,
/ n

La propiedad 4 no se sigue; sin embargo, cuando consideramos el


espacio muestral idealizado, esta condicin ser necesariay, por tanto,
se incluye aqu.
La eleccin de estas propiedades de la probabilidad est obviamente
motivada porlas caractersticas correspondientesd e la frecuencia relativa. La propiedad antes mencionada como regularidadestadstica, ms
tarde se ligar con esta definicin d e probabilidad. Por el momento
slo demostraremos quelos valores d e P ( A )y f~ estn prximos uno
al otro (en cierto sentido), si f~ se basa en un gran nmero de repeticiones. Este hecho es el que justifica el empleo de P ( A ) para medir la
probabilidad de queA ocurra.
Por el momento nosabemos cmo calcular P ( A ) . Slo hemos anotado
algunas propiedades generales que poseeP ( A ) . El lector deber tener
un poco ms d e paciencia (hasta el prximo captulo), para aprender
cmo calcularP ( A ) .Antes d e volver aeste tcma indiquemos y probemos
varias consecuencias relativas aP ( A ) que se deducen delas condiciones,
y que en realidad no depende de
cmo calculamos P ( A ) .

Teorema 1.1.. Si 0 es el conjunto vaco, entonces P ( 0 ) = O.

1.7

19

probabilidad
Nociones
de
bsicas

Demostracin: Podemos escribir, para cualquier eventoA , A = A U 8. Puesto


que A y 0 son mutuamente excluyentes, de la propiedad 3 se deduce que
P ( A ) = P ( A U 0) = P ( A )+ P(0). A partir deesto la conclusin del teoremaes
inmediata.
Obseruacidn: Ms adelante tendremos ocasin de ver que el recproco del
teorema anterior no es verdadero.
Esto es, si P ( A ~=
I O, en general no podemos
concluir que A = 0, porque haysituaciones en queasignamos probabilidad cero
a un evento que puede ocurrir.

Teorema 1.2. Si A' es el evento complementario de A, entonces

P ( A ) = 1- P ( A C )

(1.4)

Demostracin: Podemos escribir S = A U A' y, usando las propiedades 2 y 3,


obtenemos 1 = P ( A ) P ( A C ) .

Obseruacwn: Este es un resultado muy til porque indica que cada vez que
deseamos calcular P ( A ) en su lugar podemos calcular P ( A C )y obtener el resultado deseado porsustraccin. Despus veremos que en muchos problemas
es & S fcil calcular P ( A C )que P ( A ) .

Teorema 1.3. Si A y B son eventos cualesq:uieru, entonces

P ( AU B ) = P ( A )

+ P ( B ) - P ( : An B ) .

AnB

AnB

FIGURA1.2
Demostracin: La idea d e esta demostracin es, descomponer A U B y B e n
eventos que se excluyen mutuamentey luego aplicarla propiedad 3. (Vase el
diagrama d e Venn en la Fig. 1.2)

20 Introduccin a la probabilidad

1.7

As escribimos

Por lo tanto,

+ P ( B n A"),
P ( D ) = P ( A n U )+ P ( U n 1 F j .

P(Au U )= P(A)

Sustrayendo la segunda ecuacin d e la primera, tenemos

P ( A u U ) - P ( B ) = P ( A )- q . 4 n U )

y, por tanto, se obtieneel resultado.


Obsernaciu: Este teorcma representa una extensin oljvia de la propiedad
3 , porque si A n L? = 0, d e lo anterior obtenemos el enunciado de la propiedad 3 .

Teorema 1.4. Si A , I3 y C son tres eventos cualesquiera, entonces

Demstrucwu: La demostracin consiste en escribir A u B u C como (AuB)uC

y aplicar el resultado del teorema anterior. Dejamos


los detalles al lector.
Observacin: Una extensin obvia dcl teorema anterior
misma. Sean A l , . . . , A k k eventos cualesquiera. Entonces

i=l

i<j=2

P ( A ; n ~j n A,>
i<j<r=3

+ ...+ ( - I ) ~ - I P ( A ~

se sugiere por si

n A:, n . . . n Ak).
(1.7)

Este resultado se puede establecer


fAciimente por induccin matemtica.

Teorema 1.5. Si A

c U , entonces P ( A ) 5

P( B ) .

1.8

Varias obserzmciones

21

Demostracin: Podemosdescomponer B en dos eventos que se escluyen


mutuamente como sigue: L3 = A U ( B n A'). P'or lo tanto, P ( B ) = P ( A ) +
P ( B n A ) 2 P ( A ) ,puesto que P ( B n A C )2 O, segn la propiedad 1.
Obseruacin: Este rcsultado es intuitivamente atractivo, porque dice que si B
debe ocurrir cada vez que A ocurre, entonces B (3s al menos tan probable como A .

1 .S Varias obsemaciones
a ) Cabe aqu una advertencia.De la exposicih previa se podra inferir

(incorrectamente) que cuando elegimos un modelo probabilstico para


la descripcin d e algimfenmeno observalble descartamostodas las
relacionesdetcrministas.Nadapuedeestarms
lejos d c la verdad.
Mantenemos todava el hecho dc que, por ejemplo, la ley de Ohm
I = E / R esvlida en ciertascircunstancias. La diferenciaser d e
interpretacin. E n vez d e decirque la rcl.;~cinanteriordetermina
I para E y R dadas,reconoceremosque
E o R, o ambas,pueden
variardeunamaneraaleatoria
e imprecisa y que, por lo tanto, I
variar tambin de una manera aleatoria. ]'al-a E y IL dudas, todava
I se determinapor la relacinanterior.
Lo importante es cuando
adoptamos un modeloprobabilstico para la descripcin de un circuito,
consideramos la posibilidad d e que E y R pueden variar de manera
imprecisa que slo se puede describir probal;ilsticarnente. h i , puesto
que ser importante considerarslo la jwobubilidad de que E y R tomen
ciertos valores, llega a ser significativo hablar
slo de la probabilidad d e
ql1e I tome ciertos valores.
6) La cleccin entre adoptar un modelo deterministao probabilstico
en algunasocasiones puede ser dificil. Puede depender dclo intrincado
de nuestra tcnica de medicin y la precisin asociada. Por ejemplo, si
las medidas precisas son tan dificiles de obtener que las lccturas reperidas d e la misma cantidad produzcan resultados variables, un modelo
probabilstico es sin duda ms adecuado para describir la situacin.
c ) Sealaremos en forma breve que ciert.as
en
circunstancias podemos
hacer suposiciones adicionalcs acerca d e la conducta probabilstica d e
nuestros resultados experimentales que nos conducirn a un mtodo
para evaluarlas probabilidades bsicas. La eleccin d e esas suposiciones
adicionales puede basarse en consideraciones fisicas del experimento
o,
(ciertas propiedades de simetra, por ejemplo), evidencia emprica
en algunos casos, simplcnlenteunjuiciopersonalconbaseenuna

22

1.8

Introduccilt a la probabilidad

csperiencia prcvia ante una situacin


similar. Lafrecuenciarelativa
f , ~puede tener un papel importante cn nuestra decisin acerca de una
asignacin num6rica dc P ( A ) . Sin embargo, es importante darse cuenta
d e q u e cualquicr suposicin que hagamos accrca de P ( A ) debe ser tal
que sc satisfagan los axiomas bsicos del 1) al 4) d e la definicin 1.3.
d ) En cl transcurso del desarrollo d c las idcas bkicas de la teora
d e probabilidad haremos algunas referencias a cicrtas analogas con la
mecnica. La prinlcra d c ellas puede ser apropiada aqu. En mecnica
asignamos la masa a cada cuerpo B , digamos m ( B ) . Luego hacemos
varios clculos y llegamos a diversas conclusiones acercad e la conducta
d e B y su relacin con otros cuerpos, muchos
d e los cuales implican
sumasa m ( B ) . El hecho de que en realidad tengamos que recurrir
a alguna aproximacin para obtener nz(B) para un cuerpo especfico
nodisminuye la utilidaddelconcepto
d e masa.Deigualmanera,
establcccmos para cada evcnto A , asociado con el espacio muestra1 d e
un experimento, un nmero
P ( A ) llamado la probabilidad d e A y
que satisrace los axiomas bsicos. En realidad, al calcular P ( A ) para
o bicn
un evento especfico, tenemos quc hacer hiptesis adicionales
obtener una aproximacin basada en evidencias empricas.
e ) Es muy importante darnos cuenta de que hemos postulado
la existencia del nmeroP(4)y que hemos postulado ciertas propiedades que
posee este nmero. La validez d e las diversas consecuencias (tcoremas)
derivadas deesos postulados de ninguna manera depende de cmo obtenemos un valor numrico para P ( A ) . Es vital aclarar este punto. Por
ejemplo, hemos supuesto queP(A U B ) = P ( A ) P ( B ) . A fin de usar
esta relacin para la evaluacion rcal d e P ( A U B ) , debemos conocer el
valor d e P ( A ) y de P ( B ) .Analicemos brevemente cmo, en ciertas circunstancias, debemos hacer suposiciones adicionales que conduzcan a
un mtodo para evaluar esas probabilidades. Si estas (u otras) suposiciones no cstn garantizadas, debemos recurrir a la experimentacin
para aproximar el valor d e P ( A ) de los datos reales. La frecuencia relativa f~ desempeliar5 un papel destacado en estoy, d e hecho, se usar
como una aproxinlacibn d e P ( A ) .
Sin embargo, es importante tener presente que
f~ y P ( A ) no son
lo mismo, que slo usamos fjl comoaproxilnaci6nde P ( A ) , y que
cada vez que nosrcferimosa P ( A ) noscstamos refiriendo al valor
postulado. Si idcntificamos fyi con P ( A ) debernosdarnoscuenta
que simplcmentc sustituimos un valor postulado por uno aproximado
obtenido en forma expcrimental.
Qu tan buena o mala pueda ser
esta aproximacin, de ninguna manera illfluye en la estructura lgica

Problemas 23

dc nuestro modelo. Aunque el fcnmcno que pretende representar cl


modclo sc consider a l construirlo, nos hemos separado del fenmeno
mismo (temporalmente al mcnos), cuando entramos en el dominio del
modelo.

PROBLEMAS
1.1. Supngase que el conjunto universal consta d e los enteros positivos d e
A = { 2 , 3 , 4 } , B = { 3 , 4 , 5 } y C = { . T , G , 7). Anote los elementos d e

1 a 10. Sean

los siguientes conjuntos.


U)

ACn B b ) ACu B

C)

( A Cn

d ) ( A n ( B n C)')'

e ) ( A n ( B u C))"

1.2. Supngase que el conjunto universal U esd dado porU = {x I O 5 z 5


2). Sean los conjuntos A y B definidoscomosigue: A = {x I
< 2 5 1) y
B = {z I 5 2 5
Describa los conjuntos siguientes:

i}.

a)(AUB)cb)AUBcc)(AnB)Cd)ACnB
1.3.{Cules d e las siguientes relaciones son verdaderas?

( A U B ) n ( A U C ) = A U ( B n C ) b ) ( A u B )= ( A n B c ) u B
ACnB=AUB d)(,4~B)~nc=A~nB~nC~
e) ( A n B ) n ( B C n C ) = O
a)
C)

1.a. Supngase que el conjunto universal consta de todos los puntos (x,y)
cuyas coordenadas son enteros y quedan dentro o sobre el contorno del cuadrado acotado por las rectas z = O, y = O, x = G y y = B. Indique los elementos
d e los conjuntos siguientes.
a)

c)

A = {(Z,Y) I + Y2 I 6) b)B = {(Z,Y) I 5' I x 2 )


C = {(z,YI 2 5 y2) d)B n C e ) ( B u A ) n Cc

1.5. Usar los diagramas de \enn para establec'er las siguientes relaciones.

a ) A c B y B c C implican que A c C b ) A c B implica q11e A = A n B


c ) 11 c U implica que BC c AC d ) A c B implica que A U C c B U C
e ) A n B = 0 y C c A implica que B n C = 0

1.6. Los artculos provenientes de una lnea d e produccin se clasifican


como defectuosos ( D ) o no defectuosos ( N ) . Se observan los artculos y se
anota su condicin. Este proceso se continila hasta que seproduzcandos
artculos defectuososconsecutivos o se verifiquen cuatro artculos, cualesquiera
que ocurra primero.Describir 1111 espacio muestra1 para este experimento.

1.7. a ) Una caja con N bombillas tiene v(v < N ) unidades con filamentos
rotos. ESLIS se prueban una por una, hasta que :;eencuentra una defectuosa.
Describir un espacio muestra1 para este expcrimcnto.

24 Introduccin a la probabilidad
b) Supnpzm que las bombillas anteriores se prueban una por una, hasta
que se prueban todas las defectuosas. Describir el espacio mnestral para este

experimento.

1.8. Considkrcnse cuatro objetos, n , b, c y d. S u p n p e que el oulen en el


cual se anotan esos objetos representa el resultado de un experimento. SeanA
y B los eventos definidos como sigue: A = { a est5 en el primer l u p r } ; B = { b
cst5 en el segundo lug}.
a ) Anotar

todos los elementos del espacio muestral.


b) h o t a r todos los elementos de los eventos A n B y il U D .

1.9. Un lote contiene artculos que pesan 5, 10, 15,..., 50 libras. Supngase
qne al menos dos artculos d e cada pcso se encuentran all. Se eligen dos
artculos dcl lote. Identifiquese con S el peso del primer articulo elegido y
con I cl pcso del segundo artculo. As, el par de nlimcros ( X , Y representa
)
un solo resultado dcl experimento. Usando el plano STY,indiquese el espacio
muestral y los eventos siguientes.

{ S = I } b ) {Y > S }
c ) El segundo ardculopesa el doblc del primero.
d ) E1 primer artculo pesa 10 libras menos que el segundo.
e ) El promcdio d e peso de los dos artculos es menos de 30 libras.
a)

1.10. E n un periodo de 21 horas, en u n momento S , un interruptor se


pone en la posicin cnccnditlo. Posteriormente, en un momento Y (en el
rnisnlo periodo d e 2.1 horas), el interruptor se pone en la posicin apagado.
Supcingase que X y Y se miden en h o r a e n el eje de tiempo conel comienzo del
periodo como origen.El resultado del experimento consta delpar denlimeros
( S , 1).

Describir el espacio mucstral.


b ) Describir y dibujar los siguientes eventos en cl plano SI.
i) El circuito funciona durante una hora o menos.
ii) El circuito hnciona en el tiempo z, donde z es 1111 instante durante el
periodo tlado tlc 2.1 horas.
iii) 1 1 circuito empieza a funcionar a n t a del tiempo t l y deja de funcionar
despus del ticlnpo t 2 (tlontlc otra~ e 11z < 12 son dos instantesd e ticmpo
durante el periodo especificado).
iu) El circuito funciona cl doble de lo que est5 apagado.
a)

1.1 1 . Scan :I, B y C tres eventos asociados con un experimento. Expresar


las siguientes proposiciones \~erbalesen notacin d e conjuntos.

mcnos uno d e los eventos ocurre.


0) Exactamente uno d c los eventos ocurre.
c) Exactamente d o s dc los eventos ocurren.
a ) ill

Problemas

25

d ) No ocurren ms d e dos eventos simultjnearnente.


l . 12. Demostrar el teorema 1.4.

1.13. a ) Demostrar que para dos eventos cualesquiera, A l y A2, tenemos


P(Al u A2) 5 P(A1) P(A2).
b ) Demostrar q u e para n eventos cualesquiera A l , . . . A,, tenemos

P(A1 U . . . U A , ) 5 P(A1)

+ . . + P(A,).

[Sugerencia: Usar una induccin matemiltica. IC1 resultado que se indica en


b ) se llama desigualdad de Boole]
1.14. El teorema 1.3 tram d e la probabilidad de que u1 menos uno de los
eventos A o B ocurra. La proposicin siguiente t.rata de In probabilidad de que
exuctanwnte uno de los eventos A o B ocurra.
Demostrar que P[(A n l?'
U
)( B n A ' ) ] = P ( A ) P ( B ) - 2P(A n B ) .

1.15. Cierto tipo d e motor elctrico falla por obstruccin d e los cojinetes,
por combustin del embobinado o por desgaste (de las escobillas. Supngase
que la probabilidad de la obstruccin es del dob'le d e la combustin, la cual
es cuatro veces ms probable que la inutilizacin de las escobilla. ?Cul es la
probabilidad de quela falla sea por cada uno deesos tres mecanismos?.
l . 16. Supngase que A y B son eventos para 10:s cuales P ( A ) = x, P ( B ) = y,
y P ( A n B ) = L. Expresar cadauna delas probabilidades siguientesen trminos
d e x,y y L.
a ) P(ACU B C )

b ) P(ACn B ) c) P ( A CU l?) d') P ( A Cn O")

1.17. SupngasequeA, B , yCsoneventostalesqueP(A) = P ( B ) = P ( C ) =

i,
P ( A n B ) = P(C n B ) = O y P ( A n C) = 8. Calicular la probabilidad d e que

al menos uno delos eventos A, B o C ocurra.

l . IS. Una instalacin consta de dos calderas y un motor. Sea A el evento d e


que el motor esten buenas condiciones, mientras que los eventos BI,( k = 1, 2)
son los eventos de quela k-sima caldera esten buenas condiciones. El evento
C es que la instalacin pueda funcionar. Si la instalacin funciona cada vez que
el motor y al menos una caldera funcione, expresar C y C" en trminos d e A y
de los eventos d e B;.
l . 19. Un mecanismo tiene dos tipos d e repuestos, digamos I y 11. Suponga
que hay dos del tipo I y tres del tipo 11. Definir 110s eventos AI,, k = 1 , 2 y B j ,
j = 1 , 2 , 3 como signe: AI,: la k-sima unidad del tipo I est funcionando correctamente; Bj: la j-sima unidad del tipo
I1 est5 funcionando correctamente.
Finalmente, C representa el evento: el mecanismcl funcionan. Dado que el mecanismo funciona si a1 menos una unidad del tipo I y dos unidades deltipo I1
funcionan, exprese el evento C en trminos d e las AI, y las Bj.

2.1 El espacio muestra1 finito

En este captulo nos ocuparemos slo d e los experimentos para los


cuales el espacio muestra1 S consta de un nmerofinito de elementos.
Es decir, suponemos que S se puede escribir como S = { a l , a 2 , . . . ,al;}.
Si nos referimos alos ejemplos d e espacios muestrales d e la seccin 1.4,
observamos que SI,
S2,S3,Sq, S,, S7 y S12 son todos finitos.
A fin de caracterizarP ( A ) en este modelo consideraremos primero
el
evento que est constituido por unsolo resuluclo, llamado algunas veces
evento elemental, digamos A = { a ; } .Procedemos como sigue.
A cada uno delos eventos elementales{ui} asignamos un nmerop i ,
llamado la probabilidadd e { a ; } que
,
satisface llas condiciones siguientes:
a) p ; 2 o,
i = 1 , 2,...)k ,

b, p1 + p 2 + * * ' $ p k = 1.
[Puesto que { a i } es un evento, estas cond:iciones deben ser consistentes con las postuladas para las probabilidades d e eventos en general,
como se hizo en la ecuacin (1.3). Es muy sencillo verificar que esto
es as.]

28

2.2

Espacios muestrales j k i t o s

A continuacin, supongamos que un evcntoA est constituido porr


resultados, 1 5 r 5 k , digamos

donde j , , j,, . . . , j , representa cualesquiera indices T de 1,2,.. . b . Por


lo tanto, d e la ecuacin ( 1.3), propiedad 4, se deduce que

Para resumir: la asignacin d e probabilidades p ; a cada uno de los


eventos elementales { a ; } , sujeto a las condiciones anteriores u ) y b),
determina de un modo
nico P(r-I)para cada uno de
los eventos A c S ,
donde P( A ) est dado por la ecuacin (2.1)
Para evaluar las p j , se dcben hacer algunas suposiciones respecto a
los resultados individuales.

EJEMPLO2.1. Supongamosque slo tresresultadosson


posibles
en un experimento, digamos a l , a2 y 3 . Adems, supongamos que la
ocurrencia d e u1 es dos \ w x s m5s probable que la d c u2, la cual, a su
vez, cs dos veces mis probable que(13.

p 3 = $1,

p , = 72

Y p 1 = 74

2.2 Resultados igualmente probables


La suposicin que 1115s conlilnmcnte se hace para
espacios muestrales finitos es q11c todos los resultados son igualmcntc probables. De ninguna
manera esta suposicin puede darse como un hecho; debc justificarse
con cuidado. Hay muchos experimcntos para los cuales se garantiza tal
suposicin, pero tambin hay muchas situaciones experimentales
en las
cuales sera un crror hacertal suposicin. Por ejemplo, sera muy poco
realista suponer que es tan probable no recibir llamadas telcfnicas en
una central cntre la 1 A M . y 2 AM. como cntre las 5 P M y las G P M
Si los b resultados son igualmente probables,
se deduce que cada
p i = l / b . Porque la condicin p ,
+ p , = 1 se convierte en k p ; = 1

2.2

Resultados igualmente probables 29

para toda i. De esto se deduce que para cualquier evento


A que conste
de r resultados, tenemos

P(A)= r / k .
Este mtodo de evaluar P ( A ) a menudo se indica como sigue:

P ( A )=

nmero de maneras en queE puedle ocurrir favorable a A


nmero total de maneras en queE puede ocurrir

Es importante comprender quela expresiln anterior deP ( A ) es slo


una consecuencia dela suposicin de quetodos los resultados son igualmente probables y slo es aplicable cuando s e satisface esta suposicin.
Sin duda no sirve como una definicin general de probabilidad.

EJEMPLO2.2. Se lanza un dado y se supone quc todoslos resultados


son igualmente probables. El evento A ocurre si y slo si aparece un
nmero mayor que 4. Esto es, A = {5,6}. Por lo tanto, P ( A ) =

+ s1 = ; 26 .

..rr

EJEMPLO2.3. Selanza unam6nedanormaldos


veces.Sea A el
evento: {aparece unacara}.' Para evaluarP ( A ) un anAlisis del problema
podra ser d e la ma-nera siguiente. El espacio muestral es S = {O, 1,2},
donde cada uno de los resultados representa el nmero de caras que
Este anlisises obviamenteinocurren.Por
lo tanto, P ( A ) =
correcto, puesto que en el espacio muestral antes considerado, todos
los resultados no son igualmente probables. A fin d e aplicar el mtodo anterior deberamos considerar, en su
lugar,elespacio
muestral
S' = {CC, C S , SC, S S } . En este espacio muestral todos los resultados
son igualmente probables y, por lo tanto, obtenemos para la solucin
correctadenuestroproblema, P ( A ) = = ?\. Podramosemplearen
forma correcta el espacio muestral S como sigue: los resultados O y 2
son igualmente posibles, mientras que ei resultado 1 es probablemente el doble d e cada uno de los otros. Por lo tanto, P ( A ) = $, lo cual
concuerda con la respuesta anterior.

i!

Este ejemplo ilustra dos puntos. Primero, debemos estar seguros por
completo de quetodos los resultados que se pueden suponer son igualmente probables antes de utilizar el procedimiento anterior. Segundo,

2.3

30 Espacios muestrales finitos

a menudo podemos reducirel problema a uno, en el cual todos los resultados son igualmente posibles, mediante una eleccin apropiada del
espacio muestral. Cada vez que sea posible se debe hacer esto, puesto que en general simplifica los clculos. En ejemplos subsecuentes se
tratar nuevamente este punto.
h4uy a menudola manera comose realiza un experimento determina
si los resultados son o no igualnlente probables. Por ejemplo, supongamos que vamos a escoger un perno de una caja que contiene tres de
tamafio diferente. Si elegimos el perno acerchdonos a la caja y sacamos el primero que tocamos, es obvio que el perno ms grande tendri
una probabilidad mayor de ser escogido que la d e los otros dos. Sin
embargo, si rotulamos con cuidado cada perno con un nmero escrito
en una etiqueta, y elegimos una de ellas, se puede asegurar que cada
perno, de hecho, tienela misma probabilidad de ser escogido. As quizs tengamos que afrontar considerables dificultades para asegurarnos
que la suposicin matemtica de resultados igualmente probableses d e
hecho apropiada.
En ejemplos anteriores y muchos otros subsecuentes, nos interesal a
eleccin al azard e uno o mris ohjctos de unacoleccin dada. Definamos
con mayor precisin esta nocin. Supongamos que tenemos N objetos,
digamos a l , a ? , . . . ,abr.
a ) Escoger al m a r un objeto d e los N objetos, significa que cada uno de
ellos tiene la misma probabilidad de serelegido. Esto es,
Prob (clegir u ; ) = ] / N ,

i = 1 , 2 , . . ,N .

b) Escoger al azar dos o6jetos entre N objetos significaque cada uno de los
prcres d e objetos (sin considerarel orden) tienela misma probabilidadd e
ser escogido que cualquier
otro par. Por ejemplo, si debemos elegir dos
objetos al azar d e ( u l ,a2, a 3 , u 4 ) , y luego obtener a l y a2 es tan probable
como obtener a2 y a s , etc. Esta afirmacin nos lleva de inmediato a
la cuestin d e curintos pares diferentes hay. Supongamos que hay K
d e talcs pares. Entonces, la probabilidad d e cada par sera l/K. Muy
pronto aprenderemos a calcularK .
c ) Escoger al azar n objetos (n. 5 N ) entre N objetossignifica que
cada n-tupla, digamos o i l , n i 2 , . . . ,n i n , tiene tantas probabilidades d e
ser elegida como cualquier otra n-tupla.
Obsemacwlz: Anteriormente pa sugeri~nos quese debe tener mucho cuidado en In parte experimental para asegurar que la suposicin matem5tica de
cscoger al azar se cumpla.

2.3

2.3 Mdtodos de enumeracidn

175991

Mtodos de enumeracin 3 1

Tenemos quk hacer una digresin


a fin de aprender cmo enumerar. Nuevamente consideraremos la forma anterior de P ( A ) , llamada
P ( A ) = r / b , donde E es el nmero total de maneras en que E puede
ocurrir, mientras que r es igual al nmero de maneras en que A pued e ocurrir. En los ejemplos presentados hasta ahora, se encontr poca
dificultad para calcular r y E . Pero es necesario considerar situaciones
ligeramente ms complicadas para apreciar l,a necesidad de contar sistemticamente o d e procedimientos de enumeracin.

EJEMPLO2.4. Un lote d e 100 artculoscontiene 20 defectuosos y


80 no defectuosos. Se eligen 10 artculos al azar, sin sustituir un artculo
antes d e elegir el prximo. Cules la probabilidad de que exactamente
la mitad d e los artculos escogidos sean defectuosos?
Para analizar este problema, consideremos el siguiente espacio mueslos elementos d e S consta tie 10 artculos posibles del
tral S. Cada uno de
lote, digamos ( i l , i2,. . . ,i l o ) . Cuntos hay d e tales resultados? Y entre
estos resultados, cuntos tienenla caracterstica de que exactamentela
mitad sean defectuosos? Evidentemente necesitamos saber la respuesta a tales interrogantes para resolver el problema propuesto. Muchos
problemas similares dan origen a preguntas adlogas. En las prximas
secciones presentaremos algunos procedimientos sistemAticos de enumeracin.

A. Principio de multiplicacin. Supongamos que un procedimiento,


designado como 1, puede hacerse d e nl maneras. Supongamos que un
segundo procedimiento, designado como 2, s'e puede hacer de 722 maneras. Tambin supongamos que
de las de
maneras
efec"2
una cada
tuar 1 puede ser seguida por cuallas maneras d e efectuar
"2
de quiera
2. Entonces el procedimiento que
por
2 se puede
"2
consta de 1 seguido
hacer d e nlnp maneras.
indicarPara
la validez d e este
"2
principio es ms sencillo consideplanteamiento
esLl
rar el siguiente
quemtico.
Consideraremos
un
FIGURA2.1

32 Espacios muestrales fitritos

2.3

punto P y dos rectas, digamos L1 y L2. El procedimiento 1 consiste en


i r d e P a L1, mientras queel procedimiento 2 consiste en ir de L1 a L2.
La figura 2.1 indica cmo se obtiene el resultado final.
Observacin: Obviamente este principio puede extenderse a cualquier nmero de procedimientos. Si hay k procedimientos y el i-simo procedimiento se
puede hacer den; maneras, i = 1 , 2 , . . . , k entonces el procedimientoque consiste en 1, seguido por 2,. . . ,seguido porel procedimiento k puede hacersed e
n1n2 . . . n k maneras.

EJEMPLO2.5. Un artculo manufacturado debe pasar por tres controles. En cada unod e ellos se inspecciona una caracterstica particular
del artculo y se le marca d e conrormidad. En el primer control hay
tres mediciones posibles, mientras que en cada uno delos dos idtimos
controles hay cuatro mediciones posibles. Por lo tanto, hay 3 . 4 . 4= 45
maneras de marcarel artculo.
B. Principio de adicin. Supongamos que un procedimiento, designado con l, se puede hacer de n l maneras. Supongamos que un
segundo procedimiento, designado con2, se puede hacer de n2 maneras. Supongamos adems que no es posible que ambos, 1 y 2, se hagan
juntos. Entonces, cl nmero de maneras como se puede hacer1 o 2 es
nl

+ 722.

Usemos otravez el planteamiento esquemritico para convencernos de


la validez del principio d e adicin, como se indica en la figura 2.2.
P

Observacin: Tambin este principio puede generalizarse como sigue: si hay


k, procedimientos y el i-simo procedimiento se puede hacer en n; maneras,
i = I , 2 , . . . , k , entonces el nmero de maneras como podemos hacer el procedimiento 1, o el procedimiento 2 o . . . o el procedimiento IC est5 dado por
n l + 712 + . . . + n k , suponiendo que los procedimientos no se puedenrealizar
en forma conjunta.

2.3

enumeracif1

de

33

Mtodos

EJEMPLO2.6. Supongamosqueplaneamosun
viaje y debemos
decidir entre transportarnos por autobs o por tren. Si hay tres rutas
3
2 = 5 rutas
para el autobs y dosparaeltren,entonceshay
diferentes disponibles para elviaje.

C.Permutaciones. a) Supongamos que ten'emosn objetos diferentes.


(De cuntas maneras, digamos
n Pn, se pueden agrupar (permutar)
estos
objetos? Por ejemplo,si tenemos los objetos a , b y c, podemos considerar
las siguientes agrupaciones: abc, acb, buc, bca, cab
y cba. h i , la respuesta
es seis. En general, consideremos el csquema siguiente. Agrupar los n
objetos es equivalente a ponerlos, en algn orden
especfico, en unacaja
con n compartimientos.

La primera casilla se puede llenar de cualquiera d e las n maneras, l a


segunda de cualquiera de
las ( n - 1) maneras, . . . , y la illtima casilla d e
slo una manera. Por tanto, aplicando el principio de multiplicacin anterior, vemosque la caja se puede llenard e n ( 7 ~ -l ) ( n - 2 ) . . . 1 maneras.
Este nmero ocurre tana menudo enmatemticas que presentamos un
nombre y un smbolo especiales para l.
Definicin. Si n. es un enteropositivo, definimos n! = ( n ) ( n- l ) ( n 2) . ...1 y lo llamamos n+ctoriuZ. Tambi:n definimos O! = 1.

As, el nmero de permutaciones den objetos, diferentes est dado por

B ) De nueva cuenta consideremosn objetos diferentes. Esta vez desean, y ]permutamos el r elegido.
mos escoger r d e esos objetos, O 5 r
con ,nPr.Recurrimos otra
Indiquemos el nmero de manera de hacerlo
vez al esquema anterior de llenar una caja que tiene n compartimientos; ahora nos detenemos despus que se h a llenado el compartimiento r-simo. A s , el primer compartimiento puede llenarse de n maneras, el segundo de( n - 1) maneras,. . ., y el r-simo compartimiento de
n - ( r - 1) maneras. As se puede realizar el procedimiento completo,
usando de nuevo el principiod e multiplicacidn, d e

<

34 Espacios muestrales finitos

2.3

maneras. Usando la notacin factorial presentada anteriormente, podemos escribir


npr =

n.!
(72

T)!

D. Combinaciones. Consideremos nuevamente n objetos diferentes.


Esta vez estamos interesados en contar el nmero de maneras como
podemosescoger r d e esos n objetos sin considerar el orden.Por
ejemplo,tenemos los objetos a , b , c y d , y r = 2; deseamoscontar
ab, a c , a d , b c ,bd y c d . En otras palabras, no contamos ab y bn puesto que
los mismos objetos estn relacionados y slo difiere el orden.
Para obtener el resultado general recordemos la frmula derivada
r objetos entre n y
anteriormente: el nmero de maneras de elegir
permutar los r elegidos es igual an ! / ( n , - r ) ! Sea C el nmero de maneras
d e elegir T entre n , sin considerar el orden. (Esto es, cl nilmero buscado
es C.) Observe que una vez que se han escogido los r artculos, hay Y.!
maneras de permutarlos. Por tanto, aplicando unavez ms el principio
d e multiplicacin, junto con el resultado anterior, obtenemos
Cr! =

n!
( n- r)!

As, el nmero de maneras de clegir


considerar el orden, est dado por

c = r ! ( nn-!

entre n objetos diferentes, sin

T)!

Este nmero aparece en muchos contextos en matemticas


y, por lo
tanto, se emplea un smboloespecial para designarlo. Escribiremos
n!
r!(72- T)!

* A!

del 7: Es& expresi6n tambin se conoce como arreglo o variacin.

2.3

enumeracin

Para nuestros propsitos,

(3)

de

35

Mtodos

se define slo si n es un entero positivo

y si r es un entero O 5 r 5 n. Sin embargo, podemos definir (:) muy


ampliamente para cualquier nmero realn y para cualquier entero no
negativo

como sigue:

(:)

- - - ( n - r + 1)

n(n - l ) ( n - 2)
r!

(F)

Los nmeros
a menudo se llaman coejicientes binomides porque aparecen como coeficientes en el desarrollo de l a expresin binomial ( u
b ) n . Si n es un entero positivo, (u b)n = ( a b)(u
b ) . - . ( a b).
Cuando seefecta la multiplicacin, cada uno delos trminos consistir
en el producto de k ues y de ( n - IC) bes, k .= O, 1 , 2 , . . . , n. ?Cuntos
trminos sern dela forma u ~ P - ~Contemcls
?
simplemente el nmero
de maneras como podemos elegir
k entre n ues, sin considerar el orden.
As,, tenemos lo que se conoce
Pero esto estdado precisamente por
como teoremu del binomio.

(F).

(F)

Los nmeros
tienen muchas propiedades interesantes de las cuales
aqusolomencionaremosdos.
(A no serque se indiqueotra cosa,
suponemos que n es un entero positivo y r un entero, O 5 r 5 n.)
a)

b,

(;) ( ),
(;) (:I;) ( y )
=

n-r

Es muy fcil verificar algebraicamentc las dos identidades anteriores.


Slo escribimos, en cada uno de los casos, el lado izquierdo y derecho
de las identidades anteriores y notamos que soniguales.
Sin embargo, hay otro mtodo deverificar lesas identidades que hace
uso de la interpretacin que hemos dado a (:) a saber, el nmero de
maneras de escogerr entre n objetos.
u ) Cuando escogemos r entre n objetos en forma simultrinea dejamos
atrs (77. - r ) objetos y, por tanto, escoger r de n es equivalente a elegir

2.3

3 6 Espacios muestrales finitos

( n - r ) de 71. sta es precisamente la primera proposicih que se debe


verificar.
b ) Escojamos cualquiera d e los n objetos, digamos el primero, a l . Al
elegir r objetos, al est incluido o excluido, pero no las dos cosas. Por
r objetos,
tanto, al contar el nmero de maneras como podemos escoger
podemos aplicar el principio de adicin antes tratado.
Si a l est excluida, debemos escoger los r objetos que se desean d e
los ( n - 1) objetos restantes y hay ,F1) maneras de haceresto.
Si al va a incluirse, slo ( r - 1) objetos m6s deben escogerse d e los
restantes ( n - 1) objetos y esto se puede hacer de (:I:) maneras. A s ,
el nmero pedido esla sumu de esos dos, lo que verifica la segunda
identidad.

Obseroacidn: E I lo
~ expucsto anteriormente, los coeficientes binomiales ( i )
son significativos slo si n y k son enteros no negativos con O 5 k 5 n. Sin
embargo, si escribimos

(z)

n!
- n(n-l)"'(n-k+l)
= k ! ( n- k ) !
k!

observamos que la ltima expresin es significativa si n es cualquier nmero real


y 12 es cualquier entero no negativo. As,

y as sucesivamente.

Utilizando esta versin extendida de los coeficientes binomiales, podemos


expresar la f o m a generalizada del teorema del binomio:
(1

co

(;)Xi
k=O

Esta serie es significativa para cualquier n real y para todas las x tales que
< 1. Observemos que si n es un entero positivo, la serie infinita se reduce a
un nmero finito de trminos, puesto que enese caso
= O si k > n.

(z)

121

EJEMPLO2.7. a) iCuAntoscomits de tresmiembros se pueden


elegir con ocho personas? Puesto que dos comits son iguales si est6n
formados por los mismos miembros (sin considerar el orden en el cual
= 56 comitCs posibles.
fueronelegidos),tenemos

(9

Mktodos de enumeracidn

2.3

37

b ) Cuntas seales con tres banderas se pueden obtener con ocho

banderas diferentes? Este problema es muy parecido al anterior. Sin


enibargo, aqu el orden constituye una diferencia y, por lo tanto, obtcnemos 8!/5! = 336 seales.
c) Un grupo de ocho personas consta
cinco
dehombres y tres mujeres.
Cuntos comits d e tres personas pueden fisrmarse con dos hombres
exactamente?Aqudebemoshacerdos
cosas: escogerdoshombres
A s obtenemos el nmero
(entre cinco) y escoger una mujer (entre tres).
pedido
- = 30 comits.

(i) (:>

d) Ahora podemos verificar una proposicin antes formulada,


a saber,
el nmero de subconjuntos de un conjunto que tiene
n elementos es 2n
(contando el conjunto vaco y el conjunto mismo). Simplemente c h i ficarnos cada elemento con un uno o con un cero, sea que el elemento
vaya a ser incluido o excluido en el subconjunto. I-Iay dos maneras de
clasificar cada uno delos elementos, y hay n elementos. Luego, el principio d e multiplicacin nos diceque hay 2 . 2 - - - 2 = 2n clasificaciones
posibles. Pero cada una de las clasificacionels en particular representa
una eleccin d e u n subconjunto. Por ejemplo, (1,1,O, O , O , . . . , O ) consistira en el subconjunto formado pora l y a;! precisamente. De nuevo,
(1,1,. 1) representara S y (O, O, . . , O) representara al conjunto vaco.
e ) Podemos obtener el resultado anterior usando el principio de
adicincomosigue.Paraobtenersubconjuntosdebemosescoger
el
conjunto vaco, los subconjuntos que constan deslo un elemento, los
que constand e slo 2 elementos,. . ., y el conjunto mismo que consta
de
todos los n elementos. Esto se puede hacer de
a

(3 (Y) (3
+

+.**-+

(:)

maneras.Sinembargo,
la sumade esoscoeficientesbinomiales
es
simplemente el desarrollod e (1 1) = 2 n .
Ahora volvamos al ejemplo2.4. De un lote que consta d e 20 artculos
10 al azar (sin
defectuosos y SO artculosnodefectuososescogemos
sustitucin). El nmero de maneras de hacer esto es (I:,).
Por tanto,
la probabilidad de encontrar5 artculos defectuosos y 5 no defectuosos
entre los 10 elegidos est dada por

38 Espacios muestrales finitos

2.3

Mediante logaritmos d e factoriales (que est5n tabulados) se puede


cvaluar lo anterior y es igual a 0.021.

EJEMPLO2.8. Generaliccmos el problema anterior. Supngase que


tenemos N artculos. Si elegimos n d e esos al azar, sin sustitucin,
hay (f muestras posibles diferentes, todas las cuales ticncn la misma
probabilidad d e ser escogidas. Si los N artculos estn formados d e r1
As y r2 Bs (con rl
7-2 = N ) entonces la probabilidad de que los n
artculos elegidos contengan exactamenteSI As y (n-.SI) Bs est dada
por.

(La anterior se llama pobabilidud hifiergeom2ricu y se encontrar ms


adelante.)
Obsemacwn: Es muy importante especificar, cuando hablamos d e escoger
articulos al azar, si lo hacemos con o sin sustitucidn. En una descripcin m&
realista propondremos esta ltima. Por ejemplo, cuando inspeccionamos un
nmero de artculos manufacturados con el propsito d e descubrir cuntos
defectuosos podra haber, en general, no pretendemos inspeccionar el mismo
articulo dos veces. Previamente hemos observado que el nmero de maneras
de escoger r objetos entre R , sin considerar el orden, est dado por (:).
El nilmero de maneras d e escoger r artculos entre n, con sustitucin, est
dado por nT. Aqu estamos interesados en el orden en que se escogieron los
articulos.

EJEMPLO2.9. Supngase que escogemos dos objetos al azar entre


cuatro objetos clasificados a , b , c y d .
a ) Si escogemos sin sustitucin, el espacio muestra1
S se puede representar como sigue:

2.3

enumeracin
Adtodos de

39

(i)

Hay
= 6 resultados posibles. Cada uno de los resultados individuales indica slo cules fueron los dos objetos escogidos y no el orden
en que se escogieron.
b ) Si escogemos con sustitucin el espacio muestral S' se puede representar como sigue:

Hay 42 = 16 resultados posibles. Aqu cada uno d e los resultados


individuales indica cules objetos se escogierony el orden de seleccin.
Escoger al azarimplica que si elegimos sin sustitucin, todoslos resultados en S son de igual forma probables, mientras que si escogemos con
sustitucin, entonces todos los resultados en S' son igualmente probables. A s , si A es el evento {el objetoc es elegido}, entonces tenemos d e
S, P ( A ) = = si escogemossinsustitucin, y d e S', P ( A ) = x
7 si
escogemos con sustitucin.

E. Permutacionescuando no todos los objetosson diferentes. En


todos los mtodos deenumeraci6n presentatdos hemossupuestoque
todos los objetos considerados eran diferentes (esto es, distinguibles).
Sin embargo, no siempre estees el caso.
Supongamos, entonces, que tenemos n objetos tales que hay n l de
una clase, n 2 de una segundaclase,. . . , n k de una k-sima clase, donde
nl n 2
- n k = n. Entonces, el nmero d e permutaciones de estos
n objetos esta dada por

I
I

+ + +

n!

Ladeduccin d e esta frmulasedejaal


lector. Nteseque sitodos
los objetos son diferentes, tenemos n; = 1, i = 1 , 2 , . . . ,X:,y, por tanto, la
frmula anterior se reduce a n!,el resultado obtenido en forma previa.
Obsemacidn: Insistimos una vez ms en que' la asignacin real d e probabilidades a los resultados individuales de un espacio muestral (o a una coleccin
d e resultados, esdecir, u n evento) es algo que no puede obtenersematemticamente; debe obtenerse
d e otras consideraciones.P'or ejemplo, podemosutilizar
ciertas caractersticas d e simetra del experimento para comprobar que todos
los resultados son igualmente probables. De nuevo podemos hacer un procedimiento d e muestre0 (por ejemplo, escoger uno1 o varios individuos de una

40 Espaciosmuestralesfinitos
>

,,

poblacin especificada) de tal manera quesea razonable suponer que todaslas


elecciones son igualmente probables. En muchos otros casos, cuando ninguna
suposicin bsica es apropiada, debemos recurrir al planteamiento d e la frecuencia relativa. Repetimos n veces el experimento y calculamos la proporcin
d e veces que ha ocurrido el resultado
(o evento) que seconsidera. Al usar Sta
como una aproximacibn, sabemos que es muy improbable que esta frecuencia
relativa se diferencie d e la probabilidad verdadera (cuya existencia ha sido
especificada por nuestro modelo terico) en una cantidad apreciable si n es
suficientemente grande. Cuando es imposible hacer suposiciones razonables
acerca d e la probabilidad de un resultado y tambin es imposible repetir el
experimento un gran nmero deveces (debido al costo o a consideraciones d e
tiempo, por ejemplo) en realidad es poco significativo proseguir con un estudio
probabilstico del experimento, excepto sobre una
base completamente terica.
(Para una nota adicional sobre el mismo tema, vase la Sec. 4.8.)

PROBLEMAS
2.1. En una habitacin se encuentra el siguiente grupo de personas: 5
hombres mayores de 21,4hombres menores d e 21, 6 mujeres mayores de 21 y
3 mujeres menores d e 21. Se elige una persona al azar. Se definen los eventos
siguientes: A = {la persona es mayor de 21 1; B = {la persona es menor d e 21);
C = {la persona es hombre}; D = {la persona es mujer}. Evaluar lo siguiente.

P(B UD )
b ) P(RCn C c )

a)

2.2. En una habitacin 10 personastienen insignias numeradas del 1 al


10. Se eligentrespersonas
a l azar y se les pidequedejen
la habitacin
simultneamente y se anotan los nmeros d e las insignias.
!Cul es la probabilidad de queel nmero menor delas insignias sea 5?
t ) < C u d es la probabilidad de queel nmero mayor d ea
l
s insignias sea 5?

a)

2.3.a) Sup6ngase que se escriben tres digitos 1 , 2 y 3 en un ordenaleatorio.


?Curil es la probabilidad de queal menos un dgito ocupe su lugar propio?
Lo mismo que a ) con los dgitos 1, 2, 3 y 4.
r,) Lo mismo que a ) con los dgitos 1 , 2 , 3 , .. . , n. [Sugerenci:l: Usar (1.7).]
d ) Discutir la respuesta d e c) si n es grande.
b j

2.4. Un cargamento de 1500 lavadoras contiene 400 defectuosas y 1100 no


defectuosas. Se eligen al azar 200 lavadoras (sin sustitucin) y se clasifican.
a) ?Cui11 es la probabilidad de que se encuentren exactamente 90 artculos
defectuosos?
b ) ?Cul esla probabilidad de q u e se encuentren al menos 2 artculos defectuosos?

1'75991

Problemas

4I

2.5. Diez fichas numeradas del1 al 10 semezclan en unapalangana. Se sacan


d e la palangana dos fichas numeradas (X,Y) u r n y otra vez sin sustitucin.
Cul esla probabilidad de queX + Y = lo?

2.6. Un lote consta de 10artculos sin defecto, 4 con pequeos defectos y 2


con defectos graves. Se elige u n articulo al azar. Encontrar la probabilidad d e
que:
no tenga defectos,
b ) no tenga defecto grave,
c) que no tenga defecto o que tenga un defecto' grave.
a))

2.7. Si del mismo lote de artculos descritos en el problcma 2.6 se escogen


dos artculos (sin sustitucin), encontrar la probabilidad d e que:
a) amlms sean buenos,
c) a lo menos uno sea bueno,
e ) exactamente uno sea bueno,

b ) ambos tengan defectos graves,


d ) a lo m& uno sea bueno,
f) ninguno tenga defectos graves,
g ) ninguno sea bueno.

2.8. U n producto se arma en


tres etapas. En la primcra etapa hay5 lneas d e
armado, enla segunda, 4 lneas de armadoy en la tercera, G lneas d e armado.
?De cuilntzs maner'as puede moverse cl producto ten el proceso de armado?
2.9. LJn inspector visita 6 m5quinasdiferentes durante el da. A fin d e
impedir que los operadores sepan cundoinspeccionar5, vara el orden delas
visitas. De curintas maneras puede hacerlo?

2.10. IJn mecanismo complejo puede fallar en 15 partes diferentes. Si falla


en 3 partes de cuantas maneras puede suceder?
2.11. I-Iay 12 maneras en las cuales un articulo manufacturado puede tener
un pequeodefecto y 10 manera5 en las cuales puede tener undefecto mayor.
De cu5ntx maneras puede ocurrir defecto
un
menor yuno mayor? ?2defectos
menores y 2 defectos mayores?
2.12. IJn mecanismo puede ponerse en cuatroposiciones, digamos
d. Hay 8 d e tales mecanismos en unsistema.

a ,b , c

De cuntas maneraspuede instdarseeste sistema?


b ) Supngase que dichos mecanismos estn instalados en alg6n orden (lineal) preasignado. De cuntas maneras
posibles se instalan los mecanismos, si
dos mecanismos adyacentes no estn en la misma ]posicin?
c) Cu5ntas maneras son posibles si slo se usan las posiciones a y b con la
misma frecuencia?
d ) Cuntas maneras sonposibles si slo se usan dos posiciones diferentes y
una deellas aparece tres veces ms a menudo quela otra?
a)

42 Espacios muestrales finitos


2.13. Scpngase que de N objetos se eligen R al azar, consustitucin.
Cul es la probabilidad de que ningn objeto sea elegido ms de una vez?
(Supringase que n < N.)
2.14. Con las letras a , b , c , d, e y f , cuntas palabras clave d e 4 letras se
pueden formar, si

a ) ninguna letra se puede repetir?


b ) cualquier letra se puede repetir cualquier nmero deveces?

(y)

(y)

(\y)

2.15. Supngase que


=ay
= b. Exprese
en trminos d e
a y b. [Sugerencia: No se calculen las expresiones anteriores para resolver este
problema.]
2.16. Una caja contiene esferas numeradas 1 , 2 , . . . , R . Se escogen dos esferas
al azar. Encontrar la probabilidad de que los nmeros sobre las esferas sean
enteros consecutivos, si
las esferas se escogen sin sustitucin,
b ) las esferas se escogen con sustitucin.

a)

2.1 7. Cuntos subconjuntos que contenganal menos un elemento se pueden formar de un conjunto de
100 elementos?
2.18. Entre los nmeros 1 , 2 , .. .50 se escoge uno al azar. Cu5l es la
probabilidad de queel nmero escogido sea divisible entre 6 o entre 8?

2.19. De G nmeros positivos y 8 nmeros negativos se eligen 4 nmeros


y se multiplican. ?Cul es la probabilidad de que el
producto sea un nmero positivo?
al azar (sin sustitucin)

2.20. Cierta sustancia qumica se lorma mezclando 5 lquidos distintos. S e


propone verter un lquido en un estanque y agregar sucesivamente los otros
lquidos. Todas las combinaciones posibles se deben probar para establecer
cul da mejor resultado. Cuntas pruebas deben hacerse?
2.21. Un lote contiene R artculos. Si se sabe que T artculos son defectuosos

y se inspeccionan al azary en forma sucesiva, cul esla probabilidad de queel


k-simo artculo ( k 2 T ) inspeccionado sea el ltimo defectuoso en el lote?
2.22. r nmeros (O < r < 10) se escogen al azar con sustituci6n entre los
nmeros O , 1 , 2 , . . . ,9. CuA es la probabilidad de que dos no sean
iguales?

3.1 Probabilidad condicional


Consideremos de nuevo la diferencia que existe entre elegir al azar un
artculo de un lote con o sin sustitucin. En el ejemplo 2.4, el lote tena la siguiente composicin: 80 artculos sin defectosy 20 defectuosos.
Supngase que elegimos dos artculos: a) con sustitucin y 6) sin sustitucin.
Definamos los eventos siguientes:

A = {el primer artculo es defectuoso},

B = {el segundo artculo es defectuoso}.

i.

Si escogemos con sustitucibn, P ( A ) = P ( B ) I= $ = Cada vez que


elegimos, en el'lote hay 20 artculos defectuosos de un total d e 100. Sin
embargo, si elegimos sin sustitucin, los resultados no son totalmente
P ( A ) = :. Pero,
inmediatos. Todava es verdad,porsupuesto,que
cul es el valor d e P ( B ) ? Es evidente que con el propsito de calcular
P( B ) deberamos conocer la composicin del lote cuundo se escoge el

3.1

44 Probabilidad econdicional independencia

segundo 07-liculo. Enotraspalabras,deberamossaber

si el evento A
ocurri o no. Este ejemplo indicala necesidad de presentar el siguiente
concepto importante.
Sean A y B dos eventos asociados conun experimentoE . Indiquemos
con P ( B 1 A ) la firobabili&~dcondicional del evento B , dudo que A ha
ocurrido.
19
En el ejemplo anterior, P ( B I A ) = m.
Porque si A ha ocurrido,
entonces, al sacar por segunda
vez, slo quedan 99 artculos, de los
cuales 19 son defectuosos.
Cada vez qne calculamos P ( B I A ) , esencialmente estamos calculando P ( R )respecto al exfmcio muestral reducido A , en vez d e espacio muestral original S. Consideremos el
diagrama de Venn d e la figura 3. l .
Cuando calculamos P ( B ) nos preguntamos qu tan probable es que estemos en B ,
sabiendo que debemos estar en S, y cuando
evaluamos P ( B I A) nos preguntamos qu
tan probable es que estemos en B , sabiendo
(Esto es, el espacio
que debemos estaren il.
FIGURA
3.1
muestral se ha reducido d e S a A.)
I'ronto daremos una definicin formal de
P( B I ..I
Por
).
el momento,
sin embargo, seguiremos con nuestra nocin int.uitiva d e probabilidad
condicional y consideraremos un ejemplo:

EJEMPLO3.1. Se lanzan dos dados normales y se anotan los resultados , ( T I , m ) , donde xi es el resultado del i-simo dado, i = 1,2. Por

tanto, el espacio muestralS se puede representar porel siguiente arreglo d c 36 resultados igualnlente posibles:

S=

(1,l)
(2,l)

(l,2)
(2,2)

.. .
. ..

(6,l)

(G,2)

. ..

Considcrenlos los dos eventos siguicntes:

( 1 7 6)

3.1

condicional

Probabilidad

45

As 14 = {(5,5), (4,6), (6,4)} y B = {(2,1), (3,1),(3,2),. . . , (6,5)}. Por


15
Adems, I?( B I A ) = 31 , ya que el
tanto, P ( A ) = 3 y P ( B ) = x.
espacio muestra1 es ahora A (que son tres resultados), y slo uno de
cllos es consistente con el evento B . De ma.nera semejante, podemos
1
calcular P ( A I B ) = E.
Finalmente, calculemos P ( A n B ) . El evento ( A n B ) ocurre si y
slo si la suma de los dos dados es diez y el primer dado indica un
valor mayor que el segundo. Solamentehay un resultado y, por tanto,
P ( An U ) =
Si observamos con cuidado los diversos nmeros que
antes hemos calculado, concluimos quese culnple lo siguiente:

&.

Sucede queesas relaciones no slo aparecen en los ejemplos particulares que hemos considerado, sino que son completamente generales
y
nos dan un medio dedeJinirfor.maZnzentee la probabilidad condicional.
Para justificar esta definicin, volvamos al concepto
d e frecuencia reE se ha repetido n veces. Sean
lativa. Supongamos que un experimento
n A , n g ,y n A n g el nmero respectivo d e veces que los eventos A , B y
A n B han ocurrido en las n repeticiones. Cul es el significado d e
n A n B / n A ? Representa la frecuencia relativa(de B entre esos resultados
en los que A ocurri. Esta es, n A n g / n A es la frecuencia relativa condicional d e B , dado que A 08curri.
Podemos escribir n A n D / n A como sigue:

donde j A n B y f~ son las frecuencias relativas d e los eventos A f l B


y A, respectivamente.Como ya hemos inldicado (y demostraremos
ms adelante), si 72, el nmero de repeliciones es grande, f A n B estar
cercana a P ( A n B ) y f~ e!itar cercana a P(*4.).Por lo tanto, la relacin
anterior sugiere quen,inh!/nA estar cercana a P ( B I A ) . As, hacemos
la siguiente definicin formal:
Definicin.

independencia
46 Probabilidad
condicional
e

3.1

Observaciones: a ) Es importante darse cuenta de que lo anterior no es un


tcorcma (no demostramos nada), ni un axioma. Simplemente presentamos la
nocin intuitiva d e probabilidad condicional y luego hicimos la definicin formal de lo que entendemos porest? nocin. El hecho de que nuestra definicin
formal correspondaa nuestra nocin intuitiva est comprobado por el
pArrafo
que precede a la definicin.
b ) Es muy sencillo comprobar queP ( B I A ) para unvalor d e A fijo satishce
los diversos postuladosd e la probabilidad, ecuacin (1.3). (Vease el Prob. 3.22.)
Esto es, tenemos:

c) Si A = S,P ( B I S)= P ( B n S ) / P ( S )= P ( B ) .
d ) Con cada evento B c S podemos asociar dos nmeros, P ( B ) ,la probabi-

lidad (no condicional) d e B y P ( B I A ) , la probabilidad condicional de B , dado


que algn evento A (para el cual P ( A ) > O) ha ocurrido. En general, esas dos
medidas d e probabilidad aignarn probabilidades distintas al evento B , como
se indic en los ejemplos precedentes. En breve estudiaremos un importante
caso especial, en el cual P ( B ) y P ( B I A ) son la misma.
e ) Ntese que la probabilidad condicional est definida en trminos de la
medida d e probabilidad no condicional P . Esto es, si conocemos P ( B ) para
cada R c S podemos calcular P(B I A ) para cada B c S.

As tenemos dos maneras de calcular


la probabilidad condicional
P(B I A):
a) En forma directa considerando la probabilidad d e B respecto al
espacio muestra1 reducidoA .
b) Usando la definicin antcrior, donde P ( A n B ) y P ( A ) se calculan
rcspccto al espacio mucstral originalS .
Obsewacix: S i n = S,obtenemosP(B I S ) = P ( B n S ) / P ( S )= P ( B ) ,puesto
y e P ( S ) = 1 y B n S = B. As debe ser, porque decir queS ha ocurrido, slo
ndica que el experimento se ha realizado.

EJEMPLO3.2. Supngasequeenuna
oficinahay 100 mquinas
calculadoras. Algunas d e esas mquinas son elctricas ( E ) ,mientras que
otras son manuales ( M ) . Adems, algunas son nuevas ( N ) , mientras las
otras son usadas ( U ) . La tabla 3.1 da el nmero de mquinas de cada

3.1

condicional

Probabilidad

47

categora. Una persona entra en la oficina, escoge una mquina al azar


y descubre que es nueva. <Cul es la probabilidad de que sea elctrica?
En terminos de la notacin presentada deseamos calcular P ( E I N ) .
TABLA
3.1

N
U

*j
60

40

100

Slo considerando el espacio mucstral reducido N (es decir, las 70


mAquinas nuevas),
tenemos
que: P ( E I N ) =
= +. Usando la
definici6n d e probabilidad condicional, tenemos que:

P(E I N ) =

P ( E n N ) -"
4
-- 40,'loo P(N)
70,1100 7

La consecucncia ms importante
d e la definicin de probabilidad
condicional anterior se obtiene escribindola de la manera siguiente:
a

lo que equivale

P(An B ) = P ( B I A)P(A)
P ( A n B ) = P ( A I B)Pl(B).

(3.3a)

Esto tambin se conoce como el teorema de nzultiplicacidn de probabilidades.


Podemos aplicar este teorema
al clculo d e la probabilidad de la
ocurrencia simultnea delos dos eventos A y B.

EJEMPLO3.3. Consideremos otravez el lote analizado al principio de


la seccicin3.1, el cual constad e 20 artculos defectuososy 80 sin defectos.
Si escogemos 2 artculos al azar, sin sustitucin,Ccul es la probabilidad
de que ambos artculos sean defectuosos?
Como antes, definimos los eventos A y B como sigue:

A = {el primer artculoes defectuoso},

B = {el segundo artculo es dlefectuoso}.

3.1

independencia
48 Probabilidad
cottdicwnal
e

Por lo tanto, necesitamos P ( An B ) , que puedecalcularse de acuerdo


19
con l a frmulaanterior,como P ( B I A ) P ( A ) . Pero P ( B I A ) = m,
mientras que ~ ( ~ =4 &.
) Por lo tanto,
19
P ( A n B ) = -.

495

Obseruacin: El anterior teorema dela multiplicacin (3.3a) se puede generalizar a m& d e dos eventos de la siguiente manera:

Por un momento considresesi podemos hacer una afirmacin general d e l a magnitud relativa de P ( A I 13) y P ( A ) . Consideremos los cuatro
casos ilustrados con los diagramas de Venn en la figura 3.2. Tenemos:
a ) P(.4 I B ) = O 5 P ( A ) , puesto que A no puede ocurrir si I3 h a
ocurrido.
6) P ( A I B ) = P ( A n B ) / ( P ( B )= [ P ( A ) / P ( B )2] P ( A ) , puesto que
o 5 P ( B ) 5 1.
C) P ( A I B ) = P ( A n B ) / P ( B )= P ( B ) / P ( B )= 1 2 P ( A ) .
d ) En este caso no podemos hacer ninguna afirmacin acerca de l a
magnitud relativa de P(,4 I B ) y P ( A ) .

Vinguno de estos casos

FIGURA
3.2
NGtese que dos de los casos anteriorcs, P ( A ) 5 P ( A I B ) , en un caso,
P ( A ) 2 P ( A I O).y en el cuarto caso no podemos hacer ninguna clase
d e comparaciones.
Anteriormente usamos el concepto dc probabilidad condicional con
el fin d e evaluar la probabilidad d e la ocurrencia simultnea delos dos
eventos. Para calcular la probabilidad de un solo evento A, podemos

3.1

condicional

Probabilidad

49

aplicar este concepto de otra manera. Necesitamos la siguiente definicin.


Definicin. Decimos que los eventos B1, Ba, . . . ,BI, representan
unaparticidn del espacio muestral S si:
a)

b)

B; n Bj = 8 para toda i

# j.

uk B; = s.

i=l

c)

P ( B ; ) > O para toda i.

En otras palabras, cuando se efecta


el experimento E, ocurre uno y slo
de uno
los eventos B;.

FIGURA3.3

(Porejemplo,enellanzamientodeundado
B1 = {1,2}, B2 =
y B3 = (6) representaran una partSci6n del espacio muestral,
mientras que C1 = { 1 , 2 , 3 , 4 } y C2 = { 4 , 5 , 6 } no lo haran.)
Sea A algn evento respecto a S y sea B1, B?, . . . , Bk una particin
de S.
El diagrama de Venn de la figura 3.3 ilustra esto para k = 8. Por
tanto, podemos escribir
{3,4,5}

Por supuesto algunos de los conjuntos A n Bj pueden ser vacos,


pero esto no invalida la anterior descomposicin d e A . Lo importante
es que todos los eventos A n D l , . . . ,A n BI, son parejas mutuamente
escluyentes. Por lo tanto, podemos aplicar la propiedad aditiva para
este tipo d e evcntos (Ec. 1.3) y escribir:

Sin embargo,cadatrmino
P ( A n B j ) ,se puedeexpresarcomo
P ( A I B j ) P ( B j )y, por lo tanto, obtenemos el llamado teorema de la
pobabilidud totul:

3.1

50 Probabilidad econdicional independencia

2 ;:
v.

, .,

-.

*_,

.:-

Este resultado representa una relacin muy til, ya que cuando se


busca P ( A ) frecuentemente puede ser dificil calcularlo de manera directa. Sin embargo, conla informacin adicionald e que Bj ha ocurrido,
podemos calcular P ( A I B j ) y entonces usar la frmula anterior.

EJEMPLO3.4. Consideremos (por ltima vez) el lote d e 20 artculos


defectuosos y SO sin defectos, d e los cuales escogemos dos artculos sin
sustitucin. Nuevamente definimos A y B :
A = {el primer artculo elegido es defectuoso},

B = {el segundo artculo elegido es defectuoso}.


ahora podernos calcular P ( B ) como sigue:

P ( B )= P ( B I A)P(A) P ( B I AC)P(AC).
Usando uno de los clculos ya hechos en el ejemplo 3.3, encontramos

que

19.1
22.4
P ( B ) = ?Jg
5+?Jg S = : .

Este resultado puede ser un poco sorprendente, particularmente si


el lector recuerda que al comienzo d e la seccin 3.1 encontramos que
P ( B ) = cuando escogemos los artculos con sustitucin.

&

EJEMPLO3.5. Cierto artculo se manufactura en tres fbricas, digamos 1 , 2 y 3. Se sabe quela primera produceel doble d e artculos que la
segunda y que 6sta y la tercera producenel mismo nmero deartculos
(durante un periodode produccin especificado). Se sabe tambin que
el 2% d e los artculos producidos por las dos primeras es defectuoso,
mientras queel 4% d e los manuracturados por la tercera es defectuoso.
Todos los artculos producidos se colocan en una fila y se escoge uno al
azar. ? C u d es la probabilidad de queeste artculo sea defectuoso?
Definamos los siguientes eventos:
A = {el artculo es defectuoso},

I?, = {el artculo proviene de 2},

B1 = {el artculo proviene d e l},


B3 =

{el artculo proviene d e 3).

3.2

Nosotros necesitamos
escribir:

P ( A ) y, usando el resultado anterior, podemos

w I Bl)P(Bl)+ P ( A I B2)P(132) + P ( A I B 3 ) P ( B 3 ) .
1
P ( B 1 ) = i, mientrasque P ( B 2 ) = P(133) = 4.
Tambin

P(A)=

Ahora
P ( A I B,) = P ( A 1 Bz) = 0.02, mientrasque P ( A I B3) = 0.04.
Poniendo sus valores en la expresin anterior obtenemos P ( A ) = 0.025.
Obsemacwn: Conelteorema
de la probabilidadtotal, en qumicase ha
observado la siguiente analoga. Supngase que k matraces que contienen
diferentes soluciones d e la misma sal hacen un litro. Sea P(B;)
el volumen
del i-simo matraz y P ( A I B ; ) la concentracin de la solucin en el. i-simo
matraz. Si combinamos todas las soluciones en un matraz y suponemos que
P ( A ) indica la concentracin de la solucin resultmte, obtenemos:

3.2 Teorema de Bayes


Podemos usar el ejemplo
3.5 para demostrar otro resaltado importante.
Supongamos que del depsito
seescoge un artculo y se encuentra
que es defectuoso. Cul es la probabilidad de que se produjese en la
primera fbrica?
Usando la notacin antes presentada, neccsitamos P(B1 I A ) . Podemos calcular esta probabilidad como una consecuencia d e la siguiente.
. . , SI,una particin del espacio muestra1 S y A un evento
Sean SI,.
asociado con S. Aplicando la definicin d e probabilidad condicional,
podemos escribir:

Este resultado se conoce como teorema de B u y s . Tambin se le llama


frmula para la probabilidad de las causas. Puesto quclas B; son una
particin del espacio muestral, uno y slo uno de los eventos B; ocurre.
(Esto es, uno d c los eventos B; debe ocurrir y solamente uno.) Por lo
tanto, la frmula anterior nos da la probabilidad de un B; particular
(esto es, una causa), dado que el evento A ha ocurrido. Para aplicar
este teorema debemos conocerlos valores d e llas P ( Si).Muy a menudo
esos valores no son conocidosy esto limita la aplicabilidad del resultado.

5 2 Probabilidad condicional e ittdepetldencia

3.2

1 Ia existido una considerable controversia acerca del teorema


d e Bayes,
el cual entrminosmatemticos
es perfectamentecorrecto, slo l a
eleccin impropia para P ( B;) hace objetable el resultado.
Volviendo a la pregunta propuesta anteriormentey aplicando ahora
la ecuacin (3.5),obtenemos:

P(B1 I A) =

(0.02)(1/2)

o-W(1/2)
+ ((0.02)(1/4)
+ (0.04)(1/4) = 0.40.

Obsenlacidn: Otra vez podemos encontrar en qumica una analoga con el


teorema d e Bayes. En E Inatraces tenemos soluciones de l a misma sal, pero en
concentraciones diferentes. Supongamosque el volumen tot71 d e la solucin es
un litro. Indicando el volumen de la solucin en el i-Csimo matraz conP ( B ; )y
la concentracin de la sal en ese mismo matraz con P ( A I I ? ; ) , encontramos que
a
l ecuncicin (3.5) da la proporcin d e la cantidad completa d e sal encontrada
en el i-simo matraz.

La siguiente ilustracin del teorema d e Bayes nos dar la oportunidad de introducir l a idea de diagrama de rbol, mtodo muy til para
analizar ciertos problemas.
Supngase que varias cajas de caramelos son d e dos tipos, digamos
A y B . El tipo A contiene 70% d e caramelos dulces y 30% de caramelos
Acidos, mientras que en el tipo B dichos porcentajes estn invertidos.
Alin ms, supngase que el60% d e todas las cajas d e caramelos son del
B.
tipo A , mientras que el resto son del tipo
Ahora estamos ante el siguiente problema d e decisin. Usted recibe
una caja d e dulces d e tipo desconocido. Sele permite sacar una muestra
d e caramelo (una situacin ciertamente no real, pero que nos permite
presentar las ideas importantes sin mucha complicacin y con esta informacin debe decirsi cree quese le ha sido ofrecidoel tipo A o el tipo
B. El siguiente diagrama de rbol (llamado
as por las diversas trayectorias o ramas que aparecen)nos ayudar a analizar el problema. (S, y
S, indican la eleccin de un caramelo dulceo cido, respectivamente.)

.
L

3.2

Teorema de Bayes

53

Hagamos unos cuantosclculos:

P ( A ) = 0.6; P ( B ) = 0.4; P ( S ,
P(So I A ) = 0.3; P ( S ,

I A ) = 0.7;

B ) = 0.3; ](S,

I B ) = 0.7

Lo que en realidad deseamos saberes P ( A I S,,), P ( A I S,), P ( B I S,)


y P ( B I S,). Esto es, suponiendo que realmenteescogimos un caramelo
dulce, qu decisin estaramos ms inclinados a hacer? Comparemos
P ( A I S,) y P ( B I S , ). Utilizando la frmula1 d e Bayes tenemos

Un clculo similar nos da P ( B I S


, ) = 2/9.

A s , con base en la evidencia que tenemos (es decir, la obtencin d e


un caramelo dulce) es 3; veces ms probable que se trate d e una caja
del tipoA que del tipoB. Por lo tanto, decidiramos, posiblemente, que
el caramelo se obtuvo d e u n a caja tipo A . (For supuesto, podramos
estar equivocados. Lo interesante del anlisis anterior es que elegimos
la alternativa que parece ms probable con
ba.se e n los pocos datos que
tenemos.)
En trminos del diagrama de rbol,lo que realmente necesitbamos
(e hicimos) en los clculos precedentes fue unanlisis hacia atrs.Esto
es, dado lo que observamos, en este caso SM,,Cqu tan probable era
escoger el tipoA?
Una situacin ms interesante aparece si ,se nos permite elegir dos
caramelos antes de decidir si es escogido el tilpo A o el tipo B. En este
caso, el diagrama de rbol aparecer como sigue.

54 Probabilidad condicional e indepertdettcia

3.3

En el problema 3.26 se le pide a usted decidird e cul d e los dos tipos,


A o B, est5 tomando muestras, scgnlos tres resultados experimentales

posiblcs que observa.

3.3 Eventos independientes


Hemos considerado dos eventos A y B que no pueden ocurrir de manera simultfinea, esto es A n B = 0. Tales eventos se designaron mutuamente excluyentes. Antes indicamos que si A y B son mutuamente
excluyentcs, entonces P ( A I B ) = O, porque la ocurrencia de B impide la ocurrcncia de A . Por otra parte, tenemos el caso, ya discutido
anteriormente, en que B 3 A y, por lo tanto, P ( B I A ) = 1.
En cada uno de los casos anteriores, sabiendo que B ocurri, se nos
dio una informacin precisa sobrela probabilidad d e la ocurrencia de
A . Sin embargo, hay muchos casos en los cuales se sabeque si un evento
B ocurre, no tiene influencia alguna en la ocurrencia o no ocurrencia
de A.

EJEMPLO3.6. Supongamos que un dado normalse lanza dos veces.


Definiremos los eventos A y B como sigue:
A = {el primer dado muestra un nmero par},
B = {el segundo dado muestra un5 o un 6).

Por intuicin sabemos que los eventos A y B no estn relacionados.


ocurrencia
Saber queB ocurre no proporciona informacin acerca lade
d e A . De hecho, el siguiente clculo lo pone de manifiesto. Tomando

55

independientes Eventos

3.3

como nuestro espacio muestra1 los 36 resultados iaualmente posibles


18
?
12
1
del ejemplo 3.1, encontraremos que P ( A ) = E
= z, P ( B ) = E = 3 ,
6
mientras que P ( A n B ) = E
= 1 Por lo tanto,

As encontramos, como era de suponer, que


la probabilidad no condicional es igual a la probabilidad condicional P ( A I B ) . De modo se-

mejante

Por lo tanto, podramos inclinarnos a decir que A y B son independientes si y slo si P ( B I A ) = P ( A ) y P ( B I A ) = P ( B ) . Aunque esto
sera esencialmente apropiado, hay otro mtodo que evita la dificultad
encontrada aqu, asaber, que ambos, P ( A ) y P ( B ) ,deben ser diferentes
d e cero antes de quelas igualdades anteriores sean significativas.
Consideremos P ( A n B ) , suponiendo que las probabilidades condicionales anteriores sean iguales a las probabilidades no condicionales
correspondientes. Tenemos

r ( A n B ) = P ( A 1 B ) P ( B )= P ( A ) P ( B ) ,
P ( A n B ) = P ( B I A ) P ( A )= P ( B ) P ( A ) .

A s encontramosque,comoni

P ( A ) ni P(B) sonigualesacero,

las probabilidadesnocondicionalesson
igualesa las probabilidades
condicionales si y slo si P ( A n B ) = P ( A ' ) P ( B ) . Aquhacemos la
siguientedefinicinformal.
[Si P ( A ) o P( B ) esigualacero,esta
definicin es an vlida.]
Definicin. A y B son eventos indepeEdientes si y slo si

P(AnB ) = P(A)P(Bj.

(3.6)

Observacwn: Esta definicin es esencialmenteequivalentea


la que antes
sesugiri,es decir, que A y B son independientes si P ( B I A ) = P ( B ) y
P ( A I B ) = P ( A ) . Esta ltima forma es un poco ms intuitiva, porque
afirma precisamente lo que hemos estado tratando de decir antes: A y B son

56 Probabilidad condicional
independencia
e

3.3

independientes si el conocimiento de In ocurrencia d e A no influye de modo


alglno enla probabilidad d e la ocurrencia de B.
Que la definicin formal adoptada tambin tiene cierto carjcter intuitivo,
puede verse al considerar el siguiente ejemplo.

EJEMPLO3.7. Veamos otra vez elejemplo 3.2. Consideremos


primero la tabla siguiente slo con los valores marginales dados.

100

40

60

Esto es, hay 60 mquinas elctricas y 40 manuales. Del total, 70 son


nuevas, mientras que 30 son usadas. Hay diversas maneras d e colocar
los datos en la tabla, consistentemente con los totales marginales dados.
A continuacin anotamos algunas d e esas posibilidades.

N r l ;: :E];: : K l ; :
E

40

60

(4

100

40

60

(b)

100

40

60

100

(c)

Consideremos l a tabla u). Aqu todus las mquinas elctricasson


A s hay una relacin obvia
nuevas, y todus las usadas son manuales.
(no necesariamente causal) entre las caractersticas de ser elctricas y
ser nuevas. De igual manera, cnla tabla 6 ) todas las mquinas manuales
Otra vez parece existir
son nuevas y todus las usadassonelctricas.
una relacin definida entre esas caractersticas. Sin embargo, cuando
observamos la tabla c ) , el panorama es muy diferente. Aqu no existe
unarelacinaparente.
Por ejemplo, el 60% d e todas las mquinas
son elctricas. De modo semejante, el 70% de todas las mAquinas son
nuevas, y exactamente el '70% d e las mquinas manuales son nuevas,
etc. A s , no es evidente que las caractersticas d e "ser nuevas'' y "ser
elctricas" tengan alguna relacin entre s. Por supuesto, esta tabla se
construy precisamente de modo que exhiba
esta propiedad. Cmo se
obtuvieron los datos d e esta tabla? Simplemente aplicando la ecuacin
P(E) =
y P(N) =
debemos
tener,
(3.6);
es
decir,
como
Por lo tanto,
porindependencia, P ( E n N ) = P ( E ) P ( N ) =
la colocacin del dato en la tabla que indica el nmero de mquinas

fi

g.

Eventos independientes 57

3.3

elctricas nuevas est dada por el nmero42. Las otras ubicaciones se


obtuvieron de un modo semejante.
En la mayor parte de las aplicaciones sufiondremos la independencia
de los dos eventos A y B , y luego usaremos esta suposicin para calcular
P ( A n B ) , como P ( A ) P ( B ) . En general, las condiciones fisicas en
las cuales se realiza el experimento harn posible determinar si tal
suposicin se justifica o si a l menos lo hace aproximadamente.

EJEMPLO3.8. Consideremos un lote grande d e artculos, digamos


10 000. Supongamos que el10% d e estos artculoses defectuoso y el 90%
no. Se escogen dos artculos. Cul es la probabilidad de que ambos no
sean defectuosos?
Definamos los eventos A y B as:

A = {primer artculo no es defectuoso},


B = {segundo artculo noes d.efectuoso}.

Si suponemosqueelprimerartculo
se sustituyeantes d e elegir
el segundo, entonces
se puede suponer que los eventos A y B son
independientes y, por tanto, P ( A n B ) = (0.9)(0.9) = 0.81. Sin embargo,
en formams real, el segundo artculo
se escoge sin sustituir el primero.
En este caso,

P ( A n B ) = P ( B I A ) P ( A ) =: E ( O . 9 )
que es aproximadamente 0.81. As, aunque A y B no son independientes en el segundo caso, la suposicin de independencia que simplifica en forma considerable los clculos slo causa un error despreciable.
(Recuerde el objetivo de un modelo matem5tico comoel que se describi en la seccin l . 1.) Si hubieran existidosllo pocos artculosen el lote,
digamos 30, la suposicin de independencia habra producido un gran
error. Por esto es importante verificar con cuidado las condiciones en
las cuales se realiza el experimento, a fin de establecer la validez de l a
suposicin de independencia entrevarios eventos.

EJEMPLO3.9. Supngase que un mecanismo est formado por dos


componentes acoplados en serie, como se indica en l a figura 3.4.Cada
uno de ellos tiene una probabilidad p d e no funcionar. Cul es la
probabilidad dc queel mecanismo funcione?

58 Probabilidad condicional e independencia


-

3.3

E m =

FIGURA3.4

Es evidente que el mecanismo funcionar si y slo si nnzbos componentes funcionan. Por tanto,
Prob. (mecanismo filncione) = Prob. (C, funcione y Cz funcione)

La informacin que hemos dado nonos permite seguir, a menos que


sepamos ( o supongamos) que los dos mecanismos trabajan de manera
independiente. Esta puedc o no ser una suposicin realista, que depende dc cmo se acoplan las dos partes. Si suponemos que los dos
mecanismos trabajan independientemente, para l a probabilidad pedida obtencmos (1 - P ) ~ .
Para nosotros ser muy importante extender la nocin de independencia a ms de dos eventos. Consideremos primero tres eventos asociados con un experimento, digamos: A , B y C . Si A y B , A y C y B y C
son nzutuamente independientes (en el sentido antes dado), entoncesno
se deduce, cn general, qne no haya dependencia entre los tres eventos
A , B y C . El siguicnte ejemplo (algoartificial) ilustra este punto.

EJEMPLO3.10. Supongamos que lanzamos dos dados. Definamos


los eventos A , L3 y C como sigue:

A = {el primer dado muestra un nilmeropar},


13 = {el segundo dado muestra un nmero impar},

C = {ambos dados muestran nmeros pares o nmeros impares}.

i.

Tenemos P(A) = P ( O ) = P ( C ) =
Anm&, P ( A n B ) =
1
P ( A n C ) = P ( B n C ) = T. Por lo tanto, los tres eventos son mutuamente
illdependicntcs. Sin embargo, P ( A n B n C ) = O # P ( A ) P ( B ) P ( C ) .
Estc ejcmplo motiva la siguiente definicin.
Definicin. Decimos que los tres eventos, A , B y C , son mutuamente
independientes si y slo si todas las condiciones siguientes se mantienen:

3.3

Eventosindependientes

59

Finalmente generalizaremos esta nocin a n eventos en la siguiente


definicin.

Definicin. Los n eventos A l , A ? , . . . , An s'on mutuamente independientes si y slo si tenemos para k = 2,3,. . . ,n,
P(A;,

(Hay 2n

n A;, n . n A i k ) = P ( A ; , ) P ( A ; , ) .
a

-n

P(A;,).

(3.8)

- 1 condiciones juntas anotadas;vase el Prob. 3. IS.)

Obseroacwn: En la mayor parte de las aplicaciones no necesitamos verificar


todas estas condiciones, ya que engeneralsuponenwsla independencia (con base
en lo que sabemos acercadel experimento).Nosotros entonces usamos esta suposicin p?ra calcular, digamos: P ( A ; , n A in..
, .(\A;,) como P ( A ; , ) P ( A i , ) .. .
P(&, 1.

FIGURA3.5
EJEMPLO3.11. La probabilidad de cerrar cada uno delos relevadoen la figura 3.5 est dada porp . Si todos los
res del circuito que se indica
relevadores funcionan independientemente, ?cules la probabilidad de
que exista una corriente enlos terminales I y D?
Sea A; el eventoquerepresenta{relevador
i est cerrado}, i =
1,2,3,4. Sea E el evento que representa {la corriente pasa de I a D}.
Por tanto, E = (Al n A2) u ( A 3 n A4). (Note que Al n A2 y A3 n A4 no
son mutuamente excluyentes.) As,

P(E) = P ( An
~ z42) p ( A 3 n A4) - P(A1 n A2 n A3 n A4)
= p 2 + p 2 - p 4 = 2 p "9 p .

60 Probabilidad condicional e independencia

3.3

EJEMPLO3.12. Supngase otra vez que en el circuito de la figura


3.6 la probabilidad de que cada uno de los relevadores est cerrado es
p y que todos los relevadores funcionan independientemente. Cul es
la probabilidad de que exista una corriente entre los terminales I y D?
Usando la misma notacin como en el ejemplo 3.11, tenemos que

P ( E ) = P(A1 n A2)
-

+ P ( i l 5 ) + P(A3 n A 4 ) - P(A1 n A, n A5)

P ( A 1n A, n A3 n A4) - P ( A 5 n A3 n A 4 )

+ P(A1 n A2 n A3 n A 4 n A s )
2

= p +p+p

-p

-p-p

S p = p + 2 p- 2 p 3 - p 4 + p 5 .

Para cerrar este captulo indiquemos una solucin muy comn, pero
errnea, del problema.

EJEMPLO3.13. Suponga que entre seis pernos, dos son m5s cortos
que una longitudespecfica. Si se escogen dos pernos a l azar, Ccul es la
probabilidad d e escoger los dos ms cortos? SeaAi el evento {el i-simo
perno elegido es corto}, i = 1 , 2 .
Por lo tanto, queremos evaluar P(A1 n A2). La solucin correcta se
obtiene, naturalmente, al escribir

La soluciGn comn, pero incorrecta, es escribir:

Por supuesto, lo importante es que aunque la respuesta es correcta, l a


identificacin d e con P ( A 2 ) es incorrecta;representa
P(A2 I A l ) .
Para evaluar P( A,) en forma correcta,escribimos

probabilidad ... 6 1

Consideraciones
esguemcticas;

3.3

3.4 Consideraciones esquemticas; probabilidad


condicional e independencia
La solucin esquemtica siguiente puede ser til para comprender el
concepto d e probabilidad condicional. Supngase que A y B son dos
eventos asociados con un espacio muestra], para el cual
las distintas
probabilidades se indican en el diagrama de Venn que aparece en la
figura 3.7.

0.2

FIGURA
3.7

Por lo tanto, P ( A n B ) = 0.1, P ( A ) = 0.1 0.3 = 0.4 y P ( B ) =


0.1 0.4 = 0.5.
En seguida, representemos las diversas probabilidades con las rem
de los rectngulos como en la figura 3.8. E n cada caso, las regiones
sombreadas indican el eventoB : en el rectngulod e la izquierda representamos A n B y en el d e la derecha A n B.

FIGURP

Supongamos ahora que deseamos calcular P ( B I A ) . As slo necesitamos considerar A; esto es, A puede ignorarse en los clculos.
Notemos que la proporcin d e B en A es 1/4:. (Esto lo podemos verificar tambin al aplicar la ecuacin (3.1): P ( B I A ) = P ( A n B ) / P ( A ) =

62 Probabilidad condicional
independencia
e

3.3

P(U 1 A ) = 3 / 3 ; el diagrama que representa esta probabilidad condicional se ilustra enla figura 3.9.

O.I/O.[I = 1/?1.>Por lo tanto,

Ntese tambih quc si A se da como ocurrido, todas las probabilidades (es dccir, 1) se deben asociarcon el evento ,,I
mientras
,
que ninguna
de las probabilidades (es decir, O) estB asociada con dl.
An ms, ntcse
que en el rectngulo izquierdo, que reprcsenta . 4 , s6lo las colocaciones
l figura 3.8 a la figura 3.9 (sumando 1
individuales han cambiado d e a
en vez de 0.4). Sin enlbargo, las proporciones dentro del rcctngulo
permanecen iguales (es decir, 3 : 1).
Ilustremos la noci6n deindcpendcnciausando
el procedimiento
esquem5tico presentado anterionncnte. SupBngase quelos eventos *4 y
B se dibujan en la figura 3.10. En ese caso, las proporcioncs en los dos
rcctngulos, que representan 11 y
son las misu~as:3:I cn ambos casos.
As tenemos P ( B ) = 0.1 0.15 = 0.25, y P(L3 n A ) = 0.1/0.4 = 0.25.

, IS

FIGURA
3.10

Finalmente, por sinlplc inspeccin de l a figura 3.S podemos calcular


las otras probabilidades condicionales:

P ( A I I?) = 1/5 (puesto que 1/5 dcl rea total rectangular que representa B est ocupada por A),
P ( A I B ) = 4/5.

Problemas 63

PROBLEMAS
3.1. La urna 1 contiene x esferas blancas y y rojas. La urna 2 contiene .z
esferas blancas y u rojas. Se escoge una esfera al azar d e la urna 1 y se pone
en la urna 2. Entonces se escoge una esfera al azar d e la urna 2. Cul es la
probabilidad de queesta esfera sea blanca?

3.2. Dos tubosdefectuososse confunden con dosbuenos.


prueban, uno por uno,
hasta encontrar los defectuosos.
a) Cul es la probabilidad d e encontrar el
segunda prueba?
b ) Cul es la probabilidad d e encontrar el
tercera prueba?
c) Cul es la probabilidad de encontrar el
cuarta prueba?
d ) Sumar los nmeros obtenidosena), b ) yc).

Los tubos se

illtimo tubo defectuoso en la


diltimo tubo defectuoso en la
illt.imo tubo defectuoso en la
:Es sorprendente el resultado?

3.3. Una caja contiene 4 tubos malos y 6 buenos. Se sacan dos a la vez. Se
prueba uno deellos y se encuentra quees bueno. (Cul es la probabilidad d e
que el otro tambin sea bueno?
3.4. En el problema anterior los tubos se verifican sacando uno al azar, se
prueba y se repite el proceso hasta que se encuelntran los cuatro tubos malos.
Cul esla probabilidad d e encontrar el cuarto tubo malo
a ) e n la quinta prueba?
b ) en la dcima prueba?
3.5. Supngase que A y B son dos eventos independientesasociados con un
experimento. Si la probabilidad de queA o B ocurra es igual a 0.6, mientras
que la probabilidad de q u e A ocurra es iguala 0.4, determinar la probabilidad
de queB ocurra.
3.6. Veinte artculos, 12 de los cuales son defectuosos y 8 no defectuosos, se
inspeccionan uno despus d e otro. Si esos artculos se escogenal azar, cul es
la probabilidad de que:
a ) los dos primeros artculos inspeccionados sean defectuosos?
b ) los dos primeros artculos inspeccionados scan no dcfectuosos?
c) entre los dos primeros articulos inspeccionados haya uno defectuoso y
uno no defectuoso?

3.7. Supngase que tenemos 2 urnas, 1 y 2, cada una con dos cajones. La
urna 1 tiene una monedade oro en cajn
un y un,a d e plata e n el otro,mientrns
que la urna 2 tiene una moneda de oro encada uno delos cajones. Se escoge
una urnaal azar, y de sta seescoge un cajn al azar. La moneda que se encontr

64 Probabilidad condicional e independencia


e n este caj6n es de oro. Cul es la probabilidad de que la moneda provenga
d e la urna 2?

3.8. Un bolso contiene tres monedas, unad e las cuales est5 acuada con dos
caras, mientras que las otras dos monedas son normales y no son irregulares.
Se escoge una moneda alazar y se lanza cuatro veces en forma sucesiva. Si cada
vez sale cara, ?cul es la probabilidad de queSta sea la moneda con dos caras?
3.9. En

una fbrica d e pernos, las mquinas A , B y C fabrican 25, 35 y

40% d e la produccin total, respectivamente. De lo que producen, 5, 4 y 2%


respectivamente, son pernos defectuosos. Se escoge un perno al azar y resulta

ser defectuoso.

cules son las probabilidades respectivas de que el perno


provenga d e la mquina A , B o C?

3.10. Sean A y B dos eventos asociados con un experimento. Supngase


que P ( A ) = 0.4, mientras que P ( A U B ) = 0.7. Sea P ( B ) = p .
Para queleccin de p son A y B mutuamente excluyentes?
b ) Para qu eleccin de p son A y B independientes?

a)

3.1 1. Trescomponentes de un mecanismo, digamos C1, C2 y C3 est5n


colocados en serie (en una lnea recta). Supngase q u e esos mecanismos estn
agrupados en orden
aleatorio. Sea R el evento {Cz est a la derecha d e Cl}, y S
el evento(C3 est a la derecha d e Cl}. Los eventos R y S son independientes?
Por qu?
3.12. Se lanza un dado y d e manera independiente se escoge al azar una
carta de unabaraja normal. ?Cul es la probabilidad d e que:
el dado muestre un nmero pary la carta sea de unpalo rojo?
b ) el dado muestre un nmero paro la carta sea de unpalo rojo?

a)

3.13. Un nmero binario e s d compuesto slo d e los dgitos O y 1. (Por


ejcrnplo, 1O 1 1, 1100, etc.) Esos nmeros tienen un papel importante en el
uso de los computadores electrnicos. Supngase que un nmero binario est5
formado por n dgitos. Supngnse que la probabilidad d e que aparezca un
dgito incorrectoes p y que los errores endgitos diferentes son independientes
uno de otro. Cul es la probabiliclatl de formar un mmero incorrecto?
3.14. Se lanza un dado n veces. t C u d es la probabilidad de queG salga a1
menos una vez en los R lanzamientos?
3.15. Dos personas lanzan tres monedas regulares cada
probabilidad de que obtengnn el mismo nmero decaras?

una. Cul es la

3.16. Se lanzan dos dados y puesto que las caras muestran nmeros diferentes, m51es la probabilidad d e que una cara sea <I?
3.17. En la fabricacin d e cierto artculo se presenta un tipo de defectos
con una probabilidad d e 0.1 y defectos de un segundo tipo con probabilidad

65

Problemas

d e 0.05. (Se supone la independencia entre los tipos de defectos.) ?Cul es la


probabilidad d e que:
u n articulo no tenga ambasclases d e defectos?
b ) u n articulo sea defectuoso?
c) suponiendo que un
artculo sea defectuoso,t.enga slo u n tipo d e defecto?
a)

3.18. Verificar que el nmero decondiciones indicadas en la ecuacin (3.8)


est dado por 2n - n - 1.
3.19. Probar que si A y B son eventos independientes, tambin lo son A y

BC,ACy B , AC y BC.

3.20. En la figura 3.1 1 a ) y b ) se supone que la probabilidad de que cada


relevador est cerrado es p y que cada relevador se abre o SE. cierra independientemente d e cualquier otro. Encontraren cad,a caso la probabilidad de que
la corriente pase d e 1 a D.
TABLA
3.2
Nmero
d e fallas

o. 1

0.2

O.3

o. 1

0.3

0.2

0.09

0.07

0.04

o.1

o.1

o.1

0.15

0.15

3.21. Dos mquinas, A , B , que se accionan independientemente pueden


tener cierto nmero de fallas cada da. La tabla 3.2 da la distribucin d e
probabilidades dea
l
s fallas d e cada una. Calculara
lssiguientes probabilidades:

A y B tienen el mismo nmero defallas.


b ) El nmero defallas es Inenor que cuatro; menor quecinco.
c ) A tiene m& fallas que B.
d ) B tiene el doble d e fallas que A .
e ) B tiene cuatro fallas, cuando se sabe que B tiene por lo menos dos fallas.
a)

66 Probabilidad condicional e independencia


J) El nmero mnimo d e fa1l'a.s de las dos m5quinas es tres; es menor que

tres.

g) El nmero mximo d e fallas d e las mquinas es tres; es m5s que tres.

3.22. tisando la ecuacin (3.2),demostrar que paraA fijo, P ( B I A ) satisface


los diversos postulados de la probabilidad.
3.23. Si cada uno de los elementos de un determinante de segundo orden
es cero o uno, cud1 es la probabilidad de que el valor del determinante sea
positivo? (Supngase que las colocaciones individuales del determinante se
escogen independientemente, considerando quecada uno delos valores tiene
probabilidad .)
3.24. Verificar que el teorema de la multiplicacin P ( A n B ) = P ( A I
B ) P ( B ) ,establecido para dos eventos, se puede generalizar para tres eventos
como sigue:

P ( A n B n C)= P ( A I B

n C)P(BI C)P(C).

3.25. Unconjuntoelectrnicoconsta
de dos subsistemas, digamos A y
B. A partir de una serie de pruebas previas, se presuponen las siguientes
probabilidades:

P ( A falle) = 0.20,

P ( B slo falle) = 0.15,


P ( A y B fallen) = 0.15.
Calcular las probabilidades siguientes.

P ( A falle 1 B haya fallado),


b ) P ( A falle solamente).

a)

3.26. Finalizar el anlisis del ejemplo de la seccin 3.2 decidiendo culd e los
tipos d e cajas d e caramelos, A o B,es el escogido con base en el conocimiento
de doscaramelos que fileron muestreados.
3.27. Cada vez que se realiza un experimento, la ocurrencia de un evento
particular A es igual a 0.2. El experimento se repite, independientemente,
hasta que A ocurre. Calcular la probabilidad de quesea necesario ejecutar un
cuarto experimento.
3.28. Supngase que un
mecanismo tiene N tubos yque todos sonnecesarios
para su funcionamiento. Para localizar el tubo que funciona mal, se reemplaza
sucesivamente cada uno de ellos por uno nuevo. Calcular la probabilidad d e
que sea necesario verificar N tubos si la probabilidad (constante) de que un
tubo est dafiado esp .

Problemas

67

3.29.Probar: Si P ( A I B ) > P ( A ) ,entonces P ( B I A ) > P ( B ) .


3.30.Un tubo alvaco puede provenir d e cualquiera d e tres fabricantes con
probabilidades p l = 0.25, p2 = 0.50 y p3 = 0.25. Las probabilidades de queel
tubo funcione correctamente durante un periodo detiempo especificado son
iguales a 0.1,0.2 y 0.4, respectivamente, para los tres fabricantes. Calcular la
probabilidad de que un tuboelegido al azar filncione durante el periodo d e
tiempo especificado.
3.31. Un sistema elctrico consta d e dos interruptores del tipo A, uno del
tipo D y cuatro deltipo C conectados como apareceen la figura 3.12.Calcular
la probabilidad de queno se pueda eliminar una
fillla en el circuito conla llave
IC, si los interruptores A, B y C estiln abiertos (es decir, fuera d e servicio) con
probabilidades 0.3, 0.4, respectivamente,
0.2,
y si. ellos funcionan d e manera
independiente.

FIGURA
3.12
f

3.32. La probabilidad de que un


sistema se sobrecargue es0.4 durante cada
conjunto d e ensayos de un experimento. Calcular la probabilidad de que el
sistema deje de hncionar entres ensayos independientes del experimento, si
las probabilidades d e fallar en 1, 2 o 3 ensayos son iguales a 0.2,0.5 y 0.8,
respectivamente.

3.33. Se emiten sucesivamente cuatro seales de radio. Si la recepcin d e


cualquier seal es independiente
d e la recepcin dle otra y estas probabilidades
son 0.1,0.2, 0.3,y 0.4, respectivamente, calcularla probabilidad de quela seal
k se reciba por k = O, 1, 2, 3, 4.
3.34.Un aficionado usael siguiente sistema bastante simple para pronosticar
el tiempo atmosfrico. Clasifica cada da como seco
o mojado y supone que
la probabilidad de quecualquier dadado sea igual alprecedente est dada por
una constantep ( 0 < p < 1). Con base e n anotaciones anteriores, sesupone que
el lo. de enerotiene una probabilidad P d e ser seco. Suponiendo que Pn =

68 Probabilidad condicionale independencia


probabilidad (el n-simo da del aoes seco),obtener una expresin paraPn
en funcin d e P y p . Evaluar tambin lnln+m& e interpretar su resultado.
(Sugerencia: Expresar Pn en funcin de ,&-I).
3.35. En una ciudad se publican los peridicos A, B y C. Una encuesta
reciente de lectores indica lo siguiente: 20% lee A, lG% lee B, 14% lee C, 8%
lee A y B , 5%lee A y C, 2% Ice A, B y C, y 4% lee B y C. Para un adultoescogido
al azar, calcular la probabilidad de quea ) no lea ninguno d e los peridicos, b )
lea exactamente uno delos peridicos, c) lea al menos A y B si se sabe que lee
al menos uno delos peridicos.
3.36. Una moneda normal se lanza 2n veces

Obtener la probabilidad de quehaya un nmero igual d e caras y sellos.


b ) Mostrar que la probabilidad calculada en a ) es una funcin decreciente
de n.
a)

3.37. Cada una dea


ls urna 1, urna 2,. . . , urna n contiene cy esferas blancas
1 a la urna 2 y luego se pasa
una dela urna 2 a la urna 3, etc. Finalmente, se escoge una esfera de la urna
n. Si la primera esfera que se pas era blanca, Ccul es la probabilidad de que
la ltima esfera elegida sea blanca? Qu sucede cuando n + cm? [Szrgerencia:
Sea p n = Prob (n-Csima esfera pasada sea blanca) y expresar p n en trminos de

y P esferas negras. Se pasa una esfera de la urna

~n-1.1
cy esferas blancas y P esferas negras, mientras que
2 contiene P esferas blancas y cy esferas negras. Se escoge una esfera
(de una de las urnas) y luego se devuelve a esa urna. Si la esfera elegida es
blanca, la siguiente se escoge de la urna 1; si la esfera elegida es negra, l a
siguiente se escoge de la urna 2. Continuar de esta manera. Dado que la
primera esfera escogida proviene de la urna 1, obtener Prob (n-sima esfera
escogida sea blanca)y tambin el lmite d e esta probabilidad cuando n + cm.

3.38. La urna 1 contiene

la urna

3.39. Una mjquina puede imprimir n letras, digamos C U I ,.. . , c y T L . Esta


mhquina opera porilnpulsos elctricos y cada letrase produce por un impulso
diferente. Supngase que exista una probabilidad constante p d e imprimir la
letra correcta y tambin snpngr\se independencia.
Uno de los n impulsos,
elegido alazar, aliment la mquina dosveccs y las dos veces seimprirni la letra
a l . Calcular la probabilidad de que el impulso escogido estuviese proyectado
para imprimir a l .

4.1 Nocin general de una variable aleatoria


Al describir el espacio mucstral
de un experimento especificamos
no
que
un resultado individual necesariamente tiene: que ser un nmero. De
hecho, hemos citado varios ejemplos en los cuales el resultado del esperimento no fue una cantidad numbrica. Por ejemplo, a l clasificar un
artculo manufacturado simplementepodamlos usar las categoras defectuoso y no defectuoso.En otro caso, para observarla temperatura
24 horas slo podamo,s mantener un registro de
durante un periodo de
la curva trazada por el termgrafo.
Sin ernbarlgo, en muchas situaciones
experimentales vamos a interesarnos en mediralgo y anotarlo como un
nzmero. An en los casos antes citados, podrclnos asignar un nmero a
cada uno d e los resultados (no numricos) del expcrirnento. Por ejemplo, pudimos asignar el valor 1 a artculos no defectuosos y el valor O a
los defectuosos, as como anotar la temperatura mxima o mnima del
da, o el promedio de las temperaturas mxima y mnima.
Los ejemplos anteriores son caractersticas de unaclase muy general
d e problemas. En muchas situaciones experimentales deseamos asignar
un nmero realx a cada uno delos elementos S del espacio muestra1S .

70 Variables
unidimensionales
aleatorias

4.1

Esto es, z = X(s) es el valor de una funcin X del espacio muestral


a los nmeros reales. Teniendo esto presente, hagamos
la siguiente
definicin formal.

Definicin. Sea E un experimento y S el espacio muestral asociado


con l. Unafimcin X que asigna a cada uno de los elementos
S E S, un nmero real S ( s ) , se llama trariable aleatoriu.
Observaciones: a ) La terminologa anterior es algo desafortunada, pero es
tan universalmente aceptada que nosotros no
nos apartmemos d e ella. Memos
hecho lom,is claro posible que S es unafuncin, y todava la llamamos variable
(aleatoria)!
b ) Resulta que no toda filncin que se conciba puede considerarse como una
variablealeatoria.Unaexigencia
(aunque no lams general) es que para
todo nmero real x el evento { X ( s ) = x} y para todo intervalo 1, el evento
{"(S)
E I} tiene probabilidadesbien definidas y consecuentes con los axiomas
bjsicos. En la mayora d e las aplicaciones noapareceesta dificultad y no
haremos referencia posterior.
c) En algunoscasos, el resultadoS del espacio muestral esy" la caracterstica
numrica que queremos anotar. Simplemente tomamos X(s) = S , la funcin
identidad.
d ) En la mayora d e los anjlisis d e variables aleatorias que siguen no necesitamos indicar la nahlraleza funcionalde X. En general, nos interesamos en los
valores posibles d e S , en vez d e indagar de dndeprovienen esos valores. Por
ejemplo, supongamos que lanzamos dos monedas y consideramos el espacio
muestra1 asociado con esteexperimento. Esto es,

S = {CC,cs, sc,
SS}
Definamos la variable aleatoria X como sigue: X es el nmero decaras obtenidas en los dos lanzamicntos. Por lo tanto, X(CC) = 2,X(CS) = X ( S C ) = 1
y X(SS) = o.
.y

c'spac~ot n u e ~ t r a l d ei:

K x = \alol-eaposlbles d e ,f

FIGURA
4.1

4.1

Nocidn general dd? una variable aleatoria

71

e ) Es muy importante comprender una


exigencia bjsica de unafuncin para
un slo valor: a cada S E S le corresponde exactammte un valor X(s). Esto se
demuestra esquemticamente en la figura 4.1. Valores diferentes de S pceden
dar el mismo valor de X. Por ejemplo, en la ilustracin anterior encontramos
que X ( C S ) = X ( S C ) = 1.

El espacio R,, es decir, el conjunto de todos los valores posibles d e


X , algunas veces se llama el recorrido. En cierto sentido podemos considerar a R, como otro espacio muestral. El espacio muestral (original)
S corresponde a los resultados no numricos ((posiblemente) del experimento, mientras que R, es el espacio muestral asociado conla variable
aleatoria X , que representala caracterstica numricaque puede ser de
inters. Si X ( s ) = S, tenemos S = R,.

Aunque estamos conscientes del peligro pedaggico que existe


al
dar muchas explicaciones d e lo mismo,seiialamossinembargo
que
podemos concebir una variable aleatoriaX d e dos maneras:
a) Realizamos el experimento E que tiene como resultado s E S .
Luego evaluamos el nmeroX ( s ) .
6) Efectuamos E , obteniendo el resultado S, e (inmediatamente) calculamos x ( ~ El
) nmero
.
X ( s ) se considera entonces comoel resultado
obtenido en el experimentoy R, se convierte enel espacio muestral del
experimento.
No es fcil establecer la diferencia entre las interpretaciones a) y
b). Relativamente es muy pequea, pero digna de atencin. En
a) el
experimento termina, de hecho, con
la observacin d e s. La evaluacin
d e X ( s ) se estima como algo que se hace posteriormente y que no se
afecta por la aleatoriedad d e E. En b) se considiera que el experimento no
X(s) se ha calculadoy se tieneas el
est terminado hasta que el nmero
espacio muestralR, como resultado. Aunquela primera interpretacin,
a) es la que usualmentese pretende, el segundlopunto devista, b ) puede
ser muytil y el lector dcber recordarlo.Lo que queremos decir,y esto
serA ms evidente en las ltimas secciones, es que al estudiar variables
a 1.0s valores que tomaX que
aleatorias estamos ms interesados respecto
de su formafuncional. Por lo tanto, en muchos casos ignoraremos por
X.
completo el espacio muestral sobre el cual se puede definir

EJEMPLO4.1. Supongamos que se pone una bombilla en un portalmparas. Se considera queel experimento termina cuandola bombilla
se apaga. (Cules un resultadoposible, digamos S? Una manera de describir s sera anotando simplemcntcla fecha ~7 la hora del da enla cual

unidimemionales
aleatorias
72 Variables

4.1

la bombilla se qwma, por ejemplo 19 d e mayo, 4:32 P M . Por lo tanto,


el espacio muestral se puede representar como S = { ( d , t ) 1 d = fecha,
f = hora del da}. Posiblemente la variable aleatoria de interses S , el
tiempo que permanece encendida. Ntese que una vez que se ha observado S = ( d , t ) , la evaluacin d e X(s) no indica ninguna aleatoriedad.
Cuando S est especificada, X(s) est determinado por completo.
Los dos puntos de vista antes expresados pueden aplicarse a
este
ejemplo como sigue. En a) consideramos que el experimento termina
con la observacin S = ( d , t ) , la fecha y la hora del da. El clculo d e
X(s) se efectila, entonces, haciendo una sencilla operacin aritmtica.
despus de haber
En 6) slo damos por terminado el experimento hasta
evaluado X(s), y entonces el nmero X ( s ) = 107 horas, por ejemplo,
se considera como su resultado.
Es posible sealar que un anlisis similar se podra aplicar a otra
variable aleatoria d e inters, por ejemplo, E(s) es la temperatura en
la habitacin en el instante en quela bombilla se quema.
EJEMPLO 4.2.
En una mesaselanzantresmonedas.Tan
pronto
como las monedas caen en la mesa,concluye la fase aleatoria del
experimento. Un slo resultado S podra consistir en una descripcin
detallada decGmo y dnde cayeronlas monedas. Posiblemente estamos
interesados slo en ciertas caractersticas numericas asociadas con este
experimento. Por ejemplo, podramos calcular

X(S)= nmero de caras que aparecen,


Y(,) = distancia mxima entre dos monedas cualesquiera,
Z ( s ) = distancia mnima de las monedas desde cualquier
arista d e la mesa.
Si la variable aleatoria X es d e inters, como indicamos en el ejemplo
anterior,podramosincluir la evaluacin d e X ( s ) en la descripcin
del experimento y, por lo tanto, sGlo indicar que el espacio muestral
asociado con el experimento es {O, 1, 2,3}, que corresponden a los
valores d e S . Aunque a menudo adoptaremos precisamente este punto
d e vista, es importante establecer quela cuenta del nlimero d e caras se
hace despus de que ha terminado la parte aleatoria del experimento.
Obseruacwn: Al referirnos a variables aleatorias usaremos, casi sin escepcibn,
letras mayilsculas como S , Y, 2,etc. Sin embargo, cl~andohablemos del valor de

4.1

Nocidtt general de una variable aleatoria

73

esas variablesaleatoriasen general emplearemos letras minsculas comox,y, 2 ,


etc. sta es una disti~cinmuy importante que debemos hacer y el estudiante
contemplar con dctenimiento. Por ejemplo, cuando hablamos de escoger
al azar una persona de alguna poblacin sealada y medir su estatura (en
pulgadas, por ejemplo), podramos refcrirnos a los resuhdosposibles como una
variable aleatoria X. Ta1nbiC.n es posible hacer varias preguntas acerca de S ,
talescomo P(X 2 60). Sin embargo, una vez que elcgimos una persona y
medimos su estatura, obtenemos un valor especfico de X, por ejemplo, 2 . As
no sera relevante preguntar por P ( x 2 SO), puesto que x es o no 2 60. Esm
distincin entre una variable alcatoria y su valor esimportante, y m& adelante
nos referiremos a ella.

As como nos interesamos por los eventos asociados con el espacio


muestral S, tambin serA necesario tratar eventos respectoa la variable
aleatoria X, esto es, subconjunto del recorrido R,. Muy a menudo
S estnrelacionados (cn un sentido
ciertoseventosasociadoscon
que luego describiremos) con eventos asociados con R, d e la manera
siguiente.
Definicin. Sea E un experimento y S su espacio muestral. Sea X
una variable aleatoria definida en S y sea R, su recorrido. Sea B
un evento respecto a Rz; esto es, 13 c R,. Supongamos que A se
dcfine como

A = {S E S I X(S) E B } .
En palabras, A consta d e todos los resultados e n S para los cuales
X(s) E 13 (Fig. 4.2). En este caso decimos que A y B son eventos
equivalentes.

FIGURA
4.2
Olrsenlacw,nes: a ) Expresando lo anterior de manera m6s informal, A y B
son eventos equivalentes siempre que ocurran juntos.Esto es, siempre que A

74 Variables aleatoriusunidimensionales

4.1

175991

ocurre, B ocurre y viceversa. Si ocurri A , entonces se obtuvo un resultado S


para el cual X(s) E B y, por lo tanto, ocurri B . Recprocamente, si B ocurri,
se obsen.6 un valor S(s)para el cual S E A y, por lo tanto, ocurri A.
b ) Es importante destacar que en nuestra
definicin d e eventos equivalentes,
A y B estn asociados con espacios muestrales diferentes.

EJEMPLO4.3. Consideremos cl lanzamiento d e dos monedas. En


cstc caso, S = {CC,C S , SC, SS}. Sea X el nmero decaras obtenidas.
Por lo tanto, RL = {O, l , 2 } . Sea B = (1). Puestoque X ( C S ) =
X(SC) = 1 si y slo si X ( S ) = 1, tenemosque A = { C S , S C } es
cquivalentc a B.
Ahora damos la siguiente dcfinicin importante.
Definicin. Sca B un evento en el recorrido R z , entonces definimos
P( n ) como sigue:

P ( B ) = P ( A ) , donde

A = {S E S

S(.)

E I?}.

(4.2)

En palabras, definimos P ( B ) igual a la probabilidad dcl evento


A c S, que es equivalente a B , en el sentido dcla ecuacin (4.1).
Obse~uacwnes:a ) Suponemos que l a s probabilidades se pueden asociar con
eventos en S . Por tanto, la definicin anterior hace posible asignar probabilidades a eventos asociados con R, en trminos de las probabilidades definidas
en S .
b) Realmente es posible probar que P ( B ) debe ser como se defini6. Sin
embargo, esto implicara alguna dificultad terica que queremos evitar y, por
tanto, proseguiremos como antes.
c) Puesto que en la formulacin d e la ecuacin (4.2) los eventos A y B se
refieren a espacios muestrales diferentes, en realidad deberamos usar una
notacin diferente cuando nos referimos a las probabilidades definidas en S y
para las definidas en R,, por ejemplo, algo como P ( A ) y P,(B). Sin embargo,
no haremos estosino q u e continuaremos escribiendo simplemente P ( A ) y
P(L3). El contesto dentro delcual aparezcan estas expresiones h a r i evidente
la interpretacin.
d ) Las probabilidades asociadas con eventos en el espacio muestra1 S (original) esdn en un sentido, determinadas por fuerzas que escapan a nuestro
control o, como se dice algunas
veces por naturaleza. La constitucin de una
fuente radioactiva que emite partculas, la distribucin de un gran nilmero de
persons que podrahacer una llamada telefnica durante determinada horay
la agitacin trnlica que resulta de una corriente
oa
ls condiciones atmosfricas

4.2

<

I,

.? .
:;:
.:
., 7,

Variables aleatorias discretas

75

.k

.,

que dan origen a una fuente de tormenta, ilustran este punto. Cuando introducimos una variable aleatoria X y su recorrido asociado Rx,inducimos probabilidades sobre los eventos asociados con Rx que se determinan estrictamente
sia
ls posibilidades asociadas con loseventos en S estn especificadas.
i

EJEMPLO4.4. Silas monedas consideradlas en el ejemplo 4.3 son


normales, tenemos P ( C S ) = P ( S C ) =
Por tanto, P ( C S ,S C ) =
1
1 = 21. (Los clculos anterioressonunaconsecuenciadirecta
de
nuestra suposicin bsica acerca d e la regullaridad d e las monedas.)
Puesto que el evento
{X = l}es equivalente al evento { C S ,S C } , usando
[Realmente
la ecuacin (4.1) tenemos que P ( X = 1) = P ( C S ,S C ) =
no haba eleccinacerca delvalor de P ( X = 1) consistentecon la
ecuacin (4.2), una vez que se determin P ( C S , S C ) . En este sentido,
se inducen las probabilidades asociadas con eventos Rz.]

i.

i.

Obseruacidn: Ahora que hemos establecido la existencia de una h n c i h d e


probabilidades inducidas sobre el recorrido de X (ecuaciones 4.1 y 4.2) encontraremos conveniente suprimir la naturaleza funcional de X. Por lo tanto, escribiremos(como lo hicimos en el ejemplo anterior) P ( X = 1) = ;.
Lo que se quiere decir es que un evento en elespacio muestral S , llamado {CS,SC} = {S I X ( s ) = 1) ocurre conprobabilidad ;. Por lo tanto,asignamosesamisma
probabilidad al eveq$o { X = 1) en el recorrido.
Continuaremos escribiendo expresiones como-P(X = l ) ,P(X 5 5), etc. Es
muy importante que el lector sed cuenta de lo que esas expresiones representan
realmente.

Una vez que se han determinado( o ms exactamente, inducido)las


probabilidades asociadas con varips resultados,( o eventos) e n el recorrido Rz ignoraremos a menudo el espacio muestral original S que dio
lugar a esas probabilidades. A s , en el ejemplo anterior, slo estamos
1 z,
1 2).
1 El
interesados en Rz = {O, 1,2} y las probabilidades asociadas ($,
hecho de que estas Probabilidades estn determinadas por una funcin
d e probabilidad definida en el espacio muestr(a1original S So nos preocupa si estamos interesados s610 en estudiar los valores d e la variable
aleatoria X.
Al analizar en detalle muchos de.los
conceptosimportantes asociados
con variables aleatorias encontraremos conveniente distinguir dos
casos
importantes: las variables aleatorias discretas y las continuas.
O
a

76

Variables aleatorius unidimensionales

4.2

4.2 Variables aleatorias discretas


Definicin. Sea X una variable aleatoria. Si el nmero de valores
posibles d e X (esto es, R,, el recorrido)es finito o infinito numerable, llamamos a X una variuble uleutoriu discreta. Esto es, sepueden
anotar los valores posibles d e X como "1, " 2 , . . . x R . . . En el caso
finito, la lista termina y en el caso infinito numerable, la lista contina indefinidamente.

EJEMPLO4.5. Una fuente radioactiva emite partculas (Y.Un contador observa la emisin de esas partculas durante un periodo de tiempo
determinado. La siguiente variable aleatoriaes de inters:
X = nmero de partculas observadas.
?Cules son los valores posibles d e A'? Supondremos que estos valores
constan de todos los enteros no negativos. Esto es, R, = {O, 1 , 2 , . . . ,
n , . . .}. Una objecin que vimos anteriormente puede aparecer de nuevo en este punto. Podra argirse que durante un intervalo de tiempo
especificado (finito) es imposible observar ms de,por ejemplo, N partculas donde N puede ser un entero positivo muy grande. Por tanto,
los valores posibles de X realmente seran: O, 1 , 2 , . . . ,N . No obstante,
resulta que matemticamente es ms sencillo considerar la descripcin
idealizada antes dada. De hecho, cada vez que suponemos quelos valores posibles de una variable aleatoria X son infinitos numerables estamos considerando una representacin idealizada deX.
En vista d e nuestros comentarios previos sobre la descripcin probabilstica d e eventos con nmero finito de elementos o infinitos numerablcs, la descripcin probabilstica de una variable aleatoria discreta no
nos causar ninguna dificultad. Procederenos como se indica a continuacin.
Definicin. Sea X unavariablealeatoriadiscreta.Portanto,
Rz,
el recorrido de X, consta, a lo ms, de un nmero de valores,
2 1 , " 2 , . . . infinito numerable. Con cada resultado posible zi asociamos un nmero p ( z i ) = P ( X = x;), llamado probabilidad d e
zi. Los nmeros p(x;), i = 1 , 2 , . . . deben satisfacer las condiciones
siguientes:

4.2

u) p ( q )

2 O para toda i,
(4.3)

00

i= 1
L a funcin p que antes se defini, se Ilamafzmcidn de probubilidud ( o
funcin de probabilidad puntual) de la variable aleatoria X . La coleccin de pares ( x i p ( z i ) ) ,i = 1 , 2 , . . . , algunas veces se llama distm'bucidn de

probubilidud de X .

FIGURA4.3
Obseruaciones: a) La elecci6n particular de los mmeros p(x;) posiblemente
est5 determinada por la hncin de probabilidad asociada con eventos en el
espacio muestral S sobre el cual se define X. Esto es, p(x;) = P [ s I X ( s ) = x;].
(Vanse las ecuaciones 4.1y 4.2.). Sin embargo, ya que slo estamos interesados
en los valores de X, esto es R,, y en las probabilidades asociadas con esos
valores, omitimos otra vezla naturaleza funcional de X (vase la Fig. 4.3).
Aunque en la mayora de los casos los nmeros de hechose determinaran de
la distribuci6n de probabilidades en algn espacio muestral fundamental S ,
cmlquier conjunto de nmeros ~ ( 2 ; )que satisfaga la ecuacin (4.3)puede servir
como una descripci6n probabilstica propiade un,a variable aleatoria discreta.
-,
b ) Si X toma s610 un nmero finito de valores, por ejemplo 21, . . . , x,,
entonces p ( q ) = O para i < N y, por lo tanto, la serie infinita en la ecuaci6n
(4.3) llega a ser una sumafinita.
c) Nuevamente podemos observar una
analoga conla mecnica, al considerar una masa total unitaria distribuida sobre
la recta real con la masa completa
ubicada en los puntos x1 , x 2 ,. . . Los nmeros p(x;) representan la cantidad de
masa localizada en x;.
d ) L a interpretacin geomtrica (figura 4.4) de una distribucin de probabilidades es siempre til.
~

4.2

7 8 Variables a l e a t o k s unidimensionales

F I G U R 4A. 4

FIGURA
4.5

Sea B un eventoasociado conla variable aleatoriaX . Esto es, B c Rz


(Fig. 4.5). Especficamente, supongamos que B = {zil, xi27 .. .} . Por

tanto,

P ( B ) = P [ s I X ( s ) E B]

(puesto queestoseventos

= P [ s I X ( s ) = xi.
, j = 1 , 2 , . . .] =
3

son equivalentes)

c
m

P(ZZj).
j=1

(4.4)

En palabras, la probabilidad de un eventoB es igual ala suma delas


probabilidades d e los resultados individuales asociados con B .
\

Obseruacwnes: a) Supngase que la variablealetoria discreta X puede tomar


slo un nmero finito de valores, por ejemplo z1,.. . , 2 , . Si cada resultado es
igualmente probable, resulta obvio que tenemos p ( z 1 ) = . . . = p ( z ~=) 1/N.
b ) Si X toma un nmeroinfinito numerable de valores, entonces es imposible
tener todos los resultados igualmente probables, porque quiz no podamos
satisfacer la condicin si hemos de tener p ( z ; ) = c para toda i.
c) En cada intervalo finito habr cuando muchoun nilmero finito de valores
posibles de X . Si uno de esos intervalos no contiene ninguno de los-valores
posibles, le asignamos probabilidad cero. Esto es, si R, = (21,2 2 , . . . , z,} y si
ningn z; E [ a ,61, entonces P [ a 5 X 5 b] = O.

EJEMPLO4.6.
Supngaseque se poneuntubo
de radioenun
soporte y se prueba. Considrese quela probabilidad de que el control
sea positivo es igual a :; por tanto, la probabilidad de que el control
sea
negativo es $. Supngase, adems, que probamos una gran cantidad
d e esos tubos. La prueba contina hasta que aparece el primer tubo
positivo. Definase la variable alcatoria X como sigue: X es el nmero

79

binomial
L a distribucidn

4.3

de pruebas necesarias para


finalizar elexperimento. El espacio muestral
con asociado
es
1

S = {+, -+,

--

+, - - -+,

* *

o } .

Para determinar la distribucin de probabilidades de X razonamos


de la siguiente manera. Los valores posibles de X son 1 , 2 , . . . ,n , . . .
(obviamente
estamos
considerando
el
espacio muestral
idealizado).
Y
X = n si y slo si los primeros ( n - 1) tubos son negativos y el n-simo
tubo es positivo. Si suponemos quela condicin de un tubo noafecta la
condicin de otro, podemos escribir
p ( n ) = P(X = n)=

(i)n-1 (;)

Observaciones: Aqu empleamos el resultado de quela sene geomtrica 1 r +


r2+. . . converge a 1/( 1-r) siempre queIr1 < 1. Aeste resultadonos referiremos
varias veces. Supngase que queremoscalcular P ( A ) ,donde A se define como
{El experimento termina despusde un nmero par repeticiones}.
de
Usando
la ecuaci6n (4.4), tenemos
I

P(A) =

n=l

3
p(2n) = 25616

3
--

+ ..

1 - -.
1
161--L16
5

3
-

4.3 La distribucin binomial

, n = 1,2,. ..

Para verificar que estos valores de p ( n ) satisfagan la ecuacin (4.3),


observemos que

a
3

En los captulos finales consideraremos en forma detallada diversas variables aleatorias discretas importantes. Por el momento, slo estudiaremos una de ellas y luego l a usaremosparailustrar variosconceptos
relevantes.

80 Variables
unidimensionales
aleatorias

4.3

EJEMPLO
4.7. Supngase que los artculos que salen de una lnea d e
p - o d u c c i h se clasifican como defectuosos ( D ) o no defectuosos ( N ) y
que se eligen al azar tres artculosde la produccin de unda, los cuales
se clasificande acuerdocon este esquema. El espacio muestral para este
csperimento, digamos S, puede describirse as:
S = {DDD, DDN,DND,NDD, NND,NDN, DNN,NNN}.
(Otra manera de describir S es como S = S1 x S2 x S3, el producto
cartesiano d e SI,S,, y SS, donde cada S; = { D , N } . )
Supongamos quecon probabilidad 0.2 un artculo es defectuoso y, por lo
tanto, con probabilidad 0.8 un artculo es no defectuoso. Supongamos
que esas probabilidades son iguales para cada artculo,al menos durante
nuestro estudio. Finalmente, supongamos que la clasificacin d e cualquier artculo particular es independiente de la clasificacin d e cualquier otro artculo. Usando estas suposiciones, se deduce que las probabilidades asociadas conlos diversos resultados delespacio muestral S,
como antes se describi, son

Usualmente nuestro inters no se enfoca hacia los resultados individuales de S, sino que slo deseamos saber cuntos artculos defectuosos
Es dese encuentran (sin tomar en cuenta el orden en que ocurrieron).
cir, deseamos considerar la variable aleatoria X que asigna a cada uno
d e los resultados S E S el nmero de artculos defectuosos encontrados
en s. Por tanto, el conjunto devalores posibles d e S es {O, 1,2,3}.
Podemos obtener la distribucin de probabilidades para X, p ( x ; ) =
P ( S = x;) como sigue:

X = O si y slo si ocurre N N N ;
X = 1 si y slo si ocurre D N N , N D No N N D ;
A = 2 si y slo si ocurre D D N , D N Do N D D ;

X = 3 si y slo si ocurre DDD.


. (Ntese

que { A 7 N N }equivale a {X = O}, etc.) Por lo tanto,

4.3

LAZ

p ( 0 ) = P ( X = O) = ( 0 . q 3 ,

distribucin binomial

81

p(1) = P ( X = 1) = 3(0.2)(0.8)2,

p(2) = P ( X = 2) = 3(0.2)2(0.8),p(3) = ]'(X = 3) = (0.q3.


Ntese quela suma deestas probabilidades es igual a 1, porque la suma
se puede escribir (0.8 0.2)3.

Observacidn: La exposici6n anterior ilustra c6nno las probabilidades en el


recorrido R, (en este caso, {O, 1 , 2 , 3 } ) son inducidas por las probabilidades
definidas en el espacio muestral S , porque la s.uposicin de que los ocho
resultados d e
S = {DDD, DDN,DND, NDD,NND,NDN, DNN,NNN}

Generalicemos ahoralas nociones presentadas en el ejemplo anterior.

Definicin. Consideremos unexperimento E y sea A unevento


asociadocon E. Supongamosque P ( A ) = p y, por lo tanto,
P ( A C )= 1 - p. Consideremos n repeticiones independientes d e
E. Por lo tanto, el espacio muestral consiste en todas las sucesiones
posibles { a l , a 2 , . . . , a n } , donde cada ai es A o A', segn A o A'
ocurra en la i-Csima repeticin d e E. (Hay 2n d e tales sucesiones).
An ms, supongamos que P ( A ) = p es el mismo para todas
las repeticiones. Definamos la variable aleatoria X como sigue:
X = nmero de veces queocurrielevento
A . Llamamosa
X una variable aleatoria binomial con los parmetros n y p . Sus
valores posibles obviamente son O, 1,2,. . . ,n. (Decimos en forma
equivalente queX tiene unadistribucin bminomial.) Las repeticiones
individuales d e E se 1lamarAn ensayos de Bernoulli.
Teorema 4.1. Sea X una variable binomialcon baseen n repeticiones.
Entonces

P ( X = k) =

(;)

p k ( l - p)",

(4.5)

4.3

unidimensionales
aleatorius
82 Variables

Demostracin: Consideremosunelementoparticulardelespacio
muestral E que satisfaga la condicin de que X = k . Tal resultado aparecera, por ejemplo,si las primeras k repeticiones de E resultasen en la
ocurrencia d e A, mientras que las ltimas n - k repeticiones resultasen
en A', es decir:

AAA . A A C A C A C . A'.
.
M

n-k

Puesto que todas las repeticiones son independientes,la probabilidad


p k ( 1 - I , ) ~ - ' . Pero exactamente la
d e estasucesi6nparticularsera
misma probabilidad estara asociada con cualquier otro resultado para
el cual X = k . El nmero total de tales resultados es igual a (I),
por
lo que debemos elegir con exactitud k posiciones (entre n) para-las A.
Pero esto produce el resultado anterior, ya que esos (I)
resultados son
mutuamente excluyentes.
Observaciones: a ) Para verificar nuestros cAlculos, observemos que, usando
el teorema del binomio, tenemos Cg=,P(X = k) = Cg=, ( i )
pk(1- P ) " - ~ =
[p + \l - p ) l n = In = 1, como debera ser. Puesto que las probabilidades
( i )p (1- p ) n - k se obtienenal desarrollar la expresin binomial [p (1 - p ) l n ,
a Sta la llamamos distribucin binomial.
b) Cada vez que realizamos repeticionesindependientes de un experimento
y nos interesamos s610 en una dicotoma -defectuosos o no defectuosos, du-I
reza sobre o bajo un cierto valor estndar, nivel de ruido en un sistema d e
comunicaciones superior o inferior a un margen preasignado- consideramos
potencialmente un espacio muestral en el cual podemos definir una variable
aleatoria binomial. Si las condiciones del experimento permanecensuficientemente uniformes de modo quela probabilidad d e algn atributo, por ejemplo
A , permanezca constante, podemos usar el modelo anterior.
c ) Si n es pequeiia, los trminos individuales d e la distribuci6n binomial son
relativamente sencillos d e calcular. Sin embargo, si R es razonablemente grande, estos cAlculos llegan a ser un poco complicados. Por fortuna, las probabilidades binomiales han sido calculadas. Existen muchas d e esas tabulaciones
(vase Apndice).

EJEMPLO4.8. Supongamos que un tubo de radio puesto en cierto


tipo de equipo tiene una probabilidad de
0.2 de funcionar ms de
500 horas. Si probamos 20 tubos,?cul esla probabilidaddeque
exactamente E de ellos funcionen ms de 500 horas, k = O, 1 , 2 , . . . , 2 0 ?

4.3

binomial
L c r distribucin

83

Si X es el nmero de tubos que funcionan ms d e 500 horas, supondremos que X tiene una distribucin binomial. A s , P ( X = IC) =
(2:)(0.2)k(0.8)20-k. Los siguientes
valores
puedenleerseen
la tabla 4. l.
TABLA
4.1

P(X = O) = 0.012

P ( X = 4) = 0.218

P(X

P(X = 1) = 0.058

P(X

P(X = 9) = 0.007

P(X

= 2) = 0.137

P(X = 6 ) = 0.109

P(X = 10) = 0.002

P(X = 3) = 0.205

P(X = 7) = 0.055

P(X = IC) = O+ para IC 2 11

= 5) = 0.175

(Las probabilidades restantes son


menores

= 8) = 0.022

que 0.001 .)

Si dibujamos esta distribucin de probabilid,ades obtenemos


la grfica
que se muestra en la figuras 4.6. El modelo que observamos aqu es
muy general: las probabilidades binomiales aumentan montonamente
hasta que alcanzan un valor mximo y luego disminuyen d e la misma
manera. (Vase el Prob. 4.8.)

FIGURA4.6
EJEMPLO4.9. Al poner en funcionamiento una mgquina, existe cierta probabilidad de que el operario cometa un error. De manera realista puede suponerse que ste aprende en cuanto sabe que la probabilidad de cometer errores disminuye cuando use la mgquina en repetidas ocasiones. Supongamos que el operario hace n intentos y que los
n ensayos son estadsticamente independient'es. Supongamos de manera especfica que P(un error cometido en la i-sima repeticin) =
\

84 kriables
unidimensionales
aleatorias

4.3

l / ( i l ) ,i = 1 , 2 , . . . ,n. Supongamos que se consideran 4 intentos (esto es, n = 4) y que se define la variable aleatoria X como el nmero
d e operaciones hechas sin error en la mquina. Observemos que X no
est distribuida binomialmente porque la probabilidad d e xito no es
constante.
Para calcular la probabilidad de X = 3, por ejemplo, procedemos
como sigue: X = 3 si y slo si hay exactamente un intento no exitoso.
Esto puede suceder en el primero, segundo, tercero o cuarto ensayo.
Por lo tanto,

p(x = 3) = 1 2 3 4 + 1 1 3 4 + 1 2 1 4 + 1 2 3 1 - 5 .
- 12

2 3 4253 4253 4253 4 5

EJEMPLO4.10. Consideremos una situacin semejante a la descrita


en el ejemplo 4.9. Esta vez supondremos que hay una probabilidad
constante p , de no cometer error en la mquina durante cada uno de
los primeros n1 intentos y una probabilidad constante p , 5 p , de no
cometer error en cada una de las siguientes n2 repeticiones. Sea X el
nmero de operacionesexitosas d e la mquina durante los n = nl n2
intentosindependientes.Encontramosunaexpresingeneralpara
P ( X = k). Por la misma razn dada en el ejemplo precedente, X no
P ( X = k) procedemos
est distribuida binomialmente. Para obtener
como sigue.
Sea Y1 el nmero de operaciones correctas durante
los primeros
nl intentos y sea Y2 el nmero de operaciones correctas durante
los
segundos n2 intentos.
Por lo tanto, Y1 y Y2 son variables aleatorias independientes y X =
15 Y2. A s , X = k si y slo si Y1 = r y Y2 = k - r, para cualquier entero
r que satisfaga O 5 r 5 nl y O 5 k - r 5 n2.
Las restricciones anteriores sobre 7 son equivalentes a O 5 r 5 nl y
k - n2 5 r 5 k. Combinndolas podemos escribir

mAx (O, IC

- n2)

5 r 5 mn (k,n l ) .

Por tanto, tenemos


mn(k,nl)

P ( X = k) =
r=mx ( 0 , k - n ~ )

nz-(b-r)

k-r

(t)

Con la convencin frecuente de que


= O cada vez que b
b < O, podemos escribir la probabilidad anterior como

>ao

4.4

Variables aleatorius continuas

Porejemplo, si pl = 0.2,p2
= 0.1, nl
probabilidad anterior se convierte en

P(X = 2) =

2
r=O

:=

(1r0 ) ( 0 . 2 ) r ( 0 . 8 ) ' 0 - r (2 l-or )

n2

85

= 10 y Iz = 2, la

)(0.1)2-r(0.9)8+r

= 0.27,

despus de unclculo elemental.


Obseroacidn: Supongamos que
= p 2 . En esltecaso,laecuacin
(4,6) se
reducira a ( i )
p f ( 1 - p ~ ) ~ - 'puesto
,
que ahora la variable aleatoria X tiene
una distribuci6n binomial. Para ver que esto es as, obsrvese que podemos
escribir (puesto que n1 + 712 = n )

Para mostrar que la suma anterior iguala (;) comphrense simplemente 10s
coeficientes de las potencias de'x en ambos lados de la identidad (1+ x)"' (1+
x p = (1+ 2 ) n l +%.

4.4 Variables aleatorias continuas


Supongamos que el recorrido de
X est formado por un gran nmero
finito de valores, por ejemplo, todos los valores x en el intervalo O 5
x 5 1 d e la forma 0 , 0 . 0 1 , 0 . 0 2 , . . . ,0.98,0.99,1.00. Con cada uno de
esosvaloresestasociado
u n n ~ m e r o n o negativo p(x:;) = P ( X =
xi), i = 1 , 2 , . . ., cuya suma es igual a 1. Esta situacin se representa
geometricamente enla figura 4.7.
Memos sealado antes que matemticamente podra ser ms
fcil
idealizar la anterior descripcin probabilstica. d e X al suponer que ,Y
puede tomar todos los valoresposibles,
P(X)
O 5 x 5 1. Si hacemosesto, ?qu le
sucede a las probabilidades puntuales
p ( x ; ) ? Puesto que los valores posibles
d e X no son contables, en realidad no o
podemos
hablar
del
i-simo
valor
de
S
FIGURA4.7

ll

86 Variables aleatorius unidimensionales

4.4

y, por lo tanto, p ( x ; ) pierde significado.


Lo que haremos es sustituir la funcin p, definida slo para 2 1 , x2,.. . ,
por una funcin f definida (en el contexto presente) para todos los
valores d e x, O 5 x 5 1. Las propiedadesde la ecuacin (4.3)se
sustituirn por f(x) 2 O y S,' f(x)dx = 1. Procederemos formalmente
como sigue.
Definicin. Se dice que X es una variable aleatoria continua, si existe
una funcin f,llamada funcin d e densidad d e probabilidad (fdp)
d e X , que satisface las siguientes condiciones:
a) f ( z )

2 O para toda x,

$03

f(x)dx = 1.
b, J _ ,

(4.7)

Para cualquier a , b , tal que "o0


tenemos P ( a 5 ,Y 5 b ) = Jab f(x)dx.
c)

< a < b < +m,


(4.8)

Obsemacwnes: a) Fundamentalmente queremos decir que X es una variable


aleatoria continua si X puede tomar todos los valores en algn intervalo (c, cl),
donde c y d pueden ser "o3 y +co respectivamente. La existencia estipulada
de una fdpes un mtodo matemtico que tiene una base intuitiva considerable
y hace ms sencillos nuestros clculos. En relacin conesto, d e nuevose
debe sealar que cuando suponemos Xque
es unavariable aleatoria continua,
estamos considerando la descripcin idealizada d e S .
b ) P ( c < S < d) representa el rea bajo la grfica de la figura 4.8 d e la fdp
f entre x = c y x = d.

FIGURA
4.8
c ) Una consecuencia d e la descripcin probabilstica d e S para cualquier valor especfico de S , por ejemplo ro, es que tenemos P ( X = ro) = O, puesto
que P ( X = " o ) = S"'
f(x)dr = O. Este resultado puede parecer contrario
x0
a nuestra intuicin. Dcbernos establccer, sin embargo, que si permitimos que

Variables aleatorius continuas 87

4.4

A tome todos los valores en un intervalo, entonces la probabilidad cero no es


equivalente con la imposibilidad. Por tanto, en el caso continuo, P ( A ) = 0 no
implica A = 8, el conjunto vaco. (Vase el teorema 1.1.) Para decirlod e u nmodo mAs informal, consideremos que elegimos un punto al azar en el segmento
{x I O 5 x 5 2). Aunque quisiramos estard e acuerdo (parafines matemticos)
con que cada punto concebible del segmento pudiese ser el resultado
d e nuestro
experimento, nos sorprenderamos mucho si en realidad escogiramos precisamente el punto medio del segmento,o cualquie~rotro puntoespecfio d e ese
elemento. Cuandoindicamos estoen unlenguaje matemtico preciso, decimos
que el evento tiene probabilidad O. En vista d e estas consideraciones, todas
las siguientes probabilidades soniguales si X es una variable aleatoria continua:

P(c 5

x 5 d),

P(c 5

x < d),

P(c < x 5 d), y P ( c

< x < d).

d ) Aunque aqu no verificaremos los detalles, se puede demostrar que la


anterior asignacin d e probabilidades a los eventos en Rx satisface los axiomas
bsicos d e probabilidades (Ec. 1.3), donde podernos tomar {x I -m < z <
+m}como el espacio muestral.
e ) Si una funcin f* satisface las condiciones, f *(x) 2 O, para toda x, y
S-+, f*(x)dx = I(, donde A es un nmero positivo real (no necesariamente
igual a l), entonces f* no satisface todas las condiciones para ser unafdp. Sin
embargo, podemos definir con facilidad una nueva funcin, digamos f , en
trminos d e f* como sigue:

f(.)

=para toda x.
I

Por tanto, f satisface todas las condiciones de ulna fdp.


j)Si S slo toma valores en unintervalo finito [ u , b ] , simplemente podemos
establecer f ( x ) = O para todo z
[u, b ] . Por tanto, la fdp est definida para
todos los valores reales d e z, y debemos exigir que: S-+, f(x)dz = 1. Cuando
quiera que la fdp se especifique slo para ciertos valores d e x, supondremos
que es cero para cualquier otro.
g) if(z) no representa la probabilidad d e nada! Hemos observado que, por
ejemplo, P ( X = 2) = O y, por tanto, f(2) ciertamentenorepresentaesta
probabilidad. Slo cuando la funcin se integra entre doslmites produce una
probabilidad. Sin embargo, podemosdar unainterpretacin d e f (z)Ax como
sigue. Del teorema delvalor medio del clculo se deduce que

P ( z 5 X 5 x + Az) =

J,.

f ( s ) d s = Azf((),

5 [ 5 x + Ax.

88

4.4

Variables aleatorias unidimensionales

Si A x es pequea, f (x)Ax es apyooabuldamente igual a P(x 5 X 5 x + A x ) . (Si


f es continua por la derecha, esta aproximacin llega a ser m& segura cuando
Ax
O.)
4

h ) Deberamos sealar de nueva cuenta que la distribucin de probabilida-

des (en estecaso la fdp es inducida en R, por las probabilidades asociadas con
eventos en S. As, cuando escribimos P ( c < X < d ) , quercmos decir, como
siempre, P [ c < S ( s j < dl, que a su vez es igual a P [ s I c < S ( s ) < dl, puesto que estos eventos son equivalentes. La definicin anterior, ecuacin (4.8),
estipula esencialmentela existencia d e una fdp f definida en unaR, tal que

P[sI c

< X ( s ) < (13 =

f(xjdx.

Nuevamente eliminaremosla naturaleza ft~ncional ,Y


dey, por tanto, estaremos
interesados slo en RZ y la fdp f.
i) En el caso continuo, otravez podemos considerarla siguiente alzalogia con
la mpcdnica: snpngase que tenemos unamasa total de una unidad, distribuida
continuamente e n el intervalo a 5 x 5 b. Entonces, f( x j representa la densidad
d
de la masa en el punto x y S, f ( x ) d z representa la masa tot31 contenida en el
intervalo c 5 x 5 d .

EJEMPLO4.1 1. En el anAlisis precedente sobre variable aleatoria


continua se supuso la existencia de una fdp. Consideremos un ejemplo
simple en el cual podamos determinar con facilidad
la fdp haciendo una
suposicin apropiada acercade la conducta probabilsticade la variable
aleatoria. Supngase que escogemos un punto en
el intervalo (0,l).
Representemos la variable aleatoria X cuyo valor es l a coordenada 2
del punto elegido.
Sz~~oszcidn:Si I es cualquier intervalo entre ( O , 11, entonces la Prob
E I] es directamente proporcional a la longitud de I, por ejemplo,
L ( 1 ) . Estoes,Prob [X E I ] = k L ( I ) , d o n d e X: es la constantede
proporcionalidad. (Es fcil ver, tomando I = (O, 1) y observando que
L ( ( 0 , l ) )= 1 y Prob[X E (O, I)] = 1, q u e X: = 1.)
Obviamente X toma todos los valores en (O, 1). <Cul es s u fdp? Esto
es, Cpodemos encontrar una funcin f t a i q u e

[X

P(a
Ntese que si a

f(x) = O. Si O < a
A s encontramos

< X < 6) = J,b f ( z ) d . c ?

< 6 < O o 1 < u < 6, P ( u < X < 6) = O y, por tanto,


< 6 < 1, P ( u < S < b ) = b - a y, por tanto, f ( 2 ) = 1.

Variables aleatorius continuas 89

4.4

1, O < x < l ,
O, paracualquier otro valor.

FIGURA
4.9

FIGURA
4.10

EJEMPLO4.12. Supngase que l a variable aleatoria X es continua.


(Vasc la Fig. 4.9) Sea la fdp f dada por
I

f(x) = 2 2 ,
=O

4'

o < 2 < 1,
para cualquier otro valor.

so
so

Claramente, f(x) > O y S_'," f ( 2 )dx = 22 dx = 1. Para calcular


P(X 5
s610 debemos evaluar la integral 112 ( 2 2 ) d x = 1
1

i),

El concepto d e probabilidad condicional tratado en el captulo 3 se


puede aplicarcon propiedad a las variables aleatorias.A s , en el ejemplo
< X 5 $). Aplicando de manera
anterior debimos evaluar P ( X 5 I directa la definicin d e probabilidad individual, tenemos

90 Variables aleatorias unidimensionales

4.5

f(x) = " / x 3 ) 1500 5 x 5 2500,


= O,

paracualquierotro valor.

{x

(Es decir, asignamos probabilidad cero al evento { X


1500) y
>
2500}.) Paraevaluar la constante a, debemosacudira la condicin
J?: f(x)dz = 1, que en este caso se convierte en :::J: a / x 3 dx = 1.
De esto obtenemos U = 7,031,250. La grfica d e f aparece en la figura
4.10.

En un captulo posterior estudiaremos detalladamente diversas variables alcatorias importantes, discretasy continuas. Mediante el uso d e
los modelos deterministas sabemos que ciertas funciones desempefian
un papel mucho ms importante que otras. Por ejemplo,las funciones
lineales, cuadrticas, exponenciales y trigonomtricas tienen un papel
Al desarrollar los modeprimordial al describir modelos deterministas.
los no deterministas(es decir, probabilsticos)encontraremos que ciertas
variables aleatorias son particularmente importantes.

4.5 Funcin de distribucin acumulativa


En este captulo presentaremos otro importante concepto general.
Definicin. Sea X una variable aleatoria, discreta o continua. Definimos que I: es lafimczn de distribucdn acumulatiua d e la variable
aleatoria X (abreviada fda) como F ( x ) = P ( X 5 x).
Teorema 4.2. a) Si X es una variable aleatoria discreta,

donde la suma se toma sobre todoslos indices j que satisfacen zj 5 x.


O) Si X es una variable aleatoria continua con fdpf ,
(4.10)

Dernostracwn: Anlbos resultados se deducen inmediatamente


dcfinicin.

d e la

4.5

Futlcitlt de distribucin acumulativa

;i
-I
3

-;
I

91

FIGURA4.11

EJEMPLO4.14. Supongamos quela variable aleatoria A- toma los tres


valores 0,1, y 2 con probabilidades 51, i;1 y z,
1 respectivamente. Entonces,
I

F(2)= o

-- 13

si 2 < o ,
si O < z < : l ,

- 12
-

si

=1

si 2 2 2 ,

1sz<:2,

(Ntese quees muy importante indicarl a inclusin o exclusin de los


puntos extremos al describir los diversos inte-malos.)L a grfica de F se
presentaen la figura 4.11.

EJEMPLO4.15. Supongamos que X es una variable aleatoria continua con fdp


f(2) =

22,

= O,

o < 2 < 1,
paracualquicrotro valor.

Por lo tanto, la fda F est dada por

= l x 2 s d s = z2

=1

si

2>1.

La grfica correspondiente aparece enla figura 4.12.

92

4.5

Variables aleatoriusunidimensionales

FIGURA4.12
Las grficas obtenidas en las figuras 4.1 1 y 4.12 para las fda (en cada
uno delos casos) son tpicas en el siguiente sentido.
a ) Si S es una variable aleatoria discreta con un nmero finito d e
valores posibles, la grfica d e la fda F se formar d e trazos horizontales
(sc llama hncin escalonada). La funcin F es continua excepto para
los valores posibles d e X, llamados 1 , . . . ,xn. En el valor xj la grfica
tendr un salto d c magnitud p ( r j ) = P ( X = xj).
6) Si S es una ftlncin aleatoria continua, F ser una funcin continua para todaT .
c) La fda F est definida para todos los valores d e x, lo cual es una
razn importante para considerarla.
Hay dos propiedades fundamentales d e la fda que resumiremos en
cl teorema siguiente.
Teorema 4.3. a) La funcin F es no decreciente. Esto es si 2 1 5 x2,
tenemos F ( q ) 5 F ( z 2 ) .
b ) lmx+-mF(r) = O y lm,,,F(z)
= 1. [A menudo esto lo
escribimos como F ( -m) = O, F ( w ) = 1.]

Demostracin: a) Definamos los eventos A y 13 como sigue: A = { S 5


B = {X 5 q } . Entonces, puesto que x1 5 z2,tenemos A c B y
por el teorema 1.5, P ( A ) 5 P ( B ) , que es el resultado requerido.
b ) En cl caso continuo tenemos
T ~ } ,

F(-m) =

.,S_,
lrn

F ( w ) = lm
X
+
,

f(S)

I-,

ds = o,

f(s) ds = 1.

4.5

Funcin de distribucin acumulativa

93

En el caso discreto el argumentoes anlogo.

La fbncin d e distribucin acumulativa es importante por varias razones. Esto es particularmente cierto cuando tratamos con una variablc
aleatoria continua, porque en este
caso no podemos estudiarla conducta probabilstica d e X a l calcular P ( X = x). Esa probabilidad siemprees
igual a cero en el caso continuo. Sin embargo:, podemos inquirir acerca
d e P ( X < z) y, corno lo demostramos en el prximo teorema, obtcner
la fdp d e X .

Teorema 4.4. u ) Sea F la da de una variable aleatorin continua con


fdp f. Luego,

para toda z en la cual I: es diferenciable.

6) Sea X una variable aleatoria discrcta ccln valores posibles 21, x?,
. . . , y supongamos que es posible rotular esos valorcs de modo que
zl < x2 < . . . Sea F la da d e S . Entonces,
(4.12)

Demostracin: u ) F ( z ) = P ( X 5 x) = J:m f(s) ds. As, aplicando al


teorema fundamental delclculo, obtenemos F ' ( z ) = f ( . ~ ) .
6) Puesto que supusimos X I < x2 < . . ., tenemos

Obseruacidn: Reconsiderelnos brcvcmcnte a ) del teorema anterior. Recordemos la definicin d e derivada dela funcin F :

94 Variables aleatoriasunidimensionales

= lm

P(S 5 2

+ h)- P ( S 5

2)

h+O+

As, si h es pequeha y positiva,

F ' ( z ) = f(z)E

P(z

< S 5 2 + h)
h

Es decir, f ( z ) es aproximadamente igual a la "cantidad d e probalilidad en


el intervalo ( 2 ,2 h ) por longitud h". De aqu el nombre defuncin de densidad
de probabilidad.

EJEMPLO4.16. Supongamos que unavariablealeatoriacontinua


tiene fda I: dada por
F(x)=

o,

=1-e

Entonces, F ' ( x ) = e-" para


f ( z ) = e-",

=O

-X

o,
z>O.

> O, y as la fdp f
x

es dada por

2 O,

para cualquier otro valor.

Obseruacin: Una advertencia sobre la terminologa puede ser de utilidad.


Esta terminologa, aunque no es muy uniforme, ha llegado a estandarizarse.
Cuando hablamos de la dzitribm-iu deeobabilidades de una nriablealeatoria X
indicamos su Cdp f si X es continua, o d e su funcin d e probabilidrd puntual
p definida para 21, 2 2 , . . . si X es discreta. Cuando hablamos d e la funcin
de distribucin acumulativa, o algunas veces slo de 1 A f i l W k h de dishibucin,
siempre nos referimos a F , donde F ( z ) = P ( X 5 x ) .

4.6 Distribuciones mixtas


I Iemos restringido nuestra exposicinslo a variables aleatorias discretas o continuas. Tales variables aleatorias ciertamente son las ms importantes en las aplicaciones. Sin embargo, hay situacionesen las cuales

4.7

95

Kiriables
aleatorias
distribuidas
uniformemente

podemos encontrar variables del tipomixto: la variable aleatoria X puede tomarciertos valores distintos, por ejemplo,21, . . . z n ,con probabilidad positiva y tomar tambin todos los valores en algim intervalo, por
ejemplo, a z 5 b. La distribucin d e probabilidades d e tales variables
aleatorias se obtendra al combinar
las ideas consideradas anteriormente
para la descripcin d e las variables aleatorias discretasy continuas como
sigue. A cada uno delos valores z; se le asigna un nmero p(x;) tal que
p ( z ; )2 O, pax-a toda i, y tal que Cy=,p(z;) = p < 1. Entonces definimos
b
una funcin f que satisface !(x) 2 O, J, f(z)alz = 1 - p . Para toda a , b ,
con -00 < a < c < $00,
)

<

De esta manera satisfacemos la condicin

P ( S ) = P(-m

< x < 0 O ) = 1.

Una variable aleatoria del tipo mixto pue8de aparecer como sigue.
y X es el tiempode
Sup6ngasequeestamosprobandounequipo
fhcionamiento. En la mayora de los problem.as describiramosS como
una variable aleatoria continuacon valores pos'ibles x 2 O. Sin embargo,
hay algunos casos en los cuales hay una probabilidad positiva de queel
l tiempo S = O. En tal
artculo no funcione del todo, es decir, falla a
caso desearamos modificar nuestro modeloy asignar una probabilidad
positiva, por ejemplo p , a l resultado x' = O. Portanto,tendramos
P(-Y = O) = p y P ( X > O) = 1 - p. As, el nmero p describira la
distribucin d e ,X en O, mientras que la fdp f describira la distribucin
de valores de S > O (Fig. 4.13).

P ( X = O ) =p

FIGURA
4.13

FIGURA
4.14

unidimensiotrales
aleatorias
96 Variables

4.7

4.7 Variables aleatorias distribuidas uniformemente


En los captulos 8 y 9 estudiaremos con detalle algunas importantesvariables aleatorias discrctasy continuas. Ya hemos presentadola relevancia de la variable aleatoria binomial. Ahora consideremos brevemente
una variable continua tambin importante.
Definicin. Supongamos que X es una variable aleatoria continua
que toma todos los valores en el intervalo [ a ,b ] , donde ambos, n y
b, son finitos. Si la ftlp d e X est dada por

=O

(4.13)

para
cualquier
otro
valor

decirnos que S est distl-ibuidu unifomcmente en el intervalo


(Vase 12 Fig. 4.14.)

[ a ,b].

Obsenmlones: a ) Una variable aleatoria clislribuida uniformemente tiene una

fdp que es una constante en el intervalo d e definicin. A fin d e satisfacer la

condicin S-+," f(z) dx = 1, esta constante debe ser igual a l recproco d e la


longitud del intervalo.
b) Una variable aleatoria distribuida uniformemente representa el trmino
continuo an5log.o a los resultxlos igualmente posibles en el sentido siguiente.
Para cualquier subintervalo [c,dl, donde a 5 c < d 5 b, P ( c 5 ,Y 5 d ) es la
7rusmna para todos los subintervalos que tienen la misma longitud. Esto es,
P(c

5 A- 5 d ) =

d-C
b-a

y as s61o depende de I n longitud del intervalo y no d e l a ubicacin d e &te.


c ) Ahora podemos precisar la nociBn intuitiva d e elcgir un punto P al azar
en un intervalo, por ejemplo [ a ,61. Con esto slo indicaremos que la coorde11acla x del punto elegido, p.x ejemplo S , est5 distribuida uniformemcntc en
[ a ,hl.

EJEMPLO4.17. Se elige al azar un punto sobreel segmento de linca


[0,2]. <Cul es la probabilidad de que el punto escogido quede entre 1

i?.

~1.8

Una observacidn

97

Rcprescntando la coordenada del punto elegido por


X , tenemos
1
que la fdp de X est dada por f(x) = z, O < x < 2 y, portanto,
P(l 5 S 5 23 ) = +.

EJEMPLO4.18. Se puede suponer que la dureza, digamos H , de


una muestra de acero (medida en la escala Rockwell) es una variable
aleatoria continua distribuidauniCormemente sobre [50,70] en la escala
B . Por tanto,
f(h)=

50

=O

< h < 70,

paracualquierotro

valor.

EJEMPLO4.19. Obtengamosunaexpresinpara
variable aleatoria distribuida uniformemente
F(x)= P(X
= O

5 x) =
si

J-b,

,f(s)

la fda deuna

ds

x<a,

La grrifica correspondiente aparece enla figura 4.15.


4.8 Una obseruacin

I-Icmos sealado varias veces que en alguna etapa del desarrollo de nuestro modelo probabilstico deben asignarse algunas probabilidades a los
resultados sobre la base de alguna evidencia experimental (como es la
frecuencia relativa, por ejemplo) o algunas otras consideraciones, tales
\

98 Variubles aleatoriusunidimensionales
como cxpcricncias pasadas con los rcnmenos estudiados. El interrogante siguiente sc le podra presentar al estudiante: ?por qu no podramos obtcncr todas las probabilidades e n las cuales estamos interecs que muchos eventos
sados porun medio no deductivo? La respuesta
c u p s probabilidades dcscamos conocer, son tan complicados que nucstro conocimiento intuitivo es insuficiente. Por ejemplo, supongamos
quc diariamcntc salen 1000 artculos de una lnea d c produccin, algunos de cllos son defectuosos. Deseamos conocer la probabilidad de
tener 50 o mtis artculos dcfcctuosos en un da dado. Aun si estamos
familiarizados con el comportamiento general del proceso dc produccidn, nos podra ser difcil asociar una medida cuantitativa al evcnto:
50 o mcnos artculos son derectuosos.Sin c m l x q o , podramos afirmar
quc individualmcnte cualquier artculo tcnia
la probabilidad 0. 10 d e ser
defectuoso. (Esto es, las experiencias anteriores nos permiten saberque
cerca del 10% de los artculos son dcfcctuosos.) An ms, podramos suponer que los artculos individuales son defectuosos o no defectuosos,
illdependicntemente uno dc otro. Ahora podcmos proccdcr de manera
dcductiva y derivar la probabilidad del evcnto que se considera.Esto es,
si X = nmero de defectuosos,

Lo quc aqu se dcstaca es que los diversos mCtodos para calcular probabilidades que hemos derivado(y los que estudiaremos posteriormente) sn dc mucha importancia, puesto que con cllos podcmos calcular
las probabilidadcs asociadas con eventos ms complicados, lo cual sera
dificil d e obtcncr con medios intuitivoso empricos.

PROBLEMAS
4.1. Se sabe que al lanzar una moneda, a nlcnudo sale cara tres veces m,is
que scllo. Esta moneda se lanza tres veces. Sea ,Y el nmero de caras que
aparccen, estblccer l a distribucin de probabilidades de X , as como l a fda.
IIacer u n a gr5Gca de ambas.

4.2. De u n lote que contiene 25 articulos, 5 de los cualcs son dcfectuosos, se


eligen 4 al azar. Sea S el nmero dc artculos defectuosos encontrados, obtcner
la distribucin d e probabilidades de S si
a) los artculos se escogen
b ) los artculos se escogen

con sustitucin,
sin sustitucin.

Problemas
,I'

~'

4.3. Supngase que la variable aleatoria

y P ( X = j ) = 1/2.', j = 1 , 2 , .. .

99

X tiene valores posibles 1 , 2 , 3 ,. . .,

P ( X es par).
b ) Calcular P ( X 2 5).
c) Calcular P ( X es divisible entre 3).

, , . " a )Calcular

4.1. Considrese una variable aleatoria X con resultados posibles: O , 1 , 2 , . . .


Suponer que P ( X = j ) = (1 - a ) a j , j = O, 1 , 2 , .. .

?Para qu valores d e a es significativo el modelo anterior?


b ) Verificar que lo anterior representa una distribucin de probabilidades
legtima.
c) Demostrar que para dos enterospositivos cualesquiera S y t ,

u)

4.5. Supcingase que la mquina 1 produce (diariamente) el doble


d e articulos
que la m5quina 2. Sin embargo, cerca del4% d e lo's artculos d e la mriquina 1
tiende a ser defectuoso, mientrasque la mquina 2 slo produce alrededor d e
2% defectuosos. Supongamos que se combina la produccin diaria dea
ls dos
mquinas. Se toma una muestra aleatoria de diez del resultado combinado.
?Cul esla probabilidad de queesta muestra contenga dos defectuosos?

4.6. Se lanza una serie d e cohetes hasta que ocurre el primer lanzamiento exitoso. Si esto no sucede en cinco ensayos, el experimento se detieney se
inspecciona el equipo. Supngase que hay una probabilidad constante de 0.8
de tener unlanzamiento exitoso y que los ensayos sucesivos son independientes. Ademjs, el costo del primer lanzamiento es I.; dlares, mientras que los
siguientes cuestan A'/3 dlares. Cada vez que hay un lanzamiento esitoso, se
obtiene cierta cantidad
d e informacin que puede expresarse
como una ganancia financiera d e C dlarcs. Si T es el costo neto dell experimento, encontrarla
distribucin de probabilidades d e T .

4.7. Calcular P ( X = 5), donde X esla variable aleatoria definida en


ejemplo 4.10. Supongamos que n1 = 10, n2 = 15,111= 0.3 yp2 = 0.2.

cl

4.8. (Propicdades delusfn-obabilidudes binonziales.) E,n laexposicin del ejemplo


4.8 se sugiri un modelo general paralas probabilidades binomiales
pk(1-

Indicar estas probabilidades por p n ( b ) .


u) Demostrar que para O 5 b < n tenemos

p)%-'.

b ) Usando a ) , demostrar que

i) p n ( k + 1) > p , ( k )

si k

< n p - (1 - P ) ,

(T)

1
f

100 Mriablesaleatorias unidimensionales


ii) PrL(k+ 1) = p n ( k ) si k = n p - (1 - p ) ,
izi) p n ( k + 1) < p , ( k ) si k > n p - (1 - p ) .
c) Demostrar que si n p - (1 - p ) es un entero, p,(k) toma su valor mximo
para dos valores de k , llamados ko = n p - (1 - p ) y kb = n p - (1 - p ) 1.
d ) Demostrar que si np - (1 - p ) no es un entero, entonces p , ( k ) toma su
valor mximo cuando k es igual al entero m& pequeo mayor que Lo.
e ) Demostrar que si n p - ( 1 - p ) < O, P, ( O ) > Pn (1) > . . . > P, ( n ) ,mientras
que si n p - (1 - p ) = O, P,(O) = P n ( l ) > P n ( 2 ) > . . . > P,(n).

4.9. La variable alcatoriacontinua X tienefdp f ( ~ )= 1 / 2 , O 5 I 5 2.


Se hacen dos determinaciones independientes d e X. Cu5l es la probabilidad
de que ambas determinaciones sean mayores q u e l ? Sise han hecho tres
dcLerminaciones independientes, cul es la probabilidad d e que exactamente
dos sean mayores que 1 ?

4.10. Sea S la duracin de un tuboelectr6nico y supongamos que X


se puede representa- como una variable aleatoria continua con fdp f ( ~ )=
be-bx, 2 2 O. Sea p i = P ( j 5 X 5 j + 1). Demostrar que p j es d e la forma
(1 - a ) a j y determinar a.

4.1 1 . La variable aleatoria continua X tiene la fdp f ( ~ =


) 3 x 2 , -1 5 I 5 O.
Si 6 es un nillnero que satisface -1 < b < O, calcular P ( X > b I X < b / 2 ) .
4.12. Supngase que f y g son fdp en el mismo intervalo, a

Demostrar que f + g no es una fdp en ese


intervalo.
b) Demostrar que para todo nmero p, O < /?< 1, , B ~ ( I )
una fdp enese intervalo.
a)

5 I 5 b.

+ (1 - P ) g ( z ) es

4.13. Suponer que la grfica de la


figura 4.1G representa la fdp de una
variable aleatoria X .
a)

Cul es la relacin entre a y b?

6) Si a > O y b > O, qupuede


decir acercadel mayor valor que puede
tomar b? (Vase Fig. 4.16.)

x= - a

FIGURA
4.16
4.14. El porcentaje d e alcohol (1OOX) en cierto compuesto se puede considerar como una variable aleatoria, donde X , O < X < 1, tiene la siguiente
fdp:

Problemas

10 1

Obtener una expresin parafda F y dibujar su grAfica.


b ) Calcular P ( X 5
C) Supngase que el precio d e venta del compuesto anterior depende del
contenido d e alcohol. Especficamente, si $ < X <:
el compuesto se vende
en C1 dlares/gA5n; de otromodo se vende en
C2 dlares por galn.Si el costo
es C3 dlares/galn, encontrarla distribucin d e probabilidades d e la utilidad
neta
+
I
a)

3).

6,

4.15.Sea X una variable aleatoria continua con fdpf dada por:

J,

"

o 5 x 5 1,

f(x) = ax,

=a,

1<x52,

= -ax+3a,
= O,

..

25x53,

paracualquier otro valor.

a) Determinar la constante a.

"

6) Dctcrminar F , la fda y dibl?jarla gr5fica.


c) Si S I , X2, y X 3 son tres observaciones independientes d e X Ccu5l es la
probabilidad d e que exactamente uno de esos tres nmeros sea mayor que
1.5?

4.16. Se suponc que el di5metro de un cable elctrico, digamos X , es una


variable aleatoria continua con fdp f ( x ) = 62(1 - z), O 5 x 5 1.
a ) Verificar que la antcrior es una fdp y dlbujarla.
0) Obtener una expresin parala fdp d e X y dilbujarla.
c) Determinar un nmero b, tal ne P ( X < b ) =: 2P(X > b ) .
d ) Calcular P ( X 5 $ I $ < X < 5).

, 4.17. Cada una delas siguientes frmciones representa la fda d e una variable
aleatoria continua. En cada caso F ( c ) = O para x < a y F ( x ) = 1 para x > b,
donde [a,b] es el intervalo indicado. En cada uno
d e los casos,dibujar la fnncin
F , determinar la fdp f y dibujarla. Tambin verificar que f cs una fdp.
a)
\

F ( z ) = x / 5 , 05 x 5 5

c) ~ ( z =
) e3x,-00

<c5O

6 ) F ( c ) = (2,lw)sen-'(fi),O 5 x 5 1
d)

q X )

=2 / 2

+ g, -1

5 5 1.

4.18. Sea X la duracin de un instrumento


electrnico (medida en horas). Supngase que X es una variable aleatoria continua con fdp f ( x ) =
k / P , 2000 5 x 5 10000.

Para n = 2, determinar IC.


b ) Para n = 3, determinar k .

a)

102 Variables aleatorias unidimensionales


c) Para n en general, determinar k.
d ) ?Cu,il es la probabilidad de queel instrumento falle antes d e 5000 horas

de funcionamiento?
e ) Dibujar la fda F(1) para c) y determinar su forma algebraica.

4.19. Sea X una variable aleatoriadistribuidabinomialmentecon


base
en diez repeticiones de un experimento. Si p = 0.3, calcular las siguientes
probabilidades usando la tabla d e la distribucin binomial del Apndice.
U)

P(X 5 S) b ) P ( X = 7 )

C)

P ( X > 6).

4.20. Supngase que X est distribuida uniformemente en


[-a, +(Y],
donde
a > O. Cada vez que sea posible, determinar (Y d e modo que se satisfaga lo
siguiente.
U ) P ( X > 1) = $
b ) P(X > 1) = f C) P ( X < f)= 0.7
d ) P ( X < f = 0.3 e ) P(JX1< 1) = P(lX1 > 1).
4.21. Suponiendo que X est distribuida uniformemente en
responder las preguntas del problema4.20.

[O,cr],a
>

4.22. Se escoge un punto al azar de un segmento d e longitud L. ?Cul es


la probabilidad de quela razn del segmento m& corto en relacin con
el ms
largo sea menor que 1 ?
4.23. Una fbrica produce diariamente diez recipientesd e vidrio. Se puede
suponer que hay una probabilidad constante p = 0.1 d e producir uno defectuoso. Antes de que estos depsitos se almacenen son inspeccionados y a los
defectuosos se les aparta. Supongamos que hay
una probabilidad constante
r = 0.1 d e qLe un recipiente defectuoso sea mal clasificado. Sea X igual al
nmero de recipientes clasificados como defectuosos al trmino de un da d e
produccin. (Suponemos que todos los recipientes que sefabrican en un da
se
inspeccionan ese mismo da.)

= 3) y P(X > 3),


h ) Obtencr una expresin para P ( X = k).

u ) Calcular P ( X

4.24. Supngase que el 5% d e los artculos que salen d e una linea d e


produccin son dcfectuosos. Se escogen diez de ellos y se inspeccionan. ?Cu,il
es la probabilidad d e que se encuentren cuando mucho dos
defectuosos?

4.25. Suponer que la duracin (en horas) d e cierto tubo d e radio es una
variable aleatoria continuaX con fdp f ( x ) = 10o/;c2, x > 100 y O para cualquier
otro valor.
u ) ?Curil es la probabilidad de que un tubo dure menos d e 200 horas si se
sabe que el tubo todava funciona despus d e 150 horas d e servicio?

Problemas

103

b ) ? C u d es la probabilidad de que si se instalan tres d e esos tubos en un


conjunto, exactamente uno tenga que ser sustituido despus d e 150 horas d e
servicio?
c) ?Cul esel nfimero mximod e tubos que se pueden poner en un conjunto
d e modo que haya una probabilidad 0.5 de que despus d e 150 horas d e
servicio funcionen todava?
4.26. Un experimento consta d e n ensayos independientes. Se puede suponer que debido al aprendizaje, la probabi1ida.d d e obtener un resultado
exitoso aumenta con el nmerode ensayos realizados. Especficamente, supongamos que P(xito enla i-sima repeticin) = (isI)/(i+ a), i = 1 , 2 , .. . , n.
a ) ?Cul es la probabilidad d e tener tres resultados exitosos por lo menos
en ocho repeticiones?
b ) ?Cul es la probabilidad de queel primer resultado exitoso Ocurra en la
octava repeticin?

4.27. ReGriCndonos al ejemplo 4.9,


u ) calcular P ( X = 2) si n = 4,
b ) para un n arbitrario, demostrar que P ( S = n - 1) = P (exactamente un
intento no exitoso) es igual a [I/(n l)]Ey=l(l/i).

4.28. Si la variable aleatoria I est5 distribuida uniformemente en


(0.5), ?cul
es la probabilidad d c que l a s races de la ecuacin 4z2 + 4 2 +~K + 2 = O sean
reales?
4.29. Supngase que la variable aleatoria X tiene valores posibles 1 , 2 , 3 ,. . .

y que P ( X = r ) = IC(I- ,o)~I, O < L,I < 1.

Determinar la constante IC.


b) Encont.rar la m d u d e esta distribucin (es decir, el valor d e
mayor valor deP(X = r)).
a)

que da el

4.30. Una variable aleatoriaX puede tomar cualtro valores con probabilidades (1 32)/4, (1 - 2)/4, ( 1 + 2z)/4, y (1 - 42)/4. ?Para qu valores d e X es
Sta una distribucin d e probabilidades?

<
1

5.1 Un ejemplo

Supongamos queel radio X d e la entrada de un tubo muy bien calibrado


se considera como una variable aleatoria continua con fdp f . Sea A =
7 r X 2 el read e la seccin d e la entrada; entonceses evidente que, puesto
que el valor d e X es el resultado de un experimento aleatorio, tambin
lo es el valor de A . Es decir, A es una variable aleatoria (continua), y
podramos obtener su fdp, digamos g. Esperaramos que, puesto que
A es una funcin d e X, la fdp 9 se puede dlerivar de alguna manera
d e esta
conociendo la fdp f . En este captulo trataremos problemas
naturaleza. Antes de familiarizarnosconalgunastcnicasespecficas
necesarias, formularemos los conceptos anteriorescon mayor precisin.

FIGURA5.1

106
de Funcioftes
aleatorias
variables

5.2

5.2 Eventos equivalentes


Sean E un experimento, S un espacio muestra1 asociado conE y S una
variable aleatoria definida enS;
supongamosque y = H ( z ) es una funcinreal d e x. Entonces,
E' = E I ( S ) es una variable aleatoria puesto que para cada
S E S se
determina un valor de Y , digamos y = I I [ X ( s ) ] .Esto se representa
en forma esquemtica en la figura 5.1. Como antes, llamamos R, al
posibles d e la hncin
espacio del intervalod e X , el conjunto de valores
X . De igualmodo,definimoscomo
R, el espacio del interuulo de la
variable alenoria Y , el conjunto de valores posibles d e Y . Previamente
(ecuacin 4.1) definirnos la nocin d e eventos equivalentes enS y en Rr .
Extendamos ahora este concepto dela siguiente manera natural.
Definicin. Sea C un evento (subconjunto) asociadocon el recorrido
de Y , R,, comosedescribianteriormente.
Definase B c R,
como sigue:

En palabras, B es el conjunto delos valores d e X tales que H ( x ) E


C . Si B y C estnrelacionados d e estamanera los llamamos
eventos equivulentes.
Observaciones: a ) Como dijimos antes, la interpretacin informal d e lo anterior es que B y C son eventos equivalentes si y slo si B y C ocurren juntas.
Esto es, cuando ocurreB, ocurre C y recprocamente.
b ) Supngase que A cs u n evento asociado con S , el cual es equivalentea un
evento B asociado con R,. Por lo tanto, si C es un evento asociado conRg que
es equivalente a B , tenemos que A es equivalente a C.
c) Nuevamente es importante darse cuenta de que cuando hablamos de
cventos equivalentes (en el sentido anterior),esos eventos estn asociados con
espacios nluestrales diferentes.

EJEMPLO5.1. Supongamos que H(x) = T X 2 como en la seccin 5.1.


I,uego, los eventos B : {X > a} y C : {Y > 4 ~ son
) equivalentes,
porque si Y = Tx2,entonces {S > 21 ocurre si y slo si {Y > 4x1
ocurre, puesto que en el presente contexto, no puede tomar valores
negativos. (Vase la Fig. 5.2.)

5.2

Eventosequivalentes

107

Obseruacwn: Otra vez es importante sealar que se usa una notacin abreviada cuando escribimos expresionescomo { X >: 2) y {Y > 4 ~ ) . Por supuesto, nos estamos refiriendo a los valores d e X y a los valores d e Y , o sea,
{S

I %S) > 21 Y {x I Y(.> > 4s).

Como hicimos en el captulo 4 (Ec. 4.2), nuevamente haremos la


definicin siguiente.
Definicin. Sean X una variablealeatoriadefinida en el espacio
muestra1 S , R, el recorrido de X y I1 una funcin real, y consideremos la variable aleatoria Y = H ( X ) con recorrido R,. Para
cualquier evento C C R,, deJinirnos P ( C ) como sigue:

En palabras, la probabilidad de unevento asociado con el recorrid o d eY est definida comola probabilidad del evento equivalente
(en terminos deX ) , como aparece enla ecuaci6n (5.2).
Obseroacwnes: a) La definicin anterior harposible calcular las probabilidades relacionadas con eventos conY si conocemos la distribucin d e probabilidades deX y podemos determinar el evento equivalente en cuestin.
b ) Puesto quelo tratado previamente (ecuaciones 4.1 y 4.2 relaciona probabilidades asociadas con R, con probabilidadesasociadas con S , podemos escribir la ecuacin (5.2) como sigue:

'

P ( C ) = P [{x E R, : H ( x ) E C } ]= P

[{S ~i

S : H ( X ( s ) )E C } ]

EJEMPLO5.2. Sea X una variable aleatoria continua con fdp


f ( z ) = e-x,

> o.

108 Funciones de variables aleatorias

5.3

(Una integracin sencilla indica que


e-&
= 1.)

so

Supngase que B ( z ) = 22 1. Por tanto,


R, = {x I x > O}, mientras que R y = {y I y >
l}. Supngase que el evento C est definido
como sigue: C = {Y 2 5). Ahora, y 2 5 si y
slo si 2x+1 2 5, lo que asu vez da x 2 2. Por lo
tanto, C es equivalente a B = {X 2 2}. (Vase
=
la Fig. 5.3.) Ahora, P ( X 2 2) = J2m e-&
1/e2. Por lo tanto, aplicando la ecuacin (5.2)
encontramos que

P ( Y 2 5) = 1/e2

FIGURA5.3

Observacwnes: a) Nuevamente conviene sealar que hay que considerar incorporar la evaluacin d e z = X(s) y la evaluacin d e y = H ( z ) en nuestro
experimento y, por tanto, considerar simplementeR y , el recorrido deY , como el espacio muestral d e nuestro expcrimento.
Estrictamente hablando, elespacio muestral del experimentoes S y el resultado del experimentoes s. Todo lo que hagamosa continuaci6n no est5 influido
por la naturaleza aleatoria del experimento. La determinacin de z = X(s) y
la evaluacin de y = H ( z ) son estrictamente procesos determinism una vez
que se ha observado s. Sin embargo, como vimos antes, podemos incorporar
estos clculos en la descripcin d e nuestro experimentoy as relacionarlos directamente con el recorridoR y .
b) As como la distribucin d e probabilidades se indujo enRx por la distribucin d e probabilidades sobreel espacio muestral originalS, de igual manera
la distribucin d e probabilidades d e Y se determinasi se conocela distribucin
d e probabilidades d e X . Asi en el ejemplo5.2 la distribuci6n especfica d e X
determin completamente elvalor d e P ( Y2 5).
c) N considerar la hncin de unavariable aleatoria X , digamos Y = H(X),
debemos comentar que no se puede permitir toda funcinH concebible. Sin
embargo,a
l
s funciones que aparecen en
a
s
l aplicaciones estn inevitablemente
entre aquellas que podemos considerar y, por tanto, m& adelante no
nos
referiremos a esta pequeadificultad.

5.3 Variables aleatorias discretas


Caso 1

.X

es una variable aleatoria discreta. Si X es una variable

Variables aleatorias discretas

5.3

109

aleatoria discreta y Y = H ( X ) , entonces de inlmediato se deduce queY


es tambin una variable aleatoria discreta.
Porque supngase quelos valores posibles de X se pueden enumerar
como x 1 , x2,.. . ,xn,.. . Con seguridad, los valores posibles d e Y se
pueden enumerar como y1 = H ( z l ) ,y2 = H(x'),. . . (Algunos d e los
valores anteriores d e Y pueden ser iguales, pero esto ciertamente no
impide el hecho de queesos valores puedan enumerarse.)

EJEMPLO5.3. Supngase que l a variable aleatoria X toma los tres


respectivamente. Sea
valores -1,0 y 1 conprobabilidades3, 1 1 y it,
Y = 3X + 1, entonces los valores posibles de Y son - 2 , l y 4, cuyas
1 1 y 1
probabilidades se supone que son 3,
Este ejemplo sugiere el siguienteprocedimiento generul: si x 1 ,. . . ,x n ,
. . . son los valores posibles de X , ~ ( 2 . =; )P ( X = x.;)y H es una funcin
tal que a cada valor de y le corresponda exactamente un valor de x,
entonces la distribucin de probabilidades deY se obtiene como sigue:
Valores posibles de Y :

y.; = H ( x ; ) ,

i = 1,2, . . . ,n , . . . ;

A menudo, l a funci6n I1 no tiene la caracterstica anterior, y puede


suceder que varios valores d e X den el mismo valor de Y , como ilustra
el siguiente ejemplo.

EJEMPLO5.4. Supngase que consideram'osla misma variable aleatoria X como en el ejemplo 5.3. Sin embargo, introducimos Y =
En este caso, los valores posibles d e Y son O y 1, cuyas probabilidades
se supone que son 21 , 21 , porque Y = 1 si y slo si X = -1 o X = 1
y la probabilidad d e este ltimo evento es -+ = $. Debido a nuestra terminologa anterior, los eventos B : {X = &l}y C : {Y = l}
son eventos equivalentes y, por lo tanto, segn la ecuacin (5.2), tienen
probabilidades iguales.

S'.

&

Elprocedimientogeneralpara situaciones como


la descrita en el ejemplo
anterior es el que sigue: representemos con x i l , x i 2 , .. . ,x ! k , . . ., los
valores de X . que tienen la propiedad Ei(zij) = y.; para toda J . Luego,

11 0 Fumiones de variables aleatotias

5.4

En palabras, para calcularla probabilidad del evento {Y = y;}, encuentre el evento equivalente en trminos Xde(en el recorrido Rx)y luego
agregue todas las probabilidades correspondientes. (Vase la Fig. 5.4)

EJEMPLO5.5. Tenga X los valores posibles 1 , 2 , . . . , n , . . . y supngase que P ( X = n ) G


Digamos

a".

Y = 1 si X es par,
= -1

si X es impar.

Entonces, Y toma los dos valores -1 y +l. Puesto que Y = 1 si y slo


si X = 2, o X = 4, o X = 6, o ... , aplicando la ecuacin (5.2) se tiene

P ( Y = 1 ) = 14 + T1 t ; + W1 + ' " J
Por lo tanto,

P ( Y = -1) = 1 - P ( Y = 1) = 3'
2

Caso 2. X es una variable aleatoria continua. Puede suceder que


X sea una variable aleatoria continua, mientras que Y sea discreta. Por '
ejemplo, supongamos que
S puede tomartodos los valores reales, mientras que se define queY sea $1 si X O y que Y = -1 si X < O. Para obtener la distribucin d e probabilidades de Y , determinemos simplemente el evento equivalente (enel recorrido R,y) que corresponde a los diferentes valores de Y . En el caso anterior, Y = 1 si y slo si X >_ O, mientras que Y = -1 si y slo si X < O. Por lo tanto, P ( Y = 1) = P ( X O),
mientras que P(Y = - 1) = P(X < O). Si se conoce la fdp de S pueden calcularse estas probabilidades. En el caso general, si {Y = yi} es
equivalente a un evento, digamosA, en el recorrido deX entonces,

>

>

q(7J;j = P ( Y = yzj =

f(zjdz.

5.4

Variables aleatorias continuas

11 1

5.4 Variables aleatorias continuas

El caso ms importante (y el que se encuentra con mayor frecuencia)


aparece cuando X es una variable aleatoria continua con fdp f y H es
una funcin continua. Por tanto, Y = H ( X ) es una variable aleatoria
continua y nuestro propsito ser obtener su fdp, digamosg.
generul
El procedimiento
ser as:
a) Obtenga G, la fda de Y ,donde G(y) := P ( Y 5 y), despus de
encontrar el evento A (en el recorrido de X ) que equivale al evento
{ Y I Y>.
b ) Direrencie G(y) respecto a y para obtener g(y).
c ) Determine estos valores d e y en el reco:rrido d e Y para los cuales

EJEMPLO5.6.

Supngaseque

fd P

f(2)

= 22,
=O

X tiene

o < < 1,
2

en otra parte.

Sea H ( x ) = 3 2
1. Portanto,para
encontrar la fdp deY = H ( X ) tenemos (Fig.
5.5)

=ty-l)ja

Puesto que

1<y<4.

f(2)

22dx

= [(y - 1)/312.

FIGURA5.5

> O para O < x < 1, encontramos que g(y) > O para

Observacwn: El evento A , antes mencionado,que equivale al evento {Y 5 y}.


es sinlplemente {A 5 (y - 1)/3}.

112
aleatorias
variables
Funciotzes de

5.4

Existe otro mtodo algo diferente para obtenerel mismo resultadoy

quc m i s adelantc ser fitil. Consideremos nuevamente


G ( y ) = P ( Y 5 y) = P
donde F es la fda d e X , esto es,

(x 5 Y 1 > = F ( F ) ,

F ( x )= P(X

5 x).

Para evaluar la derivada de G, G(y), usamos la regla d e la cadena


para la dcrivacin como sigue:

por tanto ,

(T)

G(y) = F(u).?
1 = P ( ~ )1. ?= 2 y - 1

.:,

y=l

y=4

. ,

FIGURA
5.6

como antes. En la figura 5.6 aparece la grfica d e la fdp de Y . (Para


vcrificar los crilculos ntese que Jl4 g(y)dy = 1.)
EJMPLO 5.7. Supngase que una variable aleatoria continua tiene
fdp como en el ejemplo5.6. Sea H ( x ) = e-. Para encontrar la fdp de
IT = H ( X ) procedemos como sigue (Fig. 5.7):

= 1 - (-1ny) 2 .

Por tanto, g(y) = G(y) = -21n y/y. Puesto que f ( x ) > O para
x < 1, encontramosque g(;y) > O para 1/e < y < 1. (Ntese
que el signo algebraic0 para g(y) es correcto, puesto que In y < O para
I/e < y < 1.) Ida grfica de g(y) se ilustra en la figura 5.8.
O

<

Variables aleatorias continzcas

113

x=

-In y

FIGURA5.7

FIGURA5.8

Otra vez podemos obtenerel resultado anterior con un planteamiento algo diferente que esbozaremos brevemente. Como antes,

G(y) = P ( Y 5 y) = P ( X 2 -In( y)
= 1- P(X

5 -In

y) = 1 -- F ( - I n

y),

donde, como antes,F es la fda d e X. A fin de obtener la derivada de G


usaremos otravez la regla d e la cadena como sigue:
dG(y)
dGdu
du
dy '
dY

"
"

donde

u = - I n y.

As ,

como antes.
Generalicemos ahora el planteamiento que sugieren los ejemplos
anteriores. El paso crucial en cada uno de los ejemplos se efectu a l
sustituir el evento {Y 5 y} por el evento equivalente en trminosd e l a
variable aleatoriaX. En los problemas anteriores esto fue relativamente
sencillo, puesto que en cada uno los
de casos la funcin fue una funcin
d e X estrictamente creciente o estrictamente (decreciente.

114 Funcionesaleatorias
de variables

5.4

En la figura 5.9, y es una funcin estrictamente creciente de


x. Por lo
tanto, podemos resolver y = H(x) para x en trminos d e y, digamos
x = I f - l ( y ) , donde H-' se llamafuncininversa
de H. A s , si If
esestrictamentecreciente, { I I ( X ) 5 y) equivalea { X 5 ~ - ' ( y ) > ,
mientras que si H es estrictamente decreciente, { H ( X ) 5 y} equivale
a {S 2 ~ - ' ( y ) } .
Y
1

FIGURA
5.9
El mtodo empleado en los ejemplos anteriores ahora se puede generalizar como sigue.

Teorema 5.1. Sea X una variable aleatoria continua con fdp


f , donde
f(x) > O para a < x < b. Supngase quey = H ( x ) sea una funcin
o decreciente). S u p h g a s e
d e x estrictamente montona (creciente
que esta funcin es derivable(y, por tanto, continua) para todax.
Entonces, la variable aleatoria Y definida como Y = B ( X ) tiene
una fdp g dada por

donde x se expresa en trminos dey. Si H es creciente, entonces g es


distinta de cero para los valores d e y que satisfacen H ( a ) < y < H ( b ) .
Si H es decreciente, entonces g es distinta d e cero para los valores d e y
que satisfacen H ( b ) < y < H ( a ) .

Demostracidn: a) Supongamos que H es una funcin estrictamente


creciente. Por tanto,

5.4

Variabler:aleatorias continuas

115

Diferenciando G ( y ) respecto ay, obtenemos, al usar


la regla d e la cadena
para las derivadas,

As
Id x

d xd F ( x )
dxdy

G (y) = --

f(4,.

b ) Supongamos que H es una funcin decreciente. Por lo tanto,

5 y) = P ( H ( X )5 y) = P ( X 2 H-'(y))
= 1 - P ( X 5 +(y))
= 1- F(H-l(y)).

G(y) = P(Y

Procediendo como antes, podemos escribir

Observacin: El signo algebraic0 obtcnido en b ) es correcto, puesto que si es


una fimcin decrecientede x,x es una funcin decrecientede y y, por lo tanto,
dx/dy < O. As, al usar el smbolo dcl valor absoluto en torno aclx/dy, podemos
combinar el resultado de a ) y b ) y obtener laformal final del teorema.
,

EJEMPLO5.8. Reconsideremos los ejemplos 5.6 y 5.7 aplicando el


teorema 5.1
a) En el ejemplo 5.6 tenamos f ( x ) = 22, O < x % <1 y y = 3x 1. Por
lo tanto, x = ( y - 1)/3 y d x / d y = 1 As, g(y) == 2[(y - 1)/3];.= ;(y - 1),
1 < y < 4, lo que concuerda con el resultado obtenido previamente.
b ) En el ejemplo 5.7 tenamos f ( x ) = 22, O < x < 1 y y = e - " . Por
tanto, x = - I n y y d x / d y = - l / y . As, g(y) = -2(ln y)/y, 1/e < y < 1,
lo que d e nuevo est de acuerdo con el resultado anterior.

Si y = I I ( x ) no es una funcin montona de x no podemos aplicar


directamente el mtodo anterior.En su lugar, volveremos al mtodo general antes bosquejado.El ejemplo siguiente ilustra este procedimiento.

1 16 Funciones de variables aleatorias

5.4

x=- 1

X=]

FIGURA
5.10

FIGURA
5.11

EJEMPLO5.9. Supongamos que


f(z) =

;,

-1

=o

< x < 1,

para
cualquier
otro

valor.

Sea fir(,) = z2.Obviamente esta no es una funcin montona en


todo el intervalo [-1,1] (Fig. 5.10). Por lo tanto, obtenemos l a fdp de
Y = X 2 como sigue:

En donde F es la fda d e la variable aleatoria X . Por tanto,

+ i)

A s , g(y) = ( 1 / 2 f i ) ( i
= 1/2fi, O < y < l.(Vase la Fig. 5.1 1.)
El mtodo usado en el ejemplo anterior da
el siguiente resultado
general.

Problemas

117

Teorema 5.2. Sean X una variable aleatoria continua con


fdp f y
Y = X2. Entonces, la variable aleatoria 1Y tiene fdp dadapor

Denwstrucin: Vase el ejemplo 5.9.

PROBLEMAS

5.1. Supngase que X est5distribuidauniformemente


en(-1,l).
Sea
Y = 4 - X 2 . Encontrar la fdp de Y , sea g(y), y dlibujarla. Tambin verificar
que g(y) es una fdp.
5.2. Supngase que X est distribuida uniformemente en (1,3). Obtener las
fdp d e las siguientes variables aleatorias:
.i
a)

Y=3X+4

b)Z=e"

Verificar en cada uno delos casosque la funcin obtenida es una fdp ydibujarla.
5.3. Supngase que la variable aleatoria continlia S tiene fdp f(x) = e - x ,

x > O. Encontrar las fdp de las siguientes variables aleatorias:


a)

Y =X3

6) 2 = 3 / ( X + 1)2.

5.4. Supngase que la variable aleatoria discreta X toma los valores 1,2
y 3 con igual probabilidad. Encontrar
la distribucin d e probabilidades d e
Y=2X+3.

5.5. Supngase que X est distribuida Uniformementeen el intervalo (0,l).


Encontrar la fdp d e las siguientes variables aleatorias:
U)

Y = X2+ 1

6) 2 = 1/(X

+ 1).

5.6. Supngase que X est distribuida uniforme mente


en (- 1 , l ) . Encontrar
la fdp d e las siguientes variables aleatorias:
a)
/

Y = sen(~/2)X

6) 2 = c o s ( ~ / 2 ) X

c)

IY

=I

I.

5.7. Supngase que el radio d e una esferzes unavariable aleatoria continua.


(Debido ala imprecisin en el proceso de fabricacin, los radios d e las diversas
esferas pueden ser diferentes.) Supngase que el radio
R tiene fdp f ( r ) =
6r(l - r ) , O < r < 1. Encontrar la fdp del volumen V y del rea superficial S
d e la esfera.
5.8. Una corriente elctrica I que flucta se puede considerar como una
variable aleatoria distribuida uniformemente en todo el intervalo (9, 11.). Si

118 Funciottes de variables aleatorias


esta corriente pasa por una resistencia d e 2 ohms, encontrar la fdp d e la
potencia P = 2 1 ~ .
5.9. La velocidad de unamolcula en un %?S uniforme enequilibrio es una
variable aleatoria I.'
cuya fdp est dada por
f ( v ) = a v 2 e -hv2

, v > O,

En donde b = m / 2 k T y k , T y m denotan la constante d e Boltzman, la


temperatura absoluta y la masa de la molcula, respectivamente.
Calcular la constante a (en terminos d e b). [Indkuczbn: Usar el hecho d e
que S", e-x2da: =
e integrar por partes.]
b ) Derivar la distribucin d e la variable aleatoria IV = m V 2 / 2 que representa la energa cintica d e la molcula.

a)

5.10. Un voltaje aleatorio X est distribuido uniformemente en el intervalo ( - k , k ) . Si X es la energa recibida en un dispositivo no lineal, con las
caractersticas que se indican en la figura 5.12, encontrar la distribucin d e
probabilidades d e Y en los tres casos siguientes:
U)

k < u

b)a<k<zo

c)~>zo.
Y

0bsemzcw.n: La distribucin d e probabilidades d e Y es un ejemplo de distribucin mixta. Y toma el valor O con una probabilidad positiva y tambin toma
todos los valores en ciertos intervalos. (Vase la Sec. 4.6.)
5.1 1. Laenergaradiante(en
Btu/hr/pie2) est5 dada como la siguiente
fimcin d e la temperatura T (engradosfnhrenheit):
E = 0.173(T/100)4.
Supngase que la temperatura T se considera como una variable aleatoria
continua con fdp

f ( t ) = 200t-2,
=0

40

5 t 5 50,

para cualquier otro valor.

Encontrar la fclp d e la energa radiante E.

Problemas

1 19

5.12. Para medir a


l
s velocidades del aire se usa un tubo (conocido como
el tubo estAtico de Pitot) que permite medir la diferencia d e presibn. Esta
diferencia d e presi6n esd dada por P = (1/2)dV2, donde d es la densidad
delaire y V es la velocidad del viento (kph). Si V es una variablealeatoria
distribuida
uniformemente
en
(1O, 20), encontrar la fdp d e P.
5.13. Supngase que P(X 5 0.29) = 0.75, donde X es una variable aleatoria
continua con alguna distribucin definida en (0,111.
Si Y = 1 - X,determinar
12, d e modo que P(Y 5 k ) = 0.25.

1
4

En nuestro estudio delas variables aleatorias hemos considerado, hasta


aqu, slo el casounidimensional. Es decir, el r'esultadodel experimento
se poda registrar como un solo nmero 2 .
En muchoscasos, sin embargo, nos interesa observar sinlultneamente doso mAs caractersticas numricas. Por ejemplo,la dureza I1 y la resistencia a la tensin T de unapieza manufacturada de acero pueden ser
de intersy consideraramos ( h ,t ) como un solo resultado experimental.
Podramos estudiarla altura A y el pesoP de ulna persona determinada,
que dara lugar al resultado ( p , u ) . Finalmente, podramos observar la
cantidad de lluvia total, L L , y el promedio de temperatura,T , en cierta
regin durante unmes especfico, que dara lugaral resultado (II, t ) .
Haremos la siguiente definicin formal.
Definicin. Sea E un experimentoy S un espacio muestra1 asociado
con E. Sean X = X(S) y Y = Y ( , ) dosfunciones que asignan
un nmero real a cada uno de los resultados S E S (Fig.6.1).

122

Variables
aleatorias
bidimemionales

y mayor
de dimenswn

6.1

Llamamos a ( X , Y ) variable aleatoria bidimensional (que tambin se


denomina vector aleatorio).
Si X1 = X 1 (S), X 2 = X2(s), . . . ,X, = X n ( s ) son n funciones,
cada una de las cuales asigna un nmero real a cada resultado
S E S , entonces llamamos a ( X I , . . . ,X n ) una variable aleatoria 71divzensional (o un vector aleatorio n-dimensional).

FIGURA6.1
Obseruario'n: Como en el caso unidimensional, no nos interesa la naturaleza
filncional d e X ( s ) y Y(s), sino los valores que toman ,
Y y Y . Hablaremos
nuevamente delrecorrido d e ( X ,Y ) ,digamos R X ~ Ycomo
,
el conjunto d e todos
los valores posibles d e ( X , Y ) . Enel caso bidimensional,porejemplo,
el
recorrido de ( X , Y )ser5 u n subconjunto del plano euclidiano.
Cada uno de los
resultados X ( s ) ,Y(s) se puede representar como un punto(x,y) en el plano.
Suprimiremos nuevamente la naturaleza hncional d e X y Y al escribir, por
cjcmplo,P[X 5 u , Y 5 b], en vez de P [ X ( s )5 u , Y ( s ) 5 b].
Como en el caso unidimensional, distinguiremos entre dos tipos bAsicos d e
variables aleatorias: las variables aleatorias discretas y las continuas.

Definicin. ( X , E') es una variable aleatoria bidimensional discreta si


los valores posibles d e ( X ,Y )son finitos o infinitos numerables. Es
decir, los valores posibles d e ( X ,Y ) se pueden representar como
( z ; , y j ) , i = 1 , 2 ,..., n ,...; j = l , 2 ,...,m ,...

(X, Y ) es una variable aleatoria bidimensionalcontinua si (X, Y )


puede tomar todos los valores en un conjunto no numerable del
plano euclidiano. [Por ejemplo, si ( X , V ) toma todos los valores
en el rectngulo {(x,y) I a 5 z 5 b, c 5 y 5 d } o todos los valores
en el crculo {(x,y ) I x2 + y2 5 I } , diramos que ( X ,E') es una
variable aleatoria bidimensional continua.]

6.1

Variables
bidimensionales
aleatorias

123

Obsemacwnes: a ) En otras palabras, ( X ,Y )es una variable aleatoria bidimensional si representa el resultado de un experimentoaleatorio en el cual hemos
medido las dos caractersticas numricas X y Y .
b ) Puede suceder que uno d e los componentes; d e ( X ,Y ) ,digamos X, sea
discreto, mientras que el otroes continuo. Sin embargo, en la mayor parte de
las aplicaciones nos interesamos slo por los casos analizados anteriormente, en
los cuales ambos componentes sondiscretos, o am.bos continuos.

c) En muchas situacioneslas dos variables aleatorias X y Y , consideradas en


conjunto, son d e u nmodo muy natural el resultaldo de unsolo experimento,
como se ilustren los ejemplos anteriores.Es as como X y Y pueden representar la altura y el pesode unmismo individuo, etc. Sin embargo, noes necesario
que exista esta clase d e conexin. Por ejemplo, X podra ser la corriente que
circula por uncircuito en un momento
especfico, irnientras que Y podra serla
temperatura enla habitacin en ese instante, entonces podramos considerar
la
variable aleatoria bidimensional ( X ,Y ) . En la mayor parte de las aplicaciones
hay una razn importmte para considerarX y Y conjuntamente.
Para describir la distribucin de probabilidades de ( X , Y ) procedemos d e
modo anlogo al caso unidimensional.

Definicin. a ) Sea (X, Y ) una variable aleatoria bidimensional discreta. Con cada resultado posible (xi,35) asociamos un nmero
p ( z ; ,y j ) que representa P ( X = xi)Y = !tj) y que satisface las condiciones siguientes:

La funcin p definida para toda (xi,y j ) en el recorrido d e (X)Y )


se llama funcidn de probabilidad d e (X, Y ) . El conjunto de ternas
(xi)yj,p(xi)yj)), i , j = 1 , 2 , .. ., en algunos casos se denomina
distribucin de probabilidadesde (X, Y ) .

b) Sea (X)Y ) una variable aleatoria bidimensional continua que


toma todos los valores en una regin R del plano euclidiano. La
funcin de densidad de probabilidades conjuntas f es una funcin que
satisface las siguientes condiciones:

124 Variables aleatorias


bidimensionales
3)

f ( x , y)

y de
mayor
dimenswn

2 O para toda (x,y)

6.1

R,

Obseruacwnes: a ) La analoga auna distribuci6n d e masas es otravez indudable. Tenemos unamasa unitaria distribuidaen una regin del
plano. En elcaso
discreto, toda la masa se concentra en un nmerofinito o infinito numerable
d e puntos con masa p ( q , yj) ubicados en (xi, yj).En el caso continuo, la masa
se encuentra en todoslos puntos de un conjunto no numerable el
enplano.
b) La condicin 4 indica que el volumen total bajo la superficie dada por l a
ecuacin z = f(z,y)es igual a 1.
c) Como en el caso unidimensional, f ( z , y) no representa la probabilidad
d e nada. Sin embargo, para Ax y Ay positivos y suficientemente pequeas,
f ( z , y)AzAy es aproximadamenteigual a P ( x 5 X 5 x + A x ,y 5 Y 5 y+Ay).
d ) Como e n el caso unidimensional, adoptaremos la convencin de que
f ( x , y) = O si (x, y) 6 R. Por tanto, podemos considerar f definida para toda
(x,y) en el plano y la condicin 4 anterior se convierte en S_,
f ( z ,y)
dx dy = 1.
e ) Nuevamente suprimiremos la naturaleza funcional d e la variable aleatoriabidimensional
( X , Y). Deberiamos escribir proposiciones d e la forma
P [ X ( s ) = x;, Y ( s ) = yj], etc. No obstante, si se entiende nuestra notacin
abreviada, no debe surgir ninguna
dificultad.
J) De nuevo, comoen el caso unidimensional, la distribuci6n d e probabilidades d e (X, Y)est realmente inducidapor la probabilidad d e eventos asociados
con el espacio muestra1 original S. Sin embargo, principalmente nos interesaremos por los valores d e (X,Y )y, por tanto, relacionados en forma directa con
el recorridod e (X, Y ) . No obstante, el lector no debe perder de
vista el hecho
de que si P ( A ) est especificada para todos los eventos A c S , entonces esti5
determinada la probabilidad asociada con eventos en el recorrido d e ( X ,Y).
Es decir, si B est en el recorrido d e ( X , Y ) ,tenemos

JJz

P ( B ) = P [ ( X ( s )Y
, (,)) E

131 = P [ s I (X(s),Y(,)) E B ] .

Esta ltima probabilidad se refiere a un evento en S y, por tanto, determina la


probabilidad d e B. En nuestra terminologia previa, B y { S 1 ( X ( s ) Y
, ( s ) )E I?}
son eventos equiz~alentes(Fig. G.2).

6.1

I.'ariables aleatorias bidimensionales

12 5

Si B estA en el recorrido de ( X ,Y)tenemos

si ( X , Y ) es discreta, la suma se tomacon todos los indices ( i ,j ) para los cuales


(.i,Yj)
E B. y

si ( X ,Y)es continua.

EJEMPLO6.1. Dos lneas deproduccinfabricanciertotipo


de
artculo.Sup6ngaseque
la capacidad(encualquierdadado)
es d e 5
artculos para la lnea I y d e 3 artculos para la1 lnea 11, y que el nmero
verdadero de artculos producidos por cada una de las lneas es una
variable aleatoria. Sea (X, Y ) la representacitjn de la variable aleatoria
bidimensional que da el nmero deartculos producidos por la lnea I
y por la lnea 11, respectivamente.

TABLA
6.1
O

0.01

0.02
0.03

0.04
O. 05

0.02

0.04

0.05
0.05
0.06

0.06

0.05
0.06

0.08
0.06
0.05

La tabla 6.1 muestra la distribucidn d e probabilidades conjunta d e


( X ,Y ) .Cada dato representa
p(.;,yJ

= P ( X = %;,Y Yj).
=I

A s , p ( 2 , 3 ) = P ( X = 2 , Y = 3 ) = 0.04, etc. Por lo tanto, si B est


definida como

B = {MAS artculos producidos por la lnea I que por la lnea 11)


encontramos que

126

Variables
aleatorias
bidimensionales

6.1

y de
mayor
dimenswn

+ 0.03 + 0.05 + 0.07 + 0.09 + 0.04 + 0.05 + 0.06


+ 0.08 + 0.05 + 0.05 + 0.06 + 0.06 + 0.05

P ( B ) = 0.01

= 0.75.

EJEMPLO6.2. Supngase que un fabricante de bombillas est interesado en el nmero de


stas que le han sido pedidas durante
los meses
de enero y febrero. X y Y indican el nmero debombillas ordenadas
durante esos dos meses, respectivamente. Supondremos que ( X ,Y ) es
una variable aleatoria bidimensional con
la siguiente fdp conjunta
(vase
la Fig. 6.3):

f(z,y) = c si 5000 L;
=O

5 10000 y

4000

5 y 5 9000,

en otro caso.
Y

X = 5000

X = 10,000

FIGURA6.3
Para determinar c usamos el hecho de que
Por tanto,
$03

J_,

+m

f ( z , y ) dx dy =

J_,

J;,,,Lo,,
9000

S-, S-+,

10000

f ( z , y ) dz d y = 1.

f(z,y) da: dy = c[5000]

As, c = (5000)-2. Por tanto, si B = { X 2 Y } ,tenemos

6.1

Variables aleatorias bidimensionales

P ( B )= 1=I--

(5000)'

(5000)'

JgooO
5000

/gOOO
5000

JY

5000

127

dx dy

[y - 500OIdy =

17
25

-*

Obsemacin: En el ejemplo anterior, X y Y obviamente deben ser nilmeros

i
I

enteros, pues nopodemos ordenar un nmero fraccionario de bombillas!


Sin embargo, nuevamente tratamos con una situaci6n idealizada en la cual
permitimos que X tome todos los valores entre 5000 y 10 O00 (inclusive).

i
EJEMPLO6.3. Supngaseque la variablealeatoriabidimensional
continua ( X ,Y ) tiene una fdp conjunta dada por

f(X,Y)

+ xy

=O

para cualquier otro punto.

Para verificar que S,- +m

"7

S,- +m f(x, y) dz dy = 1 :

f ( z , y ) dx dy =

o<y<a,

O < X < l ,

J"
O

(x'

+ y ) dx dy

Sea B = { X Y 2 l}. (Vase la Fig.6.4.) Calcularemos P ( B ) al evaluar


1 - P(BC),
donde BC = { X Y < 1). Por lo tanto,

128

kriables aleatorias bidimensionales y de mayor dimenswn

P ( B ) = 1-

1'

(x2

+ y ) dy dx

- 1 - ' i z7- m
- *65
-

N estudiar variablcs aleatorias unidimen-

sionales encontramos que F , la funcin d e


distribucin acumulativa, tena un papel importante. En cl caso bidimensional, otra vez
podemos
definir
una
funcin
acumulativa
como se indicaa continuacin.
"

6.2

L.
y=l-x

FIGURA
6.4

Definicin. Sea (X, E') una variablealeatoriabidimensional.


La
funcin de distribucinacumulativa (fda) F d e la variable aleatoria
bidimensional (A', Y ) est definida por

Obsemaciu: F es una funcin d e dos variables y tiene un nmero de propiedades anjlogas a las estudiadas para l a fda unidimensional. (Vase la Sec. 4.5.)
Mencionaremos slo la siguiente propiedad importantc.
Si F es fda d e u n a variable aleatoria bidimensional con fdp conjunta f ,
entonccs

dondequiera queF sea diferenciable. Este resultado es anjlogo a l del teorema


4.4 en el cual probamos que ( d / d z ) F ( x ) = f(z),donde f es la fdp d e una
variable aleatoria unidimensional X.

6.2 Distribuciones de probabilidades marginales


y condicionales
Con cada variable aleatoria bidimensional ( X , Y ) asociamos dos variables aleatorias unidimensionales llamadas X y Y , respectivamente. Es
decir, podemos interesarnos porla distribucin d e probabilidades d e X
o por la distribuci6n d e probabilidades d e Y .

6.2

y condicionales 129

Distribuciones
de
probabilidades
marginales

EJEMPLO6.4.

Consideremos otra vez elejemplo 6.1. AdemAs d e


los datos de la tabla 6.1, calculemos tambin los totales "marginales",
esto es, la suma de las 6 columnas y 4 filas de la tabla. (Vase la tabla
6.2.)

TABLA
6.2
3
O
1

Suma

0.01
0.01
0.01

0.03

0.01
0.02
0.03
0.02

0.04

0.08

0.16

0.21

0.24

Suma

0.28

0.24
1.o0

Las probabilidades que aparecen en


los mrgenes delas filasy columnas representan la distribucin d e probabilidades d e Y y X , respectivamente. Por ejemplo, P ( Y = 1) = 0.26, P ( X = 3) = 0.21, etc. Debido
a la forma de la tabla 6.2, nos referirnos generalmente ala distribucin
marginal d e X o a la distribucin marginal de Y , cada vez que tenemos
una variable aleatoria bidimensional(X, Y ) ,ya sea discreta o continua.
En el caso discreto procedemos as: puesto que X = x; debe ocurrir
con Y = yj para una j, y puede ocurrir con Y = yj para slo una j,
tenemos:
p(xc;) = P ( X = x;) = P ( X = z;,Y = y1
00

j=l

P ( x ~~j>1.

C)

x = x ; , Y = y2 o

La funcin p definida para x1,x2,.. ., representa la distribucidn marginal de probabilidades d e X. Anlogamente definimos q(yj) = P ( Y =
= C z , , p ( x ; ,yj ) como la distribucidn marginal de probabilidades d e Y .
En el caso continuo procedemos como sigue: sea f la fdp conjunta de
la variable aleatoria bidimensional continua( . X 7 Y ) .Definimos g y h, las
funciones densidad de probabilidades marginalesd e S y Y , respectivamente,
como sigue:

q)

130 Variables akatorias bidimensionales y de


mayor
dimensidn

6.2

Estas fdpcorresponden a las fdp bsicas d e las variablesaleatorias


unidimensionales X y Y , respectivamente. Por ejemplo,

'

rd

EJEMPLO6 6 . El empuje X y la razn d e la mezcla Y sondos


caractersticas del funcionamiento de un motor a reaccibn. Supngase
fdp
que ( X , Y ) es una variable aleatoria bidimensional continua con
conjunta:

(Las unidades se han ajustado para usar


marginal d e X est dada por

valores entre O y 1.) La fdp

Es decir X est distribuida uniformemente en[O, 11. La fdp marginal


d e Y est dada por
h(y) =

J'O 2(2 + y - 22y) dx = 2(x 2 /2 + xy - x 2y) 101


=1,

O<y<l.

Por lo tanto, Y tambin est distribuida uniformemente en[O, I].

Definicin. Decimos que una variable aleatoria bidimensional continua esta distribuidu uniformemente en una regin R en un plano
euclidiano, si

6.2

Distribuciones de probabilidades marginales y condicionales

f ( x , y) = const. para
=O

13 1

(x,y) E R,

para todo otro punto.

Debido a la condici6n::J
S"", f(x,y) dx dy = 1, lo anterior
implica que Ia constante es igual a l/reai ( R ) . Suponemos que R
es una regin con Area finita distinta d e cero.
Obseruacidn: Esta definici6n representa el tkrmino bidimensional an6logo;I
la variable aleatoria unidimensional distribuida uniformemente.

EJEMPLO6.6.

Supngase que la variablealeatoriabidimensional

(X, Y ) esta dktn'buidu uniformemente en la regi6n sombreada R que se


indica en la figura 6.5. Por tanto,

1
f(z,y) = area(n)Y

E R.

(X,Y)

.Y

Encontramos que
rea ( R ) =

1'

(x - x 2 )dx = 61 .

Luego, la fdp est dada por

FIGURA
6.5
En las ecuaciones siguientes encontramoslas fdp marginales d e X y Y .
+m

h(y) =

J'"

-m

f(z, y) d z =

1,"

6 da:

132 Variables
aleatorias
bidimensionales

y mayor
de dimenswtt

6.2

Las grficas d e estas fdp aparecen enla figura 6.6.

El concepto d e probabilidad condicional se puede presentarde una


manera muy natural.
EJEMPLO6.7. Consideremos otra vez los ejemplos 6.1 y 6.4. Supngase que queremos evaluar la probabilidad condicional P ( X = 2 I Y =
2). De acuerdo con la definicin d e probabilidad condicional tenemos
P(X=2lY=2)=

P ( X = 2,Y = 2)
P ( Y = 2)

0.05
- = 0.20.
0.25

Podemos efectuar tal clculo en forma bastante general para el caso


discreto. Tenemos
q x ; 1 yj) = P ( X = x ; I Y = yj)

q(yj

I x ; ) = P ( Y = Yj I X = x ; )

Obsemacwn: Para una j dada, p(x; I yj) satisface todasa


lscondiciones de una
distribucin d e probabilidades. Tenemos p(z; I yj) 2 O y tambin

6.2

Distribuciones de probabilidades margimales y condicionales

133

En el caso continuo, la formulacin d e la plrobabilidad condicional


presenta alguna dificultad, puesto que para cualesquierax0 y yo dadas,
tenemos P ( X = xo) = P ( Y = yo) = O. Enunciemos las siguientes
definiciones formales.

Definicin. Sea ( X ,Y ) una variable aleatolria bidimensional continua con fdp conjunta f . Sean g y h las fdp marginales d e X y Y ,
respectivamente.
La fdp condicional de X para Y = y dada, est definida por

La fdp condicional de E para una X = x dada se define

Obseruaciones: a) Las fdp condicionales anteriores satisfjcen todaslas exigencias de unafdp unidimensional. A s , para yjja, tenemos g(x 1 y) O y

>

Un clculo anlogo se puede hacer para


h(y I x). Por tanto,las ecuaciones (6.7)
y (6.8) dejnen las fdp e n R, y R,, respectivamente.

b) Una interpretacin intuitiva d e g(x I y) se obtiene si consideramos que la


superficie representada por la fdp conjuntaf es cortada, digamos, por el plano
y = c. La interseccin del plano con la superficie z I= f ( x , y) resultar en una
fdp unidimensional llamada la fdp d e X para Y = (c. sta ser5 precisamente
g(x I c ) .
c) Supongamos que ( X ,Y ) representan la altura y el peso de unapersona,
respectivamen$e. Sea f la fdp conjunta d e ( X ,Y ) y slea g la fdp marginal d e X
(sin tomar e n cuenta Y). Por tanto, J, g(x) d x representara la probabilidad
delevento (5.8 5 X 5 6 ) sin tomarencuentael
peso Y . Porsuparte
J$g(x
I 150) d x seinterpretaracomo
P(5.8 5; X 5 6 I Y = 150).
Estrictamente hablando, esta probabilidad condicional no est definidaen los
trminos d e nuestra convencin previa conla probabilidad condicional, puesto
que P(Y = 150) = O. Sin embargo, slo usamos la integralanteriorpara
definir esta probabilidad. Sobre u&base intuitiva, ciertamente, ste debe ser el
significado d e dicho nmero.

134 Variables
aleatorias
bidimensionales

y de
mayor
dimenswn

6.3

EJEMPLO6.8. Refirindonos al ejemplo 6.3, tenemos


g ( ~=
)

h(y) =

l2 + y)
(X

/
O

(X

dy = 222

+ 32

-2,

+ y ) dx = Y + ?.1

Por tanto,

+
+

x 2 xy/3
= 1/3 y/6

x2
h(y I x) = 22

+ xy/3

+ 2/3(x)

Gx
2xy

2+Y
-

32

GX

O < X < l ,

OLyL2;

+ xy -- 32 + y
+ 22 6 2 + 2

o<y<2,

O < X < l .

Para verificar que g(xI y) es una fdp, tenemos

y = 1 para today.
dx = 2+Y

Un clculo semejante se puede hacer parah ( y I x).

6.3 Variables aleatorias independientes

Tal como definimos el concepto de independencia entre dos eventos


A y B , ahora definiremos las variables aleatorias independientes. Lo que
queremos decir intuitivamente es que X y Y son variables aleatorias
X , digamos, de ninguna manera
independientes si elresultadode
Y . sta es una nocinextremadamente
influyeenelresultadode
importante y hay muchas situaciones
en que dicha suposicin
se justifica.
EJEMPLO6.9. Consideremos dos fuentes d e material radiactivo, sia. Supongatuadas a cierta distancia una
de otra, que emiten partculas
mos que ambas se observan durante un periodo de dos horas
y se anota
el nmero de partculas emitidas. Supngase que las siguientes variables aleatorias sond e inters: X1 y X2, el nmero departculas emitidas
por la primera fuente durantela primera y la segunda hora, respectivamente; Y1 y 15, el nmero de partculas emitidas por la segunda fuente
durante la primera y la segunda hora, respectivamente. Parece obvio

6.3

Variables
independientes
aleatmius

13 5

por intuicin que (X1 y Yl),o ( X 1 y Y2),o (X2 :y Yl),o (X; y Y2)son todas pares devariables aleatorias independientes. Las X dependen slo
de las caractersticas de la fuente 1, mientras que las Y dependen delas
caractersticas d e la fuente 2 y posiblemente no hay razn para suponer
que una fuente influya de manera alguna en el comportamiento dela
otra. Cuando consideramos la posible independencia de X1 y X 2 , el
asunto no es tan claro. (El nmero de partculas emitidas durante
la
segunda hora esta influido por el nmero emhido durante la primera
hora? Para responder a este interrogante tendramos que obtener informacin adicional acerca del mecanismo d e emisi6n. ciertamente no
podramos suponera priori que X 1 y X 2 son independientes.
Hagamos ahora mas precisa la anterior noci6n intuitiva de independencia.

Definicin. a) Sea (X,Y ) una variable aleatoria bidimensional discreta. Decimos que X y Y son variables aleatorias independientes si y slo si p(z;,yj) = p(zc;)q(yj) paratoda i y j. Esto es,
p ( X = X;,Y = yj) = P ( X = zc;)P(Y= y;), para toda i y j.

b) Sea (X, Y )una variable aleatoria bidimensional continua.Decimos que X y Y son variables aleatorias independientes si y slo si
f ( z , y) = g(z)h(y) para toda (x,y), donde f es la fdp conjunta, y
g y h son las fdp marginales d e X y Y , respectivamente.
Obseruacidn: Si comparamos la definicin anteriolr con
la que se proporcion
para eventos independientes, la semejanza es aparente: esencialmente necesitamos que la probabilidad conjunta (o fdp conjunta) pueda factorizarse. El
teorema siguiente indica que la definici6n anterior es equivalente a otro plan-

teamiento que podramos haber hecho.

Teorema 6.1. a) Sea ( S , Y ) una variablealeatoriabidimensional


discreta. Entonces X y Y son independientes si y slo si p ( z ; I
yj) = p ( z : ; )para toda i y j (o lo que es equivalente, si y s610 si
4(Yj I Zi) = d Y j ) para toda i y d.

b ) Sea (X, Y ) una variable aleatoria bidimensional continua. Entonces X y Y son independientes si y s610 si g(z I y) = g(z), o lo
que es equivalente, si y slo si h(y 1 z)= h(y) para toda (z,~).
Denmtracidn: VCase el problema 6.10.

136 Variables akatorias


bidimensionaks

y de
mayor
dimenswn

6.3

EJEMPLO6.10. Supongamos que una mquina


se usa para un trabajo especfico en la mafiana y para otro diferente en
l a tarde. Representemos por X y Y el nmero deveces que la mAquina falla en la maana y
en la tarde, respectivqmente. En la tabla 6.3 se muestra la distribucin
d e probabilidades conjunta d e ( X , Y ) .
Un cAlculo fcil revela que para todus las ubicaciones d e la tabla 6.3
tenemos
P(% Yj> = P ( 4 d Y j ) .

A s , X y Y son variablesaleatoriasindependientes.(Paracomparar
vase tambin el Ej. 3.7.)
TARLA
6.3

0.04

0.08

0.08

0.06

0.12

0.12

P(Xi)

0.2

0.4

0.4

0.2
0.3 __
1.o

EJEMPLO6.1 1. Sean X y Y la duracin dedos dispositivos electrnicos. Supngase que su fdp conjunta est dada por

f (x,Y> = e --(+Y),

x 2 o,

2 o.
se establece la inde-

Puesto que podemos factorizar f(x,y) = e-e-Y,


pendencia deX y Y .

EJEMPLO6.12. Supngase que f (x,y ) =


8zy, O 5 z 5 y 5 1. (El dominioestdado porla regin sombl-eada en la figura 6.7.)
Aunque f ya est escrita en forma factorizada, X y Y n o son independientes, puesto que
el dominio dedefinicicin
{(z,Y>I O I x I Y 5 1)
es tal quc para una x dada, y puede tomar
slo valores mayores que la z dada y menores que 1. Por tanto, X y Y no son independientes.

J I *
x

FIGURA
6.7

6.4

Funciones
aleatoria
variable
de una

137

Obscmacidn: De la definicin de la distribucin marginal de probabilidades


(en cualesquiera de los casos, discreto o continuo) (3s claro que la distribucin
conjunta de probabilidadesdetermina, en forma nica, la distribucin marginal
de probabilidades. Es decir, que conociendola fdp f conjunta podemos obtener
las fdp marginales g y h. Sin embargo, lo inverso no es verdadero. Es decir,
en general, el conocimiento de las fdp marginales g y h no determina la fdp
conjunta f . Esto slo esverdadero cuandoX y Y son independientes, porque
en este caso tenemos f ( 2 , y) = g(z)h(y).

El resultado siguiente indica que nuestra delinicin


de variables aleatorias independientes estde acuerdo con nuestra definicin previad e
eventos independientes.

Teorema 6.2. Sea (X, Y ) una variable aleatoria bidimensional. Sean


A y B eventos cuya ocurrencia (o no ocurrencia) depende slo
d e X y Y respectivamente.(Esto es, A es un subconjunto de
R z , el recorrido de X, mientras que B es un subconjunto de R y ,
el recorrido de Y . ) Entonces, si X y Y son variables aleatorias
independientes, tenemos P ( A n B ) = P ( A ) P ( B ) .

Demstrucidn: (slo el caso continuo):

6.4 Funciones de una variable aleatoria

Al definir una variable aleatoria X sealamos enfticamente que X es


una funcidn definida del espacio muestral S a los nmeros reales. Al
( X ,Y ) ,tratamos un par de
definir una variable aleatoria bidimensional
funciones, X = X(s), Y = Y ( s ) ,cada una de I,as cuales est definida en
el espacio muestral
d e algn experimentoy cada unad e las cuales asigna
un nmero real a cada S E S , produciendo as el vector bidimensional
[ X ( 4Y(S)l*
Consideremos ahora2 = H I ( X , Y ) ,una funcin d e las dos variables
aleatorias X y Y . Debe ser claro que2 = Z(s) es otra vez una variable

138 fi'ariables aleatorias bidimensionales y de mayor dimenswn

6.4

aleatoria. Consideremos la siguiente sucesin de pasos:


Se realiza el experimento E y se obtiene el resultado s.
b ) Se evalan los nmeros X ( s ) y Y(,).
c) Se evala el nmero2 = Hl[X'(s),Y(,)].
a)

El valor de 2 depende claramente deS, el resultado original del experimento. Esto es, 2 = Z ( S )es una funcin que asigna a cada resultado
S E S un nmero real, Z ( S ) . Por lo tanto, 2 es una variable aleatoria. Algunas variables aleatorias importantes
que nos van a interesar
son X Y , X Y , X / Y , mn ( X ,Y ) ,mAx (X, Y), etcetera.
El problema que resolvimos en el captulo anterior para la variable
aleatoria unidimensional aparece otra vez: dada la distribucin de probabilidades conjunta de( X ,Y ) ,cul es la distribucin d e probabilidades d e 2 = I I 1 ( X , Y ) ? (Debe haber quedado claro en los nmerosos
tratamientos previos sobre este punto que una distribucin de probabilidades se induce en R,, el espacio muestra1 de 2.)
Si (X, Y ) es una variable aleatoria discreta, este problema se resuelve fcilmente. Supngase que ( X ,Y ) tiene la distribucin dada en los
ejemplos 6.1 y 6.4. Las siguientes variables aleatorias (unidimensionales) podran ser de inters:

U = mn ( X ,Y ) = el menor nmero deartculos producidos por las


dos lneas;

V = mx (X, Y ) = el mayor nmero de artculos producido porlas


dos lneas;

TY = X +Y = nmero total de
artculos producidos porlas dos lneas.

Para obtener la distribucin de probabilidades de U , por ejemplo,


procedemos como sigue. Los valores posibles de U son: 0,1,2 y 3. Para
evaluar P(U = O) argumentamos que U = O si y slo si ocurre uno de
los casos siguientes: X = O, Y = O o X = O, Y = 1 o X = O, Y = 2
ox=o,Y=3oX=1,Y=ooX=2,Y=oox=3,Y=oo
X = 4, Y = O o X = 5, Y = O. Por lo tanto, P(U = O) = 0.28. El resto
d e las probabilidades asociadas con U se pueden obtener de manera
semejante. Por tanto, la distribucin d e probabilidades d e U se puede
resumir como sigue: u : O, 1,2,3; P(U = u ) : 0.28, 0.30, 0.25, O. 17. La
distribucin d e probabilidades d e las variables aleatorias V y W , como
se defini6 anteriormente, se puede obtener de una manera semejante.
(Vase el Prob. 6.9.)

6.4

Funciones
una
de

variable aleatoriu

139

Si ( X ,Y ) es una variable aleatoria bidimensional continua y si 2 =


H I ( X , Y ) es una funcincontinua d e ( X , Y ) , entonces 2 ser una
y el problema de encontrar
variable aleatoria continua (unidimensional)
su fdp es algo ms complicado. Para resolver este problema necesitamos
un teorema que vamos a indicar y analizar a continuacin. Antes d e
hacerlo, bosquejemos la idea bsica.
Para encontrar la fdp de 2 = N l ( X , Y ) ab menudo es ms simple
introducir una segunda variable aleatoria, digamos W = H 2 ( X 7 Y ) ,y
obtener primerola fdp conjunta de 2 y W ,digamos k ( z ,w).Conociendo
k ( z , w), entonces podcmos obtenerla fdp de2,digamos g ( z ) ,al integrar
simplemente k ( z , w)respecto a w. Esto es,

g(z)=

J'" k ( z ,w)dzo
"O0

Los problemas que quedan son


1) cmo enclontrar la fdp conjunta d e
2 y W , y 2) cmo elegir la variable aleatoria apropiada JV = H 2 ( X , Y ) .

Para resolver el ltimo problema, simplemente digamos


que en general
hacemos la eleccin ms scncilla posibled e W . En el contexto presente,
W desempeiia slo un papel intermcdiario,y en realidad no nos interesa
en s misma. Conel fin deencontrar la fidp conjuntade 2 y 1Y
necesitamos el teorema 6.3.

Teorema 6.3. Supongamosque ( X ,Y ) e s una variablealeatoria


bidimensional continua con fdp conjunta f . Sea 2 = I l 1 ( X ,Y ) y
W = I I 2 ( S , Y ) ,y supongamos quelas fnlciones If1 y I12 satisfacen
las condiciones siguientes:

a ) Las ecuaciones z = I l l ( x , y ) y w = II2(x,y ) se pueden resolver


nicamente para x y y en trminos dez y w,digamos x = G l ( z ,w )
y Y = G2(z,4 .
b) Las derivadas parciales d x l a z , ax:/aw, dylaz y d y l d w existen
y son continuas.

Entonces la fdp conjunta de


(2,
JY);digarnos k( z , w),est dada por
la expresin siguiente: k ( z ,w ) = f [ G , ( z ,w ) , G ~ ( wz ), ] I J ( z , w)
donde J ( z ,w),es el siguiente determinante2 x 2:

140 kriables aleatorias


bidimensionales

6.4

y de
mayor
dimenswn

Este determinante sellamajucobiuno d e la transformacin (x,j )


( z ,w j
y algunas veces se denota con 8 ( x 7y)/8(z7 w). Observemos que k ( z , w )
"-f

ser distinta d e cero para esos valores d e ( z 7 w ) que corresponden a


valores de ( x 7y) para los cuales f ( x , y) es distinta d e cero.

i
"
x

FIGURA6.8
Obsemaciones: a) Aunque no demostraremos este teorema, por
lo menos
indicaremos lo que necesita demostrarse y dnde se encuentran las dificultades.
Considrese la fda conjunta d e la variable aleatoria bidimensional ( 2 ,W ) ,

K(z,w)= P(Z 5

z,

5 w)=

I" I" K ( s , t ) ds d t ,

J - m J-00

En donde k es la fdp buscada. Puesto que se supone que la transformacin


(z,y) + ( z , w ) es de uno a uno (vase la suposicin a ) anterior), podemos
encontrar el evento, equivalente a {Z 5 z, W 5 w}, en trminos d e X y Y.
Supngase que esteevento se denota con C. (Vase la Fig. 6.8.) Esto es,
{(X, Y ) E C} si y slo si (25 z , LY 5 w}. Por tanto,

Puesto que se supone quef es conocida, puede calcularse el segundomiembro dela integral. Diferencindola respecto za y w obtenemos la fdp requerida.
En la mayora d e los textos d e clculo avanzado se demuestra queestas tkcnicas
conducen al resultado formulado en
el teorema anterior.
b ) Ntese la gran semejanza entre el resultado anterior y el obtenido en
el caso unidimensionaltratadoen
el captuloanterior. (Vase el Teorema
5.1.) L a condicin de monotona de la funcin y = H ( z ) se sustituye por
la condicin de que la correspondencia entre ( x , ~y) ( z , w ) es uno a uno.
La condicin d e difercnciabilidad se sustituye por ciertas suposiciones acerca

6.4

Funciones de una variable aleatoria

141

de las derivadas parciales consideradas. La solucin final que se obtiene es


tambin muy semejantea la obtenida en elcaso unidimensional: las variables
z y y sencillamente se sustituyen por sus expresiones equivalentes en tkrminos
de z y w,y el valor absoluto de dx/dy se sustituye por el valor absoluto del
jacobiano.

EJEMPLO6.13. Supngase que estamos alpuntando a un blanco circular de radio unlo


quesehacolocado
demodoquesucentro
est en el origen de unsistema de coordenadas
rectangulares (Fig. 6.9). Supcingase que las
coordenadas ( X )Y ) de los puntos de impactlo
estn distribuidas uniformemente en el crculo.
Es decir,
f(z,y) = I / T

=O

FIGURA
6.9

si (x,9 ) queda en el interior o sobre el crculo,


en otro punto.

FIGURA
6.10

FIGURA
6.11

Sup6ngase que estamos interesados en la variable aleatoria R que representa la distancia delorigen.(Vase
la Fig. 6.10.) Es decir, R =
d m . Encontramos la fdpde R, digamos g, comosigue:sea
= t a n - ( Y / X ) . Por tanto, X = H I ( & a) y Y = H 2 ( R , a), donde
z = H l ( r , 4 ) = r c o s 4 y y = EI2(r, 4) = r s e n d . (Simplemente hemos
introducido coordenadas polares.)
El jacobiano es
J=
= r cos2 4

+ r sen 2 4 = r.

142 Variables
aleatorias
bidimensionales

y de
mayor
dimenswn

6.5

En la transformacin anterior, el circulo unitario en el plano x y est en


correspondencia con el rectngulo en el plano
+r en la figura 6.11. Por
tanto, la fdp conjunta de(a, R ) estA dada por

A s , la fdp pedida deR, digamos h , est dada por


h(r)=

27r

g ( 4 , r )&5 = 2r,

5 r 5 1.

Obsemacidn: Este ejemplo seala la importancia de obtener una representacin precisa d e la regin d e los valores posibles introducidos por la nueva
variable aleatoria.

6.5 Distribucin del producto y del cociente de


variables aleatorias independientes
Entre las funciones de x'y Y ms importantes que deseamos considerar
estn la suma S = X Y , el producto W = X Y y el cociente 2 = X / Y .
Podemos usar el mtodo d e esta seccin para obtener las fdp de cada
una de esas variables aleatorias en condiciones muy generales.
En el captulo 12 estudiaremos la suma de variables aleatorias con
mayor detalle. Por tanto, postergaremos hasta entoncesel anlisis d e la
S Y . Sin embargo, consideraremos
distribucin de probabilidades de
el producto y el cociente en los dos teoremas siguientes.

Teorema 6.4. Sea ( X ,Y ) una variable aleatoria bidimensional continua y supongamos queX y Y son independientes. Por tanto, la fdp
f se puede escribir comof(r,y) = g(x)h(y). Sea bV = XY.
Luego, la fdp deW , digamos p , est dada por

Demostrucin: Sea w = xy y u = x. As, x = u y y = w f u. El jacobiano es


J=

"w

-.1
'U

6.5

Distribucwn
producto
del

ycociente
del

de . ..

143

Por tanto, la fdp conjunta deW = X Y y U = X es

La fdp marginal deW se obtiene al integrar s(w, u)respecto a u,lo


que da el resultado pedido. Los valores de w para los cuales p ( w ) > O
dependen de los valores (x,y) con los cuales f ( z , y) > O.
Obseruacidn: Al evaluar la integral anterior se puedeusar el hecho de que

EJEMPLO6.14. Supngase que tenemos un circuito en el cual la corriente I y la resistencia R varan de modo aleatorio. Supngase especficamente que I y R son variables aleatorias continuas independientes
con las siguientes fdp.
I : g ( i ) = 2i,

R : h ( r ) = r2/9,

5 1 y O on otra parte;
5 r 5 3 y O en otra parte.

O5i
O

Es d c inters la variable aleatoria E = I R (el voltaje en el circuito).


Sea p la fdp deE .
Segiln el teorema 6.4 tenemos

Se debe tener cuidado al evaluaresta integral. Ntese, primero, que la


variable d e integracin no puede tomarvalore:; negativos; segundo,que
con el fin d e que el integrando sea positivo, ambas fdp que aparecen en
1 deben ser positivas. Considerando los valores para los cuales g y h no

son iguales a cero, encontramos que deben satisfacerse las condiciones


siguientes:

Estas dos desigualdades son, a su vez, equivalentes a e/3 5 i


tanto, la integral anterior se convierte en

1. Por

144 Variables akatorias


bidimensionaks

IJn clculo fcil demuestra que


= 1. (Vase la Fig. 6.12.)

6.5

y de
mayor
dimenswn

Jip ( e ) de

FIGURA6.12

Teorema 6.5. Sea (X, Y ) una variable aleatoria bidimensional continua y supngase que X y Y son independientes. [Por tanto,
la fdp de ( X , Y )puede escribirse como f(z,y) = g(z)h(y).] Sea
2 = X / Y . Entonces la fdp de 2,digamos q, est dada por

Demostrucidn: Sea z = ./y y sea v = y. Por tanto, x = v z y y = v. El


jacobiano es

Por tanto, la fdp conjunta de2 = X / Y y V = Y es igual a


2(2, v)

= g(vz)h(v)

Integrando esta fdp conjunta respecto


nal d e 2.

1911.

a v, se obtiene la

fdp margi-

EJEMPLO6.15. Representemos con X y Y la duracin de dos bombillas fabricadas mediante dos procedimientos distintos. Supongamos
f y g, respecque X y Y son variables aleatorias independientes con fdp
tivamente, donde
f(z)= e-,
g(y) =

2e 2Y,

x 3 O,
y

y O en otra parte;

5 O, y O en

otra parte.

6.6

145

n-dimensionales
aleatorias
Variables

Podra ser de inters la variable aleatoria X / Y , que representa la


razn d e las dos duraciones. Sea q la fdp deZ.,
Segn el teorema 6.5 tenemos q ( z ) = S_'," g(wz)h(w)lwl dw. Puesto
que X y Y slo pueden tomar cantidades no negativas, la integracin
anterior nicamente necesita calcularse sobre los valores positivos d e la
variable d e integracin. Adems, el integrando ser positivo slo cuando las dos fdp que aparecen sean positivas. Esto implica que debemos
tener w 2 O y wz 2 O. Puesto que z > O, estas; desigualdades implican
que w >_ O.

As, lo anterior se convierte en

Una fcil integracin por partes da


2
= (. + 2)2'

2 o.

(Vase la Fig. 6.13.) De nuevo es un ejerciq(z) d z = 1.


cio fcil verificar que

so"

FIGURA6.13

6.6 Variables aleatorias n-dimensionales Hasta ahora nuestra exposici6n se ha restringido a variables aleatorias
bidimensionales. Sin embargo, como lo indicamos al principio de este
captulo, podemos interesarnos en tres o ms (caractersticas numricas
simultneas.
Slo haremos una brevsima exposicin d e 'las variables aleatorias ndimensionales. La mayor parted e los conceptos antes presentados para
el caso bidimensional se pueden extender al caso n-dimensional. Nos
limitaremos al caso continuo. (Vase la nota al finald e este captulo.)
Supongamos que( X , , . . . ,X n ) puede tomar todoslos valores en una
regindel espacio n-dimensional. Estoes, e1 valores un vector ndimensional

Caracterizamos la distribucin d e probabilidades (S1,.. . ,X n ) como


sigue.

146 Variables aleatorias


bidimensionales

y mayor
de dimenswn

Existe una funcin de densidad de probabilidades conjunta


satisface las condiciones siguientes:

6.6

f que

Con la ayuda de esta fdp definimos

donde C es un subconjunto del recorrido de


( X , , . . . ,X,).
Con cada variable aleatoria n-dimensional podemos asociar un nmero de variablesaleatorias d e dimensininferior.Porejemplo,
si
n = 3, entonces

donde g es la fdp marginal de una variable aleatoria unidimensional


X3,
mientras que

donde h representa la fdp conjunta de la variable aleatoria bidimensional ( X , , X,), etc. El concepto d e variables aleatorias independientes
tambiCn se extiende de una manera natural.
Decimos que (XI,. . . ,X n )
sonvariablesaleatoriasindependientessi
y slo si s u fdp conjunta
f ( x 1 , . . . ,z n )se puede factorizar en

Hay muchos casos en los cuales deseamos considerar las variables


aleatorias n-dimensionales. Daremos unos cuantos ejemplos.
a) Supngase que estudiamos el patrn de precipitacin debido a
un sistema particular de tormentas. Si tenemos una red de, digamos
5 estaciones d e observacin, y si X ; es la cantidad d e lluvia cada en la
estacin i debido a un sistema frontal particular, querramos considerar
la variable penta-dimensional ( X I , X 2 , S 3 , X 4 , X,).

6.6

Variables
n-dimensionales
aleatorias

147

b ) Una delas aplicaciones ms importantes de las variables aleatorias


n-dimensionales se presenta cuando tratamos con medidas repetidas de
una variable aleatoria X. Supngase que se pide informacin acerca
de la duracin, X, de cierto tubo electrnico. Un fabricante produce
un gran nmero de estos tubos, d e los cuales probamos n. Sea X;
la duracin del i-simo tubo, i = 1 , .. . , n. Por tanto, ( X I , . . .
es
una variable aleatoria n-dimensional. Si suponemos que cada X; tiene
la misma distribucin de probabilidades (puesto que todos
los tubos
se producen de l a misma manera), y que las X ; son todas variables
aleatorias independientes (puesto que, posiblemente, la produccin de
un tubo no afecta la produccin d e los otros)l, podemos suponer que
la variable aleatoria n-dimensional ( X I , . . , ,X n ) est formada d e los
componentes XI,.
. . ,X n independientes e identicamente distribuidos.
(Debe ser obvio que aunque X1 y X2 tienen la misma distribucin, no
necesitan adoptar elmismo valor.)
c) Otra manera en que aparccenlas variables aleatorias n-dimensionales es la siguiente. Representernos con X()la potencia requerida por
cierta empresa industrial durante un tiempo t . Para t fija, X ( t ) es una
variable aleatoria unidimensional. Sin embargo, podemos estar interesados en establecer la potencia requerida en detcrminados n tiempos
especficos, digamos t l < t 2 < . . . < t n . A s , deseamos estudiar la variable aleatoria n-dimensional.

,X,,)

[x(t&Jqt.),

..., x ( t , ) l ] .

Este tipodeproblemas
se estudiaaun
nivel ms avanzado.(Una
referencia excelente para este tema
es el libro Stochastic Processes por
Emanuel Parzen, San Francisco, Holden-Day, 1962.)
Obseruacibn: En alguna parte de nuestra
exposicin nos referimos al concepto d e n-espacio. Resumamos algunasd e las ideas bjsicas necesarias.
Con cada nmero real x podemos asociar un punto sobre la recta d e los
nmeros reales y recprocamente. De igual manera, con cada par denmeros
reales (11, x2) podemos asociar un punto e s el plano rectangular d e coordenadas y recprocamente. Para finalizar, con cada conjunto d e tres nmeros
reales ( x 1 , 2 2 , xpodemos
3)
asociar un punto en el espacio tridimensional d e
coordenadas y recprocamente.
En muchos d e los problemas que nos interesan tratamos un conjunto d e n
nmeros reales, ( x 1 , 2 2 , .. . , x,), tambin llamado una n-tupla. Aunque no es
posible dibujar ninguna grfica, si n > 3, para continuar podemos adoptarla
terminologa geomtrica sugerida por los casos d e dimensin menor citados

148 Variables aleatorias bidimensionaks y de mayor dimensidn


anteriormente. As, hablaremos de un "punto" en u n n-espacio dimensional
determinado porla n-tupla (XI,.. . ,x,). Definiremos como n-espacio (algunas
veces llamado n-espacio euclidiano)el conjunto d e todas las ("1, . . . , zn),donde
x ; puede ser cualquier nmero real.
Aunque en realidad no necesitaremos evaluar integrales n-dimensionales,
vamos a encontrar que es un concepto muy til y algunas veces necesitamos
expresar una cantidad como una integralmltiple. Si recordamos la definicin
de

donde A es una regin del plano ( x , ~ ) entonces


,
la extensin de este concepto a

I
donde R es una regin en el n-espacio, sera justificada. Si f representa la fdp
conjunta de la variable aleatoria bidimensional ( X ,Y),
entonces

representa P [ ( X , Y )E A ] . Anrilogamente, si f representa la fclp conjunta de


(X,, . . . , X,), entonces

representa

PROBLEMAS
6.1. Sup6ngase que la tabla siguiente representa la distribuci6n de probabilidades conjunta de la variable aleatoria discreta ( X , Y ) . Calcular todas las
distribuciones marginales y condicionales.

Problemas

6.2. Supngase que


conjunta
f ( 2 ,y)

la variable aleatoria bidimensional

= k z ( 2 - y),

= O,

o < 2 < 2,

"2

149

( X , Y )tenga fdp

< y < 2,

en otra parte.

Evaluar la constante IC.


6) Encontrar la fdp marginal de X .
c) Encontrar la fdp marginal d e Y

a)

6.3. Supngase que la fdp conjunta d e la varialble aleatoria bidimensional

( X ,Y ) est5 dada por

f(2,y)

= 2 2 + -,
XY
3

= O,

o < 2 < 1, o < y <,a,

en otra parte.

Calcular lo siguiente.

6.4. Supngase que se sacan dos cartas a l azar de una baraja. Sea
nmero deases obtenidos y Y el nmero dereinas obtenidas.

X el

Obtener la distribucin d e probabilidades conjunta d e ( X ,Y ) .


6) Obtener la distribucin marginal d e X y d e Y.
c) Obtener la distribucin condicional d e X (dada Y )y d e Y (dada X).
a)

6.5. Para quevalores d e k es f(2,y) = ICe-(z+Y) Itma fclp conjunta d e (X, Y )


en la regin O < 2 < 1, O < y < l ?

6.6. Supngase que la variable aleatoria bidimensional continua ( X ,Y ) est


distribuida uniformemente en el cuadrado
cuyos vrtices son (l,O), (O, l), (-1,O)
y (0,-1). Encontrar las fdp marginales d e X y d e Y .

150 Phriables aleatorias bidimensionales y de mayor dimenswn


6.7. Supngase que las dimensiones, X y Y , de unaplancha metlica rectzngular se pueden considerar como
variables aleatorias continuasindependientes
con las siguientes fdp.

x:

g(z)

1 < 2 5 2,

= 2 - 1,
-

-x+3,

= O,

2<x<3,

en otra parte.

Y : h ( y ) = $, 2 < y < 4 ,
=O

en otra parte.

Encontrar la fdp del rea d e la plancha, A = X Y


6.8. Representar con X la duracin de undispositivo electrnico y suponer
que X es una variable aleatoria continua con fdp

f ( x ) = loo0
7

> 1000,

= O en otra parte.
Sean X 1 y X 2 dos determinaciones independientes de la anterior variable
aleatoria X . (Es decir, suponer que se est probando la duracin de dos de
tales dispositivos.) Encontrar la fdp d e la variable aleatoria 2 = X * / X 2 .
6.9. Obtener la distribucin d e probabilidades d e las variables aleatorias V

y W presentadas en la p. 138.

6.1 O. Demostrar el teorema6. l .


6.1 1. La fuerza magntica H en un punto P , a X
unidades d e u n alambre que transporta una corriente I , est5 dada por H = 2 Z / X . (Vease la Fig. 6.14.)
Supngaseque P es unpunto variable. Es decir, X es
una variable aleatoria continua distribuida uniformementeen ( 3 , 5). Supngaseque la corriente I estambin una variable aleatoria continua distribuida unialeatorias
formemente
S een
I son
(10,independientes.
ZO), y adems, que
Encontrar
las variables
la fdp

de la variable aleatoria H.

p+"

.\OO
-

//

'.

"
"
"

FIGURA
6.14

6.12. La intensidad d e la luz en un punto determinado est dada por la


relacin I = C / D 2 , donde C es la potencia luminosa d e la fuente y D es
ladistzzncia d e la fuente al punto dado. Supngase que
C est distribuida
uniformemente en (1, Z), mientras que D es una variable aleatoria continua

Problemas

15 1

con fdp f (d) = e - d , d > O. Encontrar la fdp d e I, si C y D son independientes.


[Indicacidn: Hallar primero la fdp d e D 2y luego alplicar los resultados d e este
captulo.]
6.13. Cuando una corriente d e I (amperes) paja por una resistencia d e R
(ohms), la potencia generada esd dada porW = 12R (watts). Supngase que
I y R son variables aleatorias independientescon las siguientes fdp.
I:

f(i) = 6i(l - i),

O 5 i 5 1,

= O en otra parte.

R:

g ( r ) = 2r,

O < r < 1,

= O en otra parte.
Determinar la fdp dela variable aleatoria W y dibujar su grfica.
6.14. Supngase quela fdp conjunta de( X , Yest
) dada por

f ( z , y ) = e-?',

para z

> O,

= O en otra parte.
Encontrar la fdp marginal d e X .
6) Encontrar la fdp marginal d e Y .
c) Evaluar P ( X > 2 I Y < 4).
a)

> z,

7.1 El valor esperado de una variable aleatoria

Consideremos la relacin determinista u2 by = O. Reconozcmosla


como una relacin lineal entre
z y y. Las constantes a y b sonparmetros
d e esta relacin en el sentido de que para cualquier eleccin particular
d e u y b obtenemos una funcin lineal especifica. En otros casos, uno
o mAs parmetros pueden caracterizar
la relacin que se considera.
Por ejemplo, si y = u z 2 bz c son necesarios tres parmetros. si
y = e - k x un parmetro es suficiente. No slo una relacin particular se
caracteriza por los parmetros sino, recprocamente, por cierta relacin
podemos definir varios parmetros pertinentes. Por ejemplo, si a y
bz = O, entonces m = -b/a representa la pendiente de la recta, y si
y = a z 2 b z c, entonces - b / 2 u representa el valor para el cual existe
un mAximo relativo o un mnimo relativo.

+ +

+ +

En los modelos matem5ticos no deterministas o aleatorios que hemos


la disconsiderado, los parmetros tambin pueden usarse para sealar
tribuci6n d e probabilidades. Con cada distribucin de probabilidades
podemos asociar ciertos parAmetrosque dan informacin valiosa acerca

. .

154 caractersticas
Otras
variables
las
nleatorias
de

7.1

de la distribucin (tal comola pendiente de una recta proporciona una


informacin til acerca d e la relacin lineal que representa).

EJEMPLO
7.1. Supongamos queX es una variable aleatoria continua
con fdp f(z)= k e - k x , x 2 O. Para verificar que esta es una fdp observe
que S
r k e - k x dx = 1 para toda k > O, y que k e - k x > O para k > O.
Esta distribucin se llama distribucin exponencial,
la cual estudiaremos
Es una distribucin muy til para
m8s adelante con mayor detalle.
representar la duracin, digamos X , d e cierta clase de componentes de
equipos. La interpretacin de IC, en este sentido, tambin se analizar
posteriormente.
EJEMPLO7.2. Supongamos que en una lnea indefinida
d e montaje se produce un artculo dado. La probabilidad de que un artculo
sea defectuoso es p , y este valor es el mismo para todos los artculos.
o no
Supngase tambin quelos artculos sucesivos son defectuosos (D)
defectuosos ( N ) , independientemente uno de otro.
Sea la variable aleatoria X el nmero de artculos inspeccionados hasta que se encuentra
el primer artculo defectuoso. A s , un resultado tpico del experimento sera d e la forma N N N N D. Por tanto, X ( N N N N O ) = 5. Los
valores posibles d e X son: 1 , 2 , . . . , n , . . . Puesto que X = k si y slo si
los primeros ( k - 1) artculos son no defectuosos y el k-simo artculo
es defectuoso, asignamos al evento la probabilidad siguiente {X = IC}:
P ( X = F;) = P(I - p ) " - l , IC = 1 , 2 , . . . , n , . . . Para verificar que sta es
una legtima distribucin d e probabilidades observemos que

=Pl-(l-p)

= 1 si O

< Ipl < 1.

As, el parPmet1-o p puede ser cualquier nmero quesatisfaga O

< p < 1. '


Supongamos que se especifican una variable aleatoria y su distribucin d e probabilidades. Hay alguna manera d e establecer esta distribucin en funcin de unos cuantos parametros numricos apropiados?
Antes de continuar con la preguntaanterior, motivemos nuestro
anlisis considerando el siguiente ejemplo.
EJEMPLO
7.3. Una mquina corta alambre de una longitud
detei-minada. Debido a cierta imprecisin del mecanismo de corte, el largo del

7.1

155

variable
Eluna
aleatoriu
esperado
valor
de

alambre cortado (en pulgadas), digamosX , se puede considerar como


unavariablealeatoriadistribuidauniformementeen
[11.5,12.5].El largo especfico esde 12 pulgadas.Si 11.7 X < 12.2, el alambre se puede
vender con una utilidad de $0.25.
Si X 2 12.2, el alambre se puede corY si
tar de nuevo y, por consiguiente, se obtiene una utilidad de $0.10.
X < 11.7, el alambre se desecha con una prdida de $0.02. Un clculo
sencilloindica que P(X 2 12.2) = 0.3, P(11.7 5 X < 12.2) = 0.5 y
P ( X < 11.7) = 0.2.
Supongamos que se corta un gran nmero de muestras de alambre,
digamos N. Sea N S el nmero de muestras para las cuales X < 11.7,
N R el nmero de muestras para las cuales 111.7 5 X < 12.2 y NL el
nmero de muestras para
las cuales X 2 12.2. :Por tanto, la utilidad total
obtenida d e la producci6n de N muestras es 'igual a T = Ns(-0.02)
N~(0.25)N~(0.10).
La utilidad totalpor alamhlre cortado, digamos W , es
iguala" = (N~/N)(-O.~~)+(NR/N)(O.~~)+(NL/N)(O.~).
(Obsrvese
que W es una variable aleatoria, puesto que Ns, N R y NL son variables
aleatorias.)
Ya hemos mencionado que la frecuencia relativa de un evento est
cercana a la probabilidad de ese evento,si el nlimero de repeticiones en
las que se basa la frecuencia relativa es grande. (Discutiremos esto con
ms precisidn en el captulo 12.) Por tanto, si N es grande, esperaramos
que Ns/N est6 cercana a 0.2, NR/N est cercana a 0.5 y NL/N est
cercana a 0.3. Entonces para N grande, W podra aproximarse como
sigue:

<

'

W
*

(0.2)(-0.02) + 0.5(0.25) + (O.3)1(0.1)= $0.151.

A s , si se produjera un gran nmero de alamlbres, esperaramos tener


una utilidad de $0.151 por alambre. El nmlero 0.151 se llama valor
esperado de la variable aleatoria W .
Definicin. Sea X una variable aleatoria discreta con valores
posibles x ~ ,... ,xn,.. . y sea p ( z i ) = P(X := zp), i = 1,2,.. . ,n,.. .
Entonces el valor esperado de X (o esperanza matemtica de X ) ,
que se denota con E ( X ) , se define como

156 Otras caradtersticas de


variables
lasaleatorias
si la serie
Iz:ilp(zi)

7 .I

C z l q p ( x ; ) converge absolutamente, es decir, si C z l


< OO. Este

promedio d e X .

nmerotambin

sedesignacomo

vdor

Observaciones: a) Si X toma slo un nmero finito d e valores, la expresin


anterior
se
convierte en E ( X ) =
p(z;)zi. sta se
puede
considerar
como un promedio ponderado delos valoresposibles q , . . . , X,. Si todos
los valores posibles son igualmenteprobables, E ( X ) = ( l / n )
x;, lo que
representa el promedio aritmktico ordinario d e los n valores posibles.
b ) Si se lanza un dado regular y la variable aleatoria X designa el nmero
d e puntosque salen,entonces E ( X ) = h(1 2
3
4
5
6) =
Este ejemplo sencillo ilustra notablemente, que E ( X ) no es el resultado que
esperaramos cuando X se observa una sola vez. De hecho, en la situacin
anterior, E(X)= no es siquiera u n valor posible d e X ! Por el contrario, si
obtenemos un gran nmero observaciones
de
independientes d e X, tales como
2 1 , .. . , x,, y calculamos el promedio aritmtico d e esos resultados,.entonces,
en cond.iciones generales regulares, el promedio aritmtico estar cercano a
E ( X ) en un sentido probabilstico. Por ejemplo, en la situacin anterior, si
lanzramos el dado un gran nmeroveces
de y luego calculramosel promedio
aritmtico d e los diversos resultados, esperaramos que este promedio llegase
a estar ms cercano a cuanto m& veces se lance el dado.
c ) Se debe observar la similitud entre la noci6n d e valor esperado como se
defini6 anteriormente (en especial si X puede tomar slo un nmerofinito d e
valores) y la noci6n del promedio de un conjunto de nmeros,
como, 21, . . . , zn.
Usualmente definimos f = ( l / n ) ELl r ; como el promedio aritmtico d e los
nmeros 2 1 , . . . , z,. Suptingase, ademhs, que tenemos los nmeros z i , . . . , rh,
donde z: ocurre ni veces, k ni = n. Haciendo f; = n ; / n , E:==,
fi = 1,
definimos el promedio ponderado delos nmeros r i , . . . , zh como

+ + + + +

i=l

g.

i= 1

Aunque hay una fuerte semejanza entre el promedio ponderado anterior y la definicin d e E ( X ) , es importante sealar que este ltimo
es un nmero (parmetro) asociado con una distribucin d e probabilidades tebrica, mientras que el primero essimplemente el resultado d e
combinar un conjunto de nmeros de una manera
especial. Sin embargo, es ms que una semejanza superficial. Consideremos una variable
aleatoria X y sean q 7 . . . , zn los valores obtenidos cuando el experimento que da origen a X se realiz n veces independientes (Es decir,
q
7 . . . ,zn simplemente representa los resultados d e n medidas repetidas de la caracterstica numrica X . ) Sea 1 el promedio aritmtico de

7.1

Elesperado
valor

de
variable
aleatoriu
una

157

esos n nmeros. Entonces, como analizaremos con ms precisin en el


captulo 12, si n es suficientemente grande, a: estar "cercana" a E ( X )
en un determinado sentido.Este resultado est;$muy relacionado con la
12) de quela frecuencia reidea (que tambin se estudiar en el captulo
lativs f~ asociada con n repeticiones de un experimento estar cercana
a la probabilidad P ( A ) si fA se basa en iln gran.nmero de repeticiones
de E .

EJEMPLO7.4. ,Un fabricanteproduceartculos d e tal modo que


el 10% es defectuoso y el 90% no loes. Si seproduceunartculo
$1, mientras que un artculo sin defectos
defectuoso el fabricante pierde
le produce una utilidad de $5. Si X es la utilidad neta por artculo,
se calcula como
entonces X es una variable aleatoria cuyo valor esperado
E ( X ) = -l(O.l) +5(0.9) = $4.40. Supongamos quese produce un gran
nmero de esos artculos. Entonces, puesto que el fabricante perder
$1 alrededor del 10% d e las veces y ganar $5 ,alrededor del 90% de las
veces, esperar obtener alrededor de$4.40 por artculo a la larga.
Teorema 7.1. Sea X una variable aleatoria distribuida binomialmenp , con baseen n repeticilones de un experimento.
te con parmetro
Entonces

$(X) =

k
k=O

n!
p k (1 - j o y
k ! ( n- k ) !

(ya que el trmino con k = O es igual a cero). !Sea S = k - 1 en la suma


anterior. Como k toma valores de uno hasta n, S toma valores de cero
hasta ( n - 1). Sustituyendo k en todas partes por (S 1) obtenemos

158 caracteristicas
Otras

7.1

variables
de las
aleatorias

La suma en la ltima expresin es simplemente la suma de probabilidades binomiales conn sustituida por ( n - 1) [esto es, ( p (1 - p))"-']
que, por tanto, es igual a uno. Esto establece el resultado.

Obseruacwn: El resultado anterior corresponde ciertamente


a nuestra nocin
intuitiva, porque se supone quela probabilidad de algn eventoA es, digamos
0.3, cuando se realiza un experimento. Si repetimos este experimento 100
veces, por ejemplo, esperaramos que
A ocurriera alrededor de lOO(0.3) =
30 veces. El concepto de valor esperado que antes se present para variables
discretas, se extender brevementeen el caso continuo.

EJEMPLO7.5. Una mquina impresora tiene una probabilidad constante d e 0.05 d e fallar en cualquier da. Si la mAquina no tiene fallas
durante la semana, se obtiene una utilidad d e $S.Si ocurren una o dos
fallas, se obtiene una utilidad de $ R ( R< S) y si ocurren tres o m&
fallas, la utilidad es d e $(-Lj. (Suponemos que R, S y L son mayores
que cero, y tambin que si la mquina falla cualquier da, permanece
fuera d e uso durante el resto del da.) Sea A' la utilidad obtenida en
una semana de cinco das. Los valores posibles d e X son R, S y ( - L ) .
Sea B el nmero de fallas por semana. Tenemos
P ( B = k) =

(3

(0.05jk(0.95)"-k,

k = O, 1 , . . . , 5 .

Puesto que X = S si y slo si B = O, X = R si y slo si B = 1 o 2 y


X = (- L j si y slo si B = 3 , 4 o 5, encontramos que

+ R P ( B = 1 O 2) + ( - L ) P ( B = 3 , 4 O 5)
= S(0.95)5 + R [5(0.05)(0.95)4 + 10(0.05)2(0.95)3]
= ( - L ) [10(0.05)3(0.95j2+ 5(0.05j4(0.95) + (0.05j5] dlares.

E ( X ) = S P ( B = O)

Definicin. Sea X una variable aleatoria continuacon fdp f . El valor


esperudo de X se define como

E ( X )=

$00

xf(.)

dz.

"o0

Nuevamente puede suceder que esta integral (impropia) no converja. Por lo tanto, decimos que E(A) existe si y slo si

7.1

El valor esperado de una variable aleatoria

159

es finita.
Obseruacidn: Debemos observar la analoga entre el valor esperado de una

variable aleatoria y el concepto de centro de masa en mecnica.Si una


masa unitaria est distribuida a lo largo de la recta en los puntos discretos
2 1 , . . . , zn,. . . y si p ( z ; ) es lamasa en xi, entonces vemos que
z;p(z;)
representa el centro de masa (respecto al origen). De modo semejante, si una
masa unitaria est distribuida continuamente en una recta, y si I(.) representa
la densidad de masa en z, entonces S-+, zf(z)dz se puede interpretar de
nuevo comoel centro de masa. En el sentido anterior, E ( X ) puede representar
un centro de la distribucin de probabilidad. Algunas veces E ( X ) se llama
tambiCn medida de tendencia central y estA en las mismas unidades que X .

f
x=i500

x=3000

FIGURA7.1

EJEMPLO7.6. Vamos a definir la variable aleatoria X como sigue.


Supongamos que X es el tiempo (en minutos) durante el cual un dispositivo elctrico seutiliza a su maxima carga cierto periodode tiempo
determinado. Supongamos que X es una variable aleatoria continua
con la siguiente fdp:

-1
(x - 3000)
( 1500)2

=O

As,

1500 5 Z 5 3000,

para cualquier otro valor.

7.1

160 Otras caractersticas de las variables aleatorias

J--00

[/

1500

(1500)( 1500)

x dx -

Lso0
3000

x(x - 3000) dx

= 1500 minutos.
(Vase la Fig. 7.1.)

EJEMPLO7.7.
El contenidode ceniza en el carbn(porcentaje),
digamos X , se puede considerar como una variable aleatoria continua
f(x) = &x2,
10 5 x 5 25. Por lo tanto,
conlasiguientefdp:
E(X)=
x3 dx= 19.5%. As, el contenido esperado de ceniza
en la muestra particular d e carbn que se considera es 19.5%.

& Jft

Teorema 7.2. Supongamosa X distribuidauniformementeenel


intervalo [ a ,61. Entonces

Demostrucidn: La fdp deX esta dada por f(x) = l / ( b

Por tanto,

- a), a

(Ntese que esto representa el


punto w d i o del intervalo
intuitivamente lo esperaramos.)

5 x 5 b.

[ a ,b],

como

Obseruacidn: Valdra la pena recordar en esta coyuntura que una variable


aleatoria X es una funcin d e u nespacio muestra1 S con relacin a l recorrido
R,. Como repetidamente,lo hemos sealado, parala mayora d e las aplicaciones esta nos ha interesado s610 en el recorriday enlas probabilidades definidas
en l. Esta nocin d e valor esperado fue completamente definidaen trminos
del recorrido. [VCanse las-ecuaciones (7.1) y (7.2.)]. Ocasionalmente, sin embargo, deberamos observarla naturaleza funcional d e X . Por ejemplo, cmo
expresamos la ecuacin (7.1.) e n trminos d e los resultados S E S , suponiendo
que S es finita? Puesto que x; = X ( s ) para una S E S y puesto que
p(e1) = P

[S : X ( s ) = 4

Esperanza de una funcidn de una variable aleatoriu

7.2

161

podemos escribir

donde P ( s ) es la probabilidad de evento {S} c S . Por ejemplo, si el experi( 0 )o no defectuosos


mento consisteen clasificar tres artculos como defectuosos
( N ) ,un espacio muestra1 para este experimento sera
S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD}.

Si X est definida como el nmero de defectuosos, y si se supone que todos


los resultados anteriores son igualmente posibles, tenemos, de acuerdo con la
ecuacin (7.3),

-.3
- 2
Por supuesto este resultado se habra podido obtener ms fcilmente al aplicar
en forma directa la ecuaci6n (7.1.) Sin embargo, es bueno recordar que para
emplear la ecuaci6n (7.1.) necesitbamos conocer los valores si), lo que a
su vez significaba la necesidad de un cAlculo como el que se utiliz6 antes. Lo
importante es que unavez que se conocela distribuci6nde probabilidadessobre
R, [en este caso los valoresde los nmerosp(xi)], plodemos suprimir la relacin
funcional entre R, y S.

7.2 Esperanza de una funcin de

una

variable aleatoria

Como lo expusimos previamente, si X es una variable aleatoria y si


Y = H ( X ) es una fnci6n d e X , entonces Y es tambiCn una variable
lo tanto, ser5
aleatoria con una distribucih de probabilidades. Por
interesante y significativo evaluar E ( Y ) . Hay dos maneras de hacerlo
que resultan equivalentes. Demostrar que en general son equivalentes
Sinembargo,es
no estrivial y probaremos s610 u n casoespecial.
importante que el lector comprenda
los dos planteamientos que se
presentan a continuaci6n.

162 Otras caractersticas de las variables aleatorias

7.2

Definicin. Sea X una variable aleatoria y sea Y = H ( X ) .


a)

Si Y es una variable aleatoria discreta con valores


posibles y1, y2,
= P ( Y = y;), definimos

. . . y si q(y;)

i=l

b) Si Y es una variable aleatoria continua con fdp g, definimos

Observacin: Naturalmente, estas definiciones sonpor completo consistentes


con la definicin previa dada para elvalor esperado de unavariable aleatoria.
De hecho, lo anterior s610 representa una repeticidn en trminos de Y. Una
desventaja de aplicar la definicin anterior para obtener E ( Y ) es que la
distribucin de probabilidades deY (es decir, la distribucin de probabilidades
en el recorrido RY)es necesaria. En el captulo anterior expusimos mtodos
mediante los cuales podemos obtenerya sea las probabilidades puntuales q(y;)
o g , la fdp de Y . Sin embargo, el problema que se presenta es si podemos
obtener E ( Y )sin encontrar primerola distribucin de probabilidades de Y, es
decir, slo a partir del conocimiento de
la distribucin de probabilidades d e X.
La respuesta es afirmativa, como
lo indica el siguiente teorema.

Teorema 7.3. Sea X una variable aleatoria y sea Y = H ( X ) .


a) Si

X es una variable aleatoria discreta y p ( x i ) = P ( X = x;),

tenemos

E ( Y ) = E ( H ( X ) )=

o;)

j=1

H(zi)p(xj).

(7.6)

b ) Si X es una variable aleatoria continua confdp f , tenemos


E ( Y ) = E ( H ( X ) )=

1+o;)
-m

H ( x ) f ( z )dx

(7.7)

Obseruacidn: Este teorema hace mucho ms sencilla la evaluaci6n de E ( Y ) ,


porque quiere decir que nonecesitamos encontrar la distribuci6n de probabilidades de Y para evaluar E ( Y ) . Es suficiente conocer la distribucidn de probabilidades de X .

7.2

Esperanza
de

una funcin
una
variable
de aleatoriu

163

Demostrucidn: [Slo demostraremos la ecuacin (7.6). La demostracin d e la ecuacin (7.7) es un poco ms complicada]. Consideremos
H ( z j ) p ( z j )= Cj=,(C;
H ( z ; ) p ( : c ; ) ) , donde la sumaintela suma
rior se toma sobre todos
los indices i para los cuales H ( z i ) = y j para una
y j fija. Por tanto, todos los trminos H ( z ; )son constantes en la suma
interior, de modo que
o3

o3

Pero

Por
tanto,
ecuacin (7.6).

H ( z j ) ~ ( z j=
)

CFl yjq(yj),

II

lo que establece la

Obseruacidn: El mtodo de demostracin equival~e esencialmenteal mtodo


de contar en el cual ponemos juntos todos los artiiculos que tienen el mismo
valor. As, si queremos encontrar la suma total de los valores 1 , 1, 2, 3, 5, 3,
2, 1, 2, 2, 3, podemos sumarlos directamente o indicar que, puesto que hay 3
unos, 4 doses, 3 treses y 1 cinco,la suma total es igual a
3(1)

+ 4(2) + 3(3) + l(5) = 25.

EJEMPLO7.8. Sea V la velocidad del viento (kph)


y supongamos que
V est& distribuida uniformemente en el intervalo [O, lo]. La presin,

W(en lb/pie2), sobre la superficie delala de un aeroplanoestA dada por


la relacin: W = 0.003 V 2 . Para encontrar 121 valor esperado de W ,
E ( W ) ,podemos proceder de dos maneras:
u) Usando el teorema 7.3, tenemos

E ( W )=

10

0.003v2f(v) dv
1
0 . 0 0 3 2~CV
10

= 0.1 lb/pie2

164 caractersticas
Otras

7.2

variables
de las
aleatorias

b) Usando la definicin de E ( W ) ,primero necesitamos encontrar la


fdp de W , digamos g , y luegoevaluar S_'," wg(w)dw. Para encontrar
g(w), observemos que w = 0 . 0 0 32~ es una funcin montona dew, para
v 2 O. Podemos aplicar el teorema 5.1 y obtenemos

=O

para cualquier otro valor.

Por tanto,

E ( W )=

0.3

wg(w) d w = 0.1

despus de un clculo sencillo. A s , como lo indic el teorema, las dos


evaluaciones d e E ( W ) producen el mismo resultado.

EJEMPLO7.9. En muchos problemas nos interesa slola magnitud d e


una variable aleatoria sin considerar su signo algebrico. Es decir, nos
x1.Supongamos queX es una variable aleatoria continua con
interesa 1
la siguiente fdp:
f ( ~=
)

ex

si x 5 0 ,

e-'
- - si z

> O.

Sea Y = 1x1.Para obtener E(Y) debemos proceder de una de las dos


maneras.
a) Usando el teorema 7.3, tenemos

7.2

una funcidn de una variable


aleatoriu

Esperanza
de

165

b ) Para evaluar E ( Y ) usando la definicin, necesitamos obtener la


fdp de Y = 1
x1,es decir 9 . Sea G la fda d e Y . Luego,
puesto que la fdp deX es simtrica respecto al cero. Por lo tanto,
G(y) = 2JYf(a:) da: =
O

'2kYq

dsc = -e-Y

+ 1.

As tenemos para g, la fdp deY , g(y) = G'(y) =: e-Y, y >O. Por lo tanto,
E ( Y )=
yg(y)dy =
ye-Ydy = 1, como antes.

so"

so"

EJEMPLO7.10. En muchos problemas podemos usar el valor esperado de una


variable aleatoria fin
a de tomarcierta decisinde una manera
ptima.
Supngase que un
fabricante produce cierta1 tipo d e aceite lubricante
que pierde alguno de sus atributos
especiales si no se usa dentro de cierto periodo de tiempo. Sea X el nmero de unidades deaceite pedidas
al fabricante durante cada ao. (Una unidad 'es igual a 1000 galones.)
Supongamos que X es una variable aleatoria continua distribuida uniformemente en [2,4]. Por lo tanto, la fdp f tiene la forma,

f ( 4 = ;,
=O

5 2 5 4,

para cualquier otro valor.

Supongamos que por cada una las


deunidades; vendidas se obtiene una
utilidad d e $300, mientras que cada una de las unidades no vendidas
(durante un ao determinado) produce una prdida de $100, ya que
cada unidad no utilizada tendr que desecharse. Consideremos que el
fabricante debe decidir pocos meses antes del comienzo de cada ao
Y unidades (Y no es una variable
cuanto producir,y que decide fabricar
aleatoria; estA especificada por el fabricante). Sea 2 la utilidad por ao
(en d6lares). Aqu 2 es desde luego una variable aleatoria, puesto que
es una funcin d e la variable aleatoria X . Especficamente, 2 = H ( X ) ,
donde

H ( X ) = 300 Y
= 300 X

si X 2 Y,

+ (-lOO)(Y - X ) ,

si X

< Y.

166 Otras caractersticas de las variables aleatorias


(La ltima expresin puedeescribirse romo 400X

7.3
-

lOOY .)

Para obtener E ( 2 ) aplicaremos el teorema

7.3 y escribimos

E ( 2 )=

J'"
-m

l -

H ( x ) f ( x ) dx

-x

FIGURA
7.2
Paraevaluar esta integral se debenconsiderartres
casos: Y < 2,
5 Y 5 4 y Y > 4. Con ayuda de la figura 7.2 y despus de algunas
simplificaciones obtenemos

E(2)= 300 Y si E' 5 2


= - 100 Y 2

+ 700 Y - 400

= 1200 - 100 Y

si Y 2 4.

si 2

<Y <4

La pregunta siguiente es interesante. Cmo elegirA el fabricante el


valor d e Y a fin d e maximizar la utilidad esperada? Podemos responder
esta pregunta con facilidad al poner simplemente d E ( Z ) / d Y = O. Esto
produce Y = 3.5. (Vase la Fig. 7.3.)

Y =Y2 = 3 .Y5 = 4

FIGURA
7.3
7.3 Variables aleatorias bidimensionales
Los conceptos expuestos anteriormente para el
caso unidimensional
tambin se mantienen para elcaso de variables aleatorias d e mayor dimensin. En particular, para elcaso bidimensional hacemosla siguiente
definicin.

7.3

167

Variables aleabsrias bidimensionales

Sea ( X , Y ) una variable aleatoria bidimensional y sea


2 = H ( X ,Y ) una funcin real d e ( X ,Y ) . Por lo tanto, Z es una
variable aleatoria (unidimensional)y definimos E(2)como sigue:

Definicin.

a) Si 2
252,. . . y

es una variable aleatoria discreta con valores posibles zl,


con
p(z2) = P( z = Zi),

entonces,

b ) Si 2 es una variable aleatoria continua con fdp f , tenemos

Como en el caso unidimensional, se puede demostrar el teorema


siguiente (anlogo al teorema 7.3).

Teorema 7.4. Sea ( X ,Y ) una variable aleatoria bidimensional y sea


z = H(X,Y).
a)

Si ( X ,Y ) es una variable aleatoria discretay si


p(z2,yj) = P ( X = z2,Y = yj),

. .

2,J

= 1,2,. . . ,

tenemos
(7.10)

b ) Si ( X ,Y )es una variable aleatoria continuacon fdp conjunta f,


tenemos

E(2)=

J'" /'"
-03

"03

H ( z ,y)f(z, y) dx dy

(7.11)

168 caractersticas
Otras

7.4

variables
de las
aleatorias

Observacidn: No demostraremos el teorema 7.4. Otra vez, como en el


caso unidimensional, ste es un resultado muy til puesto que indica que no
necesitamos encontrar la distribuci6n de probabilidades de la variable aleatoria
Z a fin de evaluar su esperanza. Podemos encontrar directamenteE(2)a partir
del conocimiento de la distribucin conjunta de (X, Y ) .

EJEMPLO7.1 1.

Reconsideremoselejemplo6.14
y encontremos
E ( E ) , donde E = I R . Encontramos que I y R son variables aleatorias
independientes con las siguientes fdp, g y h, respectivamente:

Tambin encontramos que la fdp de E es p ( e ) = $ e ( 3 - e ) , O 5 e 5 3.


Puesto queI y R son variables aleatoriasindependientes, la fdp conjunta
2 . 2,
d e (I,R ) es sencillamente el producto delas fdp deI y R: f(i, r ) = gzr
.O 5 i 5 1, O 5 r 5 3. Para evaluar E ( E ) usando el teorema 7.4 tenemos

E(E)=
=

J' i r f ( i ,r ) d i dr = J3J'

J3
O 0

$1' i3
i2 d i

i r $ i r 2 d i dr

r3 dr = 3 .

Usando directamente la definicin (7.9), tenemos

E ( E )=

J" e p ( e ) de =
O

7.4 Propiedades del valor esperado


I-Iaremos una lista de propiedades importantes del valor esperado de
una variable aleatoria que ser muy til en el trabajo subsiguiente. En
cada caso se supondr la existencia de todos los valores esperados a los
cuales nos referimos. Las demostraciones slo se
harn para el caso
continuo. El lector debe ser capaz d e d a r el argumento para el caso
discreto sustituyendo simplemente las integrales por sumatorias.

7.4

169

Propiedades del valor esperado

F(4

Propiedad 7.1. Si X = C, donde C es


una constante, entonces E ( X ) = C.

Demostracidn:

F(x) = I

I
x=c
FIGURA7.4

Obseruacidn: El significado de X igual C es el siguiente. Puesto que X es una


funci6n del espacio muestra1a Rz, el significado de lo anterior es que R, consta
de un solo valor C. Por tanto, X es igual a C si y ~'610si P [ X ( s )= C] = 1. Esta
noci6n se explica mejoren trminos de la fda de X . Asaber, F ( z ) = O, si t < C;
F ( z ) es igual a 1, si x 1 C (Fig. 7.4). Algunas veces esta variable aleatoria se
llama degmeruda.

Propiedad 7.2. Supongamos que C es una constante y X es una


variable aleatoria. Entonces, E(CX') = C E ( X )

Demostracin:

E ( C X )=

1,

+m

Cxf(x)

dx= C

1,

+m

~f(x)

=
d xC E ( X ) .

Propiedad 7.3. Sea (X, Y ) una variable aleatoria bidimensional con


una distribucin de probabilidades conjunta. SeanZ = H l ( X , Y )
y T.V = H z ( X , Y ) . Entonces, E ( Z W ) == E ( 2 ) E ( W ) .

Demostracin:

[donde f es la fdp conjunta de ( X ,Y)]

= E(2)+ E ( W ) .

170

caractertsticas
Otras

variables
de las
aleaton'as

7.4

Propiedad 7.4. Sean X y Y dosvariablesaleatoriascualesquiera.


Entonces, E ( X Y ) = E ( X ) E ( Y ) .

Demostracin: Esta se deduce de inmediato de


hacer H l ( X , Y ) = X y H z ( X , Y ) = Y .

la propiedad 7.3 al

Obseruacwnes: a ) Combinando las propicdades 7.1, 7.2 y 7.4 observamos el


siguiente hecho importante:si Y = aX+b, donde a y b son constantes, entonces
E(Y) = a E ( X ) b. En palabras, la esperanza de una funcin lineal es esa
misma funcin lineal d e las esperanzas. Esto no es cierto a menos que est
implicada una funcin lineal y es un error comn creer que sea
de otromodo.
Porejemplo, E ( x ~ #
) ( E ( x ) ) ~E(ln
,
X) # In E ( x ) , etc. A s , si X toma
los valores -1 y +1, cada uno con probabilidad
entonces E ( X ) = O. Sin
embargo,

i,

E(X-2) = ( - 1 ) 2

(i)+ ( 1 ) 2 + (i)= 1 # o2

b ) En general, es dificil obtener expresiones para E ( 1 / X ) o E(X1/2),por


ejemplo, en trminos de l/E(X') o (E(X))1/2. Sin embargo,hayalgunas
desigualdades que son muy fciles d e derivar. (Vanse los artculos d e Fleiss,
Murthy y PiIlai y Gurland en los nmeros d e febrero y diciembre d e 1966 y
abril d e 1967, respectivamente, d e The A m r i c a n Statistician.)
Por ejemplo, tenemos:
1) Si X toma slo valores positivos y tiene una esperanza finita, entonces
E ( 1 I X ) 2 1/E(X).
2) Con la misma hipdtesis que en l), E(X1/2)5 ( E ( X ) ) 1 / 2 .

Propiedad 7.5.
JqX1

Sean X I ). . . X n n variables aleatorias. Entonces,


)

+ - . .+ Xn) = E ( X 1 ) + + E ( X n ) .
* * -

Demostracin: Sta se deduce inmediatamente de la propiedad 7.4 a l


aplicar la induccin matemtica.
Observacwn: Al combinar esta propiedad con la anterior, obtenemos
/ n

\kl

i=l

donde las a; son constantes.

7.4

Propiedad 7.6.

Propiedades del valor esperado

Sea ( X , Y ) una variable aleatoria bidimensional

171
y

Demostracin:

Observacidn: L a hip6tesis adicional de independencia es necesaria para establecer la propiedad 7.6, mientras que para obtener la propiedad 7.4 no se
necesit6 ninguna suposici6n.

EJEMPLO7.12. (Este ejemplo se basa


en un problemad e An Introduction to Probability Theory and Its Applications d e 'W. Feller, p5g. 225.)
Sup6ngase quenecesitamos examinar un gran nmero de personas,
buscando cierta caracterstica con resultados positivo o negativo. Ms
an, supongamos que se toman muestras
varias
de personas y se prueba
la muestra combinada como una unidad, tal como puede ser elcaso en
ciertos tipos de exmenes de sangre.
Suposicidn: La muestra combinada dar un resultado negativo
si y
slo si todas las muestras componentes son negativas.
A s , en el caso d e resultados positivos (de la muestra combinada),
todas las muestras deben ser individualmente: probadas d e nuevo para
n
determinar cu6lessonpositivas.Si
las N personassedividenen
grupos de k personas (suponiendo N = k n ) aparecen las siguientes
elecciones:
a ) Examinar a todas las N personas individualmente, requiriendoN
pruebas.
b ) Examinar grupos dek muestras, lo cual puede necesitar tanpocas
como n = N / k o tantas como (k 1)n = N n pruebas.
Nuestro objetivo ser5 estudiar el nmero esperado de pruebas necesarias en 6) y luego compararlas conN .

172 caractertsticas
Otras

de las variables
aleatorias

7.4

Suposicin: La probabilidad de que el resultado dela prueba sea positivo es igual a p y es la misma para todas las personas. An ms, los
resultados d e las pruebas para las personas delmismo grupo quese examina son independientes. Sea X = nmero de pruebasnecesarias para
determinar la caracterstica que se estudia para todaslas N personas, y
sea X ; = nmero de pruebas necesarias para examinar personas en el
i-simo grupo, i = 1,.. . ,n.
Luego, X = X1 . .. X,, y, por lo tanto, E ( X ) = E ( X 1 )
E ( X , ) , lo cual es igual a n E ( X 1 ) ,puesto que todas
las X; tienen la misma
esperanza, Ahora XI1 slo toma dos valores: 1 y k 1. Adems,

+ +

+ +

P ( X 1 = 1) = P(todas las k personas en el grupo 1 son negativas)


= (1 - p)'".

Por tanto,
P(X,=k+l)=l-(l-p)

y luego,
E ( X 1 ) = 1 . (1 - p ) k

+ ( k + 1) [l - (1 - P I k ]

= k [1 - (1 - p ) ' "

+ k - 1] .

As i,

(La frmula anterior es vlida slopara k > 1, puesto que parak = 1


da E ( X ) = N p n , lo cual obviamente es falso!)
Un asunto de inters
es la eleccin d e k , para la cual el anterior
E ( X ) es ms pequeo. Esto se puede manejar fcilmente por algn
procedimiento numCrico. (Vase el Prob. 7.1 la.)
Finalmente,observamosqueparaque
la "pruebaengrupo"
sea
preferible a la prueba individual, debemos tener E ( X ) < N , esto es,
1 - (1 - p)'" k - l < 1, lo cual equivale a k" < (1 - p)'". Esto no puede

i,

f"

ocurrir si (1 - p ) <
porqueen esecaso, (1 <
< 1 / k , la
ltima desigualdad proviene del hecho de que 2'" > k . As obtenemos
la siguiente conclusin importante: si p , l a probabilidad de una prueba

7.4

delPropiedades

valor esperado

173

positiva en cualquier persona determinada, es mayor que f , entonces


de ningn modoes aconsejable agrupar las muestras antes d e examinar.
(Vase el Prob. 7.1 lb.)

EJEMPLO7.13. Apliquemos algunas d e las propiedades anteriores


para derivar (nuevamente)la esperanza de unavariable aleatoria distribuida binomialmente. El mtodo usado puede aplicarse con ventaja en
muchas situaciones semejantes.
Consideremos n repeticiones independientes de un experimento aleatorio y sea X el nmero de veces que ocurre un evento A . Sea p
igual aP ( A ) y supongamos que este nmero
es constante para todaslas
repeticiones consideradas.
Definamos las variables aleatorias auxiliaresYl,. . . ,Yn como sigue:

Y , = 1 si el evento A ocurre en la &-simarepeticin,


= O en cualquier otro caso.
Por lo tanto,

y aplicando la propiedad 7.5, obtenemos


E ( X ) = E ( q )+

+ E(Yn).

Sin embargo,

E ( Y , )= l ( p )

+ 0(1 -p ) = p.

]para toda i.

As, E ( X ) = np, lo que concuerda con el resultado previo.


Observacidn: Reinterpretemos este importante resultado. Consideremos
la
variable aleatoria X / n . Esta representa la frecuencia relativa del evento A
entrea
s
l n repeticiones d e E. Usando la propiedad 7.2, tenemos E ( X / n ) =
( n p ) / n = p . Esto, intuitivamente, es como debera ser, porque expresa que la
frecuencia relativa esperada del evento A es p , donde p = P ( A ) . Representa
la primera verificacin terica del hecho de que hay una relacin entre la
frecuencia relativa de unevento y la probabilidad die ese evento. Enun captulo
posterior obtendremosm& resultados que dan unarelacin mucho ms precisa
entre la frecuencia relativa y la probabilidad.

174 caractersticas
Otras

variables
de las
aleatorias

7.4

EJEMPLO7.14. Supngaseque la demanda D , por semana,de


cierto producto es una variable aleatoria con determinada distribucin
de probabilidadcs, P ( D = n ) = p ( n ) , n = O, 1 , 2 , . . . Supngase que
el costo para el proveedor es C1 dlares por artculo, mientrasque 1 lo
se venda al trmino dela
vende enC2 dlares. Cualquier artculo que no
semana debe almacenarsecon un costo d e C3 dlares por artculo.Si el
fabricante decide producir N artculos al comienzo de l a semana, cul
es su utilidad esperada por semana? Para qu valor
d e N es mxima la
ganancia esperada? Si T es la utilidad por semana, tenemos

T = NC2

NC1

si

>N,

= DC2 - C1N - C3(N - D )

si

D 5 N.

Reescribiendo lo anterior, obtenemos

Por tanto, la utilidad esperada se obtiene como sigue:

n,

Supongamos quese sabe que para D es apropiada l a siguiente distribucin d e probabilidades: P ( D = n ) = 1 n = 1 , 2 , 3 , 4 , 5 . Por tanto,

7.5

175

aleatoriu
variable
una
La varianza
de

E ( T ) = N(C2 - Cl)

+ (c2 c3)[ N ( N + l ) / 2

N2]

si N

5 5.

Supongamos que C2 = $9, C1 = $3 y C3 = $1. Por tanto,

E ( T ) = 6N

= 6N

+ 2 [ N(N2+
+ 2(15 - 5 N )

=7N-N
= 30

- 4N

__N " ]
si N

5 5,

si N

> 5,

si N 5 5,
si N

> 5.

N='3.5

FIGURA7.5
Por lo tanto el mximo ocurre para N = 3.5. (Vase la Fig. 7.5) Para
N = 3 o 4 tenemos E ( T ) = 12, el cual es el mximo obtenible, puesto
que N es u n entero.

7.5 La varianza de una variable

aZeatoria=

Supongamos que para una variable aleatoria


.X encontramos que E ( X )
es igual a 2. ?Cul es la significacin d e esto? Es preciso que no se
atribuya ms importancia a esta informacin que
la justificada. Significa
sencillamente, que si consideramos un gran 'nmero de valores de X ,

176

Otras

caractertsticas variables
de las
akatorias

7.5

digamos 2 1 , . . . ,z n , y los promediamos, este resultado estar cercano


a 2 si n es grande. Sin embargo, es crucial no dar mucha relevancia
X representa la
a u n valoresperado.Porejemplo,supngaseque
duracin de unabombilla que se recibe de unfabricante, y que E ( X ) =
1000 horas. Esto podra significar una de varias posibilidades. Podra
significar que se espera que la mayor parte d e las bombillas dure entre
900 y 1100 horas. Tambin podra significar que las bombillas que se
entregan son de dos tipos diferentes: alrededor dela mitad son de muy
alta calidad y con duracin de casi 1300 horas, mientras que l a otra
mitad son d e muy mala calidad y tienen una duracin decerca de 700
horas.
Hay una necesidad obvia de presentar una medida cuantitativa que
distinga cntre estassituaciones.
Varias medidassesugierenpor
s
mismas, pero la siguiente es la cantidad usada ms comnmente.
Definicin. Sea X una variable aleatoria. Definamos la varianza d e
2 como sigue:
X , que se denota con V ( X )o ax

V ( X )= E [ X - E ( X ) 1 2 .

(7.12)

La raz cuadrada positiva de V ( X ) se llama desuiucidn estndar d e


X y se designa con ax.

Observaciones:

a) El

nmero V ( X )est expresado en u n i h d e s cuadra-

das d e X . Esto es, siX se mide en horas, entoncesV ( X )est expresada

en(horas)*. Esta es unaraznparaconsiderar


la desviacin estndar.
Se expresa enlas mismas unidades que X .
b) Otra medida posible podra haber sido E / X - E ( X ) I . Por diferentes razones, una de las cuales es que X 2 es una funcin con mejor
comportamiento que 1x1,se prefiere la varianza.
c) Si interpretamos a E ( X ) como el centro de unamasa unitaria distribuida sobre una recta, podemos interpretarV ( X )como el momento
de inercia de esta masa, respecto a un eje perpendicular a travs del
centro de masa.
d ) V ( X ) ,como se defini en la ecuacin (7.12), es un caso especial
del concepto ms general siguiente. El k-simo momento d e la variable
aleatoria X respecto a su esperanza se define comopk = E [ X - E ( X ) ]k .
Evidentemente, para k = 2 obtenemos la varianza.

7.5

La varianza de una aleatoria


variable

177

El clculo d e V ( X )se simplifica con laayuda del resultado siguiente.


Teorema 7.5.

V ( X )= E ( X 2 ) - [ E ( X ) I 2 .
Demstrucin: Desarrollando E [ X - E("i)]'!y usando las propiedades
de la esperanza establecidas previamente, se obtiene
V ( X ) = E [ X - E(X')I2
= E { X 2- 2 X E ( X )

+ [E(X)]2}

= E ( X 2 ) - 2E(X)E(X)

[Recurdese queE ( X ) es una constante.]


= E(X2)- [E(X)I2.

EJEMPLO7.15. La oficina meteorolgicaclasifica el tipo d e cielo que


es visible en relacin con los "grados de nubosidad". Se us.a una escala
de 11 categoras: O, 1, 2, . . ., 10, donde O representa un cielo perfectamente claro, 10 representa un cielo completamente cubierto, mientras que los otros valores representan diversas condiciones intermedias.
Supongamos que talclasificacin se hace en una estacin meteorolgica
determinada en un da y hora determinados. Sea X la variable aleatoria que toma uno de los 11 valores anteriores. supongamos que la
distribucin d e probabilidades d e X es

Por tanto,

+ 2(0.15) + 3(0.06) + 4(0.06) + 5(0.06)


+ 6(0.06) + 7(0.06) + 8(0.15) + g(0.15)
+ lO(0.05) = 5.0.

E ( X ) = l(0.15)

178 caracterlsticas
Otras

7.6

variables
de las
aleatorias

A fin d e calcular V ( X )necesitamos evaluar ,!?(X2).


E ( X 2 ) = l(0.15)

+ 4(0.15) + g(0.06) + 16(0.06) + 25(0.06)

+ 36(0.06) + 49(0.06) + M(0.15) + 81(0.15)


+ lOO(0.05) = 35.6.

FIGURA
7.6
Luego,

V ( X )= E ( X 2 )- ( E ( X ) ) = 35.6 - 25 = 10.6,

y la desviacin estndar 0 = 3.25.


EJEMPLO
7.16.
nua con fdp

Supongamos que X es una variable aleatoria conti-

,(a:) = 1

2,

=1-2,

i x 5 0,

-1

05XL1.

(VCase la Fig. 7.6.) Debido a la simetra d e la fdp, E ( X ) = O. (Vase la


siguiente Observacin.) MAS an,

E ( X 2 )=

-1

x2(1

+ a:)

da:

+ J, x 2 ( l - a:)

1
Por tanto, V ( X )= 6.

1
da: = 6.

7.6

Propiedades
varianza
la
de

179

de una variable
aleatoriu

Obsemacwn: Supngase que una variable aleatoria continua tiene una fdp
que es simtricarespecto a x = O. Es decir, f( -x) I= f ( z ) para toda x. Entonces,
siempre que exista E ( X ) , E ( X ) = O, que es una consecuencia inmediata de la
de simetra
definicin de E ( X ) . Esto puede extenderse a un punto arbitrario
z = a, en tal caso, E ( X ) = a. (Vase el Prob. 7.33.)

7.6 Propiedades de la varianzu de una variable aleatoria


Hay varias propiedades importantes, en parte anlogas
a las expuestas
para la esperanza d e u n a variable aleatoria, que se mantienen para l a
varianza.

Propiedad 7.7.

Si C es una constante,

V(X

+ C )= V(X).

(7.13)

Demostracin:

V(X + C ) = E [(X C ) - E ( X

+ C)]2= E: [ ( X + C ) - E ( X ) - C]2

= E [ X - E ( X ) ] 2= V ( X ) .
Obsemacidn: Esta propiedad es intuitivamente evidente, porque al agregar
una constante a unresultado X no cambia su variabilidad,que es lo que mide
la varianza. Slo desplaza los valores de X a la derecha o a la izquierda,
dependiendo delsigno de C.

Propiedad 7.8. Si C es una constante,

V ( C X )= C 2 V ( X ) .

Demostracidn:

V ( C X )= E ( C X ) 2- ( E ( C X ) ) 2= C 2 E ( X 2 )- c2( E ( X ) ) 2
= c2[ E ( X 2 )- ( E ( X ) ) 2 ]= C % ( X ) .

Propiedad 7.9. Si (X, Y ) es una variable aleatoria bidimensional, y


si X y Y son independientes, entonces

180 Otras caractersticas de las variables aleatorias


V(X

7.6

+ Y )= V ( S j + V ( Y ) .

(7.15)

Demostracicin:

+
(E(X+ Y))2
= E ( S " + 2 X Y + Y2) - (E(X)j2- 2 E ( X ) E ( Y )- ( E ( Y ) y
= E ( x 3 ) - (E(X))2+ E ( Y 2 )- ( E ( Y ) ) 2
= V(X) + V ( Y ) .

V(X + Y ) = E ( X

Obseruacidn: Es importante establecer que, en general,


la varianza no es aditiva
como lo es el valor esperado. Con la suposicin adicional d e independencia, la
propiedad 7.9 es vlida. La varianza no posee la propiedad de linealidad que
dimos parala esperanza, es decir, V ( a X + b ) # aV(X) b. En su lugar tenemos
V(aX 6) = a 2 V ( X ) .

Propiedad 7.10. Sean X I , . . . ,X n n variables aleatorias independientes. Entonces,


V(X'1,

+ + X,,)
*

= I'(X,)

Demostracin: sta sededucede


matemtica.

+ . . + V(X,).

(7.16)

la propiedad 7.9 coninduccin

Propiedad 7.11. Sea X una variable aleatoria con varianza finita.


Luego, para cualquier nmero reala ,

V ( X )= E [ ( X - 4

2 1

- [ E ( X )- al2.

(7.17)

Demostracidn: Vase el problema 7.36.


Obseruacwnes: a ) sta es una extensin
obvia del teorema7.5, porque al hacer

CY

= O obtenemos el teorema 7.5.

b ) Si interpretamos V ( X ) como el momento d e inercia y E ( X ) como el


centro de una
masa unitaria, entoncesla propiedad anteriores una formulacin
del teorema, muy conocido en mecbnica, de los ges paralelos: el momento d e
inercia respecto aun puntoarbitrario es igual al momento d e inercia respecto
al centro d e la masa mbs el cuadrado dela distancia d e este punto arbitrarioal
centro d e la masa.
c) E [ X - al2 es minimizado si (Y = E ( X ) . Esto se deduce de inmediato
d e la propiedad anterior. As, el momento d e inercia (de una masa unitaria

7.6

de una
variable
aleatoria

Propiedades devarianza
la

181

distribuida en unarecta) respectoa u n eje que p,asa por un punto arbitrario


se
minimiza si estepunto seescoge como el centro d e masa.

EJEMPLO7.17. Calculemos la varianza de una variablealeatoria


distribuida binomialmente con parmetrop.
Para calcular V ( X ) podemos proceder de dos maneras. Puesto que
ya conocemos que E ( X ) = n p , sencillament-e debemos calcular E ( X 2 )
y luego evaluar V ( X ) como E ( x ~ ) ( E ( x > ) ~Para
. calcular E ( x ~ >
usamos el hecho de que P ( X = b ) =
p'(1 - p),-',
IC = O, 1,. . . , n.
Por
tanto,
E(X2) =
IC2 ( t )p k ( l - ,p),-'.
Esta suma
puede
calcularse fcilmente,pero envez de hacer esto,se emplear2 un mtodo
simple.
Nuevamente usaremos la representacin (deX que se present en el
ejemplo 7.13, a saber, X = Y1 Y2 +.
Y,. Observemos que las r, son
variables aleatoriasindependientes, puesto que el valor
d e Y , depende slo
del resultado dela i-sima repeticin, y se supone que las repeticiones
sucesivas son independientes. Por tanto, podernos aplicarla propiedad
7.10 y obtener

(i)

E(Y,)= l ( p )

+ O ( 1 - p) = p,

a +

E(y)2= 1 2 ( p ) + 02(1 - p) = p.

Por tanto,

V ( Y , ) = p - p 2 = p ( 1 - p ) para toda i. As, V ( X )= np(1 - p ) .


Obsemacidn: Consideremos V ( X ) = n p ( 1 - p ) lcomo una funcin d e p para
una n dada. Dibujemos una grfica como se muestra en la figura 7.7.
Resolviendo (d/dp)np(l - p ) = O encontramos que el valor mximo para V(X) ocu- V(W
rre cuandop = f. El valor mnimo d e V ( X )
ocurre desde luego los
en extremos del intervalo en p = O y p = 1. Esto es intuitivamente
comodebera ser. Recordandoque la varian*
za es una medida d e la variacin de la variaP
p= 1
1
ble aleatoria X definida como el nmerod e
veces queocurre el evento A en n repeticioFIGURA7.7

-1

182 Otras caractersticas de las variables aleatorias

7.7

nes, encontramos que esta variacin es nula


si p *= O o 1 (es decir, si A ocurre con probabilidad O o 1 ) y es mxima cuando
estamos tan inciertos como podemosacerca d e la ocurrencia o no ocurrencia
de A, es decir, cuando P ( A ) =

4.

EJEMPLO7.18. Supngaseque la variablealeatoria X e s d distribuida uniformemente en [a,b]. Como lo calculamos previamente,


E ( X ) = ( a b)/2.
Para calcular V ( X )hallemos el valord e ,!?(X2):

E(x) = J b
a

1
b-a

22-

dx =

b3 - a 3
3(b - U )

Por tanto,

V ( X )= E ( X 2 )- [ E ( X ) I 2=

( b - a)
12

despus de un cBlculo sencillo.


Obseruacwnes: a ) Este resultado es intuitivamente significativo. Indica que
la varianza d e X no depende de manera individual de a y b sino S610 d e
( b - a ) 2 , es decir, delcuadrado desudiferencia. Por tanto, dos
variables aleatorias
distribuidas, cada una uniformemente, en un intervalo (no necesariamente el
mismo) tendrBn iguales varianzas, mientras las longitudes d e los intervalos sean
iguales.
b ) Es bien conocido el hecho de que el momento d e inercia d e una barra
delgada d e masa M y longitud L respecto a un eje transversal q u e pasa por el
centro est dado porM L 2 / 1 2 .

7.7 Expresiones aproximadas para la esperanza y la varianza


Ya hemos observado que para evaluar
E ( Y ) o V ( Y ) donde
,
Y = H(X),
no necesitamos conocer la distribucin d e probabilidades d e Y , sino que
con la distribucin d e probabilidades de
podemos trabajar directamente
X . De modo semejante,si 2 = H ( A - , Y ) ,podemos calcularE ( 2 ) y V(2)
sin obtener primero la distribucin d e 2.
Si la funcin 11 es muy complicada, la evaluacin d e la esperanza
y varianza anteriores puede conducir a integraciones
(o sumas) que
sonmuy diliciles. De aqu que seanmuy tiles las aproximaciones
siguientes.

7.7

Expresiones aproximadas
para

la tlsperanza y la varianza

183

Teorema 7.6. Sea una variable aleatoria X con E ( X ) = p , y V ( X )=


02. Supongamos que Y = H ( x ) .Luego,
(7.1s)

V ( Y )N H ( p ) ] a 2 .

(7.19)
(Para hacer tiles las aproximaciones anteriores, necesitamos evidentemente que H sea a lo menos diferenciable dos veces para

x = p.)

Demostracidn (slo u n bosquejo): A fin d e establecer la ecuacin (7.18),


desarrollemos la funcin H en una serie deTaylor para x = p con dos
trminos. A s

donde R1 es un resto. Si descartamos el trmino resto R1, entonces,


tomando el valor esperado en ambos miembros, tenemos

puesto que E ( X - p ) = O. Para establecer la ecuacidn (7.19), desarrollemos H en una serie de Taylor para x = p con un trmino. Luego,
Y = H ( p ) ( X - p ) H ( p ) R2. Si desechamos el resto R2 y tomamos
la varianza en amboslados, tenemos

V ( Y )N [H(p)I2a 2 .
EJEMPLO7.19. En ciertas condiciones, la tensin superficial de un
lquido (en dinakm) estA dada por la frmuda S = 2(1 - 0.005T)1.2,
donde T es la temperatura del lquido (engrados centgrados).
Supongamos queT es una variable aleatoria continua
con l a siguiente
fdp,
f ( t ) = 3000t-*,
=O

t 2 10,

para cualquier otro valor.

184 Otras caractersticas de las variables aleatorias

7.7

Luego,

E ( T ) = / m 3000t-3 dt = 15 (grados centgrados).


10

Y
V ( T )= E ( T 2 )- (15)'
=

1;

3000tW2 dt -225 = 75 (grados centgrados)2 .

Para calcular E ( S )y V ( S )tenenlos que evaluar las integrales siguientes:


l r ( 1 - 0.005t)'."t-*

dt

En vez de evaluar esas expresiones, obtendremos aproximaciones para


E ( S ) y V ( S ) alusar las ecuaciones (7.18) y (7.19). Parausar esas
frmulas tenemos que calcular H'(15) y H"( 15), donde H ( t ) = 2(1 0.005t)1*2.Tenemos

H ' ( t ) = 2.4(1 - 0.005t)0.2(-0,005) = -0.012(1

- 0.005t)0.2.

Luego,
11(15) = 1.82, H'(15) = 0.01.
De modo semejante,
H " ( t ) = -0.0024(1 - 0.005t)-0'8(-0.005)

= 0.000012(1 - 0.005t)-0'8.

Por lo tanto,
II"(15) =

0.000012
= o+.
(0.925)0.8

7.7

Expresiones
aproximadas
para

la esperanza y la varknza

185

A s tenemos

E ( S ) N- H(15) + 7511"(15) = 1.82 (dinadcm),

V(S)

N_

75 [11"(15)]

= 0.87 (dinas/cm)*.

Si 2 es unafuncin d e dos variablesaleatorias,


establece un resultado anlogo.

2 = H ( X , Y ) , se

Teorema 7.7. Sea ( X ,Y ) una variable aleatoria bidimensional. Su2


pongamos que E ( X ) = p z , E ( Y ) = i ~
V(X
~
) = ;oz2 y V ( Y )= oy.
Sea 2 = H ( X , Y ) . [Supondremos que existen las diversas derivadas d e H para ( p L z , p y ) . ]Luego, si x' y Y son independientes,
tenemos

donde todas las derivadas parciales se evalan en

( p 2 ,p

y).

Dernastrucidn: La demostracin implica eldesarrollo d e W en una serie


de Taylor en el punto ( p z , p y )con uno y dos trminos, desechando el
resto, y luego tomando la esperanza y la varianza en ambos miembros
como se hizo en la demostracin del teorema7.6. Dejamos los detalles al
lector. (Si X y Y no son independientes, se puede derivar una f6rmula
ligeramente ms complicada.)
Obseruacidn: El resultado anterior puede extenderse a una fimcin d e n
variables aleatorias independientes, esto es Z = H(X1, . . . , ,Xn). Si E ( X ; ) =
,ui, V ( X ; )= u;, tenemos las siguientes aproximacbnes, suponiendo quetodas
las derivadas existan:

donde las derivadas parciales son evaluadas en el punto (p1,. . . , ,un).

186 caractersticas
Otras

7.8

variables
de las
aleatorias

EJEMPLO7.20. Sup6ngase que tenemos un circuito simple para el


cual el voltaje, M , se expresa por l a ley de Ohm como hl = I R , donde
I y R son la corriente y la rcsistcncia del circuito, respectivamente. Si I
y R son variables aleatorias independientes, entoncesM es una variable
aleatoria y, usando el teorema 7.7, podemos escribir

E [ h l ]N E ( I ) E ( R ) , V [ M ]21 [E(R)I2V ( I ) [ E ( I ) I 2V ( R ) .

7.8 Desigualdad de Chebyshev


Existe una desigualdad muy conocida del matemtico ruso Chebyshev

que desempea una funcin importante lo


enque resta de nuestra obra.
Adems, nos dar un medio para comprender con precisin como la
varianza mide la variabilidad respecto al valor esperado
de unavariable
alcatoria.
Si conocemos la distribucin de probabilidades de una variable aleatoria X (la fdp en el caso continuo o la probabilidad puntual en el caso
discrcto), podemos calcular E ( X ) y V ( X ) ,si existen. Sin embargo, lo
recproco no es verdadero. Esto es, conociendo E ( X ) y V ( X ) no podemos reconstruir la distribucin de probabilidades deX y, por tanto,
no podemos calcular cantidades talcs como P[IX - E(.Y)l 5 C]. Sin
embargo, resulta que aunque no podemos evaluartales probabilidades
[a partir de un conocimiento deE ( X ) y V(X)], es posiblc dar una cota
superior (o inferior) muy til para tales probabilidades. Este resultado
est contenido en lo que se conoce como la desigualdad de Chcbyshev.

Desigualdad de Chebyshev. Sea X una variablealeatoriacon


E ( X ) = p y sea c un nilmero real cualquiera. Entonces,si E ( S - c
finita y E es cualquier nmero positivo, tenemos

) es
~

(7.20)

Las formas siguientes, equivalentes a (7.20), son inmediatas:


u ) AI considerar el evento complementario obtenemos:

P [ \ X- CI

< e ] 2 1 - -E2E ( X

b ) Al elegir c = /I obtenemos

c)

(7.20a)

7.8

187

DesigualdaddeChebyshev

(7.20b)
c)

Al elegir c = p y E

= kc,donde a2 = Var X

> O, obtenemos

Esta ltima forma (7.21) indica especialmente cmola varianza mide


el grado de concentracin de
la probabilidad prxima a E ( X ) = p .

Demostmcidn (Demostraremos slo 7.20, puesto que las otras se deducen como se indic. Trataremos nicamente el caso continuo. En el
caso discreto, el argumento es muy parecido al de las integrales sustituidas por sumas. Sin embargo, hay que tener cuidado con los puntos
extremos d e los intervalos.):
Consideremos

P [ ] X - CI 2 E ] =

z:1z-c12&

,fW dx

(Los lmites d e la integral dicen que estamos integrando entre -.o y


c - E y entre c E y +.o.)
Ahora, \x! - c ( 2 E equivale a (x - c )2 /E 2 :>
1. Por tanto, la integral

anterior es

donde

n = {x :

12

- c( 2 E}.

Esta integral, a su vez, es

lo que es igual a
1

T E [ X - C ]2
E

como queramos demostrar.

188 caractersticas
Otras
variables
las
aleatorias
de

7.9

Observaciones: a ) Es importante darse cuentade queel resultado anterior es


notable debido a lo pocoque se presuponeacerca d e la conducta probabilstica
de ia variable aleatoria X.
b ) Como podramos sospechar, una informacin adicional respecto
a la distribucin de la variable aleatoria X nos permitir mejorar la desigualdad que
deducimos. Por ejemplo, si C = tenemos, d e la desigualdad d e Chebyshev,

2,

Supongamos que tambin sabemos que X e s d distribuida uniformemente en


(1 - I/&, 1 I/&). Por lo tanto, E ( X ) = 1, V ( X >= y as

= 1- P

[$ < X < $1

d3
= 1 - - = 0.134.
2

Ntese que aunque la afirmacin obtenida d e la desigualdad d e Chebyshev


es consistente con este resultado, la ltima es una relacin ms precisa. Sin
embargo, en muchos problemas ningunasuposicin referente a la distribucin
especfica d e la variable aleatoria est justificada,
y en tales casos, la desigualdad
d e Chebyshev puede darnos una informacin importante acerca del comportamiento d e la variable aleatoria.

Como lo observamos en la ecuacin (7.21),si V(X) es pequea, la mayor parte dela distribucin de probabilidades deX est concentrada
prxima a E ( X ) . Esto se puede expresarcon ms detalle en el teorema
siguiente.

Teorema 7.8. Supongamos que V ( X ) = O. Luego, P [ X = p ] = 1,


donde p = E ( X ) . (Informalmente, X = p, con probabilidad l.)

Demostracidn: De la ecuacin (7.20b) encontramos que

P [IX -

2 t] = O para cualquier

> O.

Luego,

[lx

- pI

< E ] = 1 para cualquier E > O.

Puesto que E puede elegirse arbitrariamente pequea, el teorema queda


demostrado.

7.9

correlacwn
El co,eficiente de

189

Obseruacwnas: a) Este teorema demuestra que la varianza cero implica que


toda la probabilidad esd concentrada en un solo punto, a saber E ( X ) .
b ) Si E ( X ) = O, entonces V ( X )= E ( x ~ y,) por tanto, en este caso, E ( x ~
=>
O implica la misma conclusi6n.
c) En el sentido anterior decimos que unavariable aleatoria X es degenerada:
toma s610 un valor con probabilidad l .

7.9 El coeficiente de correlacin


Hasta ahora nos hemos interesado en asociar parmetros como
E ( X )y
V ( X )con la distribucidnd e variables aleatorias unidimensionales. Estos

parAmetros miden, en el sentido antes


descritlo, ciertas caractersticasd e
la distribucidn. Si tenemos una variable aleatoria bidimensional
(X, Y ) ,
se encuentra un problema anlogo. Por supuesto, podemos presentar
nuevamente las variables aleatorias unidimensionales X y Y asociadas
con ( X ,Y ) . Sin embargo, surge la pregunta de si hay un pargmetro
de asociacidn entre
significativo que midade alguna manera el grado
X y Y . h a es una noci6n vaga que se precisarP mPs adelante. Demos
la siguiente definici6n formal.

Definicin. Sea ( X ,Y )una variable aleatoria bidimensional.


Definimos pxy, el coejcficzentede correlacidn entre X y Y , como sigue:
(7.22)
Observacwnes a) Suponemos que todas las espleranzas existen y que V ( X )
y V ( Y ) son distintas de cero. Cuando no hayduda decu5les variables aleatorias
esdn implicadas escribiremossimplemente p en vez de pxv.
6 ) El numerador de p, E { [ X E ( X ) ] [ Y- E ( Y ) ] } se
, llama covarianza de X
y Y , y algunas veces se denota con uxy.
C) El coeficiente de correlaci6n es una cantidad adimensional.
d ) Antes de que la definicin anterior pueda. ser significativa,debemos
establecer exactamente lo que mide p . <Sto lo haremos al considerar un
nmero de propiedades p .

Teorema 7.9.

190

Otras caractersticas de

7.9

las variables aleatorias

Demostracin: Consideremos

E { [ X - E ( S ) ][Y - E ( Y ) ] }= E [ X Y - X E ( Y ) - Y E ( X ) E ( X ) E ( Y ) ]
= E ( X Y ) - E ( X ) E ( Y )- E(E)E(X)

+E(X)E(Y)

= E ( X Y )- E ( X ) E ( Y ) .
Teorema 7.10. Si X y Y son independientes, entonces p = O.

Demostracin: Se deduce inmediatamentedel teorema 7.9, puesto que


E ( X Y )= E(X)E(Y)
si X

y Y son independientes.

Obseruacidn: El recproco del teorema 7.10 no es verdadero en general.


(Vase el Prob. 7.39.) Esto es, podemos tenerp = O, y aun as X y Y no necesitan ser independientes.Si p = O decimos qneX y Y son no correlacionados. As,
siendo no correlacionados e independientes no son, en general, equivalentes.
El ejemplo siguiente ilustra este punto.*
Sean X y Y variables aleatorias cualesquiera con la misma distribucin y
U=X-YyV=X+Y.Luego,E(U)=Oycov(U,V)=E[(X-Y)(X+Y)]=
E ( X 2 - Y*) = O. Entonces, U y V son no correlacionadas. Aun si X y Y son
independientes, U y V pueden ser dependientes, como lo indica la eleccin
siguiente d e X y Y . Sean X y Y los nmeros que aparecen respectivamente en
el primeroy segundo dados, cuando se han lanzado un
d e dados
par regulares.
Ahora,porejemplo, hallamos que P[V = 4 I U = 31 = O (puestoque si
X - Y = 3, X + Y no puede ser igual 4),
a mientras queP ( V = 4) = 3/36. As,
U y V son dependientes.

Teorema 7.11. -1
1 inclusive.)

5 1.

(Esto es, p toma los valores entre -1

*El ejemplod e esta Observacinest tomado de unanlisis del artculo titulado


Mutually Exclusive Events, Independence and Zero Correlation, porJ. D.
Gibbons, que sepublic en The American Statistician, 22, nm. 5, diciembre d e
1968, pgs. 31-32.

7.9

El coejiciente de correlacwn

19 1

FIGURA7.8

Demstrucibn: Consideremos la siguiente funcin dela variable real t :


q(t) =

E [V

-+ t T V 1 2 ,
+

donde V = X - E ( X ) y iV = Y - E(E'). Puesto que [V t l Y I 2 2 O,


tenemos que q ( t ) 2 O para toda t. Desarrollando obtenemos
q(t) =

E [V2 2tVW

+ t 2 TV 2] = E ( V 2 ) + 2 t E ( T f W )+ t 2 E ( W 2 ) .

A s , q ( t ) es una expresi6n cuadrAtica en t . En general, si una expresin

+ +

cuadrtica q ( t ) = at2 bt c tiene la propiedad de que q(t) 2 O para


toda t , significa que su grfica corta el eje I! en un solo punto o en
ninguno, como se indica en la figura 7.8. Esto, a su vez, indica que su
discriminante b2 - 4ac debe ser 5 O, puesto que b2 - 4ac > O significara
que q ( t ) tiene dos races reales distinta. Aplicando esta conclusidn a l a
funcin q ( t ) que consideramos anteriormente,, obtenemos
4 [E(VW)I2- 4 E ( V 2 ) E ( W 2 )5

o.

Esto implica que

y, por tanto,
{ E [X - E ( X ) ][Y - E ( Y ) ] } 2
:=
V(X)V(Y>

p2

5 1.

192

7.9

Otras caractersticas de las variables aleatorias

As, -1 5 p 5 1.
Teorema 7.12. Supongamos q u e p 2 = 1. Luego (conprobabilidad
1 en el sentido del teorema 7.S), Y = A X B , donde A y B son

constantes. En palabras, si el coeficiente d e correlacin p es fl,


entonces Y es una funcin lineal d e X (con probabilidad 1).

Demostracidn: Consideremos nucvamente la funcin q ( t ) descrita en la


demostracin del teorema 7.11.Es sencillo observar enla demostracin
d e ese teorema que si q(l) > O para todu t , entonces p2 < 1. Luego la
hiptesis del presente teorema, a saber, p2 = 1, implica que debe existir
al menos un valor de 1, digamos t o , tal que q ( t 0 ) = E(V
to^)^ = O.
Puesto que 1
toW = [ S - E ( X ) ] to[Y - E ( Y ) ] , tenemos que
E ( V + tow)= O y, por tanto, la varianza de (V tow) = E ( V
t o i V ) 2 . As encontramos que la hiptesis del teorema 7.12 conduce a
la conclusin de que la varianza d e (V tow) = O. Por tanto, del
teorema 7.8 podemos concluir que la variable aleatoria (V Col%) = O
(conprobabilidad 1). Portanto, [X - E ( X ) ] to[l - E(Z)] = O.
Keescribicndo, encontramos que Y = AX
B (con probabilidad l),
como se iba a demostrar.

Observaciones: El recproco del teorema 7.12 tmlbin se cumple como


demuestra en el teorcma 7.1 3.

se

Teorema 7.13. Supongamos que X y Y son dos variables aleatorias


para las cuales Y = AX
B , donde A y B son constantes.
Entonces, p 2 = 1. Si A > O, p = $1; si A < O, p = -1.

Demostracidn: Puesto que Y = AX


A E ( X ) B y V ( Y )= A2V(X).
Tambin

+ B,

tenemosque

E ( X Y ) = E [ X ( A X + B ) ]= A E ( X 2 ) B E ( X ) .
Luego,
2

P =
-

[ E ( X Y )- E ( X ) E ( Y ) ] 2
V(X)V(Y>

{ A E ( X 2 )+ B E ( X ) - E ( X ) [ A E ( X )
V (X ) A2V(X )

E(Y) =

7.9

El cotflciente de correlacwn

193

[ A E ( X 2 )+ B E ( X ) - A ( E ( X ) ) 2 - B E ( X ) ]
A2 (v(X>>2

- A2 E ( X 2 )- [ I T ( X ) ] ~ } ~
= 1.
A2 (V(X)I2
(La segunda afirmacin del teorema se dedulce al observar que fl=

IAIJ

Obsemacidn: Los teoremas 7.12 y 7.13 establecen las siguientes caractersticas


importantes delcoeficiente de correlacin: el coeficiente d e correlacin es una
medida delgrado de linealidad entre X y Y . Los valores d e p prximos a 1 o
-1 indican u n alto grado delinealidad, mientras que los valores d e p prximos
a O indican una ausenciode tal linealidad. Los valores positivos d e p muestran
que Y tiende a aumentar convalores crecientesde X, mientras que los valores
negativos d e p muestran que E tiende a disminuir convalores crecientes de X .
Existe una considerable confusin acerca
d e la interpretacin delcoeficiente d e
correlacin. Un valor de p cercano a cero slo indica la ausencia de unarelacin
lineal entre X y Y . No impide la posibilidad d e alguna relacin no lineal.

EJEMPLO7.2 1. Supongamos que la variable aleatoria bidimensional ( X ,Y ) est6 distribuida uniformemente en la regin triangular

R = {(.,y)

1 o < 2 < y < 1).

(Vase la Fig. 7.9.) Luego, la fdp est6 dada


como

f(2,Y)

= 2,

=O

(2,Y) E

R,

FIGURA7.9

para cualquier otro valor.

Entonces, las fdp marginales d e X y Y son


g(z) =
h(y) =

(2) d y = 2(1 - x),


(2) da: = 2y,

5 3: 5 1;

O <_ y <_ 1.

194 Otras caractersticas de las variables aleatorias

7.10

Por tanto,

E(X)=

J,'z2(1 - z )

P=

dz =

$,

E(>') =

J,'y2y dy = $;

E ( X Y ) - E ( X ) E ( Y )1
- 2
J\'(S)V(Y)

Tal como hemos indicado, el coeficiente d e corrclacibn cs una cantidad adimensional. Su valor no se afecta por un canhio de escala. Se
puede demostrarel siguiente teorema fcilmente. (Vaseel Prob. 7.41.)

Teorema 7.14. Si pxy es el coeficiente d e correlacibn cntre X y E', y


si V = A X + B y T.I/ = C Y + D, donde A , B,C y D son constantes,
entonces pvw = (AC/ (AC()pxy.(Suponemos que A # O, C # O . )
7.1O Esperanza condicional
Tal como definimos el valor esperado de una variable aleatoria S (en
trminos de su distribucin de probabilidades) como S-$," zf(.r) d r o
Cgl z;p(z;),as podemos definir la esperanza condicional de una variable aleatoria (entrminos d e su distribucin condicionald e probabilidades) como sigue.
Definicin. a) Si ( X , Y ) es una variablealeatoriabidimensional
continua, definimos l a esperanza condicional d e S para I' = y como

J-00

(7.23)

b ) Si ( X ,Y ) es una variable aleatoria bidimensional discreta, definimos la esperanza condicional d e X para Y = y j como

7.10

Esperanzacondicional

195

La esperanza Condicional d e Y para X se define anlogamente.


Observaciones: a ) La interpretacin de la esperanza Condicional es como sigue.
Puesto que g(r 1 y) representa la fdp Condicional de X para Y = y, E ( X 1 y) es
la esperanza de X condicionada al evento {Y = y}. Por ejemplo, si ( S , Y )
representa la resistencia a la tensi6n y la dureza de una muestra de acero,
entonces E ( X I y = 52.7) es la resistencia esperada a la tensi6n de una muestra
de acero elegida al azar del universo de muestras cuya dureza (medida en la
escala Rockwell) es 52.7.
b) Es importante darse cuenta de que en genelral E ( X 1 y) es una funcin
de y y, por lo tanto, es una variable aleatoria. De manera similar, E(Y I x) es
z y tambin es una variable aleatoria. [Estrictamentehablando,
una hnci6n de
E ( X I y) es el valor de la variable aleatoria E ( X I Y ) . ]
c) Puesto que E(Y 1 X ) y E ( X 1 Y ) son variables aleatorias tiene sentido
, ejemplo.
hablar de sus esperanzas. A s podemos considerar E [ E ( X I Y ) ] por
Es importante reconocer que la esperanza interna se toma respecto a la distribucidn Condicional de X , dado que Y es igual a y, mientras que la esperanza
exterior se toma respecto a la distribucin de probabilidades de Y .

Teorema 7.15.

Demstracidn: (caso continuo solamente): Por definicin,

donde f es la fdp conjunta d e ( X ,Y ) y


tanto,
E-[E(X I Y ) ]=
O0

1
O0

E ( X 1 y)h(y) dy =

h, es l a fdp marginal de Y . Por

J [/

-x f (27 Y) d r ] h ( y ) dy .
WY)

Si todas las esperanzas existen, es posible escribir la integral iterada


anterior con el orden deintegracin invertido.. As,

196 Otras
caractersticas

E [ E ( X I Y)]
=

de
Variables
las
aleatorias

/'"
"O3

[ly

f(x, y) dy] dx =

7.10

iT

x g ( x ) dx E ( X ) .

[Se puede usar un argumento semejante para establecer


la ecuacin
(7.26).] Este teorema es muy til como lo ilustra el siguiente ejemplo.

EJEMPLO7.22. Supngase quevarios cargamentos que traen diverso


nmero de repuestosllegan diariamente. Si N es el nmero de artculos en el cargamento, la distribucin d e probabilidades d e la variable
aleatoria N est dada como sigue:
n :

10

11

12

13

14

15

P(N = n) :

0.05

0.10

0.10

0.20

0.35

0.20

La probabilidad de que cualquier repuesto particular sea defectuoso


es
la misma para todos los repuestos y es igual a 0.10. Si X es el n(1mero
d e repuestos defectuosos que llegan cada da, cul es el valor esperado
d e X? Para N dada igual a n, X tiene una distribucin binomial. Puesto
que la misma N es una variable aleatoria, procedemos como sigue.
Tenemosque E ( X ) = E [ E ( X I N ) ] . Sin embargo, E ( X 1 N ) =
0.10 N , puesto que para unaN dada, X tiene una distribucin binomial.
Luego,
E ( X ) = E(O.1ON) = O.lOE(N)
= 0.10[10(0.05)

+ ll(O.10) + 12(0.10) + 13(0.20) + 14(0.35) + 15(0.20)]

= 1.33.

Teorema 7.16. Supngase que X y Y son variables aleatorias independientes. Entonces,


E(X

I Y)+ E ( X )

y E(Y I X ) = E ( Y )

Demostrucidn: Vase el problema 7.43.


EJEMPLO7.23. Supngase que el suministro d e potencia (en kilowatts) de una compaa hidroelctrica durante un periodo de tiempo
especfico es una variable aleatoria X, la que supondremos que tiene

7.1 1

promedio

del

197

Regresidn

una distribucin uniforme en [ 10, 301. La demanda de potencia (enkilowatts), digamos Y ,tambin es unavariable aleatoria que supondremos
que est3 distribuida uniformemente en [ 10, 201. (Luego, en promedio,
se suministra ms potencia que la que se pide, puesto que E ( X ) = 20,
mientras que E ( Y ) = 15.) Por cada kilowatt suministrado, la compaiia
obtiene u n a utilidad d e $0.03. Si l a demanda excede el suministro, la
compafia obtiene una potencia adicional de otra fuente y obtiene una
utilidad con esta potencia de $0.01 por kilowatt suministrado. ?Cul es
la utilidad esperada durante el tiempo especfico que se considera?
Sea T esta utilidad. Tenemos

T = 0.03Y
= 0.03X

si Y

<X,

+ O.Ol(Y - X)

si

> X.

Para evaluar E ( T ) escribmosla como E [ E ( T I S ) ] .Tenemos


0.03yh d y

E ( T I x) =

0 . 0 3 y h dy

+ s ~ o ( O . O l y+ O.O2x)&
si 20

< x < 30,

dy

si 10 < x

< 20,

& [0.015x2 - 1.5 + 2 + 0.42 - 0 . 0 0 5 ~-~0 . 0 2 ~ ~ 1


si 10 < x < 20,
{ & si 20 < x < 30,
0.05 + 0.042 - 0 . 0 0 1 ~ si
~ 10 .< x < 20,
0.45

Por tanto,
E [E(T1 X ) ]= &

si 20

lo
20

(0.05

< x < 30.

+ 0.041: - 0 . 0 0 1 ~ ~d~) +&

0.45 d x = $0.43.

7.11 Regresidn del promedio


Como sefialamos en la secci6n anterior, E ( X I y) es el valord e la variable
aleatoria E ( X I Y ) y es una funcidn de y. La grfica d e esta funcin
d e y se conoce como C Z L ~ V Ude regresidn (del promedio) de X sobre Y .
AnAlogamente, l a gr3fica de la funcin de 2 , E ( Y 1 x) se llama curva de
regresin (del promedio) d e Y sobre X . Para cada una de las y fijas,
E ( X I y) es el valor esperado de la variable aleatoria (unidimensional)

198 Otras
caractersticas

7.1 1

devariables
lasaleatorias

cuya distribucin d e probabilidades estA definida por la ecuacin (6.5)


o (6.7). (Vase la Fig. 7.10.) En general, el valor esperado depender
d e y. [Se pueden hacer interpretaciones anhlogas paraE ( Y I z).]

FIGURA
7.10
Y

x= 1

x= -1

FIGURA
7.11

EJEMPLO7.24. Supongamosque (X,Y ) est distribuidauniformemente en la sernicircunferencia indicada en la figura 7.1 l . Luego,
J ( z , y) = 2/7r, (x,y) E semicircunferencia. As,

Por tanto,

7.1 1

Regresidn delpromedio

199

Luego,

De modo semejante
r

+m

= o.
Puede suceder que una
o ambas curvasd e regresin sean en realidad
lneas rectas (Fig. 7.12). Es de&; E ( Y I x) pu.ede ser una funcin lineal
de x o E ( X I y) puede ser funcin lineald e y , o pueden suceder ambas
cosas. En este caso, decimos que la regresin del promedio deY sobre
X (por ejemplo) es lineal.
Y

FIGURA
7.12
EJEMPLO7.25. Supongamos que ( X ,Y ) est distribuida uniformemente en el tringulo indicado en la figura 7.13. Entonces f(x, y) = 1,
(x,y) E T . Las expresiones siguientes para las fdp marginal y condicional severifican con facilidad:

200 Otras caracteristicas de las variables aleatorias

7.1 I

As, ambas regresiones d e Y sobre S y de X sobre Y son lineales (Fig.


7.14).
Resulta que si l a regresin del promedio d e Y sobre X es lineal,
por ejemplo E ( Y 1 X) = ax + /3, podemosexpresarficilmcnte los
coeficientes Q y ,B en trminos de ciertos parimetros d c l a distribucibn
conjunta d e ( X , Y ) .Tencmos el tcorema siguiente.

/
y=2x

FIGURA7.13

FIGURA
7.14

Teorema 7.17. Sea (X)


Y ) unavariablealeatoriabidimensional
supongamos que
E ( S ) = }Lx,

E(1') = p y ,

V(X) = fTz2 y

V ( Y )= O 2y .

Sea p el coeficiente de correlacin entre X y Y . Si la regresi6n d e


Y sobre X es lineal, tenemos

E ( Y I x) = py

p.
CY

ox

Problemas

-pz).

20 1
(7.27)

Si la regresin d e X sobre Y es lineal, tenemos


(7.2s)

Demstracidn: La demostracin d e esteteorema se bosquejaenel

problema 7.44.

Observaciones: a ) Como se sugiri en la exposicin anterior, es posible que


una de l a s regresiones del promedio sea lineal mientras que la otra no lo sea.
b ) Ntese el importante papel que desempea el coeficiente de correlacin
en las expresiones anteriores. Si la regresin de X sobre Y , por ejemplo, es
lineal, y si p = O, entonces encontramos nuevamen.te que E ( X 1 y) no depende

de y. Ntese tambin que el signo algebraic0 de p determina el signo de la


pendiente de regresin.
c) Si ambas funciones de regresi6n son lineales, encontramos al resolver
las ecuaciones (7.27) y (7.28) simultneamente, que las rectas de regresin se
cortan en el centrode la distribucin, ( p 5 , ,uy).
Como lo hemos observado (enel caso del ejemplo7.23), las funciones
d e r e g r e s i h n onecesitan ser lineales. Sin embargo, an nos podra interesar tratar deaproximar la curva d e r e g r e s i hcon una funcin lineal.
Usualmente se hace recurriendo al principio de los mnimos cuadrudos, lo
que en el contexto presente es como sigue: se escogen
las constantes a y
b de modo queE [ E ( Y 1 X ) - ( a x b)I2 se minimice. De igual manera
se escogen las constantes c y d de modo queE [ E ( X I Y ) - (CY d)I2 se
minimice.
Las rectas y = ax b y x = cy + d se llamanofroximuciones mnimas cuadricas a las correspondientes curvas de regresinE ( Y 1 x) y E ( X 1 y),
respectivamente. El teorema siguiente relacionaesas rectas d e regresi6n
con las antes expuestas.

Teorema 7.18. Si y = ax b es la aproximacin mnima cuadrtica


a E ( Y I x) y si E ( Y 1 x) es en realidad una funcin lineal d e x, es
decir,

E(Y

1 .)a.

+ b.

202 Otras caractersticas de las variables aleatorias


entonces, a = a I y b = bI . Para la regresin de X sobre Y se
mantiene una proposicin anloga.

Dernostracidn: Vase el problema 7.45.

PROBLEMAS
7.1. Encontrar el valor esperado delas siguientes variables aleatorias.

La variable aleatoria X definida en el problema4. l .


b ) La variabIe aleatoria X definida en el problema 4.2.
c ) L a variable aleatoria T definida en el problema 4.6.
d ) La variable aleatoria X definida en el problema4.18.
a)

7.2. Demostrar que E ( X ) no existe parala variable aleatoria X definida en


el probpma4.25.
J

7.3. Lo siguienterepresenta la distribucin d e probabilidades d e D , la


demanda diaria de cierto producto.
Calcular E ( D ) .
d:

P ( D = d) :

1,2,3,4,5,

0.1,0.1,0.3,0.3,0.2.

7.4. En la fabricaci6n del petr6le0, la temperatura de destilacin, T (en


grados centgrados), es crucial para determinar la calidad del producto final.
Supongamos que T se considera como una variable aleatoria distribuida uniformemente en(150, 300).
Supongamos que producir un galn de petrleo cuesta C1 dlares. Si el
aceite se destila a una temperatura menor que 200" C, el producto seconoce
como nafta y se vende a C2 dlares por galn.Si se destila a una temperatura
mayor que 200" C, se conoce comoaceite destilado refinado y se vende enC,
dijlares por gal6n. Encontrar la utilidad neta esperada (por gal6n).
7.5. Cierta aleacin se forma al combinar la mezcla fundida de dosmetales.
La aleaci6n que resulta contiene cierto porcentajed e plomo, digamos X , que
puede considerarse como una variable aleatoria. Supongamos que X tienc la
siguiente fdp:

Suponer queP , la utilidad neta obtenida al vendcresta aleaciijn (por libra), es


la siguiente funcin del porcentaje del contenido d e plomo: p = C1 + C 2 X .
Calcular la utilidad esperada (por libra).

Problemas

203

7.6. Supngase que un instrumento electrnico tiene una duracin X (en


unidades d e 1000 horas)que se considera como una
variable aleatoria continua
con la siguiente fdp:

f(z)= e-z,

> O.

Suponer que costo


el
d e fabricacin d e tal artculo es
$2.00. El fabricante vende
el artculo por $5.00, pero garantiza u n reembolso total si X 5 0.9. CCu5l es la
utilidad esperada delfabricante por articulo?
7.7. Las 5 primeras repeticiones d e u n experimento cuestan $10.00 cada
una, y todas las subsiguientes tienen u n valor de $5.00 cada una. Suponer
que el experimento se repite hasta obtener el primer resultado exitoso. Si la
probabilidad de unresultado exitosoes siempre igual a0.9 y si las repeticiones
son independientes, {cul es el costo esperado d e la operaci6n completa?
7.8. Se sabeque unlote contiene 2 artculos defectuosos
y 8 no defectuosos.
Si estos artculos se inspeccionan al
azar, uno dlespus d e otro, ?cul es el
nmero esperado d e artculos que se deben escoger para inspeccin a fin d e
sacar todos los defectuosos?
7.9. Un lote de 10motores elctricos se debe rechazar totalmenteo vender,
segn el resultado del siguiente proceso: dos motores se escogen al azar sin
sustitucin y se inspeccionan. Si uno o ms son defectuosos, el lote se rechaza;
de otro modo
es aceptado. Suponer quecada uno delos motores cuesta $75y
se vende por $100; si el lote contiene 1 motor defectuoso, {cul es la utilidad
esperada del fabricante?
7.10. Suponiendo que D , la demanda diaria de un
artculo, es una variable
aleatoria con la siguiente distribucin d e probabilidades:

P ( D = d) = C 2 d / d ! , d = l.,2 , 3 , 4 .
Evaluar la constante C.
b ) Calcular la demanda esperada.
c) Suponer que un articulose vende por $5.00. Un fabricante produce
diariamente I< artculos. Cualquier artculo que no se venda al tkrmino del
da debe desecharse con una pkrdida d e $3.00. i) Encontrar la distribucin
d e probabilidades d e la utilidad diaria, como una fimcin d e K. ii) {Cuntos
artculos deberan fabricarse para maxinlizar la utilidad diaria esperada?
a)

7.11. a) Con N = 50, p = 0.3, efectuar algunos clculos para encontrar el


valor d e k que minimiza E ( X ) en el ejemplo 7.12
b ) Con los valores anteriores d e N y p y usando k = 5,10,25, determinar
para cada uno de
los valores d e k si es preferibleel examen del grupo.

204 Otras caractersticas de las variables aleatorias


7.1 2. Suponiendo queX y Y son variables aleatorias independientescon las
siguientes fdp:
f ( z ) = 8/z3, z

> 2;

g(y) = 2y,

o < y < 1.

Encontrar la fdp d e 2 = X Y .
b ) Obtener E(2)d e dos maneras: i) usando la fdp de Z como se obtuvo en
a ) ;ii) directamente, sin usar la fdp d e 2.
a)

7.13. Suponer queX tiene fdp


f(2)

= 8/23,

> 2.

Sea w = + X .
a) Calcular E ( W ) ,usando la fdp d e W .
b ) Calcular E ( W ) ,sin usar la fdp d e W .
7.14. Un dado regular se lanza 72 veces. Puesto que X es el nmero de
veces que apareceel seis, evaluar E ( x ~ ) .
7.15. Encontrar el valor esperado y la varianza d e la variable aleatoria Y y
Z del problema5.2.
7.16. Encontrar elvalor esperado y la varianza d e la variable aleatoria Y del
problema 5.3.
7.17. Encontrar el valor esperado y la varianza d e l a s variables aleatorias Y

y 2 del problema5.5.

7.18. Encontrar el valor esperado y la varianza d e las variables aleatorias Y ,

Z y W del problema5.6.

7.19. Encontrar el valor esperado y la varianza de las variables aleatorias V

y S del problema5.7.

7.20. Encontrar el valor esperado y la varianza d e la variable aleatoria Y del


problema 5.1O para cada unod e los tres casos.

7.21. Encontrar elvalor esperado y la varianza d e la variable aleatoria A del


problema 6.7.
7.22. Encontrar elvalor esperado y la varianza d e la variable aleatoria H del
problema 6.1 l.
7.23. Encontrar el valor esperado y la varianza d e la variable aleatoria W
del problema 6.13.
7.24. Suponer que X es una variable aleatoria para la cual E ( X ) = 10 y
V ( X ) = 25. Para quvalores positivos d e a y b tiene Y = a X - b esperanza O
y varianza ?

Problemas

2O 7

7.38. Suponer que la variable aleatoria bidimensional ( X ,Y ) tiene la fdp


dada por
f(z,y)

<z <y <1

= O para cualquier otro valor.


(Vase la Fig. 7.18.)Encontrar el coeficiente de carrelacin pZY.

7.39. El ejemplo siguienteilustra que p = O noimplica independencia.


Suponer que (X, Y ) tiene una distribucin conjunta de probabilidades dada
por la tabla 7 .l.

Demostrar que E ( X Y ) = E ( X ) E ( Y )y luego' p = O.


quC X y Y no son independientes.
c) Demostrar que este ejemplo se
puede generalizar como sigue. La eleccin
del nmero no es crucial. Lo importante es que todos los valores dentro de
un crculo son los mismos, todos los que esdn encuadrados son los mismos y
el valor del centro esigual a cero.
a)

b ) Indicar
por

TABLA
7.1

7.40. Sup6ngase que A y B son dos eventos asociados con un experimento


Sup6ngase que P ( A ) > O y P ( B ) > O. Definir las variables aleatorias X y Y
como sigue

E.

X = 1 si A ocurre y O en cualquier otro caso,


Y = 1 si B Ocurre y O en cualquier otro caso.

Demostrar que pZy = O implica que X y Y son ind'ependientes.


7.41.Demostrar el teorema 7.14.

7.42. Para la variable aleatoria( X ,Y )definida en el problema 6.14,calcular


E ( X 1 y), E(Y I z) yverificar que E ( X ) = E [ E ( X 1 Y ) ]y E ( Y ) = E [ E ( Y I X ) ] .
7.43. Demostrar el teorema 7.16.

208 Otras caractersticas de las variables aleatorias


7.44. Demostrar el teorema 7.17. [Zndicacidn: En el caso continuo, multiplicar la ecuacinE(Y I x) = Ax+ B por g(x), la fdp de X, e integrar de -m a co.
Hacer lo mismo usando x g ( z ) y luego resolver las dos ecuaciones resultantes
para A y para B.]
7.45. Demostrar el teorema 7.18.
7.46. SiX, Y y 2 son variables aleatorias
no correlacionadas con desviaciones
esthdar 5, 12 y 9, respectivamente, y si U = X + Y y V = Y + 2,evaluar el
coeficiente de correlacin entre U y V .
7.47. Sup6ngase que ambascurvas de regresi6n de lospromediosson
3
realmente lineales.Especficamente, suponerque E(Y I x) = -?x
- 2 y

E ( X I y) = g y - 3 .
a)

Determinar el coeficientede correlaci6n p.

6) Determinar E ( X ) y E ( Y ) .

7.48. Considrese el pron6stico del tiempo con dos alternativas: lluvia

o no lluvia en las prximas 24 horas. Suponicndo que p = Prob(l1uvia en


las pr6ximas 24 horas) > f. El pronosticador anota 1 punto si acierta y O si
no. Al hacer n pronsticos, un pronosticador sin destreza elige al azar r das
cualesquiera (O 5 r 5 n ) para decir llueve y los n - P das restantes para

decir no llueve. Su puntaje total anotado es S,. Calcular E ( & ) y Var(S,) y


encontrar el valorde r para el cualE ( & ) es el mayor. [Indicacidn: Sea X; = 1 o
O dependiendo si el i-simo pron6stico es correcto
o no. Luego, S , = Cy=lX;.
Ntese que las X; no son independientes.]

8.1 La distribucin de Poisson


Tal como enlos modelos deterministas, en los cuales ciertas relaciones
funcionalcs desempean un papel importante(tales como lineales, cuadrticas, exponenciales, trigonomtricas, etc..), a l elaborar modelos no
deterministas para fenmenos observables, tambin encontramos que
ciertas distribuciones d e probabilidades apal-ecen m,is a menudo que
otras. Una razn d e esto es que, como en e l caso deterrninista, algunos modelos matemticos relativamente simples parecen ser
capaces d e
describir un gran nmero de fenmenos.
En este captulo expondremos con mucho detalle diversas variables
el captulosiguienteharemoslomismocon
aleatoriasdiscretas.En
variables aleatorias continuas.
Presentemos formalmente la siguiente variable aleatoria. Ms adelante indicaremos en qu condiciones esta variable aleatoria podra representar al resultadode un experimento aleatorio.
Definicin. Sea X unavariablealeatoriaquetoma
posibles: O, 1,.. . , n, . . . Si

los valores

2 10

La variable aleatoria de Poisson y otras variables aleatorias discretas 8.1

decirnos que
(Y

> o.

X tiene una distribucibn de Poisson con parmetro

Para verificar que la anterior representa una legtima distribucin


de
probabilidades,
simplemente
observemos
que
P(X = k ) =
z E o ( e - C Y a k / k=
! )e-CY e a = I.

Obseruacwn: Puesto que estamos definiendo en forma directa


la variable
aleatoria en trminos de su recorrido y distribucin de probabilidades, sin
referenciaaningilnespaciomuestraloriginal
S, podemos suponer que el
espaciomuestral S se ha identificadocon R, y que X ( s ) = s. Es decir,
los resultados del experimento son simplemente los nmeros O , 1 , 2 , . . . y las
probabilidades asociadas con cada uno de esos resultados estn dadas por la
ecuacin (8.1).

Teorema 8.1. Si X tiene una distribucin de Poisson con parmetro


a, entonces E ( X ) = a y V(z) = a.
00

Demostrucin:
Haciendo

E ( X )=

k=O

ke-aak

k!

e -CY a k

00

- k=l

(k

l)!.

= k - 1, encontramos que se convicrte en

E ( X )=

00

-CY

3=0

s+l

= a.

S!

De modo semejante,

Haciendo nuevamente S = k - 1, obtenemos

E ( 2 )=

00

s=o

+ 1)

,--CaY

S S 1

S!

e-"aS

00

=acsT+ac"s!=Q.
s=o

s=o

+a

8.2

Ladistribucin

dePoisson

como unalaproximacwna

la . . .

2 11

[puesto quela primera suma representaE ( X ) ,mientras quela segunda


suma es iguala uno]. Luego,

V(X) = E ( X 2 )- ( E ( X ) y = (Y2 4-(Y

- (Y2

= (Y.

Observacwn: N6tese la interesante propiedad que posee la variabie aleatoria


de Poisson: su esperanza es igual a su varianw.
8.2 La distribucinde Poisson como una
aproximacin a la distribucin binomial

La distribucin d e Poisson desempea un papel importante por derecho


propio como modeloprobabilistic0 apropiado para un gran nmero de
fenmenos aleatorios. Este punto se expondr-5 en l a seccin siguiente.
Aqu nos interesa la importancia d e esta distribucin para aproximarse
a las probabilidades binomiales.

EJEMPLO8.1. Supngase que las llamadas telefnicas llegan a una


gran central telefnica y que en un periodoe:special d e tres horas (IS0
minutos) se ha recibido un total d e 270 llamadas, o sea, 1.5 llamadas
por minuto. Supngase que, con base la evidencia anterior, queremos
calcular la probabilidad de recibir O, 1, 2, etc. llamadas durante
los
pr6ximos tres minutos.
Al considerar los fenmenos d e llamadas recibidas, podramos concluir que encualquier instante es tan probable que ocurra una llamada
telefnica como en cualquier otro momento. Es decir, la probabilidad
permanece constante de punto de tiempo a punto de tiempo. La
dificultad es que aun en un intervalo de
tiemlpo muy corto, el nilmero
de puntos no slo es infinito sino que no puede ser enumerado. Esto
nos lleva a una serie de aproximaciones que describiremos ahora.
Para empezar, podramos considerar la subdivisin del intervalo d e
tres minutos en nueve subintervalos de20 segundos cada uno. Podramos considerar entonces cada uno d e esos nueve intervalos como un
ensayo d e Bernoulli durante el cual observamos una llamada (xito)
o ningunallamada(fracaso)conP(xito)
= (1.5)20/60 = 0.5. As
podramosinclinarnos a decir que la probabilidad de dos llamadas
durante el intervalo d e tres minutos (es decir, 2 Cxitos en 9 ensayos con
P(Cxito) = O, 5) es igual a
= 9/128.
La dificultad con esta aproximacin es que ignoramos la posibilidad
ensayos
de, digamos, doso tres, etc., llamadas durante uno de nuestros

( i)(l/qg

2 12 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.2


con periodos de 20 segundos. Si se considera esta posibilidad, el uso
anterior de la distribucin binomial no sera legtimo, ya que esa distribucin es aplicable slo cuando existe una dicotoma, una llamada o
ninguna llamada.
Para evitar esta dificultad hacemos la aproximacin siguiente y, d e
hecho, nos lleva a una sucesin completa de aproximaciones. Una manera de estar ms o menos seguro de que al menos se recibe una llamada en la central durante un intervalo de tiempo pequefio,
es hacer que ese intervalo sea muy corto. As, en vez de considerar nueve intervalos d e 20 segundos de duracin, consideremos los 18 intervalos siguientes, cada uno de 10 segundos de duracin. Podemos representar ahora nuestro experimento como 18
ensayos d e Bernoulli
con P(xito) = P(recibirunallamadaduranteunsubintervalo)
=
(1.5)10/60 = 0.25. Por tanto, P(dos llamadas durante el intervalo d e
tres minutos) = (1;)(0.25)2(0.75)16. Ntese que aunque ahora tratamos una distribucin binomial diferente a la d e antes (es decir, que tiene parmetros n = 18, p = 0.25, en vez d e n = 9, p = 0.5), el valor n,p
esperudo es el mismo, a saber, n p = H(0.25) = g(0.5) = 4.5.
Si continuamos de esta manera, aumentando el nmero de subintervalos (es decir, n ) , disminuiremos al mismo tiempo la probabilidad
d e recibir una llamada (es decir, p ) d e tal manera que n p permanece
constante.
As, el ejemplo precedente nos conduce a formular la pregunta siguiente: ?qu sucede a las probabilidades binomiales (:) pk( l - p ) n - k
si n + 00 y p -+ O, de tal manera que n p permanezca constante, es decir,
n p = CY?
Los clculos siguientes dan la respuesta a este importante cuestionamiento.
Consideremos la expresin general para la probabilidad binomial,

n ( n - l ) ( n - 2 ) - ( n - IC
b!

+ 1)p k (1 -

Sea n p = (Y. Por tanto, p = a / n , y 1 - p = 1 - o / n .= ( n - cr)/n.


Sustituyendo todos los terminos que contienen p por sus expresiones
obtenemos
equivalentes en funcin de (Y,

8.2

2 13

La distribucin de Poisson como una ,aproximacwna la . . .

P(X = k ) =

n(n - 1 ) . . . ( n - IC
k!
k

= 'y
IC! [(I) ( 1 k

=5
b! [ ( I ) ( 1 -

);
);

+ 1 ) ($

);
(1 - )
;
(1 -

* * *

(I, -

")I
-)I

[1-

z]

n-k

(11 - k - 1

x (l-;)n(l-;)-k.
Ahora sea n + 00 d e tal manera que n.p = a permanezca constante.
Esto obviamente significa que p + O cuando n + 00, porquede
otra manera n p nopodrapermanecerconstante.(Deigualforma,
podramos necesitar que n + 00 y p -+ O de tal manera que n p -+ 0.)
En la expresin anterior, los trminos de la forma ( 1 - l / n ) , (1 2 / n ) ,. . . tienden a uno cuando n tiende a infinito, como lo hace (1 ~ / n ) -Es
~ bien
.
sabido (dela definicin delndlmero e ) que (1 - a / n ) n -+
e--(y cuando n -+ OO.
A s , lmn+m P ( X = IC) = e - a a k / k ! Es decir, en el lmite obtenemos
la distribucin de Poisson con parmetro a. Este importante resultado
se resume en el siguiente teorema.

Teorema 8.2. Sea X una variable aleatoria distribuida binomialmente con parmetro p (con base en n repeticiones del experimento).
Esto es,
P ( X = IC) =

(;)

P k ( l - P)n-k.

Supngase que cuandon -+ 00, n p = a (constante), o equivalentemente, cuando n -+ 00, p + O tal que n p .+ a. En estas condiciones
tenemos
e "(y CY k

lm P ( X = IC) = -n+cc
IC!

la distribucin d e Poisson con parmetro

'

a.

Obseruaciones: a) El teorema anterior esencialmente dice que podemos aproximar l a probabilidades binomiales con las probabilidades d e la distribucin
d e Poisson siempre quen sea grande y p pequea.

2 14

La variable aleatoria dePoisson y otras variables aleatorias discretas 8.2

6) Ya hemos verificado que si S tiene una distribucin binomial, E ( X ) =

n p , mientras que si X tiene una distribucin de Poisson (con parmetro a),

E ( X ) = N.
c) L a distribucin binomial se caracteriza por dos parfimetros, n y p , mientras que la distribucin de Poisson se caracteriza por unsolo parhnetro, N = np,
qne representa al nmero esperadod e xitos por unidad de tiempo
(o por unidad (le espacio en alg'in ot.ro caso). Este parmetro tambin se designa como
irzrensidad de la distribucin. Es importante distinguir entreel nmero esperad o d eocurrencias por unidad d e tiempo y el nmero esperado de ocurrencias
e n el tiempo especificado. As, en el ejemplo 8.1, la intensidad es 1.5 llamadas
por minuto y, por lo tanto, el nmero esperado de llamadas en un periodo
de
10 minutos, por ejemplo,sera 15.
d ) TambiCn podemos considerar el siguiente argumento para evaluar
la varianza de una variable aleatoria S d e Poisson con parmetro a: A' se puede
considerar como u n caso lmite de una variable aleatoria Y distribuida binomialmente con parhnetro n y p , donde n -+ 00 y p -+ O d e tal manera que
n p -+ N . Puesto que E ( Y ) = np y Var(Y) = TIP(1 - p ) , observemos que en el
lmite Var(Y)
CY.
"+

Se dispone de extensastablas para la distribucin de Poisson. (E. C.


Molina, Poisson's Exponential Binonaid Limit, D. Van Nostrand Company,
Inc., Nueva I'ork, 1942). Una breve tabulacin d e esta distribucin se
da en el Apndice.
Consideremos otros tres ejemplos adicionales que ilustranlas aplicaciones de la distribucin d e Poisson mencionadas previamente.

EJEMPLO8.2. En una concurrida interseccin de trfico la probabilidad p de que un


automvil tenga un accidente es muy
escasa, digamos
p = 0.0001. Sin embargo, durante cierta parte del da, entre las 4 P M y
las 6 PM un gran nmero deautomviles pasa por la interseccin, digamos 1000. En dichas condiciones, cul es la probabilidad de que doso
m i s accidentes ocurran durante ese periodo?
Formulemos algunas hiptesis. Supongamos, cn primer lugar, que el
valor anterior d e p es el mismo para cada uno de los automviles. En
segundo lugar, supongamos quesi un automvil tieneo no un accidente,
no depende de lo que lesuceda a cualquierotroautomvil.(Esta
suposicin, obviamente, no es realista; no obstante l a formularemos.)
A s podemos suponer quesi X es el nmero de accidentes entre
los 1000
automviles que llegan, entonces S tiene una distribucin binomialcon
p = 0.0001. (Otra hiptesis, no indicada de manera explcita, es que n,
el nmero de automviles que pasa por la interseccin entre las 4 P M y

8.2

La distribucin de Poisson como una 'aproximacwnala

. . . 2 15

las 6 PM est predeterminada en 1000. Desde luego, un planteamiento


ms realista sera considerar n misma como una variable aleatoriacuyo
valor depende de un mecanismo aleatorio. Sin embargo, no haremos
esto aqu,slo consideraremos n como fija.) Por tanto, podemos obtener
el valor exact de la probabilidad deseada:

P(X

2 2) = 1 - P ( X = O)

P ( X = 1)

= 1 - (0.9999)1000 - 1000(0.0001)(0.9999)ggg.

La evaluacin de los valores anteriores da origen a una dificultad


n es grande y p e s pequea, aplicamos el
considerable. Puesto que
teorema 8.2 y obtenemos la aproximacin siguiente:

Por tanto,

P(X

2 2) E 1 - e -0.1 (1 + 0.1) = 0.0045.

EJEMPLO8.3. Supngase que un proceslo de fabricacin produce


artculos d e tal manera que cierta proporcin (constante) d e artculos,
digamos p , son defectuosos. Si se obtiene un lote n de tales artculos,
la probabilidad de obtener exactamentek dekctuosos puede calcularse
de la distribucin binomial como P ( X = k ) =: ( i )
p k ( 1 - p ) n - k , donde
X es el nmero dedefectuosos en el lote.Si n es grande y p es pequea
(como sucede a menudo), debemos aproximarla probabilidad anterior
Por

P(X = k)

e-np(np)k

IC!

-.

Supngase, por ejemplo, que un fabricante produce artculos de los


p = 0.001.
cuales alrededor de 1 en 1000 sondefectuo'sos.Estoes,
Por tanto, usando l a distribucin binomial, encontramos que en un lote de 500 artculos la probabilidad de que ninguno sea defectuoso es
(0.999)500 = 0.609. Si aplicamos la aproximacin d e Poisson, esta probabilidad puede escribirsecomo
= 0.61. La probabilidaddeende acuerdocon la aproximacin
contrar 2 o ms artculos defectuosos es,
de Poisson, 1 - e-0.5(l 0.5) = 0.085.

2 16 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.2


EJEMPLO8.4. [Sugerido por un anlisis en Clculo de probabilidades
d c A. Renyi(en alemn), VEB Deutscher Verlag der Wissenschaft,
Berln, 19621.
En la fabricacin de botellas d e vidrio, se encuentran partculas duras
y pequeas en el vidrio fundidoa partir delcual se hacen las botellas. Si
aparece una sola partcula en una botella, Csta no puede usarse y debe
desecharse. Se supone que las partculas estn esparcidas a l azar en el
vidrio fundido. Supondremos que el vidrio fundido se produce de tal
manera que el nmero de partculas es (en promedio) el mismo para
una cantidad constante d e vidrio fundido. Supngase en particular que
en 100 kilos d e vidrio fundido se encuentran x de tales partculas y que
es necesario 1 kilo d e vidrio fundido para hacer una de estasbotellas.
Pregunta: ?Qu porccntaje debotellas tendr que descartarse debido
a que son defectuosas? A primera vista la solucin d e este problema
podra ser como sigue. Puesto que
el material para 100 botellas contiene
x partculas, aproximadamente el x% de las botellas deber desecharse.
Una pcqueia reflexicin indicar& sin embargo, que la solucin anterior
no es correcta, ya que una botella defcctuosa puede tener ms d e 1
partcula, bajando as cl porcentaje debotellas dcfcctuosas obtenidas del
material que sobra.
A fin de obtener unasolucin correcta, hagamos las siguientes suposiciones simplificadoras: a ) cada una d e las partculas puede aparecer
en el material de cada una de las botellas con igual probabilidad y b) la
distribucin d e cualquicr partcula es independiente de cualquier otra
partcula. Con estas suposiciones, podenlos reducir nuestro problema
a l siguiente modelo de urna. EntreN urnas, se distribuyen al azar n
esferas. (CuAl es la probabilidad de que en una urna elegida a l azar se
encuentren exactamente X: esferas? (Las urnas corresponden desde luego a las botellas, mientras que las esferas corresponden a las partculas.)
Siendo 2 el nmero de esfcras encontradas en una urna escogida
aleatoriamente, se deduce, dela hiptesis anterior, que 2 est distribuid a binolnialmente con parmetro 1/N. Por lo tanto,

P ( Z = X:)=

(;) (;y

(1

+)a

Supngase ahora que el vidrio fundido se prepara en cantidades muy


grandes. De hecho supongamos quese prepara en unidades de100 Kg,
y que se han suministrado M d e tales unidades. Luego, N = l O O M y

8.2

La distribucidn dePoisson como unaaproximacidna

la . . .

2 17

n = x M . Sea Q = z/100, lo que iguala la proporcin de partculas por


botella. As, N = n / a y la probabilidad anterior puede escribirse como

P ( Z = IC) =

(;) ( q (1 - E)"-"

As, cuando el proceso de produccin contina (esto es, A4


tanto n + m),obtenemos.
P ( Z = IC)

"(y

donde

b!

(Y

"+

y por

-.X

100

Calculemos la probabilidad de que deba desecharse una botella.


h a es
igual a 1 - P ( Z = O). Luego,P(botel1a defectuosa) N 1 Si
el nmero de botellas producidas es muy grande, podemos identificar
la probabilidad de una botella defectuosa con l a frecuencia relativa d e
botellas defectuosas. Por tanto, el porcentaje d e botellas defectuosas es
Si desarrollamos l O O ( 1 - e -x/lOO )
aproximadamente l O O ( 1 - e
en una serie deMaclaurin, obtenemos

[ (

100 1 -

100

2(

=x--

3!(100)3
X

2( 100)

+ .. .)]
X

6(100)2 -

* * *

A s , si x es pequeria, la proporcin de botellas desechadas es aproximadamente x, como se sugiri primero. Sin embargo, para una x
grande esto ya no es vlido. En caso que x = 100, el porcentaje de botellas desechadas no es 100, sino que lOO(1 - e"') = 63.21%. ste, es por
supuesto, un caso extremo y no se encontraria en un proceso controlado razonablemente. Supongamos quez = 30 (un nmeroms realista).
Por tanto, envez d e desechar el 30% de nuevo nuestra solucininicial),
= 25.92%. Podramosobservar que si
desecharamos slo l O O ( 1 x es razonablemente grande,es ms econmico producirbotellas de menor tamao. Por ejemplo,si necesitamos slo 0.25 kg de vidrio fundido
por botella en vez de 1 kg, y si x = 30, entonces el porcentaje descartado
se reduce de 25.92% a 7.22%.

218 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.3


8.3 El proceso de Poisson

En la secci6n anterior se us6 la distribucin d e Poisson como un medio


para aproximar una distribucin conocida, a saber, binomial. Sin embargo, a
l distribucin d e Poisson desempea un papelm u y importante
por derecho propio, puesto que representa un modelo probabilstico
adecuado para un gran nmero de fenmenos observables.
Aunque no vamos a dar una deduccin completamente rigurosa de
algunos resultados que vamos a exponer, el planteamiento general es
d e tal importancia que deber tomarse en cuenta para comprenderlos,
aun cuando no podamos
justificar cada uno delos pasos.
Para referirnos a un ejenlplo especfico mientras concluinlos los dctalles maternfticos, consideremos una fuented e material radiactivo que
emite partculas CY.
Sea definidaXt como el nilmero departculas emiridas durante un periodo de tiempo
especfico [O, t ] . Vamos a hacer algunas hiptesis acercad e la variable aleatoria (discreta)S t que nos pernlitirn determinarla distribucin d e probabilidades d e X t . La posibilidad
d e estas hiptesis (recordando lo que A7t representa) se justifica por el
hecho de que la evidencia emprica sostiene una cantidad considerable
d e resultados tericos que vamos a derivar.
Puede ser iltil sealar que en la deduccin d e cualquier resultado
matemtico debemos aceptar algunos postuladoso axiomas fundamenobservables,
tales. E n la bsqueda de axiomas para describir fenmenos
algunos axiomas pueden ser ms apropiados(y menos arbitrarios) que
otros. Por ejemplo, al describir el movimiento de un objeto impulsado
hacia arriba con cierta velocidad inicial, podramos suponer que la distancia sobreel suelo, llammosla S, es una funcin cuadrtica del tiempo
t ; es decir,s = at +bt + c . h t a sera dificilmente una hiptesis intuitiva,
d e acuerdo con nuestra experiencia. En su lugar, podramos suponer
que la aceleracin es una constante y luego d e esto deducir qllc S debe
ser una funcin cuadrtica de t . Lo importante es por supuesto que si
debemos suponer algo con
el propsito de elaborar nuestro modelo matemtico, preferiramos suponer lo que esapropiado, envez de lo que
no lo es.
El mismo objetivo nos gua a elaborar un modelo probabilistico para
la emisin d e partculas a de una fuente
radiactiva. La variable aleatoria
X t antes definida puede tomarlos valores O, 1 , 2 , . . . Sea P n ( t ) = P [ X t =
n ] , n = 0 , 1 , 2,...
Vamos a enunciar ahora las cinco hifitesis siguientes.

El proceso de Poisson

8.3

219

A l : El nmero de partculas emitidas durante intervalos d e tiempo


no sobrepuestos son variables aleatorias independientes.
Aa: Si X t se define como antes y si Yt es igual al nmero de partculas
emitidas durante [ t l ,t l + t ] ,para cualquier t l > O, las variables
aleatorias X t y E< tienen la misma distribucin de probabilidndes. (En otras palabras, la distribwidn del nmero departculas
slo de la longitud
emitidas durante cualquier intervalo depende
del intervalo y no d e los puntos extremos.)
A3: p l ( A t ) es igual aproximadamente a X A t , si At es suficientemente pequea, donde X es una constante positiva. Esto lo escribimos como P l ( A t ) Ant. En toda estu seccin u ( A t ) b ( A t )
significa que a ( A t ) / b ( A t ) -+ 1, cuando At
O. Tambin supondremos que At > O. (Esta hiptesis expresa que si el intervalo es suficientemente pequeo,l a probabilidad d e obtener
exactamente unaemisin durante ese intervaloes directamente
proporcional a la longitud del intervalo.)
A4: CP&pk(At)
O. (Esto implica que p k ( A t ) -+ O, k 2 2.). Esto
significa que la probabilidad de obtenerdos o ms emisiones en
un intervalo suficientemente pequeoes despreciable.
As: Ao = O, o de manera equivalente flo(0) = 1. Estoequivale a
una condicin inicial para el modelo que estamos describiendo.
N

-+

Como lo demostraremos en breve, las cinco hiptesis anteriores harn posible que deduzcamos una expresin para p,(t) = P [ X t = n].
Saquemos ahora algunasconclusiones d e diclhas hiptesis.
Las hiptesis Al y A2 juntas implican que la variable aleatoria X t y
[Xt+tnt- X t ] son variables aleatorias independlientes con
la misma distri bucin d e probabilidades. (Vase Fig. 8.1.)
a)

O
I

,
I

l+At

FIGURA8.1
b ) De las hiptesis A3 y A4 podemos concluir quc

c)

Podernos escribir

220 La variable aleatoria de Poissort y otras variables aleatorias discretas

= PO(t)PO(At).
N

po(f) [I - AAt].

8.3

[Vase la conclusin u ) . ]

[Vase Ec.
la

(8.2).]

d ) Entonces tenemos

I-Iaciendo At
O, y observando que el lado izquierdo representa
el cociente de l a diferencia de la fLncin PO y, por tanto, tiende a p b ( t )
(ms precisamente, a la derivada por la derecha, puesto que At > O),
tenemos.
--f

&(t) = -X~o(t)

o, equivalentemente,

Pb ( t ) =
-

PO (2)

-,A.

Integrando ambos miembros respecto


a t , obtenemos In p o ( t ) = -Xt+C,
donde C es una constante d e integracin. De la hiptesis A , encontramos, al hacer t = O, que C = O. Luego,

e ) Considerando p l l ( t

+ At) = P [ X i + n t = n ] .

Ahora X,+Ai = n si y slo si X 1 = X ? J [ X ~ +-A X~ t ] = n


= O, 1 , 2 , . . . , n. Utilizando las suposiciones A , y A2, tenemos

T,

8.3

El proceso de Poisson

22 1

Luego

Nuevamentehaciendo At --+ O, y observandootra vez que el lado


izquierdo representael cociente diferenciald e la funcin p , , obtenemos

h a representa un sistema infinito d e ecuaciones lineales diferenciales


d e diferencias. El lector interesado puede verificar que si definimos
la funcin q n por la relacin q , & ( t ) = e X t p r L ( t )el
, sistema anterior se
transforma en qh(1) = Xq,-l(t),
n = 1,2,. . Puesto que p o ( t > = e-Xt,
encontramos queqO(t) = 1. [Ntese t a m b i h que q n ( 0 ) = O para n > O.]
A s obtenemos, recursivamente,
,I

En general, & ( t ) = Aq,-l(t) y, por tanto, q n ( t ) = (Xt)n/n!Al recordar


la definicin d e q,, finalmente obtenemos

Hemos demostrado as que


el nmero departculas emitidas durante
radiactiva, conlas suposiciones
el intervalo de tiempo[O, t) de una fuente
hechas anteriormente, es una variable
aleatolria con una distribucind e
Poisson con parametros (A t).
Obsemacwnes: a) Es importante darse cuenta
de quela distribucin d e Poisson
apareci como una consecuencia de ciertas suposilcioncs que hicimos. Esto significa que cada vez que dichas suposiciones sean vlidas (o al menos lo sean
aproximadamente) la distribucin d e Poisson debe usarse como un modelo

222 La variable aleatoria de Poisson y otras variables aleatorias discretas

8.3

apropiado. Resulta que hay nna gran cantidad de fenmenos para los cuales
es adecuadoel modelo de Poisson.
i ) Representemos por X't el nmero de llamadas telefnicas que llegan
a una central telefnica durante un periodo de tiempo de longitud t . Las
suposiciones anteriores se satisfacen aproximadamente, enespecial durante

el "periodo congestionado" del da. Luego,


X't ticne una distribucin de
Poisson.
ii) Representemos porX't el nmero deelectrones que salen del cfitodo de
un tubo al vaco. Nuevamente las suposiciones son apropiadas y, por tanto,
X t tiene una distribucin de Poisson.

zii) El ejemplo siguiente (de astronoma)indica que el razonamiento anterior se puede aplicar no slo al nmero deocurrencias de unevento durante u n periodo d e tiempo fijo, sino tambin al nmero deocurrencias de
un evento dentro delos lnlites fijados de unrea o u n volu.me?z. Supcingase
que un astrnomo investiga una parte de la Va Lctea y supngase que
en la parte considerada la densidad de estrellas, llammosla X, es constante
(Esto significa que en unvolumen de V (unidades cbicas), se encontraran,
en promedio, AV estrellas.) Sea X, igual al nmero de estrellas encontradas en una parte dela Va Ljctea que tiene un volumen V . Si se satisfacen
las suposiciones anteriores (sustituyendo "volumen" por "tiempo", entonces
P [ X , = n] = (AV) n e - A " / n ! (Las suposiciones, interpretadas en este ejemplo, estableceran esencialmenteque el nmero deestrellas que aparecen en
partes no sobrepuestas del firmamento representavariables aleatorias intlependientes yquela probabilidad d e que aparezca n& de unaestrclla en una
porcin pequea del cielo es cero.)
iv) Se nos ocurre otra aplicacin en el campo biolgico, si hacemos que
X A sea el nmero de clulas sanguneas visibles en el microscopio, donde
el rea de la superficie visible en el microscopio es dada por A unidades
cuadradas.
b ) L a constante X apareci originalmente como una constante de proporcionalidad en la hiptesis A3. Vale la pena mencionar las siguientes interpretaciones de X: si X t representa el nmero deocurrencias de un evento durante un intervalo de tiempo d e longitud t , entonces, E ( X t ) = At y, por tanto,
X = [ E ( X t ) ] / trepresenta la ruzdn esperada con la cual se emiten las partculas. Si X , representa el nmero deocurrencias d e algn evento dentro de un
volumen especificado V , entonces E ( X , ) = AV y, por lo tanto, X = [ E ( X , ) / V
representa la densidad esperada con la cual aparecen las estrellas.
c) Es importante seialar que nuestra exposicin en la seccin 8.3 no se
refiri slo a una variable aleatoria X que posee una distribucin d e Poisson,
sino que para cada t > O, encontramos que X t tena una distribucin de
Poisson con un parmetro dependiente de
t . Tal coleccin (infinita) de variables
aleatorias tambin se conoce como
proceso de Poisson. (De igual forma, se genera

8.3

223

El proceso de Poisson

un proceso de Poisson cada vez que ocurre un evento en algn intervalo de


tiempo de modo que se satisfagan las hiptesis Al hasta As.) De manera
anloga podemos definir un proceso de Bernoulli: si XI, Xz, . . . , X , , . . . son
los nmeros de ocurrencias de eventos en 1 , 2 , . . . n, ensayos de Bernoulli,
entonces la coleccin de variables aleatorias X I ,. . . X,, . . . se llaman proceso
de Bernoulli.

EJEMPLO8.5. Una complicada maquinaria, cuando funciona perfectamente, puede producir una utilidad
d e C: dlares por hora(C > 2)
a una compaa. Sin embargo,
esta mquina tiene una tendencia a fallar
en momentos inesperados e impredecibles. Supngase que el nmero
d e fallas durante cualquier periodo de longitud t horas es una variable aleatoria con una distribucin de
Poisson con parmetro t . Si la
mquina falla x veces durante t horas, la prdida ocasionada (la improductividad d e la mquina ms la reparacin) e s igual a ( x 2 x) dlares.
Luego, la utilidad total P durante cualquier periodo det horas es igual
a P = Ct - ( X 2 X ) , donde X es la variable aleatoria que representa
el nmero de fallas de la mquina. Por tanto:, P es una variable aleatoria, y podra ser interesante elegirt (lo que est a nuestra voluntad)d e
manera tal que la utilidud esperudu sea maximizada. Tencmos

E ( P ) = Ct - E ( X 2 + X ) .

Segn el teorema8.1 encontramos que E ( X ) = t y E ( x ~ >


= t (t>2.
Luego se deduce que E( P ) = Ct - 2t - t 2 . Para encontrar el valor
de t , para el cual se maximiza E( P ) , difcrenciamos E ( P ) e igualamos
a cero la expresin resultante. Obtenemos C - 2 - 2t = O, obteniendo
t = f ( C - 2) horas.

EJEMPLO8.6. Sea S t igualal nmero dc partculasemitidas por


una fuente radiactiva durante un intervalo de tiempo de longitud
t.
Supngase queXt tiene una distribucin de
Poisson con parmetro at.
Se instala un instrumento para anotar el nmero de partculas emitidas.
p d e q u e cualquier
Supngase que hay una probabilidad constante
partcula emitida no se cuente. Si Rt es igual al nmero de partculas
contadasdurante el intervalo especfico, ?cul es la distribucin d e
probabilidades d e Rt?
Para X1 = x da&, la variable aleatoria ,Rt tiene una distribucin
binomial con base enx repeticiones con parmetro (1 - p ) . Esto es,

224 La variable aleatoria de Poissott y otras variables aleatorias discretas

8.1

Usando la f6rmula d e la probabilidad total, (Ec. 3.4), tenernos

Sea i = X

k . Entonces,

P(R2 = IC) =
k pfft

A s encontramos que Rt tiene una distribucin d e Poisson con parmetro (1 - p ) a t .

8.4 La distribucidn geomdtrica

Supngase que efectuamos un experimento


E y que estamos interesados
slo en la ocurrencia o no ocurrencia de algn evento A . Supngase,
como en la presentacin d e la distribucin binomial, que repetidamente efectuamos E, que las repeticiones son independientes y que en cada
una de ellas P ( A ) = p y P ( A C ) = 1 - p S q permanecen constantes.
Supngase que repetimos el experimento hasta que A ocurre por priInera vez. (Aqu nos apartamos d e las hiptesis que conducen a la distribucin binomial. All el nmero de repeticiones era predcterminado,
mientras que aqu es una variable aleatoria.)
Definamos la variable aleatoria X como el nmero de repeticiones
necesarias hasta incluir la primera ocurrencia de A. As, S toma los

8.4

225

geomtrica
La distribucin

valores posibles 1 , 2 , . . . Puesto que X = si y slo si las primeras ( k - 1 )


repeticiones d e E producen A', mientras quela k-sima da por resultado
A, tenemos

k = 1 , 2 , ...

P ( X = k ) = qk-'p,

(8.5)

Se dice que una variable aleatoria con una distribucin d e probabilidades, ecuacin (8.5), tiene una distribucingeomtrica.
Un clculo sencillo indica que la ecuacin (8.5) define una distribucin de probabilidades legtimas. Obviamente tenemos P ( X = k ) 2 O.
Y

[&]

= l.

C P ( X = k ) = p ( l + q + q 2 +"=p
k=l

Podemos obtener el valor esperado deX como sigue.

E(X)=

CO

kpqk-l = p

k=l

C O d k
k=l

;Q

(El intercambio de derivadasy sumatorias se-iustifica aqu puesto quela


serie converge para /qI < 1.) Un clculo simlilar muestra que V ( X ) =
q / p 2 . (Nuevamente obtendremos los dos resultados en el captulo 10,
usando un planteamiento distinto.) Para resumir lo anterior, tenemos
el teorema siguiente.
Teorema 8.3. Si S tiene una distribucin geomtrica como se da en
la ecuacin (8.5),
E ( S )= l / p y

V ( X ) =: q / p 2 .

Observacin: El hecho de que E ( X ) sea el recproco de p es interesante


intuitivamentc, puesto que dice que con valores pequeos
de p = P ( A ) se
necesitan muchas repeticiones para que ocurra A,.

EJEMPLO8.7. Supngase que el costo d e efectuar un experimento


es $1000. Si el experimento falla, se incurre en un costo adicional de

226 La variable aleatoria de Poisson y otras variables aleatorias discretas

8.4

$300 debido a ciertos canlbios que deben efectuarse antes de que se


intente un nuevo experimento.
Si la probabilidad d e xito en cualquiera
d e los ensayos es 0.2, si los cnsayos aislados son independientes y si
los experimentos continan hasta que se obtiene el primer resultado
exitoso, ?cuA es el costo espcrado del procedimiento completo?
Si C es el costo y S el ntmero de ensayos necesarios para obtener
ixito, tencmos que C = 1000X 300(X - 1) = 1300X - 300. Por tanto,

1
O .2

E ( C ) = 1300E(X) - 300 = 1300-

300 = $6200.

EJEMPLO8.8. En cierta regin, l a probabilidad de que ocurra una


tormenta con truenos en un da cualquiera durantemcses
dos de verano
es igual a 0.1. Suponiendo la independencia de un da con otro, ?cu,il
es la probabilidad de que l a primera tormenta con truenos del verano
ocurra el da 3 del segundo mes?
Hagamos X el nmero de das (empezando el 1 del primer mes
hasta l a primera tormenta y buscamos P(,Y = 34), l a cual es igual a
(0.9)33(0.1) = 0.003.
EJEMPLO
8.9. Si la probabilidad de que cicrto examen d una reaccin positiva igual 0.4,
a cul esl a probabilidad de que ocurran menos
d e 5 reacciones negativas antes d e la primera positiva? Haciendo que
Y sea el nmcro de reacciones negativas antes d e la primera positiva,
tenemos

P(Y

k ) = (0.6) (0.4),

k = O, 1 , 2 , . . .

Luego,

P(Y

.( 5)

= C ( 0 . 6 ) ( 0 . 4 ) = 0.92.
k=O

Obsemacww Si X tiene una distribucin geomtrica como la descrim en la


ecuacin (8.5) y si hacemos Z = X - 1, podemos interpretar a 2 como el
nmero defallas q u e preceden al primer xito. Tenemos queP ( Z = k) = q k p ,
k = O , 1 , 2 , .. ., donde p = P(xito) y q = P(fal1a).
L a distribucin geomtrica tiene una propiedad interesante que se
resume en cl teorema siguiente.

8.5

Pascal

deLa distribucidn

227

Teorema 8.4. Supngase que X tiene una distribucin geomtrica


dada por la ecuacin (8.5). Entonces para dos enteros positivos
cualesquiera S y t ,

P(S2

+t I x >

S)

= P(X

2 t).

Demostracidn: Vase el problema 8.18.


Obseruaciones: a ) El teorema anterior indica que la distribucin geomtrica
no tiene memoria en el sentido siguiente. Supongamos que el evento A n o
ha ocurrido durantelas primeras repeticiones d e E . Entonces, la probabilidad
de queno ocurra durantelas pximas t repeticiones es la misma que la probabilidad de que no ocurra durante
las primeras t repeticiones. En otras palabras,
la informacin d e ningiln xito es olvidada en lo que se refiere a crilculos
subsecuentes.
b ) El recproco del teorema anterior tambin
es cierto: si la ecuacin (8.6) es
vlida para una variable aleatoria que toma slo .valores positivos, entonces la
variable aleatoria debe tener una distribucin geo:mtrica. (No demostraremos
esto aqu. Se puede encontrar tal exposicin en. An Introduction to Probability
Theory and Its Applications, d e Feller, John Wiley and Sons, Inc., 2a. ed., Nueva
York, 1957, p5g. 304.)
c) En el captulo siguiente observemos
que existe una variable aleatoria
continua con unadistribucin que posee una propiedad anlogaa la ecuacin
(8.6),es decir, la distribucin exponencial.

EJEMPLO8.10. Supongamosqueunmecanismo
se inspecciona
alfinalizarcadadaparaver
si an funcionaadecuadamente.
Sea
p = P [falla durante cualquier da dado]. Por tanto, si X es el nmero
de inspecciones necesarias para obtener la primera falla, X tiene una
distribucin d e probabilidad geomtrica y tenemos P ( X = n ) = (1 De igual manera, (1 - ~ ) ~ - =p P[el artculo se encontrar que
ha fallado en la n-sima inspecciny no enla ( n - 1)-sima inspeccin].
El valor mximo d e esta probabilidad se obtiene resolviendo

p.

Esto da
p( - 1)(1- p)-2(-1)

lo que equivale a

+ (1

--

p y - = 0,

228 La variable aleatoria de Poisson y otras variables aleatorias discretas


(1 - p)"

[(l- p )

(11

- l)p] =

8.5

o,

d e la cual obtenemos p = l / n .

8.5 La distribucin de Pascal


Si planteamos la siguiente cuestin, surge una generalizacin
obvia d e la
distribucin gcomtrica. Supongamos que un experimento se contina
hasta que un evento particularz4ocurre por r-simavez. Si

P(A)=p ,

P(.4")= q = 1 - p

en cada una delas repeticiones, definimos la variable aleatoria Y como


sigue.

Y es el nmero de repeticiones necesarias para que A ocurra exactamente T veces.


Necesitamos l a distribucin d e probabilidades d e Y . Debe ser evidente
que si r = 1, Y tiene la distribucin geometrica dada por la ecuacin
(S.5).

Ahora Y = k si y slo si A ocurre en la k-sima repeticin y precisamente A ocurri ( T - 1) veces en las ( k - 1) repeticiones previas. La
probabilidad d e este evento es simplemente p (:It) p r - l q k - r , puesto
que lo que sucede enlas primeras (IC - 1) repeticiones es independiente
d e lo que sucede enl a k-sima repeticin.
Luego,

Es muy sencillo ver que para r = 1, lo anterior se reduce a la ecuacin


(8.5). Una variable aleatoriaque tenga una distribucind e probabilidades dada por la ecuacin (8.7) tiene una distribucin d e Pascal.
Obseroacidn: La distribucin de Pascal tambin se conoce como distribucin
binomial negativa. La razn de esto es que a l verificar la condicin

P(Y = k ) = 1
obtenemos

Relacift entre l a s distribuciones binomial y de Pascal

8.6

229

lo cual obviamente es igual a 1. L a ltima igualdad del desarrollo en serie de


00

(1 - *)-

=
n=O

(- r ) ("In,
n

que es igual a

despus de algunas simplificaciones algebraicas y recordando la definicin del


coeficiente binomial (generalizado) (ver la Obscrvacin antes del Ej. 2.7).
Debido al exponente negativo ( - r ) en la cxpresi'n anterior, esta distribucin
se llama distribucin binomial negativa. Para calcular E ( Y ) y V(Y) podemos
proceder directamente, tratando de calcular las diversas sumas, o bien podemos proceder de la siguiente manera.
Sean

2
1= nilmero de repeticiones necesarias hasta incluir
la primera

ocurrencia deA.
Z2= nmero de repeticiones necesarias entre la primera ocurrencia d e A hasta incluir l a segunda ocurrencia de'4.

2,= nmero de repeticiones necesarias entre


la ( r - 1) ocurrencia hasta incluir la r-sima d e A .
A s vemos que todas las 2;son variables aleatorias independientes,

cada una d e las cualestieneunadistribucitingeomtrica.Tambin,


Y = Z1 +. -S&.. Por tanto, usando el teorema
8.3, tenemos el siguiente
teorema.

Teorema 8.5. Si E' tieneunadistribucitjn


ecuacin (8.7), entonces,

d e Pascal dada por la

EJEMPLO8.1 1. La probabilidad de que un experimentosea exitoso


es 0.8. Si el experimento se repite hasta que ocurran cuatro resultados

230 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.7


exitosos, (cul es el nmero esperado de repeticiones necesarias? De lo
anterior, tenemos E (nmero de repeticiones)= 4/0.8 = 5.

8.6 Relacin entre las distribuciones binomial y de Pascal


Sea X una distribucin binomial con parmetros n y p (es decir, X =
nmero de xitos en n ensayos d e Bernoulli con P(@xito) = p). Sea Y
una distribucind e Pascal conparmetros r y p (es decir,E = nmero de
ensayos d e Bernoulli necesarios para obtenerT xitos con P(xito)= p).
Por tanto, se establece la siguiente relacin:

a ) P ( Y 5 n) = P ( X
6) P(Y

> n.) = P ( X

2r),
< r).

Demostrucin: a) Si hay r o ms xitos en los primeros n ensayos,


entonces es necesario n o menos ensayos para obtener los primeros r
xitos.
6) Si hay menos que r xitos en los primeros n ensayos, entonces se
necesitan ms d e n ensayos para obtener r kxitos.
06servacwnes: a ) las propiedadesanteriores hacen posible el empleo d e
la distribuci6n binomial tabulada para evaluar probabilidades asociadns con
la distribucin d e Pascal. Por ejemplo, supngase que deseamos calcular la
probabilidad de que m& d e diez repeticiones sean necesarias para obtener el
tercer xito cuandop = P(txito) = 0.2. Tenemos, usando la notacin anterior
para X y 17,

P ( Y > 10) = P ( X < 3) =

k=O

(~ ) ( 0 . 2 ) k ( 0 . 8 ) 1 0 -=k 0.678

(de la tabla del Apndice).


6) Comparemos en forma brevel a s distribuciones binomial y de Pascal. En
cada uno de los casos, nos interesan los ensayos repetidos de Bernoulli. La
distribucin binomial aparece cuando consideramos un nmero fijo (digamos
n ) d e tales ensayos yestamos interesados en el nmero dexitos que ocurren.
La distribucin de Pascal se encuentra cuando prefijamos el nmero de xitos que debemos obtener y luego anotamosel nmero deensayos d e Bernoulli
necesarios Esto cs particularmente litil para el problema estadistico que presentaremos con mayor detalle ms adelante (Vase el Ej. 14.1).

La distribucin hipergeomtrica 23 1

8.7

8.7 La distribucidn hipergeomktrica

Supngase que tenemos un lote de


N artkulos, de los cuales r son
defectuosos y ( N - r ) son no defectuosos. Supngase que escogemos
al azar n artculos del lote ( n 5 N ) , sin reposicin. Sea X el nmero
X = k si y slo si
de artculos defectuosos encontrados. Puesto que
obtenemos exactamentek artculos defectuosos(de los r defectuosos del
lote) y exactamente ( n- k ) no defectuosos [delos ( N - T ) no defectuosos
del lote], tenemos

Se dice que una variable aleatoria discreta que tiene la distribucin de


probabilidades d e la ecuacin (8.9) tiene una distribwin hipergeorntrica.

(z)

Obseroacwn: Puesto que


= O cada vez que b > a , si a y b son enteros
no negativos podemosdefinir las probabilidades anteriores para toda
k =
O, 1 , 2 , . . . Obviamente no podemos obtener ms que r defectuosos, pero la
probabilidad cero ser asignada en ese evento segnla ecuacin (8.9).

EJEMPLO8.12. Se embarcan motores elktricos pequeos en lotes


de 50. Antes que aceptartal cargamento, un inspector elige 5 motores y
los inspecciona. Si ninguno de ellos es defectuoso, el lote
se acepta. Si se
encuentra que unoo ms son defectuosos, se inspecciona elcargamento
completo. Supongamos que en realidad hay tres motores defectuosos
en el lote. ?CuA es la probabilidad de que S(: rcquiera una inspeccin
del 100%.
Si hacemos que x' sea el nmero de motores defectuosos encontrados, se necesitar una inspeccin del 100% si y slo si X 2 1. Luego,

Teorema 8.6. Sean X una distribucin hipergeomtrica dada por la


ecuacin (8.9) y p = r / N , q = 1 - p . Entlonces tenemos

232 La variable aleatoria de Poisson y otras variables aleatorias discretas


a)

8.8

E ( X )= np;

c ) P ( X = IC)

(;)

p k ( l- p

Para N g r a n d e .

Demostmcidn: Dejaremosallector
(Vease el Prob. 8.19.)

los detalles de la demostracin.

Obseruacwn: La propiedad c) del teorema 8 . G establece que si el tamao N


del lote es suficientemente grande,
la distribucin d e X puede ser aproximada
por la distribucin binomial. Esto es razonablemente intuitivo. La distribucin binomial seaplica cuando muestreamoscon sustitucin (puesto queen ese
caso la probabilidad de obtener un artculo defectuoso permanece constante),
mientras que la distribucin hipergeomtrica se aplica cuando muestreamos
sin sustitucin. Si el tamao del lote es grande, no hay gran diferencia si un
articulo en particular se devuelve o no al lote antes d e escoger el siguiente.
LA propiedad c ) del teorema8.6 es simplemente una expresin
mntem5tica d e
ese hecho. Ntese tambin que elvalor esperado de unavariable aleatoria hipergeomtrica ,
Y es el mismo que el de la variable aleatoria correspondiente
distribuida binomialmente, mientras quela varianza d e X es un poco m5s pequea que la correspondiente en elcaso binomial. El trmino de correccin
( N - n ) / ( N - 1) es aproximadamente igual a 1, para un N grande.
Podemos ilustrarel significado de c) con el siguiente ejemplo sencillo.
Supngase que queremos evaluar P ( X = O).
Para n = 1 obtenemos, de la distl-ibucin hipergeomi.tl-ica, P ( S =
O) = ( N = 1 - r / N = q. De la distribucin binomial obtenemos
directamente P ( S = O) = Q. Por tanto estas respuestas son las mismas,
como deberan ser e n efecto, para n = 1.
Para n = 2 o b t e n e m o s d ela distribucicin hipergeomtrica,

.)/N

N-rN-r-1
P ( X = O) = N
N-1

= (1
.,

$) (1 &).
-

De l a distribucin binomial obtenemosP ( X = O) = q2 . Debe observarse


q u e (1 - r / N ) = (1,mientras q11e [I - Y/( N - I)] es casi igual a q.

multinomial
La distribucidn

8.8

233

En general, la aproximacin d e la distribucin hipergeomtrica mcdiante la distribucin binomial es muy buena si n / N 5 0.1.

8.8 1.u distribucin multinomial


4,*

Finalmente consideremos una variable aleatoria discreta importante


de
mayor dimensin que se puede concebir colmo una generalizacin d e
la distribucin binomial. Consideretnos un experimento E , su espacio
muestra1 S y una particin de S en k eventos mutuamente excluyentes
A l , . . . ,Al,. (Es decir, cuando se efecta E uno y slo uno de los eventos A ; ocurre.) Considrese n repeticiones independientes de E . Sea
p; = P ( A ; ) y supngase que p ; permanece constante durante todaslas
I;
repeticiones.Desdeluegotenemos
p ; = 1. Definamos las variables
aleatorias X I , . . . ,XI, como sigue.
X; es el nmero de veces que A; ocurre cntre las n repeticiones d e
E , i = 1,...,IC.
Las X; no son variables aleatorias independientes, puesto que
X; = n. Entonces,tanprontocomo
el valor decualquierade las
( k - 1) variables aleatorias es conocido, se determina el valord e la otra.
Tenemos el resultado siguiente.
Teorema 8.7.

donde

Si X;, i = 2,. . . ,k estn definidas como antes, tenernos

n.; = n.

Demstracidn: El argumento es idntico al utilizado para establecer


las probabilidades binomiales. Simplemente debemos observar que
el
n h n e r o d emaneras de agrupar n objetos, rill d e los cuales son de una
clase, . . . ,nk de los cuales son
clase, n2 d e los cuales son de una segunda
de unab-sima clase, est dado por
n!
n l ! .f . nl,!

Obseruuciones: a) Si k = 2, lo anterior se reduce a la distribucin


binomial. En este caso designamos los dos eventos posibles con xito
y fracaso.

234 La oariable aleatoria de

Poisson y otras variables aleatorias discretas

b) LA distribucin anterior se conoce como distribucin multinomial de


f)ruDabiZidmfes. Recordemos que los trminos de la distribucin binomial
sc obtuvieron del desarrollo de la expresin binomial [ p + (1 - p ) l n =
E;=, (:) p'(1 De maneraanloga, las probabilidades
anteriores puedcn olJtcnersc de un desarrollo de la expresin multinomial
(p1

+ +. .+
*

S,)

Teorema 8.8. Supngase que ( S I ) . . . ,


tiene una distribucin
binonlial dada por la ecuacin (8.10). Entonces,

E ( s ; ) = npi

y V ( X ; ) = np;(l - p i ) ,

i = 1 , 2 , . . . ,b.

Denzosll-acin: esta es una consecuencia inmediata d e la observacin


que cada S i , como se defini antcriormcnte, tiene una distribucin
binomial con probabilidades de xito
(es decir, la ocurrencia deA ; ) igual
a pi.

EJEMPLO8.13. Se fabrica unabarra de unlargo especfico. Supngase que el largo verdadero S (en pulgadas) es una variable aleatoria distribuida uniformemente en [lo, 121. Supngase que slo nos interesa
saber si ha ocurrido uno delos tres eventos siguientes:
Al = {X < 10.5),

A2 = (10.5

5 S 5 11.8) y

A3 =

{ S > 11.8).

Tenemos

A s , si sc !&brican 10 d e tales barras, la probabilidad de obtenerexactamentc 5 barras de longitud menor que 10.5 pulgadasy exactamente
2 de longitud mayor que l l . S pulgadas esti dada por
10!
(0.25)5(0.G5)3(0.1)2
5!3!2!

PROBLEMAS
8. l.Si ,X Licnc u n a distribuci6n de Poisson con parhrnetro p y si P ( X = O) =
0.2, calcular P ( S > 2).

Problemas

235

8.2. Supngase que S tiene una distribucin d e Poisson con parsmetro


X.Encontrar el valor d e k para el cual P ( X = k ) es la mayor. [Zndkacih:
Comparar P ( S = k ) con P ( X = k - I).]
8.3. (Este problema se tom
d e Probability and Statistical Inferencef o r Engineers
por Derman y Klein, Oxford University Press, Londres, 1953.) El n6mero
d e buques tanque digamos N , que llegan cada da a cierta refinera tiene
una distribucin de Poisson con parsmetro X = 2. Las actuales instalaciones
portuarias pueden despachar tres buques al !Si
da.
m5s de tres buques-tanque
llegan en un da,los restantes deben enviarsea otro puerto.

a ) En un da detcrminado, Zcuril es la probabilidad de tener que hacersalir


buques-tanque?
b ) ?En cu5nto t l e k n aumentar las instalaciones actuales para permitir la
atencin a todos los buques-tanque aprosinmdamente el 90% de los drls?
c) Curil es el nmero esperado de buques-tanque quellegam al da?
d ) ?Cui1 es el nmero mis probable de buques-tanque que llegan diariamente?
e ) ?Cui1 es el nmero esperado de buques-tanque que se atienden diariamente?
J) ZCuA es el nmero esperado d e buques-tanque devueltos cliariamente?
8.4. Suponer qne la probabilidad de que un artculo producido por una
mquina especial sea defectuoso es igual a 0.2. Si 10 artculos se seleccionan
al azar, ?cul es la probabilidad de que no sc encuentre mris de un artculo
defectuoso?Usar las distribucionesbinomial y de Poisson y comparar Ins
respuestas.
8.5. Una compaa d e seguros ha descubierto que slo alrededor del 0.1%
de la poblacin tiene ciertotipo d e accidente cadamo. Si los 10 O00 asegurados
fileran seleccionados aleatoriamente en la poblacitjn, Zcuril ser la probabilidad
de queno m& d e 5 d e estos clientes tenga un accidente d e ese tipo el prximo
ao?
8.6. Supngase queX tienc una distribucin de Poisson. Si

P ( S = 2) = $P(X= l ) ,
calcular P ( X = O) y P ( S = 3).
8.7. Un proveedor d e pelculas produce al aiio 10 rollos d e pelcula especialmente sensible. La pelcula debe descartarse si no se vende dentro del ao.
Experiencias anteriores indican que D , la demanda (pequea) para la pelcula es una variable aleatoria con distribucind e Poisson con parmetro 8. Si se
obtiene unautilidad de $7 en cadarollo vcndido, mientras que ocurre una prdida de$3 en cada rollo que debe ser descartado,
calcular la utilidad esperada
que el fabricante puede obtenercon los 10 rollos que produce.

236 La variable aleatoria de Poisson y otras variables aleatorias discretas


8.8. Supngase que una fuente
radiactiva emite partculas y que el nmero
d e tales particulas emitidas durante el periodo de una hora tiene una distribucin d e Poisson con parmetro X. Se emplea un instrumento para contar
y anotar el nilmero d e las partculas emitidas. Si ms d e 30 partculas llegan
durante cualquier periodo de una hora, el instrumento que anota es incapaz
d e controlar el exceso y simplemente anota 30. Si Y es la variable aleatoria
definida como el nmero particulas
de
anotadas por el instrumento que cuenta,
obtener la distribucin d e probabilidades d e Y .

8.9. Supngase que una fuente radiactiva emite partculas y que el nmero
d e las que se emiten durante un periodo de una hora tiene unadistribucin
de Poisson con parmetro X. Consideremos que el instrumento para contar
esas emisiones en ocasiones falla al anotar una partcula emitida. Supngase
especficamente que cualquier particula emitida tiene una probabiliclad p de
ser anotada.

a ) Si Y est definida como el nmero de partculas anotadas, ?cul es una


expresin para I s distribucin d e probabilidades de Y ?
b ) Calcular P ( Y = O) si X = 4 y p = 0.9.
8.10. Suponer qne undepsito contiene 10O00 partculas. La probabilidad
de que una de esas partculas salga del depcisito es igual a 0.0004. ?Cul es
la probabilidad d e que ocurran in& d e 5 salidas? (Puede suponerse que Ins
diversas salidas son independientesunas d e otras.)
8.1 1. Supngase que unlibro d e 585 pginas contiene 43 errorestipogrrificos. Si esos errores estn distribuidos aleatoriamente alo largo del libro, cul
es la probabilidad de que 10pginas seleccionadas al azar estnlibres de errores? [Sugerencia: Suponer que X = nmero de errorespor pgina tiene una
distribucin de Poisson.]

8.12. Una fuente radiactiva se observa durante 7 intervalos cada uno de 10


segundos d e duracin y se cuenta el nmero de particulas emitidas durante
cada periodo. Suponer que el nilmero de
partculas emitidas, digamos X , durante cada periodo observado
tiene una distribucin d e Poisson con parmetro
5.0 (es decir, las partculas se emiten a razn de 0.5 partculas por segundo).

a ) ?Cul es la probabilidad de que en


cada uno delos 7 intervalos d e tiempo,
se emitan 4 o ms partculas?
b ) ?Cul es la probabilidad d e que al menos en uno de los 7 intervalos d e
tiempo se emitan4 o ms partculas?
8.13. S e ha encontmdo que
el nirmero d e fallas de transistores en uncomput d o r electrnico en cualquier periodo de una horase puede considerar como
una variable aleatoriaque tiene una distribucind e Poisson con parnletro O . 1
(es decir, en promedio hay una hlla de untransistor cada 10 hora..). Se inicia
cierto proceso que necesita 20 horas d e tiempo de cmputo.

Problemas

237

a) Encontrar la probabilidad de que el procescb anterior pueda completarse


exitosamente sin una falla. (Sesupone que la mquina se considera inoperante
slo si fallan 3 o ms transistores.)
6) Lo mismo q u e en a), excepto que la mquina se considera inoperante si
fallan 2 o ms transistores.

8.14. Al formar nmeros binarios con n dgitos, la probabilidad de que aparezca un dgito incorrecto es, digamos,
0.002. Si los errores son independientes,
Ccul es la probabilidad de encontrar cero, uno o ms de un dgito incorrecto en un nmero binario de 25 dgitos? Si el computador forma lo6 de tales
nmeros de 25 dgitos por segundo, ?cul es la probabilidadde que se forme
un nmero incorrecto durante cualquier periodo de un segundo?

8.15. Cada semana se emplean dos procedimientos independientes en la


operacin de lanzamiento de cohetes. Supngase que cada uno de los procedimientos se contina hasta que se produce un lanzamiento exitoso. Se supone
que al usar el procedimiento I, P ( S ) , la Probabilidad de un lanzamiento exi.
toso es igual aP I , mientras que para el procedimiento 11, P ( S ) = ~ 2 Adems,
se suponeque cada semana se hace un intento con cada uno de los dos mtodos. Representar con X1 y X2 el nmero de semanas necesarias para obtener
un lanzamiento exitosopor medio de I y 11, respectivamente. (Luego, X1 y S 2
son variables aleatoriasindependientes, cada una con distribucin geomtrica.)
Sea W el mnimo (X,, X2) y sea Z el mximo (XI, X2). Por tanto, W representa el nmero de semanas necesarias para obtener un lanzamiento exitoso,
mientras que 2 representa el nilmero de semanas necesarias para obtenerlanI
zamientos exitososcon ambos procedimientos. (Entonces si
procedimiento
el
da
como
resultado
S
S
S
S
,
mientras
que
el
procedimiento
I1
da
como
resultado
SSS, tenemos W = 3 y 2 = 4.)
a)

Obtener una expresin para la distribucin de probabilidades de I.V.

[Indicacio'n: Expresar, en trminos de X 1 y Xp, el evento {W = k}.]


6) Obtener una expresin para la distribucin de probabilidades de 2.
c) Escribir nuevamentea
l
s expresiones anteriores si p l = p 2 .

8.16. Se arman cuatro componentes en un s o b aparato. Los componentes


originan hentes independientes y Pi = P(i4simo componente es defectuoso),
i = 1,2,3,4.
a) Obtener una expresin de la probabilidad para que el aparato completo
funcione.
6) Obtener una expresin de la Probabilidad para que al menos tres componentes funcionen.
C) Sip1 = p2 = 0.1 yp3 = p4 = 0.2, calcular la probabilidadde que funcionen
exactamente dos componentes.
8.17. Un mecnico mantiene un gran nmerode arandelas en undepsito.
El 50%de stas sonde pulgada de dimetro, el 30%de & pulgada de dimetro

238 La variable aleatoria de Poisson y otras variables


y el 20% restante d e
diez arandelas.

$ pulgada d e dimetro.

aleatorias discretas

Se supone que se eligen al azar

a) ?Cul es la probabilidad de que haya exactamente cinco arandelas de


pulgada, cuatro de de pulgada y una d e d e pulgada?
b ) ? C d 1es la probabilidad de que slo haya dos clases d e arandelas entre
las elegidas?
c) CuA es la probabilidad de quelas tres clases d e arandelas estn entrelas
elegidas?
d) ?Cul es la probabilidad de quehaya tres de unaclase, tres de otra clase
y cuatro d e la tercera clase en unamuestra d e 1O?

8.18. Demostrar el teorema 8.4.


8.1 9. Demostrar el teorema 8.6

8.20. El nilmero d e particulas emitidas por una fuente radioactiva durante


un periodoespecfico es una variable aleatoria conuna distribucin d e Poisson.
Si la probabilidad d e ninguna emisin es igual a ?cul es la probabilitlatl de
que ocurran2 o mjs emisiones?

4,

8.21. Supngaseque S t , el nlimero de partculas emitidasen t horas por una


fuente radiactiva, tiene una distribucin de Poisson con parmetro 20 1. ? C u d
es la probabilidad de que exactamente 5 particulas sean emitidas durante un
periodo de 15 minutos?
8.22. La probabilidad de que el lanzamiento de un cohete sea exitoso es
igual a 0.8. Supngase que se hacen ensayos hasta que ocurren3 lanzamientos
esitosos. ?CuA es la probabilidad de quesean necesarios G intentos? ?Cul es
la probabilidad de quesean necesarios menos d e 6 intentos?
8.23. En la situacin descrita en el problema 8.22 suponer los
que
ensayos d e
lanzamiento se hacen hasta que ocurren tres
lanzamientos consecutivos exitosos.
Responder las preguntas formuladas en el problema prek'
'10 en este caso.
8.24. Considrese nuevamente la situacitjn descrita en el problema 8.22.
Supringase que cada uno delos ensayos de lanzamiento cuesta$5000. Ademris,
un lanzamiento que fracasa produce un costo adicional d e $560. Calcular el
costo esperado para la situaci6n descrita.
8.25. Con X y Y definidas como e n la seccin 8.6, probar o r e f b t r lo
siguiente:
P ( Y < 72) = P ( X > Y)

9.1 Introduccin
En este captulo proseguiremos la tarea que nos planteamos en el captulo 8, y estudiaremos con detalle diversas variables aleatorias continuas importantes y sus caractersticas. Como sealamos antes, muchos
problemas se hacen matemticamente mssencillos alconsiderar un recorrido "idealizado" para una variable aleatoria X , en el cual todos los
nmeros realesposibles (en algn intervalo
eslpecfico o conjuntos de intervalos) pueden considerarse como resultadosposibles. De esta manera llegamos a las variables aleatorias continuas. Muchas de las variables
aleatorias que ahora presentaremos tienen aplicaciones importantes y
diferiremos hasta un captulo posterior
la exposicibn d e algunas de sus
aplicaciones.

9.2 La distribucin normal


Una de las variables aleatorias continuas ms ]notables esla siguiente.
Definicin. Lavariablealeatoria
X, quetomatodos
los valores
reales, "o0 < x < 00,tiene una distribucin normal (o gaussiana)si
su fdp es de la forma

240 Algunas
variables
aleatorius
continuas
importantes

9.3

Los parmetros p y u deben satisfacer las condiciones -m < p <


> O. Puesto que tendremos diversas ocasiones para referirnos a la distribucin anterior, utilizaremosla notacin siguiente:Atiene la distribucin N ( p , u 2 )si y slo si su cfistribucicin de probabilidades est dada por la ecuacin (9.1). [Con fkecuencia usamos
la notacin exp ( t ) para representar E t . ]
m, u

Ser hasta el captulo 12 donde se exponga el porqu de la gran importancia de esta distribucin. Ahora simplemente indicaremos que la
distribucin normal sirve como u n a afiroximucin excelente a una grun cantidad
de distribuciones que tienen importancia prctica. Anms, esta distribucin tienevarias propiedades matemticas apreciables que hacen
posible
deducir resultados tericos notables.

9.3 Propiedades de la distribucin normal


Comprobemos que f es una fdp legtima. Evidentemente f(x) 2 O.
Adems debemos verificar que S_'," f(z)dx = 1. Notemos que si t =

a)

(x - p ) / u , podemos escribirS_'," f ( z ) d z como (1/&) S,- +m ,-t2 12 dt


= I.
El "truco" utilizado para evaluar esta integral (y esto es un truco) es
considerar, en ves d e I, el cuadrado de esta integral, llamada 12. A s ,

Introduzcamos coordenadas polarespa.ra evaluar esta integral doble:


S

= r cos C Y , t = r sen CY .

Luego, el elemento d e drea ds dt se transforma en T d r da. Como S


y t varan entre -m y +m, r vara entre O y m,mientras que a vara
entre O y 2r. As,

9.3

Propiedades de la distribucin normal

241

X=p

Por lo tanto,I = 1 como se iba a demostrar.

FIGURA9.1

b ) Consideremos la forma d e la grfica d e f . Tiene la muy conocida


forma de campana que
se muestra enl a figura 9.1 Puesto quef depende
a de
slo d e x niediante la expresin (x - ,u)?, es evidente que la grf 1ca
f ser simdtrica, respecto a p. Por ejemplo, si x = p
2, (x - p )2 =
(p 2= 4, mientras que parax = p - 2, (:z- p ) 2 = ( p - 2 - p )2 = 4
tambin.
El parmetro (T puede interpretarse en forma geomtrica. Observemos que para 2 = IL la grfica d e f es cnciava hacia abajo. Cuando
x -+ f m , f ( x ) -+ O, asintticamente. Puesto que f(x) >_ O para todo 1
x, esto significa que para grandes valores de x (positivos o negativos),
la grfica d e f es cncava hacia arriba. El punto en el cual cambia la
concavidad se llama punto de inflexin y se determina al resolver la
ecuacin f(x) = O. Cuando hacemos esto, encontramos que
los puntos
d e inflexin ocurren en x = p f u. Esto es, cr unidades a la derecha y
a l a izquierda d e p , la grfica d e f cambia d e concavidad. As, si (T es
relativamente grande, la grfica d e f tiende a ser achatada, mientras
que si (T es pequefia la grfica d e f tiende a ser muy aguzada.

c) Adems d e la interpretacin geomtrica d e los parmetros p y o,


el siguiente significado 131-obabilstico o import-ante puede asociarse con
esas cantidades. Consid6rese

Haciendo z = (x - / / . ) /yaobservando que dx = (T d z , obtenemos

242 Alg~rnas variables aleatorias continuas importantes

9.3

L a prilnera de las integrales anteriores es igual a cero puesto que el


illtcgrando, 1lanli.moslo g ( z ) , tiene la propiedad de que g ( z ) = " ~ ( - 2 )
y, por lo tanto, g es una funcin impar. La segunda integral (sin el[actor
1 1 ) rcprescnta el rirca total bajo la fdp normal y, por lo tanto, es igual a
la unidad. Luego, E ( S ) = p .
A continuaci6n consideremos

Haciendo nuevamente,

= (x - p ) / ~obtenemos
,

Nuevamente, la segunda integral es igual a cero por el argumento


antes usado. La ltima integral (sin el factor p 2 ) es igual a la unidad.
Para calcular (1 /JZ;;>

S_'," z2e-z2/2

dt, integramos

= dv y z = u. Luego, v =
do
Se obtiene

por partes hacien-

mientras
que

dz = d u .

Luego E ( . x ~ >= cr2 p 2 , por tanto, V(X> = E ( . Y ~ >


- ( E ( s ) ) ~= 02 .
As encontramos que los dos parmetros p 2 y 02,que caructerizun la distribucidn
nornzul son la esperanzu y la van'anza de X, resllectivamente. Para decirlo
con otras palabras si sabemos que X est5 distribuido normalmente, slo

9.3

243

Propiedades de i'a distribucin


normal

sabemos que s u distribucin d e probabilidades es d e cierto tipo ( o pcrtenece a cierta familia). Si adems conocemos E ( S ) y V(X), la distribucin de X est especificada por completo. Como mencionamos antes,
la grfica d e la fdp de una variable aleatoria distribuida normalmente
es simtrica respecto a p , El achatamiento d e la grfica se determina
por 02, puesto quesi X tiene una distribucinN ( p , o:) y Y tiene distribucin N ( p ,o;), donde o: > o;, entonces sus fdp tendran las formas
relatizm que se muestran enla figura 9.2.

FIGURA9.2
d ) Si X ticncunadistribucin N ( 0 , l ) decimos que X tiene una
distribucin nomal estundarizadu. Esto es, la fdp de X puede escribirse
como

(Usaremos la letra 'p slo para la f d p d ela variable aleatoriaX anterior.)


L a importancia dela distribucin normal estandarizada
se debe a l hecho
de que esta tubuludu. Cada vez que X tiene una distribucin N ( p , a 2 )
siempre podemos obtenerla forma estandarizada tomando simplemente una funcin lineal d e X, como lo indica el teorema siguiente.
Teorema 9.1. Si X tiene la distribucin N ( p , 0 2 ) y si Y =
entonces Y tiene l a distribucin N ( a p + 6 , a 2 0 2 ) .

a S

+ 6,

Demostrucidn: El hecho d e q u e E ( Y ) = up b y que V ( Y )= a 2 0 2


se deduce en forma inmediata de las propiedades de la esperanza y la
varianza expuestas en el captulo 7. Para delmostrar que d e hecho Y
est distribuida normalmente, podemos aplicar el teorema 5.1, puesto

244 Algunas
variables
aleatorias
continuas
importantes

9.4

que u,A7 b es una funcin de S decreciente o creciente, dependiendo


dcl signo de a. Luego, si g es la fdp de Y , tenemos

que representala fdp de unavariable aleatoriacon distribucin N ( n i ~


b, u202).

Si X tienedistribucin N ( p , 0 2 ) y si Y = ( X - /')/o,
entonces Y tiene distribucin N(0,l).

Corolario:

Demostracidn: Es evidente que Y es una funcin lineal de


tanto, se aplica a l teorema 9.1.

y, por

Obsemzcwn: La importancia d e este corolario es que al cambiar las unidades


en las cuales se mide la variable podernos obtener l a distribucin estandarizada
(vase d). N hacer esto, obtenemos una distribucin con parAmetros no especificados, lo cual es u n a situacin muy propicia desde el punto de vista d e la
tabulacin d e la distribucibn (vase la prxima secci6n).

9.4 Tabulacin de la distribucin normal


Supngase que X tiene distribucin N ( 0 , l ) . I,uego,

Esta integral no puede evaluarse por mtodos ordinarios. (La dificultad proviene del hecho de que no podemos aplicar el teorema fundamental del cAlculo, puesto que no podemos encontrar una funcin
cuya

derivada sea igual a e - " I ' . )


Sin embargo, los mCtodos d e integraci6n
numrica pueden usarse para evaluar integrales de
la forma anterior, y
de hecho P ( S 5 S) ha sido tabulado.
La fda de la distribucin normal estandarizadase denotar6 consistentemente con @. Esto es,

9.4

245

Tabulacwn de la distribucin normal

(9.3)
(Vase la Fig. 9.3.) La funcin ip se ha tabulado con amplitud,y en el
Apndice se proporciona un extracto de dicha
tabla. Podemos usar ahora la tabulacin d e la funcin @ con
$(X)
el objeto d e evaluar P ( u 5 X 5 b),
donde X tiene la distribucin
estan-

x=s

La importancia particular de
la
FIGURA9.3
tabulacin
anterior
debe
se hecho
al
de que si X tiene cualquier distribucin normal N ( p ,a 2 ) ,la funcin tabulada ip puede usarse para evaluar
probabilidades asociadas con X .
Simplemente usamos el teorema 9.1 para. observar que si X tiene
distribucin N ( p ,a ) , entonces Y = ( X -- p ) / u tienedistribucin
N(O,1). Por tanto,

De la definicin d e ip (vase la Fig. 9.3) tambin es evidente que

Esta relacin es muy til, pues en la mayora de las tablas, la funcin


slo se tabula para valores positivos de x.
Finalmente calculemos P ( p - k u 5 X 5 p + k u ) , donde
tiene
distribucin N ( p , a 2 ) .La probabilidad anterior se puede expresar en t
trminos dela funcin ip escribiendo
ip

= @ ( b )- i p ( - k ) .

246 Algunas variables aleatorius continuas importantes


Usando la ecuacin (9.5) para k

9.4

> O tenemos,

Ntese que la probabilidad anterior es independiente de p y a. En palabras, la probabilidad de que una variable aleatoria con distribucin
N ( p , a 2 )Lome valores dentro dek desviaciones estndar del valor esperado depende slo d e k y est dado por la ecuacin (9.6).
Obsemacin: Tendremos diversas ocasioncs parareferirnosafunciones talmladas. En un sentido dado, cuando una espresin puedeescribirse en trminos de funciones tabuladas, el problema est resuelto. (Con la disponibilidad d e medios modernos d e computacin, muchas funciones que no son
tabuladas pueden evaluarse f5cilmente. Aunque no esperamos q u e todos tengan fhcil acceso a u n computador, no parece ilgico suponer que ciertas tablas
conlunes estn disponibles.)
As, nos deberamos sentirtan cmodos conl a funcin @(x) = ( l / f i )
ds comocon la fkncin f ( x ) = &. Ambas
fbnciones esdn tabuladas, y en algunos casos podramos tener alguna dificultad para calcular directamente la funcin para x = 0.43, por ejemplo. En el
Apndice aparecen varias tablas de algunas de las funciones m5s importantes
que encontraremos en nuestro
trabajo. Ocasionalmente se l m 5 n referencias a
otras tablas no incluidas en este testo.

s_,

EJEMPLO9.1. Supngase que X tiene distribucin N(3,4). Deseamos encontrar un nmeroc tal que
P(X

> c ) = 2 P ( S 5 c).

Observemos que (X - 3 ) / 2 tiene distribucin N ( 0 , l ) . Por tanto,

P(X
Tambifn,

> c) = P

(X - 3 >
2

)2

= l - @( c;3)

P(X 5 c) = P x -2 3 <1)=Q(1
c-3
c-3
Por tanto, l a condicin anterior se puede escribir como 1 - @[(c 3)/2] = 2 @ [(c - 3 ) / 2 ] . Esto se convierte en Q [ ( c - 3 ) / 2 ] =
De aqu
(de la tabla d e la distribuci6n normal), encontramos que ( c - 3)/2 =
-0.43, obteniendo c = 2.14.

i.

9.4

Tabulacidn
de

la

distribucidn
normal

247

EJEMPLO9.2. Supngase que la resistencia a romperse de un gnero


de algodn(en libras), llammosleX , est distribuida normalmentecon
E ( X ) = 165 y V(A') = 9. Suponiendo adems queu n a muestra d e este
gnero se considera defectuosa si X < 162, cul es la probabilidad d e
a l azar sea defectuoso?
que un gnero elegido
Debemos calcular P ( X < lG2). Sin enlbargo,

P(X

< 162) = P ( X -3 165 < .162 - 165)


3

= @(-1) = 1 - @(1)= 0.159 .


i

Observacin: Una objecin inmediata al uso dc la distribucin normal pued e encontrarse aqu. Es obvio que X, la resistencia dcl gnero de algodn,
no puede tomar valores negativos, mientras que 'una variable aleatoria distribuida normalmente puede tomar todos los valorcs positivos y negativos. Sin
embargo, el modelo anterior(en apariencia invalidado dcbidoa las objeciones
encontradas) asigna una probabilidad despreciable a l evento {X < O}. Esto es,

P('Y < O) = P

(X

- 165

O - 165)

< ___ = @(-SS)


3

o.

Esta situacin ocurrir5 confrecuencia: se supone que cierm variable alcatoria X, que sabemos no pucde tomar valores neptivos, tiene una distribucin
normal tomandoas (tericamente, al menos) valores tanto positivos como negativos. Mientras se escojan los parmetros ,u y a2 d e modo que P ( S < O) sea
esencialmente cero,tal representacin es perfectalmente vlida.

El problema de encontrar la fdp de una funcin de una


variable
el captulo 5,
aleatoria,llammosla Y = N(X),como se expuso en
aparece en el contexto presente en el cual la variable aleatoria X est
distribuida normalmente.

EJEMPLO9.3. Supngase que el radio R d e u n cojinete d e esferas


est distribuido normalmente con valor esperado
1 y varianza 0.04.
Encuentre la fdp del volumen del cojinete.
La fdp dela variable aleatoria R est dada por

f ( r )= f i ( 0 . 2 ) . cxp

(-; [;$I2)

248 Algunas
variables
aleatorias
continuas
importantes

9.4

Puesto que V es una funcin d e R montonamente creciente, podemos


aplicar en forma directa el teorema 5.1 para la fdp de V = 4/37rR3 y
obtener g( u) = f(r)(dr/dw), donde r est expresado en todas partes en
Luego,
trminos d e u. De la relaci6n anterior, obtenemos r =
d ~ / d v= ( 1 / 4 ~ ) ( 3 ~ / 4 7 r ) - ~AI/ ~sustituir
,
esas expresiones en la ecuacin
anterior, obtenemos la fdp deseada d e V.

y-.

EJEMPLO9.4. Sllpngase que S , el dimetro interior (en milmetros) d e una tobcra, es una variable aleatoria distribuida normalmente
con esperanza /L y varianza 1. Si S no satisface ciertas especificaciones,
IC produce una pkl-dida al fabricante. M& exactamente, supngase que
la utilidad T (por tobera) es la siguiente funcin d e S :
T = C1 (dlares) si 10 5 S 5 12,
= - Cy2

si X

= - C3

si A'

< 10,
> 12.

Por tanto, la utilidad esperada (por tobera) puedeescribirse como

= (C,

+ C3)@(12- p ) - (C, + C2)@(10 - /L) - c3.

Supngase que es posible ajustar el proceso d e fabricacin d e modo


que se puedan obtener diferentes valores d e p . ?Para quvalor de /I es
mxima la utilidad esperada? Debemos calcular d E ( T ) / ( d p )e igualarla
a cero. Denotando como es usual, la fdp de la distribucin N ( 0 , l ) con
y, tenemos

Luego,

Propiedades de la distribucin exponencial

9.6

249

[Es fGcil para cl lector verificar que lo anterior da un valor mximo para

E ( T ).I

Observaciones: a ) Si C2 = C3, es decir, si un d i h e t r o X muy grande o muy


pequeo, es un defecto igualmente serio, entonces el valor p para el cual se
obtiene el valor m5ximo d e E ( T ) es p = 11. Si C2 > C3, cl valor d e /I es > 11,
mientras quesi C2 < C3, el valor de 11 es < 11. Cuando p + +m,E ( T ) + 4 3 ,
mientras que si p 4 -00, E ( T ) + -Cz.
b ) Considrense los valores de los costos siguicntes: C1 = $10, C2 = $3 y
C3 = $2. Entonces, el valor d e p para el cual E ( T ) se maximiza es igual a
p = 11= $11.04. Luego, el valor mximo obtenido por E ( T ) es igual
a $6.04 por tobera.

h[E]

9.5 La distribucin exponencial


Definicin. Se dice que una variable aleatoria continuaX que toma
todos los valores no negativos tiene una tiistribucidn exponencid con
parmetro (Y > O si su fdp est dada por
f(x) =

ae

=O

(YX

>O

para cualquier otro valor.


(9.7)

(Vase la Fig. 9.4.) [Unaintegracin


inmediata indica que
X

roo

J, f(x) dz = 1
y, por tanto, la ecuacin (9.7) representa un fdp.]

FIGURA
9.4

La distribuci6n exponencial desempea urn papel importante en la


descripcin de una gran clase d e fenmenos, especialmente en el rea

9.6

250 Algunas variables


aleatorias
continuas
importantes

d e la teora dela confiabilidad. Dedicaremos el captulo 11 a algunas d e


estas aplicaciones. Por el momento, slo investiguemos algunas de las
propiedades dea
l distribucin exponencial.

9.6 Propiedades de la distribucin exponencial


a ) La fda F de la distribucicin exponencial est dada por:

=O
[Por tanto, P ( X

-02

x 2 0

(9.8)

p a r a cualquicr otro valor.

> x ) = e"(yx.]

6) El valor esperado d e X se obtiene como sigue:

Integrandoporpartes y haciendo
v = -e "QX y du = d x . Luego,

d x = dv y z = u , obtenemos

A s , el valor esperadoes igual al rcciproco del parmetro


cr. [Simplcmente reclasificando el parmetro CY = l/P, podramos haber escrito la fclp
d e X como f ( x ) = (1//3)e-'/P. DC esta manera, el parmetro cs igual

al valor esperado de X. Sin enlbargo, continuaremos usando la forma


d e la ecuacin (9.7).]

c) La varianza d e X puede obtcnerse con una integracin semejante.


Encontramos que E ( X " ) = 2 / a2 y, por tanto,
1
V(A-) = E ( X 2 ) - [ E ( X )2] = 2'
Q

('3.10)

d ) La distribucin exponencial t i m e la siguiente propicdad importante, anloga a la ecuacin (8.6) descrita para la distribucin geomtriS, t > O, P ( X > S + t I S > S).
ca. Considerandoparacualquicr
'Tenemos

9.6

Propiedades de la di:rtribucin exponencial

25 1

Por tanto,

P(X > S +t

I x > S ) = P ( X :> t ) .

(9.11)

A s hemos demostrado que l a distribucin exponencial tanlbin tiene


la propiedad de "no tener memoria" como la. distribucin geomtrica.
(Vase la Observacinquesigue
al teorema1 8.4.) Hacemosunuso
considerable d e esta propiedad al aplicar la distribucin exponencial
a los modelos d e fatiga en el captulo 1 1.

Observacin: Como e n el caso d e la distribuci6n geomtrica, la recproca


d e la propiedad d ) tambin es cierta. La nica variablealeatoriacontinua
X que toma valores no negativos, para los cuales P ( X > S
t I X >
S ) = P ( X > 1) paratoda
S, t > O, es una variablealeatoriadistribuida
exponencialmente. [Aunque aqu no demostraremosesto, podra sealarseque
la base del argumentoimplica el hecho de quela nica funcin continua G q"e
tiene la propiedad queG(z+y) = G(z)G(y) para toda z, y > O, es G(z) = e - k x .
Es Mcil ver que si definimos G(z) = 1 - F ( x ) , donde F es la fda de S , luego G
satisfar esta condicin.]

EJEMPLO9.5. Supngasequeun h s i l h tieneunaduracin


S
que puede considerarse como una variablealleatoria continua con una
Iiay dos procesos mediante los cualesse
distribucinexponencial.
puede fabricar el fusible. El proceso I da una duracin esperada de100
horas (esto es,el parmetro es igual a l O O - l ) , mientras queel proceso I I
da una duracin esperada de
150 horas (esto ES, el parAmctro es iguala
150-I). Supngase tambin que el proceso I1 es dos veces ms costoso
(por fusible) que el proceso I, el cual cuesta C dlares por fusible, y
ademds quesi un fusible dura menos d e 200 horas se carga una prdida
de Ii dlares a l fabricante. ?Qu proceso se deber usar? Calculemos el
costo esperudo para cada uno delos procesos. Para el proceso I tenemos
CI = costo (por fusible) = C
=C

si

+ I(

> 200

si X 5 200.

252

9.6

Algunas variables aleatorius continuas importantes

Por tanto,

Con un clculo semejante encontramos que

Luego,

E(CI1) - E(C1) = C + ,(e-'

- e-4/3)

= C - 0.1311'.

Por tanto, preferimos el proceso I con tal que C

> 0.1311'.

EJEMPLO9.6. Supngase que X tiene una


distribucin exponencialcon parmetro a. En- f(4
tonces E ( X ) = l / a . Calculemos la probabiliX' sobrepase suvalor esperado (Fig.
dad de que
9.5.) Tenemos
-ff(l/a)

= e

-1

<i.

x=l/a

FIGURA9.5

EJEMPLO9.7. Supngase que T , el tiempo para que falle un componente est distribuido exponencialmente. Luego f ( t ) = cxe-at. Si se
instalan n de tales componentes cuAl es la probabilidad de quela mitad
o ms d e ellas hncionen an al trmino de t horas? La probabilidad
pedida es

9.6

distribucin
la Propiedades
de

exponencial

253

EJEMPLO9.8. Supngase que la duracin en horas, llammosla T ,


de cierto tubo electrnico
es una variable aleatoria con una distribucin
eiponencial con parmetro p. Estoes, la fdp est dada por f ( t ) =
p e - P t , t > O. Una mquina que usa este tubo cuesta C1 dlares/hora
para funcionar. Mientras la mquina est funcionando se obtiene una
utilidad de C2 dlaredhora; adems debe contratarseun operador para
un nmero prejjudo de horas, digamos H , el cual obtiene un pago de
C3 dlaredhora. Para que valor deH es mayor la utilidud esperudu?
Obtengamos primero una expresin para la utilidad, llammosla R.
Tenemos
si T

R = C2H - C 1 H - C 3 H
= C2T

C1T

si T

- C3H

>H
5 H.

Ntese queR es una variable aleatoria, puesto que


es una funcin deT .
Luego,

Para obtenerel valor mximod e E( R) lo diferenciamos respectoa E1


y hacemos la derivada igual a cero. Tenemos

Luego, d E ( R ) / d I I = O implica que


I1 = - (;)In

c
2

c3

].

- c1

254 Algunas
variables
aleatorius
continuas

9.7

importavttes

[A fin de quela solucin anterior sea significativa, debemos tener 11 > O


lo que ocurre si y slo si O < C3/(C2 - Cl) < 1, lo que a su vez equivale
a C2 - C1 > O y C2 - C1 - C3 > O. Sin embargo, la ltima condicin slo
rcquiere que las cifras del costo sean de una magnitud tal que pueda
obtenerse una utilidad.]
Supngase en particular queP = 0.01, C1 = $3, Ca = $10 y C3 = $4.
I,ucgo, I1 = - l O O l n [ $ ] = 55.9 horas 21 56 horas. Entonces, el operador
56 horas para obtenerla utilidad mxima. (Para
debc ser contratado por
una modificacin ligera del ejemplo anterior,vase el Prob. 9.18.)

9.7 La distribucidn gama

Presentemos primero una hncin que es muy importante noslo en la


teora de probabilidad, sino en muchasBreas de las matem5ticas.
Definicin. Lafirncin gnnza denotada con I?, se dcfine como sigue:
r(p)=

/lxl
O

zP-le-'

dx, definida
para

> O.

(9.12)

[Puede demostrarse que la integral impropia anterior existe (converge)


cada vez que p > O]. Si integramos lo anterior por partes, haciendo
e-z dz = dv y zp-l = u, obtenemos

e" X

xp-2 dx

A s hemos demostrado que la funcin gama sigue una importante relacin recursiva. Supngase que p es un entero positivo, dejamos p = n.

Entonces, aplicando la ecuacin (9.13) repetidamente, obtenemos

9.8

gama

Propiedades
distribucin
dt?la

Sin embargo, r(l)=

so" e-'

255

dx = 1, por tanto, tenemos

(si n es un entero positivo). (Luego podemos considerar que la funcin


gama es una generalizacin d e la funcin factorial.) TambiCn es fAcil
verificar que
(9.15)
(Vase
Con la ayuda dela funcin gama, ahora podemos presentarla distribuci6n gama de probabilidades.

Definicin. Sea X unavariable


aleatoria
continua
que
toma slo valores no negativos.
Decimos que X tiene una distm'buci6n de probabilidades gama
si su fdp est dada
por
a

f(z) = - ( o z ) T - l e - " z ,

u9-1

= O para cualquier
otro

>O
valor.

Le

Ax)

r = 11

-X

9.1fi

FIGURA9.6

Esta distribucin depende d e los dosparrneh-os, r y a d e los cuales


necesitamos r > O, a > O. [Debido a la definicin de la funcin gama,
f(x) dx = l.] La figura 9.6 muestrala grfica dela
es fcil ver que S-,"'
fdp dela ecuacin (9.16) para diversosvalores d e r y a = 1.

9.8 Propiedades de la distribucin gama =

a ) Si r = 1 la ecuacin (9.16) se transforma enf ( x ) = ae-cyz. Luego, la


distribucin exponencial es un caso especial de la dist!ribucin gama. (Si r es un
la
entero positivo > 1, la distribucin gama est relacionada tambin con
distribucin exponencial, pero de un modo ligeramente diferente. Nos
referiremos a esto en el captulo10.)
B ) En la mayora de nuestras aplicaciones, el parmetro r ser un
entero positivo.En este caso, existe una relacin interesante entre
la

9.8

256 Algunas
variables
aleatorias
continuas
importantes

fda de a
l distribucin gama y l a distribucin d e Poisson, misma que
desarrollaremos ahora.
Considrese l a integral I = J,"(e-Yy"/r!)
dy, donde r es un entero
positivo y a > O. Luego, r ! l = JUm e - y y r d y . Integrando por partes,
haciendo u = y T y dv = e-?' dy, obtendremos du = r y T - l d y y v = -e - Y .
Por IO tanto r ! ~
= ,-'ar
r ~ : e-Yyr-l dy. ~a integralen esta
expresin es exactamente la misma forma que la integral original con
la sustitucicin de r por ( r - 1). As, a l continuar integrando por partes,
puesto que r es un entero positivo, obtenemos

r!1 = e-"

'.[ +

+ T ( r - l)a"

7%"

+ ...+

Por tanto.

P ( Y = k),
6=0

donde Y tiene una distribucin dePoisson con parmetro a.


Consideremos ahorala fda de la variable aleatoriacuya fdp est dada
por la ecuacin (9.16). Puesto que r es un entero positivo, la ecuacin
(9.16) puede escribirse como

y, por consiguiente, l a fda de X se transforma en


F ( x )= 1- P ( X

Haciendo

(as) =

> x)

u, encontramos que estose convierte en

F(2)= 1-

Lx
00

ur-l e -u

(7'- l)!

du,

> O.

9.9

La dis,tribucidn X-cuadrada

257

Esta integral es precisamente de la forma antes considerada, a saber, I


(con a = ax),y as,

F(2)= 1 -

7-1

e-ytz)k/k!,

> o.

(9.17)

k=O

Por tanto, l a f d ade la distribucidn gama puede expresarse mediante la f d a


tabulada de la distribucin de Poisson. (Recurdese que estoes vlido si el
parmetro r es un entero positivo.)
Obseruacidn: El resultado indicado en la ecuacin (9.17), que relaciona la
fda d e la distribucin d e Poisson con la fda d e ;la distribucin gama, no es
tan sorprendente como podra aparecer al principio, tal como lo indicar& la
siguiente exposicin.
Antes que nada, recordemos la rclacin entre las distribuciones de Pascal y
binomial (vase la observacin b ) de la Sec. 8.6). Una relacin similar existe
entre las distribuciones d e Poisson y gama, excepto que la cltima es una distribucin continua. Cuando tratamos con una distribuci6n d e Poisson estamos
interesados especialmenteen el nmero deocurrencias de algn evento durante u n periodo fijo d e tiempo. Y, como se indicard, l a distribucin gama aparece
cuando pedimos la distribucin del tiempo necesario para obtener un nilmero
especificado d e ocurrencias del evcnto.
Especficamente, supngase que X = nmero de ocurrencias del evento A
durante (O, 1). Entonces, en condiciones semejantc:s (es decir, satisfaciendo las
hiptjtesis Al hasta A5 d e la Sec. 8.3),X tiene una distribucin de Poisson con
parAmetro at, donde cr es el nmero esperado d e ocurrencias de A durante
un intervalo d e tiempo unitario. Sea T = tiempo necesario para observar r
ocurrencias de A . Tenemos
H ( 2 ) = P ( T 5 t ) = 1- P ( T

> t)

= 1 - P(menos que r ocurrencias d e '4 acontecen en [ O , t ] )


= 1- P ( X

< r)

=1-c
T-l

e"t(cut)k

k=O

Comparando estocon
seada.

IC!
la ecuacin (9.17) se establece la relacin de-

Si X tiene una distribucih gama dada


tenemos
c)

por la ecuacin (9.16),

258 Algunas variables


aleatorius
continuas
importantes

E ( X ) = ?-/(Y,

V ( X ) = T/(Y2.

9.9

(9.18)

Demostlmcin: Vase el problema 9.20.

9.9 La distribucidn x-cuadrada


Un caso especial muy importante
d e la distribucin gama, ecuacin
1
(9.16), se obtiene si hacemos (Y = y T = 72/2, donde n es un entero
positivo. Obtenemos unafamilia de distribucionesde un parmetro
con

fd p

(9.19)
Una variable aleatoria
Z que tiene fdp dada por
la ecuacin (9.19) se dice
que tiene una distribucin ,y-cuadrudu con n grudos de libertad (se denota
con xi). En la figura 9.7 se muestra la fdp para n = 1 , 2 y n > 2. Una
consecuencia inmediata d e la ecuacin (9.18) es que si 2 tiene fdp d e la
ecuacin (9.19), tenemos

E ( 2 )= n,

V(2)= 2 7 2 .

(9.20)

FIGURA9.7
La distribucin x-cuadrada tiene muchas aplicaciones importantes en
inferencia estadstica, algunas d e las cuales citaremos posteriormcnte.
Debido a su relevancia, la distribucin x-cuadrada est tabulada para
n. (VaseelApndice.)Portanto
diversosvaloresdelparmetro
e n la tabla podemos encontrar qu valor, denotado con x i , satisface
P ( Z 5 x i ) = (Y,
O < (Y < 1 (Fig. 9.8). El ejemplo 9.9 trata un caso
especial de una caracterizacin general d e la distribucin x-cuadrada
que estudiaremos en un captulo posterior.

La dish~bucwn X-cuadrada

9.9

259

FIGURA9.8
EJEMPLO9.9. Supngaseque lavelocidad V de un objetotiene
distribucin N ( 0 , l ) . Sea I( = mV2/2 la en'ergacintica del objeto.
Para encontrar la fdp de I<',busquemos primero la fdp de S = V 2 .Al
aplicar directamente el teorema5.2 tenemos

i)

Si comparamosesto con l a ecuacin (9.19) y recordamos queI?( = ,J.


observamos que S tiene una distribucinx:. As encontramos queel cuadrado de una z~ariable aleatoria con distribucin
N ( O , l ) tiene u n a distribucin
x!. (ste es el resultado que generalizaremos posteriormente.)
Ahora podemos obtener la fdp h de la energa cintica A-. Puesto que
li-es una funci6n mon6tona de
V 2 ,cuya fdp est dada por la g anterior,
tenemos directamente

h(k) = "
m9 "E =

(i -'I2

"

k)

e- k / m

b>0.

A fin d e evaluar P ( K _< 5), por ejemplo, no necesitamos usar la fdp


de I<-sino que podemos usar simplemente la distribucin tabulada
cuadrada como sigue

P ( K 5 5 ) = P ((m/2)V25 5) = Y(V2 5 lO/nt).

x-

260 Algunas
variables
aleatorius
continuas
importantes

9.10

Esta ltima probabilidad se puede obtener de manera directa de las


tablas d e la distribucin X-cuadrada (si m es conocida), puesto que
tiene una distribucin X:. Puesto quc E ( V 2 )= 1 y la varianza ( V 3d ) = 2
[vase la Ec. (9.20)], encontramos directamente

Observacin: L a tabulacin de la distribucin x-cuadrada que se incluye en


el Apndice slo da los valores para los cuales n , el nilmero de grados de
libertad, es menos que o igual a 45. La razn de esto es que si n es grande,
podemos aproximar la distribucin x-cuadrada con la distribucin normal,
como se indica en el teorema siguiente.

Supngase que l a variable aleatoria E tiene una distribucin x i . Entonces, para n suficientemente grande la variable
l a distribucin A r ( J m ,
aleatoriatieneaproximadamente
1). (La demostracin no sehar aqu.)

Teorema 9.2.

Este teorema puede utilizarse como sigue. Supongamos que necesitamos P ( Y 5 t ) , donde Y tiene la distribucin X,: y n es tan grande que
la probabilidad antcrior no puede obtenerse en forma directa
la tabla
de
d e la distribucihn X-cuadrada. Usando el teorema9.2 podemos escribir

El valor d e Q, se puede obtener de


las tablas d e la distribucin normal.
9.10 Comparacin entre varias distribuciones
Hasta ahora hemos presentado diversas distribuciones d e probabilidades importantes, tanto discretas como continuas: binomial, d e Pascal y
d e Poisson, entre las discretas, y la exponcncial normal y gama, entre
las continuas. No volveremos a dar las diversas hiptesis que conducen
a esas distribuciones. Aqu, nuestro inters principal es selialar ciertas
analogas (y diferencias) entre las variables aleatorias que poseen esas
distribuciones.

9.1 1

La
bivariada
distribucin
normal

261

1. Supngase que se efectanensayos de Bernoulli independientes.


a) Variable aleatoria: nmero de ocurrencias del eventoA en un

nmerofijo de experimentos.
Distribucin: binomial.
b) Variable aleatoria: nmero necesario d e ensayos d e Bernoulli
para obtener la primera ocurrencia d e A .
Distribucin: geomtrica.
c) Variable aleatoria: nmero necesario d e ensayos de Bernoulli
para obtener la r-sima ocurrencia d e A .
Distribucin: de Pascal

2. Supngase un proceso de
Poisson (vasela nota c) del ejemplo8.5.)

d ) Variablealeatoria: nmerodeocurrenciasdeunevento
A
durante un intervalo d e tiempofijo.
Distribucin: d e Poisson
e ) Variable aleatoria: tiempo transcurri'do hasta
la primera ocurrencia d e A .
Distribucin: exponencial
fl Variable aleatoria: tiempo transcurrido hasta la r-sima ocurrencia deA .
Distribucin: gama.

Obsemacidn: Ntese la similitud entre a) y d ) , b ) y e ) y finalmente entre


c)

Yf).

9.11 La distribu.idn normal bivariada Todas las variables aleatorias que hemos presentado han sido variables
aleatorias unidimensionales. Comolo mencionamos en el captulo6, las
variables aleatorias d e mayor dimensin desempean un papel importante en la descripcin de resultados experimentales. Una de las ms
relevantes variables aleatorias bidimensionales, continuas, una generalizacin directa d e la distribucin normal unidimensional, se define como
sigue:

Definicin. Sea (X, E') una variable aleatoria bidimensional continua que toma todos los valores en el plano euclidiano. Decimos
que ( X ,Y ) tiene unadistm'bucih normal bivan'ada si su fdp conjunta
est dada por la expresin siguiente:

262 Algunas variables aleatorius continuas importantes

-00<~<0O,-0O<y<0O.

9.1 1

(9.2 1)

La fdp anterior depende de 5 parmetros. Para que f defina una fdp


legtima [o sea, f(x,y) 2 O
S
, ?g f(x,y) dx dy = 11, debemos
hacer las siguientesrestricciones a los parmetros: "o0 < p,x < 0 0 ;
"o0 < p y < 00; ax > O; ay > O; -1 < p < 1. Las siguientes propiedades
d e la distribucin normal bivariada pueden verificarse fcilmente.
Teorema 9.3. Suponiendo que( X , Y )tiene la fdp dada enla ecuacin
(9.21), entonces,
u ) las distribucionesmarginales

N ( p y ,ay),
2 respectivamente;

de X y d e Y son N ( / L u$)
~, y

b ) el parmetro p que aparece anteses el coeficiented e correlacin


entre X y Y ;

c) las distribuciones condicionales de X (dado que Y = y) y d e Y


(dado que X = x) son, respectivamente,

Demostracin: Vase el problema 9.2 1


Observaciones: a ) El recproco de a ) del teorema 9.3 no es verdadero. Es
posible tener una fdp conjunta queno es normal bivariada aunque las fdp d e
X y d e E' son normales unidimensionales.
6 ) En la ecuacin (9.21) observemos que si p = O, la fdp conjunta d e ( X , Y )
puede factorizarse y, por tanto, X y Y son independientes. As, en el caso
d e la distribucin normal bivariada encontramos que la correlaci6n cero y la
independencia son equivalentes.
c) La parte c) del teorema anterior demuestra
que ambas funciones d e
regresin del promedio son lineales. Tambin demuestra que la varianza d e la
distribuci6n condicional se reduce en la misma proporci6n que (1 - p2). Esto
es, si p est cercana a cero, la varianza condicional es esencialmente la misma

9.12

Dis,tribucwnes truncadas

263

que la varianza incondicional, mientras que si p est5 cercana a f l , l a varianza


condicional est cercanaa cero.

La fdp normal bivariada tiene varias propiedades interesantes.


Estableceremos algunas en un teorema, dejando
a
l demostracin al lector.

Teorema 9.4. Considrese la superficie z = f(z,y), donde f es la fdp


normal bivariada dada enla ecuacin (9.,21).
a) z = c (constante) corta la superficie en una eZi$se. (stas se ]la-

man, algunasveces, contornos de una densidad de probabilidades


constante).

b ) Si p = O y ax = ay, la elipse anterior sc transforma en una


circunferencia. (?Qusucede ala elipse anterior cuandop --+ h l ? )

Dernostrucin: Vase el problema 9.22.


Obseruacidn: Debido a la importancia d e la distribucih normal bivarinda,
se han tabuladodiversasprobabilidades
asociadas con ella. (Vase D.B.
Owen, Haudbook of Statistical Tables,Addison-MTesleyPublishing Company, Inc.,
Reading, Mass., 1962.)

9.12 Distribuciones truncadas


EJEMPLO9.10. Supngase que se fabrica ciertotipo de pernos y
su longitud, llammosla Y , es una variable akatoria con distribucin
N(2.2, 0.01). De un gran lote d e tales pernos se saca un nuevo lote,
descartando todos aquellos para los cuales Y > 2. Por tanto, si X es la
variable aleatoria que representa
el largo d e los pernos enel nuevo lote,
y si F es su fdp tenemos

(Vase la Fig. 9.9). Entonces, la fdp de X , esti dada por

9.12

264 Algunas variables aleatorius continuas importantes


I

f(x) = F (x) = O

si x

exp

1
- fi(O.1)

(- 2

@(

I
I

> 2,

[T
r-2.2.]2)

si

-2)
1

x 2 2

FIGURA9.9
puesto que

P(Y I 2) = P

(Y
2. ; ;

-&@(-a>.
2 - 2.2

[@,como es usual, es la fda d e la distribucin N ( 0 , l)].


La anterior es una ilustracin de una distribucicin nomaltruncada
(especficamente truncada a la derecha de X = 2). Este ejemplo se
puede generalizar comosigue.

Definicin. Decimos que la variable aleatoria X tiene una distribucin normal tmmcada a la derecha d e X = T si su fdp f es de la
forma

f(x) = O

si

=K
6

> T,
exp

1 x-fl

Ntese que I< se determina de la condicin


tanto,

si x

5 T.

S_'," f(x)

(9.22)

dx = 1 y, por

donde 2 tiene distribucin N ( p , 0 2 ) .Anloga a la anterior tenemos la


siguiente definicin.

9.12

truncadas

265

Di:;tribucwnes

Definicin. Decimos que la variable aleatoria X tiene una distribucin normal truncudu u la izquierdu d e X = y, si su fdp f es d e la
forma

f(x) = O

si x

< y,

Nuevamente, K se determina de la condicin J?:


as
K = [l -

f(x)

dz =

1y

* (y)]
-1

'

Los conceptos antes presentados para la distribucin normal pueden


extenderse de manera evidente a otras
dist.ribuciones. Por ejemplo,
una variable aleatoria X distribuida exponencialmente, truncada a la
izquierda d e X = y, tendra la siguiente fdp:
f(x) = O

si

< y,
si x 2 y.

= Cae-"x

Nuevamente, C estdeterminadapor
y, por tanto,

la condicin

(9.24)
f ( x ) dx = 1

Tambin podemos considerar una variable aleatoria truncada en el


caso discreto. Por ejemplo, si una variable ialeatoria X que tiene una
distribucin d e Poisson (con parametro X) esta truncada a la derecha en
X = IC 1, significa que X tiene la distribucibn siguiente:

P(X=i)=O

sii>IC+l,

xi -x

=CTe

2.

sii=ID,l,

...,IC.

(9.25)

De la condicin C g o = , P (=
X i ) = 1 determinamos C y encontramos

266 Algunas zrariables aleatorias continuas importatztes

9.12

As,

i = O, 1,. . . , k y 0 para cualquier otro valor.


Las distribuciones truncadas pueden aparecer en muchas aplicaciones importantes. A continuacicin consideraremos algunos ejemplos.

EJEMPLO9.11. Supngase que X representa l a duracindeun


componente. Si S est distribuida normalmente con

encontramos que

P(X

< O)

@(-a)

= 0.023.

As, este modelo noes muy preciso, puesto que asigna una probabilidad

0.023 auneventoquesabemosque
no puede ocurrir. Ensulugar,
podramos considerar la variable aleatoria X anterior truncada a la
izquierda en X = O. Por tanto, supondremos que la fdp de la variable
aleatoria X est dada por
f ( r )=

si

3:

5 O,

Obsetuacidn: IIemos indicado que a menudo usamos la distribucin normal


para representar una
variable aleatoria X d e la cualsabemosque no puede tomar
valores negativos. (Por ejemplo,el tiempo para que ocurra una
falla, el largo d e
una varilla, etc.) Para ciertos valoresde los parametros p = E ( X ) y c2 = V ( S )
el valor d e P ( X < O) ser despreciable. Sin embargo, si ste no es el ca5o (como
en el Ej. 9.1 l), deberamos considerarel uso de la distribucin normal truncada
a la izquierda en X = O.

9.12

truncadas

Distribuciones

267

EJEMPLO9.12.
Supngasequeun
sistemaest formadopor n
componentes que funcionan de manera independiente
y cada uno tiene
la misma probabilidad p de funcionar correctamente. Cada vez que el
sistema funciona mal, se inspecciona a fin
d e establecer cuntos y cuLiles
son los componentes que fallan.Definamos la1 variable aleatoriaX como
el nmero de componentes que fallan en un sistema descompuesto. Si
suponemos que el sistema falla si y slo si al menos un componente
falla, entonces X tiene una distribucidn binomid tm.ncudu u lu izpierdu en
X = O. Precisamente el hecho de que huyujulZado el sistema impide la
posibilidad de que X = O. Especficamente tenemos

P ( X = k) = ( X 1 - P)kPn-k
P(sistema falla)

k n-k

P ( X = k) = ( X 1 - P ) P
1 - pn

k = 1,2,...,n.

, k

= 1,2,...,n.

EJEMPLO9.13. Supngase que una fuente radiactiva emite partculas de acuerdo con una distribucin d e Poisson con parmetro X. Un
dispositivo para contar esas emisiones slo funciona si llegan menos d e
tres partculas. (Esto es, si llegan ms de tres, partculas durante un periodo de tiempo especificado, el dispositivo deja de funcionar debido a
que se produce un cierre.) Por tanto,si E es el nmero de partculas
anotadas durante el intervalo de tiempoespecfico, Y tiene los valores
posibles O, 1 y 2. A s ,

P ( Y = k)

-x

k!

=O

e-x

Xk

[I

+ X + (X2/2)1

k = O, 1,2,

para cualquier otro valor.

Puesto que la distribucin normal truncada es particularmente importante, consideremos el problema siguieme asociado con esta distribucin.
Supngase queX es una variable aleatoria distribuida normalmente
truncada hacia la derecha en X = T. Luego, la fdp f es d e la forma

268 Algunas variables aleatorius continuas importantes


f(x) = O

si x 2

9.12

T.

Por tanto, tenemos

Ntese quela expresin obtenida paraE ( X ) se expresa mediantelas


funciones tabuladas. La funcin CI, es, por supuesto, la fda corriente de
la distribucin N ( 0 , l),mientras que (1/&G)e-z2/2
es la ordenada de
la fdp dela distribucin N ( 0 , l ) y tambin est tabulada. En realidad, el
cociente

est tabulado. (VaseD. R. Owen, Ilundbook of Stutistical Tubles, AddisonWesley Publishing Company, IIIC., Reading, Mass., 1962.)
Utilizando el resultado anterior, ahora podemos formular
la siguiente
pregunta: para p y o dados, ?dnde debera ocurrirla truncacin (esto
es, ?cul debera ser el valor d e r ? ) de modo que el valor esperado
des@s de la truncacin tenga algn valor A preasignado? Podemos
responder esta pregunta con ayuda de la distribucin normal tabulada.
, = 10, u = 1, y necesitamos que A = 9.5. Por tanto,
Supngase que u
debemos resolver

Problemas

269

Esto se transforma en

Utilizando las tablas ya citadas, encontramos; que


tanto, T = 10.52.

- 10 = 0.52, y por

Obseruacwc El problema presentado anteriormente slo puede resolverse


para ciertos valores d e p, u y A. Esto es, para p y u dadas, puede no serposible
un valor especifico d e A. Consideremos la ecuaci6n que puede resolverse:

El segundo miembro d e estaecuacinesobviamente


positivo. Por lo tanto,
debemos Tener ( p - A ) > O con objeto de que cl problema anterior tenga
solucin. Esta condicin no es muy inesperada puesto que slo expresa que
el valor esperado (despusdc unatruncacin a la derecha) debe ser menor que
el valor original esperado.

PROBLEMAS
9.1. Supngase queX tiene una distribucin N(2, O , 16). Usar la tabla de la
distribucin normal para evaluarlas probabilidadles siguientes.
a)
/

P ( X 2 2.3)

b) P(1.8 5 X 5 2.1)

9.2. El dimetro de un cable elctrico est distribuido normalmente con


promedio 0.8 y varianza 0.0004, Cul es la probabilidad de que el dimetro
sobrepase 0.81 pulgadas?
, ' 9.3.
Sup6ngaseque el cable delproblema 9.2 seconsideredefectuoso
si el dimetro se diferencia d e su promedio en ms d e 0.025. ?Cul esla
probabilidad de obtener uncable defectuoso?

.' 9.4. Se sabe que los errores en cierto instrumento para medir longitudes
'est511distribuidos normalmente convalor esperado ceroy desviacin estndar
d e 1 pulgada. ?Cul es la probabilidad d e que al medir los errores, stos sean
mayores d e 1 pulgada, 2 pulgadasy 3 pulgadas?

9.5. Supngase que la duracin de los instrumentos electrnicos Dl y 0 2


tienendistribuciones N ( 4 0 , 3 6 ) y N(45,9), respectivamente.Culsedebe
prcferir para usarlo durante un periodo de 45 horas? C u d se debe preferir
para usarlo durante un periodo de
48 horas?

270 Algunas variables aleatorias continuas importantes


9.6. ConsidCrese slo en la magnitud de S , digamos E' = 1x1. Si ,
Y tiene
una distribucin N ( 0 , l), determinar la ftlp de E' y calcular E ( Y ) y V(E').

0.7. Supngase que se determinaa


l posicibn d e un objeto en unplano. Sean
S y Y los errores en las netl lid as de a
ls coordenadas .z y y respectivamente.
S u p n p c que S y I' son indepcndient,es y estn distribuidas idnticamente
X ( 0 , u 2 ) . Encontrar la fdp d e R = d
m .(La distribucin d e R se conoce
como distribuciu de Rayleigh.) [Indicacin: sean X = R cos $ y Y = R sen $,
obtener la fdp conjunta de (R, q ) y luego la densidad marginal de R.]
9.8. Encuntrese la fdp d e la variable aleatoria Q = S / Y , donde X y Y e d n
distribuidas como en cl problema 9.7. (La distribucin d e Q se conoce como
distribucin de Cauchy.) Se puede calcular E ( & ) ?
9.9. Una distribucin muy relacionadacon la distribucin normal es l a distribzccwn lognormal. Suponer queX e s ~ distribuida
5
normalmentecon promedio 1-1
yvarianza u 2 . Sea I' = ex. Entonces I' time la distribucin log nol-maI. (O sea,
Y es log normalsi y slo si I n E' es normal.) Encontrar la fdp de Y. Observation:
Las variables alentorias siguientes se pueden representar por la distribucin
anterior: el dimetro de partculas pequeas dcspuCs d c un proceso de trituracin, el tamao d e u n organismo bajo la accirin (le peq1leos impulsos y la
duracin d e ciertos artculos.
9.10. S u p n p e que X tiene lltlaclistribuci,n N ( / L , a 2 ) .Detcrrninar c (como
una funcin d e 11 y CT),m1 que P ( X 5 c ) = 2 P ( S > c ) .
9.1 1. Supngase que la temperatura (en grados centgrados)
est5 distribuida
normalmente con esperanza50" y varianza 4. iCu5l es la probabilidad de que
la temperatura T est entre 48" y 53" centgrados?

9.12. Se especifica que el dimetro exterior d e u n 514101 d e transmisin


(flecha), llammoslo D , delx ser de 4 pulgadas. S u p n p e que D es una
variable aleatoria distribuida normalmente con media
de 4 pulgadas y varianza
0.01 pulgada*. Si el dimetro real se diferencia del valor especificado por ms
d e 0.05 pulgada, pero en menos d e 0.08 pulgada, la prdida del fabricante es
d e $0.50. Si el dijmetro real se diferencia dcl dimetro cspecificado en m5s
d e 0.08 pulgada, la prdida es de $1.00. L a prdida, L , puede considerarse
como una variable aleat.oria. Encontrar la distribucicin d e probabilidades de L
y calcular E ( L ) .
9.13. Compare la cota supelior d e la proinbilidatl P [ I X- E ( X ) I2 2 J W I
obtenida con la desigualdad de Chebyshev con la probabilidad exact? en cada
uno delos casos siguientes:

,Y tiene distribucin N ( / " , u').


b ) X tiene distribucin d e Poisson con parmetro X.
c) X tiene distribucin exponencial con pnrmetro a.
a)

Problemas

27 1

9.14. Supngase que X es una variable aleatoria para la cual E ( X ) = p y


V ( X )= u2.Suponiendo queY esd distribuida miformemente enel intervalo
( u , b ) , determinar u y b d e modo que E ( X ) = E ( Y ) y V ( X )= V ( Y ) .
9.15. Supngase que X , la resistencia a la ruptura de una cuerda (en
libras),
tiene distribucin N(100,16). Cada 100 pies d e alambre para cuerda produce
una utilidad d e $25, si X > 95. Si X 5 95, la cuerda puede utilizarse con u n
propsito diferente y se obtieneuna utilidad de $10 por alambre. Encontrar
la
utilidad esperada por alambre.
9.16. Sean X 1 y X 2 variables aleatorias independientes cada una con una
distribucin N ( p , u). Sea Z ( t ) = X 1 coswt X 2 sen w t . Esta variable aleatoria
es d e inters en el estudio d e seales aleatoria;;. Sea V ( t ) = dZ(t)/dt. (Se
supone quew es constante.)

a ) Cul esla distribucin d e probabilidades d e


fija?

Z ( t ) y V ( t )para cualquiert

6 ) Demostrar que Z ( t ) y V ( t )no estn correlacionadas. [Obseruacih: Puede


demostrarse que Z ( t ) y V ( t )y son independientes, pero esto esms dificil d e
hacer].
9.17. Un combustible para cohetes va a contener ciertoporcentaje ( h mmoslo X) de un compuesto particular. Las e,spccificaciones exigen que -y
est entre 30 y 35% . El fabricante tendr una ui-ilidad neta e n el combustible
(por gal6n) que es la siguiente funcind e X :

?(X) = $0.10 por galn si 30 < X

= $0.05 por galn si

<:

35,

35 5 X 5; 40 o 25 < X 5 30,

= $0.10 por gal6n


Si X tiene distribucin N(33,9), calcular E(1T).
6 ) Supbngase que el fabricante desea aumentar su utilidad esperada, E ( T ) ,
en 50%,aumentando su utilidad (por galn) en aquellas partidas d e combustible que satisfacen las especificaciones, 30 < S < 35. Cul debe ser suutilidad
neta?
a)

9.18. Considreseelejemplo 9.8. Suponiendo que a un operario se le


pagan C3 dlareshora mientras la mquina est fllncionando
y C, d6lares/hora
(C4 < C3)por el resto del tiempo durante el cual ha sido contratado despus
de quela mquina ha fallado, determinar nuevarnente para quvalor d e H (el
nmero de horas que se contrata
al operario), la utilidad esperada es m h i m a .

(i)

9.19. Demostrar que I?


= &. (Vase 9.15.;) [Sugerencia: Hacer el cambio
d e variables x = u 2 / 2 en la integral I?
=
x-1/2e-x dt.]

(i)

272

Algunas variables aleatorius colttinuas importantes

9.20. Verificar las expresiones de E ( X ) y V ( X ) cuando ,Y tiene una distribucin gama [vase la Ec. (9.18)].
9.21. Demostrar el teorema 9.3.
9.22. Demostrar el teorema 9.4.
9.23. Supngase quela variable aleatoria X tiene una distribucin )(-cuadrada con 10 gradosd e libertad. Si se pidiera encontrar dos nmeros,u y b, tales
que P ( u < x < b ) = 0.85, se podra verificar que existen muchos pares d e esa
clase.
a) Encontrar dos conjuntos diferentes d e valores ( u , b ) que satisfagan la
condicin anterior.
b ) Suponer que adem&d e lo anterior, necesitamos que

P(X

< u ) = P(X > b).

?Cuntos conjuntos de
valores hay?
9.24. Supngase que V ,la velocidad (cmnbeg) de un objeto que tiene una
masa d e 1 kg, es una variable aleatoria que tiene una distribucin N ( O , 2 5 ) .
Representar con K = 1 0 0 0 V 2 / 2 = 500V2 la energa cintica ( K E ) del objeto.
Calcular P ( K < 200), P ( K > 800).
9.25. Suponer que X tiene distribucin N(,u,u2). Obtener una expresidn
aproximada para E ( Y ) y V ( Y )usando el teorema7.7. Si Y = In ,Y.
9.26, Supngase queS tiene una distribucin normal truncada laa derecha
como se da en la ecuacin (9.22). Encontrar una expresin para
E ( X ) en
trminos de funciones tabuladas.
9.27. Supngase que A tiene una distribucin exponencial truncada a
izquierda como estA dada enla ecuacin (9.24). Obtener E ( X ) .

la

9.28. u ) Encontrar la distribucin d e probabilidades d e una variable aleatoria


distribuida binonlialmente (con base en n repeticiones de un experimento)
truncada a la dcrccha en ,Y = n ; esto es, S = n no pucde ser observada.
b ) Encontrar elvalor esperado y la varianza d e la variable aleatoria descrita
e n u).
9.29. Supngase que una variable aleatoria distribuida normalmente con
valor esperado 11 y varianza u2 c s d truncada a la izquierda en X = T y a
la derecha en S = y. Encontrar la fdp d e esta variable aleatoria truncada
doblemente.
9.30. Suponer queX ,el largo de una varilla, tiene distribucinN ( 1 0 , 2 ) . En
vez d e medir el valor d e X, slo se especifica si se cumplen ciertas exigencias.
Especficamente, cada varilla fabricada se clasifica como sigue: X < 8, 8 5 X <

Problemas

273

12 y X 2 12. Si se bbrican 15 detales varillas, &u51 es la probabilidad de que


un nmeroigual d e varillas caiga en cada una delas categoras anteriores?
9.31. Se sabe que la lluvia anual que cae en cierta regin es una variable
aleatoria distribuida normalmente
con media igual a 29.5 pulgadas
y desviacin
estndar 2.5 pulgadas. Cuntas pulgadas d e lluvia (anuales) caen en exceso
alrededor del5% d e l a s veces?
9.32. Suponiendo que X tiene una distribucin N(O,25) calcular P ( l

x2< 4).

<

9.33. Sea X t , el nmero de partculas emitidas en t horas por una fuente


radioactiva y suponer queX t tiene unadistribucin d e Poisson con parmetro
Pt. Sea T igual al nmero de horashasta la primera emisin. Demostrar que
T tiene una distribucin exponencial con parmetro P. [Sugerencia Encontrar
el evento equivalente (en trminos d e X,) del evento T > t.]
9.34. Supngase que X t est definida comoe n el problema 9.33 con = 30.
?CuA es la probabilidad de que el tiempo entre emisiones sucesivas sea >5
minutos, > 10 minutos y <30 segundos?

st

9.35. En algunastablas d e ladistribucin normal, H ( z ) = (l/&)


eWt2i2
dl e s d tabulada para valores positivos de 2: (en vez d e @(z)como aparecee n el

Apndice). Si la variable aleatoria X tiene distribucin N ( l , 4 ) , expresar cada


una delas probabilidades siguientes e n trminos; d e los valores tabulados d e la
funcin H .

a ) P [IX(> 21

b) P[X

< O].

9.36. Supngasequeun dispositivo paratelemedir satlites recibe dos


clases d e seales que pueden anotarse como nlmeros reales, digamos X y
Y , y que X y Y son variables aleatorias continuas independientes con fdp f
y g, respectivamente. Supngase que durante cualquier periodo de tiempo
especfico slo se puede recibir una de esas seales y luego retransmitir a la
Tierra la seal que primerollega. Adem&, la seal que origina X llega primero
con probabilidad p y, por tanto, la seal que origina Y llega primero con
probabilidad 1 - p . Dentese con Z la variable alleatoria cuyo valor realmente
es recibido y transmitido.

a ) Expresar la fdp d e Z e n trminos d e f y g.


b ) Expresar E(2)en tkrminos d e E ( X ) Y E ( Y ) .
c) Expresar V ( Z )en trminos d e V ( X )y V ( Y ) .
d ) Supngase que X tiene distribucidn N ( 2 , 4 ) y que Y tiene distribuci6n
~ ( 3 , 3 )S. i p =
calcular P ( Z > 2).
e ) Suponiendo que X y Y tienen distribuciones N ( p 1 ,u;) y N ( p 2 , u;), respectivamente, demostrar que si p1 = p2, la distribucin d e Z es unimodal,
esto es, la fdp d e Z tiene un m5ximo relativo nico.

g,

274 Algunas variables aleatorias continuas importantes


9.37. Sup6ngase que elntmero de accidentes en una fribricase puede
representar por un proceso de Poisson con u n promedio d e 2 accidentes por
scmana. ?Cul es la probabilidad de que a ) el tiempo entre un accidente y
el siguiente sea mayor d e 3 das, b ) el tiempo de un accidente al tercero sea
mayor de una semana? [Indicacin: En a ) , sea T = tiempo (en das) y calcular
P(T > 3).]
9.38. Un proceso d e fabricacin produce en promedio un artculo defectuoso entre 300 fabricados. ?Cul es la probabilidad de que aparezca el tercer
articulo defectuoso:

a ) antes de quesean producidos 1000 artculos?


b ) cuando se produceel 1000"simo artculo?
c) despues de quese produzca el 1000-4simo artculo?
[Sugerencia: Supng?se u n proceso de Poisson.]

10.1 Introduccin

En este captulo presentaremos un concepto matemtico importante


que tiene diversas aplicaciones en los modelos probabilsticos que estamos estudiando. Con el propsito de presentar un desarrollo riguroso d e este tema, se requeriran conocimientcs matcrnticos de un nivel
considerablemente mayor del que estamos suponiendo aqu.
Sin embargo, si queremos evitar ciertas dificultades matemticas que aparecen
y si aceptamos que ciertas operaciones son vlidas, entonces podemos
obtener una comprensin suficiente de las principales ideas implicadas
para usarlas inteligentemente.
Con el propsito d e motivar lo que sigue, recordemos nuestro primer contacto con el logaritmo. kste slo se present como
una ayuda
para calcular. Con cada nmero real
positivo x, asociamos otro nmero,
designado con log z. (El valor de este nmero se pudo obtener de las
tablas correspondientes.) A fin de calcular zy, por ejemplo, obtenemos
el valor d e log z y log y y luego calculamos log z log y, que representa
log z y . Conociendo log z y pudimos obtener luego el valord e z y (nuevamente con la ayuda de tablas). De manel-a semejante con la ayuda

276

La f u ~ t c i h generadora
t de

momentos

10.2

d c los logaritmos podemos simplificar la elaboracin d e otros clculos


aritmticos. El planteamiento anterior es til por las siguientes razones:
a) Acada nmeropositivo x le corresponde exactamente un nmero,
log x, y este nmero se obtiene confacilidad de las tablas.
b) A cada valor delog x le corresponde exactamente un valor dex, y
este valor d e nuevo se obtiene detablas. (Esto es, la relacin entre 2 y
log x es uno a uno.)

c) Ciertas operaciones aritmticas que relacionan los nilmeros x y y,


como la multiplicacin y la divisin, pueden reemplazarse por operaciones ms sencillas como la adici6n y la sustraccin, mediante los nmeros
transformados log x y log y (Vase el esquema de la Fig. 10.1).
En vez d e efectuar las operaciones directamente con los nmeros z
y y, primero obtenemos los nmeros logz y log y, hacemos nuestros
clculos con esos nmeros y luego los transformamos d e nuevo.
10.2 La funcin generadora de momentos
Ahora consideremos una situaci6n ms complicada. Supngase que S
es una variable alcatoria;
es decir, S es una funcindcl espacio muestra1
a los nilmeros rcales. Al calcular diversas caractcristicas d e la variable
),
directamente conla distrialeatoria S , como E ( S ) o l ) r ( d Ytrabajamos
bucin d e probabilidades tlc S . [La distribuci6n d c probabilidades est
dada por unafilncidn: la fdp en el caso continuo, o las probabilidades
puntuales p ( r . ; ) = P ( S = x i ) cn el caso discreto. Ida illtima tambin
se puede considerar como una runci6n que toma valorcs distintos de
cero s610 si S = x i , i = 1 , 2 , .] Posiblementc podemos presentar otra
jirncidn y lracer los clculos necesarios medianteella (tal como antesasocibamos con cada n~neroun nuevo nzimero). Esto es, d e hecho, lo que
haremos precisamente. Primero daremos una definicin formal.
I

10.3

Ejemplos
funciones
degeneradoras

momentos
de

277

Definicin. Sea X una variable aleatoria discreta con distribucin


d e probabilidades P ( x ; ) = P ( X = x!;),i = 1 , 2 , . . . La funcin,
h!l,y, llamada fzmcin generadora de momentos de S , se define con
(10.1)
j=1

Si X es una variable aleatoria continua con fdp f , definimos l a


funcin gencradora de momentos con
(10.2)
Obsemacwnes: a ) Tanto en el caso discretocomo en el continuo, A f , , ( t )
es simplemente el valor esperado d e e".
Por tanto, podemos combinar las
expresiones anterioresy escribir

b ) A f , ( t ) es el valor que toma la funcin Af;, por la variable (real) t. La


notacin que indica la dependencia deX se usa porque quiz5 deseemosconsiderar dos variables aleatorias, X y Y y luego investigar la funcin generadora
d e momentos de cada una, esto es, M,y y All..
c) Usaremos la forma abreviada fgm para la funcin generadora d e momentos.
d ) La fgm, comose defini anteriormente, secscribe como una serieinfinita
o integral (impropia), dependiendo d e sila variable aleatoria es discreta o
continua. Tal serie (ointegral) puede no existir siempre
(es decir, convergir a un
valor infinito) para todoslos valores d e t. Por tanto, puede suceder que
la fgm
no est definida para todos
los valores d e t. Sin embargo, no nos interesar esta
posible dificultad. Cadavez que hagamosuso d e la fgm, siempre supondremos
que existe. (Para t = O, la fgm siempre existe y es igual a 1.)
e ) Hay otra ftmcin muy relacionada con la fgm que a menudo se usa en
su lugar. Se llama jiahciw curucten'stica, se denota con C s , y se define con
C - y ( t ) = E(eit"), donde i =
la unidad imaginaria. Por razones tericas,
hay una ventaja considerable al usar C,y(t) en vez d e A f , , ( t ) . [Por esta razn,
C x ( t )siempre existe para todos los valores d e 11. Sin embargo, a fin d e evitar
clculos con nilmeros complejos restringiremos nllestra exposicin
la fimci6n
a
generadora de momentos.
J) Postergaremos hasta la seccin 10.4 la exposicin de por qu llamar nilx
a
funcin generadora de momentos,

m,

10.3

278 La ftcncidn generadora de momentos


10.3 Ejemplos de funciones generadoras de momentos

Antes de considerar algunas aplicaciones importantes de l a fgm a la


teora d e la probabilidad, evaluemos algunas de estas Cunciones.

EJEMPLO10.1. Supngase que S est distribuidu unifomnemente en el


intervalo [ a , b ] . Por tanto, la fgm est dada por

(10.4)
EJEMPLO10.2. Supngase que S est distribuida binomiulmnte con
parmetros n y p . Lucgo,

(10.5)
(Esta jltilnaigualdad se deduce de una
aplicacin directa del teorema
del binonlio.)

EJEMPLO10.3. Supngase que X tiene una distribucin de Poisson


con parmetro X. As,

= e - x ~ x= e~~ (~e ' - l )

(La tercera igualdad se deduce del desarrollo d c


Usamos esto con y = Xe t .)

(10.6)
cy

en

x2=0(yn/72!).

10.3

Ejemplos
funciones
degeneradoras
de

momentos

279

EJEMPLO10.4. Supngase que X tiene una dislribucinexponencid


con parAmetro a. Por tanto,

(Esta integralconverge slo si t < a. Por tanto, la fgmexisteslo


para esosvalores de t . Suponiendoque sesatisfaceestacondicin,
continuamos.) Luego,

Mx(T)= -e"(t-cr)
t-a

o
a -t'

< a.

(10.7)

Obsemacin: Puesto qne la fgm es slo un valor esperado d e X , se puede


obtener la fgm d e una funcin d e una variable aleatoria sin obtener primero
su distribucin de probabilidades (vase el Teorcma 7.3). Por ejemplo, si S
tiene distribucin N(0,l) y deseamos encontrar la fgm de Y = X 2 podemos
proceder sin obtener primerola fdp d e Y.Sirnplcmente escribimos

despus de una integracin inmediata.

EJEMPLO10.5.
tonces,

Supngase que X tiene distribucin N ( p , a'). En-

Sea (x - /&)/o
= S ; as x = as

+ p y dx = o ds. Por tanto,

10.4

280 La funcin generadora de momentos


Sea S - 01 =

11;

entonces ds = dv y obtenernos

(l0.S)

EJEMPLO10.6. Sea X u n a distribucin gccmn con p a r h e t r o s


(vase la Ec. (9.16)). Entonces,

(Esta integral converge a condicinde quc (Y

y r

> t ) . Sea z ( a - t ) = u;as,

dz = ( d u ) / ( a- 1)

y obtenemos

Puesto que la integral es igual a r ( r ) ,tenemos


(10.9)
Obsert~arioncs: a ) Si r = 1, l a funcin gama se convierte e n clistribucirin
exponencial. Observemos que s i r = 1, las ccuacioncs (1 0.7) y (1 0.9) son iglnles.
b ) Puesto quea
l distribuci6n cuadrada se obtiene conlo un caso especial
de la distribucin +?ma al hacer (Y =
y T = n / 2 ( n es un entero positivo),
tenemos que si z tiene distrilxlcibn x i , entonces,

Mz(Z) = (1 - 2 ) - " 1 2

(10.10)

10.4

Propiedades
de

la funcin
generadora

de momentos

281

10.4 Propiedades de la funcidn generadora de momentos


Daremos ahorala razn para llamarAdx funcingenerudom de momentos.
Recordemos el desarrollo en seried e Maclaurin d e la funcin e":

(Se sabe que esta serie converge para todoslos valores d e x.) A$,

Ahora,

Ilemos demostrado que para una sumafinita, el valor esperado d e


la suma es igual a la suma de los valores esperados. Sin embargo, considerando una suma infinita como la anterior no podemos aplicar, d e
inmediato tal resultado. No obstante, resulta que en condiciones justamente generales esta operacin
es todava vlida. Supondremosque las
condiciones pedidas se satisfacen y por consiguiente procedemos.
Recordemos que t es una constante respecto a la esperanza y podemos escribir

Puesto que AIdy es una funcin d e la variable real t , podemos considerar


que tomamos la derivada de M,y(t) respecto a t , esto es [ d / ( d t ) ] M , , - ( t )
o, en forma breve, AI'(t).Nos encontramos nuevamente con una dificultad matemAtica. La derivada de und3um;ajnitu siempre es igual a
la suma de las derivadas (suponiendo, por supuesto, que todas las derivadas existen). Sin embargo, para una suma infinita esto no siempre
es as. Deben satisfacerse ciertas condiciones a. fin d e justificar esta operacin; slo supondremos queesas condiciones existen y continuamos.
(En la mayor parte de los problemas que encontraremos tal suposicin
se justifica.)As,

10.4

282 La j-uncin generadora de momentos


Al(t) = E ( X )

+ t E ( X 2 )+ t 2 E2!( X 3 )

t
*

E ( P )+...
( n - I)!

Haciendo -t = O encontramos que slosubsiste el primer trmino y


tenernos

As, l a primera derivada de


la fgm calculada en t = O da el valor esperado
d e la variable alcatoria. Si calculamos la segunda derivada d e AfJy(t),
nuevamente procederemos como antes,y obtenemos

M ( t ) = E(*?)

+ t E ( ? i 3 ) + . . + in-(Sn)
( n - a)!
*

+...

y haciendo t = O, tenemos

M ( O ) = E(,Y).
Continuando de esta manera obtenemos el siguiente teorenla
niendo que M ( ) ( O ) existe].

[supo-

Teorema 10.1.

(Esto es, l a n-simadcrivada de

K(xn).

ArAy(f) calculada

en t = O da

Obsemaciotws: a ) Los nillneros E(Xn),n = 1 , 2 , . . ., se llaman n-simos momentos d e la variable aleatoria S respecto a cero. Por tanto, hemos demostrado
que conociendo la funcin Af,, pueden generarse los momentos (de aqu el
nombre de funcin generadorad e momentos).
1)) Recordemos el desarrollo general en serie
de Maclanrin d e una funcin,
digmnos h.

10.4

Propiedades de la funcin generadora de momentos

Mx(t)= M x ( 0 ) + h_l;i(O)t+ . . . +

283

Mg)(0)tn
+ .. .
n!

donde, pi = E ( X z ) ,i = 1 , 2 , . . . En particular,

V ( S )= E ( X 2 )- ( E ( s ) ) 2= M N ( O ) - ["(0)12
c) El lector puede preguntarsesi los metodos anteriores son del todoLtiles.
No sera ms simple(y m& elemental) calcular directamente los momentos de
S , e n vez de obtener primero la fgm y luego diferenciarla? La respuesta es
que para muchos problemaseste planteamiento es m,is scncillo. Los siguientes
ejemplos lo ilustrar5n.

AI'(t) = n ( p e t

+ q)n-lpe t ,

M " ( 2 ) = n p [et(. - l ) ( p 2

+ '1)n-2pet +

(112

+ q)'L-let] .

por tanto, E ( ~ Y=
) ~ ' ( 0=
) n p , que concuerda con nuestro resultado
anterior. Tambin, E(4Y2)= AI"(0) = n p [ ( n- 1 ) p 11. Luego,

lo que nuevamente concuerdacon lo antes cmcontrado.


EJEMPLO10.8. Supngase que X tiene distribucin N ( a , P 2 ) . Por
tanto (Ej. 10.5), M,(i) = cxp(cy2 + $p2t2).As,

y M(0) =

Q,

M(0) =

p2 + a 2 , dado E ( X ) =

cy

y V ( X ) = p2 como

ZllltCS.

IJsemos el mtodo de las fgm para calcular a


l esperanza y l a varianza
tlc una variable alcatoria con distribucin
dc pi-obabilidades geomtrica,
ecuacin (8.5).

EJEMPLO10.9. Sea X una distribucin de probabilidades geomtrica. Esto es, P ( X = IC) = & l p ,
= 1 , 2 , . . . ( p q = 1). h i ,

Si nos restringimos a aquellos valores de t para los cuales O < qe < 1


[esto cs, t < ln(l/q)], entonces podemos sumar la serie anterior como
una serie geomtricay obtener

Por tanto,

Por tanto,

E(?)

= M(0) = p(l

+ q)/(1

q )3 = (1

+q)/pZ,

10.4

Propiedades
de

la funcin
generadora

de momentos

285

Tenenlos as una verificacin del teorema 8.5.


Los dos teoremas siguientes sern
d e particular importancia en nuestras aplicaciones d e la fgm.

Teorema 10.2. Supcingase que la variable aleatoria X tiene fgm Al,-.


Sea Y = ax'+ p. Entonces, M y , la fgm d e la variable aleatoria Y ,
esti dada por
(10.12)

M y ( t ) = epfAf2y(cYt).

En palabras, para enconxar la fgm d e Y = a x p calculamos la


fgm d e X en at (en vez d e t ) y multiplicamos por e Pt .

Demostrucin:

Teorema 10.3. Sean x' y Y dos variables aleatorias con fgm, h f , y ( t )


y M y ( t ) , respectivamente. Si M x ( t ) = M y ( t ) paratodos los
valores d e t, entonces X y Y tienen la misma distribucin d e
probabilidades.

Demostracin: La demostracin de este teorema es demasiado dificil


para darla aqu. Sin embargo, es muy importante comprender exactamente lo que establece el teorema. Este dice que si dos variables aleatorias tienen la misma fgm, entonces tienen la misma distribucin d e
probabilidades. Esto es, la fgm determina unvocamente la distribucin
de probabilidades d e la variable aleatoria.

EJEMPLO10.10. Supngase que X tiene 'distribucin N ( p , g 2 ) , Sea


Y = a S + p. Luego, Y est&d e nuevo distribuida normalmente. Del
teorema 10.2, l a fgm d e E' es M ~ l ( t =
) ePtAfx(at).Sin embargo, del
ejemplo 10.5 tenernos que

Por tanto,

286 La funcin generadora de momentos

10.5

= e (BSnp)le(ao)'t?/2

Pero &la es la fgm d e una variable aleatoria distribuida normalmente


con esperanza a p p y varianza 0 2 c 2 .As, de acuerdo con el teorema
10.3, la distribucin d e Y cs normal.
El teorema siguiente tambin dcsempefia un papel vital en nuestro
trabajo posterior.

Teorema 10.4. Sup6ngasc qtle ,Y y Y son variables aleatorias independientes. Sca 2 = X + 1'. Sean AI,(t), M , r ( t ) y M,(t) las fgm
d e las variables aleatorias X , E' y 2,respectivamente. Entonces,
h'lZ(t) =

izr,(i)nr,..(q

(10.13)

Dernostrucin:

Obseruacio'n: Este t.corema puede generalizarse como sigue: si S I , . . . , Sn,


son variables aleatorias independientes con fgm, Al-yt, i = 1 , 2 , . . . , n entonces
W z , la Fgnl de

CSL<

dada por

10.5 Propiedades reproductivas


H a y varias distribuciones d e probabilidades que tienen la notable y til
propiedad siguiente: si dos ( o m5s) variables alcatorias independientes
~ I Iticncn
C
cicrta distribucinse suman, l a variable alcatoria quercsulta

10.5

287

reproductivas Propiedades

tiene una distribucin del mismo tipo que


la d e los sumandos. Esta propiedad se llamapropiedud reproductiva, y la estableceremos para diversas
distribuciones importantes con ayuda d e los teoremas 10.3 y 10.4.

EJEMPLO10.1 1. Supngase queX y Y son variables aleatorias independientes con distribucionesN ( p 1 , a ; ) ,y N ( p 2 , ai),respectivamente.
Sea 2 = X + Y . Por tanto,

Sin embargo, esto representa


la fgm de unavariable aleatoria distribuida
p 1 +p2 y varianza al
2 +ai. As, 2 tiene
normalmente con valor esperado
esta distribucin normal. (Vase el Teorema10.3.)

Obsemacidn: El hecho d e que E ( Z ) = p 1 p2 y que V ( 2 )= u ; 6; pudo


haberse obtenido inmediatamente
d e los resultadosantcriorcs relacionados con
las propiedades de la esperanza y la varianza. Pero para
esmblccer que Z
es3 otra vez distribuida normalmente fue necesario el uso d c la fgm. (lay otro
planteamicnto para llegar a este resultado que mencionaremos en el captulo
12.)

EJEMPLO10.12. La longituddeuna varilla aleatoriadistribuida


normalmente con medida de4 pulgadas y varianza 0.0 1 pulgada?. Dos
de tales varillas seponen extremocon extremo y se fijan en una muesca.
El largo d e esta muesca es de 8 pulgadas con una tolerancia de
&O. 1 d e
pulgada. ?CuAl es la probabilidad d e q u ese ajusten las dos varillas?
Representando conL1 y L2 las longitudes d e la varilla 1 y la varilla 2,
tenemos que L = L1 L2 estA distribuida normalmente con E ( L ) = 8
y V ( L )= 0.02. Por tanto,

P[7.9 5 L 5 8.11 = P

5--<0.14
[0.14
7.9 - 8

L.- 8

8.1 - 8
- 0.14

= @(+0.714) - a(0.714) = 0.52G,

de las tablas de la distribucin normal.


Podemos generalizar el resultado anterior en el teorema siguiente:
I

288 La funcin generadora


de

10.5

momentos

Teorema 10.5. (la prol,iedad r@-oductiva de lu distribucin normd).


Sean X I , X2,. . . ,X n , n variables aleatorias independientcs con
distribucin N ( / L ~a:),
,
i = 1 , 2 , . . . ,n. Sea 2 = S 1 + . . . -Yn.
3
Entonces, Z tienc distribucin N(C:==,
P;,C;=~
a;).
La distribucin d e Poisson tambin posee una propiedad reproducha.

Teorema 10.6. Sean X I , . . . ,X n variables aleatorias independientcs.


Supngase que X; tienc una distribucin de Poisson con parmetro ai, i = 1 , 2 , . . . ,n y sea 2 = X1 + . + X n . Lucgo, 2 tiene una
distribucin d e Poisson con parmetro

Demostracin: Considcrcmos primero el caso d e n = 2:

Por lo tanto, M,(t) = e(cul+cra)(e-'I.Pero Csta es la fgm de unavariable


"2.
aleatoria con una distribucinde Poisson que tiene parrimctro01
Ahora podemos completar la demostracin del teorcma con ayuda de
la induccin matemtica.

EJEMPLO10.13. Supngasequeelnmerode
llamadas que se
recibcn en u n a central tclcfnica cntre las 9 A M y 10 A M es una variable
aleatoria X 1 con una distribucin d e Poissoncon parmetro 3 . De
manera similar, el nmero de llamadas que se reciben entre las 10 A M
y 11 A M , digamos X2, tambin tiene una distribucin d e Poisson con
parmetro 5. Si X1 y X2, son independientes, <cul es la probabilidad
dc quese reciban ms d e cinco llamadas entre las 9 AM y las 11 A M ?
Sea Z = X 1 + X2. Del teorema anterior, 2 tiene una distribucin d e
Poisson con parmetro 3 + 5 = 8. Por tanto,

= 1 - 0.1912 = 0.8088

Otra distribuciGn con una propiedad reproductiva es la distribucin


x-cuadrada.

10.5

289

reproductivas Propiedades

xii,

Teorema 10.7. Supngaseque la distribucin d e X; es


i =
1 , 2 , . . . ,k , donde las X ; son variables aleatorias independientes.
Sea 2 = X1 +
+ Xk. Entonces, 2 tiene distribucin &, donde
n = nl

+ + nl;.

Demostracin: De la ecuacin (10.1 O) tenem'os Mxi( t ) = (1 - 2t)-""/",


i = 1 , 2 ,..., k .
Luego,

M&) = M & ( t )

M & ( t ) = ( 1 - ;!t)-(nl+"nk)/2

Pero sta esla fgm d e una variable aleatoriaque tienela distribucin

xi.

Ahora podemos dar una delas razones d e la gran importancia de l a


distribucin X-cuadrada. En el ejemplo 9.9 encontramos que si A' tiene
distribucin N ( 0 , l ) ,S 2 tiene distribucin X:. Combinando esto con el
teorema 10.7 tenemos el resultado siguiente.

Teorema 10.8. Supngase que X I , . . . ,X k son variables aleatorias


independientes,cadaunacondistribucin
N ( O , l ) . Entonces,
S = X;
X: tiene distribucin x 2k .

+S i + +

EJEMPLO10.14. Supngase que XI, . . . X n son variablesaleatoN(0,l). Sea


T =
riasindependientes,cadaunacondistribucibn
De nuestraexposicinpreviasabemosque
T 2 tiene

d w .

distribucin x:&.
Para encontrar la fdp deT , llamada h,, proseguiremos como es usual:

H ( t ) = P ( T 5 t ) = P(T2 5

Por tanto tenemos


h ( t ) = II'(t)

t2)

290 La futrcitt generadora de momentos

10.5

Observaciones: a ) Si n = 2, la distribucin anterior se conoce comodistribucio'n


de Ruyleigh. (Vase el Prob. 9.7.)
b ) Si n = 3, la distribucidn anterior se conoce comodistribucin ok Muxu1ell (o,

algunas veces, como distribucin


de velocidad de Maxwell) y tiene la siguiente
interpretacin importante. Supngase que tenemos g;zs en un depsito cerrado. Representemos con (X,Y ,2) las componentes de la velocidad de una
molcula escogida al azar. Supondremos que X , Y y 2 son variables aleatorias independientes, cada una con distribuci6n N ( 0 , u*). (Suponer que X , Y
y 2 tienen la misma distribucibn, significa que la presin en el gas es la misma en todas direcciones. Suponer que las esperanzas son iguales a cero significa que el gas no est escaphdose.) Por lo tanto, la rapidez de la molcula
(es decir, la magnitud de su velocidad) est dada por S = J X 2 + Y 2 + Z2.
Observemos que X / a , Y / u y Z/u estn distribuidas de acuerdo con N(10,1).
As, S / a = ~ ( X / ( +
T ) ~ + ( Z / U ) tiene
~ distribucin de Maxwell. Por
tanto, g, la fdp de la rapidez S , est dada por

LagrAfica de g se presenta en la figura g(s)


10.2 para u = 2. Observe que valores 4
muy grandes o muy pequeos de S son
bastante improbables.(Puede demostrarse que l a constante u,que aparece como
un parmetro en la distribucin anterior,tienelasiguiente
interpretacin
fica: u =
donde T es la temperatura absoluta, M eslamasa de la
molcula y k se conoce como la constante
de Boltzmann.)

,/m,

S,
S =d 2 / F

FIGURA
10.2

Hemos expuesto algunas distribuciones que tiene la propiedad reproductiva. Consideremos la distribucin exponencial que, en sentido
estricto no posee la propiedad reproductiva, pero que,sin embargo, POsee una propiedad anloga.
Sean S;, con i = 1 , 2 , . . . ,T , T variables aleatorias independientes
con idntica distribucin exponencial con parametro
a. Entonces, de
la ecuacin (10.7) tenemos

M&)

= ( . / ( a- t ) .

Luego, si Z = x'1 +
S T , tenemos 211z(t) = [ a / a- t]', que
precisamente es la funcin generadora de momentos de la distribucin
-

10.6

aleatorias
Sucesiones
variables de

291

gama con parmetro a y r (Ec. 10.9.) A menos que r = 1, sta no


es la f g n d e u n a distribucin exponencial; as, esta distribucin no
poseeunapropiedadreproductiva,perotcnemosunacaracterstica
muy interesante d e l a distribucin gama que se resume en el teorema
siguiente.

Teorema 10.9. Sea 2 = X1


+ X r , do'nde las Xr; son r variables
aleatorias independientes e idnticamente distribuidas, cada una
d e las cuales tiene una distribucin exponencial con el (mismo)
parmetro a. Se cumple, entonces, que 2 tiene una distribucin
gama con parmetrosa y r.
Obse~vacwnes: a ) El teorema 10.9 no se. cumple silos parmetros de las
diversas distribuciones esponenciales son diferentes.
Esto se hace evidente
cuando consideramos la fgm' de la suma resultante d e las variables aleatorias.
b ) El corolario siguiente del teorema anterior ticne mucha importancia en
ciertas aplicaciones estadsticas: la variable aleatoria LV = 2aZ tiene distribucin S;,. sta es una consecuencia inmediata dcl hecho d e que M ~ 7 ( t ) =
n/lz(2at)= [ a / ( &- 2at)lr = (1 - 2t)-2T/2. Comparando esto con la ecuacin
(10.10) rcsulta el corolario anterior. As podemos usar la distribucin tabulada
dc X-cuadrada para calcular ciert3s probabilidades asociadas con 2.Por ejemplo, P ( Z 5 3) = P(2aZ 5 6a). Esta ltimaprobabilidad puede obtenerse
directamente delas tablas d e la distribucin X-cuadrada, si se dan cy y r.

10.6 Sucesiones de variables aleatorias =


Supngase que tenemos una sucesind e variables aleatoriasX I , X'2, . . . ,
X, . . . Cada una de ellas puede describirse en trminos d e F;, su fda,
donde F;(t) = P ( X i 5 t ) , i = 1 , 2 , . . . Muy a menudo nos interesa lo que
succde a F; cuando i + OO.
Es decir (hay alguna funcin de distribucin
limite F correspondiente a alguna variable alcatoriaA
' tal que, dc alguna
manera, las variablesaleatorias S; converja.n a S ? Larespuesta es
afirmativa en muchos casos, y hay un procedimicnto bastante directo
para determinar F .
T a l situacin puede aparecer cuando consideramosn observaciones
independientes de una variable aleatoria X, llammoslas S I , . . . ,,Yn.
Podramos
interesarnos porel promedio aritnn6tico d c esas observaciones, X , = ( l / n ) ( X 1 + . - .+X,). De nuevo, x T t e s u nvarinl>le
a
aleatoria.
la fda d e X,. Podra ser d e inters aprender lo que sucede a la
Sea FTL
distribucin d e probabilidades d e X, cuando n llega a ser grande.As,

292

La fulrcin generadora

de momentos

nuestro problema implica la conduct,a lmite de Fn cuando n .-+ m. El


teorema siguiente, establecidosin demostracin, nos permitir resolver
ste y otros problemas semejantes.

Teorema 10.10. Sean X I , . . . ? X n , .. . una sucesin de variables aleatorias con fdaF l ? .. . , F n ? .. . y fgm M I , . . . , M n , . . . Supngase que
M n ( t ) = J/r(t),donde M ( 0 ) = 1. Luego, M(t) esla fgm
Fn(t).
de la variablealeatoria X cuyafda F est6 dadapor
Obseruacidn: El teorema 10.10 establece que para obtener la distribucin
lmite buscada es suficiente estudiar las fbnciones generadoras de momentos
d e las variables aleatorias que se consideran. Obtenemos el valor lmite d e las
sucesiones M I , . . . , M,, . . ., llamado M ( t ) . Debido a la propiedad de unicidad
d e la fgm, existe slo una distribucin d e probabilidades que corresponde a
la fgm M ( t ) . Podemos aceptar M como la fgm de una distribucin conocida
(como la normal, dePoisson, etc.) o bien podemos usar mtodos
m5s avanzados
para determinar la distribucin de probabilidades d e M. As como podemos
obtener la fgrn conociendo la fdp, tambin podemos obtener (en condiciones
completamente generales) la fdp conociendo la fgm. Esto implicara ciertos
teoremas de inversin, por lo que aqu no lo estudiaremos.

1O. 7 Nota final

Hemos visto que la fgm puede ser una herramienta muy poderosa para
estudiar diversos aspectos d e las distribuciones d e probabilidades. E n
particular, encontramos muy til el uso de la fgm para estudiar sumas
y
d e variables aleatorias independientes e idhticamente distribuidas
obtener diversas leyes reproductivas. Estudiaremos otra vez las sumas
de variables aleatorias independientes en el captulo12, sin usar la fgm,
pero con mtodos semejantes a los que empleamos cuando estudiamos
el producto y el cociente de variables aleatorias en el captulo 6.

PROBLEMAS
f(z) = 2 2 ,
a) Dctcrminar I n fgm de A.
h ) Usando la fgm, calcular E

Observacin dca
l p. 232.)

o I:2 5 1.

( S ) y V ( 9 ) y verificar la respuesta. (Vase la

Problemas

293

10.2. a ) Encontrar la fgm del voltaje (incluyendo el ruidot d como se expuso


en el problema 7.25.
b ) Usando la fgm, obtener el valor esperado y la varianza d e este volmje.
10.3. Suponer que X tiene la fdp siguiente
f ( z >= A e - ( z - a )

, x>a.

(sta es conocida comouna distribucwn exponencial con dos parnztros.)


a)

Encontrar la fgm d e X .

b) Usando la fgm, encontrar E ( S )y

V(X).

10.4. Sea X cl resultado cuando sc lanza un dadoregular.

Encontrar la fgm d e X . .
b) Usando la fgm, encontrar E ( X ) y V ( X ) .

a)

10.5. Encontrar la fgrn d e la variable aleatoria X del problema 6.7. Usando


la fgm, encontrar E ( X ) y V(X).

10.6. Supngase quela variable aleatoria continua X tiene fdp

a)

Obtener la fgm d e X .

b) Usando la fgm, encontrar E ( X ) y V ( X ) .

10.7. Usando la fgm, demostrar quesi X y Y slon variables aleatorias independientes con distribuciniV(pz,C T ~y) N ( p y ,u , )respectivamente,
,
entonces
2 = a X b Y est d e nuevo distribuida normalmente, donde
a y b son constantes.

10.8. Suponer quela fgm de unavariable aleatoria X es de la forma

AIx(t) = (0.4et

+ 0.6)
+

Cul esla fgm d e la variable aleatoria Y = 3X 2?


b) Calcular E ( X ) .
c) Se puede verificar la respuesta b) por algxn otro mtodo? [Trjtese d e
reconocerM,(t).]
a)

10.9. Varias resistencias, R;, i = 1,2, . . . , n, se ponen e n serie en uncircuito.


Suponer que cada una de las resistencias est distribuida normalmente con
E ( & ) = 10 ohms y I/(&) = 0.16:
U ) Si rz = 5, m51es la probabilidad de que la resistencia del circuito
sobrepase los 49 ohms?

294 La funcin generadora de momentos


b ) ?Cul debe ser el valor d e n d e manera que la probabilidad de que la
resistcncia total exceda los 100 ohms sea aproximadamente 0.05?

1O. 1O. E n un circuito se ponen n resistencias en serie. Supngase que cada


una d e las resistencias est distribuida uniformemente en [O, 11 y sup6ngase,

adems, que todasa


lsresistencias son independientes.Sea R la resistencia total.

a ) Encontrar la fgm d e R.
b ) Usando la fgm, obtener E ( R )y V ( R ) .Verificar la respuesta conu n cdlculo
directo.
10.11. Si X tiene una distribucin
E ( S ) = n y V ( X ) = 2n.

x:,

utilizando la fgm demostrar que

1O. 12. Supbngase que V, la velocidad de unobjeto (cdseg), tiene distribuci6n N(O,4). Si Ir = mV2/2 ergs es la energa cintica del objeto (donde m =
masa), encontrar la fdp d e IC. Si m = 10 grs, calcular P ( I < 5 3).

10.13. Supngase que la duraci6n de un artculoest5 distribuida exponencialmente con par5metro0.5. Supngase q u e 1O d e tales articulos se instalanen
forma sucesiva, de manera queel i-simo artculo se instala inmediatamente
despus de queel (i - 1) artculo ha fallado. Sea Ti el tiempo para que ocurra
la falla del i-sinlo artculo, i = 1 , 2 , .. . , 10 medido siempre desde el ticmpo
d e instalacin. Por lo tanto S = TI . . . 710 representa el tiempo totnl de
funcionamiento d e los 10 artculos. Suponiendo quelas Ti son independientes,
calcular P ( S 2 15.5).

+ +

1O. 14. Supngase que X1 , . . . , X80 son variables aleatorias independientes,


donde cada una tiene distribucin N ( 0 , l ) . Calcular P[X; . . . Xio > 771.
[Sugerencia: Usar el teorema 9.2.1

+ +

1O. 15. Demostrar que si X;,i = 1, 2 , . . . , IC representa el nmero dexitos en


ni repeticiones de un experimento, donde P(@xito)
= p , para toda i, entonces
X 1 + . . . +XI,tiene una distribucin binomial. (Esto es, la distribucin binomial
tiene la propiedad reproductiva.)

10.16. (La distribucindePoisson y la multinomial.) Supngase que X;,i =


1 , 2 , . . . , n son variables aleatorias distribuidas independientemente con una
distribuci6n d e Poisson con parmetros a;, i = 1,.. . , n. Sea X =
X;.
Entonces la distribucin de probabilidades condicional conjuntad e X I , . . . , X ,
dada X = z est dada por una distribucinmultinomial. Esto es P(X1 =
1,. . . , x, = z,
I X = z) = Z!/(Zl!.. .zn!)(LY1/Cp=lC y p . . . (a,/C;=l
a;).

1O. 17. Obtener la fgm de unavariable aleatoria que tiene unadistribuci6n


geomtrica. CEsta distribucin posee una propiedad reproductiva en la adicin?

Problemas

295

10.18. Si la variable aleatoria X &ne una fgm dada por Mx(t)= 3/(3 - t ) ,
obtener la desviacin estndar d e X .
10.19. Encontrar la fgm de una variable alleatoria que esti distribuida
uniformemente en(- 1,2).
10.20. Cierto proceso industrial produce un gran nmero d e cilindros d e
acero cuyas longitudes estn distribuidas normalmente con promediod e 3.25
pulgadas y desviacin estndar d e 0.05 pulgada. Si se eligen alazar dosd e tales
cilindros y se ponen extremo con extremo, ?cul es la probabilidad d e que la
longitud combinada sea menorque 6.60 pulgadas?

Obsemacidn: Al calcular AI$ (t), en t = O, puede aparecer una forma indeterminada. Es decir, M i ( 0 ) puede ser dela forma O/O. En tal caso debemos tratar
d e aplicar la regla d e L'IIGpitd. Por ejemplo, si .X est dimibuida uniformemente en [O, 11 con Gcilidad encontramos que hf.,(t) = ( e t - 1)/ y h . I i ( t ) =
(tet - et
l ) / t 2 . Por tanto, para t = O, M i ( t ) es indeterminada. Aplicando la
regla de L'MGpitaI encontramos que limt,o M ~ ( I ! ) = limt,o tet/2t = +. Esto
concuerda, puesto que M i (O) = E(X), que es igual a para la variable aleatoria descrita aqu.

11.1 Conceptos bsicos

En este captulo estudiaremos unArea creciente y muy importante de


aplicacin d e algunos d e los conceptos presentados en los captulos
anteriores.
Supngase que consideramos un componente (o un conjunto coma una espleto de componentes armados en un sistema) que se somete
pecie d e tensin. Podra ser una barra de acero bajo una carga, un
fusible puesto en uncircuito, un ala de aeroplanobajo l a influencia d e
fuerzas, o un instrumento electrnico puesto1 en servicio. Supngase
que se puede definir un estado que designaremos como falla para
cualquier componente (o el sistema). Es decir, la barra de acero puede
agrietarse o romperse, el fusible puede quemarse,el ala puede doblarse,
o el instrumento electrnico puede dejar de filncionar.
Si tal componente se pone en condiciones
d e tensin durante un
tiempo determinado, t = O, y lo observamos hasta que falla (es decir,
deja d e funcionar correctamente debido ala tensin aplicada), eltiempo
para que ocurru la fullu o la duracin Ilammos1.0 T , puede considerarse
f. Hay evidencias
como una variable aleatoria continua con una fdp

298 Aplicaciones alala de


teoru

confiabilidad

11.1

empricas que indican que el valor de T no puede predecirse con un


modelodeterminista. Es decir, componentesidnticossometidos a
tensionesidnticasfallarn en tiempos diferentes e impredecibles.
Algunos Fallarn muy al iniciar su funcionamiento y otros en etapas
posteriores. Por supuesto, la manera de fallar depender del tipo de
artculo que se considera. Por ejemplo, u n fusible fallar d e improviso
en el sentido de que en un momento dado funciona perfectamente y
al momento siguiente no funciona. Por otra parte, una barra de acero
bajo una carga pesada se debilitar probablemente en el transcurso d e
u n largo periodo de tiempo. En cualquier caso, el uso de un modelo
probabilstico, considerado T como una variable aleatoria, parece ser el
nico planteamiento realista. Presentamos ahora el siguiente concepto
importante.

Definicin. La conJiabilidud deuncomponente


(o sistema)enel
tiempo t , llammosla R(t),est definida como R ( t ) = P ( T > t ) ,
donde T es la duracin del componente
R se llamafuncion de
conJabilidad.
Observacwn: Aunque el trmino confiabilidad tiene diversos significados
tcnicos, la acepcin anterior es la que en general se acepta. La definicin
dada aqu expresa simplemente que la confiabilidad de un componente es
igual a la probabilidad de que el componente no falle durante el intervalo
[O, t ] (o, equivalentemente, la confiabilidad es igual a la probabilidad de que
el componente an funcione despusde untiempo t). Por ejemplo, si para un
articulo particular, R(t1) = 0.90, esto significa que casi el 90% de tales artculos,
usados en ciertas condiciones, todava filncionan despusde untiempo t l .
En trminos d e la fdp d e T , Uammosla f,tenemos

En trminos de la fda d e T , llammosla F , tenemos

R(1) = 1 - P ( T 5 t ) = 1 - F(1).

Adems de la funci6n confiabilidad R, otra funcin desempea un


papel importante para describirlas partes que fallan de un artculo.

Definicin. La tasa de falla (instantnea) 2 (algunas veces llamada


funcin de riesgo) asociada con la variable aleatoriaT est dada por

11.1

Conceptos bsicos

299
(11.1)

dcfinida para F ( t ) < 1.


Observacwn: A fin d e interpretar Z ( t ) consideremos In probabilidad condicional

es decir, la probabilidad de que el articulo falle durante las prximas At unidades d e tiempo, dado q u e cl articulo estA funcionando correctamente en cl
instante 1. Aplicando la dcfinicin d e probabilidad condicional, podemos escribir lo anterior como

P(tLTLt+AtJT>t)=

P ( t < T < t + A t)
P(T > t )

donde t 5 $, 5 t At.
La ltima expresin (parauna At pequeiia y suponiendo que f es continua
en t por la derecha) es aproximadamente iguala A t Z ( t ) . As, en un lenguaje
informal, A t Z ( t ) representa la proporcin de a~rticulosque estar5 entre t y
t -+ A t , d e aquellos artculosque anfuncionan en el instante t :
De lo anterior observamos que f, la fdp d e T , determina unvocamente la
tasa d e falla 2. Indicaremos ahora que lo recproco mmbin es vlido: la tasa
d e falla Z determina unvocamentc la fdp f .

Teorema 11.1. Si T , el tiempo para que ocurra


la falla, es una variable
aleatoria continua con fdp f y si F ( 0 ) == O, donde F es la fda d e
T , entonces f puede expresarse en trminos de la tasa de falla 2
como sigue:
j ( t )= z(t)e-Jo

Z ( s ) ds

(11.2)

300 Aplicaciones a la teoru de la confiabilidad

11.1

I ntcgrantlo ambos miembros de O a 1:

1m
1

= -

1 n(s>
R(s)

ds =

- 111

R ( s ) (0

I n R ( t ) + I n R(0) = - I n B ( t ) ,

suponiendo que 111R(0) = O lo que es d l i d o si y s1o si n ( 0 ) = 1. [Esta


ltima condicinsesatisface si F ( 0 ) = O. Esto sinlplcmente expresa
que la probabilidad de una falla inicial es igual a cero; harcmos esta
suposicin durante el resto d e la exposicin.] Por tanto,

R ( t )= e -

J;
Z ( s ) ds

hs .
f(l)=

t
d
F(t) = - [l - q t ) ]= z(l)e-Jo Z ( 3 ) ( / S

dt

Por lo tanto, hemos demostrado quc la tasa d e falla Z dctcrmina unvocanlente la fdp f .
Existe una relacin intcresante entre la funcin de confiabilidad R y
el tiempo promedio de falla, E ( T ) .
Teorema 11.2. Si E ( T ) es finito, entonces,

E ( T )=

lo

Denzostl-acin: Considcrar

Lo

R(t) d l =

R(t) dt

im
[i

f(s)

(11.3)

ds]

dt

11.2

La ley normal de falla

301

L a segunda integral del segundo miembro representa


E ( T ) . Por tanto, la demostracin est complcta si podemos demostrar que t
f(s)
ds se anula en t = O y cuando t -+ m. La anulacin en t = O es inmediata. Sabiendo queE ( T ) es finita, el lectorpuede completar la demostracin.
Los conceptos d e confiabilidad y tasa d e falla estrin entre las herralos modelos de
mientas necesarias m B s importantes para un estudio de
falla. Nos ocuparemos sobre todo delas siguientes preguntas:
a) CuAles son las Icyes d e falla fundamentales que razonablemente
se pueden suponer? (Es decir, qu forma tendra la fdp deT ? )
b ) Supngase que tenemos dos componentes, C1 y Cz, con leyes d e
falla conocidas. Suponiendo quc dichos componentes se combinan en
serie

so

o en paralelo

para formar un sistema, <cul es la ley d e Falla ( o confiabilidad) del


sistema?
L a pregunta cul es una ley d e falla razonable nos remite a un problema que hemos presentado antes: <cul
es un modelo matemtico razonable para la descripcin de algunos fenmenos observables? Dcsde
un punto de vista estrictamente matemtico, d e hecho podemos suponer cualquier fdp paraT y luego estudiar slolas c o n ~ ~ c u ~ n c i esta
a~ de
suposicin. Sin embargo, si estamos interesados en tencr un modelo que
represente (lo ms exactamente posihle) los datos de fhllas disponibles
en realidad, nuestra eleccin del modelo debe tener esto en cuenta.

11.2 La ley norma de falla

Hay muchos tipos de componentescuya cond m a d e falla puede representarse con l a distribucin normal. Es decir, si T es la duracin de un
artculo, su fclp est dada por

11.2

302 Aplicaciones a la t e 0 6 de la cowjiabilidad

[Nuevamente observamos que el tiempo para que ocurra


la falla T , debe
ser mayor que,o igual a cero. Por tanto, para que
el modelo anterior sea
aplicable debemosinsistir en queP(T < O) est cercanaa cero.] Como la
forma d e la fdp normal lo indica, una ley normal defalla implica que la
mayora d e los artculos fallan alrededor del tiempo promedio de falla,
E ( T ) = p y el nmero de fallas disminuye (simtricamente) cuando
IT - pI aumenta. Una ley normal de falla significa que alrededor del
95.72% d e las fallas tiene lugar para los valores d e t que satisfacen
{ t I It - p I < 2u}. (Vase la Fig. 11.1.)

La funcin d e confiabilidad d e la ley normal defalla puede expresarse mediante la funcin de distribucin normal acumulativa tabulada @,
como sigue:

R(t)= P(T

=I-+-)

> t ) = 1- P(T 5 t )

t-P

*N.del E. Obsrvese que P [ t I It - pI < 2u] = P[t I -2 <


< 21 =
@(2) - @(-a). De la tabla 1, @(a) = 0.9772 y @(-a) = 0.0228, por tanto,
P[t I It - pI < 201 = 0.9544 y no 0.9572 como se indica en la figura.

11.3

La ley exponencial de falla 303

La figura 11.2 muestra una curva general de


confiabilidad para una ley
normal de falla. Ntese que para obtener una confiabilidad alta(0.90 o
mayor), el tiempo de operacin debe ser considerablemente menor que
p , la duracin esperada.

EJEMPLO11.1. Supngase que la duracin de un componente est


distribuida normalmente con una
desviacin (estndar igual 10
a (horas).
Si el componente tiene una confiabilidad de 0.99 para un periodo de
operacin de 100 horas, Ccul debera ser su duracin esperada?
La ecuacin anterior se transforma en
0.99 = 1 - @

100 (-ib-)

1.1

De las tablas d e la distribucin normal se tiene (100 - p)/lO = -2.33.


Por Io tanto p = 123.3 horas.
La ley normal defalla representa un modelo apropiado para
los componentes en los cuales la falla se debe a algunos efectos d e desgaste.
Sin embargo, sta no es una de las m& importantes leyes d e falla que
existen.

11.3 La ley exponencial de falla


Una de las leyes d e falla ms relevantes es aquella cuyo tiempo para
que ocurra la falla se describe mediante la distribucin exponencial.
Podemosdescribirla de varias maneras, pero probablemente
la m&
sencilla es suponer que la tasa de fallas es constante, es decir Z ( t ) = a.
Una consecuencia inmediata d e esta suposicin es, segn Ia ecuacin
(11.2), que la fdp asociadacon el tiempo para que ocurrala falla, T , est
dada por

f ( t ) = a e -at

, t > O.

El recproco es t a m b i h inmediato: si f tiene la forma anterior, R ( t ) =


1 - F ( t ) = e-at y, por tanto, Z ( t ) = f ( t ) / R ( t )= a. A s , tenemos el

siguiente resultado importante.

Teorema 11.3. Sea T , eltiempoparaqueocurrauna


falla, una
los valores no negativos.
variable aleatoria continua que toma todos

11.3

304 Aplicaciottes
a
laconfiabilidad
t e la
o h de

Entonces, T tiene una distribucin exponencial si y slo si tiene


una tasa constante d e fallas.
ObsPruaciu: Puede interpretarse que la suposicin de una tasa constante de
fall= significa que despus deque el articulo se ha usado, la probabilidad de
que falle no ha cambiado. Dicho de una manera ms informal, no hay efecto
de desgaste cuando se estipula el modelo exponencial. Existe otra manera
de expresarlo anterior, la cual hace estepunto an m& evidente.
Considresepara At > O, P ( t 5 T _< t + At I T > 1). ksta representa
In probabilidad de que el artculo falle durante las siguientes At unidades,
dado que no ha fallado e n el instmte t . Aplicando la funcin de probabilidad
condicional, encontramos que

Por tanto, estaprobabilitlad condicional es indepcndiente d e f y slo depende


de At. Es en este sentido que podemos decir que una
ley esponencial de falla
implica que la probabilidad d e fallar es independiente del pasado. Es decir,
mientras el articulo funcione es tan bueno como si fuera nuevo.
Si desarrollamos el segundo miembro de
la expresin anterior en una serie
d e Maclaurin obtenemos

= aAt

+ qat).

donde //(At) llega a serdespreciablepara


At pequea. A s para At suficientemente pequea, la probabilidad anterior es directamente proporcional
a At.

Para muchos tipos de componentes, la hiptesis que conduce a la


ley exponencial d e falla no es slo intuitivamcnte atractiva sino que en
realidad est sustentada en evidencias empricas. Por ejemplo, es muy
razonablc suponer que unfusible o un cojinete d e rubes es tan bueno
como si fuera nuevo mientras est6 funcionando. Es decir, si el fusible
no se h a fundido, prcticamente est como nuevo. Tampocoel cojinete
cambiar mucho debido al uso. En estos casos, la ley exponencial de
falla representa un modelo apropiado para estudiar las caractersticas
que fallan en un artculo.

11.3

La i'ey
deexponencial

falla

305

Sin embargo, aqu debemos hacer una advertencia. Hay muchas situaciones que implican estudiosd e fallas para las cuales las suposiciones
bsicas que conducen a una ley exponenciall no sern satisfechas. Por
ejemplo, si una pieza d e acero se expone a una tensin continua, evidentemente sufrir un deterioro
y, por tanto,se debe considerar un modelo
distinto al exponencial.

FIGURA11.3
Aunque antes discutimos las distintas propiedades d e la distribucin
exponencial, resumAmosla nuevamente a fin d e tenerla disponible para
elobjetivo presente.(Vase la Fig. 11.3,) Si T , eltiempoparaque
ocurra la falla, est5 distribuida exponenciallmente (con parmetro a ) ,
tenemos

E ( T )= l / a ;
F ( t ) = P(T 5 t ) = 1 - ,-at;

V ( T )= 1/cy2;
R ( t ) = e--cut

EJEMPLO11.2. Si se da el pargmetro cy y se especifica R ( t ) ,podemos


encontrar t , el nmero de horas de operaci6n.As, si a = 0.01 y R(t) es
igual a 0.90, tenemos
0.90 = e

-0.012

Luego t = -100 ln(0.90) = 10.54 horas. Por tanto, si los 100 componentes funcionan durante 10.54 horas, aproxi:madamente 90 no fallarn
durante ese periodo.
Observaciones: a) Es muy importante darse cuenta de que enel caso exponencial podemos identificar el tiempo d e operaci.6n (de algiln valor inicial fijo

306 Aplicaciones a laconfiabilidad


teori
la de

11.3

arbitrario) con la d u d para funcionar. Porque en este caso, un artculo que no


112 fallado es tan bueno como si fuera nuevo y, por tanto, su conducta durante cualquier periodo d e servicio depende slo d e la longitud d e ese periodo
y no de su historia anterior. Sin embargo, cuando se supone una ley de falla
no exponencial (tal como la ley normal o una de las distribuciones que consideraremos en breve), la historia pasada tiene efecto sobre el comportamiento
del artculo. Por tanto, mientras podamos definirT como el tiempo en servicio
(hasta la falla) para el caso exponencial, debemos definir T como la duracin
total hasta la falla para los casos no esponenciales.
b) La distribucin exponencial, que hemos presenmdo en relacin con la
duracin d e los componentes, tiene muchas otras
aplicaciones importantes. En
realidad, cada vez que una variable aleatoria continua T que toma valores no
negativos satisface la suposicin P(T > S + t I T > S) = P(T > t ) para toda
S y t , T tendr5 una distribucin exponencial.
A s , si T representa el tiempo
que demora un fitorno radioactivo en desintegrarse, podemos suponer que T
e s t i distribuida exponencialmente, puesto que la suposicin anterior parece
satisfacerse.

EJEMPLO11.3. No es irrazonable suponer que cuesta ms producir


un artculocon una gran duracin esperadaque uno con una esperanza
pequea de duracin.Especficamente suponemos que el costo C para
producir un artculo es la siguiente funcin d e p , el tiempo promedio
para que ocurrala falla,

c = 3 p2 .
Supngase que se obtiene una utilidad deD dlares por cada hora que
el artculo est en servicio. Luego, la utilidad por artculo est dada por

P = D T - 3 p ,2
donde T es el nmero de horas que
el artculo funciona correctamente.
Por tanto, la ganancia esperada est dada por

Para encontrar para qu valor de p esta cantidad es mxima, simplemente hacemos d E ( P ) / d p igual a cero y resolvemos para p . El resultado es p = DIG y, por tanto, la utilidad esperada mxima pol- artculo es
~ ~
igual a E ( P ) ~=, 0/12.

11.4

La ley exponencial de
falla y

la

distnbucidn de Poisson

307

EJEMPLO11.4. Reconsideremoselejemplo
1 1.3, haciendo las siguientessuposicionesadicionales.Supngase
que T , el tiempo para
que ocurra laTalla, est distribuida exponencialmente con parrimetro
(Y.Luego p , el tiempo esperado para que ocurrala Talla, est dada por
p = l/cr. Supngase, adems, que si el artculo no funciona correctamente al menos un nmero especfico d e horas, digamos t o , se fija un
castigo igual a K(to - T ) dlares, donde T(2 < to) es el tiempo en el
cual tiene lugar la falla. Por tanto, la utilidad por artculo est dada por
P = DT -3p2

si T

> to,

L,uego, la utilidad esperada (por artculo) puede expresarse como

E(P)= D

00

tae-at

+ ( D + Ii)

I
Jo

d t -3p 2 e -afo
10

tae-at

dt -(3p2

+ I<to)(l - e-Oto).

Despus de algunas integraciones inmediatats, lo anterior puede escribirse como

Ntese que si K = O, esto se reduce al resultado obtenido en el


ejemplo 11.3. Podramos formularnos una pregunta anloga
a la que
I L toma E ( P ) su
apareci en el ejemplo previo: <para qu valor de
valor mximo? No proseguiremos con los detallcs de este problema,
puesto que implica la solucibn de una ecuacitjn trascendental que debe
resolverse numricamente.

11.4 La ley exponencial de falla y la distribucin de Poisson


Hay una conexin muy cercana entre
la ley exponencial d c falla descrita
en la seccin anterior y un proceso d e Poisson. Supngase que la Talla
ocurre debido a la aparicin de ciertos accidentes aleatorios. &tos
pueden deberse a fuerzas externas tales como una repentina rfaga de
viento o una cada ( o aumento) de voltaje o por causas internas tales

11.4

confiabilidad
teoria
la de

308 Aplicaciones
la a

como una desintegracin qumica o un mal funcionamiento mecnico.


Sea Xi igual al nmero de accidentes que ocurren en un intendo de
tiempo de longitud t y supongamos que X;, t 2 O, constituye unproceso
de Poisson. Es decir, para cualquier t fija, l a variable aleatoria X't tiene
una distribucin dePoisson conparmetro at. Supngase quel a falla en
[O, t ] se produce si y slo si al menos uno detales accidentes ocurre.Sea
T el tiempo para que ocurra la falla, que supondremos es una variable
aleatoria continua; entonces,

F ( t ) = P(T 5 t ) = 1 - P(T

> t).

Ahora, T > t si y slo si ningtn accidente ocurre en [O, t ] . Esto sucede


si y slo si Xt = O. Por lo tanto,

F ( t ) = 1 - P ( X t = O) = 1 - e "(Yt
Esto representa l a fda de unaley exponencial de falla. Encontramos as
que la "causa" anterior delas fallas implica una ley exponencial de falla.
Las ideas anteriores se puedengenerulizur d e dos maneras.
u ) Nuevamente suponemos que los accidentes aparecen de acuerdo
con un proceso de Poisson. Suponemos, adems, que cada
vez que
aparece tal accidente hay una probabilidad constante p de que ste no
producir fallas. Por tanto, si T es el tiempo para que ocurra la falla,
tenemos, como antes,

F ( t ) = P(T 5 t ) = 1- P(T

> t).

Esta vez, T > t si y slo si (durante [O, t ] )no ocurre ningn accidente,o
sucede un accidente? ninguna falla aparece, o dos accidentes ocurreny
no aparece ninguna falla, o... Por tanto,

As, T tiene u n a Icy exponencial de fallascon parmetro a(1 - p ) .


(Ntese que si y = O, tenemos el caso expuesto previamente.)

La ley de fallas de Weibull 309

11.5

b ) Supngase de nuevo quelos accidentes aparecen de acuerdo con


un proceso d e Poisson. Esta vez supondremos que las fallas ocurren
cada vez que r o m L accidentes ( r 2 1) ocurren durante un intervalo de
la falla, tenemos,
longitud t. Por tanto, si T es el tiempo para que ocurra
como antes,
F ( t ) = 1 - P(T

En este caso, T
tanto,

> t).

> t si y slo si ( r - 1) o menos accidentes ocurren.

Por

De acuerdo con la ecuacin (9.17), loantelriores igual a J i [ ( ~ / (r


l ) ! ] ( a s ) p - 1 e " C yds
3 y, por tanto, representa la fda de una distribucin
gama. As, encontramos que la "causa" anterior para que ocurrala falla
sigue una ley g u m de fallas. (Por supuesto, si T = 1, sta se transforma
en una distribucih exponencial.)

11.5 La ley de fallas de Weibull


Modifiquemos la noci6n de tasa constante d e fallas que condujo ala ley
exponencial defalla. Supngase que la tasa d e fallas 2,asociada con T ,
la duracin de un artculo, tienela forma siguiente:
Z ( t ) = ((Yp)lp-'7

(11.4)

donde (Y y p son constantes positivas. De la ecuaci6n (11.2) obtenemos


la expresin siguiente parala fdp deT :

Se dice quela variable aleatoria con fdp


dada porla ecuacin (1 1.5) tiene
una distribucidn de Weibull. La figura 11.4 muestra la fdp para (Y = 1 y

p = 1 , 2 , 3 . La funcin d e confiabilidad R est dada por R ( t ) = e-(YtP


que es una funcin decreciente det .

3 10 Aplicaciones a la teoru de la confiabilidad

0.4

0.8

1.2

11.5

FIGURA
11.4

Obsemucin: La distribucin exponencial es un caso especial de distribucin


d e Weibull, puesto que obtencmos
l a distribucicin exponencial si hacemos /3 = 1
en la ecuacin (1 1.4). L a suposicin (Ec. 11.4) establece que Z ( t ) no es una
constante, sino que es proporcional a las potencias d e t . Por ejemplo, si /?= 2,
2 es una funcin lineald e t ; si /3 = 3, Z es una funcin cuadrfitica de t , etc. As,
Z es una funcin creciente, decreciente o constante d e t , segtn el valor d e /?,
como se indica en la figura 1 1.5.

t-

p= I

2 es constante

Z cs creciente

Z es decreciente

FIGURA
11.5
Teorema 11.4. Si la variable aleatoria T tiene una distribucicin d e
Weibull con fdp dada por la ecuacin (1 1 4 , tenemos
(11.6)

(11.7)
Demslracio'n: Vase cl problema 11.8.

11.6

Conjobdidad de los sistemas

3 11

Observacidn: La distribucidn d e Weibull representa un modelo apropiado


para unaley d e falla siempre que el
sistema est compuestopor cicrto nmero
d e componentes y la falla se deba principalmente al defecto m& grave
en un
gran nmero de defectos del sistema. TambiCn, utilizando la distribucin d e
Weibull, podemos obtener una tasa d e fallas creciente y decreciente al hacer
simplemente una eleccin apropiada del parmetrop.
En ningn caso hemos agotado el nmero de leyesd e falla razonables. Sin
embargo, las que hemos mencionado son, por cierto, sumamente importantes
en la medida que representan modelos significativos para el estudio d e las
caracteristicas d e falla e n componentes o en sistemas d e componentes.
11.6 Confiabilidad de los sistemas
Ahora que hemos considerado un nmero importante de distribuciones
d e fallas podemos volver a la segunda pregunta propuesta enla seccin
11.1: cmo evaluar la confiabilidad de un sistema si conocemos la
confiabilidad d e sus componentes? ste puede ser un problema muy
dificil y sloanalizaremos un caso ms sencillo (pero relativamente
importante).
Supngase quelos dos componentes estn acoplados en serie.

Esto significa que, para que el sistema anterior funcione,umbos componentes deben funcionar. Si, adems, suponemos que los componentes
funcionan independientemente, podemos obtener la confiabilidad del sistema, llammoslo R(t), en trminos d e la confiabilidad d e los componentes, digamos R l ( t ) y R,(t), como sigue:

R ( t ) = P(T

>t)

= P(T1 > t y T2

= P(T1

(donde T es el tiempoparaqueocurra
la falla del sistema)

>t)

(donde T I y T2 son los tiempos para que


ocurra la falla d e los componentes C1
y C2, respectivamente)

> t)P(T2 > t ) = Rl(t)R:,(t).

As, encontramos que R ( t ) 5 mn[Rl(t), R,(t)]. Es decir, para un


sistema formado por dos componentes independientes en serie,
la conl a confiabilidad de cualquiera de
sus
fiabilidad del sistema es menor que
partes.

3 confiabilidad
12laAplicaciones
teoria
de la a

11.6

La exposicin anterior puede generalizarse, por supuesto,a n componentes y obtenemos el teorema siguiente.
Teorema 11.5. Si n componentes,quefuncionanindependientey si el i-simo componente tiene
mente, estn conectados en serie,
confiabilidad R;(t),entonces l a confiabilidad del sistema completo,
R ( t ) ,est dada por

R ( t ) = E l ( t ) . R&)

* * *

R,(t).

(11.8)

Enparticular, si TI y T2 tienen leyes de falla exponencialescon


parmetros a1 y a2, la ecuacin (1 1.8) se transforma en

Por lo tanto, la fdp del tiempo para que ocurran las fallas del sistema,
llammoslo T , es dado por

As establecemos el resultado siguiente.


Teorema 11.6. Si dos componentes que funcionan independientemente y tienen fallas exponenciales con parametros al y a2 estn
conectados enserie, la ley de falla del sistema resultante es
d e nuevo
exponencial con parAmetro iguala al q .

(Este teorema obviamente se puede generalizar an componentes en


serie.)

EJEMPLO11.5. (Tomadode l . Bazovsky, Reliability,


Theory
and
Cliffs, Nueva Jersey, 196 1.)
Pructice, Prentice-Hall, Inc., Englewood
Considrese un circuito electrnico que constad e 4 transistores d e silicio, 10 diodos d e silicio, 20 resistencias compuestas y 10 condensadores
d e cermica en una operacin continua en serie. Suponiendo que en
ciertas condiciones d e tensin (es decir, voltaje prefijado, corriente y
temperatura), cada uno deesos artculos tiene la siguiente tasaconstunte
d e fallas.

11.6

Confiabilidad de los sistemas

de

diodos

0.000002

silicio:

transistores
de

3 13

0.00001

silicio:

resistencias
compuestas:

0.00000 1

condensadores d e cermica:

0.000002

Debido a la tasa constante de fallas supuesta, l a distribucin exponencial


representa la ley d e falla para cada uno de los componentes anteriores. Debido a la conexin en serie, el tiempo para que ocurra la falla
del circuito completo est de nuevo distribuido exponencialmente con
parmetro (tasa d e falla) igual a:
10(0.000002)

+ 4(0.00001) + 20(0.000001) -t 10(0.000002) = 0.0001.

Por tanto, la confiabilidad del circuito est dada por R ( t ) = e-O.OOO1t


As, para un periodo de 10 horas d e operacin l a probabilidad de que
el circuito no falle est dada por e-O.OOO1(lO) = 0,999. El tiempo es@rado
para que el circuito falle es igual a 1/0.0001 := 10.000 horas.
Otro sistema importante es u n sistema en paralelo en el cual los componentes estn conectados d e tal manera que elsistema deja d e funcionar slo si todos los componentes dejan de funcionar. Si slo dos comla figura
ponentes estn implicados,el sistema puede dibujarse como en
11.6. Suponiendo nuevamente quelos componentes funcionan independientemente unos deotros, la confiabilidad del sistema, llammosla R(t),
puede expresarse en trminos de la confiabilidad d c los componentes,
R l ( t ) y Rz(t),como sigue:

R ( t )= P ( T > t ) = 1- P ( T 5 t )
= 1 - P[T1 5 t y

= 1 - P(T1

F: 5 t]

5 t)P(T2 5 t )

= 1 - {[l- P(T1

> t ) ][l - P ( q ? > t ) ] }

= 1 - 11 - R , ( t ) ] [ l- R&)]
= Rl(t)

+ Rz(t)- Itl(t)&(t).

La ltima forma indica que R ( T ) 2 mximo [ R l ( t )R2(t)].


,
Es decir, un
sistema integrado por dos componentes que: funcionan independientemente en paralelo serms confiable que cualquiera delos componentes.

3 14 Aplicaciones a la teoria de la confiabilidad

"

11.6

FIGURA
11.6

Todas las ideasantespresentadasparadoscomponentespueden


generalizarse en cl teorema siguiente.

Teorema 11.7. Si n componentes que funcionan independientemente actan en paralelo, y si el i-simo componente tiene confiabilidad R;(t),entonccs la confiabilidad del sistema, digamosR ( t ) ,est
dada por

R ( t ) = 1 - [l - Rl(t)][1- R2(t)]"[l

- Rn(t)].

(11.9)

A menudo sucede que todoslos componentes tienen igual confiabilidad, digamos que R;(t) = r ( t ) para toda i. En este caso, la expresin
anterior se transforma en
R ( t ) = 1 - [l - +)In

(11.10)

Consideremos, en particular, dos componentes en paralelo, cada uno


d e ellos con tiempo de falla distribuido exponencialmente. Luego,

As, l a fdp del tiempo falla


de del sistema en paralelo, 1lamCmoslo T , est5
dada por
f ( t ) = -R'(t) = CylC" + a 2 e - a 2 t - ("1
-(al+aZ)t*

Por tanto, T n.o est distribuida exponencialmente. El valor esperado


d e T es igual a:
1
1
+
-a1
a2
"1 + a2
1

E(T)= -

Considerando que a menudo una serie de operaciones


es obligatoria (es
decir, un nmero de componentes debe funcionar para que el sistema
runcione), con frecuencia usamos una operacin en paralelo a
fin d e

11.6

Confiabilidad
de

los sistemas 3 15

aumentar la confiabilidad del sistema. El ejemplo siguiente ilustra este


punto.

EJEMPLO11.6. Supongamos que tres unidades estn trabajando en


paralelo y que cada una tiene
la misma tasa constante defallas (Y = 0.01 .
(Es decir, el tiempo para que ocurrala falla d'e cadauna delas unidades
est distribuido exponencialmente con parametro a = 0.01. Por tanto,
, Y
la confiabilidad
para
cada
una
d e las unidades es R ( t ) =
as la confiabilidad en un periodo de o p e r a d n d e 10 horas es igual
a e-'" = 0.905 o alrededor del 90%. Cuntia mejora puede obtenerse
(en trminos del aumento dela confiabilidad) al funcionar tres d e tales
unidades en paralelo?

,
I

10 50

100

200

300

400

t (horas)

FIGURA11.7

La confiabilidad d e tres unidades que funcionan en paralelo durante


10 horas sera
R(l0) = 1 - [I - O.9O5I3 = 1 - 0.00086
= 0.99914

o alrededor del 99.9%

En l a figura 11.7 vemos las curvas d e confiabilidad de una sola unidad


contra las tres unidades en paralelo. Para la unidad nica, R ( t ) = e"(Yt,
mientras que para las tres unidades en paralelo, R ( t ) = 1 - (1 - e"(Yt)3,
con (Y = 0.01.
Hemos considerado, hasta ahora, slo las maneras ms sencillas d e
combinar unidades individuales en un sistema, llamadas operaciones
en serie y en paralelo delos componentes. IIay muchas otras formas de
combinar componentes, pero slo nombraremos unas cuantas. (Vase
la Fig. 1 1.8.) Algunas d e las preguntas qu,e aparecen en relacincon esas
combinaciones se considerarn en los problemas al final del captulo.

3 16 Aplicaciones a la teora de la confiabilidad

FIGURA
11.8
a) Series en paralelo. (Consideramos aqu grupos de componentes
los cualestiene, por
cn paralelo como en un circuito, cada uno de
ejemplo, nz componentes en serie.)
B) Paralelos en serie.
c) Sistema sostenido. Aqu consideramos dos componentes, d e los
cuales, el segundo se mantiene y funciona si y slo si el primero falla.
En estc caso, instantneamente se acepta el segundo componente y
funciona e n el lugar del primero.
Expongamos brevemente el concepto d e factor de seguridad. Supngase que la fuerza S que se aplica a una estructura se considera como
una variable aleatoria (continua).
En forma similar, la resistencia d e
la estructura, llammosla R, se puede considerar tambin como una
variablealeatoriacontinua.Definamos
el factor d e seguridad de la
estructura como la razn d e R a S .

R/S.

Si I2 y S son variables aleatorias independientes con fdpg y h, respectivamente, entonces l a fdp deT est dada por

(Vase el Teorema 6.5.) La estructura fallar si S > R, es decir, si T


Por tanto, la probabilidad d e fallar PF = JJ f ( t ) d t .

< 1.

PROBLEMAS
1 1.l . Supngase que T , el tiempo para que ocurra la falla d e u n artculo,
est distribuida normalmente con E ( T ) = 90 horas y desviacin estndar d e 5

Problemas

317

horas. A fin de obtener unaconfiabilidad d e 0.90, 0.95, 0.99, CuAntas horas


d e operacin se deben considerar?
11.2. Suponer quela duracin d e u ninstrumento electrnicoest distribuido exponencialmente. Se sabe que la confiabilidad del instrumento (para un
periodo d e operacin d e 100 horas) es 0.90. {Cujntas horas de operacin se
deben considerar para obtener una
confiabilidad d e 0.95?
11.3. Suponiendo que la duracin de un instrumento tiene una tasa constante d e falla Co para O < t < to y una tasa constante distinta C1 para t
to,
determinar la fdp de T , el tiempo para que ocurra
la falla, y dibujarla.

>

11.4. Supngase quela tasa d e fallas Z e s d dada por

Z(t)= O,
=C,

O <t < A,

t>A

(Esto implica que ninguna falla ocurre antes d e T = A . )


Encontrar la fdp asociada con T , el tiempo para que ocurrala falla.
b ) Calcular E ( T )

a)

11.5. Suponer quela ley d e h l h duna


e componente tienela siguiente fdp:

f(t) = ( r + l)A'+'/(A

+t)r+2,

t > O.

Para quvalores d e A y r es la anterior una fdp?


b ) Obtener una expresin para la funcin d e confiabilidad y l a funcin d e
riesgo.
c) Demostrar que la funcin d e riesgo es decreciente en t .
a)

1 1.6. Supngase quela ley d e falla de uncomponente es una combinacin


lineal d e IC leyes exponenciales d e falla. Es decir, la fdp del tiempo para que
ocurra la falla est dada por

?Para qu valores d e cj es la anterior fdp?


b ) Obtener una expresin parala hncin de confiabilidad y la funcin d e
riesgo.
c ) Obtener una expresin del promedio ti'empo
del
para queOcurra la falla.
d ) Responder b ) y c ) si pj = p para toda j .
a)

3 18 Aplicaciones a la teori de la conjiabilidad


11.7. Cada uno delos seis tubos de un equipo de radio tiene una duracin
(en aos)que puede considerarsecomo una variable aleatoria. Supngase que
esos tubos filncionan independientemente uno d e otro. CuA es la probabilidad de que ningtn tubo tenga que ser reemplazado durante los primeros dos
meses d e servicio si:

a ) La fip del tiempo para que ocurra la falla es f ( t ) = 50te-25t2, t > O?


b ) La fdp del tiempo para que ocurrala falla es f ( t ) = 25te-25t, t > O?
11.8. Demostrar el teorema 11.4.
11.9. La duracin de un satditees una variable aleatoria distribuida exponencialmente conun tiempo d e duracin esperadod e 1.5 aos. Si tres satlites
se lanzan en forma simultnea, cul es la probabilidad d e que por lo menos
dos estn a6n enrbita despus de 2 aos?

FIGURA
11.9
11.10. Tres componentes que funcionan independientemente estAn conectados en un sistema aislado como se indica en la figura 11.9. Suponiendo que
la confiabilidad d e cada componente para un periodo de
t horas de operacin
est5 dada por

Si T es el tiempo para que ocurra


la fdla del sistema completo (en horas), cul
es la fdp de T ? Cu# es la confiabilidad del sistema?, Cmo se compara con
e- .Q3t;i

11.11. Supngase que n componentes que funcionan independientemente


son conectados e n u narreglo e n serie. Suponer que el tiempo para que ocurra
la falla d e cada uno de los componentes est5 distribuido normalmente con
esperanza d e 50 horas y desviacin estndar de 5 horas.

a ) Si n = 4, cul es la probabilidad d e que el sistema funcione despus de


52 llorasd e operacin?
b ) Si n componentes se conectan en paralelo, cul dcbera serel valor d e n a
fin que la probabilidad d e fallar durante las primeras 55 horas sea aproximadamente igual a 0.01?
1 l . 12. Tomado d e Derman y Klein, Probability and Statistical Inference. Oxford
University Press, Nueva York, 1959.) La duracin ( L ) en meses de cierto tubo
al vaco usado en un equipo de radar est distribuida exponencialmente con
parmetro P = 2. Al establecer su programa preventivo de mantenimiento,

una compaa desea saber cuntos


meses (m)despus d e la instalacin deberA
reemplazarse el tubo para minimizar el costo esperado por tubo. El costo por
tubo e n dlares se denota con C. El tiempo til m& corto empleado entrela
instalacin y la sustitucin es 0.01 mes. Obedeciendo a esta restriccin, {qu
valor de m minimiz E ( C ) , el costo esperado en cada una de las situaciones
siguientes, donde el costo C es la funcin dada deL y m?
a ) C ( L , m )=

b , ) C ( L , m )= 3 si L < m ,

( L - m1 .

c ) C ( L , m ) = 2 si L < m ,

=5(L-m)

= 5 ( L - m ) si L >_ m .

si L >_ m.

(En cada uno delos casos dibuje una grfica d e E ( C ) como funcin d e m.)

Observacwn: Evidentemente C es una variable: aleatoria, puesto que es una


funcin d e L la cual es una variable aleatoria. .G(C) es una funcin de m, y
el problema slo pide encontrar el valor d e m que minimiza E ( C ) , sujeta a la
restriccin que m 2 0.01.
11.13.Suponer quela tasa d e fallas asociada cam la duracin T de unartculo
est dada porl a funcin siguiente:

Observacwn: SUrepresenta otrageneralizacin d e la distribucin exponencial. Lo anterior reduce a una tasa constante d e fallas (y, por tanto a la distribucin esponencial), si C1 = O.
Obtener la fdp de T , el tiempo para que ocurra la falla.
b ) Obtener una expresin parala confiabilidad R ( t )y dibujar su grfica.

a)

11.14. Suponer que cada uno de tres instrumentos electrnicos tiene una
ley d e falla dada por unadistribucin exponencial con parmetros P I ,Pz y P3.
Supngase que los tres instrumentos funcionan independientemente y e s t h
conectados en paralelo para formar unsolo sistema.
Obtener unaexpresin para R ( t ) ,la confiabilidad del sistema.
b ) Obtener una expresin para la fdp d e T , el tiempo para que ocurra la
Olla del sistema. Dibujar la fdp.
c) Encontrar el promedio d e tiempo para que ocurra la Falla del sistema.
a)

1 l. 15. a) Supngase quen componentes estn conectadosen un arreglo en


serie. Luego k d e tales conexiones en serie se conectan en paralelo para formar
un sistema completo. (Vase la Fig. 11.10)Si rada uno de los cornponentcs

320 Aplicaciones a la teoria de

la

confiabilidad

Liene la misma confiabilidad, d i p m o s R, para un periodo determinado de


operacin, encontrar una expresin para
la confiabilidad del sistema completo
(para ese mismo periodo d e operaciones).
b) Supngase que cada uno de los componentes anteriores sigue una ley
esponencial de falla con tasa d e falla 0.05. Supngase, adems, que el tiempo
d e operacin es diez horasy que n = 5. Determinar el valor de k para que la
confiabilidad dcl sistema completo sea igual a0.99.

ckl

FIGURA
11.10

Ck2

11.16. Supngase que k componentes estn conectados en paralelo. Entonces, n d e tales conexiones en paralelo estn unidase n serie e n u nsolo sistema.
(Vase la Fig. 1 1.1 1.) Responder a ) y b ) del problema1 l. 15 para esta situacin.

FIGURA
11.11
11.17. Supngase que 71 componentes,cadauno d e los cuales tiene la
misma tasa constante d e fallas X, estnconectadosenparalelo.Encontrar
una expresidn para el tiempo promedio para que ocurra la falla del sistema
resultante.
1l . 18. a ) Un sistema de propulsin areo consta
d e tres motores. Supngase
que la tasa constante d e fallas para cada uno d e ellos es X = 0.0005 y que los
motores fallan independientemente uno de otro.
Los motores estn conectados
en paralelo. CCul es la confiabilidad d e este sistema de propulsin para una
misin que necesita 1 O horas, si por lo menos dos motores deben resistir?
b ) Responder la pregunta anterior para una
misin que necesita 100 horas y
1000 horas. (Este problema se tom dc unaexposicin en I. Bazovsky, Reliability
TlwoT m r l Practice. Prentice-Hall, Inc., Englewood Cliffs, Nueva Jersey, 1961.)

Problemas

32 1

FIGURA 11.12
11.20. Si todos los componentes considerados en el problema 11.19 tienen
la misma tasa constante d e fallas X, obtener una expresin para
la confiabilidad
R(t) del sistema indicado en la figura 11.12 b ) . Tambinencontrar el tiempo
medio para quefalle este sistema.
11.21. El componente A tiene una confiabilidad 0.9 cuando se utiliza con
un propsito particular y el componente B , que puede usarse en lugar del
componente A, tiene una confiabilidad d e slo 0.75. {Culesel nmero
mnimo d e componentes del tipo B que tendran que conectarse en paralelo
para obtenerla confiabilidad que el componenteA tiene por s mismo?
11.22. Supngase que dos componentes que
fiuncionan independientemente cada uno con la misma tasa constmte defalla, estn conectados en paralelo.
Si T es el tiempo para que ocurrala falla del sistema resultante, obtener la fgm
d e T . Tambin determinar E ( T ) y V ( T )usando la fgm.
11.23. Cada vez que hemos considerado un\istema formado por diversos
componentes, hemos supuesto que los componentes fkncionan independientemente uno de
otro. Esta suposicin ha simplificado considerablemente nuestros clculos. Sin embargo, esto puede no ser siempre unasuposicin realista.
En muchos casos se sabe que el comportamiento de un componente puede
afectar el comportamiento d e los otros. Esto es, en general, un problema muy
dificil, y aqu slo consideraremos u n caso especial. Supongamos especficamente que dos componentes,C, y C,, siempre fallan juntos. Es decir, C, falla

322 Aplicaciones a la

teor

de la confiabilidad

si y slo si Falla C2. Demostrar que en este caso, P ( c 1 falle y (22 falle) = P(C1
falle) = P(C2 falle).

FIGURA
11.13
11.24. Considrese cuatro componentes, C1, C2, C3 y C, conectados como
se indic en la figura 11.13. Suponer quelos componentes funcionan independientemente uno de otro con
excepcin d e C1 y C2, que siempre fallan juntos
como se describi en el problema 112 3 . Si T , , el tiempo para que ocurra la
falla del componenteC;, estA distribuido exponencialmente con parhmetropi,
obtener la confiabilidad R ( t )del sistema completo. Obtener tambin la fdp d e
T , el tiempo para que ocurrala falla del sistema.
11.25. Considrese el mismo sistema tal como se describi en el problema
112 4 . exccpto queesta vez los componentes C1 y C3 fallan juntos. Responder
las preguntas del problema 1 1.24.

12.1 Introduccin

En este captulo queremos precisar algo que hemos indicadoloalargo


del texto. Esto es, cuando el nmero derepeticiones de un experimento
aumenta f ~ la,frecuencia relativad e u nevento A , converge (enun sentido probabilistic0 que describiremos) ala probabilidad tericaP ( A ) . Es
este hecho lo que nos permite identificar la fi-ecuencia relativa d e u n
evento, basada en un gran nmero de repeticiones,lacon
probabilidad
del evento.
Por ejemplo, si se produce un artculo nuevo y no tenemos conocimiento previo acerca de cuan probable
es que el artculo sea defectuoso,
podramos proceder a inspeccionar un gran nmero d e esos artculos,
digamos N , contar el nmero de artculos defectuosos que hay entre
ellos, sea n, y luego usar ,/Ar como una aproximacin paral a probabilidad de que un
artculo sea defectuoso.El nmero n / N es una variable
aleatoria y su valor depende esencialmente de dos cosas. Primero, el
valor d e n / N depende dela probabilidad fundamental p (posiblemente
desconocida) d e q u e u nartculo sea defectuoso. Segundo,n / N depend e d e los N artculos que en particular hemos inspeccionado. Lo que

324 Sumas de variables aleatorias

12.2

demostraremos es que si el mtodo de elegir los N artculos es aleatorio, entonces el cociente n/hrest cercano a p (en un sentido quese
va a describir). Es evidente que la eleccin aleatoria d e los N artculos
es importante. Si eligiramos por ejemploslo los artculos que presentan alguna caractersticafisica externa, podramos prejuiciar gravemente nuestro clculo.)

12.2 La ley de los grandes nmeros


Con la ayuda de la desigualdad de Chebyshev (Ec. 7.20) podemos derivarelresultadoantescitado.Consideremosotra
vez unejemplo.
0.95 d e
Supngase que un cohete dirigido tiene una probabilidad de
As, si
funcionar correctamente durante cierto periodo de operacin.
disparamos hT cohetes que tienen la confiabilidad anterior, y si S es
el nmero de cohetes que no funcionan en forma correcta, tenemos
E ( X ) = 0.05AT, puesto que podemos suponer que X est distribuida
binomialmente. Es decir, esperaramos que fallara alrededor de un cohete entre20. Cuando aumentaN , el nmero de cohetes lanzados
X , el
nmero total decohetes que fallan dividido entre N , debera converger
de algn modo con el nmero 0.05. Este importante resultado puede
indicarse con ms precisin como la ley de los grandes nmeros.

La ley de los grandesnmeros (forma d e Bernoulli).Sean E un


E.
Considerando n
experimento y A uneventoasociadocon
repeticiones independientes de E , sea n A el nmero de veces que
~ . P(A) = p
ocurre A en las n repeticiones, y sea f~ = n ~ / 7 Sea
(que se supone es igual para todas las repeticiones).
Entonces, para cualquier nmeropositivo t, tenemos

o, en forma equivalente,
(12.1)

Demostrucidn: Sea n A el nmero de veces que ocurre el evento A.


staes unavariablealeatoriadistribuidabinomialmente.Entonces
E ( n A ) = n p y V ( n A ) = n p ( 1 - p ) . Ahora f~ = n ~ / 7 7 .y,, por 10 tanto
E(fA) = P y v(fA)
=
- P)/72..

La ley de los grandes nmeros 325

12.2

Aplicando la desigualdad de Chebyshev a la variable aleatoria f ~ ,

obtenemos

Obseruacwnes: a) El resultado anterior puede establecerse d e diferentes maneras alternativas equivalentes. Est claro que lo anterior implica inmediatamente que
lm P [ ( f -~ p ( < 1 = 1 para toda E

n+oo

> O.

En este sentido, decimosque la frecuencia relativa converge aP ( A ) .


b ) Es importante observar la diferencia entre l a convergencia antes mencionada (llamada convergencia en fiobabilidad) y el tipo d e convergencia citada a
menudo enclculo. Cuando decimos que 2-n co:nverge a cero cuando n -+ co
significa que para unan suficientemente grande, 2!-n se transformay permanece arbitrariamente cercanaa cero. Cuando decimos que fA = n A / n converge
a P ( A ) indicamos que la pobabilzdad del evento

puede hacerse arbitrariamente cercanaa uno tomando unan suficientemente


grande.
c) Otra forma d e la ley de los grandes nhmero:s se obtiene cuando formulamos la siguiente pregunta. ?Cuntas repeticiones d e E deberan hacerse para
tener una probabilidad, digamosd e 0.95, de quela frecuencia relativa difiera
d e p = P ( A ) en menos d e 0.01?
Esdecir,paraE = 0.01deseamosescogern,demodoquel-p(l-~)/[n(O.bl)2]=
0.95. Resolviendo para n obtenemos n = p(1 - p)/(0.01)2(0.05). Sustituyendo
los valores especficos de 0.05 y 0.01 por S y E , respectivamente, tenemos
cuando
Nuevamente debera insistirseen que tomar n 2 p ( 1- p ) / c 2 S no garantira nada
acerca d e 1fA - pi. Slo hace probable que l f ~ - sea muy pequea.

326 Sumas
aleatorias
de variables

12.2

EJEMPLO12.1. Cuntas veces habra que lanzar un dado regular a


fin de tener al menos 95% de seguridad de que
la frecuencia relativa d e
que salga un seis diste 0.01 dela probabilidad terica
Aqu p = 1 1 - p = 65 , 6 = 0.01 y S = 0.0.5. Por lo tanto,de esta
relacin encontramos que n 2
/(0.01)2(0.05) = 27.778.

k?

(i)
(E)

Obsewaciones: a ) Recordemos que la fA es una variable alcatoria y no precisamente un valor observado. Si lanzdramos ahora 27.778 veces un dado y
luego calculamos la frecuencia relativa que salga u n seis, este nmero dista o
no 0.01 de. Lo importante del ejemplo anterior es que si lanzramos 27.778
veces un dado en cada una de 100 habitaciones, aproximadamente en 95 de
ellas la frecuencia relativa observada estara dentro de0.01 d e
b ) En muchos problemas no conocemos valor
el d e p = P ( A ) y, por lo tanto,
no podemos usar el lmite anterior de n. En ese caso podemos usar el hecho
de que p(1 - p ) toma su valor mziximo cuando p = y este valor mziximo es
igual a As, ciertamente estaramos seguros
si indicamos que paran 2 1/4c26
tenemos

A.

i,

EJEMPLO12.2. Algunosartculos se producen de tal manera que


la probabilidad de que un artculo sea defectuoso es p (supuestamente
n, se clasifica
desconocido).Ungrannmerodeartculos,digamos
como defectuosos o no defectuosos. Cul debe ser el tamao d e n de
modo que podamos estar un 99% seguros de que la frecuencia relativa
d e los defectuosos se diferencia de p en menos de0.052
Puesto que no sabemos el valor p , debemos aplicar la ltima forma
con c = 0.05,
establecida d e laley de los grandes nmeros. Luego,
S = 0.01 encontramos que si n 2 1/4(0.05)2(0.01) = 10 000, se satisfice
la condicin pedida.
Como en nuestro ejemplo de
la desigualdad deChebyshev, encontraremos que el conocimiento adicional acerca de la distribucin de probabilidades dar unaproposicin mejorada. (Por ejemplo, podramos
y todava hacer la misma protener un nmero pequeo de repeticiones
posicin referente a la proximidad d e f~ a p.)
Observacwn: Otra forma d e la ley d e los grandes nmeros se puede obtener
como sigue. Supongamos que
X I , . . . , X, son variables aleatorias independientes idnticamente distribuidascon promedio y varianza finita. Sea E ( X ; ) = p
y V ( X ; ) = 02. Definamos 7 = ( l / n ) ( X l + . . . + X n ) . Ahora, es una funcin d e X I , . . . ,X, a saber, su promedio aritmtico y, por tanto, nuevamente

12.3

327

Aproximacidn
distribucidn
la normal
binomial
a

es una variable aleatoria. (Estudiaremosesta variable aleatoria con m& detalle


en el captulo 13. Por el momento, digamossimplemente que podemos pensar
en X I , . . . , X , como medidas independientes de una caracterstica numrica
X , que producen el promedio aritmtico y.)De las propiedades de la esperanza y de la varianza inmediatamente tenemos,,E ( X ) = p y
= u2/n.
Aplicando la desigualdad de Chebyshev a la variatble aleatoria y:

V(x)

Sea /x/,/ = E . Entonces k = fie/.

y podemos escribir
CI

(12.2)

Cuando n + 00, el lado derecho de la desigualdad anterior est cercana a


uno. Es en este sentido en que el promedio aritmtico convergeE ( X ) .

EJEMPLO12.3. Se prueba un gran nmero de tubos electrnicos.


Sea 7; el tiempo para que ocurrala falla del i-simo tubo. Supngase,
y que puede
adems, que todos los tubos provienen del mismo lote
estimarse que todos estn distribuidos exponencialmente con
el mismo
parAmetro a.
Por lo tanto, E(T;) = a-. Sea T = ( T I
- - . T n ) / n . La forma
anterior de la ley de los grandes nmeros establece que si n es muy
grande, sera muy probable que el valor obtenido para el promedio
aritmtico de un gran nmero de
tiempos d e fallas estuviera cercano a

-1 .

12.3 Aproximacin normal a la distribucin binomial


Como se estableci antes, l a Icy de los grandes nmeros se relaciona
esencialmente conla variable aleatoriaX distlribuida binomialmente. X
se definid como el nmero dexitos en n repeticiones independientes
de un experimento, y necesitamos asociar simplemente xito con la
ocurrencia del evento A para reconocer esta relacin. As, el resultado
anterior puede establecerse informalmente .afirmando que cuando
el
nmero de repeticiones de un experimento se aumenta,la frecuencia
relativa d e xito, X / n , converge a la probabilidad d e xito p , en el
sentido indicado previamente.

328 Sumas de variables aleatodas

12.3

Sin embargo, saber que


X / n est$ cercana a p para una n grande no
nos indica cmose obtiene esta cercana. Para investigar esto debemos
estudiar l a distribucin d e probabilidades d e X cuando n es grande.
Por ejemplo, supngase que un procesod e fabricacin produce lavadoras, d e las cuales alrededor del5% son defectuosas (es decir, muchas).
Si se inspeccionan 100 lavadoras, Zcul es la probabilidad de que sean
defectuosas menos de4-2
Siendo A el nmero de lavadorasdefectuosas encontradas, la ley d e
S / l O O debera estar
los grandes nmeros nos dice simplemente que
la probabicercano a 0.05. Sin embargo, no nos indica cmo calcular
lidad deseada. El valor exucto d e esta probabilidad est dado por

P(X

< 4) =

k=O

( 1~0)(0.05)k(0.05)00-.

Sera ms dificil calcular esta probabilidad en forma directa. Ya hemos


estudiado un mtodo de aproximacin para las probabilidades binomiales, como la aproximacin de Poisson. Consideraremos ahora otra
aproximacin importante paratales probabilidades, la cual se aplica cada vez que n es suficientemente grande.
Considbrese que P ( 9 = k ) = (;f.)p(1 - p ) n - k . Esta probabilidad
depende de n de un modo ms complicado y no hay una indicacin
evidente de lo que sucede a la expresin anterior si n es grande. A fin
d e investigar esta probabilidad, necesitamos usar lafdmulu de Stirling,
una aproximacin muy conocida d e n! Esta frmula establece que para
una n grande,
(12.3)
en el supuesto de que I,,,,,(n!)/~e-nnn+1/2)
= 1. (Una demostracin d e esta aproximacin puede encontrarse en muchos textos d e
la
clculo avanzado.) La tabla 12.1 puede dar una idea al lector de
exactitud d e esta aproximacin. Esta tabla est tomada de W. .Feller,
Probability Theory and Its Apfilicalions. 1 a. ed., Nueva York, John Wiley
and Sons, Inc., 1950.
Obseruacwn: Aunque la diferencia entre n! y su aproximaci6n se hace mayor
cuando n
00, lo importante d e observar en la tabla 12.1 es que el porcentaje
de error(illtima columna) se hacecada vez m,is pequeo.
--f

12.3

Aproximacin normal a la distribucin binomial

329

TABLA12.1
n!

10

&e-nnnS(1/2)

{Diferencia

Diferencia

118.019

0.078
0.08 1
1.98 1

0.08
0.04
0.02
0.008
0.0008

1O0

n!

Usando la frmula d e Stirling para los diversos factoriales que aparecen en la expresin deP(X = IC), puede demostrarse (despus de
muchas operaciones), que para una n grande,

P ( X = IC) =

(;> Pk(l

-P

Y k

Finalmente puede demostrarse que paran grande,

A s tenemos el siguiente resultado importante (conocido comola aproximacin d e DeMoivre-Laplace para la distribucin binomial):

Aproximacidnnormal a ladistribucidnbinomial.
distribucin binomial con parmetros n y p y si

Si X tieneuna

luego, para una n grande, Y tiene aproximadamente una distribucin N ( 0 , l )en el sentido de que limn+, P ( Y 5 y) = @(y) .
Esta aproximacin es vlida para valores d e n > 10 suponiendo

12.3

330 Sumas de variables aleatorias

i.

q u e p est cercana a
Si p est cercana a O o 1, n debera ser algo
mayor para asegurar una buena aproximacin.

Observaciones: a ) El resultado anterior no es slo d e considerable inters


terico sino tambinde granimportancia prctica. Indica que podemos usar
la
distribucin normal, muy tabulada, para
calcular probabilidades que provienen
d e la distribucin binomial.
b) En la tabla 12.2 la exactitud d e la aproximacin (12.4) se demuestra para
diversos valores d e n, E y p .

TABLA
12.2

= 8 , p = 0.2

I Aproximacin

11

0.306
0.33 1
O. 1G4
0.037
0.00'1

8
9
10
11

O+
O+
O+
O+
O+

n = 8 , p = 0.5

Exacto

Aproximacin

O . 168
0.336
0.294
0.147
0.046
0.009
0.001
O+
O+
O+
O+

0.005
0.030

O+

Exacto

rI

Exacto

0.009
0.027
0.065
0.121
O . 176
o. 199
O. 176
0.121
0.065
0.027
0.009
0.002

0.004
0.024
0.07 1
0.13G
O. 187
o. 196
O. 163
0.111
0.062
0.029
0.012
0.004

0.004
0.03 1
0.109
0.219
0.273
0.219
o. 1o9
0.03 1
0.004

0.104
0.220
0.282
0.220
0.104
0.030
0.005
O+

O+
O+
O+

O+
O+

n = 25, p = 0.2

Aproximacin

Volviendo al ejemplo anterior, observamos que

E ( X ) = n p = lOO(0.05) = 5,

V(X) = n p ( 1 - p ) = 4.75.
Entonces podemos escribir

P ( S 5 3) = P

0-5

<&5<

3-5)

Lm-m-m

= 1p(-0.92) - @(-2.3) = 0.168,

de las tablas dc la distribucin normal.


Observacin: N usar la aproximacinnormal a la distribucinbinomial,
estamos aproximando la distribucin de una variable aleatoria discreta con la
distribucin de unavariable aleatoria continua. Por tanto,se debe tener cierto
cuidado con los puntos ext,remos del intervalo considerado. Por ejemplo, para
una variable aleatoria continua, P ( X = 3) = O, mientras que para una variable
aleatoria discrem esta probabilidad puede serpositiva.

12.4

El teorema del lmite central

33 1

Se ha encontrado que las siguientes correcciones para continuidad mejoran la


aproximacin anterior:

u) P(X = k ) N P ( k - 5 X 5 k +
b ) P(" 5 x 5 b ) N P(u - 5 x 5

i),

3 + b).

Usando esta ltima correccin para la evaluacin anterior de

tenemos

P ( X 5 3) = P(0 5

P(X 5 3),

x 5 3) = P ("4 5 x 5 3;)

@(-0.69) - @(-2.53) = 0.239.

EJEMPLO12.4. Supngase que un sistemaestformadopor


100
componentes, cada uno de los cuales tiene una confiabilidad igual a
0.95. (Es decir, la probabilidad de que el componente funcione correctamente durante un tiempo especfico es igual a 0.95.) Si estos compoy si el sistema comnentes funcionan independientemente uno de otro,
pleto tambin funciona en forma correcta cuando funcionan al menos
80 componentes, cules la confiabilidad del sistema?
Sea X el nmero de componentes que funcionan, debemos evaluar
P(80 <_

Tenemos

E ( X ) = lOO(0.95) = 95;

x 5 100).

V ( X )= 100(0.95)(0.05) = 4.75.

Por lo tanto, usando la correccin para continuidad, obtenemos

P(80 5 X <_ 100) I


IP(79.5 5 X 5 100.5)
=

79.5 - 95 X' - 95100.5


- 95)
<
2.18
- f!.18 2.18

I
IQ(2.52)

"

- @(-7.1)

0.994.

12.4 El teorema del lmite central


La aproximacin anterior representa
slo un (casoespecial de un resultado general. A fin d e verificar esto, recordemos quela variable aleatoria
X distribuida binomialmente se puede representar como
la sumu de las
siguientes variables aleatorias independientes:

12.4

332 Sumasdevariubles ahatorias


Xi = 1

=O

si el xito ocurre en la i-sima repeticin;


si la falla ocurre en la i-sima repeticin.

Por lo tanto, X = XI1


X2
. . . + X, (Vaseel Ej. 7.13.) Para
esta variablealeatoriahemosdemostrado
quc E ( X ) = n p , V ( X ) =
n p ( 1 - p ) y, adems, que para unan grande, ( X - n p ) / d mtiene
la distribucin aproximada N ( 0 , l ) .
Si una variable aleatoria S se puedc representar como una szlrna
de n variublesaleatoriasindependientescualesquiera
(satisfaciendo ciertas
condiciones que son vlidas en la mayor parte de las aplicaciones),
n suficientemente grande, est distribuida
entonces esta suma, para una
en forma aproximadamente normal. Este resultado notable se conoce
como el teorema del
lmite central. Una formad e este teorema se puede
establecer como sigue.
Sea X I ,X z , . . . ,X, . . . una sucesin d e
variables aleatorias independientes con E ( X ; ) = /Li y V(X;) = n2i ,
i
1 , 2 , . . . Sea X = X I + X2 XIn; entonces,enciertas
condiciones generales (que nose indicarn explcitamente aqu),

Teorema del limite central.

tiene aproximadamente la distribucin N(0,l). Es decir, si Gn es


C , (z) = @(z).
la fda d e la variablealeatoria Z,, tenemos
Obxmaciones: a ) Este teorema representa una generalizacibn obvia d e la
aproximacin d e DeMoivre-Laplace. Las variables aleatorias independientes
X; que toman slo los valores 1 y O han sido sustituidas por variables aleatorias que poseen cualquier clase d e distribucin (mientras tengan esperanza y
varianza finitas). El hecho de que l a s X i pueden tener (esencialmente) cualquier clase d e distribucin y ailn as la suma X = X1 + . . . + X
, puede ser
aproximada por unavariable aleatoria distribuida normalmente, representala
razn b5sica d e la importancia d e la distribucicin normal en la teora d e probabilidad. En muchos problemas, la variable aleatoria que se considera se puede
representar con la suma d e n variables aleatorias independientes y, por tanto,
su distribucin puede aproximarse con la distribucin normal.
Por ejemplo, el consumo d e electricidad en una ciudad en cualquier hora
dada es la suma d e la demanda de un grannilmeso d e consumidores individuales. La cantidad de agua de unembalse puede considerarse comola representacin de la suma de un grannilmero d e contribuciones individuales. Y el

12.4

central
Ellmite
teorema del

333

error de medida en un experimento fisico est compuesto de muchos errores


pequeos no observablesque puedenconsiderars,eaditivos. El bombardeo molecular que padece una partcula suspendida en un lquido es la causa que la
obliga a desplazarse en una direcci6n y una maglnitud aleatorias, y su posicidn
(despus de un tiempo especificado) puede considerarse como una suma de
desplazamientosindividuales.
b ) Las condiciones generales citadas en la formulacin anterior delteorema
del lmite central pueden resumirse informalmente como sigue: los trminos
individuales en la suma contribuyen con una cantidad despreciable a la variaci6n de la suma y es muy improbable que cualquier tamao individual haga
una gran contribuci6n a la suma. (Parece que los errores de medida tienen esta caracterstica. El error final puede ser representado como una suma de varias pequeas contribuciones, ninguna de las cualescontribuye mucho al error
completo.)
c) Hemos establecido ya (Teorema 10.5) que la suma de cualquier nmero
finito de variables aleatorias independientes distribuidas normalmente es de
nuevo distribuida normalmente. El teorema del lmite central establece que
los sumandos no necesitan ser distribuidos normalmente para aproximarse a
la suma con una distribuci6n normal.
d ) No podemos demostrar aqu el teorema anterior, sin exceder el nivel de
presentaci6n programado. Sin embargo, hay un caso especialmente importante de este teorema que estableceremos y paria el cual damos al menos un
bosquejo de demostracin.

Teorema 12.1. Sean X I , . . . ,X n n variables aleatorias independientes


que tienen la misma distribucin. Sean 1-1 = E ( X - ; )y u2 = V ( X - ; ) ,
la esperanza y la varianza comn. Seal S = Cy=lX ; . Entonces,
E ( S ) = n p y V ( S ) = nu 2 , y paraunagran
n tenemosque
Tn= ( S - n p ) / f i u tiene aproximadamentela distribucin N ( O , 1 )
considerando que lmn-,m P(Tn 5 t ) = @ ( t ) .

Dermstracidn: (bosquejo): (Es convenientequeellector


revise los
conceptos bsicos d e la fgm presentados en el captulo 10.) Sea M la
fgm (comn) d e las X ; . Puesto que las X-;son independientes, AIS, la
fgm d e S , esta dada por Ms(t) = [ M ( t ) l n ,.y como Tn es una funcin
lineal d e S (usando el Teorema 10.2), la fgm d e Tn est dada por

As,

334 Sumas de variables aleatorias

12.4

(En este punto observemos que la idea de la demostracin consiste en


investigar A ~ (T t )~para valores g r a n d a d en ) .
Desarrollcnlos M ( t ) en una serie de Maclaurin:

Al(t) = 1

+ J l ' ( 0 ) t + lll"'(O)t2
+ R,
2

donde R es el tErmino del resto. Recordando queM ' ( 0 ) = p y M " ( 0 ) =


a 2 , obtenemos

p2

Por lo tanto,

Usaremos ahora el desarrollo d e Maclaurin para l ~ ( 1 x):


x2
ln(1 + x ) = x - 2

+ x33 + . . .
-

y para n suficientemente grande, el valor absoluto de este desarrollo


ser menor que uno.)A s obtenemos

12.4

central
lmite

del
El teorema

33 5

Puestoque slo estamosbosquejando 10s pasos principalesde la


demostracin sin dar todos los detalles, omitamos algunas operaciones algebraicas e indiquemos simplemente lo
que estamos haciendo.
Queremos investigar la expresin anterior (In M T , ( ~ ) )cuando n -+ OO.
Cualquier termino que tiene una potencia positiva d e n en el denominador (tal como n-1/2, por ejemplo) tendera a cero cuando n + OO.
Tambin se puede demostrar que todoslos tlirminos en que interviene
R tienden a cero cuando n -+ OO.DespuCs de un proceso algebraic0
muy directo, pero tedioso, encontramos que
lm In h f ~ , ( t=
) t 2 /2.

7"00

Entonces, tenemos

ksta es la fgm de unavariable aleatoria con distribucinN(0,l). Debido


a la propiedad de unicidad dela fgm (vease el Teorema 10.3) podemos
concluir que la variable aleatoria Tn converge en distribucin (cuando
n
m) a la distribuci6n N(0,l).
"-f

Observaciones: a) Aunque laanterior no es una demostracin rigurosa,aun as


proporciona al lector cierta ideapara deducir este notable teorema. La forma
ms general del teorema del lmite central (como se establecioriginalmente)
se puede demostrar usando un planteamiento sernejante al utilizado aqu.
b ) La forma especialdel teorema del lmite cenwal, como se estableci
antes,
expresa que el promedio aritmktico ( l / n ) Cy=lX;de n observaciones de la
misma variable aleatoriatiene aproximadamente una distribucin normal para
una n grande.
c) Aunque una demostracin matemhtica establecera la validez de unteorema, puede que no contribuya mucho a la idea intuitiva del resultado. Por
lo tanto, presentamos el ejemplo siguiente para qyienes poseen mayor orientacin numkrica.

EJEMPLO12.5. Considrese una urna que contiene tres


clases d e
objetosidentificadoscomo O, 1 y 2. Supongamos que hay 20 ceros,
30 unos y 50 doses. Se saca u n artculo al azar y se anota su valor,
digamos X . Supngase que X tiene la distribucin siguiente. (Vase
la Fig. 12.1.)

336 Sumas de variables aleatorias

12.4

FIGURA
12.1

FIGURA12.2

Supngase que el artculo elegido primero se sustituye, luego se escoge


un segundo artculo y se anota su valor, digamos Y . Considrese la
variable aleatoria M = ( X Y)/2 y su distribucin (Fig. 12.2).

P(hl = m )

I 0.04 I 0.12 I 0.29 1 0.30 1 0.25

Obtuvimos los valores anteriores de P( A l ) como sigue:

P ( h l = O) = P ( X = 0,Y = O) = (0.2)2 = 0.04;


P ( M = :) = P ( X = 0,Y = 1) P ( X = l , Y = O)
= (0.2)(0.3) (0.3)(0.2) = 0.12, etc.

Finalmente supongamos que despus de que el segundo artculo tambin se h a reemplazado, se escoge un tercer artculo y se anota s u valor,
digamos Z . Considerar la variable aleatoria N = (X Y 2 ) / 3 y su
distribucidn (Fig. 12.3):

+ +

P ( N = n ) 0.008

0.036

0.114

0.207

0.285 0.225

2
0.125

Las distribuciones de probabilidades de las variables aleatorias hl y N


ya muestran signos de normalidad.Es decir, la aparicin de la forma
d e campana de la curva de distribucin empieza a hacerse evidente.
Iniciando con la distribucin de X , que es muy simtrica, encontramos

12.4

El teorema del limite central

337

P(N=n)

que el promedio d e slo tres observaciones tiene una distribucin que


ya muestra signos de normalidad.
Por supuesto, el ejemplo anterior no demuestru nada. Sin embargo,
representa una ilustracin numrica de los resultados expuestos previamente de una manera ms matemtica. E1 lector deber continuar
este ejemplo agregando una observacin ms y luego encontrar l a distribucin de probabilidades del promedio d e las cuatro observaciones
obtenidas. (Vase el Prob. 12.10.)

EJEMPLO12.6. Supngase que tenemos cierto nmero de voltajes


con ruido independientes, I<, i = 1 , 2 , . . .,n:,que se reciben en lo que
sellama un sumador. (Vase la Fig. 12.4.) Sea V la suma d e los
voltajes recibidos, es decir, V = Cy=lV,. Supngase que cada una de

las variables aleatorias V, est distribuida unihrmemente enel intervalo


[O, 101. Por lo tanto, E(\<) = 5 volts y var (V,)
= 100/12.
De acuerdo con el teorema del lmite central,
si n es suficientemente
grande, la variable aleatoria

S = (IT - 5 n ) & / 1 0 f i
tiene aproximadamente l a distribuci6n N(0,l).
Luego, si n = 20 podemos calcular la probabiliel voltaje total de entrada sobrepase
dad de que
105 volts, como sigue:

P(V

> 105) = P
2~

((lo/dE)m
v - 100 > ( l105
O / a-? d100
%

1 - (a(0.388) = 0.352.

%
v3

FIGURA12.4

v2

338 Sumas de variables aleatorias

12.5

12.5 Otras distribuciones aproximadas por


la distribucin normal: de Poisson, de
Pascal y gama
I-lay cierto nmero de distribuciones importantes distintas
a la binomial
expuesta enla seccin 12.3 que se pueden aproximar porla distribucin
normal. Y en cada caso, como lo haremos notar, la variable aleatoria
cuya distribucin aproximaremos puede representarse
con una suma
d e variables aleatorias independientes, dando as una aplicacin del
teorema del lmite central como se expuso en
la seccin 12.4.
a) La distribucin de Poisson. Recordemos que una variable aleatoria
d e Poisson aparece (sujetaa ciertas condiciones) cuando estamos interesados enel nmero total d e ocurrencias de un evento en un intervalo de
tiempo de longitud t , con una intensidad (es decir, tasa d e ocurrencias
por unidad de tiempo) de(Y (vase la Sec. 8.2). Tal como se expuso en
esa seccin, podemos considerar el nmero total
d e ocurrencias comola
suma d e las ocurrencias en intervalos muy pequeos, no sobrepuestos,
haciendo as aplicables los resultados d e la seccin anterior.

EJEMPLO12.7. Supngase que las llamadas a una central telefnica


particular ocurren a razn d e dos por minuto. <Cub1es l a probabilidad
d e q u e se reciban 22 o menos llamadas en un periodo de 15 minutos?
(Suponemos, por supuesto, quela intensidad permanece igual durante
el periodo considerado.) Si X = nmero de llamadasrecibidas, entonces E ( S ) = 2(15) = 30. Paracalcular P ( X
22), aplicando la
correccin para la continuidad (vase la Ec. b) que precede al Ej. 12.4),
tenemos

<

P ( X 5 22) % P

22

+ $ - 30

donde Y tiene distribucih N(0,l). Por lo tanto, la probabilidad anterior es igual a i9(-1.37) = 0.0853.
6 ) L a distribucin de Pascal. Si 'E = nmero de ensayos de Bernoulli
necesarios para tener T h i t o s , entonces Y tiene una distribucin d e
Pascal y se puede representar con la suma de T variables aleatorias
independientes (vase la Sec. 8.5). Luego, para una T suficientemente
grande, se aplican los resultados d e la seccin anterior.

La distribucin de la suma de un nmero.. . 339

12.6

EJEMPLO12.8. Encuntrese un valor aproximado de


la probabilidad
de que senecesiten 150 o menos ensayos para obtener 48 xitos cuando
P(xito) = 0.25. Haciendo X = nmero de ensayos, tenemos (vase
la Ec. 8.8) E ( X ) = r / p = 48/0.25 = 192, y Var X = rq/p2 =
(48)(0.75)/(0.25)2 = 576. Por tanto,

c) La dktm'bucidn gama. Comoseindicenelteorema


10.9, una
variablealeatoria que tiene una distribucih gama (con parmetros
Q y r ) se puede representar
con una suma1 d e r variables aleatorias
r
independientesdistribuidasexponencialmente.Luego,parauna
grande, se aplica nuevamenteel teorema del lmite central.
12.6 La distribucin de la suma de un nmero
finito de variables aleatorias
El ejemplo 12.6 sirve para motivar la exposicin siguiente. Sabemos
que la suma de cualquier nmero
finito d e variables aleatorias independientes distribuidas normalmente tambin est distribuida normalmente. Del teorema dellmite central podemos concluir que paran grande,
la suma de n variables aleatorias independientes tiene una distribucin
aproximadamente normal. Queda por resolver la pregunta siguiente:
supngase que consideramosX1 * .. X n , donde las X son variables
aleatorias independientes (no necesariamente normales) y n no es suficientemente grande para justificar
el uso del teorema del
lmite central.
Cul es la distribucin d e esta suma? Por ejemplo, cules la distribucin del voltaje de entradaV (Ej. 12.6), si n == 2 o n = 3?
Primero consideraremos el importantecaso d e la suma de dos variables aleatorias. Se puede establecer el resultatdo siguiente.

+ +

Teorema 12.2. Supngase que X y Y son variables aleatorias continuas independientes con fdp g y h, respectivamente. Sea 2 =
X Y y dentese la fdp de2 por s. Entonces,

(12.6)

Demslracidn: Puesto que X y Y son independientes, su fdp conjunta


f pucdc factorizarse:

12.6

340 Sumas de variables aleatorias

Usando la transformacin:
z=x+y,

Lucgo, x = w, y = z

- 'uu7.
El jacobiano

J = / '1

w=x.

de esta transformacin es

-1'/=-l.

A$,el valor absolutod e J cs 1 y, por tanto, la fdp conjunta d e 2 = S + E '


y W = S es
k ( z ; w ) = g ( w ) h ( z - w).
La fdp de 2 se obtiene ahora al integrar k ( z , w)de
w,de d o n d e se obtiene el resultado anterior.

"o0

a m respecto a

Observaciones: a ) La integral anterior que


relaciona las funciones g y h ocurre
e n muchos temas matemdticos diferentes. A menudo se le menciona como la
integral d e convolucin de g y h ; algunas veces se escribe como g * h.
b ) La evaluacin de la integral anterior debe hacersecon mucho cuidado.
En realidad, Ia misma dificultad que apareci en la evaluacin d e la fdp de
un producto o d e u n cociente aparece nuevamente. Las filnciones g y h a
menudo serrin distintas d e cero slo para ciertos valores d e sus argumentos.
Por tanto, el integrando enla integral anterior ser5 distintod e cero slo para
aquellos valores d e la variable d e integracin w para los cuales a?nbos factores
del integrando son distintos de cero.
c ) La frmula anterior, ecuacin (12.6), puede usarse repetidamente (con
dificultad creciente, sin embargo) para obtenerla fdp d e la suma de cualquier
nmero finito d e variables aleatorias continuas independientes. Por ejemplo,
si
S = X + Y + W , podemos escribir como S = 2 + W , donde Z = S + Y . Luego
podemos usar el planteamiento anterior para obtenerla fdp de Z , y entonces,
conociendo la fdp d e Z , usar este mtodo otravez para obtener la fdp de S.
d ) Podemos derivar la ecuacin (12.6) d e otra manera, sin usar la nocin de
jncobiano. Denotemos por S la fda de la variable aleatoria 2 = S -t Y . Luego

12.6

La distribucin de la suma
nmero..
unde

. 341

donde

FIGURA
12.5
Diferenciando S ( z ) respecto a z @ajo el signo integral,lo cual puede justificarse) obtenemos

= S(.) =

S
(
.
)

+m

J-00

g(x)h(z - x) dx,

lo que estA de acuerdocon la ecuacin (12.6).


e ) Puesto que la distribucin d e X + Y debera posiblemente ser la misma
que la distribucin d e Y + X , podramos verificar que S-+, g ( z ) h ( z - z) d z =
S-+, h(y)g(z - y) dy. Haciendo simplemente z - x = y en la primera integral,
producirh la segunda forma.Algunas veces indicamos esta propiedad al escribir
g * h = h * g. Vase la Observacin a) anterior.
O

FIGURA12.6

EJEMPLO12.9. Se consideran dos instrumentos electrnicos, Dl y


D2. Supngase que Dl tiene una duracin que se puede representar
con una variable aleatoria T I que tiene distribucin exponencial con
parmetro a l , mientras queD2 tiene una duracin quese puede representar con una variable aleatoria T2 que tiene distribucin exponencial
con parmetro 2 . Suponiendo que D1 y D 2 estzn conectadas d e tal
manera que D2 empieza a funcionar en el momento en queDl deja d e
hacerlo, entonces T = TI + T2 representa e l tiempo total en que est
funcionando el sistema formado porlos dos instrumentos. Suponiendo
que TI y T2 son independientes, podemos aplicar el resultado anterior
para obtener

iables

de342

12.6

Sumas

(Para todos los otros valores de 11 y t 2 , las funciones g y h se suponen


igual a cero!). Por tanto, usando la ecuacin (12.6) encontramos que la
Iilp de T I + 7'2 = T e s t i dada por

El integrando es positivo si y slo si ambos factores del integrando son


positivos; es decir cada vez t l 2 O y t - t l 2 O. Esto equivale a t l 2 O y
t l 5 t , lo cual, a su vez, es equivalente a O 5 t l 5 t . (Vase la Fig. 12.6.)
Luego, la integral anterior se convierte en

Observaciones: a ) Ntese que la suma d e dos variables aleatoriasindependientes, distribuidas cxponencialmente, n o e s d distribuida exponencialmente.
b ) I'ara L Y ~> CY^, I n grfica d e fdp de T se muestra en la figura 12.7.
c) La expresibn anterior para la fdp no esti definida para a1 = cu2, es decir,
para el caso donde TI y T2 tengan la misma distribucin exponencial. A fin de
tencr cuidado con este caso especial, consideremos la primera integral d e S ( )
y hagamos LY = 01 = a2. Obtenemos

I = I/a

FIGURA
12.8

12.6

La distribucin
de

IQ suma

de un nmero. . . 343

sta representa una distribuci6n gama (vase la 13c. (9.16). La grfica de esta
fdp aparece en la figura 12.8. El mximo ocurre para t = 1 / a = E(T1) =
E(T2).

EJEMPLO12.10.

Reconsideremoselejemplo12.6,
que trata de la
suma dc dosvoltajes aleatorios independientes,VI y V2, cada uno delos
cuales est distribuido uniformemente en [0,10]. A s ,

(Recurdese nuevamenteque las funciones f y g son cero para cualquier


otro valor). Si V = If1 V2, tenemos

Razonando como en el ejemplo 12.8, observamos que el integrando es


distinto de ceroslo para aquellos valores de v l que satisfacen O 5 u1 5
10 y O 5 w - "1 5 10. Estas condiciones equivalen a O I vl 5 10 y a
w - 10 5 w1 5 2).

Existen dos casos, como se indicacn la figura 12.9.

w - 10 5 10 y O 5 w 5 10 que juntas implican que O 5 w I 10.


b ) O 5 w - 10 5 10 y w 2 10 que juntas implican que 10 5 w 5 20.

a)

En el caso a), q puede tomar valores entre O y o, mientras que en el


caso b ) , u1 puede tomar valores entrew - 10 y 10.

344 Sumas de variables aleatorias

12.6

As obtenemos

Luego, la fdp d e V tiene la grAfica que se muestra en la figura 12.10.

EJEMPLO12.1 1. Como una ilustracinfinal d e las sumas d e variables


aleatorias, reconsideremosu n resultado queya hemos probado, usando
el mtodo ms indirecto de las [unciones generadoras de momentos
(vase el Ej. 10.1 l), esto es, la suma de dosvariables aleatorias normales
independientes otra vez est distribuida normalmente. A fin d e evitar
algunas operaciones algebraicas complicadas, consideremos
slo un caso
especial.
Supngase que 2 = X
Y , donde X y Y son variables aleatorias
independientes, cada una con distribucinN ( O . 1 ) . Entonces,

Por lo tanto, la fdp de 2 est dada por

12.6

la :ruma
nmero..
unde

La distribucin
de

. 345

Completando el cuadrado en el exponente del integrando, obtenemos

(a:2 -.a:)=
Luego,

Sea

d(a-:z/2)

= u;entonces da: = du/& y obtenemos

La integral anterior (incluyendo el factor


l/t& es igual a uno. A s ,

Pero sta representa la fdp de una variable aleatoria con distribucin


N ( 0 , a), lo cual se iba a demostrar.
Al presentar la distribucin de la suma de dos variables aleatorias
independientes, nos hemos limitado a variables aleatorias continuas. En
el caso discreto, el problema un
es poco ms sencillo, almenos en ciertos
casos, como lo indica el teorema siguiente.

Teorema 12.3. Sup6ngase que X y Y sonvariablesaleatoriasindependientes, cada una de las cuales ,puede tomar slo valores
p ( k ) = P(,Y = IC), E = O , 1 , 2 , . . . y
enteros no negativos. Sea
sea q(r) = P ( Y = Y), r = 0,1,2,.. . Sea Z = X + Y y sea
w ( i ) = P ( Z = i). Entonces,
w(i) =

i = o, 1 , 2 , . . .

p(IC)q(i - E ) ,
k=O.

Demostracin:
w(i)= P(Z = i)

P[X=O,Y=iox'=1,Y=i-I.o
i

=
k=O

P [ X = E , Y = i - IC] =

k=O

puesto que X y Y son independientes.

... o X = i , Y = O ]

p(E,)q(i- IC)

346 Sumas de variables aleatorias


OBseruacidn: Ntese la similitud entre esta suma y la integral d e convolucin
derivada en el teorema 12.2.

EJEMPLO12.12. X y Y representan el ntimero d e partculas a


emitidas por dos ruentes de material radioactivo durante un periodo
de tiempo especificado d e longitud t . Supngase que X y Y tienen
distribucin d c Poisson con parmetros P l t y@:!, respectivamente. Z =
X
Y representa el nmero total d e partculas a emitidas por las dos
fuentes. Usando el teorema 12.3, obtenemos

P ( Z = IC) =

p ( k ) q ( i - IC)

k=O

(La ltima igualdad se obtiene aplicando el teorema del binomio a la


la probabilidad d e
sumaanterior.) La ltimaexpresinrepresenta
que una variable aleatoria, que tiene una distribucicin de Poisson con
,&t, tome el valor i. As comprobamos lo que ya
parmetro P l t
sabamos: la suma de dos
variables aleatorias independientesd e Poisson
tiene una distribucin d e Poisson.

PROBLEMAS
12.1. a ) Una f5brica produce determinados artculos d e tal manera que
el 2% resulta defectuoso. Un gran nmero de tales artculos, digamos R , se
inspecciona, y se anota la frecuencia relativa de los defectuosos, digamos fo.
Cun grande debera sern a fin de quela probabilidad sea al menos 0.98 d e
quefodifiera de 0.02 en menos d e 0.05?
O) Contestar a ) si 0.02,la probabilidad d e obtener u 1 1 articulo defectuoso, se
sustituye por p que se supone desconocida.

12.2. Supngnse que seobtieneunamuestra


de tamaho n de un gran
conjunto d e pernos, ~ 1 3 % los
d e cuales es defectuoso. tCu,il es la probabilidad
de quecomo misilno el 5% de los pernos elegidos sea defectuoso si:
a) n

= G?

b ) n = GO?

c)

n = GOO?

Problemas

347

12.3. a) Un sistema est constituido por 100 componentes que funcionan


independientemente. La probabilidad de que cualquiercomponente falle
durante el periodo d e operacin es igual a 0.10. A fin d e que el sistema
completo funcione, al menos deben funcionar 85 (componentes. Calcular esta
probabilidad.
b ) Supngase que cl sistema anterior est formadopor n componentes, cada
uno con una confiabilidad de 0.90. El sistema ftmcionarzi si a1 menos el 80%
d e los componentes hnciona correctamente. Determinar n, d e modo que el
sistema tenga una confiabilidad de 0.95.
12.4. Supngase que 30 instrumentos clcctrnicos, D l , . . . 0 3 0 , se m a n d e
la manera siguiente: tan pronto como Dl falla, 0 :empieza
~
a actuar. Cuando
0 2 falla, 0 3 empieza a actuar,etc. Supngase queel tiempo paraque ocurra la
falla.de 0;es una variable aleatoria distribuida exponencialmente con parrimetro ,B = 0.1 hora-1. Si T es el tiempo total de operacin d c los 30 instrumentos,
cul es la probabilidad de queT exceda 350 horas?
12.5. Al sumar nmeros, u n computador aproxima cada nilmero al entero
ms prximo. Suponer que todos los errores d e aproximacin son independientes y distribuidos uniformemente entre(-0.5, 0.5).
a ) Si se suman 1500 nmeros, {cul es la probabilidad de que la magnitud
del error total exceda 15?
b ) Cu5ntos nmeros pucden sumarsejuntos para
que la magnitud delerror
total sea menor que 10, con probabilidad 0.90?

12.6. Supngase que S;,i = 1 , 2 , . . . 50, son variables aleatorias independientes, cada una con distribucin d e Poisson con parmetro X = 0.03. Sea
S = x1 . . . x50.

+ +

Usando el teorema del lmite central,calcular P ( S 2 3).


b ) Comparar la respuesta d e a ) con el valor exacto d e esta probabilidad.

a)

12.7. En un circuito simple se conectan dos resistencias, R1yR2 en serie.


Por tanto, la resistencia total est5 dada por R = R1 + R2. Supngase que R1 y
R2 son variables aleatorias independientes, cada una conla fdp
O < r; < 10,

i = 1,2.

Encontrar la fdp d e R, (la resistencia total) y dibujar la grzifica.


12.8. Supngase que las resistencias en el problema 12.7 est5n conectadas
en paralelo. Encontrar la fdp de R, l a resistencia total del circuito(establecerla
slo en forma integral). [Zndicacidn: La relacin entre R, y R1, y E 2 esd dada
por l / R = 1/R1 1/R2.]

348 Sumas de variables aleatorias


12.9. N medir T , la duracin de unartculo, se puede cometer un error que
puede suponerse distribuido uniformemente entre (-0.01 y 0.01). Luego, el
tiempo anotado(en horas) se puede representrcomo T + S , donde T tiene una
distribucin esponencial con par5rnetro 0.2 y S tiene la distribucin uniforme
ya descrita. Si T y X son independientes, encontrarla fdp d e T + X.
12.1O. Supngase que S y I son variables aleatorias independientes distribuidas idnticamente y que l a fdp cle X (y, par tanto, de Y )est5 dada por
f ( 2 )= a/&

Encontrar la fdp de X
integracin.]

> a,

> o,

= O,

para cualquier otro valor.

+Y.

[Indicaci6n: Usar fracciones parciales para la

12.1 1.Realizar los c5lculos sugeridos a1 final del ejemplo 12.5.


1 2.12. a ) Un instrumento tiene un tiempo T para fallar, cuya distribucin
est5 dada por h r ( 1 0 0 , 4 ) . Supngase que al anotarT se comete un error, cuyo
valor se puede rcpresentiw con una variable aleatoria S distribuida uniformemente en (-1,l).Si X y T son independientes, obtenerla fdp d e S = X T en
trminos d e a, la fdp d e la distribucin N ( 0 , l ) .
b ) Calcular P(100 5 S 5 101). [I~zdicaczdn:Umr la regla de Simpson para
aproximar la integral.]

12.13. Supngaseque un aparato nuevo


se prucba repetidamente enciertas
condiciones d e tensi6n hasta que falla. La probabilidad d e fallar en cualquier
ensayo es P I . Sea X igual al nmero deensayos necesarios hasta la primera falla,
inclusive. Tambin se prueba un segundo aparato hasta que fillla. Sup6ngase
que la probabilidad constmte defalla de p 2 esL5 asociada con l. Sea Y igual al
nmero deensayos necesarios hasta su primera falla, inclusive. Supngase que
,Y y Y son independientes y sea 2 = X + Y.Por tanto, 2 es igual al nmero
d e ensayos necesarios hasta que anlbos aparatos hayan fallado.
Encontrar la distribucin de probabilidad d e Z.
b ) Calcular P ( Z = 4) si p l = 0.1, p2 = 0.2.
c) Analizar a) si p1 = p 2 .
a)

13.1 Introduccidn

Consideremos d e nuevo un problema expuesto previamente. Supngase que tenemos una fuente de material radioactivo que emite partculas a y que son vAlidas las suposiciones establecidas en el captulo8; as,
la variable aleatoria X definida como el nmero de partculas emitidas
durante un periodo de tiempo
especificado 2, tiene una distribucin de
Poisson con parametro A t .
A fin de usar este modelo probabilstico para describir la emisin
d e partculas a necesitamos conocer el valor
d e X. Las suposiciones
que formulamos slo conducen a la conclusin de que X tiene una
distribucin d e Poisson con un parametro A t . Pero si deseamos calcular
P ( X > IO), por ejemplo, la respuesta ser en t@rminosd e X a no ser
que conozcamos su valor numrico. EII ibrma similar, los parsmetros
importantes asociados con la distribucin, taks comoE ( X ) y V ( X ) , son
funciones d e X.
Para buscar un valor numCrico d e X debemos dejar, al menos por
el momento, el mundo de nuestros modelosmatemticostericos y
entrar al m u n d o d elas observaciones. Es decir.,en este instante debemos

350 Muestras y distribuciones


muestrales

13.1

observar la emisin d e partculas, obtener los valores numricos d e _Y


y luego utilizar esos valores de manera sistemtica a fin de obtener una
informacin atinada d e X.
Es importante para el lector tener una idea precisa acerca de
la relacin entre la verificacin emprica y la deduccin matemtica que aparece en muchas reasd e matemticas aplicadas. Esto es relevante cuando
construimos modelos probabilisticos para el estudio de fenmenosobservables.
Consideremos un ejemplo trivial d e trigonometraelemental.Un
problema tpico puede implicar el clculo d e la altura de un rbol. Un
modelo matem5tico para este problcma podra obtenerse
al postular que
la relacin entre la altura desconocida h , el largo d e
la sombra S y el ngulo cy es de la forma h = S t a n (Y.
(Suponemos que el rbol permanece derecho y perpendicular al suelo, Fig. 13.1.) Por tanto, si S y (Y son
conocidas, con ayuda de una tabla apropiada podemos calcular h . El hecho importante que aqu formulamos es que S y (Y deben ser conocidas antes d e qlle
podamos evaluar h. Es decir, alguien debe haber medido S y N . La deduccin matcmtica que conduce
FIGURA13.1
l rclacin 11 = S t a n cy es complctamcnte inclepenaa
dicnte delos medios con los cuales medimos S y (Y.Si
esas mediciones son exactas, entonces
S t a n (Y representarA un valor
exacto de h (suponiendo que el modelo es vlido). En otras palabras,
no podemos dcducir simplemente el valor de h con nuestros conocimicntos dc trigonometra y con la ayuda de las tablas trigonomtricas.
inebemos dejar nuestro santuario (cualquiera que sea)y hacer algunas
mediciones! Y la manera de hacer esas mediciones de ningn modo
influye en In mlidez de nuestra deduccin matemtica, aunque el problema por rcsolver sea importante.
Al usar los modclos probabilisticos necesitaremos entrar nuevamente
al mundo emprico y hacer algunas mediciones. Por ejemplo, en el
caso que consideramos se usa la distribucin d e Poisson como modelo
X.
probabilistic0 y, por tanto, necesitamos conocer el valor del parmetro
A fin de obtener alguna inrormacin acerca
de X debemos hacer algunas
d e calcular
mediciones y luego usarlasd e manera sistemtica con objeto
X. En el captulo 14 describiremos la forma de hacer este clculo.
Finalmente, debemos insistir aqu en dos puntos. Primero,las mediciones necesarias para obtener informacin respecto aX sern en general msfcilcs de obtener quelas que resultaran de mediciones directas

13.2

aleatorias

Muestras

35 1

para eXt(At)k/k! (as como es ms fcil obtener mediciones para el largo


de l a sombra S y el ngulo a, que para la altura h). Segundo, la manera
como obtenemos mediciones paraX y el modo como usamosesas mediciones dc ninguna formainvalida ( o confirma) la aplicacin del modelo
de Poisson.
Lo anterior es un ejemplo tpico de una granclase de problemas. En
muchos casos es relativamente natural (y apropiado) formularla hiptesis de que unavariable aleatoria X tiene una distribucin particular de
probabilidades. Ya hemos visto varios ejemplos que indican que suposiciones muy simples acerca de la conducta probabilstica d e X conducirn a un tipo determinado de distribuciones tales como la binomial,
exponencial normal, de Poisson y otras. Cada una de esas distribuciones depende de ciertos parmetros. En algunos casos, el valor de uno
o ms parmetros puede ser conocido. (Tal conocimiento puede provenir del estudio previo d e las variables alcatorias.) Muy a menudo, sin
embargo, no conocemosel valor d e los parmetros implicados. En tales
y obtener algucasos debemos proceder como se sugiri anteriormcntc
nos valores empricos de S y luego usar esos valores de alguna manera
apropiada. En el captulo 14, veremos cmo se hace esto.

13.2 Muestras aleatorias


Previamente hemos presentado la nocin de muestreo aleatorio con o
sin sustitucin de un conjunto finito d e objetos o poblacin d e objetos.
Tenernos que considerar una poblacin especifica de objetos (personas,
artculos, manufacturados, etc.) acercad e la cual queremos hacer alguAs muestreana inferencia sin tomar en cuenta cada objeto particular.
mos, es decir, tratamos de considerar algunos objetos tpicos de los
cuales esperamos extraer alguna informacin que dc algiln modo sea
caracterstica d e la poblacin completa. Seamos ms precisos.
Supongamos que se designan consecutivamente cada uno d e los elementosdeuna
poblacinfinita de modo que, sin perder generalidad, una poblacin que consta de A objetos puede representarse como
1 , 2 , . . . , N . Elijamos ahora n artculos, de la manera que se describe a
continuacin. Definamos la siguiente variable alcatoria.

X ; = valor poblacional obtenido cuando se escoge el i-Csimo artculo,


i = 1,2,...,n.
La distribucin de probabilidades de
las variables aleatorias X1 ,. . . , X n
depende obviamente de cmo vamos
a muestrear. Si cl muestreo es con

352 Muestras y distribuciones


muestrales

13.2

sustitucin, escogiendo cadavez un objeto al azar,las variables aleatorias


Es decir, para cada X,,
son independientes e idnticamente distribuidas.
i = 1 , 2 , . . . ,n tenemos

P(X2 = j ) = 1 / N , j = 1 , 2 , . . . , N .
Si elmuestreo es sin sustitucinlas variables aleatorias X1 , . . . X, ya no
son independientes. En este caso, su distribucin conjunta d e probabilidades est dada por

donde j , , . . . , j , son n valores cualesquiera d e (1,.. . ,N ) . (Podemos


demostrar que la distribucin marginal d e cualquier Xi) independientemente de los valores tomados por X I , . . . ,X i - I 7 Xi+1,. . . ,X,, es la
misma que la anterior cuando el muestreo se hace con sustitucin.)
Hasta ahora, en nuestra exposicin, hemos supuesto que existe una
poblacin principal, 1 , 2 , . . . ,N que es finita y acerca d e la cual queremos
tener una informacin basada en una muestra de tamao n < N . En
muchos casos no hay ninguna poblacin finita d e la cual obtengamos
muestras; d e hecho, podemos tener dificultades
al definir una poblacin
principal d e cualquier clase. Consideremos los ejemplos siguientes.
a) Se lanza una moneda. Definamosla variable aleatoria X1 = nmer o d e caras obtenidas. S10 en un aspecto podemos pensar que X1 es
una muestra de tamao uno de la poblacin d e todos los lanzamientos posibles de esa moneda. Si lanzamos l a moneda una segunda vez y
definimos la variable aleatoria X2 como el nmero de caras obtenidas
con el segundo lanzamiento,S 1 ,X 2 posiblemente se puede considerar
la misma poblacin.
como una muestra de tamao dos de
b ) La precipitacin totalanual en cierta
localidad durante el ao1970
podra definirse como una variable aleatoria X1. Durante los aos siguientes, las variables aleatorias S 2 , . . . ,X , pudieron definirse anlogamente. Podemos considerar d e nuevo ( X I , . . . ,A-,) como una muestra de tamao n, obtenida de la poblaci6n d e todas las precipitaciones
anuales posibles en esa localidad especfica,y podra suponerse en forma
realista que las X-,.son variables aleatorias independientes idnticamente
distribuidas.
c) La duracin de una bonlbilla Fabricada mediante cierto procedimiento se estudia escogiendo n bombillas y midiendo su d u r a c i h ,

13.2

Muestras aleatorias

353

. . ,Tn. Podemos considerar ( T I , . . . ,T,) como una muestra aleatoria d e la poblacin d e todas las duraciones posibles d e las bombillas
fabricadas de esa manera especfica.
Formaliccmos esas nociones como sigue.

I,.

Definicin. Sea X una variable aleatoria con cierta distribucin d e


probabilidades. Sean X I , . . . , X n n variables aleatorias independientes cada una conla misma distribucin queX. Llamamos entonces a (X,, . . . , X , n )muestra uleutoriu de la variable aleatoria X.
Observaciones: a ) Establezcamos d e una manera ms informal loanterior: una
muestra alcatoria d e tamao n de unavariable aleatoria X corresponde a n mediciones repetidasde X , hechas bsicamenteen las, mismas condiciones. Como
ya lo hemos dichoen otros contextos,la nocin matemticamente idealizada d e
una muestra aleatoria se puede, en el mejor d e 10s casos, aprosimar slo por
las condiciones experimentales reales. A fin de que X1 y X2 tengan la misma
distribucin, todas las condiciones relevantes en las que se realiza el experimento deben serlas mismas cuando se observa X1 que cuando seobserva X2 .
Por supuesto, las condiciones experimentales nunca se pueden duplicar idnticamente. Lo importante es que esas condicione:;, que son diferentes, deben
tener poco o ningn efecto en el resultado del experimento. Sin embargo, algn cuidado deber5 tenerse para asegurarnos de que realidad
en
obtengamos
una muestra aleatoria.
Por ejemplo, supngase que la variable aleatoria que se considera es S , el
nilmero d e llamadas que llegan a una central telefjnica elmircoles entre las 4
P M y las 5 PM. A fin de obtener una muestra
aleatoria de X , posiblemente deberamos elegir n mircoles al azar y anotar el valor d e X I , . . . , X,. Tendramos
que estar seguros de quetodos los mircoles son mircoles tpicos. Por ejemplo, podramos no incluirun mircoles particular si coincide con Navidad.
Nuevamente, si tratamos de obtener unamuest.ra aleatoria X d e la variable
aleatoria X definida como la duracin de un instrumento electrnico que se
fabrica con determinadas especificaciones, desearamos asegurarnos de que
no se ha obtenido un valor muestra1 de un art8cdo producido durante un
momento en queel proceso d e produccin estaba fallando.
6) Si X es una variable aleatoria continua con fdp f y si X I , . . . , X , es una
muestra aleatoria d e X , entonces g , la fdp conjunta? d e X I , .. . , X,, puede
escribirse como g ( q , ,, . , x,) = f ( X 1 ) . . . f(x,). Si X es una variable aleatoria
discreta yp(r;) = P ( X = xi), entonces

c) Tal como lo hicimos antes, usaremos letras nnayilsculas para las variables
aleatorias y letras minsculas para el valor de la variable aleatoria. As, los

354 Muestras y distribuciones


muestrales

13.3

\-alorcs que toma una muestra ( 2 1 , . . . ,x,) se denomr5n con (21,.. . ,x,). A
nlenudo llablarernos del finrulo mzuswal S I , . . . , X,. Con esto indicaremos
simplemente que consideramos a ( 2 1 , . . . ,x,) como las coordenadas de un
punto en uncspacio euclidiano n dimensional.

13.3 Estadsticos*

Una vez que hemos obtenidolos valores de una muestra aleatoria, habitualmente queremos usaresos valores muestrales conel objeto de hacer
la poblacin representada porl a muestra
alguna inferencia respecto de
que, en el presente contexto, significa la distribucin d e probabilidades
d e la variable aleatoria que se est5 muestreando. Puesto que los diversos parmetros que caracterizan una distribucin de probabilidades son
nmeros, es natural que queramos calcular ciertas caractersticas numricas especficas que se obtienen de
los valores muestrales,lo que nos
podra servir para hacer proposiciones apropiadas acerca d e los valores d e los parmetros que a menudo no son conocidos. Definamos el
siguiente concepto importante.

Definicin. Sea X I ) .. . , X n una muestra aleatoria de una variable


aleatoria X- y sean X I ) .. . x n los valores tomados por la muestra.
Sea 11 una funcin definidapara l a n.-tupla ( X I , . . . ,x,). Definimos
Y = I I ( X 1 , . . . , X-,) como un estadstico que toma el valor y =
r q q , . * . xn).
)

Enpalabras, un estadsticoes una funcin real d e la muestra.


Algunas veces usamos el trmino estadstico para referirnos alvalor d e la funcin. h
i podemos hablar delestadstico y = H ( z 1 , . . . ,
z n ) cuando en realidad deberamos decir que1~ es el valor del estadstico Y = N ( X 1 , . . . , S , , ) .
Observacio,~es:a ) El uso anterior es muy especial, pero en general aceptado,
del trmino estadstico. Obsrvese que lo estamos usando en singular.
b) De acuerdo con la definicinanterior,un estadstico es una variable
aleatoria! Es muyimportanterecordar esto. Por lo tanto,ahoraser5 iltil
considerarla distribucin d e probabilidades de un estadstico, su esperanza y su
varianza. Cuando una variable aleatoria es en realidad un estadstico, es decir,
*N. del T. El autor emplea la palabra stahtics, quc hemos traducido como
estadstico por ser lo mis comnmente empleado en espaiol.

13.1

Algunos estadsticos importantes

355

una hncin de una


muestra, a menudohablamos dle su dlstribucwn muestral, en
vez de su distribucin d e probabilidades.

Como sugerimos al principio d e este captulo, usaremos la informacin obtenida de una muestra con el objeto d e estimar ciertos parmetros desconocidos asociados con una distribucin de probabilidades. Encontraremos que ciertos estadsticos desempeiian un papel importante en la solucin d e este problema. Antes d e que consideremos
esto con m& detalles (enel captulo 14), estudiemos algunos estadsticos
importantes y sus propiedades.

13.4 Algunos estadisticos importantes


Hay ciertos estadsticos que encontraremos a menudo. A continuacin
veremos unos cuantos y expondremos algunas des u s propiedades importantes.
Definicin. Sea (X,, . . . ,X,) una muestra aleatoria de la variable
alcatoria X . Los siguientes estadsticos son de intcrs.

Cy=lX; se llama promedio n;!uestrd.


= [ l / ( n - l)]Cr=l(X;- X)2se llama varianza muestral.

a)X = (1/n)

b ) S
En
forma breve explicaremos porqu dividimos entre ( n - l),en vez
d e elegir simplementen.)
c ) IC = mn(X1,. . . ,X,) se llama minimo de la muestra. (IC repremiis pequefio.)
senta simplemente el valor observado
d ) A l = mx(X1,. . . ,X,) se llama mcixirno de la muestra. ( M
representa el mayor valor observado.)
e ) R = h+- K se llama recorrido muestral.
f)-X;) = j-sima observacin mayor enla muestra, j = 1 , 2 , . . . , n.
(Tenemos que
= M , mientras que
=K.)

X;)

:<?)

Observaciones: a ) p as variables aleatorias X:),


j = 1 , 2 ,. . . , n se llaman
orden asociados con la muestra aleatoria S I , . . . , S,. Si S es una
variable aleatoria continua pdernos suponer que .X;) >
> . . > X,, .

estadisticos da

S?)

S?))

b ) LOS valores extremos d e la muestra (en la notacin anterior, X;)


y
son a mcnudo de inters considerable. Por ejemplo,
en la construccin d e
represas para controlar inundaciones,la mayor altura que ha alcanzado un
ro
en los 50 aos anteriores puede ser muy importante.

356 Muestras y distribuciones


mueshales

13.4

Teorema 13.1. Sea S una variable alcatoriacon esperanza E ( d Y )= p


y varianza V ( S ) = u'. Sea X el promediomuestra1 tlc u n a
muestra aleatoria d c tarnafio n. Entonccs,

c ) se deduce deuna aplicacin directa delteorema del lmite ccntral.


I'odcrnos escribir X = ( l / n ) X i + .. .+( l / n ) X , como l a suma d c varial)lcs
alcatorias indcpcndicntemcntc distril~uidas.
Obserrvzcioncs: a) Cuando el tamao de muestra aumenta,el promedio nlucstral Sticnde a variar catlavez menos. Esto cs intuitivamcntc evit1ent.c y corrcsponde a nuestra experiencia con datos numricos. ConsitlCrcse, por ejemplo,
el conjunto siguientede 18 nilmcros

Si crtlculamos el promedio de esos nrimeros, tomando dos n l a vez en cl orden


anotado, obtenemos el siguiente con.j~~nto
de promedios:

1 , -1,0.5,4.5,0.5, -2.5,8.5, 1.5,2.5.

13.4

357

Algunos
importantes
estadfsticos

Si promediamos el conjunto original d e nmeros, tomando tres a la vez, obtenemos


1.3,-1,3.

1.3,7.7,0.7

Finalmente, si promediamos los nmeros, tomandlo seis a la vez, obtenemos

0.2,0.8,4.1.
L a varianza en cada uno de esos conjuntos de promedios es menor que
en el conjunto anterior, debido a que en cada caso el promedio est5 basado
en un nmero mayor de valores. El teorema anterior indica precisamente
cmo la variacin de (medida en trminosd e su varianza) disminuyecuando
aumenta n. (En relacin con estovase la Icy d e los grandes nmeros, Sec. 12.2
y en particular la Ec. 12.2.)
b ) Si n no es suficientemente grande para asegurar la aplicacin del teorema del lmite central, podemos tratar de encontr.ara
l distribucin exacta de
probabilidades d e por un medio directo (pero en general mzs complicado).
En la seccin 12.6 sugerirnos un mtodo mediantc: el cual podemos encontrar
la distribucin de probabilidades de la suma de variables aleatorins. Con una
aplicacin repetida d e este mtodo podernos obtenerla distribucin de prol)abilidades de y ,en especial si n es relativamente pcqueiin.
c) El teorema 13.1 indica que para una n suficientemente grande, el promedio muestral7 tiene una distribucinaproximatl;~mentc normal
(con espcranza p y varianza r 2 / n ) .

Encontramos que no slo X , sino la mayor parte d e las funciones


tienen csta propiedad. En este
conbuencomportamientode
nivel d e presentacin no podernos darundesarrollocuidadosode
este resultado. Sin embargo, el resultado es dc gran importancia en
muchas aplicaciones para sostener a lo menos un argumento hcurstico
e intuitivo.
Supngase que Y = ~ ( y5que
) T se pucdc desarrollar en una serie
=~ ( p )
- p ) r ( p ) R, donde R
d e Taylor respecto a p . As T =
es el trmino delresto y puede expresarsecorno R = [ ( X- p ) 2 / 2 ] 7 ( z ) ,
donde z es u n valor comprendido entre y p . Si n es suficicntemente
2
- 11)
serpequea
grande, 7 estarcercana a p y, portanto,
comparada con ( X - p ) . Para n grande, podc,mos considerar, por tanto,
y ctfiroximur r ( F )como sigue:
que el resto es despreciable

(x)

+(x
x

(x

T(X)Y

T(p)

+ r(p)(X

P).

358 Muestras y distribuciottes


muestrales

13.4

Vemos que para una n suficientemente grande, r ( X )se puede aproximar por unafuncin lined d e Y.Puesto que X ser aproximadamente
tambin ser apronormal (para unan grande), encontramosque
ximadamente normal, puesto que una funcin lineal de una variable
aleatoria distribuida normalmenteest tambin distribuida normalmente.
De la representacin anterior d e
encontramos que

.(x)

.(x)

(.(X))

31

r(p),

v (.(X))21 [ T ' (n/ L ) ] ~ u ~

As, para una n suficientemente grande, vemos que la distribucin d e


r ( X ) es aproximadamente N ( r ( p ) ,[ 7 " ( p ) ] 2 ~ 2 / ~ )(en condiciones muy
generales d e l a funcin r).
Teorema 13.2. Sea X una variable aleatoria continua con fdpf y fda
F . Sea X I , . . . ,X n una muestra aleatoria de X y sean Ir' y A l el
mnimo y cl mximo dela muestra, respectivamente. Luego:
a) la

fdp deA l est dada por g ( m ) = n [ F ( m ) l n - l f ( m ) ,


b ) la fdp de Ii' est dada por h ( k ) = n[l - F ( k ) ] " - ' f ( k ) .

Demostracin: Sea G ( m ) = P( M _< m ) la fda de M. Ahora { A l _< m }


es equivalente al evento {*Y; 5 m, para toda i}. Por tanto, puesto que
las S ; son independientes, encontramos

Por tanto,
g ( m ) = G'(7n)= TI [F(7n)ln-'

f(77~).

La obtcncin dela fdp d e I<se dcja al lector. (VCase el Prob. 13.1.)

EJEMPLO13.1. Un instrumento electrnico tiene una duracin


T
que est distribuida exponencialmente con parmetro a = 0.0001, es
decir, su fdp es f ( t ) = O.OO1e-O~OO1t.Supngase que se prueban 100 d e
tales instrumentos, lo que davalores observados T I , . . . , T ~ o o .

Algunos esadsticos importafttes 3 5 9

13.4

a ) <CuA es la probabilidad d e que 950 < T < 1100? Puesto que


el tamao de muestra es muy grande, podernos aplicar el teorema del
lmite central y proceder como sigue:

1
E ( T ) = -- 1000,
0.001

Por lo tanto,
N ( 0 , l ) . As,

P(95O

1
100

V ( T )= -(o.oo1)-2

= 10.000.

1000/100 tieneaproximadamente la distribucin

'r - 1000

"

< T < 1100) = P

100

= @ ( l) @(-0.5)

= 0.532,
d e las tablas de la distribucin normal.
Observacin: En el caso presente podemos obtener en forma inmediata la
distribucinexacta de T sin recurrir al teorema del lmite central. En el
teorema 10.9 demostramos quela suma devariables aleatorias independientes
distribuidas exponencialmente tiene una distribucin gama,decir,
es
g(s)

donde g es la fdp d e TI

(~~~~~)100s9"-0.001S

99!

>

+ . . . + T I M .Lucgo, la fdlp de T est5 dada

por

As, T tiene una distribucingama con parhnetros O. 1 y 100.

b) ?Cul es la probabilidad de que el mayor valor- observado sobrepase 7200 horas? Necesitamos qne P ( h i > 7 2 0 0 ) = 1 - P(Ai 7200).
El valor mximo ser menorque 7200 si y slio si cada valor de muestra
es menor que 7200. Por lo tanto,

<

P(Ai

> 7200) = 1 - [F(7200)]100.

Para calcular F(7200) recordemos que la variable aleatoria distribuida


exponenciallnente con parmetro 0.001, ~ ( t=) 1 - e-O.Ool'. Luego,

360 Muestras y distribucio~tesmuestrules

13.4

As la probabilidad pedida es 1 - (0.09925)'00, que es igual a 0.071.


c) ?CuA es la probabilidad d e que cl tiempo mis corto para que
ocurra una f:,llla sea menor que diez horas? Pedimos quc P(Z< < 10) =
1 - P ( I < 2 10).
El mnimo de la muestra ahora es mayor o igual a 10 si y slo si cada
valor muestra1 es mayor que o igual a 10. Por tanto,

P(Z< < 10) = 1 - [l - F(lO)]loO.


Usando a
l cxprcsin d e F como se dio en /I), tenemos

- ,-0.01
1 - E'(10) = e -0.001(10) -

P(K

= 0.99005.

< 10) = 1 - (0.98005)100 = 0.63.

La filtima partc del ejemplo anterior puede generalizarse como


lo indica
cl tcorcma siguiente.

Teorema I?.?. Sea S unavariabledistribuidacsponcncialmcnte


con p a r h e t r o (Y y sea (-171,.. . ,S T L ) una mucstra alcatoria de S .
Sea K = m n ( S 1 , . . . , X n ) . Entonces, Z< e s t i t a m b i h distribuida
esponencialmentc con pal-Amctro no.

00semacio'u: Este teorema puede gcncraliznrse como sigue. Si .Y1, . . . , S


,
son variables alentorias indcpendicntes y si S i tiene una distribucin esponenc i d con parhlctro a ; ,i = 1 , . . . , n , entonces I< = m n ( S 1 , . . . ,S,)tiene una
dist.ribuci6n esponencial con p a r h c t r o 0 1 + . . . + cy,. Para una demostraciiin
de csto, d a s e cl problcmn 13.2.

Algunos estadsticos importantes 361

13.4

El teorema 13.4 nos (la informacih acerca del estadstico S 2 .

- 2

i=l

i=l
n

=
E=l

i= 1
n

por lo tanto,

+ 2(p - T)(XZ- p ) + ( p - ","I

C(X;- p ) 2 + 2(p - X)C ( X 2 - p ) + n ( p - X)2


n

[(X2 - p y

/j=

362 Muestras y distribuciones muestrales

13.4

6) No demostraremos b), slo haremos posible su validez al consideCy=l((x;- X)2para n = 2.

r a r el caso especial siguiente: Considrese

Entonces

Puesto que -Y1y -Y2 cstn distribuidas indepcndicntemente


con distribu,
quc( S 1 - X 2 ) tiene distribucinN ( @ ,2a2j.
cin N ( p , c 2 ) encontramos
Luego,

tienedistribucinx-cuadradaconungradodelibertad.(Vase
el
Teorema 10.8.) La demostracin para una TI general sigue una lnea
semejante. Debemos demostrar que CF=l((s;- y l 2 / o 2se puede descomponer enla suma de ( n - 1) cuadrados de variables alcatorias inde,
pendientes, cada una con distribuci6nN ( @ 1).
Observacwn: Aunque S2 sedefine como la suma d e los cuadrados de n
trminos, esos n trminos no son independientes. En realidad, (XI - S)+
( J ~ -2 X )
. . .+ (X, - S r ) = ELl X ; - nS? = O. Por lo tanto, hap una relacibn
lineal entre los n trminos, lo que indica que tan pronto comose conozca alguno
de los ( n - I), el n-simo estar determinado.

Finalmente, establezcamos(sin demostracih) un resultado que se


refiere a la distribucin d e probabilidades del recorrido de muestra R.

Teorema 13.5. Sea X unavariablealeatoriacontinuacon


f d p J.
Sea B = A l - K el recorrido de muestra basado en una muestra
aleatoria d e tamafio 7 2 . Luego, la fdp d e R est dada por

13.5

integral
L a transformacwn

363

EJEMPLO13.2. Un voltaje aleatorio V est distribuidouniformemente en [O, 11. Se obtiene una muestra de tamaon, digamos VI,. . . ,
I S L , y se calcula el recorrido muestra1 R. Encontramos que la fdp de R
es
+m

g ( r ) = n(n - 1)

Tenemos f ( s ) = f ( s
r ) = 1 para
cualquier O 5 S 5 1 y O 5 S r 5 1, las
que juntas implican que O 5 S 5 1 - T . Por

= n ( n - 1j f . n - 2 ( l - T ) ,

r"f(sjf(s

o 5 T _< 1.

.>
ds

le(r)

FIGURA13.2

Para n > 2, la grafica de la fdp d e R tiene la forma que se indica en


la figura 13.2. Obs&-vese que cuando n -, (m,el valor d e r en el cual
ocurre el mximo se desplaza a la derecha. As, cuando el tamao de
la muestra aumenta, cada vez es ms posible que el recorrido R est
cercano a 1, que es intuitivamente lo que esperaramos.

13.5 La transformacin integral


Una muestra de una variable aleatoria S puede usarse para obtener
informaci6n acerca de parmetros desconocidosasociados con la distribuci6n d e probabilidades de X. Sin embargo, podemos usar una muestra con un propsito diferente. Podramos tomar algunas
observaciones de una variable aleatoria cuya distribucin est completamente especificada y luego usar esos valores muestrales para aproximar ciertas
probabilidades que seramuy dificil obtcner con un clculo matemtico
directo. Por ejemplo, suponicndo queX tiene una distribucin N ( 0 , l )
y queremos estudiar la variable alcatoria Y = .--'sen AT. ~ 1 especial,
1
'5
A fin de obtener la
supongamos que queremos calcular P ( 0 5 E
respuesta exacta, necesitamos encontrar G, la [da de Y y luego calcular
G( - C(0). Encontraramos mucha dificulml al hacer esto. Sin eml idea de
bargo, podemos usar otro planteamiento, el cual sc basa en a

i)

4).

364 Muestras y distribuciones


muestrales

13.5

s i n d a r el experimento que da origenlaavariable aleatoriaY . Entonces

usamos la fkecuencia relativa como una aproximacin ala probabilidad


huscada. Si esta frecuencia relativa se basa en un nmero de observaciones sulicientenlente grande, la Icy de los grandes nmeros justifica
nuestro procedimiento.
De manera especfica supngase que tenemos una muestra aleatoria
de la variable aleatoriaX anterior, cuya distribucicinest completamente
especificada, X I , . . . ,-Yrl. Para cada X; definimos la variable aleatoria
E = e -xi scn S i . 1,ucgoevaluamos la frecuenciarelativa n , ~ / ndonde
,
n A es igual al nrnero devalores Y;,digamos y;, que satisfacen O 5 y; 5
Por tanto, n ~ / es
n la fi-ecuencia relativa del evento O 5 Y 5
y si
n es grancle, esta frecuencia relativa estar LLcercana a P [ O _< I. _< ;I,
segin la ley de los grandes nmeros.
Para aplicar el procedimiento anterior, debemos encontrar un medio
de generar una muestra aleatoriaXI, . . . ,X,, d e la variable aleatoria
cuya distribucicin es N ( 0 , l ) . Antes d e indicar cmo se hace esto, expongamos cn forma breve una distribucin para la cual esta tarea ya
se ha realizado debido a la disponibilidad de tablas. Supngase que X
est5 distribuida uniformemente e n el intervalo [O, 13. A fin de obtener
una muestra alcatoria para tal variable aleatoria, slo necesitamos conl Tiblu de nmeros czleatomos (vase el Apndice). Esas tablas se
sultar a
han hecho de maneraque sean tiles para este propsito. Para usarlas,
sitnplernente sclcccionamos una ubicacicin a l azar en la tabla y luego obtenemos nilmcros a lo largo d e filas o columnas. Si queremos usar esos
O y 1, slo se necesita
nmcros tabulados para representar valores entre
poner u n punto decimal a l comienzo dcl nmcro. As, el nmero 4573,
tal como se list, se usara para representar el nmcro 0.4573, etctcra.
La disponibilidad de esas taldas d e nilmeros aleatorios hace que la
larca de obtener una muestra aleatoria de una distribuci6n arbitraria
sea relativamentesencilla debido a l resultado dcl teorema siguiente.

i,

i.

Teorema 13.6. Sca


una variallle alcatoria con fdp f y fda F . [Se
l variablealcatoria
supone que f ( z ) = O, z 6 ( a , b).] Sea E a
definida porY = F ( S ) . I,uego, Y est distribuida uniformemente
en [O, 11. (Y se dcsigna como t)-un.sformncidnintegml d e X.)
A

Demostracidn: Puesto que X es una variable aleatoria continua, la fda


F es una funcin continua estrictamente montona
con u n a inversa
F-. ES decir, E = F ( S ) puede resolversepara X ent@rminos d e

13.5

integral
LAZ transformacwn

365

Y : X = 3 " l ( Y ) (VCase la Fig. 13.3.) [Si F ( z ) = O para 2 5 a ,


definimos F-l(O) = a. De manera similar,si F ( z ) = 1 para z 2 b,
definimos F-'( 1) = b.]
Sea G la fda d e la variable aleatoriaY definida anteriormente. Entonces,

Por tanto, la fdp de Y , g(y) = G'(y) = 1. Esto establece nuestro


resultado.
Obseroaciones: a) Comentemos brevemente cmo se observa en realidad el
valor de unavariable aleatoriaY . Observamos un1 valor de la variable aleatoria
X, digamos x, luego calculamos el valor de Y = F ( X ) como Y = F ( c ) donde
F es la fda conocidade X .
b ) El teorema 13.6 enunciado y demostrado anteriormente para variables
aleatorias continuas tambien es vlido para variables aleatorias discretas. Hay
que hacer un peque0 cambio en la demostraci6n, puesto que la fda de una
variable aleatoria discreta es una funcin escalonada y no tiene una inversa
cnica.

F"(y)

FIGURA13.3

Podemos usar ahora el resultado anterior


a fin de generar una muestra al azar de una variable aleatoria con una distribucin especfica.
Consideraremos nuevamente slo cl caso comtinuo. Sea X una variable
aleatoria continua con fda F d e la cual se pide una muestra. Sea y1 un
valor (entre O y 1) obtenido de unatabla de nmerosaleatorios. Puesto
que Y = F ( X ) est distribuida uniformementeen [O, 11, podemos considerar a y1 como una observacind e esa variable aleatoria. Resolviendo
la ecuacin y1 = F ( q ) para 2 1 (lo que es posible si S es continua), obtenemos un valor de unavariable aleatoriacuya fda es F . Continuando
este procedimiento con los nmeros y2, - ,yn obtenidos d e una tabla

366 Muestras y distribuciones


muestrales

13.5

dc nmeros alcatorios, tenemos r i , i = 1 , . . . ,17, con10 soluci6n d e l a


ccuacin yi = F ( r ; ) y, por tanto, tenemos nuestros valorcs nluestralcs

requeridos.

EJEMPLO13.3. Supngase q u e qucremos obtener una muestra de


tamao cinco d e una variable alcatoria con distribucicin1Y(2,0.09) y supngase que obtenemos los valores siguientes dc una tabla d e nilmeros
aleatorios 0.487, 0.722, 0.66 t . 0.194, 0.336. Definamos .r1 como sigue:
dt

De las tablas de la distribucin normal encontramos que(rI - 2)/0.3 =


-0.03. Luego rl = (-0.03)(0.3)
2 = 1.991. Este nilmerorepresenta nuestro primer valor de muestra de a
l distribucin especificada.
Continuando de la misma manera con los otros valorcs obtenemos los
siguientes valores adicionales de muestra: 2.177, 2.124, 1.742, 1.874.
El procedimientoanteriorpuedegeneralizarsecomosigue.Para
obtener u n valor d e muestra de la ciistribuci6n l ~ r ( p , 0 2 ) ,otmmemos un
valor muestra1 (entre 0y 1) de unatabla d e nilmeros alcatorios. El valor
) 711,
pedido 11est definido por la ccuacicin @((.cI - p ) / ~ =

Observaciones: a ) Para generar muestras aleatoricasde una distribucin especfica existen mtodos alternativos al antes sngcrido. Vase el problema lf3.8.
b) Uno d e los aspectos que hace iltil este planteamiento d e simuhci6n
es la posibilidad de tener u n a rn11esu-a aleatoria muy g r m z d t . Esto es posible,
especialmente, si se dispone de un computador electrnico.

EJEMPLO13.4. El cmpl!je 1 d e un pr0puls01- sGlitlo d e u n sistcma


d e cohetes es una funcin muy complicada de un ninnero de variables.
Si S = rea de la garganta, E = factor dc la tasa de encendido, Z =
rea donde se quema el propulsor slido, IT = dcnsidad del propulsor
slido, n = coeficiente de encendido y C; = constantc, i = 1 , 2 , 3 ,
podemos expresar T como sigue:

I___

_._

..

.l.-..l

13.5

integral
La transfonnacidn

367

En investigacionesanteriores se han hecho hiptesisplausibles: S , E, TV


y 2 son variables aleatorias independientes distribuidas normalmente
Cualquierintentoparaobtener
conmedias y varianzasconocidas.
la distribucin d e probabilidades d e la variable aleatoria T o aun dc
expresiones exactas para E ( T ) y V ( T )fracasar debido a la relacin
compleja entre X, Y , W , 2 y T .
Si pudiramos generar una muestra aleatoria (grande) de X , E, 2
y W , por ejemplo obtener 4-tuplas (*Y;, Y,, 2;)
W ; ) , podramos luego
generar una gran muestra de T , llammosla ( T I ) .. . ,Tn) e intentar
estudiar en forma emprica las caractersticas d e la variable aleatoria T
(en trminos de la muestra). Supngase, por ejemplo, que deseamos
calcular P ( u 5 T 5 b ) . Para aplicar la ley de los grandes nmeros,
simplemente necesitamos obtener la frecuencia relativa del evento{ u 5
T <
- b} de nuestra muestra (grande), y luego poder tener una certeza
razonable de que la frecuencia relativa se diferencia muy poco de la
probabilidad terica que se est buscando.
Hasta ahora nos hemos interesado slo en el problema de aproximar
una probabilidad exacta con una frecuencia relativa basadaen un gran
nmero deobservaciones. Sin embargo, el rrltodo
que hemos sugerido
puede usarse para obtener soluciones aproximadas d e problemas que
son d e naturaleza completamente no probabilstica. Indicaremos slo
uno de los muchos tipos de problemas que pueden considerarse de
esta manera. El planteamiento general se designa como el mtodo de
Monte-Carlo. Una descripcin muy adecuadade este mCtodo aparece
en Modern Mathemutics for the Engineer, de E. F. Beckenbach, publicado
por McCraw-Hill Book Co., Inc.,Nueva York, 1956, captulo 12. El
ejemplo 13.5 se obtuvo d e este libro.

EJEMPLO13.5. Supngase que deseamos;calcular la integral x dx


sin recurrir a los procedimientos triviales para obtener su valor
2.
1
Se procedecomose
indica.Se
obtiene, de una tabla denmeros
aleatorios, una muestra aleatoria de
la variablealeatoriadistribuida
uniformemente en [O, 11. Supngase que los valoresmuestralesson
0.69, 0.37, 0.39, 0.97, 0.66,0.51,0.60,
0.41, 0.76 y 0.09. Puesto
que la integral requerida representa a E ( X ) , donde X es la variable
aleatoria uniformemente distribuida que se ~muestrea, parece razonable
que podamos aproximar E ( X ) usando el promedio aritmtico d e los
valores muestrales.Encontramosque
y = 0.5-15. (Si hubisemos
tomado una muestra mayor, tendramos una buena razn para esperar
una exactitud mayor.)

368 Muestras y distribuciones muestrales


Esta ilustracintrivialindica
la idea bAsica quesustentamuchos
mtodos d e Monte-Carlo. Estos mtodos han sido usados con &;to
para evaluar integrales mltiples sobre ciertas regiones complicadas y
resolver algunas ecuaciones diferenciales.
Observacidn: Los medios para obtener muestras d e una distribucin arbitraria como se describi en la seccin 13.5 pueden llegar a ser complicados.
Debido a la gran importancia d e la distribucin normal, existen tablas disponibles (vase la tabla 7 en el Apndice) que eliminan en gran partelos cblculos
antes descritos. L a tabla 7 proporciona, directamente, muestras de la distribucin N ( 0 , l ) . Estos valores muestrales se llaman desviaciones normales. Si se
necesitan n valores muestrales 2 1 . . . , x , d e la distribucin N ( 0 , l),se toman en
forma directa de la tabla 7 (escogiendo el punto de partida de
alguna manera
aleatoria adecuada, como se describii, para el uso de la tabla d e los nlimeros
aleatorios).
De una manerasencilla, tambin puede usarse estatabla para obtenermuestras de unadistribucin normal arbitraria N ( p ,g 2 ) .Simplemente se multiplica
z;, el valor escogido d e la tabla, por (T y luego se le suma p. Es decir, se forma
y; = az; + p . Entonces yi, ser un valor muestral d e la distribucin pedida.

PROBLEMAS
13.l . Deducir la expresin para la fdp del mnimo de unamuestra. (Vase
el Teorema 13.2.)
13.2. Demostrar que si X I , . . . , X , son variables aleatorias independientes, cada una de las cuales con distribucin exponencial con parmetro a;,
i = 1 , 2 , . . . , n y si K = mn(X1,. . . , X,), entonces K tiene una distribucin
exponencial con parmetro CUI . . . a,. (Vase el Teorema 13.3.)

+ +

13.3. Supngase que X tiene una distribucin geomtrica con parmetro


p . Sea X I , . . . , X , una muestra aleatoria d e X y sea M = mx(X1,. . . ,X,) y
Ii' = mn(X1,. . . , X,). Encontrar la distribucin d e probabilidades d e M y de
IC. [Indicacidn: P ( M = m ) = F ( m ) - F ( m - l), donde F es la fda d e M . ]
13.4. Se obtiene una muestra d e tamao 5 de una variable aleatoria con
distribucin N(12,4).
Cul es la probabilidad de que el promedio muestral exceda 13?
b ) Cul es la probabilidad de queel mnimo d e la muestra sea menor que
1O?
c) ?Cul es la probabilidad de queel mximo de la muestra exceda 15?
a)

13.5. La duracin de un articulo (en horas) est distribuida exponencialmenteconparmetro


= 0.001. Se prueban seis artculos y se anotan los
tiempos en que ocurrenlas fallas.

Problemas 369
a) {Cul es la probabilidad de que ningn artculofalle antes de quehayan
transcurrido 800 horas?
b ) {Cul esla probabilidad de que ningn
artculo dure ms d e 3000 horas?

13.6. Supngase que X tiene distribucin N(O,O.O9). Se obtiene una muestra d e tamao 25 d e X , sea X I , . . . , X 2 5 . ?Cud es la probabilidad de que
X: exceda 1.5?

x:zl

13.7. Utilizando una tabla d e nmeros alea.torios, obtener una muestra


aleatoria d e tamalio 8 de una variable aleatoria que tiene las distribuciones
siguientes:
exponencial, con parmetro 2,
b ) x-cuadrada con 7 grados de libertad,

a)

C)

N(414).

13.8. En la seccin 13.5 se estudi6 un mtodo con el cual puede generarse una muestra aleatoria de una distribucin especificada. Hay muchos otros
mtodos con los que puede hacerse esto, alguno!; de los cuales pueden preferirse al mencionado, particularmente si hay instrumentos
d e cmputo disponibles. El siguiente es uno de dichos mtodos. Supngase que se desea obtener
una muestra aleatoria de una variable aleatoria que tiene una distribucin xcuadrada con 2 k grados de libertad. Se procede como sigue: se obtiene una
muestra aleatoria d e tamalio k (con ayuda de una tabla d e nmeros aleatorios) de una variable aleatoria que est distribuida uniformemente en (O, l),
sea ~ 1 ,, .., U k . Luego se calcula X I = - 2 l n ( ~ 1 ~ 2.un>
. . = -2
ln(U;).
La variable aleatoria X 1 tendr entoncesla distribucin pedida como seindica
enseguida. Luego, continuando con este esquem.a, se obtiene otra muestrad e
tamao k de unavariable aleatoria distribuida uniformemente y se encuentra
as el segundo valor muestra1 X2. Ntese que este procedimiento necesita k
observaciones de una variable aleatoria distribuilda uniformemente para cada
observacin de x i k . Para verificar l a proposicin. que sehizo antes se procede
como sigue.

x:=,

a ) Obtener la funcin generadora d e momentos d e la variable aleatoria


-2 ln(U;), donde U; est distribuida uniformementeen (O, 1).
b ) Obtener la funcin generadora d e momentos d e la variable aleatoria
-2
ln(U;), donde las U; sean variables aleatorias independientes cada
una con la distribucin anterior. Se compara es8tafgm con l a distribucin xcuadrada y luego se obtienela conclusin buscadh.

x;"=,

13.9. Usando el esquema bosquejado en el problema 13.8. obtener una


muestra aleatoria d e tamao 3 de la distribucin

xi.

370 Muestras y distribuciones muestrales


13.10. Una variable aleatoria continuaX est distribuida uniformemente en
;). S_ obtiene una muestra de tamao n d e X y se calcula el promedio
muestral X. CuAl es la desviacin estndar d e y?

(-;,

13.11. De una variable aleatoria distribuida normalmente con esperanza20

y varianza 3 se toman muestras independientes d e tamao 10 y 15. ?Cul es

In probabilidad de queel promedio d e las dos muestras se diferencie(en valor


absoluto) en ms de 0.3?

13.12. (Para esteejercicio y los tres siguientes, leerla observacin al final del
captulo 13.) Con ayuda de l a tabla d e las desviaciones normales (Tabla 7 del
Apndice) obtener una muestra
d e tamao 30 de unavariable aleatoria X que
tiene una distribucinN ( 1, 4). Usar esta muestra para responderlo siguiente:
Comparar P ( X >_ 2) con la frecuencia relativa de ese evento.
b ) Comparar el promedio muestral X y la varianza muestral S con 1 y 4,
respectivamente.
c) Construir una grfica d e F ( t ) = P(X 5 t ) . Usando el mismo sistema de
coordenadas, obtenerla grfica de la funcin de distribucwn emprica F, definida
como sigue:
a)

donde X(2) es la i-sima mayor observacin en la muestra (es decir, X(;) es


el estadstico d e i-simo orden). [La funci6n F, se usa frecuentemente para
aproximar la fda F . Puede demostrarse que e n condiciones muy generales
F,(t) = F(t).]

13.13. Tenga X una distribucin N ( 0 , l ) . De la tabla 7 del Apndice obtener


una muestra d e tamao 20 para esta distribucibn. Sea Y = I X I .
a ) Usar esta muestra para comparar P[1 < Y 5 21 con la frecuencia relativa
de ese evento.
b ) Comparar E ( Y ) con el promedio muestral y.
c) Comparar la fda d e Y , F ( t ) = P ( Y 5 t ) , con Fn,la fda emprica d e Y .

13.14. Supngase que X tiene distribucin N(2,9). Sea X I , . . . , X20 una


muestra aleatoria de X obtenida con ayuda d e la tabla 7. Calcular
l
n
s2-y(&

n-1

y comparar con E(S) = 9.

i= 1

- r?)2

13.15 Tenga X unadistribucin N(0,l). Slea X I , . . . ,X30 una muestra


aleatoria d e X obtenida usando la tabla 7. Calcular P ( X 2 2 0.10) y comparar
este valor con la frecuencia relativa de ese evento.

14.1 Introduccin

En el captulo anterior sugerimos que una muestra


de unavariable aleatoria X puede usarse con el propsito de estimar unoo varios parmetros (desconocidos) asociados con la distribucin d e probabilidades d e
X. En este captulo consideraremos en detalle este problema.
A fin d e desarrollar un ejemplo especfico, tomemos en cuenta la situacin siguiente. Un fabricante nos ha enviado 100 O00 pequeos remaches. Un empalme perfectamente remachado necesita que cada remache ajuste con exactitud en un hueco y, por consiguiente, se tendr
cierta dificultad cuando el remache lo exceda. Antes de aceptar este
cargamento queremos tener una idea acerca d e la magnitud de p , la
proporcin d e remaches dercctuosos (es decir, los qne exceden el hueco), para lo cual procedemos como sigue. Sc: inspeccionan n remaches
del lote escogidos al azar. Debido al gran tamalio del lote, podemos
suponer que escogemos con sustitucin aunque realmente no procederamos as. Se definen las siguientes variab1;:s aleatorias: Xi = 1 , si el
i-simo artculo es defectuoso, y O en cualquier otrocaso i = 1 , 2 , . . . ,n.
Por lo tanto, podemos considerar que S I , . . . ,S,, sea una muestra d e

374 Estimacih de pardmetros

14.2

la variable aleatoria X , cuya distribucin est dada por P ( S = 1 = p,


P(X=O)=l-p.
La distribucin d e probabilidades d e X depende del parmetrodesconocido p de una manera muy sencilla. <Podemos usar la muestra
X I , . . . ,X, de alguna manera con el objeto de estimar el valor d e p ?
CI-Iay algn estadstico 11 tal que H ( X 1 , . . . , X , ) pueda usarse como un
estimador (puntual) dep ?
Debera ser evidente que una muestra
de tamao n, donde n <
100 000, nunca puede permitirnos reconstruir la verdadera composicin del cargamento, sin importar cun hbilmente usemosla informacin obtenida d e la muestra. En otras palabras, a no ser queinspeccionemos cada uno delos artculos (es decir, tomemos n = lOOOOO), nunca
podremos conocer el valor verdadero dep. (Esta illtima frasese refiere
evidentemente al muestre0 sin sustitucin.)
A s , cuando proponemos a p como un estimado d e p, en realidad no
esperamos queI; sea iguala p. (Recordemos quees una variable aleatoria
y, por tanto, puede tomar muchos valores.)
Este dilema da origena dos
preguntas importantes:
1) Qu caractersticas queremos que posea un buen estimado?
2) <Cmo decidimos que un estimado
es mejor que otro?
Puesto que sta puede ser
la primera vez que el lector encuentrepreguntas deesta clase, vale la pena comentar brevementela naturaleza general de este problema. Para muchas preguntas matemticas existe una
respuesta definida. Sta puede ser muydificil de encontrar, puesto que
implica diversos problemas tcnicos y podramos tener que contentarnos con una aproximacin. Con todo, normalmente
es evidente cundo
tenemos una respuestay cundo no. (Por ejemplo, supongamos que nos
piden encontrar una raz real de la ecuacin 3z5 - 422 132 - 7 = O.
Una vez que hemos encontrado una solucin,es muy sencillo verificar
si es l a correcta: slo necesitamos sustituirla en la ecuacin dada. Si tenemos dos respuestas aproximadas, T I y m, es tambin sencillo decidir
cul aproximacin es mejor.)
Sin embargo, el problema actual, en particular la estimacin de p ,
no admite un anlisis tan sencillo. En primer lugar, puesto que nunca
podemos conocer el valor verdadero de p (en cualquier situacin real
I; es correcto.
al menos), no tiene sentido decir que nuestro estimado
Segundo, si tenemos dos estimados d e p , llammoslos I;l y $2, debemos
encontrar algn medio para decidir cul es mejor.
Esto significa que
debemos cstablccer algunos criterios que podamos aplicar para decidir
si un estimado es preferible a otro.

14.2

estimados para

Criterios

3 75

14.2 Criterios para estimados

Definiremos ahora algunos conceptos importantes que nos ayudarAn a


resolver el problema antes sugerido.

Definicin. Sea X una variable aleatoria con una distribucin


de
probabilidades que depende de un par;lmetro desconocido
O. Sea
3 - 1 , . . . ,*YjLuna muestra de X y sean 21,.. . , E los
~ valores muestrales correspondientes. Si g(X1,. . . ,X,) es una [uncin de l a
muestra que se usar para estimar O nos referimos a g como un
estimudor de O. El valor que toma g, les decir g ( X 1 , . . . , S , , ) , se
conoce como un estimado de O y habitualmente se escribe como
O = g(r1,. . . ,x,). (Vase la Observacin siguiente.)
Obsenucwn: En este captulo violaremos una regla que hemos observado
con mucho cuidado hasta ahora: hacer una distincin minuciosa entre una
variable aleatoria y su valor. Es decir, a menudo hablaremos d e S , el estimado
d e O, cuando en realidad deberamos hablar del estimador
g ( X 1 , .. . ,X,).
Tambin escribiremos E ( 8 ) cuando, realmente indicamos E[g(XI,. . . , X n ) ] .
Sin embargo,elcontextoen
el cual nos permitimos esta libertaddebera
eliminar cualquier ambigedad posible.

Definicin. Sea O un estimado del parrnletro desconocido 0 asociad o con la distribucin d e la variable aleatoria X. Entonces, 6 es
un estimador insesgado ( o estimado insesgado; vase la Observacin
anterior) para O si E ( B ) = O para toda O.
Obse?vucidn: Cualquier buen estimado debera. estar cercano al valor que
est estimando. Insesgadurasignifica principalmente que elvalor promedio
del estimado estar cercano alvalor verdadero dcl parmetro. Porejemplo, si
el mismo estimado se usa una y otra vez y promediamos esos valores, esperaramos que el promedio estuviera cercano al valor verdadero del parmetro.
Aunque es dcseable que un estimado sea insesgado, puede haber ocasiones
en las cuales podramos preferir estimados sesgados (vase ms adelante). Es
posible (y realmente fcil) encontrar ms de un estimado insesgado para u n
parmetro desconocido. A fin d e hacer una buena eleccin en talcs casos presentamos el concepto siguiente.

Definicin. Sea O un estimado insesgado de O. Decimos que 6 es u n


eslinzndo insesgado de vnrianm mnima de O si para todos los estimados

14.2

376 Estimacidn de pardmetros


U* tales que E ( u * )= O, tenemos

v ( U ) 5 v(u*)

para cualquier B. ES
decir, entre todos los estimados insesgados de U, 6 tiene la varianza
m,is pequea.

FIGURA
14.1

FIGURA
14.2

Obseruaciones: u) La varianza de una variable aleatoria mide la variabilidad de la variable aleatoria respecto a s u valor esperado. Por tanto,
es intuitivamcnte atractivo pedir que un estimado insesgado tenga una
varianza pequefia, pues si la varianza es pequea, entonces el valor d e
la variable aleatoria tiende a estar cerca d e s u promedio, lo cual, en el
caso de un estimado insesgado significa aproximarse a l valor verdadero del pat-metro. Luego, si b1 y U2 son dos estimados de O, cuya fdp
est bosquejada en la figura 14.1, posiblemente preferiramos U1 a 0 3 .
Ambos estimados son insesgados y I/(&) < V(U2).
En el caso de los estimados 0 3 y 6 4 , la decisin no es tan evidente
(Fig. 14.2) ya que U3 es insesgada,mientras que b4 no io es. Sin
embargo, I/(&) > V ( 8 4 ) . Esto significa que mientras en promedio U3
estar5 cercanaa U, su mayor varianza indicaque no seran sorprendentes
64 tendera
desviaciones considerablesd e B. Por otra parte, en promedio
a ser algo mayorque O y podra estar a n ms cercana a U que 63, (\&m
la Fig. 14.2).
b ) Existentcnicas generales para encontrar estimados insesgados
d e varianzamnima.
Sin embargo,nopodremospresentarlas
aqu.
I-Iaremos uso d e este concepto principalmente con el objeto d e elegir
entre dos o ms estimados insesgados disponibles. Es decir, si y 9 son
.
l
estimados insesgados de U, y si V(61) < I/(&), preferiramos U
Otro criterio para discernir entre
estirnados es algo ms dificil d e
formular y se basa en la siguiente definici6n.
Definicin. Sea 4 un estimado (con base en una muestra S I , . . . ,
S,,) del parmetro U. Se dice que e s u n estimado consistente de
U. si

14.2

Criterios para estimados

lm Prob

[I^O O I > 1

=O

para toda

>O

[I-O O I 5 1

= 1 para toda

>O

n+cc

377

o equivalente, si
lm Prob
c
7
L

Obseruacwnes: a ) Esta definicin establece que un estimado es consistente


si, cuando aumenta el tamaiio R. de muestra el. estimado 0 converge en el
sentido probabilstico anterior a B. Nuevamente, ksta es una caracterstica
intuitivamente atractivaque debeposeer un estimado, pues afirmaque cuando
aumenta el tamao d e muestra (lo que significara, en circunstanciasmuy
razonables, que se dispone d e m& informacin), el estimado llega a ser mejor
en el sentido indicado.
b ) Es relativamente fcil verificar si un estimado es insesgadoo no. Tambin
es muy elemental comparar a
ls varianzas de dos estimados insesgados. Sin
embargo, verificar la convergencia aplicando la definicin anterior no es t m
sencillo. El teorema siguiente es muy til algunas veces.

Teorema 14.1. Sea un estimado de O con base en una muestra de


V ( 0 ) = O, entonces U
tamao n. Si lmn+cc E(B)= U, y si
es un estimado consistented e O.

Demostracin:

Usarcmos l a desigualdadde

(7.20). As, escribimos:

Por lo tanto, haciendo quen


encontramos que lrnn+W P
Observacin: Si el estimado
automticamente.

Chcbyshcv,ecuacin

y utilizandlo la hiptesis del teorema,


- O 2 c 5 10 y as igualamos a O.

[lti I 1
--f

00

8 es insesgado, la primera

condicin se satisface

os

de 378

14.3

Estimacidn

Un criterio final que se aplica a menudo a estimados puede formularse como sigue. Suponer que X I , . . . , S n es una muestra deX y O es
un parmetro desconocido. Sea O una funcin d e ( X I , . . . ,X,).
Definicin. Decimos que 6 es el mejor estimado lineal insesgado d e O si:
u ) E ( @ = o.
b ) 8 = Cy=Ia i X i . Es decir, 8 es una fncin lineal d e la muestra.

V ( 6 ) 5 V(B*)donde O* es cualquier otro estimado de O que


satisface las relaciones a ) y b) anteriores.

c)

Posteriormente consideraremos un mtodo muy general que


nos dar i buenos estimados para un gran nmero de problemas, dado que
satisfarn uno o ms d e los criterios anteriores. Antes d e hacer esto,
consideraremos sencillamente algunos estimados que
de manera intuitiva son muy razonables, y luego verificaremos, mediante los criterios
anteriores cun buenoso cun malos son.
14.3 Algunos ejemplos

Los criterios anteriores d e insesgadura, varianza mnima, consistencia

y linealilidad nos dan al menos una pauta para juzgar un estimado.


Consideremos ahora algunos ejemplos.

EJEMPLO14.1. Reconsideremos el problema anterior. Hemos muestreado 71 1-emaches y cncontrado que la muestra (-Y1,. . . , S , ) produce
exactamente k dcfcctuosos; es decir, Y =
A-; = k . Debidoa nuestras hiptesis, E es una variable aleatoria distribuida binomialmente.
El estimado intuitivamentems sugestivodel parmctrop cs I; = Y/n,
la proporci6n d e defectuosos encontrados en la muestra. Apliquemos
algunos d e los criterios anteriores para ver cun bueno es un estimado

6
E($) = E

(t)
-

hi,$ es un estilnado insesgado d e p .

1
= (np) = p .
n

14.3

Algunos ejemplos

379

Luego V ( p )"+O cuando n -+ 00 y, por tanto, fj es un estimado consistente. Como sealamos antes, puede haber muchos estimados insesgados para un parmetro, algunos de
los cuales, adems, pueden ser muy
malos. Por ejemplo, considrese,
en el contexto del presente caso, el
estimado p* definido como sigue: p* = 1 si el primer artculo elegido
es defectuoso, y O en cualquier otro caso. Es; decir, es evidente que no
es muy buen estimado cuando observamos quesu valor es una funcin
slo d e X I , en vez d e X I , . . . ,X n . Sin embargo,p* es insesgado porque
E @ ) = 1 P ( X = 1) O P ( X = O ) = p . La varianza d e p* es p ( l - p ) ,
la que se compara muy malcon la varianza d'e p antes considerada, esto
es p ( l - p ) / 7 2 , cn especial si n es grande.

El resultado obtenido en el ejemplo anterior


es un caso especial d e la
siguiente proposicin general.
Teorema 14.2. Sea X una variablealeatoriaconesperanzafinita
p y varianza a 2 . Sea f? el promedio muestral obtenido en una
muestra de tamaon. Por lo tanto, X es un estimado insesgadoy
consistente d e p .

Demostrucin: sta se deduce inmediatamente del teorema13.1, don= 11 y V ( f ? )= o ! / nque tiende a O cuando
de demostramos que ,?(y)

"+

OO.

Obsemacwn: Que el resultado demostrado en el ejemplo 14.1 es un caso


especial del teorema 14.2, se deduce cuandoobse~rvamosque la proporcin d e
dcfcctuosos en la muestra, Y / n , puede escribirse como ( l / n ) ( X ~ . . . X n ) ,
dondea
ls X1 toman los valores uno y cero, segn que el articulo inspeccionado
sea o no dcfcctuoso.

+ +

El promedio muestral citado en


el teorema 14.2 es una funcin lineal
+ a n X n , con
d e la nlucstra. Es decir, es d e la forma a l X l + ~ 2 x 2
a l = ... = a n = l / n . FAcilmente se observa que
=
a ; X ; es
un estimado insesgado dep para cualquier eleccin d e los coeficientes
que satisfacen la condicin Cy=la ; = 1. Surge la siguiente pregunta
u; = 1) es
interesante.Paraqu
elecci6n d e las a ; (sujetas a
ms pequefia la varianza de
n ; X ; ? Resulta que la varianza es
el estimadolineal
minimizada si a ; = l / n paratoda i. Es decir,es
insesgado d e varianza mnima.

380 Estimacidn de partimetros

14.3

Para verificar esto, consideremos

/2 =

a;&,

i=l

Luego,

a;

= 1.

d= 1

i=l

puesto que las X ; son variables aleatorias independientes con varianza


comn a2. Escribimos

Por lo tanto, esta expresi6n es minimizada obviamente


para toda i.

si a; = l / n

EJEMPLO14.2. Sup6ngase que T,el tiempo para que ocurra una


falla de un componente,
est6 distribuida exponencialmente. Es decir, la
fdp de T est6 dada por f ( t ) = Pe-P', t 2 O . Sup6ngase que probamos
n componentes, anotando el momento en quefalla cada uno, digamos
TI,
. ..,Tn.Deseamos u n estimado insesgado del tiempo esperado para
que ocurrala falla E(T)= l/P, con baseen la muestra (TI,.
. . ,Tn). Uno
d e talesestimadoses
T = (l/n)
Ti. Del teorema 14.2 sabemos
que E ( T ) = l/P. Puesto que V ( T ) = l/p2, elteorema 13.1 nos
afirma que V ( T ) = l/P2n. Sin embargo, T no es el nico estimado
insesgado d e l/p. Consideremos, en efecto, el mnimo d e la muestra,
Z = mn(T1,. .. ,Tn).De acuerdo con el teorema 13.3, d e nuevo 2 est
distribuida exponencialmente con parime{ro np. Luego, el estimado
nZ tambikn es un estimado insesgado del/P.
Para evaluar la varianza calculamos
1
V(n2)= n 2 V ( 2 )= n2 - --1

@PI2 - P2

14.3

ejemplos

Algunos

38 1

As, aunque los dos estimados nZ y T , son imesgados, el ltimo tiene

una varianza ms pequea y, por tanto, debera preferirse.


Sin embargo, en esta situacin especial hay otra consideracin que
podra influir en nuestra
eleccin entre los dos estimados sugeridos.
Los n componentes podran probarse simult5neamente. (Por ejemplo,
podramos poner n bombillas en n portalmparas y anotar el tiempo en
que se queman.) Cuando usamos n Z como estimado, la prueba puede
terminarse tan pronto como
el primer componente falle. Al usar T
como estimado debemos esperar hasta que todos
los componentes hayan
la primera y
fallado. Es muy posible que transcurra mucho tiempo entre
la ltima falla. Dicindolode manera distinta,si L es el tiempo necesario
para probar lo n artculos y calculamos el estimado para l/P, entonces,
,
que al usar T ,
usando n Z , tenemos L = min(T1,. . . ,T ~ )mientras
tenemos L = mx(T1,. . . ,Tn). Luego, si el tiempo necesario para
efectuar la prueba es de cualquier efecto serio (digamos, en trminos
de costo), podramos preferir el estimado con mayor varianza.

EJEMPLO14.3. Supngaseque deseamlos unestimadoinsesgado


de la varianza cr2 de una variable aleatoria, con base en una muestra

XI,. . . , X n .

Aunque podramos considerar( l / n ) Cr=ll(X;-X)2,resulta que este


[ ( n- l)/n]a2. (Vaseel
estadsticotiene un valor esperado igual a
Teorema 13.4.) Por lo tanto, un estimado i~nsesgado d e cr2 se obtiene
al tomar
l
n
b2 - -C ( X 2 - X ) 2 .
n-l.
"

:=1

Obseluacwnes: a) Aunque dividir entre ( n - 1) e n ves d e n es distinto cuando n es relativamente pequea, para una n grande la diferencia es pequea
cualquiera que sea el estimadoque se use.
6) El ejemplo 14.3 ilustra una situaci6n muy comn: puede suceder que un
estimado de un parhmetro ,B,sea sesgado en el sentido E(& = k,B; en tal
caso, consideramos simplementeal nuevo estimadop / k , que serA insesgado.
c) Puede demostrarse, aunque no lo haremos aqu, elque
estimado anterior
d e u2es consistente.

EJEMPLO14.4. En la tabla 14.1 reproducimos los datosobtenidos en el famoso experimento realizado po:r Rutherford [Rutherford

de

382 Estimacin

14.3

y Geiger, Phil. Mag. S6, 20, 698 (1910)l sobre la emisin de partculas
a por una fuente radiactiva. En la tabla, k es el nmero de partculas

TABLA14.1
k
nk

383
203 57

9 81 071 16T o5 t a l

532 525

139
273 408

49

'

27

10

2612

observadas en una unidad de tiempo (unidad


= minuto), mientras que
n k es el nmero deintervalos en los que k partculas fueron observadas.
Si hacemos que X sea el nmero de partculas emitidas durante el
y suponemos que X
intervalo de tiempo de (minuto) de duracin,
sigue la distribucin d e Poisson, tenemos

Puestoque E ( X ) = i X , podemosusar el promediomuestralpara


obtener un estimado insesgado de i X . Para X, obtenemos entonces el
estimado = SX.
Para calcular X , simplemente evaluamos

Por tanto, un estimado insesgado


d e X con baseen el promedio muestral
es igual a 30.96 (que puede interpretarse comoel nmero esperado de
partculas emitidas por minuto).

EJEMPLO14.5. En la fabricacin de explosivos puede ocurrir cierto


X el nmero deinflamaciones por
nmero deinflamaciones al azar. Sea
X tiene una distribucind e Poisson conparmetro
da, suponiendo que
X. La tabla 14.2 da algunos datos que se van
a emplear parala estimacin
d e X.

TABLA14.2
Nmero de idamaciones, k

Nmerodedas conk inflamaciones, n k

75

90

54

22

6 5Total
2 6I

250

Algunos ejemplos 383

14.3

Usando nuevamente el promedio


obtenemos

x=

muestrial para el estimado de X,

li
Ck

Icnk = 1.22 nmero de inflamaciones por da.


nk

EJEMPLO14.6. Se ha establecido que el contenido de ceniza en el


carb6n est& distribuido normalmente con parsmetrosp y u 2 . Los datos
de la tabla 14.3 representan el contenido de ceniza en 250 muestras
de carbdnanalizadas.[Datosobtenidos
de E. S. Grummel y A. C.
Dunningham (1930); BritishStandardsInstitution
403,17.1
nx esel
x de ceniza.
nmero de muestras 4ue tienen un porcentaje

A fin de calcular los parsmetros p y

u,

insesgados presentados antes:


j-j= E

249

x xnx

250

= 16.998,

-2

usaremos los estimados

1 E n z ( . - fi) 2 = 7.1.
=x

TABLA14.3
X

nx
X

nx
X

nx
X

9.25
1
14.25

9.75

Contenido de ceniza en el carb6n


10.75
1
15.75

10.25
2

14.75

I 13 I 14 I 15 I 13
I 19.25 I 19.75 I 20.25 I 20.75
1 1 2 1 7 1 6 1 8
I 24.25 I 24.75 I 25.25 I

nr
1 0 1
Total
I
I
de muestras I 250 I

I
I

1I

15.25

I
I

Obseruacidn: Supdngase que tenemos un estimado insesgado 8, digamos, de


un parAmetro 8. Puede suceder que estemos interesados slo en estimar una
funci6n g(8) de 8. [Por ejemplo, si X est distribuida exponencialmente con parmetro 8, posiblemente estaremos interesados en l/8, es decir,E ( X ) ] .Debera
por ejemsuponerse que todo lo que necesitamos hacer es considerar l/e o
plo, comoel estimado insesgado apropiado de l/8 IO(S)2. Categbricamenteesto
no es as. En realidad, una de las desventajas del clriterio de insesgadura es que
si hemos encontrado un estimado insesgado de 8, en general debemos partir
del principio para encontrar un estimado para g(8). S610 si g(8) = a8 + b, es

14.4

304 Estimacin de parmetros

decir, si g cs una Funci6n lineal d e O, es cierto que E[g(e)] = g[E(e^)]. En general,


E[g(e^)]
# g[E(e)]. Supngase, por ejemplo, que X es una variable aleatoria con
E ( X ) = p y V ( X )= u2. Hemos visto que el promediomuestra1 es un estimad o d einsesgado d e p . ?Es y2un estimado insesgado d e ( P ) ~ ?La respuesta es
no,como lo indica el clculo siguiente. Puesto que V ( T )= E ( X ) 2- ( E ( X ) ) 2 ,
tenemos

Aunque los ejemplos anteriores demuestran e n Forma convincente que en


general

resulta que enmuchos casos la igualdad es vlida, aproximadamente al menos,


e n especial si el tamaiio d e muestra es grande. A s , en el ejemplo anterior
encontramos que E(X) = p y E(;~T) = p2 u 2 / n , [con = F y g(z) = z21,
que es aproximadamente igual a p2si n es grande.

14.4 Estimados de mxima verosimilitud


Slo hemos considerado ciertos criterios con
los cuales podemos juzgar
u n estimado. Es decir, dado un estimado propuesto para un par5metro
desconocido, podemos verificarsi es insesgado y consistente, y podemos
y compararla con l a varianza
calcular (al menosen principio) su varianza
de otro estimado. Sin embargo, no tenemos an un procedimiento
general con el cual podamos encontrar estimados razonables.
Existen
diversos procedimientos d e los cuales expondremos uno, llamado el
mtodo de la mxima verosimilitud. En muchos casos este mtodo da
estimados razonables.
A fin d e evitar la repeticin de nuestra exposicin para el caso discreto y el continuo, convengamos en la terminologa siguiente para los
propsitos d e la exposicin presente.
Escribiremos f(x;13)tanto parala fdp deX (evaluada enx) como para
P ( X = x) si X es discreta. Incluimos 6 (en la notacin) para recordar
que la distribucin de probabilidades Xdedepende del parmetro0 en
el cual estamos interesados.
Sea X1 7 . . . X , una muestra aleatoria la
devariable aleatoriaA y sean
x1,. . . ,2 , los valores muestrales. Definamos la funcin de verosimilitud L
como la siguiente funcin dela muestra y de 0.

14.4

Estimados de mxima verosimilitud

385

Si X es discreta, L(z1,. .., x n ;S) representa p[X1 = 2 1 , . . . ,X , =


x,], mientras que si X es continua, L(x1,. . . ,X,; e) representa la fdp
conjunta de( X I , .. . ,Xn).
Si se ha obtenido la muestra ( X I , . . . ,X,,), los valores muestrales
( q , . . . ,x%) son conocidos. Puestoque 8 es desconocida, podramos ha0 ser5 mayor L(z1,. . .
cernos la siguiente pregunta. <Para que valor de
,x,; O)? En otras palabras, supongamos que tenemos dos valores de 8,
sean 81 y O2 y que L(z1,. . . ,x,; 01) < L ( z l , , .. , x n ;02). Preferiramos
entonces 192 a 81 para los valores muestrales dudos ( X I ,. . . ,x,). Porque
si 132 es realmente el valor verdadero de8, entonces la probabilidad de
obtener valores muestrales como los que tenamos es mayor que si 81
h e s e el valor verdadero de O. Informalmente, preferimos el valor del
par5metro que hace tan probable como sea ]posible ese evento que en
realidad ocurri. Es decir, deseamos elegir el valor ms probable
de
6' despus de obtener los datos, suponiendo que cada valor de e fuese
igualmente posible antes que los datos fuesen obtenidos. Hagamos
la
siguiente definicin formal.

Definicin. El estimado d e mxima verosimilitud de O, digamos 8, con


base en una muestra aleatoria X I , . . . ,X,, es el valor d e 6' que
maximiza a L(X1,. .. ,X,; e), considerado como una funcin de
0 para una muestra dada
X I , . . . ,X,, donde L esti definida porla
ecuaci6n (14.1). (ste habitualmente se designa como el estimado
M L.)
Observaciones: a ) Por supuesto, 8 ser un estadsticoy, por tmto, una variable
aleatoria, puesto que su valor depender de la muestra ( X I , .. . ,X,). (No
consideraremos como soluci6nuna constante.)
b) En la mayor parte de nuestros ejemplos, I9 representar un solo nmero
real. Sin embargo, puede suceder que la distribucin de probabilidades de X
dependa de dos o m6s valores paramCtricos (cornlo se hace en la distribuci6n
normal, por ejemplo). En tal caso, I9 puede repres'entar un vector, 0 = ((Y,p) o
6=(~,P,Y
etc.
),
c ) A fin de encontrar el estimado ML debemos determinar elvalor m5ximo
de una hncibn. Por lo tanto, en muchos problemas podemos aplicar algunas
de las tkcnicas estAndar del c6lculo para encontrar este mximo. Puesto que
In x es una hnci6n creciente de x,
In L ( X I , .. . ,X,; O)

os

de 386

Estimacin

14.4

obtendrti su valor mximo para el mismo valor de 0 como lo har L ( X 1 , . . . ,


X,; e). Luego, en condiciones muy generales, suponiendo que0 es un nmero
real y que L ( X 1 , . . . , X,; e)es una funcin diferenciable de 8, podemos obtener
el estimado ML 6 al resolver lo que se conoce como la ecuacin de verosimilitud:

a
ae

- In L ( X 1 , . . . ,X,;
0)

- In L(X1,. . . ,X,;
8-Y

=O

a ,/3)

(14.2)

= O,
(14.3)

a
aa

- In L ( X 1 , . . . , X,;

a ,p)

= O.

Nuevamente se insistir en queel planteamiento anterior no siempre


estil.Sin
embargo, en un gran nmero de
ejemplosimportantes
(algunos de los cuales presentaremosenformabreve)estemtodo
proporciona el estimado ML, pedido con relativa facilidad.

Propiedades de los estimadores de mxima verosimilitud:


Muy a menudo talsesgo
a ) El estimado ML puedesersesgado.
puede evitarse multiplicando por una constante apropiada.
b ) En condiciones muy generales,los estimados ML son consistentes.
Es decir, si los tamaos de muestra en los cuales se basan es grande, el
estimado ML estar cercano al
valor del parmetro que se estima. (Los
estimados ML poseen otra propiedad muy importante,la propiedad del
gran tamao de muestra que se expondrg m& adelante.)
c) Los estimados ML poseen la notable propiedad de invarianza. Sup6ngase que 8 es el estimado ML d e O. Entonces puede demostrarse
que el estimado ML de g(0) es g(8). Es decir,.si el estadsticoA toma sus
medidas en pies2 y el estadstico B mide en pies y si el estimado ML d e
A es 8, entonces el d e B sera
Recordemos que esta propiedad no
la tienen los estimados insesgados.

d.

Consideraremos ahora ciertas aplicaciones sobresalientes d e los estimados ML.

14.4

de Estimados

mdxima verosimilitud

387

EJEMPLO14.7. Supngase que el tiempo para que ocurra


la falla,
digamos T,de un componente tiene una distribucin exponencial con
parametro P. La fdp deT , por lo tanto, esta dadapor

Supngase que se prueban n de tales componentes, dando los tiempos


de falla T l , , . .,Tn. Por lo tanto, la funcin de verosimilitud de esta
muestra esta dada por

A s , In L = n In

-P

Ti. Portanto,

da j = 1/T, donde T es el promedio muestral de los tiempos para que


suceda la falla. Puesto que el valor esperado deT , el tiempo promedio
para que ocurra la falla, est dada por l/P, usando la propiedad de
invarianza de los estimados ML, encontramos que el estimado ML de
E ( T ) est5 dado porT , el promedio muestral. Sabemos queE ( T ) = 1/P
y, por tantoT , el estimado ML de E ( T ) , es insesgado.
Obseruacidn: En general, no es fcilencontrar la distribucin de probabilidades de los estimados ML, especialmente si el tamao de muestra es pequeo.

(Si TZ es grande, encontraremos que es posible una solucin general.) Sin embargo, en elpresente ejemplo podemos obtener la distribucin.delos estimados
ML. Del corolario del teorema 10.9 encontramos que 2npT tiene distribucin
x;,. Luego, P(T 5 t ) = P(2nPT 5 Znpt). Esta probabilidad se puede obtener
directamente de la tabla de la disaibucin X-cuadrada si n, p y t son conocidas.

EJEMPLO14.8. Se sabe que cierta proporcin (fija), digamos p , de


detonantes es defectuosa. De una gran partida, se eligen n al azar y se
prueban. Definamos las variables aleatorias s.iguientes.
X i =si el i-simo detonante es defectuoso y O en cualquier otrocaso,
i = 1 , 2 , ...,n

388 Estimacin de pardmetros

14.4

Por tanto, (X,). . . ) X , ) es una muestra aleatoria dela variable aleatoria


X que tiene la distribucin de probabilidades P ( X = O ) = f ( O ; p ) =
1 - p , P ( S = 1 ) = f ( 1 ; p ) = p . Es decir, f ( z , p ) = px(l - p ) 1 -x , z = O, 1.
Luego,
L ( X 1 ) . . . ) x n ; p ) = pk ( ~ - p ) , - ~ ,

donde k =
X i = nmero total dedetonantesdefectuosos.
InL(X1, . . . , , Y , ; p ) = k I n p + ( n - k ) l n ( I - p ) .
Portanto,

BlnL

n- k
-k + (-1)

aP

1-P

As,

k - -.
n-k
=P
1-P

Si k = O o n encontramos directamente, al considerarla expresin deL,


que el valor mximod e L se obtiene cuandop = O o 1, respectivamente.
Para k # O o n, hacemos Bln L / B p = O y encontramos como solucin
6 = k / n = Y,el promedio muestral. A s , nuevamente encontramos que
el estimado ML da un estimado insesgado del parmetro buscado.

EJEMPLO14.9. Supngase que la variable aleatoria X est distribuida normalmente con esperanzap y varianza l. Es decir, la fdp deX est
dada por

Por lo tanto,

Luego, Bln L / a p = O da $ = y,el promedio muestral.

EJEMPLO14.10. Hasta ahora hemos considerado situaciones en las


cuales pudimos encontrar el valor mximo Lde
al derivar simplemente
L( o In L ) respecto al parmetro y hacer esta derivada igual a cero. El
ejemplo siguiente ilustra que esto no siemprees efectivo.

de Estimados

14.4

mxima verosimilitud 389

Supngase quela variable aleatoria X est distribuida uniformemente en el intervalo [O, a],donde a es un parmetro desconocido. L a fdp
de X est dada por

f(.)

= l/a,
=O

o 5 x 5 (Y,

para cualquier otro valor.

Si ( X I , . ..,X,) es una muestra deX, su funcin de verosimilitud est


dada por

L ( X 1 , . . . , X n ; a ) = (l/a),,
=O

O 5 X; 5

para toda i,

para cualquier otro valor.

Considerando L como una funci6n de (Y para (XI,.. .,X,) dada, se


observa que debemos tener a 2 X; para toda i a fin de que L sea
distinta d e cero. Esto equivale a pedir quea 2 mx(X1,. . . ,X,). A s , si
dibujamos L como una funcin
de a obtenemos la grfica que se muestra
de inmediatoquC valor de
en la figura 14.3. De esta grfica, es evidente
a maximiza L, es decir
& = mx(X1,. . . ,X,).

Estudiemos algunas propiedades d e este estimado. Del teorema 13.2


obtenemos la fdp de & : g ( & ) = n[F(&)In-'f(&).Pero F ( z ) = x / a ,
O 5 z 5 a y f ( z ) estn dadas anteriormente. Luego, obtenemos

FIGURA14.3

390 Estimacindeparmetros

14.4

Para encontrar E ( & )calculamos

E ( & )=

CY

CY

hg(&)d 6 = 1 6

nbn-l

7 d6

As, 6 no es un estimado insesgado de a ; 6 tiende a subestimara. Si


queremos un estimado insesgado, podemos usar

Observemos
que
aunque
E ( & ) # a tenemos
que
E ( & ) = a.
As, para verificar la consistencia debemos demostrar an queV ( & +
) O*
cuando n + m. (Vase el Teorema 14.1.) Debemos calcular
=

la(&) La(&)
2 g(6)d6 =

d&

an

Luego,
n

n
V ( & )= E(&)2- ( E ( S ) ) 2= n+2
As, V ( 6 ) + O cuando n

demostrada.

-+

n+l
m

y, portanto,

(n

+ 2)(n +

la consistenciaest5

EJEMPLO14.11. Consideremos un ejemplo en el cual los dos parmetros (ambos desconocidos) caracterizanla distribucin. Supngase
que X tiene distribucin N ( p )a 2 ) .Por tanto, l a fdp de X es

Si (X,, . . . ) X n )es una muestra de X, su funcin de verosimilitud est


dada por

14.4

Estimados de mxima verosimilitud

39 1

Luego,

Debemos resolver simultneamente


aln L

=o

alnL

aff

o.

Tenemos
aln L

5 (Xi

lo que da

;=I

- PI _= o,

U2

= X, el promedio muestral. Y

que da

C(X2- ) 2

62 = l n
n r=l
.

E(Xa -x>
- 2

=l n

n .

r=l

ObsCrvese que el mtodo ML produce un estimado sesgado de


a2,
puesto que ya hemos visto que un estimado insesgado es de la forma
l / ( n - 1)
- F12.

c~=~(x;

EJEMPLO14.12. Anteriormente consideramos (Ej. 14.7) elproblema de estimarel parmetro p en unaley exponencial d e falla, alprobar
n artculos y anotar sus tiempos d e falla, T I , .. . ,Tn. Otro mtodo podra ser el siguiente. Supngase que
sacamos n artculos, los probamos,
y despues que ha transcurrido cierto tiempo, digamos
TOhoras, simplemente contamos el nmero de artculos que han fallado, digamos X .

de 392 Estimacin

14.4

Nuestra muestra consiste en X I , . . . ,X n , donde X i = 1 si el i-simo artculo ha fallado en el periodo especificado, y O en cualquier otrocaso.
Luego, la funcin d e verosimilitud d e la muestra es

donde k = Cy=lX; = nmero de artculos que h a n fallado y p = Prob


(el artculo falla). Ahora p es una funcin del parmetro que se est2
estimando; es decir,

Utilizando el resultado del ejemplo


14.8, encontramos que el estimado ML d e p es 1; = k / n . Aplicando l a propiedad de invarianza
del estimado ML (observando que p es una funcin creciente d e ,O),
obtenemos el estimado M L d e ,f3 simplemente al resolver la ecuacin
1 - e-pTo = k/n. Un clculo fcil da
8="1.(--),

n .- k

TO
o, para el estimado d e l/,f3,el tiempo promedio para que ocurra
la falla,

($)= ln[(n-Tok ) / n ].
-

En todoslos ejemplos antes presentados,


el mtodo ML da ecuaciones
queeranrelativamente sencillas de resolver.Este
no es el caso e n
muchos problemas y a menudo debemos recurrira mtodos numCricos
(aproximados)a fin de obtencr los estimados. El ejemplosiguiente
ilustra tales dificultades.

EJEMPLO14.13. Como ya lo observamos, la distribuci6ngama


tieneaplicacionesimportantesparaprobar
la duracin.Supngase
por ejemplo queel tiempo para que ocurra una falla de un generador
elctrico tiene una duracinA', cuya fdp est dada por

de Estimados

14.4

mxima verosimilitud 393

donde r y X son dos par6metros positivos que deseamos estimar.Supcingase que es posible una muestra (XI,.. . ,X n ) de X. (Es decir, se han
probado n generadores y se h a anotado los tiempos en que se produce
su falla.) La funcidn d e verosimilitud d e la muestra es

A s , debemos resolver simultneamente d In L/dX = O y O In L / & = O.


Estas ecuaciones se convierten en

x"; =o,
n

nOrl n L -X
dX
i=l
"

Luego, d l n L/BX = O da directamente 1= r / y . Por tanto, despus de


encontramos que d l n L / & := O da
sustituir X por i,

Es evidente que debemos resolver la ecuacin anterior para r , obteniendo y cntonces i= + / X . Afortunadamente se ha tabulado la
funcin r " ( r ) / r ( r ) . Un mtodo muy rpido para obtener las soluciones pedidas, se prcsenta en el estudio d e D. G . Chapman (Annals of
Mc&nzalicaZ Stntistics, 27, 498-506, 1956). E,ste ejemplo muestra que
la solucin de las ecuaciones de verosimilitud puede conducir a dificultades matemriticas considerables.
Como antes mencionamos, los estimados ML poseen una propiedad
adicional que los hace muy apreciados, especialmente si los estimados
se basan en una muestra muy grande.

Propiedad asinttica de los estimados de mxima verosimilitud.


Si
estimado ML para el parmetro O, definido sobre una muestra

8 es un

os

de 394 Estimacin

14.4

aleatoria X1 , . . . ,S n de una variable aleatoria X , entonces para n suficientemente grande, la variable aleatoria 9 tiene aproximadamente la
distribucin

donde

B = nE

(14.4)

aqu f es la funcin de probabilidad puntual o fdp deX , dependiendo


de si X es discreta o continua y donde 9 se supone que es un nmero
real.
Obse7wacwnes: a) L a propiedad anterior, por cierto,es mucho ms fuerte que
la propiedad de consistencia que hemos mencionado antes. La
consistencia
expresa que si n es suficientemente grande, 6 estar cercana a O. Ahora, esa
propiedad nos describe cuAl es el comportamiento probabilstico d e 6 para una
n grande.
b ) No demostraremosestaafirmacin,
slo ilustraremos su uso con un
ejemplo.

EJEMPLO14.14. Reconsideremoselejemplo
14.7. Encontramos
= 1/T esel estimado ML de P. Lafdp d e T fue dada por
que
f ( t ; P) = Pe-p, 1 > O. La propiedad anterior establece que si n es suficientemente grande, b = l/T tiene aproximadamente la distribucin
N ( @ ,l/B), donde B est dada por la ecuaci6n (14.4).
Para encontrar

Por tanto,

14.5

El mtodo de I(osmnimos cuadrados

395

TABLA
14.4
,Y (altura, m) Y (temperatura, C) X (altura, m) Y (temperahIra, o c)
O

1142
1742
280
437
678
1002
1543
1002
1103
475
1049
566
995

13

14
16
13
11
4
9

11
10
15
10

13
18
14
14
18

1O08
20;B
4 3'9
1471
48'2
67.3
4 0'7
12910
1609
9110
127'7
4110

13

16

9
11
14

b,

Por lo tanto, encontramos que para unan gramde tiene aproximada(Esto verifica la propiedad de consismente la distribucin N ( P , ,$/,).
tencia del estimado, puesto queP 2 / n + O cuando n -+ m.)

14.5 El mdtodo de los minnimos cuadrados

EJEMPLO14.15. Estamos familiarizados con el hecho de que la temperatura del aire disminuye con la altitud del lugar. Los datos de la
tabla 14.4 y el diagrama de dispersidn asociado (grfica de puntos) (Fig.
14.4) lo refuerzan. La grfica de puntos indica no slo que la temperatura Y disminuye con la altura X , sino que es evidente una relacin
lineal.
Las observaciones representan la altitud (en metros) y la temperatura (en
grados centgrados) enlas primeras horas d e la maana en cierto nmero de
puestos de observacih en Suiza.Los
datos provienen del Observatorio
Basel-St. Margarathen.
Cual es un .modelo razonable para
los datos anteriores? Supondremos que
Y es una variable aleatoria, cuyo valor
depende, entre otrascosas, del valord e
X . Supondremos, especficamente, que

FIGURA14.4

3 96 Estimacin de parmetros

14.5

donde a y p son constantes (desconocidas), X es la altitud (conocida)


desde la cual se mide Y , y E es una variable aleatoria. El anlisis d e
este modelo lineal depende de las hiptesis que hagamos acerca de la
variable aleatoria t . (Esencialmente decimos que la temperatura es un
resultado aleatorio, cuyo valor puede descomponerse estrictamenteen
una componente aleatoria ms un trmino que depende de la altitud
.Y de una manera lineal.) La hiptesis que haremos acerca de
es la
siguiente:
~ ( c =
) O;

~ ( t=
)

u2

paratoda X.

Es decir, el valor esperado y la varianza d e 6 no dependen del valor


d e X. Por lo tanto, E ( Y ) = crX /3 y V ( Y ) = 0 2 . Observemos que
el modelo que hemos establecido depende d e los tres parmetros a , /3
y u 2 . No podemos usar el mtodo de la mxima verosimilitud para
estimar esos parmetros a no ser que hagamos m5s hiptesis acerca
d e la distribucin de E. Nada se h a supuesto acerca d e la distribucin
d e la variable aleatoria E ; slo se formul una hiptesis acerca de su
valoresperado y suvarianza.(Posteriormentemencionaremosuna
modificacin d e este modelo.)
Antes d e establecer cmo estimar los parmetros respectivos, digamos unas pocas palabras sobre el significado de una muestra aleatoria
en el presente contexto. Supongamos que se escogen n valores d e X ,
2 1 , . . . ,xn. (Recordemos otravez que aqu X no es una variable aleatoria.) Para cada x;,sea Y , una observacin independiente dela variable
aleatoria Y descrita anteriormente. Por tanto,( X I ,Y l ) ,. . . , ( x n ,Yn)puede ser considerada como una muestra aleatoria dela variable aleatoria
Y para los valores ( X I , .. . ,z n ) d e X dados.

Definicin. Supngase que tenemos E ( Y ) = a X


/3, donde a ,
/3 y X son como antes se expres. Sea (q,Y l ) ,. . . ,( x n ,Yn)una
muestra aleatoria de Y . Los estimados de mnimos cuadrados d e los
parmetros a y /3 son los valores a y ,d que minimizan

14.5

Eldemdtodo

397

los mfnimos
cuadrados

Observacwn: La interpretacin del criterio anteriores muy evidente. (Vase


la Fig. 14.5.) Para cadapar (zi, 6 )calculamos la discrepancia entre Y,, el valor
observado, y ax;+ ,O, el valor esperado. Puesto que slo estamos interesados
en la magnitud d e esta discrepancia, elevamos al cuadrado y sumamos todos
los puntos d e muestra. La lnea buscada es aquella para la cual esta suma es
ms pequea.

A fin de obtener los estimados pedidos para (Y y p procedemos como sigue.


- ( m i
p)12.
Sea ~ ( pa) , =
Para minimizar S ( ( Yp)
, debemos resolver las ecuaciones

~r=~[x +

8s

8s

-=o
aa

ap = O.

FIGURA14.5

Derivando S respecto a a y a p, obtenemos

as
a(Y

i= 1

i=l

As, d S / & = O y aS/ap = O pueden escribirse, respectivamente, como


sigue:
n

i=l

i=l

(14.5)

Ex.

n
n
a C z ;+ n p =
s=l
i=l

(14.6)

Tenemos as dos ecuaciones Zineules en las incgnitas CY y p. La solucin puede obtenerse de la manera usual, por eliminacin directa o
usando determinantes. Denotando las solucilones por & y
encontramos f5cilmente que

6,

398 Estimacin de parmetros

14.5

(14.7)

,8=y-&z7 donde y =

-Ex.
1

12.

s=l

(14.8)

Las soluciones anteriores son nicas y siempre se obtienen, siempre


que
E ( x i -q 2
i=l

# o.

Esta condicin, sin embargo, se satisface cada que


vez todaslas xi no son
iguales.
El estimado del parAmetro u2 no puede obtenerse por los mtodos
anteriores. Establezcamos simplemente que el estimado usual deu 2 ,en
es
trminos de los estimados de mnimos cuadrados & y

p,

l
n
n-2.

u2 = -

t=l

[x-

(&Xi

+ p)] 2 .

Obsemacwnes: a) Evidentemente es ~5una funcin Lineal d e los valorcs muestrales Y1, . . . , Yn.
b ) Tambin P es una fincin lineal d e Yl , . . . ,Y,, como lo indica el cAlculo
siguiente:

c) ES u n ejercicio sencillo demostrar que E(&.)= CY y que


= p. (Vase
el Prob. 14.34.) As,
y ,b
ison estimados insesgados.
d ) Las varianzas d e h y ,b tambikn se pueden calcular con facilidad. (Vase
el Prob. 14.35.) Tenemos

14.6

El coeficiente de correlacwn

V ( & )=

cy==,(.;
U2

- 2)2

. V ( P )=

;[

+-

??

(x;- F)2 u2

399
(14.9)

e ) Los estimados ti y son en realidad los mejores estimados lineales insesgados d e (Y y p. Es decir, de entretodos los estimados lineales insesgados, stos
tienen la mnima varianza. ste es un caso especial1 del teorema general de GaussMurkofl, el cual establece que enciertas condicionles los estimados d e mnimos
cuadrados y los mejores estimados lineales insesgados son siempre los mismos.
J) El mtodo de los mnimos cuadrados puedeaplicarse a modelosno lineales. Por ejemplo, si E ( Y ) = a x 2 /?X y, podemos estimar (Y,
,f? y y de modo
que

i=l

[.i- (ax;+ ax;+ y)]

se minimiza.
g) Si formulamos la hiptesis adicional de que la variable aleatoria E tiene
distribucin N ( 0 , u2),podemos aplicar el mCtodo de la mxima verosimilitud
para estimar los parmeh-os CY y P. Esos estimaldos son los mismos que los
estimados d e mnimos cuadrados obtenidos anteriormente. (Esto no siempre
es cierto, es una consecuencia d e la hiptesis de normalidad.)

EJEMPLO14.16. Este ejemplo es presentadopor Y. V. Linnik en


Method of Least Squares and Principles of the Theory of Ol)sewations, Pergamon Press, Nueva York, 1961. Los datos de este ejemplo fueron obtenidos por Mendeljev y presentados en Founahtions of Chemistry. (VCase
la Tabla 14.5.) Relacionan la solubilidad d e nitrato de sodio N a N 0 3 con
la tempcratura del agua (en"C). A la temper,atura indicada,las Y partes de N a N 0 3 se disuelven en 100 partes de agua.Al hacer una grhfica
con esos datos se obtiene el diagrama d e dispersin que. se muestra en
la figura 14.6.
Este diagrama sugiere un modelo ladeforma E ( Y ) = bT+a. Usando
el metodo delos mnimos cuadrados bosquejado anteriormente, encon=i67.5.
tramos que b = 0.87 y
14.6 El coejciente de correlacin

En la secci6n anterior nos interesamos en pares de valores ( X ,Y ) ,pero, como lo hemos sealado una y otra vez, X no debe considerarsecomounavariablealeatoria.
Sin embargo,hayvariablesaleatorias bidimensionales ( X ,Y ) que dan origen a una muestra aleatoria

400 Estimacin de pardmetros

14.7

TABLA
14.5
T

66.7
71.0

10
15

80.6

21

85.7

92.9
4 36

99.4

51

76.3
113.6

68

125.1

29

20

40

60

FIGURA14.6

(XI,Y l ) ,. . . ,(X,, Y,). Uno d e los par5metros m& importantes asociad o con una variable aleatoria bidimensional es el coeficiente
d e correlacin p x y .
TABLA
14.6
X (velocidad, km/seg)

11.93

8.87

10.13

10

Y (altura, km)

62.56

40.57

44.38

48

El estimado que se acostumbra usar parap es el coeficiente de correlucidn


muestral, definido como sigue:

Ntese que para propsitos de clculo es ms fcil evaluar r como


sigue:

EJEMPLO14.17.
Los datosanotadosen
la tabla 14.6 representan la velocidad (en km/seg) y la altura (en km) de la estrella fugaz
nmero 1242 como se inform en la Smithsonian Contributions to
Astrophysics en el Proccedings of the Symposium on Astronomy and Physics
of Meteors, Cambridge, Mass., 28 d e agosto - lo. de septiembre de1961.
Un clculo directo da T = 0.94.

14.7

Intervalos de conjattza

40 1

14.7 Intervalos de confianza


Hasta ahora slo nos hemos interesado en la obtencin de unestimado
puntual para un parmetro desconocido. Como se sugiri al principio
de est captulo, existe otro planteamiento que a menudo conduce a
resultados muy significativos.
Supngase que X tiene distribucin N ( p , u 2 ) ,donde o2 se supone
conocida, mientras que p es el parmetro desconocido. Sea X I , . . . ,X n
una muestra aleatoria deX y X el promedio muestral.
Sabemos que X tiene distribucin N ( p , u 2 / n ) .Por tanto, 2 = [(Xp ) / u ] J ntiene una distribucin N ( 0 , l . ) Ntese que aunque 2 depende
de p , su distribucin d e probabilidades no. Podemos usar este hecho a
nuestra conveniencia como sigue.
Considerar

= P X--<p<:u+Jn- ZU

"

d
z')

Esta filtima proposicin probabilstica debe interpretarsemuy cuidudosamente. No significa que la probabilidad del parmetro p que cae en el
intervalo mencionado sea igual a 2@(z) - 1; 11 es un parmetro y est o
no en el intervalo anterior.
En su lugar,lo anterior debera interpretarse
como sigue: 2 @ ( z )- 1 es igual a la probabilidad que el intervalo aleatoxu/*)
contenga a p . A tal intervalo se le llama
rio (X - xu/*,
intervalo de confianza para el parmetro p. Puesto que z queda a nuestro criterio, podemos elegirlode modo quela. probabilidad anterior sea
igual a 1 - (Y.Por tanto, z est definida por la relacin % ( z )= 1 - a / 2 .
Ese valor d e z, denotado con ISl-cY/2,
se puede obtener delas tablas d e
la distribucin normal. (Vase tambin la Fig. 14.7.) Es decir, tenemos
@(Ii-l-cY/2)
= 1- 4 2 .

es
Para resumir: el intervalo
( ~ - n - ~ / ~ u ~ x'+7.1-1/2
< ~ - , ~ 01c1-a/2)
p ,
un intervalo de confianza para el parmetro
p con coeficiente de confinnza
(1 - a ) , o un (1 - a) 100% d e intervalo de confianza.

14.8

402 Estimacindeparmetros

t
Supngase queX representa la duracin de unapieza de un equipo.
Supngase que se probaron 100 piezas quetuvieronunaduracin
= 501.2 horas. Se sabe que u es de cuatro horas y que
promedio de
deseamos tener un intervalo de
95% de confianza parap . Encontramos,
p = E(X):
por tanto, el siguiente intervalo de confianza para

501.2 - &(1.96),501.2

+ &(1.96),

llega aser

(500.4;502.0).

Nuevamente es til un comentario. Al establecer que (500.4; 502.0)


es un intervalo de 95% de confianza para p , no estamos diciendo que
ese intervalo.
el 95% d e las veces el promedio muestra1 quedar5 en
La prxima vez que saquemos una muestra aleatoria,X posiblemente
serA distinta y, por tanto, los extremos del intervalo de confianza sern
diferentes. Estamos diciendo queel 95% de las veces p estar5 contenido
en el intervalo
- 1.960/+,
?T 1.96u/fi). Cuando afirmamos que
500.4 < p < 502.0 simplemente estamos adoptando el punto de
vista de
creer que algo es as cuando sabemos quees verdadero la mayor parte
del tiempo.

(x

Obseruacidn: El intervalo d e confianza construido no es nico. Tal como


hay muchos estimados (puntuales) para
u n parAmetro, podemos construir
muchos intervalosd e confianza. Aunque no discutiremos el problema d e lo que
podramos designar comoun intervalo d e confianza mejor establezcamos, sin
embargo, u n hecho obvio. Si se comparanlos intcrvalos d e confianza que tienen
el mismo coeficiente, preferiramos el que tiene menos longitud esperada.
La longitud L del intervalo d e confianza antes considerado puedeescribirse
como

As, L es una constante. Adem&, resolviendo la ecuaci6n anterior para n da

Criterios para estimados 403

14.2

Por lo tanto, podemos determinar n (para CY y u dadas) de modo que el


intervalo de confianza tenga una longitud prefijada. En general (comose
ilustr en el ejemplo anterior), L ser5 una funcin decreciente de n: cuanto m5s
pequea deseemos que sea L m5s grande debe tornarse n. En el caso anterior
especialmente debemos cuadruplicar n a fin de dividir a L.
14.8 LA distribucin t de Student

El anlisis del ejemplo anterior dependa mucho del hecho d e q u e l a


varianza u2 era conocida. Cmo debemos modificar el procedimiento
si no conocemos el valord e u 2 ?
Supongamos que estimamoso2 utilizando el estimado sin sesgo
2

"
E(&
S)?

8 =-

n-l.

a=1

Consideremos la variable aleatoria


(14.10)

Debera ser intuitivamente evidente quela distribucin d e probabilidades d e la variable aleatoria t es considerablemente ms complicada que
la d e 2 = ( F - p ) f i / u , ya que enla definicin de t , tanto el numerador
como el denominador son variables aleatorias, mientras que 2 es simI , . . . ,Arn. Pa.ra obtener la distribucin
plemente una funcin lineal Xde
d e probabilidades d e t usemos los hechos siguientes:
a) 2 =
- p ) f i / u no tiene distribucinN(O,1).
b ) V = Cr=l(X;- T)2/02
tiene una distribuci6n x-cuadrada con
( n - 1) grados de libertad. (Vaseel Teorema 13.4.)
c) 2 y V son variables aleatorias independientes. (Esto
no es muy
fcil d e demostrar, y no lo verificaremos aqu.
Con ayuda del teorema siguiente podemos obtener ahora
la fdp
de t.

(x

Teorema 14.3. Supngase quelas variables aleatorias 2 y V son inde:, respectivamente.


pendientes y tienen distribuciones N ( 0 , l ) y x
Definimos
=

404 Estimacin de parmetros

14.2

Entonces, la fdp de T est dada por


-(k+l)/Z

hk(t)=

00

< t < OO.

(14.11)

Esta distribucin se conoce como


distribucin t de Student con X: grados d e
libertad.
Observaciones: a ) La demostraci6n d e este teorema no se proporciona aqu,
pero se sugiere en la seccin d e problemas. (Vkase el Prob. 14.17.) Tenemos
las herramientas disponibles cona
ls cuales podemos encontrarh k ( t ) muy fcilmente. Primero necesitamos determinar l a fdp d e
la cual se obtiene
con facilidad conociendo la fdp de V. Entonces slo necesitamos aplicar el
teorema 6.5 que dala fdp del cociented e dos variables aleatorias independientes.
b) El teorema anteriorse puede aplicar direcmmente para obtenerla fdp d e
t=
- p ) f i / & , la variable aleatoria antes considerada. Esta variable tiene la
distribucin t de Studentcon ( n - 1) grados de libertad. Ntese que aunqueel
valor de t depende dep , su distribucin no.
c ) La grfica de h.k es simtrica, como se muestra en la figura 14.8. En
realidad, se asemeja a a grfica d e la distribucin normal, y el lector puede
demostrar que

m,

(x

d) Debido a su importancia, esta distribucin


ha sido tabulada. (Vase el
Apndice.) Para una CY dada 0.5 < CY < 1, los valores d e t k , a , que satisfacen la
condicin

/tka

h k ( t ) dt = CY

J-00

estn tabulados. (Vase la Fig. 14.9.) (Para los valores d e a que satisfacen
O < CY < 0.5, podemos usar los valores tabulados debido a la simetra d e la
distribucin.)
e ) Esta distribucin se llama as en honor delestadstico ingls 147. S. Gosset,
quien public su trabajo conel seudnimo de Student.

Ms sobre los intervalos de confianza 405

14.9

FIGURA
14.8

FIGURA
14.9

Volvamos ahora a l problema presentado al principio de esta seccin.


C6mo obtenemos un intervalo de confianza para el promedio de una
variable aleatoria distribuida normalmentesi Ila varianza es desconocidu?
De una manera completamente anlogaa la1 usada en la seccin 14.7,
obtenemos el siguiente intervalo d e confianza 'para p , con coeficiente de
confianza ( 1 - a ) :

A s , el intervalo de confianza anterior tiene l a misma estructura que


el previo, con la diferencia importante de que el valor conocido de
a: se ha sustituido por el estimado 8 y la constante K 1 - a / 2 , obtenida
anteriormente de las tablas d e la distribucin normal, se ha sustituido
,
d e las tablas de l a distribucin t .
por t l a - l , l - c y / 2 obtenida
Observaciha: La longitud L del intervalo d e confianza anterior es igual a

Luego, L no es una constante, puesto que depende de


6, que a su vez
depende de los valores muestrales (X1l . . . S ; , , ) .
EJEMPLO14.18. Sehicierondiezmedicionessobre
la resistencia
de cierto tipo de alambre, dando los valores JLrl . . . , X l o . Supngase
que X = 10.48 ohms y 6 =
x!zl(Xi - X)2 = 1.36 ohms. Supongamos que X tienedistribucin iV(p,c2)y qne deseamos obtener un
intervalo de confianza para p con coeficiente de confianza 0.90. Por
tanto, a: = 0.10. De las tablas de la distribucin t encontramos que
t9,0.95 = 1.83. Luego, el intervalo de confianza pedido es

4;

14.9

406 Estimacindeparmetros
/

(10.48

-(1.36)(1.83)10.48

+ -( 1 1.36)(1.83)) = (9.69,11.27).
m

14.9 Ms sobre los intervalos de conjianza


Aunque no intentamos dar una presentacin general de este tema,
deseamos continuar considerando algunos ejemplos importantes.
Algunas veces deseamos obtener un intervalo d e confianza para una
funcin particular d e un parmetro desconocido, conociendo un intervalo d e confianza para el parmetro mismo. Si la funcin es montona,
esto puede satisfacerse como lo ilustra el ejemplo siguiente.

EJEMPLO14.19. Sup6ngase que la duracin X de un artculo tiene


distribucin N ( p , a 2 )y que o2 es conocida. La confiabilidad del artculo
para un tiempo deservicio de t horas est dada por
R ( t ; p )= P ( X

r 'i>

> t ) = 1 - cp - .

Puesto que a R ( t ; p ) / a p > O para toda p , tenemos que para cada t


fija, R(t;p ) es una funcin creciente de p. (Vase la Fig. 14.10.) Luego,
podemos proceder como sigue para obtener un intervalo de confianza
para R ( t ; p ) . Sea ( p , p ) el intervalo de confianza para p obtenido en
la seccin 14.7. Sean y a, respectivamente, los extremosinferior y
superior del intervalo deconfianza pedido para R(t;p ) . Si definimos a
R y R por las relaciones

encontramos que P(& 5 R 5 a) = P ( p 5 p 5 p ) = 1 - a , Y que,


por tanto, ( & X ) representa un intervalo deconfianza para R(t;p ) con
coeficiente de confianza (1 - a ) . (Vase la Fig. 14.11.)

M d s sobre los interualos de confianza

14.9

407

Usemos los valoresmuestralesobtenidosen


la seccin 14.7 para
ilustrar este procedimiento. Supngase que deseamos un intervalo de
confianza para la confiabilidad del componente cuando se us para
t = 500 horas.Puestoqueencontramos
1" = 500.4 y p = 502.0,
obtenemos
"

R=

l-@

(500

= 0.6554,

R = 1- Q,

(500

502

) = 0.6915.

Hasta ahora slo hemos considerado intervalos d e confianza bilnterales. Es decir, hemosobtenidodos estadsticos (algunas veces llamados cota superior e inferior
d e confianza), sean L ( X 1 , . . . ,X,) y
U(X1,. . . ,X,), tales que P [ L U 5 U ] = 1- C Y , donde U es el parmetro
desconocido.
A menudo slo estamos interesadosen obtener intervalosd e confianza unilaterales d e la forma siguiente:

<

P[U<U]=l-a

o P[L<8]=1-a.

Ilustremos lo anterior con ejemplos.

EJEMPLO14.20. Supngase queX tiene dlistribucin N ( p , a 2 )y deseamos obtener un intervalo d e confianza unilateral para el parAmetro
desconocido u 2 . Sea X I , . . . , X , una muestra aleatoriad e X .
Del teorema 13.4 sabemos que Cr=l(X; - F ) 2 / a 2tiene distribucin
xi-1. Por tanto, d e las tablas d e la distribucin x-cuadrada podemos
, que
~ - ~
obtener un nmerox 2 ~ - ~ tal

(Vase la Fig. 14.12.) La probabilidad


anteriorpuedeescribirsecomosigue:

teral pedido paraa2 con coeficiente d e


confianza ( 1 - a ) .

hn-dX2)

FIGURA14.12

os

de 408 Estimacin

14.9

EJEMPLO14.21. Supngase que la duracin X de un instrumento electr6nico est distribuida exponencialmente con par5mctro l/P.
Luego, E ( X ) = P. Sea S I , . . . , S , , una muestra de X . En el ejemplo

14.7 hemosencontradoque
X ; / n es el estimado MI, d e P. Del
colorario del teorema 10.1) encontramos que 2 n X / p tiene distrilmcin
x i n . Por lo tanto, P [ 2 n Y / p 2 x;n,l-a] = (Y], donde el nmero &,,l-cu
se obtiene d e las tablas d e distribuci6n X-cuadrada.
Si deseamos un intervalo d e confianza (inferior) parala confiabilidad
n(t;p>= P ( X > t >= e -t/P, procedemos como sigue. se multiplica la
desigualdad anterior por ( - t ) y se reagrupan los trminos, obteniendo

P [ ( - t / @ ) 2 -t&+n/x2n]

= 1 - a.

Esto a su vez implica que, puesto que e es una funcin creciente de2 ,

Luego, ( e x P [ - t X ; n , l - n / ~ 2 , m>es un intervalo d e confianza unilateral


para R ( t ;0) con coeficiente de confianza (1 - a ) .
Como una ilustracin final
de unintervalo d e confianza, encontramos
un intervalod e confianza parael parAmetro p asociado conuna variable
aleatoria X distribuida binomialmente. Slo consideraremos el caso dond e n , el nmero de repeticiones del experimento que da origen
a X , es
bastante grande como para poder usar
la alwoximncidn normal.
Representemos con X / n = h la frecuencia relativa de un evento il
e n n repeticiones de un experimento para el cual P ( A ) = p . Por tanto,
E ( h ) = p y V ( h ) = p q / n , donde q = 1 - p.
Usando la aproximacin normal a la distribucin binomial, podemos
escribir

= 2 q K ) - 1,

JJi
2

donde, como siempre, $(I{)= ( 1 / 6 )


e-, / d l . A s , si hacemos
igual a (1 - a) la probabilidad anterior, podemos obtener el valor d e

Ms sobre los intervalos de cotzjianza 409

14.9

Ii- d e la tabla d e la distribucin normal. Es decir, 2@(Ii) - 1 = 1 - a!


implica A = I<l-ff12.Puesto que estamos interesados en obtener un
intervalo de confianza para p , debemos volver a escribir la desigualdad
comounadesigualdad
en p . Ahora
anterior ( 1 1 1 - p ( 5
- pl 5 I<->
es equivalente a { ( h - ,p12 5 ~ ~- p () p / ? 1
L ) . Si
consideramos unsistema de coordenadas,(11, p), la desigualdad anterior
representa el contorno y el interior de unaelipse. La forma de la elipse
est determinada por K y n: a mayor n , m8s fina es la elipse.
Considrese un punto Q ( h , p ) en el plano h,p. (Vase la Fig. 14.13.)
Q ser un punto aleatorio, puesto que su primera coordenada1~ser
determinada por el resultado del experimento. Puesto que Q quedar
dentro de la elipse si y slo si {Ih - pl 5 KJpq/n), la probabilidad d e
que esto ocurra ser 2@(I<)
- 1. Si deseamos tener esta probabilidad
iguala (1 - a!), debemos elegir adecuadamente a I<, es decir Ii =
I~l-ffp

Km}

FIGURA
14.13
Ahora p es desconocida. ( h e , por supuesto, es nuestro problema.)
La recta h = c (constante) cortar la elipse en dos lugares, sean p = p l
y p = p2. (Es fcil verificar que dadas a y h, siempre habr dos valores
distintos d e p.)
Los valores p l y pa se pueden obtener como solucin d e la ecuacin
cuadrtica (en p ) : ( h - p ) 2 = K2(1- p ) p / n . Las soluciones son:

+ ( 1 i * ~ / 2-> K [ h ( l - h>n+ (1<~/4)]


112
n+K 2
hn + (1<~/2)+ [ h ( l --h>n +
112
.
P2 =
n+K 2
Pl =

hn

( I ~ T ~ / L ~ > ]

(14.12)

410 Estimacin de parrnetros


Portanto, {Ih - pl 5 K,,/&~G} es equivalente a { p l 5 p 5 p.}.
As, si se escoge K de modo queel evento anterior tenga probabilidad
( I - a ) ,obtenemos un intervalo de confianza parap , digamos ( P I ,p.),
con coeficiente de confianza (1 - a ) . Para resumir: con el objeto d e
obtencr un intervalo de confianza para p = P ( A ) con coeficiente de
confianza (1 - o ) , se realiza el experimento n veces y se calcula la
frecuencia rclativa del evento A, digamos h . Luego se calculan p l y
p z de acuerdo con las ecuaciones (14.12), donde K se determina de las
tablas d e l a distribucin normal. Recordemosque este procedimiento es
vlido slo si n es suficientemente grande para justificar
la aproximacin
normal.

Observacidn: Recurdese que en las ecuaciones (14.12), h = s / n , donde X


nilmero de ocurrencias del evento A . Luego, S = nh y n - S = n ( 1 - 11).
Si adem& de n, tmto X y n - S son grandes, p1 y p2 pueden aproximarse,
respectivamente, por
=

PI21

11

I-

fi

p2 2:

K
+ m.

fi

EJEMPLO14.22. En un proccso d e produccin se fabrican 79 artculos durante cierta semana.D e esos, se encontr que3 eran defectuosos.
As h =
= 0.038. Usando el procedimientoanterior,obtenemos
(0.013, 0.106) como un intervalo de confianza parap
= P(e1 artculo es
defectuoso) con un coeficiented e confianza 0.95.

&

EJEMPLO14.23. Una fbrica tiene un gran nmero de artculos almacenados, algunos d e los cuales provienen d e un mtodo de produccin que en la actualidad se considera de poca calidad, mientras que
otros provicncn de un proceso modcrno.
Dcl almacn se escogen a l
azar 3 O00 artculos. De &os, se encuentra que 1578 se han fabricado
con el proceso d e poca calidad. Utilizando la aproximacin anterior para p ] y p a , el clculo siguiente da un intervalo de confianza
d e 99% para
p = proporcin d e artculos del proceso insatisfactorio.
1578
3000

1%= -= 0.526,

IC = 2.576,

Problemas 41 1

PROBLEMAS
14.1. Supngase que un objeto se mide en forma independiente con dos
instrumentos, d e medicindiferentes.Sean
L1 y L2 l a s longitudes que se
midieron conel primero y el segundo, respectivamente. Si ambos instrumentos
esdn correctamente calibrados, podemos suponer que E(L1) = E ( L 2 ) = L ,
la longitud verdadera. Sin embargo, la exactitud d e los instrumentos no es
necesariamente la misma. Si se mide la exactitud en trminos d e la varianza,
entonces V ( L 1 ) # V ( L 2 ) . Al usar la combinacin lineal 2 = aL1 (1 - a ) L 2
para el estimado deL , cle inmediato se tiene que E ( Z ) = L. Es decir, Z es un
estimado, insespdo de L. ?Para que eleccin del valor de a, O < a < 1, es
mnima la varianza d e Z ?

1.1.2. Sea S una variable aleatoriaconesperanza


p y varianza u 2 . Sea
muestra d e X. I Iay muchos otros estimados d e u que se
sugieren adems del ya propuesto. Demostrar que C cyl:(,Y;+1 es un
estimado insesgado d e u2 para un valor apropiado deC. Encontrar la eleccin
del valor d e C.
(X1, . . . ,S,)una

14.3. Supngaseque se obtienen 200observaciones independientes, X I , . . . ,


X ~ Mde
, una variable aleatoria S . Se dice que 200 X; = 300 y que 200 S: =
3754. Usando esos valores obtener un estinlado d e E ( X ) y V ( S ) .
14.4. Una variable aleatoria X tiene fdp f ( z ) =: ( p + 1)zD, O

< z < 1.
a ) Obtener el estimado ML d e p, con base en ulna muestra S I , . . . ,S,.

6) Evaluar el estimado si los valores muestrales son 0.3,0.8, 0.27, 0.35, O.G2
y 0.55.
14.5. Los datos d e la tabla 14.7 se obtuvieron le la distribucin del espesor
d e la madera en los postes telefnicos. (W. A. Shewhart, Economic Control of
Quality of Manufactured Products, Macmillan and Co., Nueva York, 1932, pg.
66.) Suponiendo que la variable aleatoria que se considera tiene distribucin
N ( p ,u 2 ) ,obtener los estimados ML de p y u 2 .
14.6. Supngase que T , el tiempo para que ocurra
la falla (en horas) de un
instrumento electrnico tiene la siguiente fdp:

=O

paracualquierotro

valor.

(T tiene una distribucin exponencialtruncada a la izquierda en to). Supngase


que se prueban R artculos y que se anotanlos tiempos en que ocurrela falla
T i , . . . ,T,.

a ) Suponiendo queto es conocida, obtener el estimado ML d e P.

412 Estimacin de parmetros


TABLA
14.7
Espesor d e la
madera (pulg.)
1.o
1.3
1.G
1.9
2.2
2.5
2.8
3.1
3.4

Frecuencia

Espesor d e la
madera (pulg.)

Frecuencia

3.7
4.0
4.3

123
82
48
27 4.6
14
4.9
5
5.2
1
5.5
Total de frecuencias: 1370

29
62
106
153
186
193
188
151

b ) Suponiendo que t o es desconocida, pero


hlL d e to.

conocida, obtener el estimado

14.7. Considerese la misma ley d e falla descrita en el problema 14.6. Esta


vez se prueban N artculos durante To lloras (TO> t o ) y se anotn el ntmero IC
d e artculos que fallan en tal periodo, dignmos k. Responder la pregunta a ) del
problema 14.6.
14.8 Supngase que X est5 distribuida uniformemente en (-a, a). Encontrar el estimado M L d e a, con base en una muestra aleatoria d e tamao n,
X I , . . . >xn.
14.9. a ) Se efecta un proceso hasta que un evento il particular ocurre
por primera vez. En cada repeticin, P ( A ) = p . Se supone que se necesitan
nl repeticiones. Luego se
repite el experimento y esta vez se requieren 722
repeticiones para producir el evento A . Si esto se hace k veces, obtenemos la
muestra n l , ...,n k . Basndose en esta muestra, obtenerel estimado ML d e p .
b ) ) Supngase que k es muy grande. Encontrar el valor aproximado d e
E($) y V ( $ ) ,donde fi es el estimado ML obtenido en a).
14.10. Se prueba un componente que se supone tiene una
distribucibn
exponencial d e fallas y se observan las siguientes duraciones (en horas): 108,
212, 174, 130, 198, 169,252, 168, 143. Usando esos valores muestrales, obtener
un estimado ML para la confiabilidad del componente cuando se
use durante
un periodo de150 horas.
14.1 1. Los datos siguientes representan la duracin d e bombillas elkctricas

(en horas):
1009,
1352,
1433,
1620,
1757,

1085,
1359,
1488,
1G25,
1783,

1123,
1368,
1499,
1638,
1796,

1181,
1379,
1505,
1G39,
1809,

1235,
1397,
1509,
1658,
1828,

1249,
1406,
1519,
1673,
1834,

1263,
1425,
1541,
1682,
1871,

1292,
1437,
1543,
1720,
1881,

1327,
1438,
1548,
1729,
1936,

1338,1348,
1441,1458,
1549, 1610,
1737,1752,
1949, 2007.

Problemas

413

De los valores d e la muestra anterior, obtener el estimado ML para la confiabilidad d e tales bombillas elctricas cuando seusa'n durante 1600 horas, suponiendo quela duracin est5 distribuida normalmente.

14.12. Supngase que se usan dos bombillas tal como se describe en el


problema 14.11 : a) en unaconexin e n serie y b ) en unaconexin en paralelo.
En cadauno delos casos encontrar el estimado
MI, d e la confiabilidad durante
una operacin d e 1600 horas del sistema con base en los valores muestrales
dados en el problema14.1l.

14.13. Supngase que una fkenteradiactiva emite particulas a d e acuerdo


con una distribucin d e Poisson. Es decir, si X es e:lnmero departculas emitidas durante unintervalo de 2 minutos, entonces P ( X = IC) = e - A t ( X t ) k / / l ! . En
vez de anotarel nmero reald e partculas emitidas, supngaseque se observa
el nmero deveces en queno se emiti ninguna partcula.Especficamente, supngase que durante50 minutos se observan30 filentes radiactivas que tienen
la misma potencia y que en25 casos al menos se emiti una partcula. Obtener
el estimado ML d e X con base en esta informacin.
14.14. Una variable aleatoria X tiene distribucin N ( p ,1). Se hacen 20
observaciones de X , pero, en vez d e anotar su vador, slo observamos si X es
negativa o no. Suponiendo que el evento { X < O} ocurri exactamente 14
veces, utilizar esta informacinpara obtenerel estimado ML de p.
14.15.Sup6ngase que X tiene una distribucin. gamma; es decir, la fdp est5
dada por

Supngase que r es conocida. Sea X I , . . . , X , una muestra d e X , obtener el


estimado ML d e X con base en esta muestra.

14.16.Supngase que X tiene una distribucin d e Weibull con fdp

Supngase que a es conocida. Encontrar el estimado


ML de X con base en una
muestra d e tamao n.

14.17. Demostrar el teorema 14.3. [Sugerencia: Vase la Observacin a)


que sigue a este teorema.]
14.18.Comparar el valor d e P ( X 2 l), donde X tiene distribucin N ( 0 , l),
con P(t 2 l), donde t tiene distribucin t de Studentcon:
a)

5 g.1. b ) 10 g.1.

c)

15 g.1. d ) 20 g.1. e ) 258 g.1.

414 Estimacin de parmetros


14.19. Supngase que X tiene una distribucin d e N ( p , r 2 ) .Una muestra
d e tamao digamos, X I , . . . , X 3 0 , da como resultado los valores siguientes:
X; = 700.8,
X! = 16 395.8. Obtener u n intervalo de confianza
d e 95% (bilateral)para 11.
14.20. Supngase que X tiene una distribucin N ( p , 4 ) . IJna muestra d e
t?mao 25 produce un promediomuestra1 7 = 78.3. Obtener un intervalo de
confianza d e 99% (bilateral) para p .
14.21. Supngase que la duracin de un componente tiene distribucin
una
normal, digamos N ( p ,9). Se prueban 20 componentesy se anotan sus tiempos
para que ocurrala falla X I , . . . , X20. Snp6ngase que = 100.9 horas. 0bt.ener
un intervalo de confianza de 99% (bilateral) para la confiabilidad R(lO0).
14.22. Obtener un intervalo d e confianza unilateral de 99% (inferior) para
R(100) del problema 14.21.
14.23. Supngase que X tienedistribucin N ( p , u 2 ) ,donde p y u2 son
desconocidos.Unamuestra
de tamao 15 produce los valores
X ; = 8.7
y Et:, X: = 27.0. Obtener un intervalo d e confianza d e 95% (bilateral) para
U2.

14.24. Se prueban cien componentes, 93 de los cuales filncionan ms de


500 horas. Obtener un intervalo d e confianza d e 95% (bilateral) para p = P
(un componente funciona ms de 500 horas). [Sugerencia: Usar la Ec. 14.12.1
14.25. Supngase que
X , la longitud de un perno, tiene
distribucin N ( 1 1 , l ) .
Se fabrica un gran nmero de pernos y posteriormente se separan en dos
grandes lotes. El lote 1 contiene slo aquellos pernos para los cuales S > 5,
mientras que el lote 2 contiene el resto. Una muestra
d e tamao n se saca
del lote 1 y se miden las longitudes d e los pernos elegidos. As obtenemos
una muestra 1'1,. . . , Y, de la variable aleatoria Y, que es una variable aleatoria
distribuida normalmente y truncada en 5 a la izquierda. Escribir la ecuacin
que debe resolverse a fin de obtener el estimado ML de p con base en la
muestra ( Y l , .. . ,Y,)en terminos de las funciones C$ y
tabuladas, donde
c$(.E) = ( l / ~ % ) e - ~ ' / ~y @ es la fda de la distribucin N ( 0 , 1).
14.26. (La distribucin F ) . Sean X y Y variables aleatorias independientes
con distribuciones x:l y x;,, respectivamente. La variable aleatoria F se define como sigue F = ( X / n l ) ( Y / n 2 )= n 2 X / n l Y . (Esta variable aleatoria desempea un papel importanteen muchas aplicaciones estadsticas.) Demostrar
que la fdp d e F est5 dada por la expresin siguiente:

Problemas

4 15

[Stase llama distribucin


F (Snedecor) con( n l , n:!)grados d e libertad. Debido
a su importancia, se han tabulado las probabilidades asociadas con la variable
aleatoria F.] [Indicacidn: Para derivar la fdp anterior, usar el teorema6.5.1

14.27. Dibujar la grfica d e la fdp h como se da en el problema 14.26,


suponiendo quen1 > 122 > 2.
14.28. Una razn d e la importancia de la di:stribucin F es la siguiente.
Suponer queX y Y son variables aleatorias independientes con distribuciones
~ ( p
af)~y ~, ( pai),
~ respectivamente.
,
Sean X I ., . . . ,X,, y ~ 1 , . .. , ynZ muesmas aleatorias d e X y Y , respectivamente. Entonces, el estadstico C C:&(X; X)2/
- Y ) 2tiene una distribucin F para una eleccin apropiada d e
C. Demostrar estoy determinar C. {Cules sonlos grados d e libertad asociados
con esta distribucin?

xy21(x

14.29. Supngase que la variable aleatoria t tiene una distribucin t d e


Student con 1 grado delibertad. {Cul es la distribucin d e t 2 ? Identifiquela.

14.30. Supngase que X est5 distribuidanormalmente.Seobtiene


una
muestra aleatoria d e tamao 4 y se calcula F, el promedio muestral.Si lasuma
d e los cuadrados d e las desviaciones d e esas 4 mediciones d e 5? es igual a 48,
obtener u n intervalo d e confianza d e 95% (bilateral) para E ( X ) e n trminos d e
X.
14.31. La muestra siguiente d e tamao 5 se obtuvo d e la variable aleatoria
bidimensional (X,Y ) . Usando esos valores, calcular el coeficiente d e correlacin muestral.
x11
y14

2
5

3
3

4
1

S!

14.32. Supngase que E(Y)= crX P. Una. muestra d e tamao 50 est5


disponible, sea (x;,I:), i = 1,.. . , 5 0 para la cual C = ri;; = O ,
x: = 10,
E:2 = 15 y
z;yZ = 8.

,!:x

xfzl

a ) Determinar los estimados d e mnimos cuadrados d e los parAmetros cr y


P, es decir y ,b.
A) {Cul es el valor d e la suma mnima d e cuadrados Cfzl[x - (&Y.;+ &I2.
14.33. Se podra suponer (errneamente) que siempre puede encontrarse
un estimado insesgado para un parmetrodesconocido. El hccho de que no
es
as, se ilustra conel ejemplo siguiente. Supngase:que se hacen n repeticiones
de unexperimento y que un eventoespecial A se .verificaexacL3mente k veces.
Si hay una probabilidad constante p = P ( A ) por hiptesis de que A ocurra
cada vez que se hace el experimento, podramos estar interesados en estimar

416 Estimacin de parmetros


la razn r = p/(l - p ) . Para verificar que no existe un estimado insesgado d e
r = p / ( l - ~ )[con baseen las observaciones d e k A y ( n - k ) x ] , suponemos que en
realidad existe tal estimado. Es decir, supngase que i = h ( k ) es un estadstico
para el cual E(?) = p/(l - p ) . Especficamente, snpbngase que n = 2 y, por
tanto, k = O, 1, o 2. Desgnese los tres valores correspondientes d e i por a , b
y c . Demostrar que E ( ? ) = p / ( l - p ) da como resultado una contradiccin al
observar lo que sucede a la izquierda y a la derecha de esta ecuacin cuando
p + 1.
14.34. Lerificar que los estimados de los mnimos cuadrados Cy y
dan enlas ecuaciones (14.7) y (14.8) soninsesgados.
14.35. Verificarlas
ecuacin (14.9).

expresionespara

,8 como se

V(&) y V@), como se danen la

14.36. Suponer queE(Y) = @ X 2+ PX + y , donde X estA preasignada. Con


base en una muestra(xi,Yi),i = 1 , .. . , n, determinar los estimados d e mnimos
cuadrados d e los p a r h e t r o s cy, ,D y 7 .
14.37. Con ayuda de la tabla 7, obtener una muestra d e tamao 20 d e una
variable aleatoria que tenga distribucin N(2,4).
a) Supngase que esta muestra se obtuvo de unavariable aleatoria que tiene
distribucin N(cy,4). Usar los valores muestrales para obtener unintervalo de
confianza d e 95% para a.
b ) Lo mismo que a) excepto que se supone que la muestra proviene d e la
distribucin N ( a , P 2 )con P2 desconocida.
c) Comparar las longitudes d e los intervalos de confianza en a ) y b ) y comentar.

15.1 Introduccidn

En este captulo analizaremos otra manera dle abordar el problema de


hacer una afirmacin acerca
de unparmetrcl desconocido asociado con
una distribucin de probabilidades conbase en una muestra aleatoria.
En vez de encontrar un estimado para el parmetro, a menudo ser
y luego
conveniente formular una hiptesis sobre un valor para ste
usar la informacin de la muestra para confirmar o rechazar el valor de
la hiptesis. Los conceptos que se presentan en este captulo pueden
formularse sobre una base terica correcta. Sin embargo,
no trataremos este tema desde un punto de vista formal. En su lugar, consideraremos varios procedimientos que son intuitivamente muy atractivos.
Estudiaremos algunas propiedades delos procedimientos sugeridos, pero no intentaremos indicar por qu debern preferirse algunos mtodos
propuestos en vez de una alternativa. El lector interesado puede obtener un fundamento ms terico d e algunos d e estos procedimientos
consultando las referencias que se sugierenal final del captulo.
Consideremos el ejemplo siguiente.

418 Pruebas de hiptesis

15.1

EJEMPLO15.1. Un fabricante se ha dedicado ala produccin d e pinzas que se usarn en ciertas condiciones d e tensin. Se ha encontrado
que la duracin (en horas) esos
de artculos est distribuida normalmente, N(100,9). Se ha introducido un nuevo sistema de fabricacin, cuyo
objetivo es alargar su duracin. Es decir, se espera que la duracin X
(correspondiente alos artculos producidoscon el nuevo mtodo) tenga
una distribucin N ( p ,9), donde > 100. (Supongamos que la varianza
permanece igual. Esto significa, esencialmente, que la variabilidad del
nuevo proceso es la misma que la del antiguo.)
As, el fabricante y el comprador potencial estPn interesados en probar la siguiente hiptesis:

Ho: p = 100 contra H I :

11

> 100.

(Estamoshaciendo la suposicintcita de que el nuevoprocesono


puede ser peor queel antiguo.) I10 se llama hipdtesis nula, y H1 hi$dtesis
alternativa.
Esencialmente estamos encarando un problema similar a uno expuesto en el captulo 14. Estamos estudiando una variable aleatoria y
no conocemos el valor de un parmetro asociado con su distribucin.
Este problema se podra resolver comolo hicimos antes, al estimarsimplemente p . Sin embargo, en muchas situaciones en realidad estamos
interesados en tomar una decisidn especijica: deberamos aceptar o rechazar la hiptesis Ho? A s , no volveremos a tratarlos conceptos previos
d e estimacin, sino que procederemos a desarrollar algunos conceptos
especialmente apropiados para resolver el problemaespecfico que tratamos.
Empezamos por obtener una muestra de tamao
n d e la variable
aleatoria X . Es decir, elegimosal azarn artculos fabricadospor el nuevo
as obtenemos la
proceso y anotamos cuPnto tiempo funciona cada uno,
muestra X I , . . . ,X n . Luego calculamos el promedio aritmtico d e esos
nmeros, digamos X. Puesto que se sabe que X es un buen estimado
de aceptar o
d e p , parece razonable que basemos nuestra decisin
rechazar 110 en el valor d e X . Puesto que estamos interesados en la
discriminacin entre p = 100 y los valores d e p mayores que 100, parece
110si (X- 100) es demasiado grande.
razonable que debamos rechazar
A s , llegamos al siguiente procedimiento (sobre
una base estrictamente intuitiva), llamado usualmente prueba d e la hiptesis: se rechaza Ho
si X - 100 > C o, de manera equivalente, si
> C (donde C es una
caso.
constante por determinar),y se acepta en cualquier otro

15.1

Zntroduccwn

419

Ntese que la forma particular de la prueba que estamos usando fue


sugerida en parte por la hiptesis alternativa H I . Este es un punto al
cual nos referiremos ms adelante. Si en la situacin anterior hubisemos estado interesados en probar HO: p = 100 contra 11; : p # 100, ha- 1001 >
Ahora estamos
bramos usado la prueba: rechazar HO si
en una posicin anloga a la que nos encontrbamos cuando construimos un estimado 8 para el parmetro O. Nos preguntbamos: ?cun
bueno es el estimado? ?Qu propiedades deseables tiene? Podemos
formular preguntas similares acerca d e la prueba que hemos construido. {Cun buena esla prueba? {Qu propiedades posee? ?Cmo la
podramos comparar con otra posible pruebal?
A fin de responder tales preguntas, primero debemos verificar que
no existe solucin, en el sentido usual, para el problema que estamos
proponiendo. Es decir, por simple inspeccin d e algunos d e los artculos que se estn fabricando nunca podemos estar
seguros de quep = 100.
(N6tese otravez la analoga con el problema d e estimacin: no esperamos que nuestro estimado6 sea igual aO. Simplemente esperamos que
est cercano a O.) Lo mismo es cierto aqu: una prucba no conducir
siempre a la decisin correcta, pero una buena prueba conducira
la
mayora d e las veces a la decisin correcta.
Seamos ms precisos. Bsicamente hay dos tipos de error que podemos cometer. Podemos rechazar 110cuando de hecho
110sea verdadera;
es decir, cuando la calidad d e las pinzas no haya mejorado. &to puede ocurrir debido a queescogimos unas cuantas pinzas ms resistentes
en nuestra muestra que no son tpicas de la produccin completa. O,
alternativamente, podemos aceptar 110 cuanldo de hecho HO sea falsa;
es decir, cuando la calidad de las pinzas haya mejorado. Hagamos la
siguiente definicin formal:

I X

c.

Definicin.
Error t$o 1: rechazar Ho cuando 110 es verdadera.
Error tipo 2: aceptar Ho cuando HO es falsa.
Debe ser evidente que no podemos evitar por completo cometer
esos
errores. Trataremos de mantener relativamente pequea la probabilidad decometerlos.
Para enfrentar este problemapresentaremlos la muy importante nocin d e funcin d e operacin caracterstica (de la prueba, digamos L ,
que es la siguiente funcin del parmetro (desconocido)p.

420 Pruebas de hiptesis

15.1

Definicin. Lafuncidn de ofieracio'ncaracterdicu (funcin OC) d e la


prueba anterior se define como

Es decir, L ( J ) es l a probabilidad de aceptar H o , considerada como una


funcin d e p .

Obseruacidn: Otra funcin, muy relacionada con la funcin OC, es laJimci6n


de potencia definida por

Por lo tanto, H ( p ) = 1 - L ( p ) . Usaremos la funcin OC para describir


propiedades dela prueba aunque esto se podra hacer fcilmenteen trminos
d e l a funcin d e potencia.

En el caso especfico que se est considerando, podemos obtener l a


siguiente expresin explcita paraL : si p es el valor verdaderod e E ( X ) ,
entonces ,u tiene distribucin N ( p , 9/n). Luego,

donde, como siempre,


@(S)

= -J s

"o0

-2/3

dx.

Las siguientes propiedades deL ( p ) se verifican con facilidad:


a) L(-m) = 1.

b ) L(+ooj = o.
c) d L / d p < O para toda p . Por tanto, L es una funcin estrictamente
decreciente d e p.)
A s , la gr5fica d e l a funcin L tiene en general la apariencia d e la
curva d e la figura 15.1. (La forma especfica depender& por supuesto,
d e la eleccin d e la constante C y del tamao de muestran.)

15.1

Introduccwn

42 1

Considrese 1 - L(100). Este nmero representa la probabilidad d e


rechazar Ho cuando Ho es verdadera. Es decir, 1- L( 100) representa la
1. Si sedan n y C, entonces 1- L( 100)
probabilidad de un error del tipo
est determinada completamente. Por ejemplo, si tomamos n = 50 y
C = 101, obtenemos
1 - L(100) = 1 - G

___-

rol
loo6 0 1

= 1 - G(2.37) = 0.009.

As, estapruebaparticularnosconduciraarechazar
H o enforma
errnea alrededor del0.9% d e las veces.
A menudo consideramos el problema desde un punto de vista algo
diferente.Supngaseque
se da eltamaodemuestra
n y que la
1 est esfiecijicada, es decir, 1- L( 100) =
probabilidad de un error del tipo
(Y o, de manera equivalente, L(100) = 1 - (Y.
?Cul sera el valord e C?
Especficamente, si tomamos n = 50 y elegimos (Y = 0.05, obtenemos
C como solucin de la siguiente ecuacin:
0.95 = @

c - 100

De la tabla d e la distribucin normal estoda como resultado


1.64 =

C - 100
3

&O.

Por tanto,

C = 100 + -= 1010.69
3( 1.64)
&O

As, si rechazamos la hip6tesis cada vez que el ]->remedio muestra1 es mayor que 100.69, estamos garantizando que un error del tipo l ocurrir

<-

422 Pruebas de hiptesis

15.1

L b )= 1

(100,0.95)

p=

100

FIGURA15.2

con una probabilidad de 0.05. Puesto que ahora se conocen n y C , la


funcin OC est completamente especificada. Su grfica se muestra en
l a figura 15.2. El valor 0.05 se llamanivel de signiJicuciond e la prueba (o,
algunas veces, tamuo de la prueba). En la mayor parte d e los problemas
que O. 1).
se supone que este valor es menor
Ntese que a l especificar a y el tamao d e l a muestra n, slo se
debe determinar la constante C a fin de especificar completamente la
prueba. Hicimos esto insistiendo en que la grfica d e la funcin OC
pasa a travs de un punto especificado, a saber (100, 0.95). (Debe ser
evidente cmo se modificara el procedimiento anterior si hubisemos
escogido un valor distintoa 0.05 para el nivel d e significacin.)
Ahora que la funcin OC est completamente especificada, podemos
encontrar las coordenadas de cualquier otro punto. Por ejemplo,Ccul
es el valor d e L(102)?

L(102) = @

( 100.69 - 102
3

@(-3.1) = 0.00097

As, para l a prueba quese considera,la probabilidad de aceptar110: p =


100 cuandodehecho
p = 102 es igual a 0.00097. Portanto, la
2 es muy pequea si p = 102. Puesto
probabilidad de un error del tipo
/f., observamos que L ( L L <
) 0.00097
que L es una funcin decreciente de
para toda 11 > 102.
Si queremos escogera n y C , debemos especificar dos puntos a travs
d e los cuales pasa la grfica d e l a fbncin OC. De esta manera podemos
controlar no slo la probabilidad de error del tipo 1, sino tambin la
probabilidad de error del tipo2.
Supngase que en el ejemplo que estamos considerando deseamos
evitar el rechazo d e 110 cuando p 2 102. A s , podemos hacer L(102) =
0.01, por ejemplo, y puesto que L es una funcin decreciente de p, se
deduce que L ( p ) 5 0.01 para IL > 102. (Vease la Fig. 15.3.) Si pedimos

15.1

Introduccidn 423

(100,0.95)

(102,O.Ol)
r=100

r=102

FIGURA15.3

tambiCn un nivel d e significacin d e 0.05, obtenemos las siguientes


ecuaciones para la determinacin d e n y C:
L(100) = 0.95,L(102)

== 0.01

Estas ecuaciones se convierten en

De las tablas d e la distribucin normal encontramos queestas expresiones son equivalentes a

c - 100 6,
-2.33

1.64 =

(7 - 102

=-

6.

A fin d e eliminar n, dividimos una ecuacin entre la otra. As,

(C- 102)(1.64) = (-2.33)(C - loo),


de la cual obtenemos

Una vez que se conoce C, podemos obtener


cualquiera d e las ecuaciones anteriores.
Por lo tanto,
n=

[ -1.64)
,,,] =
3(

34.635.

elevando al cuadrado

424 Pruebas de hiptesis

15.2

15.2 Formulacin general: distribucin


con varianza conocida

normal

Hemos considerado con cierto detalle un ejemplo relacionado con una


hiptesis que implica el promedio de una variable aleatoria distribuida
normalmente. Mientras algunos de
los clculos estn ailn frescos en
nuestra mente, generalicemos este ejemplo como sigue.
Sup6ngase queX es una variable aleatoriacon distribucin N ( / La, 2 ) ,
donde n2se supone conocida. Para probar 110: p = p o contra 111: CL >
po proponemos lo siguiente: obtener una muestra de tamao
n, calcular
el promedio muestra1 X y rechazar B o si X > C, donde C es una
constante por determinar. La funcin OC de esta prueba est dada por
L ( p )=

P ( X 5 C ) = cp

(""J;;)
U

La forma general dela funcibn OC es como se indica en la figura 15.4.

p=C

FIGURA15.4
Las propiedades generales deL ( p ) se establecen fcilmente (vase el
Prob.15.4):
a) L(-oo) = 1.
b) L ( + m ) = o.
c) L ' ( p ) < O y, por tanto, L es una funcin estrictamente decreciente
d e p . (15.1)
d ) ~ " ( p=) O para p = C y, por tanto, la grfica tiene aqu un punto
d e inflexin.
e ) El aumento den hace que la curva tenga ms pendiente.

A fin d e proceder, debemos considerar dos casos.

15.2

Formulacingeneral: distribucin normal con varianzaconocida

425

Caso 1. Si se da n y especificamos el nivel d e significacin d e la


prueba (es decir, la probabilidad de un error del tipo
1) con a l g h valor
cy, podemos obtener cl valor de C al resolver la siguiente ecuacin:

e-' I 2 d t = (Y,
podemos escri-

Dcfiniendo K a en la relacin l / f i J f $
bir lo anterior como

donde K l - , puede obtenerse de


la tabla d e distribucin normal. Entonces, rechazamos Ho si

Caso 2. Si vamos a determinar n y C , debernos especificardos puntos


sobre la grfica d e l a curva OC: 1 - L(p0) = (Y,
el nivel de significacin,
y L(p1) = O
, ,la probabilidad de un error del tipo
2 para P = p 1 . Luego,
debemos resolver las ecuaciones siguientes paran y C:

Estas ecuaciones pueden resolverse para C y n! como se indic anteriormente. Obtenemos

donde K 1 - ,

y K p ya se han definido.

En el procedimiento bosquejado, hemos tratado l a hiptesis alterna. otro contexto potiva H I : p > 100 (o, en el caso general, I-1 > p ' . ~ )En
dramos considerar l i o : p = p o contra
: p :< po o H a : p = po contra
H y : p # pa. Debe ser evidente cmo modificamos la prueba anterior
para tal hiptesis alternativa. Si consideramos; H i : p < p a , rechazaramos H O si
< C y la funcin OC se definiera por

Hi

426 Pruebas de hiptesis


L(p) = P ( S

15.2

2 C ) = 1 - @ (U 6
).

Si consideramos 11:: p # /LO, rechazaramos 110 cada vez que


C y, por tanto, la funcin OC se definira como

I X -pol >

Si escogemos el mismo nivel d e significacin (Y para cada una de las


pruebas anteriores y dibujamos las grficas d e las respectivas funciones
OC en el mismo sistema de coordenadas, obtenemos lo siguiente ( A
corresponde a H I , 1~a 11; y D a 11;):

FIGURA
15.5
La figura 15.5 nos da un medio para compararlas tres pruebas que
las pruebastienenelmismo
nivel d e
estamosconsiderando.Todas
significacin. (Debe comprenderse claramente que
C es slo un smbolo
genrico para una constante y no ser%l a misma en todos los casos. Lo
importante es que en cada uno deellos se ha escogido C de modoque
l a prueba tenga el nivel d e significacin (Y.)
Si I L > /lo, entonces l a prueba A cs mejor quelas otras dos, puesto que
2.
dar un valorms pequefio para la probabilidad de un error del tipo
Sin embargo, si 11 < P O ,la prueba A es la peor delas que se estn considerando, mientras que la prueba B es l a mejor. Finalmente, la prueba
D es aceptable en general y an puede ser mejorada en cualquier caso especfico con la prueba A o la prueba B. Por tanto, obs6rvese que
es muy importante tener en mente una hiptesis alternativaespecfica,
debido a que la prueba que escojamos puede depender de esto. (Slo

15.2

Formulacidn general:distribucidn normal con varianza conocida

42 7

comparamos las pruebas que tienen el


mismo nivel de significacin; esto
no es necesario en absoluto y la comparacin resulta algo vaga
si usamos
pruebas que tienen niveles d e significacin diferentes. Ntese la semejanza con nuestra comparacin deciertos estimados: slo comparamos
las varianzas d e los estimados que eran insesgados.
En muchos casos es evidente cul hiptesis alternativa deberamos
considerar. En el caso anterior, por ejemplo, posiblemente sabemosque
el nuevo proceso defabricacin producira pinzas con la misma durabilidad o ms y, por tanto, usaramos la prueba A como sugeramos. (Si el
nuevo proceso produjera pinzas d e calidad inferior, nuestra pruebasera muy mala). Si no se garantiza ninguna d e tales hiptesis sera mejor
- pol > C. Las prueusar una prueba tal como D: rechazar H o si
bas como A y B se llaman pruebas unilutemles, mientras que una prueba
como D se llama prueba biluterul.
Al considerar hiptesis alternativas podramos encontrarla siguiente
analoga til. Supngase que una persona s e pierde de un lugar M y
sabernos que el individuo ha ido o bien a la izquierda o a la derecha de
M , mantenindose en una trayectoria rectilnea.

Si 10 personas estn disponibles para la bsqueda, <cmo deberan


dispersarse?. S nada se sabe con relacin a la ubicacin del individuo,
en cada una de
esas
podra ser razonable enviar un grupo5 personas
de
direcciones, luego despachar un grupo de bsqueda muy
efectivo, pero
no muy fuerte, tanto a la izquierda como a la derecha. Sin embargo, si
hay algn indicio
de quela persona ha caminado laaizquierda, entonces
posiblemente todos, o la mayor parte d e los hombres disponibles, deberan ser enviados a la izquierda, haciendo una bsqueda muy efectiva,
pero ineficaz a la derecha. Otras consideraciones podran tambin influir en el uso de los recursos disponibles. Por ejemplo, supngase que
la trayectoria a la izquierda conduce a un terreno plano
con bosque,
mientras que la trayectoria a la derecha sigue el borde de unprecipicio
profundo. Es obvio que eneste caso la mayor bsqueda se concentrara
a la derecha, debido a que las probabilidades d e estar perdido de este
lado son mucho mayores quelas de la izquierlda.
La analoga debera ser evidente. Al probar hiptesis tambin debemos interesarnos en las consecuencias de nuestradecisin para rechazar
o aceptar 110. Por ejemplo, ?es tan importante el error que cometemos

42 8 Pruebas de hiptesis

15.2

al aceptar algunas pinzas que son de mala calidad (creyendo que 110 lo
son), como no aceptar las pinzas q u e son de buena calidad (creyendo
que no lo son)?
O b s e r v a c i h En la formulaci6n anterior sugerimos que a menudo preasignamos el nivel d e significacin de la prueba. Esto se hace frecuentemente;sin
embargo, existe otro planteamiento del problema qne es muy comiln y que
deberemos analizar.

Volvamos alejemplo15.1,dondeprobamos
110: p = 100 contra
> 100. Supngase que slo obtenemos una muestra de tamao
50, calculamos el promedio muestra] X y encontramos que es iglal a
o rcchazar H o ? Podemosargumentar
100.87.?Deberamosaceptar
como sigue: si p = 100, entonces X tiene distribucin ~ ( 1 0 0&l.
,
As,
podemos calcular,

171: p

P ( X 2 100.87) = P

(" 3 1 0

100.87 - 100
3
h 0 )

= 1 - a(2.OG)= 0.019699.

Puesto que 0.01 < 0.019699 < 0.05, diremos que el valor observado es
significativo al nivel del 5%, pero no alnivel del 1%. Es dccir, si usamos
a: = 0.05, rechazaramos 110,mientras, que al mismo tiempo, si usamos
a: = 0.01, no deberamos rechazar 13,.
Por decirlo de modo diferente, si p = 100, obtenemos un resultado
que ocurrir slo alrededor del 1.9% d e las veces. Si creemos que para
aceptar 110 un resultado debera tener por lo menos una probabilidad
d e ocur-rir de 0.05, entonces la rechazamos. Si estamos satisfechos con
una probabilidad de 0.01 la aceptamos.
Obse?vacio',l: La prueba anterior estipulque I10 debera ser rechazada
siempre que ,%
> C.' Suponiendo que el tamao
muestra1 n, = 2, el criterio anterior
se reduce a ( S I + ,Y2)/2 > C o, equivalentemente, (Xl + X , ) > b. Luego, el
conjunto d e valores muestrales posibles (21,22) se ha dividido en dos regiones:
R = { ( ~ 1 , ~ 2 ) 1+~22
1 > b} y R .
La regin especfica R depende por supuesto, delvalor d e b, que a su vez
depende del nivel de significacin de la prueba R, la regin d e rechazo, que
algunas vcces se llama regwn critica de la prueba. (Vase la Fig. 15.6.)

Ejemplos adicionales 42 9

15.3

FIGURA15.6
En general, una prueba puede describirse en terminos d e su regin
crtica R. Es decir, rechazamos 110 si y slo si ~ ( q ,. .. ,z n ) E R.

15.3 Ejemplos adicionales


En vez d e formular una teora general para
la prueba de hiptesis
que existe y es muy extensa), consideraremos algunos ejemplos. En
cada uno delos casos, la prueba que propondremosserP intuitivamente
atractiva. No se harA ningn esfuerzo para indicar que una prueba
especial es mejor en algn sentido.

EJEMPLO15.2. Secomparandos procesos de produccin. El resultado del proceso A puede caracterizarse como una variable aleatoria X con distribucin N ( p Z ,a:), mientras que el resultado del proceso
B puede caracterizarse como una variable aleatoria Y con distribucin
N ( p y ,u,).Supondremos que se conoce la variabilidad intrnseca en cad a u n o d e los procesos, medida por la varianza. Deseamos probar las
hiptesis Ho: px = p y ycontra la hiptesis alternativa H I : px - p y > O.
Obtenemos una muestra de tamao n d e X, digamos X I , . . . , X n ,
y una muestra de tamao m d e Y , sea Yl,. . . ,Ym. Calculemos los
respectivos promedios muestrales R y
y propongamos la prueba
siguiente para probarlas hiptesis anteriores.
Rechazamos Ho si - Y > C, donde C es una constante escogidad e
modo quela prueba tenga unnivel de significacin especficoigual a a.
Y

/d-

La variable aleatoria 2 = [(X - Y ) - ( F , ~ py)]


tiene distribucinN ( 0 , l). Definiendo p = p z --py, podemos expresarl a

de 43 O Pruebas

15.3

hiptesis

funcin OC d e la prueba anterior como una funcin de


p , d e l a manera
siguiente:

Ahora p z = p Y es equivalente a 11 = O. Por lo tanto, para determinar C


debemos resolver l a ecuacin

L ( 0 ) = 1 - cr
O

Por lo tanto,

donde ICa estci definida, como antes, por la relacin cr =


2

e-'

(l/&JF;

/ 2 d t . Luego,

(No intentaremos resolver el problemade determinar ptimamente


ny
na. Una exposicin d e este problema se encuentra en Derman y Klein,
Probability and Statistical Inference for Engineers, Oxford University Press,
Nueva York, 1959.)

EJEMPLO15.3. U n fabricante surte un pedido fusibles,


de
d e los cuales el 90% aproximadamente funcionan bien. Se
inicia un nuevo proceso
con el objetode aumentarla proporcin defusibles que funcionen bien.
As, deseamos probarla hiptesis Ho: p = 0.90 contra H I : p > 0.90, dond e p es la proporcin d e fusibles que funcionan correctamente.(Es decir,

Ejemplos adicionales 43 1

15.3

estamos probando la hiptesis de que no ha ocurrido ninguna mejora


contra la hiptesis de que el nuevo proceso es superior.) Obtenemos
una muestra de 50 fusibles fabricados con el nuevo proceso
y contamos el nmero de fusibles que funcionan correctamente, digamos X .
Propongamos la prueba siguiente:
Rechazar HO siempre queX

> 48 y acept,arla en caso contrario.

Suponiendo que la variable aleatoria X tiene una distribucin binomial con parmetro p (que es una suposici~~
realista si la muestra se
toma de un lote muy grande), obtenemos
la siguiente expresi6n parala
funcin OC

L(p) = P(X

5 48) = 1 - P ( X 2 49)

despues de algunas simplificaciones algebraicas. Por lo tanto, tenemos


lo siguiente

L ( 0 ) = 1.
b ) L ( 1 ) = O.

a)

c) L(p) < O para toda p, O


d ) L(p) = O s i p = 48/49.

< p < 1.

[Las propiedades c ) y d) se verifican fcilmente con una derivaci6n directa.]


A s , la grfica de la anterior funcin L
tiene la forma d e la curva que se muestra en la figura 15.7. El nivel d e significacin a de esta prueba se obtiene al
calcular 1 - L(0.9). Obtenemos
a

= 1 - L(0.9)
= (0.9)49[50 - 44.11

= 0.034

FIGURA15.7

Obseruacwnes: a) El ejemplo anterior se puede generalizar como sigue. Supngase queX es unavariable aleatoria distribuida binomialmente con base en

432 Pruebas de hiptesis

15.3

n repeticiones de un experimento con parmetro p . Para probar la hiptesis


110: p = PO contra H I : p > PO, proponemos la prueba siguiente.
Rcchazar HO siempre queX > C , donde C es una constante por determinar.
(Por tanto, aceptarHo siempre queX 5 C.)
La funcin OC d e esta prueba serd e la forma

(15.2)
Las siguientes propiedadesd e L se verifican fcilmente. (VCase el h o b . 15.5.)
I) L ( 0 ) = 1;L(1) = o
2) L,'(p) < O para todap , O
te.)

< p < 1. (Por tanto, L es estrictamente decrecien-

3 ) L"(p) = O s i p = C / ( n - 1). [Luego, L tiene un punto de inflexin en


C / ( n - I).]

b ) Hemos dicho que en algunos casos podemos aproximar l a distribucin


binomial conla distribucin d e Poisson. Es decir, si n es grande y p es pequea,
P ( X = k ) 21 e - n p ( n p ) k / k !Usando esta frmula d e P ( X = k ) , encontramos
que la funcin OC para la prueba propuesta anteriormente se reduce
a
(15.3)

Las propiedades siguientes d e R tambin se pueden verificar con


facilidad. (Vase el Prob. 15.6.)
4 ) R(0) = 1; R(1) = o
5) R'(p) < O para toda p , O
6) R " ( p ) = O s i p = C / n .

< p < 1.

7) R ( C / n )es una Lunci6n solamente d e C y n o d en.

Reconsideremos el problema de probar 110: IL = /LO contra H I : I L >


/LO, donde S tiene distribucin N ( p , u 2 ) .Previamente suponamos que
u2 era conocida. Eliminemos ahoraesta restriccin.
Nuestra prueba anterior rechazaba110siempre que( X - r ~ o ) J ; ; / o >
G; C estaba determinada considerandoel hecho de que( X - p o ) f i / u
tiene distribucin N ( 0 , l ) si p = /LO.
Tal como construimosun intervalo d e confianza parap cuando u2 era
desconocida, estimemos ahorau' a partir d e b2 = [ l / ( n - l)]Cy=l("i;-

15.3

Ejemplos adicionales

433

x)2.Usernos una prueba anloga ala propuesta anteriormente: rechacemos H O siempre que ( X - p)fi/& > C. Piara determinar C usemos
el hecho de que(x- PO),/%/& tiene una distribucint de Student con
(n - 1) grados de libertad si p = p o . (Vase el Teorema 14.3.)

Sea (Y el nivel d e significacin prefijado. Lutego, Q = P[(.,T-po),/Z/&


se obtiene d e la tabla de la distribucin
t deStudent. (VCase la Fig. 15.8.) Rechazamos 110 cada vez que
1
X > &tn-l,1-an-2
[LO, as obtenemos nuestra prueba.

> C] implica que C = in-],

EJEMPLO15.4. Supngase que X, la precipitacin pluvial anual en


cierta zona, estd distribuida normalmente con E(A) = 30.0 pulgadas.
(Este valor se ha establecidode un gran registro histrico de datos meteorolgicos.) En aos recientes, parece
evidlente que ciertos cambios
climatolgicos afectan, en otras cosas, la precipitacin anual. Seestablece la hiptesis de que de hecho la precipitacin anual ha aumentado.
En particular deseamos probar Ho: p = 30.0 contra H I : 1-1 > 30.0. La
varianza se supone desconocida, puesto quelos cambios climatolgicos
sugeridos tambin pueden afectar la variabilidad d e la lluvia cada, y,
por tanto, los datos anteriores sobrela varianza no son significativos.
Supongamos que en los ocho aos anteriores se ha registrado
la
siguiente precipitacin anual (pulgadas):
34.1, 33.7, 27.4, 31.1, 30.9, 35.2, 28.4, 32.1.

Clculos directosquedan
= 31.6 y
distribucin t encontramos que

e2 ==

7.5. De la tabla d e la

Luego,

Por tanto, no rechazamosNo al nivel d e significacin d e 0.05.

434 Pruebas de hiptesis

15.4

15.4 Prueba para la bondad de ajuste


En la mayora d e nuestras exposiciones supusimos que
la variable aleatoria considerada tiene una distribucin
especfica. En el captulo anterior
y en las primeras secciones d e &e aprendimos c6mo resolver el problema de tener un parametro desconocido asociado con una distribucin
d e probabilidades.
Sin embargo, puede suceder que an no estemos seguros sobre la
forma general d e la distribucin que se tiene. Consideremos algunos
ejemplos.

EJEMPLO15.5. Unos buques mercantes de cierto tipo estuvieron expuestos durante 400 das a riesgos d e accidentes por tormentas, hielo,
incendio, encallamiento, avera d e mquinas, etc. El nmero de accidentes, digamosX, de cada barco, puede considerarse como una variable aleatoria. Se registraron los siguientes datos:
Nmero de accidentes (X):
Nmero de barcoscon X accidentes:

Los datosanteriores
Poisson?

I o

1448

805

206

34 4 2

?justifican que X tieneunadistribucinde

EJEMPLO15.6. Supngase que se tienen 20 muestras d e u n tipo


especial d e cables y que las resistencias se miden en ohms. Se obtienen
los valores siguientes:
9.8,14.5,13.7,7.6,10.5,9.3,11.1,10.1,12.7,9.9,
10.4,8.3,11.5,10.0,9.1,13.8,12.9,10.6,8.9,9.5.
Si R es la variable aleatoria d e la cual se obtiene la muestra anterior,
?tenemos razn al suponer que R est distribuida normalmente?

EJEMPLO15.7. Seprueban 20 tuboselectrnicos


duracin de cada uno de
ellos (en horas):

y seanota

7.2,37.8,49.6,21.4,67.2,41.1,3.8,8.1,23.2,72.1,
11.4,17.5,29.8,57.8,84.6,12.8,2.9,42.7,7.4,33.4.

la

Prueba para la bondad de ajuste 435

15.4

Los datos anteriores son consistentes con la hiptesis de que T , la variable aleatoria conla que seest haciendo el muestreo,est distribuida
exponencialmente?
Los ejemplos anteriores son tipicos de una. gran clase d e problemas
que aparecen con frecuencia en aplicaciones. IHay varias tcnicas estadsticas conlas cuales se pueden analizartales problemas; a continuacin
consideraremos algunas d e ellas.
El problema de probarla hiptesis de que una
variable aleatoria tiene
cierta distribucin especfica puede considerarse como un caso especial
del siguiente problema general.
Considrese nuevamente las condiciones que dan origen ala distribucin multinomial (vase la Sec. 8.8). Un experimento E se efectfia
n veces. Cada una de las repeticiones d e E Ida como resultado uno y
s610 u n o d e los eventos A;, i = 1,2,. . . , k . Supbngase que P ( A ; ) = pi.
Sea n; el nmero de veces que ocurre A; entre las n repeticiones d e
~ , n+l- . - + n k = n.
Deseamos probar la hip6tesis Ho: p; = pi,, i = 1,.. . ,k , donde p;, es
un valor especfico. Karl Pearson (1900) introdujo la siguiente prueba
de bondad deajuste para probarla hiptesis anterior:

Rechazar Ho siempre
que

D2 =

i=l

(ni - ripio)
nPio

> c,

(15.4)

donde C es una constante quese va a determinar.


Observaciones: a) Puesto que E ( n i ) = np;, sipi = pi,, este criterio para probar
tiene u n considerable atractivo intuitivo. Exige que rechacemos Ho siempre
que la discrepancia entre los valores observados n; y los valores esperados
np;, sea muy grande.Algunas veces el estadstico D2 anterior se escribe d e
k
manera muy sugerente como Ci=l(o;
- e i ) / e ; , donde o; y e ; representan,
respectivamente, el valor observado y esperado de n;.
b ) Es importante establecer que D2 es u n estadstico (es decir, una hncin
d e los valores observados ni, . . . , n k ) y es, por tanto, unavariable aleatoria. En
realidad, D2 es unavariable aleatoria discreta que toma un gran nmero
finito
d e valores. La distribucin actual d e D2 es muy complicada. Por fortuna, hay
una aproximacindisponible para la distribucin d e D 2 , v5lida si n es grande,
y que hace muy til el procedimiento sugerido.

436 Pruebas de hiptesk

15.4

Teorema 15.1. Si n es suficientementegrande, y si pi = p i o , la


distribucin d e D 2 tiene en forma aproximada la distribucin xcuadrada con ( b - 1) grados de libertad.
Demostruci6n: El argumento siguienteno es una demostracin rigurosa. Slo es un intento de hacer plausible el resultado.
Consideremos un caso especial, es decir, b = 2. Entonces,

Ahora 1 =

Ylj, donde

Y13 = 1
=O

si Alocurre en la j-sima repeticin,


encualquierotro

caso.

puede expresarse como l a suma de n variables aleatorias independientes y de acuerdo conel teorema del lmite central, tiene
si n es grande. Adems,
aproximadamente una distribucibn normal
E ( n 1 ) = n p l o y V(nl) = n p l o ( l - p l o ) si plo es el valor verdadero de
pl. Por tanto, si pl = p l o , entonces para n grande la variable aleatoria (nl - nplo)/Jnplo(l - plo tiene aproximadamente la distribucin
N ( 0 , l ) . Luego, de acuerdo con el teorema 10.8 para una n grande, la
variable aleatoria
As,

721

tiene aproximadamente la distribucin

1 2

x!

15.4

Prueba para la
debondad

ajuste

437

Hemos demostrado que si n es suficientemente grande, D 2 (con


IC = 2) tiene aproximadamente la distribucih x:. Pero precisamente
esto es lo que sostenamos en el teorema. La demostracin para una
IC en general sigue la misma lnea: debemos demostrar que D 2 puede
expresarse como la suma de cuadrados de (k - 1) variables aleatorias
independientes, cada una con distribucin N ( 0 , l ) si n es grande, y si
p; = p;, y, recurriendo al teorema 10.8, enco:ntramos que se deduce el
resultado anterior.

Podemos usar el resultado ya establecido para responder a la preD 2 a fin de rechazar la hiptesis
gunta cun grande debera ser
I():pi = pio.
Supngase que queremos obtener una probabilidad de un error del
d e significacibn)igual a 0.05. Estosignifica
tipo 1 (esdecir,elnivel
que esperamos rechazar 110 alrededor del 5% d e las veces, cuando en
realidad HO es verdadero. Luego, elegimos C para satisfacer

Puesto que D 2 tienedistribucin


si pi = pio, podemosobtener
el valor d e C d e la tabla d e la distribucih X-cuadrada; es decir C
2
2
o.95; donde ~ k - o.95
~ , est definida porla relacin

donde gk-1 (z)es la fdp de una


variable aleatoria con distribucinxi-l.
(Vase la Fig. 15.9.)
Usemos las ideas que desarrollamos para responder algunas preguntas planteadas al comienzo d e esta seccin: <cmo podemos encontrar
una prueba para decidir si se acepta o se rechaza la hiptesis de que se

43 8 Pruebas de hipdtesis

15.4

tom una muestra particular de una variable aleatoria con una distribucin especifica?
En este punto debemos hacer una distincin entre los dos tipos d e
problemas. Simplemente podramos formular
la hiptesis de que la
variable aleatoria que se muestrea tiene alguna distribucin normal,
sin
especificar los parmetros implicados.
O podramos ser ms explcitos y formular la hiptesis de que la
variable aleatoria que se considera tiene una distribucin normal con
promedio y varianza especficos. Los dos problemas pueden tratarse de
manera semejante, peroel segundo (cuandoespecificamos completamente
la distribucin hipotktica) es un poco ms simple y lo consideraremos
primero.
Caso 1. Prueba para una distribucin completamenteespecificada.

EJEMPLO15.8. Supngase que creemos que la duracin T de bombillas elctricas est distribuida exponencialmente con parmetro ,B =
0.00.5. (Es decir, el tiempo esperado para que ocurra la falla es d e 200
horas.) Sacamos una muestra de 150 bombillas, las probamos y anotamos el tiempo en quese queman, digamosT I , . . . ,T150. Consideremos
los cualro eventos mutuamente excluyentes:
A2: 100 < T < 200;
A4: T 2 3 0 0 .

A l : O < T < 100;


A3: 20g 5 T < 300;

Supngase que registramosn;, el nmero deveces (entre los 150 tiempos para que se presente la falla) que ocurri el evento A ; , y encontramos nl = 47, n2 = 40, n3 = 35 y n4 = 28. A fin de evaluarel estadstico
D 2 debemos calcular p ; , i = 1,2,3,4.
Ahora.
pl = P(T

5 100) = 1 - e -0.005(100)

1 - e -0.5 - 0.39,

5 T < 200) = 1 - e -0.005(200) - o .39 = 0.24,


-0.005(300)
- (1 - e- O ~ O O 5 ( 2 O O ) )
= P(200 5 T < 300) = 1 - e

p2 = P(100
p3

p4 =

P(T

> 300) = e "0.005(300)

Ahora podemos calcular

= 0.22.

= 0.15,

15.4

Prueba paIra kz bondad de ajuste

(47 - 58.5)2
58.5 22.5

(40 - 36)2(35
36

22.5)2(28
- +

- 33)2

33

439

= 11.56.*

En las tablas de la distribucin X-cuadrada encontramos que P ( D 2 >


11.56) < 0.01, donde D2 tieneaproximad.amente la distribucin xcuadrada con 4 - 1 = 3 grados d e libertad. Por lo tanto, rechazaramos
(al nivel del 1%) la hiptesis de quelos datos representan una muestra
de una distribucin exponencial con parmetro,f3 = 0.005.

El ejemplo anterior ilustrael procedimiento general que usamos para


probar la hiptesis de que X I , . . . , X n representa una muestra de una
variable aleatoria con una distribucin compl.etamente especificada:
a) Dividir la recta real en k intervalos mutuamente excluyentes, A l ,

. . . ,Ak.
b ) Sea N ; el nmero de valoresmuestrales que caen en A ; , i =
1 , 2,...,k.
c) Sea pio = P ( A ; ) . Esos valores se pued.en calcular puesto
que la

hiptesis especifica completamente la distribucin.


d) Calcular D2 y rechazar la hiptesis si D > C, donde C se obtiene
d e la tabla de la distribucin X-cuadrada. Si se requiere un
nivel d e
significacin a , C = x 2~ - ~ , ~ - ~ .
Observacin: No analizaremos como se deben escoger los intervalos A; o
cuntos deberan escogerse. Establezcamos slo la regla siguiente: si ripio < 5
para cualquier A;, combinar los datos con A;+1 o Ai-1. Es decir, no deseamos
subdividir el espacio muestra1 d e la variable aleatoria c n partes tales que el
nimero esperadod e ocurrencias en cualquier subclivisicinparticular sea menor
que 5. [Una exposicin amena d e este problema puede encontrarse en el
artculo d e W. G. Cochran tituladoThe ;y2 -Test of Goodness of Fit publicado
en Ann. Math. Slat. 23,315-345 (1952).]

Caso 2. Prueba para una distribucinsi deben estimarselos parmetros.


*N. del E . Un resultado m8s exacto d e esta operaci6n es 10.41.

440 Pruebas de hiptesis

15.4

En muchos problemasslo tenemos razones para suponer quel a variable aleatoria quese est muestreando tiene una distribucin
d e cierto
t@o sin que podamos especificar los parmetros. Por ejemplo, sabemos
que ciertas hiptesis que hemos formulado pueden conducirnos a una
distribucin d e Poisson, a una distribucin exponencial, etc. A fin d e
aplicar la tcnica sugerida enla seccin anterior debemosconocer los valores d e los parmetros de la distribucin.
Si noconocemos esos valores,el planteamiento obvioes estimar
primero los parAmetros desconocidos,y luego usaresas estimaciones para
evaluar las probabilidades p;. Aparecen dos interrogantes.
u ) Cmo se deberan estinlar los parmetros?
b ) Si se usa @;(es decir, el parmetro estimado) en vez d e p;, en l a
expresin de D 2 , cmo afecta esto l a distribucin d e D 2 ? (El hecho
de que afectar la distribucin debe ser evidente si comprobamos que
originalmente las pi, eran constantes, mientras que ahora las p; son
ellas mismas variables aleatorias, dando as una estructura mucho ms
complicada a la variable aleatoria O.)
Daremos (sin demostracin) algunas respuestas a las interrogantes
anteriores.
u ) Los estimados usados normalmente para los parmetros son los
que se obtienen por el mtodo dela mAxin1a verosimilitud.
O ) Si el nmero de parmetros estimados es igual a r < b, entonces
para una n grande, la variable aleatoria U 2 tiene otra vez una distribucin X-cuadrada, esta vez con X: - 1 - T grados de libertad.
Obselvaciw Este idtimo hecho es m u y notable.Significaque
D2 tiene la
misma distribucin fundanlenta1 s2que antes; la nica diferencia es que se
pierde 1111grado de libcrtxl por cada parmetro que debe estimarse.

EJEMPLO15.9. Consid6rense los datos del contenido d e ceniza en


el carb6n corno aparecen en el ejemplo 14.6. Supngase que deseamos
probar la hiptesis de queesos datos se obtuvieronde unavariable aleatoria distribuida normallncnte. Primero debemos estimar los parmetros correspondientes p y o.
Previamenteobtuvimos los estimados ML i = 17.0 y c ? ~ = 7.1.
Dividamos los valores posibles de A e n cinco categoras:

Prueba para la
debondad

15.4

ajuste

441

Sea n.i el nmero deveces que ocurre A;. Encontramos que


nl

= 7;

n2 = 49;

n3

= 109;

7x4

= 67;

n5 = 18.

A continuacin debemos calcularpi = P ( A ; ) ,usando los valores estimados de i y e2 ya obtenidos. Tenemos

--)2.7- 17

p1 = P ( X

X - 1712
< 12) = P 2.7 <

p2 = P(12

5 X < 15) = @(-0.74)

p3 = P(15

5 X < 18) = Q(0.37) - @(-0.74) = 0.41,

p4 = P(18

5 X < 21) = Q(1.48) - a(0.3'7)

$5

= P(X

= @(-1.85) = 0.03,

@(-1.85) = 0.20,
= 0.29,

2 21) = 1 - Q(1.48) = 0.07.

Ahora podemos evaluar

D2

=x

( n ; - 250@;)2
250j;
i=l

(7 - 7.5)2 (49 - 50)2


7.5 102.5
50

"

(67 - 72.5)2
72.5

"

((109- 102.5)2

(18 - 17.5)2
17.5
'

= 0.82.
Puesto que D 2 tiene 5 - 1 - 2 = 2 grados d e libertad, en las tablas de la
distribucin X-cuadrada encontramos que P( D 2 2 0.82) N 0.65 y que,
por tanto, deberamos aceptarla hiptesis de normalidad.

EJEMPLO15.10. Consideremos los datospresentadosenelejemplo 15.5. Tiene l a variable aleatoria X, es decir, el nmero de acci-

dentes durante el periodo especificado de 400 das, una distribucin d e


Poisson?
Estimemos primero el parmetro X d e la distribucin. En el captulo
14 encontramos que el estimado ML d e X estA dado por el promedio
muestral. As,

442 Pruebas de hiptesis

x =
A

O(1448)

+ l(805) + 2(206) + 3(34) + 4(4) + 5(2) + 6(1)


1448 + 805 + 206 + 34 + 4 + 2 + 1

1351
2500

= 0.54.

Sea A l : X = O; A2: X = 1; 43: X = 2; A4: X = 3; A5: A =>


- 4..
Luego, nl = 1448; n2 = 805; n3 = 206; n4 = 34; n5 = 7, y obtenemos
$1

= P ( X = O) = e -(0.54) - 0.58

p2

= P ( X = 1) = e -0.54 (0.543) = 0.31

$3

= P ( S = 2) = e

-0.54

y nl;l = 1450

(0.543)2
= 0.08
2

y n.p2 = 775
y

np3 = 200

Ahora podemos evaluar

(206 - 200)2
200

(34 - 25)2
25

(7 - 50)
= 42.2.
50

Puesto quehay cinco categorasy estimbamos un parmetro,la variable


aleatoria 0tiene la distribucin aproximada x:. En las tablas de l a
distribucinx-cuadradaencontramosque
P ( D 2 2 42.2) E O y, por
tanto, deberamos rechazar la hiptesis.

PROBLEMAS
15.1. Suponer queX tiene distribucin N ( , L Iu*)
, con c2 conocida. Para probar
Ho: ,LI = ,LIO contra H I : L,I < ,LIO se propone el mtodo siguiente: obtener una
muestra d e tamao n y rechazar Ho siempre que el promediomuestra1 < C,
donde C es una constante que debe determinarse.
a) Obtener una expresin para
la funcin OC, L ( p ) en trminos d e la
distribucin normal tabulada.

Problemas

443

b ) Si el nivel d e significacin d e la prueba es a =: 0.01, obtener una expresin


para C.
c). Supngase que u2 = 4 y que se est probando Ho: ,u = 30 contra
H I : ,u < 30. Determinar el tamao muestral
n y la 'constante C a fin d e satisfacer
las condiciones L(30) = 0.08 y L(27) = 0.01.
d ) Supngase que seobtienen los siguientes valores muestrales d e X:

?Rechazara 110 contra H I como seest?bleci en c) al nivel d e significacin del


5%?

15.2. Considerar la situacin descrita en el problema 15.1, excepto que la


hiptesis alternativa es d e la forma H I : ,u # 110. Por tnnto, rechazamos H O
siempre que \X - pol > C. Responder las preguntas a) y b ) anteriores.
15.3. Sup6ngase q u e X tiene una distribucin d c Poisson con parAmetro
X. Para probar Ho: X = X0 contra 111: X > X 0 se propone la siguiente prueba.
Obtener una muestrad e tamao n, calcular elpro~medio muestral
,y y rechazar
HO siempre que > C, donde C es una constante que se debe determinar.
a ) Obtener una expresin para la funcin OC d e la prueba anterior, digamos L(X). [Indicacidn: Usar la propiedad reproductiva de la distribucin d e
Poisson.]
b ) Hacer la grfica d e la funcin OC.
c) Supngase que se prueba Iio: X = 0.2 contra H I : X > 0.2. Se obtiene una
muestra d e tamao n = 10 y rechazamos Ho si 2 > 0.25. Cu,il es el nivel d e
significacin d e esta prueba?

15.4. Establecer las propiedades d e la ecuaciln (15.1) para la filncin OC,


-%I = @KC- P>+/4.
15.5. k'erificar las propiedades parala funcin OC,L ( p ) , como se definieron
en la ecuacin (15.2).
15.6. Verificar las propiedades parala funcin OC,R(p),como se definieron
en la ecuacin (15.3).
15.7. Se sabeque una gran
remesa d e voltimetros contiene cierta proporcin
digamos p , d e defectuosos. Para probar Ho: p = 0.2 contra H I : p > 0.2 se usa
el siguiente n1todo. Se obtiene una muestra de tamao 5 y se cuenta X , el
nmero de voltmetros dcfectuosos. Si S 5 1, seacepta H o , si X > 4, se
rechaza Ho; y si ,y = 2 , 3 o 4 se obtiene una segunda muestrade tamalio 5. Sea
Y el ndmero de instrumentosdefectuosos en la segunda muestra. Se rechaza
Ho si Y 2 2 y se acepta en caso contrario. (Se supone queel lote muestreado es
suficientemente granded e modo que pueda suponerse que
S y Y son variables
aleatorias independientes distribuidasbinomialmente.)

444 Pruebas de hiptesis


a ) Obtener una expresin paraL ( p ) , la funcin OC d e la prueba anterior, y
dibujar su grjfica.
b ) Encontrar el tamalio d e la prueba anterior.
c) CCuA es la probabilidad de un error del
tipo 2 si p = 0.5?

15.8. Si n = 4 y IC = 3 , ?cuntos valores posibles puede tomar la variable


alcatoria D 2 , como se definien la ecuacin (15.4)?
15.9. a ) Calcular el valor esperado d e la variable aleatoria D 2 , como se
defini en la ecuacin (15.4).
b ) ?Cmo se compara este valor con el valor esperado (asinttico) d e D 2
obtenido con la distribucin X-cuadrada que puede usarse para aproximar la
distribucin de D 2 cuando n es grande?
15.10. Mediante un nuevo proceso se preparan tres clases d e lubricantes.
Cada uno delos lubricantes se prueba con cierto nfimerode mquinas, y luego
el resultado se clasifica como aceptable. Los datos de la tabla 15.1 representan
los resultados d e este experimento. Probar la hiptesis de quela probabilidad
;I de qne unlubricante tenga un resultado aceptable es la misma para los tres
lubricantes. [Indicacin: Estimar primero p d e la muestra.]

TABLA
15.1
Lubricante 1 Lubricante
Lubricante 2

Aceptable

144

152

140

I naccp table

56

48

60

200

200

200

Total

15.11. Al usar varias leyes d e falla se ha encontrado que la distribucin


exponencial desempea un papel muy importante y que, por tanto, interesa
poder decidir si una muestra particular d e tiempos para que se presente una
falla proviene d e una distribucin exponencial bAsica. Sup6ngase que se han
probado 335 bombillas y el resumen siguiente de su duracin T (en horas) est5
disponible:
Duracin
(enhoras)
Nilmero

de bombillas

O<T<100

lOO<T<200

2005T<300

300<T<400

T1400

82

71

G8

62

52

De los tiempos registrados para que ocurra la falla, se encontr que T , el


promedio muestra], era igual a 123.5 horas. Usando esta informacin, probar

Problemas

la hiptesis de que T , el tiempo para que ocurra


exponencialmente.

445

la hlla, est5 distribuido

15.12. Sup6ngase que la variable aleatoria X tiene la siguiente fdp:

Para probar Ho: (Y = (YO se propone la siguiente prueba. Obtener una observacin de X, sea XI, y rechazar Ho si X 1 > 1.
a) Obtener unaexpresin para la funcin OC, L ( ( Y ) , de esta prueba y hacer
su grfica.
6) Cul es el tamao de esta prueba si (YO = ~ / 4 ?
15.13. En una malla de 165 celdas, secont el nmero de granos de grafito
en cada celda. A s se obtuvieron los datos de la talbla 15.2. Probar la hip6tesis
de que el nmero de granos en cada una de las celdas esuna variable aleatoria
s
l observaciones 5 2 y
con una distribucin de Poisson. [Sugerencia: Reunira
tambin aquellas 2 10.1

TABLA
15.2
Nmero de granos de Observados Nmero de granos de Observados
grafito por celda
grafito por celda
O

2
3

1
1

7
20

34
30

17

8
9
10

22

12

11

21
4

Referencias
La siguiente lista de referencias, d e ningiln !modo es exhaustiva, permite brindar al lector interesado la oportunidad de encontrar diversas
lecturas suplementariasy complementarias sobrelos diversos temas que
se presentan en el texto. Adems de encontrar varios temas que no se
incluyen en esta presentacin, el lector encontrar otros tratados con
mayor detalle o desde un punto devista un tanto diferente.
Adems de tomar nota de los textos que figuran a continuacin, el
lector deber5 estar consciente de ciertas
revistas profesionales en las
cuales se hacen contribuciones importantes. Muchas
d e esas revistas,
por supuesto, son escritas por personas que: poseen una experiencia
y dominio del tema considerablemente mayores que las que pueden
obtenerseestudiandounsemestre.
Sin embargo, varias d e ellas en
y alalcance del estudiante
ocasiones contienenartculosmuyclaros
que ha dominado la materia de este texto; entre Cstas estn Journal of
the American StatisticalAssociation y Echnometrics. La ltima, d e hecho
se subtitula A Journal ofStatisticsfor
the Physical, Chemical, and
Engineering Sciences, y, por lo tanto, puede.n ser de inters particular
para aquellos estudiantes a quienes
est especialmente dedicado este
texto.
Muchos de los libros listados contienen anlisis de la mayora d c los
temas incluidos en este texto. No obstante, algunas de las referencias
son ms especializadas y particularmente pertinentes slo para algunos
captulos. En tales casos, los captulos especficos figuran entre parntesis despus delas referencias.
En ingls:

BAZOVSKY,
I., Reliabilily The091 and Pmctice, Englewood Cliffs, Nueva
Jersey, Prentice-I-Iall, Inc., 1961 (1 1).
BERMAN,
SIMEONM., The Elenlents of Probability, Reading, Mass.,
Addison-Wesley Publishing Co., Inc., 1969.

448 Referencias
BOWKER,A. H. Y G. J. LIEBERMAN,
Engineering Statistics, Englewood
Cliffs, Nueva Jersey, Prentice Hall, Inc., 1959.
DERMAN,C. Y M. KLEIN,Probability and Stutistical Inference for Engineers, Nueva York, Oxford University Press, 1959.

EHRENFELD,
S. Y S. B. LITTAUER, IntroductiontoStatisticalMethod,
Nueva York, McCraw-IIill Book Co., 1964.
FELLER,W., An Introduction to Probability Theory and Its A$plicutions, vol.
1, sa. ed., Nueva York, John Wiley and Sons, Inc., 1968 (1, 2, 3).

FREUND,
J. E., Muthemutical Statistics, Englewood Cliffs, Nueva Jersey,
Prentice-Hall, Inc., 1962.

FRY,T.C.,Probability and Its Engineering Uses, 2a. ed., Princeton, Nueva


Jersey, D. Van Nostrand, 1964.
GNEDENKO,
B. V., The Theory of Probability (traduccin del ruso), Nueva
York, Chelsea Publishing Co., Inc., 1962.

GUTTMAN,I. Y S. S. WILKS,Introductory Engineering Statistics,


York, John Wiley and Sons, Inc., 1965.

Nueva

HABER,A., R. P. R U N Y O N
Y P. BADIA,
Readings in Statistics, Reading,
Mass., Addison-Wesley Publishing Co., Inc., 1970.
LINDGREN,
B. W., Statistical Theory, 2a. ed., NuevaYork, the Macmillan
Co., 1968.
LINDGREN,
B. W. Y G. W. MCELRATH,Introdu.ction to Probability and
Statistics, 3a. ed., Nueva York, T h e Macmillan Co., 1969 (13, 14, 15).
LLOYD, D.K. Y M. LIPOW, Reliability: Management, Methods, and
Muthematics, Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc.,
1962
(1 1).
JR., Introduction to Probability
MCCORD,J. R., I11 Y R. M. MORONEY,
T h e o v , Nueva York, the Macmillan Co., 1964.
MILLER,.I. Y J. E. FREUND,Probubility and Stutistics for Engineers,
Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc., 1965.
MOOD,A. M. Y F. A. GRAYBILL,
Introdwtion to the Theory of Statistics,
2a. ed., Nueva Iork, McCraw-Hill Book Co., 1963.

PARZEN,
E., Modern Probability The09 and Its Applications, Nueva York,
John \Viley and Sons, Inc., 1960
WADSWORTH,
B. P. Y J. G. BRYAN,Introduction to Probability and Random Variables, Nueva York, McCraw-Hill Book Co., 1960.

Referencias

449

En espaol:
A continuacin se presenta una lista de libros en espaol parabeneficio
del estudiante y del lector en general que des'een investigar algunos de
los temas tratados en este libro
y, en especial, algunas reas particulares.
(N. del T.)
ARLEY, NIELSY RANDER BUCH,
Introduccin a la teoria de la probabilidad y de la estadistica, Madrid, Nhambra, 1968.
CARRANZA, ROQUE,
Probabilidud y estudktica, Buenos Aires, Universidad de Buenos Aires, 1965.
Mtodos mtemticos de estadstica, Madrid, Aguilar,
CRAMER, HARALD,
1968.
DIXON,JOHN,Introduccin a laprobabilidad, Mxico, Limusa-Wiley,
1970.
Y FRANK
MASSEY, Introduccin al andisis estadistico,
DIXON, WILFRID
Madrid, Ediciones del Castillo, 1965.
FREEMAN,
HAROLDA., Introduccin a la injerencia estadistica, Mxico,
Trillas, 1970.
GNEDENKO, B.
V. Y A. I. JINCHIN,
Introduccidn al cdlculo de probabilidades (traduccin del ruso), BuenosAires, 'Eudeba, 1971.
GUENTHER,WILLIAM,
Introduccina
I'ork, McGraw-Hill, 1965.

la iFferenciaestadistica,

Introduccin a la estadisticamutemcitica,
HOEL, PAUL,
1968.

Nueva

Barcelona, Ariel,

LIPSCHUTZ, SEYMOUR,
Probabilidad, Mxico, McGraw-Hill, 1970.

ISEL, EL, LOUIS, Probabilidad y estadistica, ESogotA, FondoEducativo


Interamericano, S. A., 1973.
Ros, SIXTO,Mtodosestadbticos, 5a. ed., Nueva York, McGraw-Hill,
1967.

Apndice
TABLAl . Valores de la funcin distribucibn normal cstindar*

11

0.0

1.0
0.0010

-2.9
-2.8
-2.7
-2.6
-2.5
-2.4
-2.3
-2.2
-2.1
-2.0
-1.9
-1.8
-1.7
-1.6
-1.5
-1.4
-1.3
-1.2
-1.1
-1.0
-0.9
-0.8
-0.7
-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
-0.0

0.0019
0.0026
0.0035
0.0047
0.0062
0.0082
0,0107
0.0139
0.0179
0.0228
0.0287
0.0359
0.0,346
0.0548
0.0668
0.0808
0.0968
0.1151
0.1357
0.1587
0.1841
0.2 119
0.2420
0.2743
0.3085
0.3446
0.3821
0.4207
0.4602
0.5000

2.0

3.0

0.0007 0.0005

4.0
0.0003

0.0018 0.0017 0.0017 0.0016


0.0025 0.0024 0.0023 0.0023
0.0034 0.0033 0.0032 0.003 1
0.0045 0.0044 0.0043 0.004 1
0.0060 0.0059 0.0057 0.0055
0.0080 0.0078 0.0075 0.0073
0.0104 0.0102 0.0099 0.0096
0.0136 0.0132 0.0129 0.0126
0.0174 0.0170 0.0166 0.0162
0.0222 0.0217 0.0212 0.0207
0.02881 0.0274 0.0268 0.0262
0.0352 0.03.14 0.0336 0.0329
0.0.136 0.0427 0.0418 0.0409
0.0537 0.0526 0.0516 0.0505
0.0655 0.0643 0.0630 0.0618
0.0793 0.0778 0.0764 0.0749
0.0951 0.0934 0.0918 0.0901
0.1131 0.1112 0.1093 O. 1075
0.1335 0.1314 0.1292 0.1271
0.1562 0.1539 0.1515 0.1492
0.181f4 0.1788 0.1762 0.1736
0.2090 0.2061 0.2033 0.2005
0.2389 0.2358 0.2327 O .??97
0.2709 0.2676 0.2643 0.2611
0.3050 0.3015 0.2981 0.2946
0.3409 0.3372 0.3336 0.3300
0.3783 0.3745 0.3707 0.3669
0.4168 0.4 129 0.4090 0.4052
0.4562 0.4522 0.1483 0.4443
0.4960 0.4920 0.4880 0.4840

5.0
6.0
7.0
8.0
9.0
____
___0.0002 0.0002 0.0001 0.0001 0.0000
~0.0016 0.0015 0.0015 0.0014 0.0014
0.0022 0.0021 0.0091 0.0020 0.0019
0.0030 0.0039 0.0028 0.0027 0.0026
0.0040 0.0039 0.0038 0.0037 0.0036
0.0054 0.0052 0.0051 0.0049 0.0048
0.007 1 0.0069 0.0068 0.0066 0.0064
0.0094 0.0091 0.0089 0.0087 0.0084
0.0122 0.01 19 0.0116 0.01 13 0.01 10
0.0158 0.0151 9.0150 0.0146 0.0143
0.0202 0.0197 0.0192 0.0188 0.0183
0.0256 0.0250 0.02 14 0.0238 0.0233
0.0322 0.0314 0.0307 0.0300 0.0294
0.0401 0.0392 0.038-1 0.0375 0.0367
0.0495 0.0485 0.0175 0.0465 0.0455
0.0606 0.059-1 0.0582 0.0570 0.0559
0.0735 0.0722 0.0708 0.069-1 0.0681
0.0885 0.0869 0.0853 0.0838 0.0823
0.1056 0.1038 o. 1020 O. 1003 0.0985
0.1251 0.1230 0.1210 0.1190 0.1170
0.1469 O.ll4G 0.1-123 0.1401 0.1379
0.1711 0.1685 0.1660 0.1635 0.1611
0.1977 0.1949 0.1922 0.1 89-4 O. 1867
0.2266 0.2236 0.2206 0.2177 0.2148
0.2578 0.25 16 0.2514 0.2483 0.2451
0.2912 0.2877 0.2843 0.28810 0.2776
0.3264 0.3228 0.3192 0.3156 0.3121
0.3632 0.3594 0.3557 0.3520 0.3483
0.4013 0.3974 0.3936 0.3897 0.3859
0.4404 0.4364 0.4325 0.4286 0.4247
0.4801 0.4761 0.4721 0.4681 0.4641

*B.W Lindgren, Sdaiklkal Themy, Nucva York, The Macmillan Co., 1960.

45 2 Apndice
TABLA1. (Continuacidn)

~~

0.02.0

1.0

3.0

4.0

5.0

6.0

7.0

8.0

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
.-1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.L.
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9

0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
0.8159
0.8413
0.8643
0.8849
0.9032
0.9192
0.9332
0.9452
0.9554
0.9641
0.9713
0.9772
0.9821
0.9861
0.9893
0.9918
0.9938
0.9953
0.9965
0.9974
0.9981

0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
0.8186
0.8438
0.8665
0.8869
0.9-049
0.9205
0.9345
0.9463
0.9564
0.9648
0.9719
0.9778
0.9826
0.9864
0.9896
0.9920
0.9940
0.9955
0.9966
0.9975
0.9982

0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
0.8212
0.8461
0.8686
0.8888
0.9066
0.9222
0.9357
0.9474
0.9573
0.9656
0.9726
0.9783
0.9830
0.9868
0.9898
0.9922
0.9941
0.9956
0.9967
0.9976
0.9982

0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
0.8238
0.8485
0.8708
0.8907
0.9082
0.9236
0.9370
0.9484
0.9582
0.9664
0.9732
0.9788
0.9834
0.9871
0.9901
0.9925
0.9943
0.9957
0.9968
0.9977
0.9983

0.5160 0.5199 0.5239


0.5557 0.5596 0.5636
0.5948 0.5987 0.6026
0.6331 0.6368 0.6406
0.6700 0.6736 0.6772
0.7054 0.7088 0.7123
0.7389 0.7422 0.7454
0.7703 0.7734
0.7764
0.7995 0.8023 0.8051
0.8264 0.8289 0.8315
0.8508 0.8531 0.8554
0.8729 0.8749 0.8770
0.8925 0.8944. 0.8962
0.9099 0.91151 0.9131
0.9251 0.9265' 0.9278
0.9382 0.9394 0.9406
0.9495 0.9505 0.9515
0.9591 0.9599 0.9608
0.9671 0.9678 0.9686
0.9738 0.9744 0.9750
0.9793 0.9798 0.9803
0.9838-0;9842
0.9846
0.9874 0.9878 0.9881
0.9904 0.9906 0.9909
0.9927 0.9929 0.9931
0.9945 0.9946 0.9948
0.9959 0.9960 0.9961
0.9969 0.9970 0.9971
0.9977 0.9978 0.9979
0.9984 0.9984 a9985

0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
0.8365
0.8599
0.8810
0.8997
0.9162
0.9306
0.9430
0.9535
0.9625
0.9700
0.9762
0.9812
4.
0.9854
884 0.9887
0.9911 0.9913
0.9932 0.9934
0.9949 0.9951
0.9962 0.9963
0.9972 0.9973
0.9979 0.9980
0.9985 0.9986

0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8389
0.8621
0.8830
0.9015
0.9177
0.9319
0.9441
0.9545
0.9633
0.9706
0.9767
0.9817
0.9857
0.9890
0.9916
0.9936
0.9952
0.9964
0.9974
0.9981
0.9986

3.0

0.9987

0.9990

0.9993

0.9995

0.9997

0.9999

1.0000

0.9998

0.9998

0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
0.8340
0.8577
0.8790
0.8980
0.9147
0.9292
0.9418
0.9525
0.9616
0.9693
0.9756
0.9808,

~~

9.0

0.9999

TABLA
2. Funci6n de la distribucitjn binomial
T=n

1 - F ( x - 1) =

(r)

n = 10
x = 10

n = 10

n = 10

0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.000000 1

0.0000000

0.0000000
0.0000000
0.0000000
0.0000000

0.0000001
0.0000002
0.0000003
0.0000004
0.0000006
0.0000010
0.0000014
0.000002 1
0.0000030
0.0000042
0.0000059
0.0000082
0.0000113
0.0000153
0.0000206
0.0000276
0.0000366
0.0000.481
0.0000628
0.0000814
0.0001049
0.0001342
0.0001708
0.0002161
0.0002720
0.0003405
0.0004242
0.0005260
0.0006493
0.0007979
0.0009766

x = 9

0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000000
0.0000001
0.0000002
0.0000003
0.0000006
0.0000010
0.0000017

0.0000027
0.0000042
0.0000064
0.0000097
0.0000143
0.0000207
0.0000296
0.0000416
0.0000577
0.0000791
0.0001072
0.0001437
0.0001906
0.0002505
0.0003263
0.0004214
0.0005399
0.0006865
0.0008668
0.0010871
0.0013546
0.0016777
0.0020658
0.0025295
0.0030809
0.0037335
0.0045022
0.0054040
0.0064574
0.0076828
0.0091028
0.0107422

x=s

0.0000000
0.0000000
0.0000000
0.0000001
0.0000002
0.0000004
0.0000008
0.0000015
0.0000029
0.000005 1
0.0000087
0.0000142
0.0000226
0.0000350
0.0000528
0.0000779
0.0001 127
0.0001599
0.0002232
0.0003068
0.0004 158
0.0005362
0.0007350
0.0009605
0.0012420
0.0015904
0.0020179
0.0025384
0.003 1673
0.00392 19
0.00482 13
0.0058864
0.0071403
0.0086079
0.0103163
0.0122946
0.0145738
0.0171871
0.0201696
0.0235583
0.0273918
0.0317105
0.0365560
0.0419713
0.0480003
0.0546875

pT(yT

= 10
x = 7

0.0000000

0.0 1
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.10
0.1 1
0.12
0.13
0.14
0.15
0.16
0.17
0.18
0.19
0.20
0.2 1
0.22
0.23
0.24
0.25
0.26
0.27
0.28
0.29
0.30
0.3 1
0.32
0.33
0.34
0.35
0.36
0.37
0.38
0.39
0.40
0.4 1
0.42
0.43
0.44
0.45
0.46
0.47
0.48
0.49
0.50

0.0000000
0.0000000
0.0000000
0.0000001
0.0000003
0.0000008
0.0000020
0.0000045
0.0000091
0.0000173
0.0000308
0.0000525
0.0000856
0.0001346
0.0002051
0.0003042
0.0004401
0.0006229
0.0008644
0.0011783
0.0015804
.0.0020885
0.0027228
0.0035057
0.0044618
0.0056181
0.0070039
0.0086507
0.0105921
0.0128637
0.0155029
0.0185489
0.0220422
0.0260243
0.0305376
0.0356252
0.0413301
0.0476949
0.0547619
0.0625719
0.0711643
0.0805763
0.0908427
0.1019949
0.1140612
0.1270655
0.1410272
0.1559607
0.1718750

TABLA
2. (Continuacin)
.

1 - F ( x - 1) 1
n = 10
x = 6

0.0000000
0.0000000
0.0000001
0.0000007
0.0000028
0.0000079
0.0000193
0.0000415
0.0000810
0.0001469
0.0002507
0.0004069
0.0006332
0.0009505
0.0013832
0.0019593
0.0027098
0.0036694
0.0048757
0.0063694
0.008 1935
0.0103936
0.0130167
0.0161116
0.0197277
0.0239148
0.0287224
0.0341994
0.0403932
0.0473490
0.0551097
0.0637149
0.0732005
0.0835979
0.0949341
0.1072304
0.1205026
0.1347603
O. 1500068
0,1662386
0.1834452
0.2016092
0.2207058
0.2407033
0.2615627
0.2832382
0.3056772
0.3288205
0.3526028
0.3769531

(")
prqn-r
r

= 10
x = 5

n = 10
x=4

n = 10
x=3

n = 10

n = 10

0.0000000
0.0000007
0.0000054
0.0000218
0.0000637
0.0001517
0.0003139
0.0005857
0.00 10096
0.0016349
0.0025170
0.0037161
0.0052967
0.0073263
0.009874 1
0.0130101
0.0168038
0.02 13229
0.0266325
0.0327935
0.0398624
0.0478897
0.0569196
0.0669890
0.0781269
0.0903542
O. 1036831
0.1181171
0.1336503
0.1502683
0.1679475
0.1866554
0.2063514
0.2269866
0.2485045
0.2708415
0.2939277
0.3176870
0.3420385
0.3668967
0.3921728
0.4177749
0.4436094
0.4695813
0.4955954
0.52 15571
0.5473730
0.57295 17
0.5982047
0.6230469

0.0000020
0.0000305
0.0001471
0.0004426
0.0010285
0.0020293
0.0035761
0.0058013
0.0088338
0.0127952
0.0177972
0.0239388
0.0313048
0.0399642
0.0499698
0.0613577
0.0741472
0.08834 11
0.1030261
0.1208739
0.1391418
0.1586739
O. 1794024
0.2012487
0.2241249
0.2479349
0.2725761
0.2979405
0.3239164
0.3503893
0.3772433
0.4043626
0.4316320
0.4589388
0.4861730
0.5 132284
0.5400038
0.5664030
0.5923361
0.6177194
0.6424762
0.6665372
0.6898401
0.7123307
0.7339621
0.7546952
0.7744985
0.7933480
0.81 12268
0.8981250

0.0001 138
0.0008639
0.0027650
0.0062137
0.0115036
0.0188378
0.0283421
0.0400754
0.0540400
0.0701908
0.0884435
0.1086818
0.1307642
0.1542980
0.1798035
0.2064005
0.2341305
0.2628010
0.2922204
0.3222005
0.3525586
0.3831 197
0.4137173
0.4441949
0.4744072
0.5042200
0.53351 12
0.5621710
0.5901015
0.6172172
0.6434445
0.6687212
0.6929966
0.7162304
0.7383926
0.7594627
0.7794292
0.7982887
0.8160453
0.8327102
0.8483007
0.8628393
0.8763538
0.8888757
0.9004403
0.9110859
0.9208530
0.9297839
0.9379222
0.9453125

0.0042662
0.0161776
0.0345066
0.0581538
0.0861384
0.1175880
O. 1517299
0.1878825
0.2254471
0.263901 1
0.3027908
0.3417250
0.3803692
0.4 184400
0.4557002
0.4919536
0.5270412
0.5608368
0.5932435
0.6241904
0.6536289
0.6815306
0.7078843
0.7326936
0.7559748
0.7777550
0.7980705
0.8169646
0.8344869
0.8506917
0.8656366
0.879382 1
0.8919901
0.9035235
0.9140456
0.9236190
0.9323056
0.9401661
0.9472594
0.9536126
0.9593705
0.9644958
0.9690684
0.973 1358
0.9767429
0.9799319
0.9827422
0.9852109
0.0873722
0.9892578

0.0956179
0.1829272
0.2625759
0.3351674
0.4012631
0.4613849
0.5160177'
0.56561 15
0.6 105839
0.6513216
0.6881828
0.72 14990
0.7515766
0.7786984
0.8031256
0.8250988
0.8448396
0.8625520
0.8784233
0.8926258
0.9053172
0.9166422
0.9267332
0.93571 11
0.9436865
0.9507601
0.9570237
0.9625609
0.9674476
0.9717525
0.9755381
0.9788608
0.9817716
0.9843 166
0.9865373
0.9884708
0.9901507
0.9916070
0.9928666
0.9939534
0.9948888
0.9956920
0.9963797
0.9969669
0.9974670
0.99789 17
0.99825 1 1
0.9985544
0.9988096
0.9990234

0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.10
0.1 1
0.12
0.13
0.14
0.15
0.16
0.17
0.18
o. 19
0.20
0.21
0.22
0.23
0.24
0.25
0.26
0.27
0.28
0.29
0.30
0.3 1
0.32
0.33
0.34
0.35
0.36
0.37
0.38
0.39
0.40
0.4 1
0.42
0.43
0.44
0.45
0.46
0.47
0.48
0.49
0.50

x = 2

x = 1

TABLA
3. Funcibn de la distribucin de Poisson*

T=X

..

a = 0.2

a = 0.3

a = 0.4

a = 0.5

a = 0.6

O
1
2
3
4

1.ooooooo
0.1812692
0.0175231
0.0011485
0.0000568

1.0000000
0.2591818
0.0369363
0.0035995
0.0002658

0.3296800
0.0615519
0.0079263
0.0007763

1.0000000

1.0000000
0.393469
0.090204
0.014388
0.001752

1.ooooooo
0.45 1188
0.121901
0.023115
0.003358

5
6
7

0.0000023
0.0000001

0.0000158
0.0000008

0.00006 12
0.0000040
0.0000002

0.000172
0.000014
0.000001

0.000394
0.000039
0.000003

a = 0.7

a = 0.8

a = 0.9

a = 1.0

a = 1.2

O
1
2
3
4

1.ooooooo
0.503415
0.155805
0.034142
0.005753

1.0000000
0.550671
0.191208
0.047423
0.009080

1.0000000
0.593430
0.227518
0.062857
0.013459

1.0000000
0.632121
0.264241
0.080301
0,018988

5
6

0.000786
0.000090
0.000009
0.000001

0.001411
0.000 184
0.000021
0.000002

0.002341
0.000343
0.000043
0.000005

0.003660
0.000594
0.000083
0.000010
0.000001

1.0000000
0.698806
0.337373
0.120513
0.033769
0.007746

a = 1.4

a = 1.6

a = 1.8

a = 1.9

a = 2.0

O
1
2
3
4

1.000000
0.753403
0.408167
O. 166502
0.053725

1.oooooo
0.798103
0.475069
0.216642
0.078813

1.000000
0.83470 1
0.537163
0.269379
O. 108708

1.000000
0.850431
0.566251
0.296280
0.125298

1.000000
0.864665
0.593994
0.323324
0.1.12877

5
6
7
8
9

0.014253
0.003201
0.000622
0.000 107
0.000016

0.023682
0.006040
0.001336
0.000260
0.000045

0.036407
0.010378
0.002569
0.000562
0.000110

0.044081
0.013219
0.003446
0.000793
0.000163

0.052653
0.016564
0.004534
0.001097
0.000237

10
11

0.000002

0.000007
0.000001

0.000019
0.000003

0.000030
0.000005

0.000046
0.000008

8
9
10

0.001500
0.00025 1
0.000037
0.000005
0.000001

456 Apndice
TABLA
3. (Continuacidn)
1 - F ( z - 1) =
a = 2.5

a = 3.0

a = 3.5

O
I
2
3
4

1.000000
0.917915
0.712703
0.456187
0.242424

0.950?13
0.800852
0.576810
0.352768

1.000000

1,000000
0,969803
12

5
6

0.108822
0.042021
0.014187
0.004247
0.001140

0.184737
0.083918
0.033509
0.011905
0.003803

0.000277
0.000062
0.000013
0.000002

X
-

8
9
10
11
12
13
14
15
16
17
18
19

T=03

e V aa

VI

a = 4.0

a = 4.5

a = 5.0

1.000000
1.oooooo
0.981F8-1
0.988891
0.938901
0.908422 0,8641
0.761897 0.679153
0.826422
0.566530 0.463367
0.657704

1.000000
0.993262
0.959572
0.875348
0.734974

0.274555 0.371 163


0.142386 0.214870
0.065288
0.1 10674
0.026736 0.051 134
0.009874
0.021363

0.467896
0.297070
O. 168949
0.086586
0.040257

0.559507
0.384039
0.?37817
0.133372
0.068094

0.001 102
0.000292
0.00007 I
0.000016
0.000003

0.003315
0.001019
0.000289
0.000076
0.000019

0.008132
0.002840
0.000915
0.000274
0.000076

0.017093
0.006669
0.002404
0.000805
0.000252

0.03 1828
0.013695
0.005453
0.002019
0.000698

0.00000 1

0.000004
0.000001

0.000020
0.000005
0.000001

0.000074
0.000020
0.000005
0.000001

0.000226
0.000069
0.000020
0.000005
0.000001

Apbndice 45 7

TABLA
4. Valores crticospara la distr.ibuci6nt de Student*

Pr{t de Student 5 valor tabulado} = 7


"

0.75

1
2
3
4
5
6

1.o000
0.8165
0.7649
0.7407
0.7267
0.7176
0.7111
0.7064
0.7027
0.6998
0.6974
0.6955
0.6938
0.6924
0.6912
0.6901
0.6892
0.6884
0.6876
0.6870
0.6864
0.6858
0.6853
0.6848
0.6844
0.6840
0.6837
0.6834
0.6830
0.6828
0.6825
0.6822
0.6820
0.6818
0.6816
0.6814
0.6812
0.6810
0.6808
0.6807
0.6805
0.6804
0.6802
0.6801
0.6800

8
9
10
11
12
13
14
15

16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45

0.90
3.0777
1 .S856
1.6377
1.5332
1.4759
1.4398
1.4149
1.3968
1.3830
1.3722
1.3634
1.3562
1.3502
1.3450
1.3406
1.3368
1.3334
1.3304
1.3277
1.3253
1.3232
1.3212
1.3 195
1.3 178
1.3 163
1.3 150
1.3 137
1.3 125
1.3114
1.3104
1.3095
1.3086
1.3077
1.3070
1.3062
1.3055
1.3049
1.3042
1.3036
1.3031
1.3025
1.3020
1.3016
1.3011
1.3006

0.95
6.3138
2.9200
2.3534
2.1318
2.0150
1.9432
1.8946
1.8595
1.8331
1.8125
1.7959
1.7823
1.7709
1.7613
1.7531
1.7459
1.7396
1.734 1
1.729 1
1.7247
1.7207
1.7171
1.7139
1.7109
1.708 1
1.7056
1.7033
1.7011
1.6991
1.6973
1.6955
1.6939
1.6924
1.6909
1.6896
1.6883
1.6871
1.6860
1.6849
1.6839
1.6829
1.6820
1.6811
1.6802
15794

0.9751

0.99

0.995

12.70612
4.302'7
3.1824
2.7764
2.5706

31.8207
6.9646
4.5407
3.7469
3.3649
3.1427
2.9980
2.8965
2.8214
2.7638
2.7181
2.6810
2.6503
2.6245
2.6025
2.5835
2.5669
2.5524
2.5395
2.5280
2.5177
2.5083
2.4990
2.4922
2.4851
2.4786
2.4727
2.4671
2.4620
2.4573
2.4528
2.4487
2.4448
2.4411
2.4377
2.4345
2.4314
2.4286
2.4258
2.4233
2.4208
2.4185
2.4163
2.4141
2.4121

63.6574
9.9248
5.8409
4.6041
4.0322
3.7074
3.4995
3.5554
3.2498
3.1693
3.1058
3.0545
3.0123
2.9768
2.9467
2.9208
2.8982
2.8784
2.8609
2.8453
2.8314
2.8188
2.8073
2.7969
2.7874
2.7787
2.7707
2.7633
2.7564
2.7500
2.7440
2.7385
2.7333
2.7284
2.7238
2.7195
2.7154
2.7116
2.7079
2.7045
2.7012
2.6981
2.6951
2.6923
2.6896

2.446!3
2.3646
2.3060
2.2622
2.228 1
2.2010
2.17813
2.1604
2.14413
2.131!5
2.1 19!3
2.1098
2.100!3
2.0930
2.0860
2.0796
2.073!3
2.068'7
2.063!3
2.059!5
2.055!5
2.05 i51
2.0484
2.04812
2.0423
2.039.5
2.036'9
2.034.5
2.032'2
2.030 1
2.028 1
2.026'2
2.024.1
2.022 7
2.021 1
2.0195
2.0181
2.0167
2.0151
2.014 1

*D. B. Owen, Handbook of Slatistical Tables, Reading, Mass., Addison-TVesleyPublishing Co., Inc.,
1962. (Corte& de la Atomic Energy Commission, Waslungton, D.C.)

45 8 Apndice
TABLA
4. (Contznuacidn)
Pr{t de Student5 valor tabulado} = y
-~

0.75

0.90

0.95

0.975

0.99

0.995

46
47
48
49
50

0.6799
0.6797
0.6796
0.6795
0.6794

1.3002
1.2998
1.2994
1.299 1
1.2987

1.6787
1.6779
1.6772
1.6766
1.6759

2.0129
2.0117
2.0106
2.0096
2.0086

2.4102
2.4 083
2.4066
2.4049
2.4033

2.6870
2.6846
2.6822
2.6800
2.6778

51
52
53
54
55

0.6793
0.6792
0.6791
0.6791
0.6790

1.2984
1.2980
1.2977
1.2974
1.297 1

1.6753
1.6747
1.674 1
1.6736
1.6730

2.0076
2.0066
2.0057
2.0049
2.0040

2.4017
2.4002
2.3988
2.3974
2.3961

2.6757
2.6737
2.6718
2.6700
2.6682

56
57
58
59
60

0.6789
0.6788
0.6787
0.6787
0.6786

1.2969
1.2966
1.2963
1.2961
1.2958

1.6725
1.6720
1.6716
1.6711
1.6706

2.0032
2.0025
2.0017
2.0010
2.0003

2.3948
2.3936
2.3924
2.3912
2.3901

2.6665
2.6649
2.6633
2.6618
2.6603

61
62
63
64
65

0.6785
0.6785
0.6784
0.6783
0.6783

1.2956
1.2954
1.2951
1.2949
1.294 7

1.6702
1.G698
1.6694
1.6690
1.6686

1.9996
1.9990
1.9983
1.9977
1.997 1

2.3890
2.3880
2.3870
2.3860
2.3851

2.6589
2.6575
2.6561
2.6549
2.6536

66
67
68
69
70

0.6782
0.6782
0.6781
0.6781
0.6780

1.2945
1.2943
1.294 1
1.2939
1.2938

1.6683
1.6679
1.6676
1.6672
1.6669

1.9966
1.9960
1.9955
1.9949
1.9944

2.3842
2.3833
2.3824
2.3816
2.3808

2.6524
2.6512
2.6501
2.6490
2.6479

71

0.6780
0.6779
0.6779
0.6778
0.6778

1.2936
1.2934
1.2933
1.293 1
1.2929

1.6666
1.6663
1.6660
1.6657
1.6654

1.9939
1.9935
1.9930
1.9925
1.992 1

2.3800
2.3793
2.3785
2.3778
2.3771

2.6469
2.6459
2.6449
2.6439
2.6430

78
79
80

0.6777
0.6777
0.6776
0.6776
0.6776

1.2928
1.2926
1.2925
1.2924
1.2922

1.6652
1.6649
1.6646
1.6644
1.664 1

1.9917
1.9913
1.9908
1.9905
1.990 1

2.3764
2.3758
2.3751
2.3745
2.3739

2.642 1
2.6412
2.6403
2.6395
2.6387

81
82
83
84
85

0.6775
0.6775
0.6775
0.6774
0.6774

1.292 1
1.2920
1.2918
1.2917
1.2916

1.6639
1.6636
1.6634
1.6632
1.6630

1.9897
1.9893
1.9890
1.9886
1.9883

2.3733
2.3727
2.3721
2.3716
2.3710

2.6379
2.6371
2.6364
2.6356
2.6349

86
87
88
89
90

0.6774
0.6773
0.6773
0.6773
0.6772

1.2915
1.2914
1.2912
1.2911
1.2910

1.6628
1.6626
1.6624
1.6622
1.6620

1.9879
1.9876
1.9873
1.9870
1.9867

2.3705
2.3700
2.3695
2.3690
2.3685

2.6342
2.6335
2.6329
2.6322
2.6316

72

73
74
75

76
77

TABLA
5. Valores crticos para la distribucin de X-cuadrada*
Pr{X2 r.v. con f grados de libertad 5 valiores tabulados} = y

f
1

2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45

0.005
0.010
0.072
0.207
0.4
12
0.676
0.989
1.344
1.735
2.156
2.603
3.074
3.565
4.075
4.601
5.142
5.697
6.265
6.884
7.434
8.034
8.643
9.260
9.886
10.520
11.160
11.808
12.461
13.121
13.787
14.458
15.134
15.815
16.501
17.192
17.887
18.586
19.289
19.996
20.707
21.421
22.138
22.859
23.584
24.311

0.01
0.020
0.115
0.297
0.554
0.872
1.239
1.646
2.088
2.558
3.053
3.571
4.107
4.660
5.229
5.812
6.408
7.015
7.633
8.260
8.897
9.512
10.196
10.856
11.524
12.198
12.879
13.565
14.257
14.954
15.655
16.362
17.074
17.789
18.509
19.233
19.960
90.691
21.426
22.16-4
22.906
23.650
24.398
25.148
25.901

0.025
0.001
0.051
0.2
16
0.484
0.831
1.237
1.690
2.180
2.700
3.247
3.816
4.404
5.009
5.629
6.262
6.908
7.564
8.231
8.907
9.591
10.283
10.982
11.689
12.401
13.120
13.844
14.573
15.308
16.047
1G.791
17.539
18.291
19.047
19.806
20.569
21.336
22.106
22.878
23.654
2-1.433
25.215
25.999
26.785
27.575
28.366

0.05
0.004
0.1103
0.352
0.:711
l. 1145
1.635
2.!167
2.7733
3.325
3.940
4.575
5.226
5.1392
6.571
7.261
7.962
8.672
9.390
10.11 17
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.1151
16.928
17.708
18.493
19.:!81
20.072
20.867
21.664
22.465
23.269
24.075
24.884
25.695
26.509
27.326
28.1144
28.965
29.787
30.612

o.1
0.016
0.211
0.584
1.064
1.610
2.204
2.833
3.490
4.168
4.865
5.578
6.304
7.042
7.790
8.547
9.3
12
10.085
10.865
11.651
12.443
13.240
14.042
14.848
15.659
16.473
17.292
18.1 14
18.939
19.768
20.599
21.431
22.271
23.1 10
23.952
24.797
25.643
26.192
27.343
28.196
29.051
29.907
30.765
31.625
32.487
33.350

0.25
0.102
0.575
1.213
1.923
2.675
3.455
4.255
5.071
5.899
6.737
7.584
8.438
9.299
10.165
11.037
11.912
12.792
13.675
14.562
15.452
16.344
17.240
18.137
19.037
19.939
20.843
2 1.749
22.657
23.567
24.478
25.390
26.304
27.219
28.136
29.054
29.973
30.893
31.815
32.737
33.660
34.585
35.510
36.436
37.363
38.291

*D. B. Owen, Handbook of Statistical Tables, R e a d i p Mass., .4ddison-Wesley Publishing Co., Inc.,
ashngton, D.C.)

1962.(Cortesa d e la Atomic Energy Commission,

460 Apndice

TABLA
5. (Continuacidn)
Pr{x2 r.v. con f grados de libertad5 valores tabulados} = y

0.75

0.90

0.95

0.975

0.99

0.995

1
2
3
4
5
6

1.323
2.773
4.108
5.385
6.626
7.841
9.037
10.219
11.389
12.549
13.701
14.845
15.984
17.117
18.245

2.706
4.605
6.25 1
7.779
9.236
10.645
12.017
13.362
14.684
15.987
17.275
18.549
19.812
2 1.064
22.307

7.879
10.597
12.838
14.860
16.750
18.548
20.278
2 1.955
.23.589
25.188
26.757
28.299
29.819
31.319
32.801

23.542
24.769
25.989
27.204
28.412
29.615
30.813
32.007
33.196
34.382
35.563
36.74 1
37.916
39.087
40.256
4 1.422
42.585
43.745
44.903
46.059
47.2 12
48.363
49.513
50.G60
51.805
52.949
54.090
55.230
56.369
57.505

5.024
7.378
9.348
11.143
12.833
14.449
16.013
17.535
19.023
20.483
2 1.920
23.337
24.736
26.119
27.488
28.845
30.191
31.526
32.852
34.170
35.479
36.781
38.076
39.364
40.646

6.635
9.2 10
11.345
13.277
15.086
16.812
18.475
20.090
2 1.666
23.209

19.369
20.489
2 1.605
22.718
23.828
24.935
26.039
27.141
28.24 1
29.339
30.435
3 1.528
32.620
33.71 1
34.800
35.887
36.973
38.058
39.141
40.223
4 1.304
42.383
43.462
44.539
45.616
46.692
47.766
48.840
.19.913
50.985

3.841
5.991
7.815
9.488
11.071
12.592
14.067
15.507
16.919
18.307
19.675
2 1.O26
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.1 13
4 1.337
42.557
43.773
44.985
46.194
47.400
48.602
49.802
50.998
52.192
53.384
54.572
55.758
56.942
58.124
59.304
GOA81
6 1.656

8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
3.I
35
36
37
38
39
4O

41
42
43
4 -4
45

41.923
43.194
44.461
45.722
46.979
48.232
49.480
50.725
51.966
53.203
54.437
55.668
56.896
58.120
59.342
60.561
61.777
62.990
64.201
65.410

24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892
52.191
53.486
54.776
56.061
57.342
58.619
59.892
61.162
62.428
63.691
64.950
66.206
67.459
68.710
69.957

34.267
35.718
37.156
38.582
39.997
41.401
42.796
44.181
45.559
46.928
48.290
49.645
50.993
52.336
53.672
55.003
56.328
57.648
58.964
60.275
61.581
62.883
64.181
65.476
66.766
68.053
69.336
70.616
71.893
73.166

Apndice

46 1

TABLA
6. Nmeros aleatcn-ios*
~~

85366
59344
55008
26797
77473
78967
29895
46476
98382
54892

56223
213149
9337 1
64423
07268
00705
7 1507
54562
11265
59168

09300
17596
60620
42379
31330
85734
285 17
79373
25366
8395 1

94564
5 1669
66662
9 1676
07337
21776
77761
72993
06636
91075

18172
47429
27036
75127
55901
85764
17244
98998
25349
04724

43999
50029
75366
77026
94764

68699
56837
27460
65961
71171
56420
85734
90489
573 10
72239

09317
33851
65429
72834
72 182

35268
23672
31519
97073
39454

5,4952
19016
43688
33087
45312
05044
37333
53462
01574
19616

31912
05206
65 145
10056
15400

84475
92406
89023
79489
21930

01209
30254
52459
95784
28949
60722
42773
60730
85 118
94726

39214
99886
8 1693
59375
93791

89822
81200
17849
544 17
22610

72675
59187
80172
53891
72438
76263
28048
32962
43053
05045
68996
18178
35464
88832
69121

62175
53284
43269
48268
99839

48746
28024
91133
8282 1
24228

56084
45421
05562
19526
32079

54029
37956
82385
63257
53517

22296
14252
9 1760
14288
18558

98918
41589
24266
28951
20405
16937
82224
68076
96796
86547

59330
70883
26814
22676
69324

20121
72035
O 1 194
05303
80823

89779
8 1800
48587
39725
20905

58862
50296
93319
60054
68727

21247
94186
54285
21700
97260

15792
05781
37539
96 186
12351
80439
82072
25738
34978
61939
54735
67793
90845
12301
89829

18134
17069
15868
5934 1
62 195

10973
54945
26794
O 1803
33536

77090
73489
81386
17537
60137

83886
97990
48241
03469
56612

72886
58609
49521
56128
86307

42598
20002
64568
80405
02364

05464
76530
69459
97485
88677

47529
80754
64366
15065
74196

24607
4546 1
78444
43668
71367

30937
74667
97948
68572
30321
37689
33472
21002
86338
15425

94 188
59484
22430
28953
74309

14060
59966
49247
21162
15855

26729

98120
02877
91930
3002 1
82364
16583
22616
84923
27056
84020

44446
400-14
99629
14597
25625

09923
63094
72826
19806
17295
59338

12817
24725
39582
19599
23485
74573
65558
41268
43088
99302

92209
30999
42588
76708
23082
76059
45658
99234
63033
74427

67442
9394 1
12829
86759
78660

09237
11007
60622
79973
71080

88071
81981
95079
88251
17192
70666
18427
13221
31816
42982
06703
67515
30588
4733 1
14748

5 1873
87880
70063
16136
72492
50728
50147
98590
09558
00728

21846
75585
40676
9737
42380

78329
90005
94961
83735
99376

98578
19747
31154
84058
30496

25447
08865
83 133
12382
845?3

23968
46794
4435 1
46829
50205
97453
69530
69406
48125
91384

55216
62370
99981
47992
75736

04072
40128
07545
10401
77935
51 163
96649
30607
42263
27805

622 10
48436
273 17
31615
64608

89123
08896
94799
16984
99621

19271
94662
62211
86532
66899

49017
76941
55430
33023
87337

23489
77008
25875
26895
74487

19172
27646
26446
65304
83196

81773
74279
34968
99696
55282

36773
85087
76028
78454
61051

31337
94 128
06511
69981
23701

07018
52444
72161
17918
13623
27426
96039
68282
54262
66290
53348
34482
99268
95342
38556

12572
97918
8752 1
91057
43195

39 159
41786
95627
98738
75214

31172
65625
57299
75071
76165
97534
2 1338
98888
21477
27544
39044
42758
98715
97178
60373
04795
18169
30768
15548
61575

73904
33329
66364
68349
19193

42212
74244
27190

89707
88169
25545
33097
72780

90836
53300
29470
92982
47296

*The Rand Corporation, A A~lillionR o d o m Digits wilh 100,000 h i d e s , The Free Pres, 1955.

462 Apndice
TABLA
6. (Continuacin)
96124
31283
49988
82790
5 1473

73355
54371
48558
45529
1382 1

01925
20985
20397
48792
75776

17210
00299
60384
31384
24401

81719
71681
21574
54649
004,15

74603
22496
14852
08779
61570

30305
71241
26'4 14
94 194
80687

29383
35347
10767
62843
39454

69753
37285
60334
11182
07628

61156
02028
3691 1
49766
94806

07785
02854
68335
16624
28718
92405
33373
90330
36535
48606

91971
46052
07123
67545
11139

63537
07442
22008
74667
82646

84671
4 1667
83082
20398
18600

035 17
62897
28526
58239
53808

28914
40326
491 17
22772
70267

48762
75 187
96627
34500
74970

76952
36639
38470
34392
35100

96837
21396
78905
92989
o1291

47408
56129
35459
61955
85374

62155
36513
10460
55992
6979 1

47467
4 1292
33925
36520
18857

14813
82 142
75946
08005
92948

5668.4
13717
26708
48783
90933

5668 1
49966
63004
08773
90290

3 1779
35367
89286
45424
97232

3044 1
43255
24880
4,1359
61348

19883
06993
38838
25248
22204

17044
17418
76022
7588 1
43440

15556
75454
27582
89658
57194

39555
9068 1
90856
47708
77203

09325
73339
04254
01691
26072

16717
08810
23715
22284
92538

74724
89616
00086
50446
85097

79343
99234
12164
0545 1
58178

263 13
366 13
16943
G8947
46391

39585
43440
62099
34932
58980

56285
60269
32132
81628
12207

22525
90899
9303 1
227 16
9490 1

64219
53166
58112
14548
21251

53416
78592
88451
36314
15618

03811
80640
22892
05831
40764

11439
58248
29765
01921
99303

80876
68818
20908
97159
38995

38314
78915
49267
55540
97879

77078
57288
18968
00867
98178

85171
853 10
39165
84293
0370 1

06316
43287
03332
54653
70069

29523
89223
94932
81281
80463

30953
12764
72393
11031
40757
91948

63369
79194
71563

20240

69586

05445
36992
74905
42596
10904
45045

35362
85867
80039
39813
86629

82072
18672
75647
63111
67943

29280
28716
66121
33237
23405

72468
17995
17083
95008
86552

94845
63510
07327
09057
17393

97004
6790 1
39209
50820
2422 1

18537
66885
96177
3732 1
77905

07384
11985
71237
96867
69703

13059
38553
08744
38483
64979
77702

47389
97029
89159
90176

97265
88433
16602
33269
04883

11379
78988
94343
06367
84487

24426
88864
18593
09234
88688

09528
03876
84747
77201
09360

36035
48791
57469
92195
42803

0250 1
726 13
08334
89547
88379

53814
16963
87558
84269
94907

14560
37320
58885
55068
O80 19

43698
40740
65475
10532
05159

8663 1
79330
25295
43324
64613

87561
04318
59946
39407
26962

9073 1
56078
47877
65004
30688

59632
23196
81764
3504 1
51677

55 672
49668
85986
20714
05111

24519
801 18
6 1687
20880
51215

1O966
73842
04373
19385
53285

45735
11755
5 1242
00281
12233

14319
40589
05075
25893
65661

78439
83489
80028
94848
10625

18033
95820
35144
74342
93343

72250
70913
70599
45848
2 1834

87674
87328
92270
10404
95563

67405
04636
62912
28635
15070

94 163
42466
08859
92 136
99901

16622
68427
87.405
42852
09382

54994
79135
08266
40812
01498

88817
75548
42860
71208
44319

57827
53699
40656
72822
22313

02940
90888
33282
17662
89649

66788
94921
45677
50330
47415

76246
04949
05003
32576
2 1065

85094
80725
46597
95030
42846

44885
72 120
67666
87874
78055

72542
80838
70858
25965
64776

3 1695
38409
4 1314
05261
64003

83843
72270
71100
95727
4805 1

87316
22385
67557

Apndice

TABLA
7 . Desviaciones normales aleatorias
06
07
03
04
05
o1
O0
02
- - - - - - - - O0

o1
O2

03
04
05
06
07
08
o9

10
11
12
13
14
15
16
17
18
19

20
21
22
23
24
25
26
27
28
29

30
31
32
33
34
35
36
37
38
39

40
41
42
43
44
45
46
47
48
49

.31
.90
.22
- 1.o0
-.12

.o 1

.16
1.31
-.38
.38

-.51
-.36
.58
.53
-.43
.37
-.83
-.82
-.2G

.42

-1.45
.33
:87
-1.90
.69
-.36
-1.88
-.36
-1.73
-1.39

__.

-.35
-28
-.O2

-.77

.75
.68
.89
.36
.O6
-.22

.o9
.o0
.ll
-2.62 - 1.43 -1.79
.78
-.17
.O4
.12
.16
.67
.56
-.94
-1.13 -.79
-.32
.7 1
-.68
1.18
.43
.44
-.76 -.12
.93
-.39
.41
-.95
-37
24
.96 - 1.39
-.14 1.59
2.48
1.11
-.28 -.O3
.18
.30

1.38
1 .O7
.19
2.26 -1.68 -.O4
-.55
2.18
.O6
-1.65 -1.29 -1.03
.O8 -1.92 -.97
1 .o2
-.67 -1.11
.36
.O6
-.46 -.62 -.11
1.43
-25
.83
.47 - 1.84
.69 -1.07
.61
-1.04 -.33
-.54
1.o0
.10
.63
-.26 -1.35 -1.20
- 31
.O4
-.36
.56
-.o9
-.94
.63
-.94
-.11
.19
.29
.62 -1.09 1.84
.57
-.2 1
.o9
-.57
-.lo
.54
.24
-1.47
-.o1
-.63
.85
1.O7

1.18
.47
.26
.39

.19
1.20
.49
-.26
-.65
-.36
2.09
.88
.90
-.88

-.67 3.04
.70 - 1.80
.17
1.16
.55
-.21
-.94
.12
1.10
.83
.44
-.61
.31
.7 1
.ll
28
-.15
-.38

-.89 -1.23
-1.01
1.36
.85
.18
1.02 -2.49 1.79
-.53 -1.13
.75
.76
1.21
-.68
-23
.O7
-.88
.61
.43
.27
-.45
.93
.72
.95
1 .O3
-.43
-.23
-.3? 1.41
1.41
25
-1.15
.72

.64
-.70

.57
.o 1
.15
.62
1.21

-.92
-.42
-.54
-.13 -.70
-29
.36
1.90 -1.21

.O7

.55
.O4

-.39
.26
-23
-.38
2.80
-1.49
-.36

-1.53
-.34

463

09
- -1.91 -1.O7
08

-.99
-1.31
2.22
-26
-.13
.66
.78
.51
1.10

-.35
.95
-.08
-.86
-.41
2.O6
-.27

-.50
.40

-1.41
.o9 -1.91
1.77
-1.07
.S0
-.40
-.70
-.72
-.47
.64
-27
.72
.68
.75
.96
-.91 -1.94
.62
.56
.07
.94
.63 -1.29 1.16
1.52
-.60
-29
.94
.20
-.45
-.63
-.06
.23
-.26
- 1.25
.88
-.26

-.O5
.76
-.09
1.26 -1.21
.52
.34
1.18
-.74 1.75
-1.07
.29
.57
.17
-.48
1.40
.61
.81
-.96
-1.69
.O5
-.O7
-.37
.47
-1.67
-.42
-.4
1
.14 -1.15
28
-.75 -.50
.18
1.31
.37
-.20
-.61 -2.55
-.o9 -1.33
.40
.42
.34
-1.96
-.17 1.73 -.33
.41
-.71 2.15
-.12 -1.01
1.29
.76
-.48
-.41
-.74
.55
-.O2
.46
-.O7
.o0

-.O3
.43
.93
.68
.68
-.12
-.63
.60

.O6
2 5 -1.75
.33
.12
.o4
.34
-.32 2.31
.50 -1.42
.26
.83
.50
-.66
.55
-.O6
.24
29
-.53
1.O4
.69
.O7
.S8
-.44
.53
1.44
-1.87
-27
-1.86

.O8
-.O8
-.43
.27
.85
-.29
.10 -2.17
1.12
.99
1.38
24
.90
-.72
.74 -1.47
.79
.22
-.59
.36

.39
1.03
.74

-1.95

-.34
-.29
.69
.25
-.33
28
.96
.37 -1.85
-1.72
-.O4 -.73
-2.10 -.79 -.27
-.14 -1.61 -.58
.39
-.61 -2.77
-.41
-2.80
.61
.63
.73
.81
-.39
-.77

1.84
1.23
-.64
.O8
.S5 -1.25
-.55
-.74
1.86
.? 4
-.40 1.90
.14 -1.09 -1.53
-.32 -1.20
.o 1
1.18
-.46
.61
-.14
.66
.O 0
-.49
.25
.25

-1.27 -25
1.63
.34
.14
-.17
-.17 -.lo
.35
.69
.30 -1.56
.O5
20
-1.54
.50
.33
-.36
.14
1.73

464 Apndice
TABLA
7 . (Continuacin)

10
11
- __
- -

.90

.2 5
-.74
.O5
1.13
1.06
-36

.I5
-1.87
.a7

-1.12
.72
.95

10
11
12
13
14
15
16
17
18
19

.52
-1.39
-.S4
-.51
-1.50

.12
-1.18
-.46
.o4
-.2 1
1.54
-.23
1.52
.37
.62

20
21
22
23
24
25
26
27
28
29

-31

-1.61
.26
-.32
-1.00
.66
-.20
1.01
-1.81

30
31
32
33
34
35
36
37
38
39

-.o1
-.23
- 1.27
-1.72
.78
1.86
-.50
1.o2
- 1.57
2.27

.15
-.19
.13
1.70
1.55
1.12
-.93
-31

40
41
42
43
44
45
46
47
48
49

-2.17
.O5
-.38
.40
.39
-.1?
1.20
-1.04
-.32
1.O8

-.69
-1.71
1.75
-1.50
.66
1.18
-.91
1.28
.56
.56

O0

o1
02
03
04
05
06

07

O8

o9

-.73

-37

1.18
-2.09
-.32

-.16

-.48

.S9
.38
-.53
.I5

-.40

-.22

-.22
2.5 1
-.48
.75
1.37
.O4

-1.53
-.44
.45
1.34

.10

-.61

12

13

- -2.08
1.44
.10
-.50
1.14
.63
-.17
.80

-1.17
.O5

- 1.o4

.17
-.79
-.15
.37

-.?3

-1.62
- 31
-.30
-.36
.46

14
- 1.O4
-.76
.O5
-.I8

.49
-.5?
.49
-.77
-1.42
-.o1

15

16

17
-- -.23
-.42
1.O6
-.16
1.10
-1.55
.96
-.91
-.46
.85

.74
1.93

.23
.88

-1.85
-.27

-.go
-.64
-.54
1.73
.94
.O3
-1.61

.S?

.78

.53
.o0
-.58
1.19

1.67
"85
-.44
-.89
1.88
.57
-1.32
.19
-1.29

-.56
2.88
-.29
-1.87
.4 3
.66
.23
2.13
-2.4 1
1.84

-2.06
.54
-1.06
-1.81
-.62
1.81
-.14
.16

-.13
.10
.7 1
1.18
-.O7
.?8
1.o2
.?8
.36
-.65

.17
.O5
.90
-.39
-56
-.34
.33
.46
.15
.72

1.16
-2.17
-.43
-.35
.68
-1.73
.59
-.2
.27
1.50

1.09
.4 9
-2.08
2.10
.o0
.25
-.15
-2.05
.67
.57

-.73
- 1.24
.75
-.70
1.S7
.26
-.15
-.27
-.74
-1.78

-.15
1.16
1.59
1.29
-.14
1.46
-.11
-.50
-.17

.S7
.97

-1.83
-1.08
-.17
-.61
-.19
-2.09
-.68
-.62
.ll
.6 1

1.18
.44
-.74
.18
.43
1.82
-1.62
1.46
-1.48

.ll
-.4 1

.62
-1.32
1.67
-.26
-.76
-1.76
.O5
-.37
2.35
-.45

1.86
.14
-.O7
-.12
.83
-.20

1.33
.2 1
.93
.24
.19

-.26
.55
-1.36

-.lo
-.74
-1.76
.37
-.42
.45

-.78
-.go
-1.10
-.35
-.53
-1.84
.5 1
.45
-.27
.O3

-.OS

-1.08
2.50
-1.03
.34

-.?8

-.66

-2.08
.3O
-.99
1.56
.ll
-.28

-.91

.so

-.44
.48
-1.53

-31
-.S8

-.3 1
1.o2
-.39

.I5
-.60
-.60
.83
.32
-.21
1.76
-.95
-.72
-.37

.O8

-.SO

-1.02
.53
.46

.78

.94
.77
-.77
.68
-.27
-1.11
.95

-.27
.O8

27

.89

.90

1.17
-.55
-.4?
.22

-.o2

2.42
1.23
.25
.14
-1.77
-.S8

.I5
-.55
.20
-.12
-1.67
-.14
-.45
.13
.69
.42
.65
-.99
-2.83
-.46
-.38
.23
.59
-1.22
1.43
.64
2.52

.42

S16
.92
.26
.25
- 1.90
-.17
-1.13

18
__.

.70

.so

-1.38
1.32
.4 7
-.29
.14
-1.16
2.08

-.lo

19
-.79
-.53
.51
-.83
-.05
.19
1.21
.44
1.11
-37

-1.24
.74
-1.30
-.55
1.77
-1.65
1.31
.65
-.I5
.O7

.84
.33
.50
-.54
- 1.54
2.06
.06
1.18
-.73
.46

.92
.37

-.04
.18

.85

-1.87

-1.16
.89
.18
-.42
.83
-1.18
.38

.59
-.73
-.92
-1.51
.49
-1.41
.7 1

.O3
-.76
.5 1
2.35
.48
.82
-.58

-.14
.76
.76
1.25
-.43
-1.08
-24
.37
2.22

-.27

-1.26
1.03
-.70
-.O7
1.44
.96
.69
.90
-.11
-.o2
1.40
.34

-.01

.14
-1.11
-.58
.79
-.03
35

-.58
-.73
1.61
-1.08
J

Respuestas a

Problemas

seleccionados*
WTULO

*N.del E. Considrese la siguiente relacinde reslpues~z~s alternativas a problemas incluidos en esta seccin.

466 Respuestasaproblemas seleccionados


1.11.

1.15.

AUBUC
d) AnBnC

a)

b) [ A n n c n C C ] ~ [ A c n ~ n C c ] u [ n C n a c ~ ~
1.16.

) 131 4
-8
1 3 ' 13

a)

1- t

b) y - z

1.17.

CAIJTULO 2

2.8. 120

2.9. 720

2.10. 455
2.12.

U)

a) 120

2.11.

'
4

b ) 4 . 37

2.13. ( N - l)!/(N

360

2.14.

a)

2.16.

a) 2/n

C)

70

d ) 336

- n)!Nn-l
2.15. a

b ) 2(n - 1)/n2

2.18. 0.24

2.20. 120

CAPTULO

3.2.

a)

Prob. 2.21

+b

b ) 1296

b)

(:I: 1
-

c)

3.3.

b ) 2970

Respuestas a problemas seleccionados

3.4.
3.7.

3.12.

a)

3.15.

-&

3.20.

a)

3.23.

&

3.34.

&

a)

b)

2p2

1 - 2p

'u) 0.995

b ) 0.145

0.50

b ) 0.05

0.65
c) 8/35

b ) 0.22

3.25.

a)

3.35.

a)

+ (cytP)(atPtl)n-r
P

- l)p2/(

- p)"

b ) p+3p2-4p3-p4+3p5-p6

,& = f + ( 2 p - 1 ) y p - 12 )

(12

c)

b)

3.13. 1 - (1

+ 2p3 - 5p4 + 2p5

$
$
j
l

,u)

3.9. 0.362,0.406,0.232

3.17.

3.37. p n =
3.39.

3.6.

b)

467

+ np2)

CAPTULO 4
4.1. P ( X = O) =

4.3.

a)

A,P ( X = 1) = g ,P ( X = :!) = g, P ( x = 3) =
9

c)

b)

4.10. a = ebb
4.11. P ( X

> blX < b/2) = -7b3/(b3

4.13.

U) U

= (2/b)- b

4.15.

a) a

=f

4.17.

U)

4.20.

U ) cy

4.23.

6) P ( X = k ) =

c)

Prob. 4.9

.
"
A
.

, i..

'

..

c)

f ( z ) = 5,
1 O <x <5
f(x) = 3e3x, x < O

=3

C)

cr =

6;i
27

4.9.

4.14.

a)

4.16.

b ) F ( z ) = 3x2 - 2x3

+ 8)
F ( t ) = 5t4 - 4t5

b ) f ( x ) = ( l / r ) ( x - x2)-1/2, O < z < 1

( y )(0.09)k(0.91)10-k

~.
..

468 Respuestas a problemas seleccionados


4.25. a )
4.29.

a) 6

4.28.

=p

b)

=1

4.30.

p
-8

525

CAPfTULO 5

@
.tg(y) = 3(4 - y ) - q 3 < y < 4
.

f)

8 , 7 < y <'13

a) g(y) =

b ) h ( z ) = 1/2z,

Y>O
5 3 a) g(y) = 3Y
5.6.; a ) g(y) = (l/?)(l- y 2 ) -1/2 , -1 < y < 1
b ) h ( z ) = (2/7r)(l- 2)-1/2, o < z < 1

< z < e3

1 -2/3e-y1/3,

c) f ( w ) = 1,

o <w<1

5.7. a ) g(v) = ( 3 / 2 ~ ) [ ( 3 ~ / 4 ~ -) -11,


~ /O~< v < 4 ~ / 3
b ) h ( s ) = (3/4n)[l - (s/~T)'/'], O < S < 4x
5.8. g(p) = i(2/p)'i2, 162 < p < 242

5.10.

g(0) = 1; g(y) = O , y # O
b ) g(0) = a / k ; g(y) = ( 3 0 - a ) / h / o , 0 < Y < YoKk - a ) / ( z o - .>I
c) g(0) = a / k ; g(y) = (x0 - a)/kyo, 0 < Y < ?/o; d Y 0 ) = 1 - zo/k

a)

5.13.0.71

CAPfTULO 6
6 2 "-1
- a )k
_
.."

c) d Y )

@732a)
....

6.6.

6) h(x)= x3/4, O < X < 2


y/4 y3/48, O < x < 2
5 - Y/4
(5/48)Y3, -2 I y I

{9

b)

&

+
+

6.5. k = 1/(1 - e-')2

c)
\

6) h ( z ) = 1 - 1x1, -1
4 g(Y) = 1 - Iyl, -1 < y < 1

U)

k=

<x < 1

6.8. h ( t ) = 1/2z2, L 2 1

= 1/2,

o <z <1

6.11. g(h) = (1600 - 9 h 2 ) / 8 0 h 2 , 8 < h


- - 1j . ,203 < h < 8
-

<y

= (5h2 - 80)/1Gh2, 4 5 h 5 9

Respuestasaproblemas seleccionados

WTULO

469

1,

7.3. 3.4
7.6. $0.03
7.9. $50
7.12.

b ) E(2)=

7.10.

a) G =

7.13.

(b) E ( W ) =

b) E(D)=

7.14. 154
7.15. E ( Y ) = 10, V ( Y )= 3, E ( 2 ) = (e/2)(e2
7.18. E ( Y ) = O, V ( Y ) =
1

2, V ( W

= &?

i,E ( 2 ) = 2/7r, V ( Z ) = (r2- S ) / 2 r 2 , E ( W ) =

7.20. C a s o 2 : E ( Y ) = (yo/2L)(3:0
1
7.24. a = 5
,b =2

- l), V ( Z ) = (e2/2)(e2 - 1)

- a), V(y) =
7.25.

~v[i y]
-

a ) E(V)=
ii) E ( P ) =

4
4

470 Respuestas a problemas seleccionados


7.32. E ( Z )

V(Z)

&

7.35.

i;o

7.48. P ( X ; = 1) = p ( r / n )

7.46.

r)/nl

+ q[(n-

CAPTULO 8
8.1. 0.219
8.3.

U)

0.145

b) 4

C)

d ) 1o 2

e ) 1.785

f) 0.215

8.4. 0.3758 (binomial), 0.4060 (de Poisson)

8.5. 0.067

8.6. P ( X = O) = 0.264

8.7. E ( P ) = $32.64

8.9.

8.10. 0.215

8.12.

8.16.

U)

(1 - pl)(l -p2)(1 - P s ) ( ~ - P 4 )

8.17.

a)

0.064

9.1.

a)

0.2266

(0.735)7
b ) 1 - (0.265)7

a)

C)

0.0964

8.20. (2-ln 3)/3

b ) 0.2902

8.24. $19.125

9.2. 0.3085

9.3. 0.21

9.5.

9.6. E(17)= (2~)'/', V ( Y ) = ( T


9.10.

b ) 0.027

U)

0 2

- 2)/T

C = 0 . 4 3 3 ~= p

9.11. 0.5090

Prob. 7.32

E(Z)N

Prob.
8.3

e ) 1.35 f)0.65

Prob.
8.7

$27.24

Prob. 9.11

0.7745

V(Z)

&

b) 0 2

Respuestasa lbroblemas seleccionados 471


9.12. E ( L ) = $0.528
9.13.

a)

i;0.0456

b)

0.069

c) $; 0.049

9.15. $23.40

9.17.

a ) $0.077

9.24. 0.10,0.80
9.25. E ( Y )N l n p - (1/2p2)a2; V ( Y )N (1/p2)a2
9.28.

- p")]

b ) E ( X ) = np[(l - p"-')/(l

9.32. 0.15

CAPfTULO 10
10.1. a) ~ , y ( t =
) ( 2 / t 2 > [ e t (t 1)
10.3.

U)

Mx(t)= k t a / ( A - t )

10.4.

a)

M,y(t) = ;(et

10.6.

a)

(1 - t')"

10.9.

a ) 0.8686

+ 11

b ) .G(x) =

6) E ( X ) = (ax

8, V ( X ) =

+ l)/A,

+ e2t + e3t + e4t + e5t + e6t)


10.8.

V ( X )= 1 / X 2

b ) E ( X ) = 3.2

10.12. 0.30

10.13. 0.75

10.14. 0.579

10.18.

10.19.

(e3'

- 1)/3tet

11.1. 83.55 horas, 81.77 horas, 78.35 horas


11.2. 48.6 horas

11.3. f ( t ) = C = Oexp[-Cot], O

= C1 exp[-Coto

5 t 5 to

+ G ( t o - t l ) ] ,t > t o

11.4.

a)

f(t) = Ce-C(t-A), t >


-A

11.5.

11.7.

a)

Aproximadamente (0.5)6

11.9. 0.007

11.10. ~ ( t=)2e-OJ33
11.12.

a) m

= ln(Jz)

- e"O.Ogt

6) m = 0.01

11.11.

b ) R(t) = [A/(A
a)

0.014

c) toc)

+ t)]'+'

472 Respuestas a problemas seleccionados

CAP~TULO 12
12.1.

U)

n = 392

b)

R.

= 5000

12.3. a) 0.9662

b ) n = 24

12.5.

b)

U)

0.1802

R.

12.2.

U)

0.083

12.4. 0.1814

= 374

12.6.

a)

0.1112

+ 600r), O 5 T 5 10
+ 60r2 - 1200r + 8000), 10 5 r 5 20

12.7. g ( r ) = (15,000)-'(r3 - 60r2

= (15, OOO)-l(-r3

12.9. a) g(s) = 50[1 - e-o.2(s+o.01)], si - 0.01 5 S 5 0.01


- 50[~-0.2(~-0.01) - ,-O.2(s+O.O1)], si > 0.01

12.12. f(s) = 2 @ (S,,,>


-

Prob.12.2

a ) 0.83

Prob.12.5

b ) n = 443

Prob.12.13

b ) 0.043

b ) 0.1915

(3E)]

Respuestas a problemasseleccionados
CAPfTULO 13
13.3. P ( M = m ) = [l - (1 -p)"In
13.4. a) 0.13

b ) 0.58

13.6. 0.89

- [ l - (1 - p)""]"

13.5. a) 0.018
13.8.

U)

b ) 0.77

(1 - 2t)"

CAPTULO 14
14.2. C = 1/2(n - 1)
14.3. 16.1
14.6.

U)

l/(T" t o )

14.9. a) k/

x;"=,
ni

14.14. -0.52
14.16.

14.13. 0.031
14.15. r / x

n/

X:

14.29. Distribucih F con ( 1 , l ) grados de liberlad


14.31. (-4/5)

14.32. 88.6

CAPfTULO 15
15.1. a) l - @ ( % f i )
15.2.

U)

Q,

b ) C=-2.33-&+po

[wfi]- @ [ -c+T-"fi]

Prob.
13.5

b ) 0.735

Prob.
14.7

a)

Prob. 14.13

0.03G

Prob.
14.32

10.2

o "to

In

b) C = 2.575unv1i2

473

474 Respuestasaproblemas

seleccionados

15.8. 15
15.9.

a)

15.12.

( b - 1)

b ) Igud

a ) sencu/sen ( $ a )

ndice de materias
aproximacin de DeMoivreLaplace para la distribucin
binomial, 329
&-bol, diagrama de, 52
bondad de ajuste d e
pruebas, 434
prueba de ajuste
d e distribuciones
asintticas, 436
prueba de una distribucin
especfica, 438, 439
coeficiente binomial, 35
coeficiente de confianza, 401
coeficiente d e correlacin, 189
ejemplo de, 399
evaluacin de, 189
interpretacin de, 190, 191,
192,193, 194
propiedades de, 189
comparacin entre varias
distribuciones, 260
confiabilidad, 298
d e los sistemas, 31 1
y la funcin d e distribucin
acumulativa, 298
y la longitud d e vida
esperada, 303
y la tasa de falla, 298
conjunto, 4
complemento de, 6
identidad de, 7
interseccin de, 6
nmero de elementos, S

subconjunto, 5
uni:n de, 5
universal, 5
vacol, 5
convergencia en
probabilidad, 325
covarianza, 1S9
desiguaddad d e Boole, 25
desigua.ldad d e Chebyshev, 186,
187,188
desviac.in e s t h d a r d e variable
aleatoria,176
diagrannas d e Venn, 6
distribucin binomial, S 1
apro:uimacin normal
a l,a, 327
distribucin de Pascal, y, 230
propiedades de, 99
valor esperado de, 155, 173
varianza de, 180
distribucin binomial
negativa, 228
distribucin d e Cauchy, 270
distribucin d e Maxwell, 290
distribucin d e Pascal, 228
esperanza de, 229
varianza de, 229
y la distribucin binomial, 230
distribucin d e Poisson, 209
propiedad reproductiva
de, 288
valor esperado de, 210
varianza de, 2 1O
y la distribucin binomial, 21 1

476 ndice dematerias

y la distribucin

multinomial, 294
distribucin d e Rayleigh, 290
distribucin d e Weibull, 309
aplicacin de, 3 11
esperanza de, 310
varianza de, 3 10
distribucin exponencial, 249
propiedades de, 250
valor esperado de, 252
y la distribucin exponencial
con dos parcimetros, 292
y la distribucin gama, 291
y varianza de, 250
distribucin I; de Snedecor, 4 15
distribuci6n gama, 255, 29 1
valor esperado de, 256, 257
varianza de, 256, 257
y la distril)ucin de
Poisson, 256
y la dis~ribucin exponencial,
255, 291
distribucin geomktrica, 224
propiedades de, 22G
valor csperado dc, 225
varianza de, 225
distribucin hipergeomtrica, 35,
23 1
valor esperado de, 232
varianza de, 232
y la distribucin binomial, 232
distribucin log-normal, 270
distribucicin multinomial, 233
valor esperado de, 233
varianza de, 233
y la distribucin de
Poisson, 294
distribucin normal, 239
aproximacin a la distribucin
binomial, 327, 329

bivariada, 261
estandarizada, 243
funcin lineal de, 243
propiedad reproductiva
de, 255
suma d e variables aleatorias
independientes, 255
tabulacin, 244
truncada, 263
valor esperado de, 242
varianza de, 242
distribucin normal
bivariada, 26 I , 263
distribucin t de Student, 403
propiedades de, 403
distribucin truncada, 263
distribucin uniforme, 96
bidimensional,130
unidimcnsional, 96, 97
valor esperado de, 155
varianza de, 1 S2
distribucin x 2 , 25s
distribucin gama, y la, 255
distribucin normal,
y la, 2G1, 255
grandes grados de libertad,
para, 262
propiedad reproductivn,
de, 255
valor esperado de, 255
varianza de, 260
distribuciones binomiales, 51
bivariadas normales, 261, 263
d e Maxwell, 290
de Pascal, 228
de Poisson, 209
de Rayleigh, 290
de It'cibull, 309
exponenciales, 249
F . de Snedecor, 4 15

gama, 255
geomtricas, 224
hipergeomtricas, 38, 23 1
log-normales, 270
multinomiales, 233
normales, 239
t de Student, 403
uniformes, 96, 130
distribuciones mixtas, 94
eleccin a l azar de un
objeto, 30, 38, 50.
eleccin a l azar de un punto en
un intervalo, 96
enumeracin, mtodos de, 31
adicin, principio de, 32
combinaciones, 34
multiplicacin, principio
de, 31
permutaciones, 33, 39
errores del tipo 1 y del
tipo 2, 419
espacio muestral, 71
espacio muestral, el, 10
ejemplos de, 11
finito, 27
particin de, 49
espacio muestral finito, el, 27
y resultados igualmente
probables, 28
esperanza condicional, 194
estadstico, 354
estimado, 375
estimado de mxima
verosimilitud, 384, 356
por el parmetro de una
distribucin exponencial,
387, 391
por el parmetro de una
distribucin gama, 392

por el parmetro de una


distribucin normal, 38s
por el parmetro de una
distribucin uniforme, 38S,
389
por la ecuaci6n d e
probabilidad, 387, 388
propiedades, 386
propiedades asintticas, 393
estimado de parmetros, 375
estimado consistente, 376
estinlado insesgado, 375
estimado de mxima
probabilidad, 384, 355
estimado de mnimos
cuadrados, 396
estimado inexistente o
insesgado, 4 15
estirnado insesgado d e
varianza mnima, 375
mejolr estimado lineal, 378
estimado, 375
insesgado, 375
eventos,13
complementarios, 14
inde~pendientes, 54
mutuamente excluyentes, 14
eventos' equivalentes, 73, 106
eventos independientes, 54, 55
eventos mutuamente
excluyentes,14
eVelltOS mutuamente
independientes, 58
experimento aleatorio, 9
experimento no dcterminista, S
experimentos de Bernoulli, S1
factorial, 33
falla, tasa de, 298
falla, ley exponencial de, 303

478 ndicedematerias

y la distribucin d e

Poisson, 307
falla, ley gama de, 309
falla, ley normal de, 301
frmula d c Stirling, 328
frecuencia relativa, 15
funcin de densidad d e
probabilidades, 86
del cociente d e
variables aleatorias
independientes, 142
conjuntas,123
marginal,128
d e la suma de
variables aleatorias
independientes, 340
del intervalo de
la muestra, 362
del mximo de
la muestra, 358
del mnimo de
la muestra, 358
del producto de
variables aleatorias
independientes, 142
funcin de densidad de
probabilidad condicional, 132
funcin de densidad de
probabilidad conjunta, 123
funcin d e densidad d e
probabilidad marginal, 128
funcin d e distribucin, 94
funcin d e distribucin
acumulativa, 90, 112
caractersticas de, 9 1
funcin d e densidad d e
probabilidad, y la, 93,
94, 123
grfica dc, 9 1, 92
propiedades de, 93

funcin d e distribucin
acumulativa conjunta, 128
funcin d e operacin
caracterstica, 420
para probar cl parmetro
P de una variable
aleatoria con distribucin
binomial, 43 1
para probar la media de una
distribucin normal con
varianza conocida, 424
para probar la media de una
distribucin normal con
varianza desconocida, 433
y eleccin del tamao de la
muestra, 427
funcin de regresin, 197
aproximacin d e los mnimos
cuadrados, 20 1
lincal,199
funcin de riesgo, 298
funcin gama, 254
funcin generadora de
momentos, 276
dc una distribucin
binomial, 278
de una distribucin x 2 , 280
de una distribucin de
Poisson, 278
de una distribucin
exponencial, 279
de una distribucin gama, 2SO
de una distribucidn
geomtrica, 2S4
de una distribucin normal,
279
de una distribucin uniforme,
278
de una funcin lineal de una
variable aleatoria, 285

Indicede materias 479

d e series d e variables
aleatorias, 29 1
d e sumas variables aleatorias
independientes, 286
de propiedad de
unicidad, 285
y momento, 282
funciones d e variables
aleatorias,106
caso bidimensional, 137
caso continuo, 11 1, 112
caso discreto, 108
funcin montona, 114
valor esperado de, 161, 168
grandes nilmcros, ley d c los, 324
hiptesis alternativa, 418
hiptesis, prueba de, 418
para la media de una variable
aleatoria con distribucin
normal, 424
nivel d e significacin, 425
regin crtica, 428
hiptesis nula 418
integral de convolucin, 340
intervalo d e confianza, 401
para el parmetro de una
distribucin binomial, 407
para la media de una
distribucin normal
(varianza conocida), 40 1
para la media de una
distribucin normal
(varianza desconocida), 404
para la varianza de una
distribucin normal, 408

jacobiano de una
transformacin, 139,140
mximo d e la muestra, 391
mecnica, analoga con, 77, SS,
159, 177, 180
mnirncb d e la muestra, 355, 358
y la distribucin
exponencial, 360
modelos matemticos, 1
momento de una variable
aleatoria respecto de su
esperanza,179
muestra, tamao de, 421
muestra aleatoria de una
variable aleatoria, 35 1
gene~:acin de una muestra
aleatoria, 365, 368
muestras, 349
coeficiente d e correlacin, 400
mxi~mo de, 355
media de, 355
mnimo de, 355
varia:nza de, 355, 363
nmeros aleatorios, 364
orden estadstico, 355
parmctro de una distribucin,
153
probabilidad,17
axioma para, 18
condicional, 46
inducida, 75, 124
teoremas bsicos, 18, 19, 20
probabilidad condicional, 43
probabilidad inducida, 75, 109
probabilidad no condicional, 46
proceso d e Poisson, 218, 222

480 Indice de

materias

aplicaciones de, 222


supuestos de, 219
producto cartesiano, 7
promedio muestral, 356
propiedades reproductivas, 286
d e la distribucin x 2 , 2SS
d e la distribucin normal, 258
d e la distribucin de
Poisson, 2SS
punto mucstral, 355
recorrido de la muestra, 362
regularidad estadstica, 17
resuItados igualmente
probables, 28
series geomtricas, 79
suma de variables aleatorias
independientes, 339, 345
teorcma dc Bayes, 51
teorema de multiplicacin de
probabilidades, 47
generalizacin de, 66
tcorema de binomio, 35
forma generalizada, 36
teorema del lmite central, 331,
332, 333, 335
teorema Gauss-MarkoK, 399
transforlnacin integral, 363,
364
valor esperado de una variable
aleatoria, 153, 155, 158
aproximacin para, 1 S2
d e la suma de variables
aleatorias,169
de una funcin de una
variable aleatoria, 16 1, 169
de una funcin lineal, 170

del producto de
variables aleatorias
independientes, 17 1
del valor condicional
esperado,194
propiedades del valor
esperado, 169
valor medio de una variable
aleatoria,153
variable aleatoria, 69
continua, S5
discreta, 76
distribucin d e
probabilidad, 77
espacio muestral de, 71
no correlacionada, 190
sucesiones de, 291
variable aleatoria
bidimensional, 121
continua, 122
discreta, 122
normal, 26 1
variable aleatoria continua, S5
variables aleatorias
independientes, 134
criterio de, 135
variables aleatorias ndimensionales, 145
varianza de una variable
aleatoria,175
aproximaci6n a, 182
evaluacin de, 177
propiedades de, 179
d e la suma de
variables aleatorias
independientes, lS0
varianza muestral, 349
Venn, diagrama de, 6

You might also like