You are on page 1of 148
tlhe SIMULACION = SHELDON M. Ross 4 éste texto se mucétra la manera de analizar un ‘modelo mediante un estadio de simlacién. En par: ticular, primero se explica la forma de utilizar und, ‘computadora para generar nimetgs aleatorios {ade pre- cisainente, pseudoaleatorios)y Idego seve ls oma de ls aleatorias par- 9 Mediate el concepto dee la mali 7 colear veal setae generat nian 1 eels vectors Nears rl, slg ohne cma - pc 4 "ee tas incereaanes oes oe grad d@epofian uc result, Pres ‘Generacién de variables alestoria Gaiauce te aleatorias 70-17-0259. } 30000 i oe 2 a iit} — \\) NE ioe ae UME beepseveprettegcom oe ! l repair pecaball cont Simulacién Segunda edicin Sheldon M. Ross DEPARTMENT OF INDUSTRIAL ENGINEERING AND OPERATIONS RESEARCH UNIVERSITY OF CALIFORNIA BERKELEY, CALIFORNIA TRADUCCION. (OSCAR ALFREDO PALMAS VELASCO. Doctor en Matemticas Instituto de Matemsticas, UNAM REVISION TECNICA VICTOR HUGO IBARRA MERCADO Lic. en Fisica y Matemsticss, ESFM-IPN Catedrtico dela Escuela de Acturia, Universidad Anauae PEARSON PRENTICE : ee HALL Longman: MEXICO + ARGENTINA + BOLIVIA + BRASIL + COLOMBIA + COSTA RICA + CHILE ECUADOR, "EL SALVADOR » ESPANA + GUATEMALA + HONDURAS + NICARAGUA = PANAMA PARAGUAY + PERU + PUERTO RICO + REPUBLICA DOMINICANA* URUGUAY + VENEZUELA Das reac gin Ross, Sheldon M. ‘Simulaci6n, 2, eficin PRENTICE HALL, MEXICO, 1999 ISBN: 970.17.0199.X AREA: UNIVERSITARIOS FORMATO: 1723 om PAGINAS: 296 epiciow en bspaRot: EDITOR; PABLO EDUARDO ROIG VAZQUEZ SUPERV SOR DE TRADUCCION: JOSE LUIS NUNEZ HERREION SUPERVISOR DE EDICION: ALEJANDRO A, GOMEZ RUIZ CCORRECTOR DE ESTILO: {JOSE FRANCISCO JAVIER DAVILA MARTINEZ ROSS: SIMULATION. 2a. ed “Traducida de a segunda vdicién en inglés del obra: SIMULATION. All ight reserved Autorized causation fom English anguae ein published by [Academic Pres, Ine “Todos los derechos reseradgg Traducc6n atorzada dela icin en inglés poids por ‘Academie Pres. In Alf ight reserved. No part ofthis book may be reproduced o anit in any form or by aby means ‘lectonc mechanical. incleding photocopying recording o by any infeation storage and reread system, witha permission in writing fom the bls Prohibid a rproduecdn ttl paca esa obra, por euslquier medio mado sim reac por crt del eda Derechos esevados © 199 expecta primers ecia en espaol pulicada pr: PRENTICE HALL HISPANOAMERICANA. 5, . Calle 4 Nim. 25, piso, Face. Industria lee Blanco 153870 Naucalpan de Juez, Edo, de Mexico ISBN 97017-0259. Miembco det Carara Nacional dela Industrial Eatoril, Reg. Num, 1524 Original ngs Language ition Published by Academic Pres, ne Copyrieht © 1997 All ph eeseved ISBN 0125984103 [IMPRESO EN MEXICOMPRINTED IN MEXICO Contenido Prefacio Capitulo 1 Introduccién Bjercicios Capitulo 2 Blementos de probabilidad 2 apacio musty eventos 22 Atta de proba 23 Probab onion independencia 24 Variables atenoras 25 Esperanra 26 Veanea 21 Drsigalad de Cheyer yas eyes de fos panes sieros 28 Algunat varies lea dso stables sors nomi, 177 Vaal altri Poison, 19 eset gama, 20/La me deal ‘eeava 217 Vries sles Netgear, 2.9 Variables alewtorias continuas: a in Yates alesis ditibiesuitomemente, 2 / Vales leas sas, 25 Varn ers pone, 29/8 prec aon 1 ables alentoras gamma 35/8 proceso Fson ho homogéne, 2.10 Esjeanea condconalyvaranacondconal = Bercicion ogi a 15 "7 2 30 31 38 Capitulo 3 Nuimeros aleatorios Introduccion TT Generacion de nlimeros psewdoalatorios 5.2 Uso de nimerosalatoris para evalua integrals Bjercicios Bibliogratts Capitulo 4 Generacién de variables aleatorias diseretas 441 Et méiodo de ta wansformads inves 42 Generacién de una vatabe aleaoria Poisson 45 Generacion de variables slestrias binomisles ‘4a: La thenien de aeptacign yrechazo 45 Elmétodo de composcion Ejercicios Capitulo S$ Generacién de variables aleatorias contnuas Introduccion Set algovede aansfomata ies 5.2 El metodo de rechazo ens 5:3 mo polar ra gener varies ale 5 Generacién de un proceso Poisson he 35 Getcracign de un proceso Poisson no homoge jereicos Bibhiograla Capitulo 6 El méodo de simulacién por medio de eventos dserios Inrodvecion ae Secon mete cen 2 Sinema de ea sr ie 5 Sto mn ee sds eres ea $2 Site dees de pert om 85 Moseto de inventr 6 Probie devepsnion oo Fret ge osiones n ales 6 eg del modelo de slain rics pnBbliogate Contenido 36 36 38 2 4s so 32 33 56 7 e 2 15 a 85 86 0 7 101 tot 106 109 Contenido Capitulo 7 Anilisisestadistco de datos simulados Iroduccign 7.1 Media y varianza muesuales 112 Estimacién del intrvalo de una media pobacional 73 La téenica bootstrap para estimarerores cunritcos medios| Bjecicios, Bibliogratis Capitulo 8 Téenicas de reduccién de varianza Inodccisn ni {1 Eton de varibes anicas 3 42 Evo de variables de consol iat 833 Rotcion de ana mediante condcoaamieno 19 4 Moesueo esraine ts 1:5 Mente de imporancia ter 86 Uso de miners aeatoroscomunes "8 Anta: verhnic dl méad d swabs ania snr olor esperad de fnsones monnas, 180 is is Capitulo 9 Técnicas de validacionestadistica Introduccién if 189 9.1 Prob donde de juste 1 rch de Dowd de jst cuniadapara dts drs, 190/Paca de otmogooy Sina pra as cons, 93 912 Mches de tonda dente sn prams eopeciicados 198 rca dels dats dots 198/Ecass des dao camino, 207 93 Elprblema de dor mess 2 52 Nanci a hips en proces Poison no homogéneo 20 Srice aM Biograia ie Capitulo 10. Métodos de Monte Calo con cadens de Matkov Inrodccién ais Tout Cade de Markov ais 102 Eatgorim de Hastings Metropolis 2 103 Elamcnteador de Gide ma 104 Temple sma Be 10 El lgodtne de meso con rmaeses de ingortnc bo Briton 2 Bblopata dete sumone PERTENECE vii MANEL ALONSO cASTRO Gh. Capitulo 15. Algnos temas adicionales Sosa, TT" Bl metodo de ls variables alias para ge 112 Simson de un proses Posonbdimensinal 113 sions na end pa a ue a ‘een la simulacion os 1 Reouacign de probabiidaes y tempos esperados de primers mediante riesgo aleatrios Bjecicios Bibliografla err variables alestoias dscretas storia da Apéndice de programas Indice Contenido 188 248 22 256 260 267 268 20 ca Prefacio Al formular un modelo estocéstico para describir un fensmeno real, lo comin era haallar el término medio enire elegis un modelo que fuese una imagen reaista de la situacién y uno cuyo anslisis matemtico resultara posible. No parecfa adecuado ele- ‘ir, pues, un modelo Fie! al fendmeno en estudio si no era posible analizarlo desde el punto de vista matemético. Ciertas consideraciones similares han Hevado a concen- trarse en resultados asint6ticos o de estado estacionario, en contraposicidn a los mis ‘tiles relativos at Gempo transitorio. Sin embargo. la aparicidn més 0 menos reciente de veloces y no muy caras computadoras ha Ilevado a otro planteamiento, a saber: twatar de modelar el fendmeno de la manera més fiel posible y Juego basarse en un estudio de simulacién para analizatto. En este texto mostramos la forma de analizar un modelo mediante un estudio de simulaci6n, En particular, primero explicamas ls forma de utilizar una computadora para generar niimeros aleatorios (més precisamente, pseudoaleatorios) y luego ver 1a forma de utilizarlos para generar los valores de variables aleatorias a partic de distri- bbuciones arbitrarias. Nos servimos del concepto de eventos diseretos para mostrar la forma de emplear variables aleatorias y generar el comportamiento de un modelo estocdstico conforme transcurre el tiempo, Al hacerlo, estudiamos el modo de obtener estimadores de fas cantidades que nos interesen. Analizamos las imerrogantes estadis- tieas de cuando detener una simulacién y qué grado de confianza debe tenerse en los cstimadores que resulten. Presentamos varias formas de mejorar los estimadores co- ‘munes de la siraulacién. Ademés, mostrumos la forma de utlizarla para determinar si el modelo estocastico elegibo es congruente con un conjunto de datos reales. Los capitulos del libro son los siguientes: el capitulo 1 es introductorio y presenta ‘un fenémeno caracterstico de interés. El capitulo 2 es un repaso de probabilidad. Aungue es completo y no supone que el lector esté familiarizado con esa materia, imaginamos que de hecho sera un repaso para muchos. El capftulo 3 trata de los x Prefacio riimeros aleatorios y de e6mo una variante de ellos (os lamados mimeros pseudo- aleatorios) pueden generarse en una computadora. En los capftulos 4y 5 se considera el uso de nimeros aleatorios para generar variables aleatorias discretas y luego continuas, El capftulo 6 presenta el método de eventos discretos para el seguimiento de un sistema arbitrario conforme éste evoluciona con el tiempo. Se presentan varios ejem- pilos, relacionados con los sistemas de lineas de-espera con un solo servidor y con varios servidores, con un sistema de inventarios, con vn modelo de reparacién de una maquina y para ejercer una opeién de acciones. El capitulo 7 presenta el tema de la estadistica, Suponemos que nuestro lector promedio no ha estudiado el tema, por lo cual partimos de conceptos muy bésicos y al final presentamos el método estadistico ide "bootstrap", que es muy sil para analizar los resultados de una simulacion, I capitulo 8 estudia el importante tema de reduccién de la varianza. Se tata de tuna tentativa por miejorar los estimadores comunes de una simulacién, determinando Jos que tengan la misma media pero menor varianza. El capitulo comienza con la técnica de uso de variables antitéticas. Observamos (transfiriendo la demostracién a tun apéndice) que esto siempre produce una reduccidn de la varianza, junto con un shorro computacional, cuando in(entamos estimar el valor esperado de una funcién {que es monétona en cada una de sus variables. Luego presentamos las variables de Control ¢ ilustramos su utilidad en la reducci6n de la varianza. Por ejemplo, mostra mos la forma de utilizar las variables de control de manera eficaz para analizar los Sistemas de lineas de espera, los sistemas de fabilidad un problema de reordenamiento de Tistas y el blackjack. También indicamos cémo emplear paquetes de regresin para faci- Iitar los edlculos que resultan de aprovechar las variables de control. Luego se estudia la reduccin de varianza mediante el uso de espetanzas condicionales. Tal uso se indica ten ejemplos que tratan la estimacién de 7 y el andlisis de los sistemas de lineas de ‘espera con capacidad finita. Ademis, junto con una variable de control, la esperanza ‘Condicional sirve para estimar el nimero esperado de eventos de un proceso de renova ign durante cierto tiempo fijo. El muestreo estratificado como una herramienta para la reduccidn de varianza se indica en ejemplos de lineas de espera con tasas de Hlegada Variables y de evaluaci6n de integrales. La relacién entre las téenicas de reduccién de varianza de esperanza condicional y muestseo estratificado se explicaeilustra en la ‘estimacién de la ganancia esperada en el video péquet. Después analizamos la técnica de uestro de importancia. Indicamos y explicamos cémo ésta puede ser una técnica muy poderosa en la reduccién de varianza alestimar probabilidades pequehas, Al hacerlo, presentamos el concepto de distribuciones inclinadas y mostramos la forma de wili- varlas en una estimacién con muestreo de importancia de una pequefia probabilidad ‘con cola de convolucién, Se presentan aplicaciones del muestreo de importancia a las Iineas de espera, las caminatasaleatorias, las permutaciones aleatorias y al cdlculo de cesperanzas condicionales cuando una esté condicionando un evento raro, La ditima Prefacio Po ‘técnica de reduccién de varianza del capi comin de nimerosaleatorios. El capftulo 9 trata de las técnicas de validacion estaistica, que son procedimientos cestadisticos tiles para validar el modelo estoeéstico cuando se dispone de algunos datos reales. Se presentan pruebas de bondad de ajuste, como Ia prueba ji cuadrada y Ia prueba de Kolmogorov-Smienov. Otrassecciones del capitulo tran los problemas de dos muestras y m muestras y formas de vesficarestadsticamente Ia hipstesis de due un proceso sea Poisson. capitulo 101rata de los métodos de Monte Carlo con cadenas de Markov. Se trata de \éenicas quo han ampliad en gran medida el uso de la simulacidn en los sitimos afi. El paradigma canénico de simulacisn para estimar 8 = E{h(X)}, donde X es un vector leatoio,consiste en simular copias independiente eidénticamente disteibuida de X y luego servrse del valor promi de ACS) como estimado. Est sel estimador de sma Jacién “bruto", qu luego se puede mejorar mediante una 0 més de!as ideas de reducciGn de varianza del capitulo 8. Sin embargo, con este método es necesario especificar la disteibucién de X y que se pueda realizar una simulaci6n, No obstante, como veremos en el capitulo 10, hy muchos ejemplos en los que se canoce la distribucién de X pero no se puede simular en forma directa el vector aleatorio X, asi como otros ejemplos en Jos que la distribuci6n no se conoce de manera completa, sino que se especifica salvo una constante multiplictiva. Asi en estos casos no se dispone del método usual para cstimar, Sin embargo, en los dtimos aos se ha utlizado un nuevo método, basado.en la generaci6n de una cadena de Markov cuyadistribucin limite es la distibucign de X, alo que sigue Ia estimacién de @ mediante el promedio de los valores de la funcién h evalvada en los estados sucesivas de la cadena. Estos métodos de Monte Carlo con cade- nas de Markov se exploranen elcapftulo 10. Comenzamos, en la secci6n 10.2 presen- tando algunas propiedades de las cadenas de Markov. En la seccién 10.3 se presenta tuna téenica general para generar una cadena de Markov con una distribucién limite dada salvo una constante multiplicativa, conocida como algoritmo de Hastings- Metropolis, y se da una aplicacién para generar un elemento aleatorio de un enorme ‘conjunto “combinatoro”. La versiGn de uso mis amplio de este algoritmo es el mues- treador de Gibbs, que se presenta en la seeciGn 10.4, Se analizan ejemplos relatos ala generacién de puntos aleatorios en una rei6n,sujetos ala restrceiGn de que nunca dos puntos estan @ menos de una distancia fija uno de otro; para el andisis de redes de ineas de espera de productos, y para el andisis de un modelo jerérquco de estadistica bayesiana para predecir el nimero de cuadrangulares que lograrin cieros jugadores de béisbol, En la scei6n 10.5 se presenta una aplicacin de los métodos de este capitulo a problemas de optimizacion determinist,llamados de temple simulado, asf como un ejemplo relativo al problema del agente de ventas viajero. La tltima seceién del eapft- Jo 40 ata del algoritmo de muesteo con remuestreo de importanci, que eS una gene- lo 8 se felaciona con el uso de un flujo aii Prefacio ralizacin de la técnica de aceptacisn y rechazo de los capitulos 4 y 5. Se explicael uso de este algoritmo en estadistica bayesiana El capitulo 11 toca algunos otros temas de la simulacin, En la secci6n 11.1 revise mos el método de variables alias, el cual, con cierto costo de configuracién, es una forma muy eficaz. de generar variables aleatorias diseretas. La seccién 11.2 trata ta simulacién de un proceso Poisson bidimensional. En la secci6n 1.3 presentamos una jdentidad relativa a la covarianza de la suma de variables aleatorias Bernoulli depen dientes y mostramos que su uso puede producir estimadores de pequefias probabilidades ‘con muy pequefias varianzas. Esto se aplica para estima Ia fabilidad de los sistemas, 0 ‘que parece ser més eficaz que cualquier otro estimador conocido de la fiabilidad de un sistema pequefo, ai como para estimar la probabilidad de que determinado patrén apa- rezea durante cierto tiempo fijo. Laseccién 11 4 presenta los riesgos aleatorios. Estas can tidades se pueden emplear como variables de control al estimar el tiempo medio trans- ‘currido basta que un determinado proceso de Markov alcance un conjunto especffico . Considere una estacién de servicio en la que los clientes son atendidos por or- den de legada. Sean A, S, y D, fespectivamente, la hora de Hlegada. el tiempo de servicio y la hora de salida del cliente n. Suponga que slo hay un servidor y ue el sistema inicialmente no tiene clientes. (a) Argumente que Dy = 0, y para n > 0, D,~ 5, = Maximo (Ay, Dy) correspondiente cuando hay dos servi (b) Determine la formula de recursis dores. (©) Determine la f6rmula de recursién correspondiente cuando hay kservidores. (@) Eseriba un programa de computadora que determine las horas de salida en fancién de la horas de legada y del tiempo de servicio. Utlice el programa para verficar sus respuestas de la parte (a) y (b) del ejercicio 1 Elementos de probabilidad [L_2.1._ Espacio muestral y eventos Consideremos un experimento cuyo resultado no se conoce de antemano. Sea Sel espacio muestral del experimento, es decir, el conjunto de todos los resultados posi- bles. Por ejemplo, si el experimento es una carrera de caballos numerados del 1 al 7, centonces = {todos los ordenamientos de (1,2, 3, 4,8, 6.79) Por ejemplo, el resultado (3, 4, 1, 7, 6, 5,2) significa que el cakallo nero 3 legs en primer lugar, el caballo ndmero 4 lleg6 en segundo, y asf sucesivamente Cualquier subconjunto A del espacio muestral se conoce como evento, Io que significa que un evento es un conjunto formado por resultados posibles del experi ‘mento, Si el resultado del experimento esté en A, decimos que A ha ocurrido. En el ejemplo anterior, si A= {todos los resultados de S que comienzaa con 5) entonces A es el evento de que el caballo némero 5 Hegue en primer lugar. Para cualesquiera dos eventos A y B, definimos el nuevo evento A U B, llamado uunign de A y B, consistente en todos los resultados que estén ex A o en B 0 en ambos, De manera similar, definimos el evento AB, llamado interseccién de A y B, como todos los resultados que estin en A y en B. Es decir el evento AU B ocurre si Ao B ‘ocurre, mientras que el evento AB ocurre si ambos ocurren, También podemos define tuniones ¢ intersecciones de més de dos eventos. En particular, a unin de los eventos Aye Ap - ++ Ay Genotada por U7}. A) se define como la formada por todos los resul- tados que estén en cualquiera de los 4,. De manera andloga, la interseceién de los 5 6 Elementos de probabilidad Cap. 2 eventos Ay, Ay -+ +A, (denotada A\Az- - -A,) se define como 1a forma por todos los resultados que estén en todos los A, Para cualquier evento A, definimos evento 4°, el complemento de A, como el que consiste en todos los resultados del espacio muestral $ que no estén en A. Es decir, 4° ‘cure siy s6lo si A no ocurre. Como el resultado de un experimento debe estar en é1 ‘espacio muestrl S, esto implica que S” no contiene resultado alguno y por fo tanto no puede ocurtit. Llamamos a $° el conjunto vacio y lo denotamos por . Si AB = @ de ‘modo que A y B no pueden ocurrr a la vez (pues no hay resultados que estén en A y en B), decimos que A y B'son mutuamente excluyentes. 122 mas de probabilidad ‘Supongamos que para cada evento A de un experimento con espacio muestral S hay ‘un nimero, denotado P(A) y llamado la probabilidad del evento A, que cumple los tres axiomas siguientes: Axioma 1 0< P(A) $1 Axioma 2 P(S)=1 ‘Axioma 3 Para cualguier secuencia de eventos mutuamente exctayentes Ay, Ax» ACah=Sm weuacos ct axima | exsbece qu la robb d ie ol estado del experineno ene une ce Dy 1 sha bec qe con pebbiad ,e meted epaio metal ol axioms 3 afta qe pascal ca cncta motuannt cxlyets apo de ea menos sae camer igaata sna ds potbides respects Oo ten ella pr mostrar vais los 8 ee a perjempo como Ay # simpson events mute xl ma AU a’ nemo os aniomas 2 3 qe 1 = PS) = PAU AS = POA) + PAD) en forma equivalente, PAS) = 1 ~ PA) En palabras, a probabilidad de que no ocurra un evento es 1 menos la probabilidad de que ocurra. See. 2.3 Probabilidad condicional ¢ independencia 7 Consideremos un experimento consistente en lanzar al aire una moneda dos veces y observar si el resultado es cara o cruz, El espacio muestral puede considerarse como €l siguiente conjunto de cuatro resultados: = ((cara, cara), (cara, cruz), (cruz, cara), (cruz, cruz) donde (cara, cruz) significa, por ejemplo, que en el primer lanzamiento se obtiene ‘cara y en el segundo cruz. Supongamos ahora que cada uno de los cuatro posibles resultados es igualmente probable y que por lo tanto tiene 4 de probabilidad. Supon- gamos ademés que observamos que el primer lanzamiento cae en cara. Entonces, dada esta informacién, ,cusl es la probabilidad de que ambos lanzamientos caigan en ‘cara? Para calcular esta probabilidad, razonamos de Ia manera siguiente: dado que el Ianzamiento inicial cay6 en cara, pueden existr « fo mas dos resultados posibles, a saber, cara, cara) o (cara, cruz) Ademés, como cada uno de estos resultados tenfa mente la misma probabilidad de ocurti, deberfan seguir teniendo probabili- lado que el primer lanzamiento cayé en cara, la probabilidad (Condicional) de cada uno de los resultados (cara, cara) y (cara, cruz) es de ¥4, mien- tras que la probabilidad (condicional) de los otros dos resultados es de 0. Por lo tanto, Ia probabilidad deseada es 4. SiA y B denotan, respectivamente, los eventos de que ambos lanzamientos caigan cen cara y el evento de que el primer lanzamiento caiga en cara, entonces la probabili- dad obtenida anteriormente es la probabilidad condicional de A dado que B ha ocuri- do y se denota como Pala) Fodemos obtener una fmula general para P(A |B), vida para todos los experimen- tony eventos Ay B com antes sel evento B ocr, entonces para qu A our es necesaro que To ocuido sea un punto en A yen Bes deci debe estar en AB. Ahora, come sabemos que B ha ocurido, esto implica que B se convene en nuestro mievo espacio muestra y por lo tanto la probabilidad de que el evento AB ooura ser igual aa proabilidad de AB con respect de In probabilidad de B. Es dcr, PAB) PB) Como indica et ejemplo del lanzamiento de monedas, P(A|B), la probabilidad condicional de A, dado que B ha ocurrdo, no es en general igual a P(A), Ia probabil dad no condicional de A. En otras palabras, el hecho de saber que B ha ocurrido PAB) . Elementos de probabilidad Cap. 2 snoifca por Io general la robilidad de que A ocura (US pasar i fesen = sree ecluyentes?. Enel cao particular en gue PCATB) sea igual a PUA) des sare 4 yb con independiente. Como P(A1B) = ABYC), vemos que A es independiente de Bi P(AB) = PA)P(B) Como esta relacién es simétrica en A y B, esto implica que siempre que A sea inde- pendiente de B, B es independiente de A. L24 Variables aleatorias Cuando se realiza un experiment, a veees nos interesa principalmentecieta cani- {dad nunética determinada por el resultado. Estas cantidades do interés que son deter- srinados por ls resultados del experimento se conocen como variables aeatorias Ta funcion de distribucién acumulativa, o més brevemente, la funcin de distibu- cin F dela variable aletoria X se define para cualquier nimero rel x como Fea = PIX S 3) ‘Una variable aleatoria que puede asumir un nimero finito © a Yo més una cantidad humerable de valores posibles es discreta. Para una variable aleataiadisereta X, dfi- rimos su funcidn de masa de probabilidad p(x) como pla) = PIX = 3) ‘i X cs una variable alatria dsereta que asume uno de los posibles valores 22 = + tenionees, como X debe tomar uno de estos valores, tenemos Lee=1 _Ejemplo 2a Supongamos que X toma uno de los valores 1,03. Si p=4, pa=t 4 5 entonces, como p(1) + pt2) + p(3) = 1, esto implica que PG) = 73: Mientras una variable aleatoria disereta asume a lo ms un conjunto numerable de posiles valores, con fecuencia debemos analzar variables aleatorias cuyo conjunto fe posibles valores es wn intervalo. Decimos que la variable aleatoria X es una varia Sec. 2.4 Variables aleatorias 9 ‘ble aleatoria continua si existe una funcién na funciGn no negativa f(x) definida para todo numero real x, con la propiedad de que para cualquier conjunto C de ntimeros reales pice Ch = | fo de an La funciGn fes la funcién de densidad de probabilidad de la variable aleatoria X. Larelaci6n entre la distribucién acumulativa F(.) y la densidad de probabilidad f() se expresa como Fo) = Pixe (=, al) = [fade [Al decivar ambos lados se oben a io = Ra) Es decir, a densidad es la derivada de la funcin de distribucién acumulatva. Una interpre {acign un poco més intuitiva de la funcin de densidad se obtiene de Ia ecuacign (2.1) como sigue: rfe-fexsa+s} [oh ae» te) donde € es pequeio. En otras palabras, la probabilidad de que X esté contenido en un intervalo de longitud € alrededor del punto a es aproximadamente ¢f(a). Esto permi- vr la) eu mea de qu tan pebble gue Ia vara leona ete En muchos experimentos estamos interesodos no s6lo en las funciones de distibu- cin de probsbilidad de variables aleatorias individuales, sino también en las relacio- nes entre dos 0 més de ellas Para especificar la relaciGn entre dos variables aleatorias, ‘definimos Ia funcién de distribucién de probabilidad acumulativa conjunta de X y Y Fay) = PIXS5Y Sy) Asi, F(a, ») especifia Ia probabilidad de que X sea menor o igual a x ¥ que en forma simulténea ¥ sea menor o igual ay 10 Elementos de probabilidad Cap. 2 ‘Si tanto X como ¥ son variables aleatoris discretas,entonces definimos Ia funci¢n ‘de masa de probabilidad conjunta de X y ¥ como pos 9) = PIX = V9) ‘De manera anéloge, decimos que X'y Y son conjuntamente continuas, con funciéw de densidad de probabilidad conjunta f(x,y), si para cualesquiera conjuntos de aimeros reales Cy D pixe Ge D) = ff fun dedy Bb Las variable sleausis X ¥ son independientes si pra cuslesquiera dos conjun tos de mmerot reales Cy D Pixe C,¥e D) = PiXe CIPIYe DY Es decir, Xy ¥ son independientes si para todos los conjuntos C y D fos eventos A = (Xe C}, B= Y€ D) son independientes. Intitvamente, X y ¥ son independientes si el hecho de conocer el valor de una de ells no influye en Ia distibucién de probabi- dad de Io otra. Las variables aleatorias que no son independientes son dependientes, ‘Los aniomas de probabilidad permiten mostrar que las variables aleatorias disere- tas X y ¥son independiente si s6lo Si, para toda % y, PUX =x, Y= y) = PIX = PLY = 9) De manera anéloga, si X y ¥ son conjuntamente continuas con funcién de densidad {fx 9), entonces son independientes siy solo si, para toda x Fos 9) = fel) donde f(x) y fr) son las funciones de densidad de X y ¥,respectivamente, I 2.5 Esperanza ‘Uno de dos conceptos més tiles en probabilidad es el de a esperanza de una variable Ueatoria, Si Xes una variable aleatoria dicreta que toma uno de os posibes valores aaacnnentonces la esperanza o valor esperado de X, también Mamado media de X y denotado par E(X] se define como XI = SPX = 2) 2) See. 2.5. Esperanza la u Bn pals, valor espero de X . Jo de X es un pomedio poner dels valores que Dede tomar X, donde peo est dado po la pobblida de gue J tome. Por Symposia incon de mas de proba de st dada por centonces = simplemente promo comin de sds valores posible 0 1, que puede omar XX. Por otro lado, si dahon 2 WO) = w= entonces, =o!) 41(2) =? sin =of8) #1(3) =5 sun promedio ponderado de los dos valores posbles Oy 1, donde el alr 1 ene el doble del peso del valor O, pues p(1) = 20). Ejemplo 2b Si Tes una variable aleatoria indicadora del evento A, es decir, si _ ft SAocure re{) Sate centonces, Ell) = 1P(A) + OPA = PCA) PPor lo tanto, la esperanza de Ia variable aleatoriaindicadora para el evento A es sim- plemente la probabilidad de que A ocurra. ‘Si X es una variable aleatoria continua con funcién de densidad de probabilidad f, centonces, en analogfa con la ecuacién (2.2), definimos el valor esperado de X coma aux = [7 sft) ae

You might also like