You are on page 1of 148
tlhe SIMULACION = SHELDON M. Ross 4 éste texto se mucétra la manera de analizar un ‘modelo mediante un estadio de simlacién. En par: ticular, primero se explica la forma de utilizar und, ‘computadora para generar nimetgs aleatorios {ade pre- cisainente, pseudoaleatorios)y Idego seve ls oma de ls aleatorias par- 9 Mediate el concepto dee la mali 7 colear veal setae generat nian 1 eels vectors Nears rl, slg ohne cma - pc 4 "ee tas incereaanes oes oe grad d@epofian uc result, Pres ‘Generacién de variables alestoria Gaiauce te aleatorias 70-17-0259. } 30000 i oe 2 a iit} — \\) NE ioe ae UME beepseveprettegcom oe ! l repair pecaball cont Simulacién Segunda edicin Sheldon M. Ross DEPARTMENT OF INDUSTRIAL ENGINEERING AND OPERATIONS RESEARCH UNIVERSITY OF CALIFORNIA BERKELEY, CALIFORNIA TRADUCCION. (OSCAR ALFREDO PALMAS VELASCO. Doctor en Matemticas Instituto de Matemsticas, UNAM REVISION TECNICA VICTOR HUGO IBARRA MERCADO Lic. en Fisica y Matemsticss, ESFM-IPN Catedrtico dela Escuela de Acturia, Universidad Anauae PEARSON PRENTICE : ee HALL Longman: MEXICO + ARGENTINA + BOLIVIA + BRASIL + COLOMBIA + COSTA RICA + CHILE ECUADOR, "EL SALVADOR » ESPANA + GUATEMALA + HONDURAS + NICARAGUA = PANAMA PARAGUAY + PERU + PUERTO RICO + REPUBLICA DOMINICANA* URUGUAY + VENEZUELA Das reac gin Ross, Sheldon M. ‘Simulaci6n, 2, eficin PRENTICE HALL, MEXICO, 1999 ISBN: 970.17.0199.X AREA: UNIVERSITARIOS FORMATO: 1723 om PAGINAS: 296 epiciow en bspaRot: EDITOR; PABLO EDUARDO ROIG VAZQUEZ SUPERV SOR DE TRADUCCION: JOSE LUIS NUNEZ HERREION SUPERVISOR DE EDICION: ALEJANDRO A, GOMEZ RUIZ CCORRECTOR DE ESTILO: {JOSE FRANCISCO JAVIER DAVILA MARTINEZ ROSS: SIMULATION. 2a. ed “Traducida de a segunda vdicién en inglés del obra: SIMULATION. All ight reserved Autorized causation fom English anguae ein published by [Academic Pres, Ine “Todos los derechos reseradgg Traducc6n atorzada dela icin en inglés poids por ‘Academie Pres. In Alf ight reserved. No part ofthis book may be reproduced o anit in any form or by aby means ‘lectonc mechanical. incleding photocopying recording o by any infeation storage and reread system, witha permission in writing fom the bls Prohibid a rproduecdn ttl paca esa obra, por euslquier medio mado sim reac por crt del eda Derechos esevados © 199 expecta primers ecia en espaol pulicada pr: PRENTICE HALL HISPANOAMERICANA. 5, . Calle 4 Nim. 25, piso, Face. Industria lee Blanco 153870 Naucalpan de Juez, Edo, de Mexico ISBN 97017-0259. Miembco det Carara Nacional dela Industrial Eatoril, Reg. Num, 1524 Original ngs Language ition Published by Academic Pres, ne Copyrieht © 1997 All ph eeseved ISBN 0125984103 [IMPRESO EN MEXICOMPRINTED IN MEXICO Contenido Prefacio Capitulo 1 Introduccién Bjercicios Capitulo 2 Blementos de probabilidad 2 apacio musty eventos 22 Atta de proba 23 Probab onion independencia 24 Variables atenoras 25 Esperanra 26 Veanea 21 Drsigalad de Cheyer yas eyes de fos panes sieros 28 Algunat varies lea dso stables sors nomi, 177 Vaal altri Poison, 19 eset gama, 20/La me deal ‘eeava 217 Vries sles Netgear, 2.9 Variables alewtorias continuas: a in Yates alesis ditibiesuitomemente, 2 / Vales leas sas, 25 Varn ers pone, 29/8 prec aon 1 ables alentoras gamma 35/8 proceso Fson ho homogéne, 2.10 Esjeanea condconalyvaranacondconal = Bercicion ogi a 15 "7 2 30 31 38 Capitulo 3 Nuimeros aleatorios Introduccion TT Generacion de nlimeros psewdoalatorios 5.2 Uso de nimerosalatoris para evalua integrals Bjercicios Bibliogratts Capitulo 4 Generacién de variables aleatorias diseretas 441 Et méiodo de ta wansformads inves 42 Generacién de una vatabe aleaoria Poisson 45 Generacion de variables slestrias binomisles ‘4a: La thenien de aeptacign yrechazo 45 Elmétodo de composcion Ejercicios Capitulo S$ Generacién de variables aleatorias contnuas Introduccion Set algovede aansfomata ies 5.2 El metodo de rechazo ens 5:3 mo polar ra gener varies ale 5 Generacién de un proceso Poisson he 35 Getcracign de un proceso Poisson no homoge jereicos Bibhiograla Capitulo 6 El méodo de simulacién por medio de eventos dserios Inrodvecion ae Secon mete cen 2 Sinema de ea sr ie 5 Sto mn ee sds eres ea $2 Site dees de pert om 85 Moseto de inventr 6 Probie devepsnion oo Fret ge osiones n ales 6 eg del modelo de slain rics pnBbliogate Contenido 36 36 38 2 4s so 32 33 56 7 e 2 15 a 85 86 0 7 101 tot 106 109 Contenido Capitulo 7 Anilisisestadistco de datos simulados Iroduccign 7.1 Media y varianza muesuales 112 Estimacién del intrvalo de una media pobacional 73 La téenica bootstrap para estimarerores cunritcos medios| Bjecicios, Bibliogratis Capitulo 8 Téenicas de reduccién de varianza Inodccisn ni {1 Eton de varibes anicas 3 42 Evo de variables de consol iat 833 Rotcion de ana mediante condcoaamieno 19 4 Moesueo esraine ts 1:5 Mente de imporancia ter 86 Uso de miners aeatoroscomunes "8 Anta: verhnic dl méad d swabs ania snr olor esperad de fnsones monnas, 180 is is Capitulo 9 Técnicas de validacionestadistica Introduccién if 189 9.1 Prob donde de juste 1 rch de Dowd de jst cuniadapara dts drs, 190/Paca de otmogooy Sina pra as cons, 93 912 Mches de tonda dente sn prams eopeciicados 198 rca dels dats dots 198/Ecass des dao camino, 207 93 Elprblema de dor mess 2 52 Nanci a hips en proces Poison no homogéneo 20 Srice aM Biograia ie Capitulo 10. Métodos de Monte Calo con cadens de Matkov Inrodccién ais Tout Cade de Markov ais 102 Eatgorim de Hastings Metropolis 2 103 Elamcnteador de Gide ma 104 Temple sma Be 10 El lgodtne de meso con rmaeses de ingortnc bo Briton 2 Bblopata dete sumone PERTENECE vii MANEL ALONSO cASTRO Gh. Capitulo 15. Algnos temas adicionales Sosa, TT" Bl metodo de ls variables alias para ge 112 Simson de un proses Posonbdimensinal 113 sions na end pa a ue a ‘een la simulacion os 1 Reouacign de probabiidaes y tempos esperados de primers mediante riesgo aleatrios Bjecicios Bibliografla err variables alestoias dscretas storia da Apéndice de programas Indice Contenido 188 248 22 256 260 267 268 20 ca Prefacio Al formular un modelo estocéstico para describir un fensmeno real, lo comin era haallar el término medio enire elegis un modelo que fuese una imagen reaista de la situacién y uno cuyo anslisis matemtico resultara posible. No parecfa adecuado ele- ‘ir, pues, un modelo Fie! al fendmeno en estudio si no era posible analizarlo desde el punto de vista matemético. Ciertas consideraciones similares han Hevado a concen- trarse en resultados asint6ticos o de estado estacionario, en contraposicidn a los mis ‘tiles relativos at Gempo transitorio. Sin embargo. la aparicidn més 0 menos reciente de veloces y no muy caras computadoras ha Ilevado a otro planteamiento, a saber: twatar de modelar el fendmeno de la manera més fiel posible y Juego basarse en un estudio de simulacién para analizatto. En este texto mostramos la forma de analizar un modelo mediante un estudio de simulaci6n, En particular, primero explicamas ls forma de utilizar una computadora para generar niimeros aleatorios (més precisamente, pseudoaleatorios) y luego ver 1a forma de utilizarlos para generar los valores de variables aleatorias a partic de distri- bbuciones arbitrarias. Nos servimos del concepto de eventos diseretos para mostrar la forma de emplear variables aleatorias y generar el comportamiento de un modelo estocdstico conforme transcurre el tiempo, Al hacerlo, estudiamos el modo de obtener estimadores de fas cantidades que nos interesen. Analizamos las imerrogantes estadis- tieas de cuando detener una simulacién y qué grado de confianza debe tenerse en los cstimadores que resulten. Presentamos varias formas de mejorar los estimadores co- ‘munes de la siraulacién. Ademés, mostrumos la forma de utlizarla para determinar si el modelo estocastico elegibo es congruente con un conjunto de datos reales. Los capitulos del libro son los siguientes: el capitulo 1 es introductorio y presenta ‘un fenémeno caracterstico de interés. El capitulo 2 es un repaso de probabilidad. Aungue es completo y no supone que el lector esté familiarizado con esa materia, imaginamos que de hecho sera un repaso para muchos. El capftulo 3 trata de los x Prefacio riimeros aleatorios y de e6mo una variante de ellos (os lamados mimeros pseudo- aleatorios) pueden generarse en una computadora. En los capftulos 4y 5 se considera el uso de nimeros aleatorios para generar variables aleatorias discretas y luego continuas, El capftulo 6 presenta el método de eventos discretos para el seguimiento de un sistema arbitrario conforme éste evoluciona con el tiempo. Se presentan varios ejem- pilos, relacionados con los sistemas de lineas de-espera con un solo servidor y con varios servidores, con un sistema de inventarios, con vn modelo de reparacién de una maquina y para ejercer una opeién de acciones. El capitulo 7 presenta el tema de la estadistica, Suponemos que nuestro lector promedio no ha estudiado el tema, por lo cual partimos de conceptos muy bésicos y al final presentamos el método estadistico ide "bootstrap", que es muy sil para analizar los resultados de una simulacion, I capitulo 8 estudia el importante tema de reduccién de la varianza. Se tata de tuna tentativa por miejorar los estimadores comunes de una simulacién, determinando Jos que tengan la misma media pero menor varianza. El capitulo comienza con la técnica de uso de variables antitéticas. Observamos (transfiriendo la demostracién a tun apéndice) que esto siempre produce una reduccidn de la varianza, junto con un shorro computacional, cuando in(entamos estimar el valor esperado de una funcién {que es monétona en cada una de sus variables. Luego presentamos las variables de Control ¢ ilustramos su utilidad en la reducci6n de la varianza. Por ejemplo, mostra mos la forma de utilizar las variables de control de manera eficaz para analizar los Sistemas de lineas de espera, los sistemas de fabilidad un problema de reordenamiento de Tistas y el blackjack. También indicamos cémo emplear paquetes de regresin para faci- Iitar los edlculos que resultan de aprovechar las variables de control. Luego se estudia la reduccin de varianza mediante el uso de espetanzas condicionales. Tal uso se indica ten ejemplos que tratan la estimacién de 7 y el andlisis de los sistemas de lineas de ‘espera con capacidad finita. Ademis, junto con una variable de control, la esperanza ‘Condicional sirve para estimar el nimero esperado de eventos de un proceso de renova ign durante cierto tiempo fijo. El muestreo estratificado como una herramienta para la reduccidn de varianza se indica en ejemplos de lineas de espera con tasas de Hlegada Variables y de evaluaci6n de integrales. La relacién entre las téenicas de reduccién de varianza de esperanza condicional y muestseo estratificado se explicaeilustra en la ‘estimacién de la ganancia esperada en el video péquet. Después analizamos la técnica de uestro de importancia. Indicamos y explicamos cémo ésta puede ser una técnica muy poderosa en la reduccién de varianza alestimar probabilidades pequehas, Al hacerlo, presentamos el concepto de distribuciones inclinadas y mostramos la forma de wili- varlas en una estimacién con muestreo de importancia de una pequefia probabilidad ‘con cola de convolucién, Se presentan aplicaciones del muestreo de importancia a las Iineas de espera, las caminatasaleatorias, las permutaciones aleatorias y al cdlculo de cesperanzas condicionales cuando una esté condicionando un evento raro, La ditima Prefacio Po ‘técnica de reduccién de varianza del capi comin de nimerosaleatorios. El capftulo 9 trata de las técnicas de validacion estaistica, que son procedimientos cestadisticos tiles para validar el modelo estoeéstico cuando se dispone de algunos datos reales. Se presentan pruebas de bondad de ajuste, como Ia prueba ji cuadrada y Ia prueba de Kolmogorov-Smienov. Otrassecciones del capitulo tran los problemas de dos muestras y m muestras y formas de vesficarestadsticamente Ia hipstesis de due un proceso sea Poisson. capitulo 101rata de los métodos de Monte Carlo con cadenas de Markov. Se trata de \éenicas quo han ampliad en gran medida el uso de la simulacidn en los sitimos afi. El paradigma canénico de simulacisn para estimar 8 = E{h(X)}, donde X es un vector leatoio,consiste en simular copias independiente eidénticamente disteibuida de X y luego servrse del valor promi de ACS) como estimado. Est sel estimador de sma Jacién “bruto", qu luego se puede mejorar mediante una 0 més de!as ideas de reducciGn de varianza del capitulo 8. Sin embargo, con este método es necesario especificar la disteibucién de X y que se pueda realizar una simulaci6n, No obstante, como veremos en el capitulo 10, hy muchos ejemplos en los que se canoce la distribucién de X pero no se puede simular en forma directa el vector aleatorio X, asi como otros ejemplos en Jos que la distribuci6n no se conoce de manera completa, sino que se especifica salvo una constante multiplictiva. Asi en estos casos no se dispone del método usual para cstimar, Sin embargo, en los dtimos aos se ha utlizado un nuevo método, basado.en la generaci6n de una cadena de Markov cuyadistribucin limite es la distibucign de X, alo que sigue Ia estimacién de @ mediante el promedio de los valores de la funcién h evalvada en los estados sucesivas de la cadena. Estos métodos de Monte Carlo con cade- nas de Markov se exploranen elcapftulo 10. Comenzamos, en la secci6n 10.2 presen- tando algunas propiedades de las cadenas de Markov. En la seccién 10.3 se presenta tuna téenica general para generar una cadena de Markov con una distribucién limite dada salvo una constante multiplicativa, conocida como algoritmo de Hastings- Metropolis, y se da una aplicacién para generar un elemento aleatorio de un enorme ‘conjunto “combinatoro”. La versiGn de uso mis amplio de este algoritmo es el mues- treador de Gibbs, que se presenta en la seeciGn 10.4, Se analizan ejemplos relatos ala generacién de puntos aleatorios en una rei6n,sujetos ala restrceiGn de que nunca dos puntos estan @ menos de una distancia fija uno de otro; para el andisis de redes de ineas de espera de productos, y para el andisis de un modelo jerérquco de estadistica bayesiana para predecir el nimero de cuadrangulares que lograrin cieros jugadores de béisbol, En la scei6n 10.5 se presenta una aplicacin de los métodos de este capitulo a problemas de optimizacion determinist,llamados de temple simulado, asf como un ejemplo relativo al problema del agente de ventas viajero. La tltima seceién del eapft- Jo 40 ata del algoritmo de muesteo con remuestreo de importanci, que eS una gene- lo 8 se felaciona con el uso de un flujo aii Prefacio ralizacin de la técnica de aceptacisn y rechazo de los capitulos 4 y 5. Se explicael uso de este algoritmo en estadistica bayesiana El capitulo 11 toca algunos otros temas de la simulacin, En la secci6n 11.1 revise mos el método de variables alias, el cual, con cierto costo de configuracién, es una forma muy eficaz. de generar variables aleatorias diseretas. La seccién 11.2 trata ta simulacién de un proceso Poisson bidimensional. En la secci6n 1.3 presentamos una jdentidad relativa a la covarianza de la suma de variables aleatorias Bernoulli depen dientes y mostramos que su uso puede producir estimadores de pequefias probabilidades ‘con muy pequefias varianzas. Esto se aplica para estima Ia fabilidad de los sistemas, 0 ‘que parece ser més eficaz que cualquier otro estimador conocido de la fiabilidad de un sistema pequefo, ai como para estimar la probabilidad de que determinado patrén apa- rezea durante cierto tiempo fijo. Laseccién 11 4 presenta los riesgos aleatorios. Estas can tidades se pueden emplear como variables de control al estimar el tiempo medio trans- ‘currido basta que un determinado proceso de Markov alcance un conjunto especffico . Considere una estacién de servicio en la que los clientes son atendidos por or- den de legada. Sean A, S, y D, fespectivamente, la hora de Hlegada. el tiempo de servicio y la hora de salida del cliente n. Suponga que slo hay un servidor y ue el sistema inicialmente no tiene clientes. (a) Argumente que Dy = 0, y para n > 0, D,~ 5, = Maximo (Ay, Dy) correspondiente cuando hay dos servi (b) Determine la formula de recursis dores. (©) Determine la f6rmula de recursién correspondiente cuando hay kservidores. (@) Eseriba un programa de computadora que determine las horas de salida en fancién de la horas de legada y del tiempo de servicio. Utlice el programa para verficar sus respuestas de la parte (a) y (b) del ejercicio 1 Elementos de probabilidad [L_2.1._ Espacio muestral y eventos Consideremos un experimento cuyo resultado no se conoce de antemano. Sea Sel espacio muestral del experimento, es decir, el conjunto de todos los resultados posi- bles. Por ejemplo, si el experimento es una carrera de caballos numerados del 1 al 7, centonces = {todos los ordenamientos de (1,2, 3, 4,8, 6.79) Por ejemplo, el resultado (3, 4, 1, 7, 6, 5,2) significa que el cakallo nero 3 legs en primer lugar, el caballo ndmero 4 lleg6 en segundo, y asf sucesivamente Cualquier subconjunto A del espacio muestral se conoce como evento, Io que significa que un evento es un conjunto formado por resultados posibles del experi ‘mento, Si el resultado del experimento esté en A, decimos que A ha ocurrido. En el ejemplo anterior, si A= {todos los resultados de S que comienzaa con 5) entonces A es el evento de que el caballo némero 5 Hegue en primer lugar. Para cualesquiera dos eventos A y B, definimos el nuevo evento A U B, llamado uunign de A y B, consistente en todos los resultados que estén ex A o en B 0 en ambos, De manera similar, definimos el evento AB, llamado interseccién de A y B, como todos los resultados que estin en A y en B. Es decir el evento AU B ocurre si Ao B ‘ocurre, mientras que el evento AB ocurre si ambos ocurren, También podemos define tuniones ¢ intersecciones de més de dos eventos. En particular, a unin de los eventos Aye Ap - ++ Ay Genotada por U7}. A) se define como la formada por todos los resul- tados que estén en cualquiera de los 4,. De manera andloga, la interseceién de los 5 6 Elementos de probabilidad Cap. 2 eventos Ay, Ay -+ +A, (denotada A\Az- - -A,) se define como 1a forma por todos los resultados que estén en todos los A, Para cualquier evento A, definimos evento 4°, el complemento de A, como el que consiste en todos los resultados del espacio muestral $ que no estén en A. Es decir, 4° ‘cure siy s6lo si A no ocurre. Como el resultado de un experimento debe estar en é1 ‘espacio muestrl S, esto implica que S” no contiene resultado alguno y por fo tanto no puede ocurtit. Llamamos a $° el conjunto vacio y lo denotamos por . Si AB = @ de ‘modo que A y B no pueden ocurrr a la vez (pues no hay resultados que estén en A y en B), decimos que A y B'son mutuamente excluyentes. 122 mas de probabilidad ‘Supongamos que para cada evento A de un experimento con espacio muestral S hay ‘un nimero, denotado P(A) y llamado la probabilidad del evento A, que cumple los tres axiomas siguientes: Axioma 1 0< P(A) $1 Axioma 2 P(S)=1 ‘Axioma 3 Para cualguier secuencia de eventos mutuamente exctayentes Ay, Ax» ACah=Sm weuacos ct axima | exsbece qu la robb d ie ol estado del experineno ene une ce Dy 1 sha bec qe con pebbiad ,e meted epaio metal ol axioms 3 afta qe pascal ca cncta motuannt cxlyets apo de ea menos sae camer igaata sna ds potbides respects Oo ten ella pr mostrar vais los 8 ee a perjempo como Ay # simpson events mute xl ma AU a’ nemo os aniomas 2 3 qe 1 = PS) = PAU AS = POA) + PAD) en forma equivalente, PAS) = 1 ~ PA) En palabras, a probabilidad de que no ocurra un evento es 1 menos la probabilidad de que ocurra. See. 2.3 Probabilidad condicional ¢ independencia 7 Consideremos un experimento consistente en lanzar al aire una moneda dos veces y observar si el resultado es cara o cruz, El espacio muestral puede considerarse como €l siguiente conjunto de cuatro resultados: = ((cara, cara), (cara, cruz), (cruz, cara), (cruz, cruz) donde (cara, cruz) significa, por ejemplo, que en el primer lanzamiento se obtiene ‘cara y en el segundo cruz. Supongamos ahora que cada uno de los cuatro posibles resultados es igualmente probable y que por lo tanto tiene 4 de probabilidad. Supon- gamos ademés que observamos que el primer lanzamiento cae en cara. Entonces, dada esta informacién, ,cusl es la probabilidad de que ambos lanzamientos caigan en ‘cara? Para calcular esta probabilidad, razonamos de Ia manera siguiente: dado que el Ianzamiento inicial cay6 en cara, pueden existr « fo mas dos resultados posibles, a saber, cara, cara) o (cara, cruz) Ademés, como cada uno de estos resultados tenfa mente la misma probabilidad de ocurti, deberfan seguir teniendo probabili- lado que el primer lanzamiento cayé en cara, la probabilidad (Condicional) de cada uno de los resultados (cara, cara) y (cara, cruz) es de ¥4, mien- tras que la probabilidad (condicional) de los otros dos resultados es de 0. Por lo tanto, Ia probabilidad deseada es 4. SiA y B denotan, respectivamente, los eventos de que ambos lanzamientos caigan cen cara y el evento de que el primer lanzamiento caiga en cara, entonces la probabili- dad obtenida anteriormente es la probabilidad condicional de A dado que B ha ocuri- do y se denota como Pala) Fodemos obtener una fmula general para P(A |B), vida para todos los experimen- tony eventos Ay B com antes sel evento B ocr, entonces para qu A our es necesaro que To ocuido sea un punto en A yen Bes deci debe estar en AB. Ahora, come sabemos que B ha ocurido, esto implica que B se convene en nuestro mievo espacio muestra y por lo tanto la probabilidad de que el evento AB ooura ser igual aa proabilidad de AB con respect de In probabilidad de B. Es dcr, PAB) PB) Como indica et ejemplo del lanzamiento de monedas, P(A|B), la probabilidad condicional de A, dado que B ha ocurrdo, no es en general igual a P(A), Ia probabil dad no condicional de A. En otras palabras, el hecho de saber que B ha ocurrido PAB) . Elementos de probabilidad Cap. 2 snoifca por Io general la robilidad de que A ocura (US pasar i fesen = sree ecluyentes?. Enel cao particular en gue PCATB) sea igual a PUA) des sare 4 yb con independiente. Como P(A1B) = ABYC), vemos que A es independiente de Bi P(AB) = PA)P(B) Como esta relacién es simétrica en A y B, esto implica que siempre que A sea inde- pendiente de B, B es independiente de A. L24 Variables aleatorias Cuando se realiza un experiment, a veees nos interesa principalmentecieta cani- {dad nunética determinada por el resultado. Estas cantidades do interés que son deter- srinados por ls resultados del experimento se conocen como variables aeatorias Ta funcion de distribucién acumulativa, o més brevemente, la funcin de distibu- cin F dela variable aletoria X se define para cualquier nimero rel x como Fea = PIX S 3) ‘Una variable aleatoria que puede asumir un nimero finito © a Yo més una cantidad humerable de valores posibles es discreta. Para una variable aleataiadisereta X, dfi- rimos su funcidn de masa de probabilidad p(x) como pla) = PIX = 3) ‘i X cs una variable alatria dsereta que asume uno de los posibles valores 22 = + tenionees, como X debe tomar uno de estos valores, tenemos Lee=1 _Ejemplo 2a Supongamos que X toma uno de los valores 1,03. Si p=4, pa=t 4 5 entonces, como p(1) + pt2) + p(3) = 1, esto implica que PG) = 73: Mientras una variable aleatoria disereta asume a lo ms un conjunto numerable de posiles valores, con fecuencia debemos analzar variables aleatorias cuyo conjunto fe posibles valores es wn intervalo. Decimos que la variable aleatoria X es una varia Sec. 2.4 Variables aleatorias 9 ‘ble aleatoria continua si existe una funcién na funciGn no negativa f(x) definida para todo numero real x, con la propiedad de que para cualquier conjunto C de ntimeros reales pice Ch = | fo de an La funciGn fes la funcién de densidad de probabilidad de la variable aleatoria X. Larelaci6n entre la distribucién acumulativa F(.) y la densidad de probabilidad f() se expresa como Fo) = Pixe (=, al) = [fade [Al decivar ambos lados se oben a io = Ra) Es decir, a densidad es la derivada de la funcin de distribucién acumulatva. Una interpre {acign un poco més intuitiva de la funcin de densidad se obtiene de Ia ecuacign (2.1) como sigue: rfe-fexsa+s} [oh ae» te) donde € es pequeio. En otras palabras, la probabilidad de que X esté contenido en un intervalo de longitud € alrededor del punto a es aproximadamente ¢f(a). Esto permi- vr la) eu mea de qu tan pebble gue Ia vara leona ete En muchos experimentos estamos interesodos no s6lo en las funciones de distibu- cin de probsbilidad de variables aleatorias individuales, sino también en las relacio- nes entre dos 0 més de ellas Para especificar la relaciGn entre dos variables aleatorias, ‘definimos Ia funcién de distribucién de probabilidad acumulativa conjunta de X y Y Fay) = PIXS5Y Sy) Asi, F(a, ») especifia Ia probabilidad de que X sea menor o igual a x ¥ que en forma simulténea ¥ sea menor o igual ay 10 Elementos de probabilidad Cap. 2 ‘Si tanto X como ¥ son variables aleatoris discretas,entonces definimos Ia funci¢n ‘de masa de probabilidad conjunta de X y ¥ como pos 9) = PIX = V9) ‘De manera anéloge, decimos que X'y Y son conjuntamente continuas, con funciéw de densidad de probabilidad conjunta f(x,y), si para cualesquiera conjuntos de aimeros reales Cy D pixe Ge D) = ff fun dedy Bb Las variable sleausis X ¥ son independientes si pra cuslesquiera dos conjun tos de mmerot reales Cy D Pixe C,¥e D) = PiXe CIPIYe DY Es decir, Xy ¥ son independientes si para todos los conjuntos C y D fos eventos A = (Xe C}, B= Y€ D) son independientes. Intitvamente, X y ¥ son independientes si el hecho de conocer el valor de una de ells no influye en Ia distibucién de probabi- dad de Io otra. Las variables aleatorias que no son independientes son dependientes, ‘Los aniomas de probabilidad permiten mostrar que las variables aleatorias disere- tas X y ¥son independiente si s6lo Si, para toda % y, PUX =x, Y= y) = PIX = PLY = 9) De manera anéloga, si X y ¥ son conjuntamente continuas con funcién de densidad {fx 9), entonces son independientes siy solo si, para toda x Fos 9) = fel) donde f(x) y fr) son las funciones de densidad de X y ¥,respectivamente, I 2.5 Esperanza ‘Uno de dos conceptos més tiles en probabilidad es el de a esperanza de una variable Ueatoria, Si Xes una variable aleatoria dicreta que toma uno de os posibes valores aaacnnentonces la esperanza o valor esperado de X, también Mamado media de X y denotado par E(X] se define como XI = SPX = 2) 2) See. 2.5. Esperanza la u Bn pals, valor espero de X . Jo de X es un pomedio poner dels valores que Dede tomar X, donde peo est dado po la pobblida de gue J tome. Por Symposia incon de mas de proba de st dada por centonces = simplemente promo comin de sds valores posible 0 1, que puede omar XX. Por otro lado, si dahon 2 WO) = w= entonces, =o!) 41(2) =? sin =of8) #1(3) =5 sun promedio ponderado de los dos valores posbles Oy 1, donde el alr 1 ene el doble del peso del valor O, pues p(1) = 20). Ejemplo 2b Si Tes una variable aleatoria indicadora del evento A, es decir, si _ ft SAocure re{) Sate centonces, Ell) = 1P(A) + OPA = PCA) PPor lo tanto, la esperanza de Ia variable aleatoriaindicadora para el evento A es sim- plemente la probabilidad de que A ocurra. ‘Si X es una variable aleatoria continua con funcién de densidad de probabilidad f, centonces, en analogfa con la ecuacién (2.2), definimos el valor esperado de X coma aux = [7 sft) ae 2 Blementos de probabitidad Cap. 2 Ejemplo 2c Si ln funcién de densidad de probabilidad de X esta dada por ax? siOex (ax + bp) = aD wy +o Dw EX) +b ‘Como la demostracién en el caso continuo es similar, hemos demostrado el resultado, Sec 2.6 Varianza 3 Se puede mostrar que Ia esperanza es una operacién lineal, en el sentido de que para cualesquiera variables aleatorias X; y X; FAX, + Xa] = EDX] + EU) lo cual se puede generalizar con facilidad para obtener [3 x] > AX HL 2.6 Varianza ‘Aunque E[X], el valor esperado de la variable aleatoria, X, es un promedio ponderado de los valores posibles de X, no proporciona informacién alguna acerca de la varia- in de tales valores. Una forma de medir esta variacién es considerar el valor prome- dio del cuadrado de Ia diferencia entre X y E[X]. Ast, esto nos conduce @ la siguiente definicién, Definicién Si X es una variable aleatoria con media j,entonces la varianza de X, denotada por Var). se define como Varcx) = EC — Ww) ‘Obtenemos una formula aternativa para Var(X) como sigue: Var) = EK ~ wl = BX? - 2pX + wy EOC) — E12nx) + E12) = BUX] — 2pEIX] + pw? = AX) ~ Es decir, VaroX) = EU) ~ (0? ‘Una identidad Gil, euya demostracién se deja como ejercicio, es que para cuales- uiera constantes a y b Yaak + 6) = aPVariX) En tanto que el valor esperado de una suma de variables aleatorias es igual a la ‘suma de las esperanzas, en genera, el resultado correspondiente no es vslido para las 4 Elementos de probabilidad Cap. 2 varianzas. Sin embargo, es cierto en el importante caso particular en que las variables aleatorias son independientes. Antes de demostrar esto, definimos el concepto de covarianza entic dos variables aleatorias, Definicién La covarianza de dos variables aleatorias X y ¥, denotada ConX, Y). se define como Cow(X, ¥) = BLK — BOX — Hy) Para conseguir una util expresién de Cov(X, ¥) desarrollamos el lado derecho de la ‘ecuaciGn anterior, haciendo uso de la linealidad de la esperanza. Esto implica que Cov ¥) = IXY — a ~ Xin + pads] FUXY| ~ waBU¥] ~ FIX * Baty es IXY) ~ EIXIETY] ‘Ahora deducimos una expresién para Var(X + ¥) en téminos de sus varianzas indi- viduales y la covarianza entre ellas. Como AK + Y= AX + ED = +B, vemos que VaiX + ¥) = AW EY, BUX — py)? + Y= py)? + 200 = BO — Hy = BU = py?) + EU — PD + 260K — BOY — HT = Varty + Var(#) +2 Cowik, ¥) 4) Concluimos esta seocisn mostrando que a varianza dela suma de variables aleatorias independientes es igual a Ta suma de sus varianzas. Prop jon SiX y ¥ son variables aleatorias independientes, entonces Cov, ¥) = 0 yy entonces, por la ecuacién (2:4), Vat +15 = Varo + Var) Sec. 2.7. Desigualdad de Chebyshev y las leyes de los grandes niimeros 15 Demostracién La ecuacién (2.3) implica que necesitamos mostrar que E{XY) = FIXJELY]. Ahora, en el caso discreto, EX) = DY ww/PtX = xy ae = DLs = 4PUY =») por independencia = Dor = yh S aPie = x) = EYVIEIX] ‘Como se cumple un argumento similar en el caso continuo, queda demostado el resultado, Ml Desigualdad de Chebyshev y las eyes de los grandes nuimeros CComenzatnos con un resultado conocido como desguaia de Marko. Proposicién: Desigualdad de Markov Si X sélo toma valores no negativos, enton- ‘ces para cualquier valor a > 0 Pixza) = 2 Demostracién amos una demostracién para el caso en que X es una variable aleatoria ‘continua con funcisn de densidad f. AX) = [xed [tena + [feo de [eo ar = [lat de pes 0) > afi) cundo «2a = affix) de = aP IX = a) y el resultado queda demostrado. Ml 16 Elementos de probabilidad Cap. 2 ‘Como corolario tenemos la Hamada desigualdad de Chebyshev, la cual establece que la probabilidad de que una variable aleatoria differa de su media por mas de k desvia- ciones esténdar esté acotada por 1/, donde la desviaci6n estindar de una variable aleatoria se define como la rafz cuadrada de su varianza. Corotarto: Desigualdad de Chebyshey SiX es una variable aleatora con media 1 varianca o?, entonces para cualquier valor k> 0, PUK wl = to) Demostracién Como (X~)/6" es una variable aleatoria no negativa cuya media es de a desiguldad de Markov obtenemos ve {tae =el =p De donde deducimos el resultado, pues la desigualdad (X — 1)"/0* 2 @ es equivalente ala desigualdad |X| 2 ko. ‘ora nos sevimos dea desiualad de Chebyse para demosrar a ey abil de tos pandcs ner, neal eabece qe Ia probed do gue promedio de os primero n termine de una sucesién de variables lator independiente edt Rement dibuas diera de su media por mds dee Wee a 0 cuando mtnde & innit ‘Trorema: La ey Abi de los grandes nimeros Sea XX... una suesin de variables letoias independents idéntcamentedsrinidas con media. Eton ces, para cada «> 0, IX, +o + Xp n[><}>0 commons « Demostracién Damos una demostracién con la hip6tesis adicionel de que las varia- bles aleatorias X; tienen una varianza finita o*. Ahora, [at—* 4] = Lem + + KD =o ver(2 ut FatMax) + + VarOKOI Sec. 2.8 Algunas variables aleatorias discretas ” ‘donde la ecuacién anterior utiliza el hecho de que la varianza de la suma de variables aleatorias independientes es igual a la suma de sus variancas. Por lo tanto, por la desigualdad de Chebyshey, se sigue que para cualquier & positivo pee | : 2 {FS | ast Por Jo tanto, para cualquier ¢ > 0, si k es tal que kon = €, es decir, si k = ne*/o, ohana ssthaded lo cual estabfece el resultado. Ml ‘Una generalizacion de la ley débil es la ley fuerte de los grandes imeros, la cual establece que, con probabilidad 1, lim AEF 4 Xe Fs decir, con toda certeza, a largo plazo el promedio de una sucesién de variables independientes ¢ idénticamente distribuidas convergerd a su media, 2.8 _Algunas variables aleatorias discretas Hay ciertas variables aleatorias que surgen con frecuencia en las aplicaciones. En esta seceién daremos un panorama de algunas de las discretas, VARIABLES ALEATORIAS BINOMIALES ‘Supongamos que se realizan n ensayos independientes, cada uno de los cuales produ ‘ce tn “éxito” con probabilidad p. Si X representa el nimero de éxitos que ocurren en os n ensayos, entonces X es una variable aleatoria binomial con parimetros (n,p). Su funci6n de masa de probabilidad esti dada por y= () Pa = py’, donde (1) = nlif(n ~ 11] es el coeficiente binomial, igual al numero de subconjuntos Aistintos de i clementos que se pueden elegir de un conjunto de m elementos. OMe es) pi PX 18 Blementos de probabilidad Cap. 2 La validez de la ecuacién (2.5) se aprecia si comenzamos por observar que la probabilidad de cualquier sucesién particular de resultados que produzea i éxitos y n ~i fracasos es, por la supuesta independencia de los ensayos, p'(l ~ p)'. La ecuacién (2.5) es entonces una consecuencia de esto, pues existe (})sucesiones distintas de los zn resultados que producen i éxitos y n ~/ fracasos, Jo cual puede verse al advertir que ‘existen () elecciones distintas de los /ensayos que producen éxitos. ‘Una variable aleatoria binomial (1, p) es una variable aleatoria Bernoulli. Como, X, variable aleatoria binomial (n, p) representa el nimero de éxitos en n censayos independientes, de los que cada uno tiene éxito con probabilidad p, podemos representarla como sigue: xeD%, rr) donde j 1 siel 4ésimo ensayo es um éxito i n= {b Sokeconano | ae FIX) = PUX;= 1 =P ‘Var(X)) = FLX] — BUX? i =p- P= pp) donde la ecuacién anterior utiliza el hecho de que X? = X, (pues "= 0 y 1? = 1). Por To amo, a represenacin (2.6) implica qu, para X variable alestora binomial (7) AN = © AXA = ‘Var(X) = Varox)) pues las X; son independientes = mpl = p) ‘La siguiente formula recursiva para p,., en términos de p, es stil al calcular las proba- bilidades binomiales: =e + iy Pu = = pl = pyre a nl = _ yt - Gener am ivit See, 2.8 Algunas variables aleatorins discretas » VARIABLES ALEATORIAS POISSON Una variable aleatoria X que toma uno de los valores 0, 1, 2... . es una variable Aaleatoria Poisson con parémetro A, i < 0, si su funcién de masa de probabilidad est dada por B= PIX = i El simbolo e, definido por e = lim,...(1 + 1/n), es una constante famosa en matemé- ticas, que es aproximadamente igual a 2.7183, Las variables aleatorias Poisson tienen una gama amplia de aplicaciones, y una raz6n para ello es que sirven para aproximar la distribuci6n del ndimero de aciertos en ‘muchos ensayos (que sean independientes o, a lo mas, “débilmente dependientes”) ‘cuando cada uno tiene una pequefia probabilidad de ser un éxito. Para ver por qué, ssupongamos que X es una variable aleatoria binomial con parietros (n,p), de modo {que representa el ndmero de aciertos en m ensayos independientes cuando cada uno es tun éxito con probabilidad p, y sea 2 = np. Entonces i ~ pyr (l-3) nin = 1) (w= i+ WN = Noy ae T= Nat Ahora, para n grande y p pequefa, (re Por lo tanto, para n grande y p pequetia, purser Como ta media y la varianza de una variable aleatria binomial ¥ estan dadas por FLY] = mp, Vat(¥) = np( ~ p) = np para p pequeiia ¢ claro intuitivamente, dada Ia relacién entre las variables aleatorias binomial y Poisson, que para una variable aleatoria Poisson X con parémetro 2, IX) = Var(X) = lementos de probabilidad Cap. 2 20 jercico una demosuaion aaltica del anterio, Dejamos como ejersico . Para casa as probabiliades Poison, hactos so dela siguiente mul ae Gea Heat ni rai en forma equivalent, on i=o Po =a Pe VARIABLES ALEATORIAS GEOMETRICAS CConsideremos varios ensayos independientes, de los que cada uno es un éito con probabilidad p. Si X representa el mimero del primer ensayo que es un éxito, entonces, PIK=n) =p, et en local che iment oer gu prague ccmracl in xi clin ensayo, los primeros ~ I deben ser fracasos y el n-ésimo un éxito, Ast, la ecuac Joep ls ensayos son independents Paar lr aya fc esa oa ext a por (27) seconde on parkas pt mead geomet eee ome ete 2 aan AUX] = 3 mat - py = Ia ecuacién anterior hizo uso de la identidad algobraica, para 0. te) = 1 $6) [Bs decir, una normal estindar excederd a 2, con probabilidad a (véase Ja figura 22). “Los valeres de z, se pueden obtener mediante una tabla de Tos valores de @. Por ejem plo, como (1.64) = 0.95, (1.96) = 0.975, (2.33) = 0.99 ‘Sec. 29 Variables aleatorias continuas 25 0% Figura2.2 P(Z>z,) =a vemos que Zep = 164, Zens = 1.96, 2) = 233 ‘La amplia gama de aplicaciones de las variables aleatorias normales surge de uno de Ios teosemas més importantes de la teorfa de la probabilidad, el teorema central del limite, el cual afirma que la suma de un gran ntimero de variables aleatorias indepen- ientes tiene aproximadamente una distribucién normal. La forma més sencilla de este importante teorema es Ia siguiente El teorema central de limite Sea X,,X;,... wna sucesién de variables aleatorias independents eidénticamente disribuidas con media fnta wy varianzafiita 6. Enionces tet ty of Me a th af oe VARIABLES ALEATORIAS EXPONENCIALES ‘Una variable aleatoria continua con funcién de densidad de probabilidad Fa)=re™, O 0 es una variable aleatoria exponencial con parametro %. Sw distibu- cciéa acumulativa esté dada por Fay = [ne ae O s+ AK >s) = P(X> 1) paratodas,120 (2:10) Para entender por qué se dice esto, imagine que X representa el tiempo de vida de cierta unidad y considere la probabilidad de que una unidad de edad s sobreviva un tiempo adicional 1. Como esto ocurriré si el tiempo de vida de Ia wnidad excede # + + dado que sigue viva en el instante s, vemos que P{la vida adicional de un elemento de edad s excede a t) = P(X> 5 +1 \x>s) ‘Ast, Ia ecuaci6n (2.10) enuncia et hecho de que la dstribucién de la vida restante de un ‘lemento de edad s no dependa de s. Es decir, no es necesario recordar Ia edad de una ‘unidad para conocer Ia distribucin de su vida restante, La ecuacién (2.10) es equivalente a PIX> s +t) = PIX> 5) PIX ‘Como la ecuacién anterior se satisface siempre que X sea una variable aleatoria ex- ponencial, pes en este caso P{X> x) = e™, vemos que las variables aleatorias expo- renciales no tienen memoria; de hecho, noes dificil mostrar que son las tnicas variables aleatorias sin memoria. ‘Otra propiedad itil de las variables aletorias exponenciales es que siguen siendo ‘exponenciales al mltiplicarse por una constante positiva. Para verlo, supongamos {que X es exponencial con parimetro A, y sea ¢ un nimero postivo, Entonces pexsa) =o{xs}=1-em to cual muestra que eX es exponencial con pardmetro We. EL PROCESO POISSON Y LAS VARIABLES ALEATORIAS GAMMA ‘Supongamos que ocuren cierto “eventos” en instantesaleatorios y sea N() el mmero de eventos que ocurren en el intervalo de tiempo [0, Estos eventos consituyen un proce: ‘50 Poisson con razén i, > 0, $i (a) NO) {@)Bl numero de eventos que ocurren en intervalos de tiempo distintos son inde- pendientes. (©) La distibycién del nimero de eventos que ocurren en un intervalo dado depen- de solamente de la longitud del intervalo y no de su posicién. Sec. 2.9 Variables aleatorias continuas 7 @) Himpg PEMD =H (0 ing MDE 2 9 ‘Asta concn enblece qu el ress cominza nel instant 0, Lacon tO MBs os Reni ene oes ata tos hasta el instante ¢ [i,e., N(#)] es independiente del nimero de eventos ocurridos aoe tg 8 | le NGC) ON La occas Gy tines os eee Stracinario, dee qu la dstibuin de probabil de A) ND) ele misma porn todos los valores de Las condiciones (@)y()estabecen gue en un pequeo Tmervalo de longi ha potbidn de qs acura un exec aproximadaneme Ah mientras ela probable de dso ms x apoximadement 0 ahora pomentaremes qo esas pei mpizan quel mimeo events que ea os (aaa peu eas Wee ei Res os erp nitee Hanan irre neh ene de longs vn {igua 23), Prince coniseromos ek ndmao Se eer sbitraon ba peepee pe ere ei a re (por concn (un event con la msm probed [pola condein (1 {lal x aponimadament gal hn eno impin qu el nimeto de ales intron te un viable leaaia Bool coo paket ny p= uh. Polo aa, pore Stpumento que segura a conerenia dea lnomil ae Polson al hacer => = Gas oie 3 as vances eee ie rs ka sleeve nen epienigeiinar ier ar peretarr Gad de que cunlguea de ets miners comenge dos o mds eves nde 0 Cuando no sonosqoo MG) nina do evn que ceren en (1 66 son variable data Poon con mea 3 appease artes ee ee ee param I sence tempo tancurida ented (n= I)ésimo yl éimo orem, La Therion (fem 1cbe ela sucesindeempos ene gadas, Por ejemplos, 259 X= If enamel primer event el procs Polson cou exo insane $ Yel sgundo en el instante 18 wong + Figura 23 8 Elementos de probabilidad Cap. 2 ‘Ahora determinamos la distribuci6n de las X,. Primero, observemos que el evento (X,> 1} ocurte si sélo si ninguno de los eventos del proceso Poisson ocurre en el intervalo (0, 1], y entonces PIX, > 1) = INO = 0} Por lo tanto, X; tiene una distribucién exponencial con media 1/A, Para obtener la distribucién de X,, observemos que P(X;> t]X, = 5) = P(0 eventos en (s,s + 41%, =5) = P(0 eventos en (5,5 + f]} donde las dos Gitimas ecuaciones son consecuencia de los incrementos independien- tes y estacionarios. Por lo tanto, de lo anterior concluimos que X, también s una variable aleatoria exponencial con media I/A, y ademés, que X, es independiente de X,, Al repetir el mismo argumento varias veces obtenemos: Proposicién Los tiempos entre legadas X,, X, . . son variables aleatorias ‘exponenciales independientes ¢ idénticamente distribuidas con pardmetro i. Sea S,= 2}. X;el tiempo del n-ésimo evento. Como 5, sera menor o igual que ¢si ¥y sélo si han ocurrido al menos n eventos hasta el instante ¢, vemos que P(S, $8) = PIMO =n) Sew Oo Como ef lado izquierdo es la funcién de distribucién acumulativa de S,, obtenemos, por derivacién, que Ia funcién de densidad de S,, denotada f,(0),esté dada por S yet OS ye - =é Goi = —v ay! a Definicién Una variable aleatoria con funcién de densidad de probabilidad po=rer Qi, 20 es una variable aleatoria gamma con pardmetros (1). Sec. 2.9 Variables aleatorias continuas 29 Asi, vemos que 5, el tiempo del n-ésimo evento de un proceso Poisson con razén 2, es una variable aleatoria gamma con pardmetros (n, 2). Adem, de la representacién 5,=B..1X; y dela proposicién anterior, lacual establece que estas X,son exponenciales independientes con razén 2, tenemos el siguiente corolaro. Corolario La suma de n variables aleatorias exponenciales independientes, cada tuna con pardmetro h, es una variable aleatoria gamma con parémetros (n, EL PROCESO POISSON NO HOMOGENEO Desde el punto de vista de la modelacién, la principal debilidad del proceso Poisson €s la hipétesis de que los eventos tienen Ia misma probabilidad de ocurrir en todos los intervalos del mismo tamafio. Una generalizacién, que relaja esta hip6tesis, conduce al lamado proceso no homogéneo 0 no estacionario. Si los “eventos” ocurren de manera aleatoria en el transcurso del tiempo, y N() denota el nero de ellos que ocurre en el instante ,entonces decimos que (N(0), = 0) Constituye un proceso Poisson no homogéneo con funcién de intensidad (0), ¢> 0, si fa) NO=0. (b) Los nimeros de eventos que acurren en intervalos de tiempo ajenos son inde pendientes (©) Mimo Plexactamente I evento entre ty + hYlh= MO. (@) Mim, P(dos 0 més eventos entre ty £4 k)/h Lain me cone min [vord, 120 css nse alr me Spr oe sine ee Pps 14) =NO na nis nom me) =P [La cantidad 2(0, llamada la intensidad en el instante, infica la probabilidad de que un evento ocurra cerca del instante ¢ [observe que cuando (i) = , el proceso no hhomogéneo se convierte en el proceso Poisson usual]. La siguiente proposicién indica ‘una forma dtil de interpretar un proceso Poisson no homogéneo. Proposicién Supongamos que ciertos eventos acurren de acuerdo con un proceso Poisson con razén h, y supongamos también que, independientemente de lo que haya pasado antes, un evento que ocurre en el instante t se cwenta con probabilidad pt) Entonces, el proceso de los eventos contados constituye un proceso Poisson no homo- ‘génco con funcién de intensidad () = io. 30 Elementos de probabilidad Cap. 2 Demostracién Esta proposicin se demuestra observando que se saisfacen todas las condiciones dadas anteriormente. Las condiciones (a), (b) (d) son consecuencia del hhecho de que el resultado correspondiente es verdadero para todos los eventos (10 s6lo para los eventos contados). Las condiciones (c) son consecuencia de (1 evento contado entre ty 1+ A) = P{1 evento y es contado} + P(2 0 ms eventos y exactamente 1 es contado} = Mp) 7 I 2.10 Esperanza condicional y varianza condicional Si X'y Y son variables aleatorias conjuntamente discretas, definimos E[X| ¥ = y], la ‘esperanza condicional de X dado que ¥ = y, como BUY = y= xP = al = yt Drax ray PY Bn ms palabras, a eperanaconicional edo que Y= ys define como antes, como un promedio ponderado de todos os valores posibles de X, pero abeva et peso dado al valor xes igual ala probabilidad condicional de que X sea igual ax dado aque ¥ es igual ay. ‘De manera similar si X'y ¥ son conjuntamente continuas con funciGn de densidad conjunta f(xy, definimas la esperanza condicional de X, dado que Y= y, como aux = iy) de Sfex, ») de Sea E{X1Y} la funcién de la variable aleatoria ¥ cuyo valor en ¥ = y ex E1X|Y= yk observe que E[X| ¥] es en sf una variable aleatoria. La siguiente proposicign es bas- tante Proposicion, FIEXIN) = AIX) uy Si Yes una variable aleatoria discreta, entonces la ecuacién (2.11) establece que AX) = © aay = y)Pty = y1 mientras que si Yes continua con densidad, entonces (2.11) establece que BUX] = | ELXIY = ylec ay Ejercicios 3 Ahora daremos una demostraci6n de la proposicién anterior cuando X'y ¥ on discretas aay = ly = 9) = YD ex = aly = Ply = yh = DEePeanyay “Sa rev sY¥sy) = Sanwa =A ‘También podemos definir la varianza condicional de X, dado el valor de ¥, como sigue: Var(XiY) = EX — ELXYD?Y] Es decir, Var(X¥) es una funcién de ¥, que en Y= y es igual a la varianza de X dado {que Y= y. Mediante e! mismo razonamiento que nos condujo a Xe identidad VartX) FLX?) ~ (E(XI} tenemos que ‘VarexlY) = EDP] — CEL)? ‘Al caleular las esperanzas de ambos lados de Ia ecuacién tenemos IVancxyy) = ELEY) ~ EVID?) = ER?) — EEX?) (2.12) ‘Adem, como EUELXL YI] =: ELX1, tenemos que Var(ELXIYD) = EW(ELXAD*} ~ CELXD? 213) Al sumar las ecuaciones (2.12) y (2.13), ebtenemos Ia siguiente identidad, conocida como la formula de la varianza condicional La formule de fa varianza condicional Var(X) = EVar(x}¥)) + Var(ELX1¥D) l Ejercicios 1. Considere un experimento que consta de seis caballos, numerados del 1 al 6, aque realizan una carrera, y suponga que el espacio muestral esté dado por ‘5 = {todos los ordenamientos de (1,2.34,5.6)) 32 Elementos de probabilidad Cap. 2 Sea A el evento de que el caballo niimero 1 esté entre los tres primeros finalis- tas, sea B el evento de que el caballo mimero 2 legue en segundo, y sea C el ‘evento de que el caballo niimero 3 Hlegue en tercero. (a) Deseriba el evento A UB. {Cusintos resultados estén contenidos en este evento? (b) {Custos resultados estén contenidas en el evento AB? (©) {Cuéntos resultados estin contenidos en el evento ABC? (@) ,Cuantos resultados estan contenidos en el evento A U BC? 2. (a) Para cualesquiera eventos A y B, muestre que AUB=AUAB A= ABUAR (b) Muestre que PAU B) = P(A) + PCB) ~ PAB) 3. Una pareja tiene dos hijos. {Cusl es la probabilidad de que ambos sean mujeres, dado que la mayor es una mujer? Suponga que las cuatro posibilidades son igualmente probables. 4. El rey proviene de una familia de dos hijos. ,Cusl es la probabilidad de que el otro hijo sea hombre? 5. La variable aleatoria X toma uno de los valores 1, 2, 3, 4 con probabilidades PIX= i) =i 11,234 para algtin valor c. Determine P(2 < X $ 3) 6. La variable aleatoria continua X tiene una funciGn de densidad de probabilidad dada por foc, O } y ¥ tienen una funcién de densidad de probabilidad conjunta dada por Sey) = Ie, n} cuando X es una variable aleatoria geoméirica con pardmetro p. 23, Dos jugadoras practican cierto juego, hasta que una de ellas ha ganado un total de cinco partidas, Sila jugadora 4 gana cada partida con probsbilidad 0.6, ceul ¢s la probabilidad de que gane el encuentro? 24. Considere el modelo hipergeométrico de la secci6n 2.8 y suponga que las bolas claras estin numeradas. Para i= 1,...,.N, sea 1 si se elige a bola clara con el nimero # 0 en caso contrario “Argumente que X= EY, y luego emplee esta representacién para determinar IX], Verifique esto con el resultado dado en la seccién 2.8. 25, Bl autobiis egard en un instante que tiene una distribucién uniforme entre las ‘ocho y las ocho y media de la maiana. Si nos presentamos a las ocho, ,cusl es la probabilidad de que esperemos entre 5 y 15 minutos? 26, Para una variable aleatoria normal con pardmetros j1y o*, muestre que (@) EX=H () Vac) =o 27. Sea X una variable aleatoria binomial con pardmettos (n, p). Explique por qué x- a oats} ~via heme cuando es grande, ah sh esas neti lesa pone com prt, nese gue te) BXXI= 1. (hy) Var(X) = 122. Bibliografia 38 29. Las personas A, By C esperan en un banco que tiene dos cajeros al abrir en la mafiana. Las personas A y B van hacia un cajero y C espera en la fila, Si el tiempo que tarda un cajero en atender a un cliente es una variable aleatoria exponencial con pardmetro 2, icusl es la probabilidad de que C sea el ttimo en salir del banco? [Sugerencia: no se necesitan célculos.} 30. Sean Xy ¥ variables aleatorias exponenciales independientes, con razones res- pectivas 2 y [. Muestre que x Pik<¥) => +e 31. Considere un proceso Poisson en e] cual los eventos ocurren a raz6n de 0.3 por hora. {Cusl es la probabilidad de que ningun evento ocurra entre fas 10 de la smafiana y las dos de la tarde? 32, Para un proceso Poisson con razén 2, determine P(N(s) = k| M()= n) cuando s< 33. Repita el ejercicio 32 para s >t 34. Si X es una variable aleatoria gamma con pardmetros (n, p), determine @) AX (b) Van(X). 35, Una uma contiene cuatro bolas blancas y seis negras. Se elige una muestra aleatoria de tamafio 4, Sea X el nimero de bolas blancas en Ja muestra. Ahora se clige una bola adicional de las seis bolas restantes en la urna. Sea Y igual a 1 si esta bola es blanca y O si es negra, Determine @ Ay|x=2) © Var! @ , Varxl ¥= 0. 36. Si Xy ¥ son variables aleatorias exponenciales independientes ¢ idénticamente distribuidas, muestre que la distribucién condicional de X, dado que X + ¥=1,es la distribucién uniforme en (0, 1). IL Bibliogratia Feller, W., An Introduction to Probability Theory and its Applications, Nueva York, Wiley, 3a. ed., 1968. Ross, S. M.A First Course in Probability, Nueva York, Macmillan, 4a, ed., 1993. —Introduction to Probability Models, Nueva York, Academic Press, Sa. ed., 1993. Numeros aleatorios ll Introducci6n I ncleo de un estudio de simulacin es la eapacidad de generar nimeros aleatorios, que representan el valor de una variable aleatoriadisribuida uniformemente en (0, 1) En este capitulo explicamos la forma de hacerlo mediante una computadora y am- bign comenzamos a ilustrar sus usos. L Generacién de ntimeros pseudoaleatorios Al principio, los ndmeros aleatorios se generaban en forma manual o mecénica, utili zando técnicas como ruedas giratorias, lanzamientos de dados o barajas; pero el plan- teamiento moderno consiste en utilizar una computadora para generar de manera su- ccesiva nimeros pseudoaleatorios. Estos nimeros constituyen una sucesién de valores 4que, aunque son producidos de manera determinista, tienen toda la apariencia de ser variables aleatorias uniformes e independientes en (0,1) ‘Uno de los métodos més comunes para generar nmeros pseudoaleatorios comien- za.con un valor inicial x, llamado semilla, y luego se calcula de manera recursiva los valores sucesivos x, 2 1, haciendo 45, = a, médulo m 61) donde a y m son enteros positivos dados y lo anterior significa que ax, se divide entre ‘my elresiduo se considera como el valor de xy. Ast, cada &,€8 0, Ip. m-— 3 ya 36 Sec. 3.1 Generacién de nimeros pseudoaleatorios 7 cantidad /m (lamada nimero pseudoaleatorio) se considera como una aproxima- cin del valor de una variable aleatoria uniforme en (0, 1) EI método especificado por la ecuacién (3.1) para generar nimeros aleatorios se Hama el método congruencial multiplicative. Como cada uno de los niimeros x, asu- ‘me uno de los valores 0, 1, .... m~ 1, se tiene que después de cierto nimero finito (a lo més m) de valores generados, alguno debe repetirse,y, una vez que esto ocurre, {oda la sucesién comienza a repetitse. Asf, queremos encontrar las constantes a y m tales que, para cualquier semilla inicial x, el numero de variables que se puedan generar antes de que suceda esta repeticién sea “grande”. En general, las constantes a y m deben satisfacer tres criterios 1, Para cualquier semillainicial, la sucesin resultant tiene la “apariencia™ de ser luna sucesién de variables aleatorias independientes y uniformes en (0,1) 2. Para cualquier semilla inical, e} amero de variables que se pueden generar antes de que comience la repeticién es grande, 42. Los valores se pueden ealeular de manera eficiente en una computadora digital Un criterio que parece ser dtil para cumplir las tres condiciones anteriores es que m debe ser un nimero primo grande, adecuad alta dela palabra dela comput 1 Para una maquina con palabras de 32 bits (donde el priser es un bite sino) sc In mostrado que las elcciones de m = 2" =1 y a = 7 = 16 807 producen ls po davies descadas (para una maquina con palabras de 36 Bits, parece que funciona as elecciones de m = 2° -31 y a= 5°). ‘Otro generadr de mimerosprcudosestorosulza formulas recursvas del tipo 2. (ar + 6) médulo m ‘Tales formulas se llaman generadores congruenciales mixtos (ya que tienen un térmi- ‘no aditivo y uno multiplicativo). Al emplearlos, con frecuencia se elige m como la longitud de la palabra de la computadora, ya que esto hace més cfciente el céleulo de (4x,.1 + 6) médulo m (es decir, la division de ax, + entre m). La mayor parte de los lenguajes de computadora tienen integrado un generador de ‘imeros aleatorios que se puede Mazar con tl fin. Por ejemplo, BASIC utiliza dos instrucciones: 1 RANDOMIZE 2 U = RND EI resultado de ta instruccién RANDOMIZE es la solicitud al usuario de que intro- dduzca la semilla x, Una vez hecho esto, la cantidad RND representaré el siguiente 38 Niimeros aleatorios Cap. 3 ‘mimero pseudoaleatorio. Por ejemplo, este programa imprime los valores de 10 né- ‘eros pseudosleatoris. 10 RANDOMIZE 20 FORT = 170 10 30 U = RND 40 PRINT U 50. NEXT ‘Como punto de partida en Ia simulacién de sistemas por computadora, supondremos, {que podemos generar una sucesién de muimeros pseudoaleatorios que se pueden consi {erar como tna aproximacién a los valores de una sucesién de variables aleatoras inde- ‘pendientes y uniformes en (0, 2). Es decir, no exploraremos las interesantes cuestiones leéricas, que requieren material més alld de los objetivos de este texto, relacionadas con Ta construccién de “buenos” generadores de mimeros pseudoaleatorios. Mejor supon I, iral paso 3, PASO 6: Py... , Py es la permutacién aleatoria deseada, Bni(kU) + 1 Por ejemplo, supongamos que n = 4 y que la permutacin inicial es 1, 2, 3,4. Si el primer valor de 1 (que puede ser 1, 2, 30 4 con la misma probabilidad) es 1 = 3, entonces se intercambian los elementos en las posiciones 3 y 4, de modo que la nueva permutacin es 1, 24, 3. i el siguiente valor de es 1 = 2, entonces se intercambian Jos elementos de las posiciones 2 y 3, de modo que la nueva permutacién es 1, 4,2, 3 Siel valor final de Fes 1= 2, enconces la permutacin final es 1, 4,2, 3, y ste es el valor de la permutacién arbitaria, ‘Una propiedad muy importante del algritmo anterior es que también se puede utc Tizar para generar un subconjuntoaleatoro, dgamos de tama de los enteros 1... Basta soguir el algoritmo asta lenar las posiciones n,n—1,..., r+ 1, Los elementos de estas posiciones son el subconjuntoaleatorio (al hacerlo, siempre suponemos que n!2,entonces podrfamos elegir un subconjunto aleatorio de tamafon~ry hacer que os elementos qu no estn en ese conjunto sen el subconjunto aleatorio de tamatio ) Debemos observar que la capacidad de generar un subconjunto aleatorio es de particular iiportancia en las prucbas médics. Por ejemplo, supongamos que un cen two médico planea una prueba con un nuevo medicamento diseBado para reducir el nivel de colesterol en la sangre. Para probar su eficaci, el centro médico ha reclutado 1000 voluntarios como sujetos de prueba. Para tomar en cuenta la posibilidad de que nivel de colesterolen Ia sangre de los Sujets puiera haber sido influido por facto- res exteros (como el cambio en las condiciones climaticas), se ha decidido separa los en dos grupos de tamafo 500: un grupo de tratamiento que recibe el medicamento Y un grupo de contro! que reibe un placebo. Ni los voluntaris ni los que administan 1 medicamento sabrén quiénesté en cada grupo (lal prueba es dobleciego). Falta determinar cusles de los voluntarios se deben elegir para formar el grupo de trata riento. Es claro que uno desea que ambos grupos sean lo més similares posible en todos los aspectos, excepto porque los miembros del primer grupo recibirgn el medi camento, mientras los dl segundo grupo recibir un placebo; pues en este caso seria posible coneluir que cualquier diferencia de respuesta entre los grupos se debe real mente al medicamento. Hay un acuerdo general de que la mejor forma de lograslo es clegir Ios 500 voluntarios del grupo de tratamiento de una manera completamente leatoria. Es decir, la eleccién se debe realizar de modo que cada uno de los (") sub- conjuntos de S00 voluntarios tenga la misma probabilidad de constitu el grupo de tratamiento. Ml Sec. 4.1. El método de la transformada inversa 4” Ejemplo de Céleulo de promedios. Suponga que queremos aproximar 2 = 2, atin. donde nes grande y los valores ai, +m, Son complicados y no tan féciles de caloular, Una forma de hacerlo es observar que si X es una variable aleatoria discreta uniforme sobre los enteros 1, . .., n, entonces la variable aleatoria a(X) tiene una ‘media dada por Flacx)] = 3S acortx = 0) Por lo tanto, si para obtener k varias aleatorias diseretas uniformes X,, +k ‘generamos k nimeros aleatorios U, y hacemos X, = Ent(nU,) + 1, entonces cada una de las k variables aleatorias a(X) tendré media @, lo cual, junto con la ley fuerte de los ‘grandes nimeros, implica que cuando kes grande (aunque mucho menor que 7), el promedio de estos valores serd aproximadamente igual, Por lo tanto, podemos aproxi ‘mar a, utilizando Otra variable aleatoria que se puede generar sin necesidad de buscar el intervalo donde caiga el mimero aleatorio es la geométtica Bjemplo 4d Recuerde que X es una variable aleatoria geométrica con pars 52 1, donde q tro psi PIX= i) = pg", -P ‘Se puede pensar que X representa el tiempo del primer éxito, cuando se realizan ensa- xyos independientes, de los que cada uno es un éxito con probabilidad p. Como kt Dex =i =1- PK j- 0) = P{primeros j ~ 1 ensayos sean todos fracasos) pet ppodemos generar el valor de X al generar un nimero aleatorio U y hacer X igual al valor j para el cual sing l-g"'su x yw PIX =i) 1, La clave para aplicar ef método de la transformada inversa para generar esta variable leatoria es la siguiente identidad (demostrada en la secciGn 2.4 del capitulo 2) » am io an Pest = ‘Al aprovechar esta recursién para calcular las probabilidades Poisson conforme se necesiten,e1 algoritmo de la transformada inversa para generar una variable aleatoria ‘Lage epsilon str 2118 dt RT] Sec. 42 Generacién de une variable aleatoria Poisson 1 Poisson con media A se puede expresar como sigue (Ia cantdad i se refiere al valor en ccuestin; p = pes la probabilidad de que X sea igual a i, y F= Fld) es la probabilidad dde que X sea menor o igual a i), Paso 1: Generar un nero aleatorio U. PASO 2: PASO 3: ¥y terminar, PASOd: p=Apili+ 1), F=F +p, PASO S: Ir al paso 3. (Debemos observar en lo anterior que cuando eseribimos, por ejemplo, i= i+ 1, no queremos decir que sea igual ai+1, sino que el valor de ise debe incrementar en 1.) Para ver que el algoritmo anterior realmente genera una variable sleatoria Poisson con media 2, observemos que primero genera un ndmero aleatorio U y fuego vei si U< e*= py En tal caso, hace X = 0. En caso conrario,en el paso 4 caleula py mediante larecursién (4.1) Ahora verifies si U < pp + py (donde el lado detecho es el, evo valor de F), y en tabeaso hace X'= I, y asf sucesivamente Bl algoritmo anterior verifica en forma sucesva si el valor de Poisson es 0, lego si ¢ 1, luego 2, ee, Ast, el nero de comparacionesnecesaras ser ms qu el valor ¢generado de la Poisson. Por lo tanto, en promedio, lo anterior necesitara realizar 1+ 2 bisquedas, Aunque esto est bien si es pequeto, se puede mejorar en gran media si ‘hes grande, De hecho, como una variable aleatoria Poisson con media 2. iene una {ran probabilidad de tomar uno de los dos valores enteros més cercanos a. un algo- ritmo mas eficiente verficarta primero uno de estos valores, en vez de partir de 0 y ‘rabajar hacia aba, Bl algoritmo 4-1, escrito en BASIC y que aparece en el Apéndi- ce de programas, hace 1 = Ent(h) y calcula p, (considera primero los logaitmos y Juego eleva el resultado a la potencia ¢)- Lvego utiliza la ecuacisn (1) para determi- tar F(D) en forma recursiva. Ahora, para generar una variable aleatoria Poisson con media A genera un nimero aleatorio U, y observa si X < I revisando si Us FU. Luego busea hacia abajo, a partir de X= Fen el caso en que X $y hacia arriba si X-=1+ 1 (el algoritmo 4-1 también evita la posible dificultad de que, debido a errores de redondeo, cuando 2 es grande la computadora podria considerar igual a cero). Observacién Fl nmero de bisquedas necesarias para el algoritmo 4-f es aproxima Si i denota el valor en cuestiGn, pr = P{ X= i } la probabilidad de que X sea igual i, y F= FQ la probabilidad de que X sea menor o igual a i, el algoritmo se puede ‘expresar de Ja manera siguiente: a Algoritmo de la transformada inversa para gener una variable aleatoria binomial (n, p) PASO 1: Generar un nimero aleatorio J. PASO 2: = pl(l-- p),1=0, pr=(1- py F= pt PASO 3: Si U< F, hacer X=/y terminat. PASO 4: pr=lo(n— MCE + Dips, P= F + pr, PASO S: Iral paso 3. "eplenns oan pars indi que X ne a ec de tbc FB sino No repscas ena dries narma on ea yaaa Sec. 44 La téonica de aceptacisn y rechazo 3 El algoritmo anterior verifica primero si X=0, luego si X = I, y asf sucesivamente Por lo tanto, el niimero de bisquedas que realiza es 1 més que el valor de X. Por consiguiente, en promedio, se aecesitan 1 + np busquedas para generar X. Como una variable aleatoria binomial (n, p) representa el niimero de éxitos en n ensayos inde- pendientes, en los que cada uno es un éxito con probabilidad p, esto implica que esta variable aleatoria también se puede generar restando a n el valor de una variable aleatoria binomial (n, 1p) (por qué?). Asf, cuando p > 1/2, podemas generar una variable aleatoria binomial (n, 1~p) mediante el método anterior y restar su valor de n para obteaer Ia generacin deseada, Observaciones 1. Otra forma de generar una variable aleatoria binomial (n, p) utiliza su interpre- tacién como el ndmero de Exitos en m ensayos independientes, al generar 1 iimeros aleatorios U, ... Uy y luego hacer X igual al nsmero de U, que son ‘menores 0 iguales a p. Si consideramos el i-ésimo ensayo como un éxito si U,

a 34 Generacion de variables aleatorias discretas Cap. 4 [Ahora tenemos la siguiente nica llamada método de rechazo o método de acptacién 3 techazo, para simlar una variable alatriaX con funcién de masa p,= PL X= J) Método de rechazo PASO 1; Simular el valor de ¥, con funcién de masa de probabilidad 4, PASO 2: Generar un némero aleatorio U. PASO3: Si U/< pylegy hacer X= ¥y terminar. En caso contraio, regresar al paso. El método de rechazo se representa en la figura 4.1 ‘Ahora demostramos que el método de rechazo funciona, Teorema El algoritmo de aceptacién y rechazo genera una variable aleatoria X ral que PY =p» 5=9, demas, el niimero de iteraciones del algoritmo necesarias para obtener X es una variable aleatoria geométrica con media c. Demostracién Para comenzar, determinaremos la probabilidad de que una tinica itera- cig produzca el valor aceptado j. P(Y= j, aceptada) Inicio Sf Generar ¥ oon | fanci6n de masa g, St LU s prleay? Figura 4.1. Aceptaci6n y rechazo Sec. 44 La téenica de aceptacisn y rechazo 55 {Al sumar sobre je abtiene Ia probabilidad de que una variable aleatora generada sea aceptada: yt Placeptaday = =~ 7 Como cada iteracién produce de manera independiente un valor aceptado con proba: bilidad1/c, vemos que el nmero de iteraiones necesaias es una geométrica con media ¢. demi, PIX = j) =, Pl aceptada en Ia iteracion n} = Dave =% . Observaciones 1. Bl lector debe observar qu la forma en que “aceptamos el valor ¥con probabi- lidad py/eqy” consiste en generar un némero aleatorio U y luego aceptar ¥ si Us pyleay 2. Como cada iteracién del algritmo produce de manera independiente un valor aceptado con probabildad P(aceptacién) = K'= He, esto implica que el mero de iteraciones neceseriastendré una distibucién geométrica con parimetro Ic ¥ por tanto tendré media c. Entonces, mientras més cerca esté c de 1 (nunca puede ser menor que 1, lo cual se puede ver al escribir Ia desigualdad (42) como p, cq, y sumar ambos lados) més efieaz seré el método; esto es claro intuitivamente, pues mientras més cerca estéc de 1, més paecidas serén las dos funciones de masa (p,) ¥ (qj). _Ejemplo 4e Suponga que queremos simular el valor de una variable aleatoria X que toma uno de los valores 1, 2, ..., 10 con probabilidades respectivas 0.11, 0.12, 0.09, 0.08, 0.12, 0.10, 0.09, 0.09, 0,10, 0.10. Una posibilidad es utilizar el algoritmo de la ‘wansformada inversa, pero un planteamiento mejor consiste en usar el método de rechazo, con como la densidad uniforme discreta en 1, ..., 10. Es decir, = 1/10. j=l... 10, Para esta eleccién de (q,}, podemos elegir ¢ como co Max = 12 4 de modo que el algoritmo serta el siguiente 56 Generacién de variables aleatorias discretas Cap. 4 Aso 1: Generar un nimero leatorio Uy y hacer Y= #4302: Generar un segundo nimeroaleatrio Uy P4503: $i U;Spy/0.12,hacer X= ¥yterminar En caso conta egresar al paso 1 La constante 0.12 del paso 3 se debe a que cy = 1.2/10 = 0.12. En promedio, este algoritmo requiere slo 12 iteraciones para obtener el valor generado de X. I int(10U) + 1 La fuerza del método de rechazo, una de cuyas primeras versiones fue propuesta por el famoso matematico John von Neumann, seré atin més clara cuando considere- ‘mos su anslogo al generar variables aleatorias vontinuas. lI 5 El método de composicién SSuponga que tenemos un método eficiene para simularel valor de una variable aleatoria con una de las dos funciones de masa de probabilidad (p}.j2 0} 0 (p20) ave Gueremos simular el valor de la variable aleatoria X con foncién de masa PIX=j) = ap} + (1 ayy, j20 43) donde 0 < o.< 1. Una forma de simular esta variable aleatoria X es observar que siX; {y X son variables aleatoris con funciones de masa respectivas (p}) y {pj}, entonces la variable aleatoria X definida como ya [Xi con probabiidad X, con probabilidad 1 - tendrd su funcién de masa dada por (4.3). Esto implica que para generar el valor de tal variable aletoria primero generamos un némero aleatorio Vy luego un valor de X, si U0. Ejemplo 4f Suponga que queremos generar el valor de una variable aleatoria X tal que Bm PIX ee Ejercicios 7 para ello primero generamos un niimerc aleatorio U y después a partir de la uniforme discreta en 1, ..., 10 si U-<0.5 y de Ia uniforme disereta en 6, 7, 8, 9, 10 en caso ‘contrario. Es decir, podemos simular X como sigue PASO I: Generar un ntinero aleatorio U;. PASO 2: Generar un aimero aleatorio U,, PASO3: Si U,<05, sea X= Eni(10U,) + 1. Encaso contratio, sea X- =EntSU;)+6. Si, i= 1,...,.mson funciones de distribucién y ay, i= 1... m son nimeros no negativos cuya suma es 1, entonces la funcién de distribucién F dada por Fa = Sake ‘2s una mezcla, 0 composicién, de las funciones de distribucién F, 1=1,...n. Una forma de simular a partir de F es simular una variable aleatoria J, igual a i con probabilidad o,, + my luego simular a partir de la distribucion F, (es decir, si el valor simulado de Fes I=, entonces la segunda simulaciGn es a partir de F). Este método para simular a partir de F se conoce con frecuencia como el método de composicién. LL Eiercicios 1. Escriba un programa para generar n valores a partir de la funcién de masa de probabilidad py = '%, ps = (2) Sea n= 100, ejecute el programa y determine la proporcin de valores que sean iguales a 1 ()_ Repita (a) con n = 1000. (©) Repita (a) con n = 10000. 2. Escriba un programa de compuiadora tal que, dada una funcién de masa de probabilidad (p, j= 1... } como entrada, proporcione como salida el valor de una variable leatoria con esta funcidn de masa 3. Dé un algoritmo eficiente para simular el valor de una variable aleatoria x tal que ous PUX= 1) =03, PIX=2)=02, PIX=3) P(x= 4) 4, Se baraja un conjunto de 100 cartas (numeradas del 1 al 100) y luego se voltean, tuna a la vez. Decimos que ocurre un “éxito” si la carta ies la i-ésima carta 58 Generacién de variables aleatorias disetetas Cap. 4 volteada, i= 1... 100. Bscriba un programa de simulacién para estimar la esperanza y la varianza del nimero total de Exitos. Ejecute el programe. Deter- mine las respuestas exactas ¥ compérelas con sus estimaciones, 5. Otro método para generar una permutacién aleatoria, diferente del presentado cen cl ejemplo 4b, consiste en generar de manera sucesiva una permutacidn aleatoria de los elementos 1,2, .. ncomenzando con n= 1, luego n = 2 asi sucesivamente (por supuesto, la permutaciGn aleatoria cuando m = 1 es 1). Una vez que s¢ tiene una permutacién aleatovia de los primercs n ~ 1 elementos (Gigamos, Py... P,.:), para obtener la permutacién aleatoria de los n elemen- tos 1, ..., m colocamos n en Ia posicin final (para obtener Ia perrautacién P,,.. Pein) € intercambiamos los elementos dela posicign m (a saber, n) con cl elemento de una posicién elegida al azar; Ia posicisn 1, la posicién 2, la posicién n son igualmente probable. (@) Escriba un elgortmo que reaice to ancerior. (b) Demuestre mediante induccién matemética sobre n que el algoritmo funciona, en el sentido de que la permutacién obtenida tiene la misma probabilidad de ser cualquiera de las n! permutaciones de 1, 2,» Emplee 100 némeros aleatorios para explicar Ia forma de determinar una aproximacién de BY, &, donde V = 10000. (6) Obtenge tt aproximacin. (©) (Bs buena su aproximacin? 7. Se lanza de manera continua un par de dados legals, hasta que todos los posibles resultados 2,3... 12/hayan aparecido al menos una vez. Desarolle un estudio de simulacin para estimar el nimero esperado de lanzamientos necesaros. 8. Suponga que cada miessbvo en una Hste de mefementos tiene un valor asociado, yy sea v(i) el valor asociado al i-ésimo elemento de Ia lista, Suponga que 7 es ‘muy grande y también que cada elemento puede aparecer en lugares distntos de Ja lista, Explique la forma de utilizar nUmeros aleatorios para estimar la suma 4e los valores de los elementos distntos en ta lista (en la que el valor de cada elemento se cuenta una sola vez, sin importar el nimero de veces que e}ele- mento aparezea anotado). 9. Considere los eventos Ay, ... A, donde los A, + consisten en los siguiemes n,resullados: 4, = (a3, @,y}- Suponga que para cualquier resultado dado a, se concce F(a}, la probabilidad de que el experimento pro ‘duzca el resultado a. Explique la forma de utilizar los resultados del ejercicio 8 para estimar P(U}.;A)} Ia probabilidad de que al menas uno de fos eventos A, jcura. Observe que no suponemos que Ios eventos A, = I... sean mut mente excluyentes. 6. (a) Bjercicios 39 10, La funcién de masa de probabilidad binomial negativa con parémetros (rp) a 2. 2B. “a donde res un entero pasitivo y 0

& pare alguna & < n, Sea a = P{Y > 4] y suponga que se ha caleulado el valor de ct. (a) Dé el método de transformada inversa para generar ¥. (b) Dé otro método para generar ¥. (©) @Para qué valores de cr, pequetios o grandes, serfa ineficiente el algoritmo en (6)? Dé un método de simulacign a partir de la funcién de masa de probabitidad p, 5.6... 14, donde f011 cuando jes impar y $< j-<13 "10.09 cuando j es par y 6 1) = =1 () Mueste que pj=%s y Py = (1 ~ RCL = 23) (1 ~ Dye Las cantidades 2,, n 2 1, son las tasas diseretas de riesgo, pues si pensamos en X-como el tiempo de vida de algtin articulo, entonces 2, representa la probabili- dad de que alguno que haya alcanzado la edad m muera durante ese periodo. El siguiente método para simular variables aleatorias discretas, llamado método de Ja tasa discreta de riesgo, genera una sucesién de admeros aleatorios y termina ‘cuando e} -simo niimero aleatorio es menor que 2, El algoritmo se puede escribir como sigue: PASO: X=1 PASO 2: Generar un némero aleatorio U. PASO 3: Si U 0 donde K =F @) = 24R. Como esta variable alestoria esté conomtrad en el eje Positivo y tiene media 4, ¢s natural intentar Ia técnica de rechazo con una variable aleatoria exponencial con la misma media. Por lo tanto, sea sts) x>0 Ahora, $2) 3K pingein ee) 2 Al derivar e igualar a cero la derivada resultante, obtenemos que el valor maximo de ‘este cociente se obtiene cuando es decir tudo x= Prt tanto, stax 2 3K ()"e" a 212 Po pues k= VE Brey Como LE ety a(x) (a3) ‘vemos que una variable aleatoria gamma (j, 1) se puede generar como sigue: Sec. 5.2 El método de rechazo @ PASO I: Generar un nimero aleatorio U, y hacer Y= ~(})log Uy. PASO 2: Generar un nmero aleatorio Us. PASO3: Si U; < (2eY/3)"e", hacer X= ¥. En caso contrari, regresar al paso 1 BI namero promedio de it aciones necesarias es =a) = c=)" ~ 1297 : Observacién Aunque la variable aleatoria gamma 1) tiene media 3, no es claro de inmediato que deberiamos utilizar el rechazo con una exponencial que tenga la mis- ma media, De hecho, suponga que hacemos (2) = he Entonces fia) _ Kel 2) x El valor maximo de este cociente se obtiene cuando get? ‘bien, x= [2(1 ~2)]" [siempre que A-< 1; si 22 1, e8 fil ver que el cociene fx ‘(3) Loma valores aritariamente grandes) Por lo tanto, si tilizamos la éxponencial ‘con media 1”, entonces el adiero promedio de iteracionesnecesaras para el algoit- c= Mix 42. = 80) sf, la mejor eleccién de 2 es aquella que minimiza lo anterior 0, en forma equivalen- te, que maximiza A(1 ~ 2)" El efleulo nos muestra de nuevo que este valor es tal que Ba -ariret® forma equivalente, I-A=2 0 A= Por lo tanto, la mejor exponencial que se puede utilizar en el método de rechazo pera ‘generar una variable aleatoria gamma (1) es la exponencial con media }, Ml 70 Generacién de variables aleatorias continuas Cap. 5 [Nuestro siguiente ejemplo mucsira la forma de aplicar Ia técnica de rechazo para generar variables aleatorias normale. Ejemplo Sf Generacién de una variable sleatoria normal. Para generar una variable aleatoria normal estindar Z (es decir, aquelia con media 0 y varianza 1), primero ‘observe que el valor absoluto de Z tiene la funcién de densidad de probabilidad f= Geet cree 62) Primero generamos a partir de la funcién de densidad anterior, valiéndonos del méto- do de rechazo en el que g es Ia funcién de densidad exponencial con media I, es decir, ae) O 0, bacer ¥= Yz~(Y, ~ 1/2 € ir al paso 4. En caso ‘contrat, ir al paso 1 PASO 4: Generar un nimero aleatorio U y hacer yn aust 2-{ 2 -y aust Las variables aleatorias Z y Y generadas asf son independientes, Z es normal con media 0 y varianza I y Yes exponencial con raz6n I (si desea que la variable aleatoria normal tenga medis Hy varianza 0°, s6lo considere w+ 0Z). Ml Observaciones 1. Como, ¢= Welt = 1.32, 0 anterior requiere un nimero de iteraciones del paso 2-con una distribucién geométrica y media 1.32. 2. Si quetemos generar una sucesiéa de variables aleatorias normales esténdar, nos servimos de la variable aleatoria exponencial ¥ obtenida en el paso 3 como la exponencial inicial necesaria en el paso 1 para generar la siguiente normal. Por n Generacién de variables aleatorias continuas Cap. 5 Jo tanto, en promedio, simulamos una aormal estindar generando 1.64 (= 2 x 1.32 ~ 1) exponenciales y calculando 1.32 cuadrados. Ml 3 El método polar para generar variables aleatorias normales ‘Sean X y ¥ variables aleatorias normales unitarias independientes y sean R y @ las coordenadas polares del vector (X, ¥). Es decir (wéase la figura 5.2) Rexsy y tano = ‘Como Xy ¥ son independientes, su densidad conjunta es el producto de sus densida- des individuales y por lo tanto esté dada por eee atenegeg Ses) = Fea ae Via Vin 63 Figura 52 See. 5.3 BI método polar para generar variables aleatorias normales B Para determinar la densidad conjunta de ° y © —llamémosla f(d, 0)~ hacemos et cambio de variables a=84y, out (2) ‘Como es fécil ver que el jacobiano de esta transformacién (es decir, el determinante de las derivadas parciales de d y @ con respecto de x y y) es igual a 2, Ia ecuaciéa (5.3) implica que la funcién de densidad conjunta de R* y © esté dada por ld, 9) @ Y) 65) Las transformaciones dadas por las ecuaciones (5.5) se conacen como transformacio- nes de Box-Muller Por desgracia, el uso de las transformaciones de Box Muller (5.5) para generar un par de normales unitarias independientes no es eficiente desde el punto de vista ‘computacional, ylarazén estéen la necesidad de calcular las funciones trigonométricas seno y coseno, Sin embargo, hay una manera casual de evadir esta dificultad mediante ‘un cdleulo indirecto del seno y el coseno de un dngulo aleatorio (opuesto a un célculo directo, el cual genera U y luego calcula el seno y el coseno de 2nU/). Para comenzar. ” Generaci6n de variables aleatorias continuas Cap. 5 observe que si Ves uniforme en (0, 1), entonces 21 es uniforme en (0, 2) y 2U~ 1 es ‘uniforme en (-1, 1) Asf, si generamos ntimeros aleatorios U, y Uz y hacemos yw ve 2-1 2; -1 entonces (V;, V;)esté uniformemente distribuida en el cuadrado de Area 4 con centro en (0, 0); véase la figura 5.3. ‘Ahora suponga que generamos de manera continua tales pares (V, V:) hasta obtener ‘uno que esté dentro del efreulo de radio I con centro en (0,0); es decir, hasta que (VY, V3) ces tal que V3# V2 < 1, Ahora, se tiene que tal par (V,, V;) esté uniformemente distri- Dbuido en el circulo. SiR y © denotan las coordenadas polares de este par, entonces no ¢s dificil verificar que Ry © son independientes y que R* esté uniformemente distri- buida en (0, 1) (véase el ejercicio 19) y © esté uniformemente distribuida en (0, 2m). Como © es entonces un éngulo aleatorio, podemos generar el seno y el coseno de un Angulo aleatorio © generando un punto aleatorio (V),¥;) en el efreulo y haciendo entonces on Bat sn ET oF co Oe RF cu, an % (n-d a, Figura 53 Sec. 5.4 Generacién de un proceso Poisson 75 ‘Ahora, gracias a la transformacién de Box-Muller (5.5), para obtener normales unit ras independientes generamos un nimero aleatotio U y hacemos a a k= C206 0" toy oe 66 © N08 OT De hecho, como R= Vi+ V4 estéuniformemente distibuida en (0,1) y es indepen- dente del &ngulo aleatorio ©, podemos tomarla como el ndmero aleatorio U necese- rio en las ecuaciones (5.6). Por lo tanto, si $= R, obtenemos que X= (2 log 5)! 8)" cama 9 f= vs (2883) son normales untarias independiente cuando (V, V3) e8 un punt elegido al azar en el citculo de radio 1 con centro en el origen, y $= V3+ V3 En resumen, tenemos el siguiente método para generar un par de normales unita Tias independientes: PASO 1: Generar niimeros aleatorios Us y Us- PASO2: Hacer Vj = 2U,~ 1, Vz= 2U;~ 1, $= Vi+ V3. PASO 3: SiS> I regresa al paso 1 PASO 4: Regresar las normales unitarias independiente. xe [PRES y, El anterior se lama método polar. Como la probabilidad de que un punto aleatorio del cuadrado esté dentro del ciculo es igual a w/4 (el rea del cifculo dividido entre el {rea del cuadrado), tenemos que, en promedio, el método polar necesitara 4/m = 1.273 iteraciones del paso 1. Por lo tanto requierirs, en promedio, 2.546 nimeros aleatorios, un logaritmo, una raiz cuadrada, una division y 4.546 multiplicaciones para generar dos normales unitarias independientes. ll 5.4 Generacién de un proceso Poisson ‘Suponga que queremos generar los primeros n tiempos de evento de un proceso Pois- son con razén 2. Para esto, nos servimos del resultado de que los tiempos entre los 16 Generacign de variables aleatorias continuas Cap. 5 eventos consecutivos de dicho proceso son variables aleatorias exponenciales inde- Pendientes, cada una con raz6n 2. Asi, una forma-de generar ef proceso es generar estos tiempos enre legadas. Ast, si generamos n nmeros aleatoios U,, Us... U, y X,=-19 log U,,entonces X, se puede considerar como el tiempo ene ef (= I)-ésimo y el ésimo evento en el proceso Poisson.Com el tiempo real del 4-ésimo evento Ser igual ala suma de los primerosj tempos entre Hegads, los valo- 1s generados por ls prmeros impos de evento son BX on Si quisigramos zenorar las primeras 7 uniades de tempo del proceso Poisson. podemos seguir el procedimiento anterior: generamos de manera sucesiva los tiem os entre Ins legadas y nos detenemos cuando su suma excede aT. Es deci, com el siguiente algoitmo se generan todos los tiempos de eventos que ocurren en (0,7) de tun proceso Poisson con razén nel algoritmo, © refiere al tiempo, es el nimero de eventos que han ocurrido hasta el instante fy S{0) ese tiompo det evento més reciente Generacin de las primeras T unidades de tiempo de un proceso Poisson con razénh paso 1: 1=0,/=0. yAs02: Generar un miimero aleatorio U. PASO 3: r= 1—log U. Sir< T, termina, paso: f= 141,500 PASO: Ir al paso 2 El valor final de 1 en el algoritmo anterior representard el nimero de eventos que ‘curren hasta ef instance 7; y fos valores S(1),-..., Sf) serén los 1 tiempos de evento cen orden creviente. Hay otro método para simular las primeras T unidades de tiempo de un proceso Poisson que también es eficiente. Comienza simulando N(T) (el aimero total de even- to que ocurren hasta el tiempo 7) y luego utiliza un resultado que establece que, dado [N(Z), los tiempos en que ocurten estos eventos se distribuyen de manera independien te y uniforme en (0, 7) [esto es claro de manera intuitiva, pues por el axioma de! incremento estacionario, es obvip que un tiempo de evento arbitraio esta distribuido uniformemente en el intervalo, y por el axioma del incremento independiente es evi- dente que, dado N(T), estos MT) tiempos de evento serian independientes}. Por lo tanto, podemos eomenzar generando el valor de (7), una variable aleatoria Poisson ccon media AT (si A es grande, por ef méiodo presentado en la seccidn 4.2 del capitulo 4; ‘o bien, si es pequefia mediante ese método o el método bosquejado en la secci6n 5.2 de este capitulo), Si el valor generado de N(T) es n, entonces generamos nime- 0s aleatorios, amados Uj, ... Uy, ¥, como TU, estarén uniformemente distribuidos Sec. 5.5 Generacién de un proceso Poisson no homogéneo 7 ‘en (0, 7), ef conjunto de tiempos de evento ser entonces (TU... . TU,). Si nos de- tuvigramos aqui, este método seria mas eficiente que la simulaciGn de los tiempos entre Hegadas exponencialmente distribuidos. Sin embargo, por lo general queremos ue los tiempos de evento estén en orden creciente [por ejemplo, para conocer N(s) para toda s < Tl; as, tambien necesitarfamos ordenar los valores TU, i= 3... 5.5 Generacién de un proceso Poisson no homogéneo Un proceso de conteo extremadaments importante para fines de modelacién es el proceso Poisson no homogénco, el cual rej le hipStsis de increments estacions tios en el proceso Poisson. Con ello, permite que la tasa de Hepada no sea constante, sino que varie con el tempo. Por lo general, es difcil obtener resultados analitcos Para tn modelo matemético que supone un proceso de legada Poisson no homogé- neo, y por ende tales procesos no se aplican con la frecuencia deseade. Sia embargo, como el uso de {a simulacién ayuda a analizar esos modelos, esperamos que tales ‘modelos matemiticos sean cada vez més comunes. Suponga que queremos simular las primeras T unidades de tiempo de un proceso Poisson no homogéneo con funcién de intnsidad 1). El primer metodo que presen- tamos, ol método de adelgazamiento 0 muesteo aleatorio, comicaza eligiendo un valor tal que 2) Sh para toda ¢< T ‘Ahora, como se mostré en el capitilo 2, tal proceso Poisson no homogéneo puede gencrarse mediante una seleccién alcatoria de ls tiempos de evento de un proceso Poisson con razén Es decir, si se cuenta un evento de un proceso Poisson con razén 2. que ocurre en el instante ¢ (de forma independiente a To que he ocurtido antes) con probabilidad (07, entonces el proceso de eventos contados es un proceso Poissoe no hhomogéneo con funciGn de intensidad M0}, 7, terminar Paso 4: Generar un aliero aleatorio U- 8 Generacién de variables aleatorias continuas Cap. 5 PASOS: Si US MOA, hacer I=1+ 1, St) = PASO6: ral paso 2, Adv, A) es la funcién de intensidad y 2s tal que 2) < RE valor final de 1 representa el mimero 7 de tiempos de evento, y S(1),. Si) son los tiempos de evento, Es claro que el procedimiento anterior, conocido como algoritmo de adelgaza- siento (pues reduce los puntos Poisson homogéneos) es ms eficiente, en el sentido de tener el menor nimero de tiempos de evento rechazados, cuando M(t) estécerea de 2.em tod el intervlo. Ast, una mejora obvia consiste en descomponer el intervalo eo subintervalos y luego utilizar el procedimiento en cada subintervalo. Es decir, deter, rminar valores adecuados & Oy <1, < ty €--* << fy ® Ts ys Ps tales que MOSM, SSeS TN, kel 61) Ahora, para generar el proceso Poisson no homogéneo sobre el intervalo (F., ) gene- ‘amos variables aleatorias exponenciales con raz6n %, y aceptamos el evento genesa- doque ocurre en el instantes, s€ (1,4), con probabilidad f(s\h, Debido ala propiedad de la exponencial de no tener mernoria y al hecho de que la razén de una exponencial se puede modificar multiplicando por una constante, no se pierde eficiencia al pasar de un subintervato al siguiente. Es decir, si estamos en f€ (14) y generamos X, una ‘exponencial con razén ), que es tal que #+ X°>f, entonces usamos A(X ~ (6, — DVB ‘como la siguiente exponencial con razén I. ‘Ast, tenemos el siguiente algoritimo para generar las primeras T unidades de tiem po de un proceso Poisson no homogéneo con fancién de intensidad Ms) cuando se satisfacen I retaciones (5.7). En el algoritmo, # representa el tiempo actual, J el in- tervalo actual (¢s decir, J= j cuando 1, $1 < 4), es el mimero de eventos hasta el momento y S(1),.... $(D) los tiempos de evento. Generacién de las primeras T unidades de tiempo de un proceso Poisson no homogéneo PASO I: ny 120, PASO 2: Generar un niimero aleatorio U y hacer X log wu. PASO 3: Sif+X> tq ral paso 8, +X, Paso 4: Sec. 5.5 Generacién de un proceso Poisson no homogéneo. » 5: Generar un nsmero aleatorio U. 6 SIUSMON, hover I=2+ 1, St, 1: tral paso? PASO 8 SiJ= K+ 1, terminar *: 0: X= AF MA EE TEL Iral paso 3. ‘Ahora supongamos que en algtin subintervato (1,1) se tiene que A, > 0, donde ys Infimo (Ms): ay S8< 4) En tal caso, no debemos emplear el algoritmo de adelgazamiento en forma directa, sino primero simular un proceso Poisson con razén 2, en el intervalo deseado y luego simular un proceso Poisson no homogéneo con la funcién de intensidad Ms) = (5) — 1, cuando s & (t,,) (la ltima expononcial generada para el proceso Poisson, que va ims all de a frontera deseada, no tiene que desecharse, pues puede transformarse de manera adecuada para ser reutilizada). La superposicign (0 fusién) de los dos proce 06 da como resultado el proceso deseado en el intervalo, La razén para seguir este método es que ahorra la necesidad de generar variables sleatorias uniformes para un rnimero distibuido en forma Poisson, con media 2(t,~,,), de los tiempos de evento. Por ejemplo, consideremos el cas donde Ns)= 104s, O 0, consiste en generar de manera directa los tiempos de evento Cconsecutivos. Asf, sean S, 5, -. 10s tiempos de eventos consecutivos de tal proceso, Como es claro que estas variables aleatorias son dependientes, las generamos en se rie, comenzando con S,, y luego tomarios ef vafor generado de S, para generar Sy ast sucesivamente, 80 GeneraciGn de variables aleatorias continuas Cap. 5 ara comenzar, observamos que si un evento ocurre en el instante 5, entonces, independientemente de Jo ocurido antes de 5 e impo adiciona hasta el siguiente evento tiene 1 dsuibucién F,, dada por F(x) = P(empo desde shasta qu el siguiente eventos menor que x levento ens}, = P(siguiente evento esté antes de x + s|evento en 5) Plevento ente sy s + xlevento en 5} = Plevento entre sy 5 + x} por incrementos independientes 1 P(O eventos en (s,s +2)) 1 00(-f"" x08) inoof-[retne ) “n ‘Ahora podemos simular los tiempos de evento 5, S,-.. generando Sa parti dela Aistribucién Fy; luego, si el valor simulado de Ses s,, generamos $; sumando 5, a un valor generado a partir de la distribucion Fy; y si esta suma es 3, gencramos Sy sumando s; 4 un valor generado a partir de'a distribucién Fy; y asf sucesivamente Por supuesto, el método utilizado para simular a pattir de estas distibuciones depende- riade su forma, En el siguiente ejemplo, es fécilinvertir las distribuciones F, de modo ‘que se puede aplicar el método de la transformada inversa, Efemplo Sg Supongamos que Mi) = I(t + a), £2 0, para cierta constante positiva a. Entonces 7 1 nesta [rot na= [a i ssi 8) Por lo tanto, de la ecucidn (58), Fe) = x+st+a xtsta Para invertir esto, suponemos que x= Fw), y entonces “OHO Esta 0, en forma equivalente, Ejereicios 81 Es decir, Fri = (s+ a) T-« Por Io tanto, para generar los tiempos de evento sucesives 5, S;, . . . gemeramos rnieros aleatorios Uj, Uy, y defini 5, 0 y A, la siguiente subrutina genera el valor de T, Una subrutina para generar T, rasol: Searms. 74802: Generar U. P4503: Sear=1— flog U aso: Genetr U. Pas0 5: Si US ACM, hacer T= Fy terminar. aso 6: Teal paso 2. 88 El método de simutacién por medio de eventos diseretos Cap. 6 ll 6.2 Sistema de linea de espera con un servidor Considere una estacién de servicio a la cual los clientes Hegan de acuerdo con un proce- 0 Poisson no homogéneo con funcin de intensidad A(t), 42 0. Hay un Unico servidor, yal llegar un cliente pasa a servicio si el servidor esté libre en ese momento, 0 bien se lune a Ia fila de espera si esté ocupado. Cuando el servidor termina de dar servicio a un cliente, se ocupa de cliente que ha estado esperando mas tempo (la disciplina “primero en Hlegar, primero en atender”) si hay clientes esperando, o bien, sino los hay, permane- ce libre hasta la llegada del siguiente cliente. FI tiempo que tarda la atencisn a un cliente ces una variable aleatoris (independiente de los demés tiempos de servicio y del proceso de ffegada) con distribucién de probabilidad G. Ademés, hay un tiempo fijo T después Tn > 0 Restablecer: = fp Restablecer. a =n —1 Restablecer: Np =Np +1 90 EE método de simulaci6n por medio de eventos diseretos Cap. 6 Sec. 6.3. Sistema de nea de espera con dos servidores en serie Sim >0, generar Yy hacer ty =1+ ¥. Reunir los datos de salida D(Np) = t Caso 4 minty, fe) > Tm Reunir los datos de salida T, = méx(t ~ T, 0). Iustramos fo anterior en el diagrama de flujo de la figura 6.1. Cada vez que llegamos a tuna caja “terminar” habremos obtenido los datos Ny, el nmero total de legadas, que sera igual aN, el mero total de saidas. Para cada‘, i= 1,...NytenemosA(@)y D(?)las horas de llegada y salids del cliente i, respectivamente [y asf D(@ — A(H) representa la ‘cantidad de tiempo que el cliente ha estado dentro de sistema]. Por ultimo, tenemos 1, et tiempo posterior a T en que sale el tltimo cliente, Cada vez que reunimos los datos anteriores, decimos que ha concluido una ejecucién de la simulaci6n. Después de cada ejecucisn, podemos reinicilizar y generar otra ejecucién hasta decidir que se cuenta con los datos suficientes (en el capftulo 7 veremos cusndo terminar una simu- lacién). El promedio de todos los valores de 7, generados de esta forma seré nuestra cestimacién del tiempo promedio posterior a Ten que saldré el dltimo cliente; de manera andloga, el promedio de todos los valores observados de D — A (es decir, el tiempo promedio que un cliente pasa en el sistema, sobre todos los clientes observados en ruestras ejecuciones de simulacién) ser nuestra estimacidn del tiempo promedio que ; un clicte pasa ene sistema, é Generar pen a Observacién Si queremos ahorrar datos de salida con el mimero de clientes dentro del sistema en cada instante de tiempo, s6lo se necesita Ia salida formada por el es- tado del sistema y Ia variable de tiempo (n, 1) siempre que ocurra un evento. Por ejemplo, i la Salida es (1, 4) y (©, 6), entonces, si n(t) es el nimero de clientes en el 7 sistema en el instante 1, sabriamos que a n@)=0, si0sted n=l, sidsr<6 nm) =0, si +f Dip) 0 2+ No: Figura 6.1 Generar ¥ sey n>0 fo 0, generar ¥,, y hacer f Reunir los datos de salida D(N,) = 1 Con este esquema de actualizacién, es fic simular el sistema y reunir los datos de importancia. 6.4 Sistema de linea de espera con dos servidores en paralelo ‘Consideremos un modelo en el que los clientes legan a un sistema con dos servidores. ‘Al llegar, un cliente se forma en una fila si ambos servidores estén ocupados, entra a servicio con el servidor I si ese servidor esté desocupado, o bien con el servidor 2 en ceaso contrario, Cuando el cliente concluye el servicio con un servidor (sin importar ccudl sea), sale del sistema y el cliente que ha estado formado més tiempo (si hay clientes en la cola) entra a servicio. La distribucién de servicio en el servidor ies G, 2 (véase la figura 6.3). ‘Suponga que queremos simular el modelo anterior manteniendo un registro de las ceantidades de tiempo que pasa cada cliente dentro del sistema y l nimero de servicios realizados por cada servidor. Como hay varios servidores, los clientes no saldrén en el frden de Hlegada, Por lo tanto, para saber qué cliente deja el sistema al concluir su servicio, necesitamos Mevar un registro para ver qué clientes estén en el sistema, Ast, los numeraremos conforme vayan Hlegando, de modo que el primero en legar es el cliente ndmeto 1, el siguiente es el nimero 2, y asf sucesivamente, Utilizaremos las siguientes variables: & © Figura 63, ‘Sec. 6.4 Sistema de tinea de espera con dos servidores en paralelo 95 Variable de tiempo ‘Variable de estado del sistema (ES) (iy gyi) Si ay m clientes en el sistema, i est con ol servidor 1, i esté con el servidor 2, i, es el primero de la fila, i, es el siguiente, y asf sucesivamente ‘Observe que ES = (0) cuando el sistema esté vacfo, y ES= (1, j,0)0(1,0, j) cuando €l nico cliente es jy éste es atendido por el servidor 1 0 el 2, respectivamente. ‘Variables de conteo Ng: el mimero de legadas hasta el instante ¢ 3; el nimero de clientes atendidos por j,j 2, hasta el instante ¢ Variables de salida An): la hora de Negada del cliente n,n 2 1 ‘Din la hora de salida del cliente m, 2 > 1 Lista de eventos fy ffs Donde tes la hora de la siguiente Hegada y ¢, es Ia hora en la que coneluye el servicio del cliente que en ese momento est siondo atendido por el servidor i, i= 1,2. Si no hay tun cliente actualmente con el servidor i, entonces hacemos ¢, =, i = 1, 2. En lo sucesivo, la lista de eventos siempre constard de las tres variables fff Para comenzar la simulacin, inicializamos las variables y fa lista de eventos como sigue: Generar Ty y hacer t= Ty Para actualizar el sistema, nos movemos en el tiempo hasta encontrar el siguiente even to. En los siguientes casos, ¥, siempre se refiee a una variable aleatoria con distribucin Gy i= 1,2. 96 El método de simulaci6n por medio de eventos discretos Cap. 6 Caso 1 ES = (0 ining 5 iY ty = mint, ) Restablecer: £= ty Restablecer: N=, + 1. Generar 7, y hacer ty =, Reunir los datos de salida A(N,) =« SiES = (0) Restablecer: ES Generar Fy hacer Q,j.Nd- Generar ¥, y hacert)= 1+ Ys SiBS = (1, 0,)) Restablecer: ES = (2, Nai) Generar ¥, y hacer =1+ ¥,. evi Ne Caso ES=(M iy iy DYN Soh Sh Reunir los datos de salida D(i,) Sim Restablecer: ES = (0) Restablecer: #, = ©. (1,0, Restablecer: t= =. Sec. 6.5 Modelo de inventario ” Sin,> 2: Restablecer: ES = (n= 1, iy fy «sy Generar ¥, y hacer +Y, Caso 3 ES= (0 iyin iY E< th fe) en ‘wna fala reparacién Desps de x eparcn eo nen Figura 64 Modelo de reparacion 100 E] método de simulacién por medio de eventos discretos Cap. 6 quedan como repuestos, estamos interesados en simular el sistema para aproximar AIT], donde T es el tiempo en que fall Para simular lo anterior, utilizamos las siguientes variables: 1. Variable de tiempo ' 2. Vasable de estado del sistema_r: el mimero de msquinas descompuestas ene instante ¢ Como a variable de estado del sistema cambiaré cuando una méquinaen buen estado se descompone o cuando se concluye una reparaciGn, decimos que ocurre un “evento” si ocurre cualquiera de estas situaciones, Para saber cuéndo ocurriréel siguiente even- to, necesitamos llevar un registro de los instantes en los cuales fallan las méquinas 4que estén en uso y el instante en que la maquina enreparacin (i hay alguna) conelu- ye su proceso, Puesto que siempre debemas determinar el minimo de los tiempos de descompostura, conviene anotar estos valores en una lista ordenada. Asf, es conve- niente que a sts d eventos sea como sigue: Lista de eventos: f) $8 S2++ Sty donde "4, $08 los tiempos (en orden) de descompostura de las n méquinas y ¢* es el tiempo en que la méquina en reparacign vuelve a funcionar; sino hay una méqui- nna en reparacién en un momento dado, entonces 1* = «, Para comenzar la simulacin, inicializamos estas cantidades de la manera siguiente, Inicializacién Sean Oe Generar Xi... Xy, Variables aleatorias independientes, cada una con distribucién F. Ordenar estos valores, de modo que #, sea el i-ésimo menor, /= 1... ‘Sea la lista de eventos: ty... fy La actualizsciOn del sistema se realiza de acuerdo con los dos casos siguientes. Caso 1h 0, generar una variable aleatoria Y con funcién de distibucién G, la cual representa el tiempo de reparaci6n de la maquina que acaba de ingresara servicio, y restablecer =1 + ¥. Sir=0, hacer {ac reglas anteriores para Ia ctalizaidn aparecen en la figura 6S Cada ver que nos detenemos (lo eval acure cuando r= s+ 1), desimos que ha concluido una ejcucién La slida dela ejecucién es el valor del emo de fll 7 Entonces, reinicilizamos y simulamos otra ejecucin. En resumen, realizamos wn total, digamos, de k ejecuciones de modo que las variables de salida son, en forma sucesva, Ty. Te Como estas k variables aleatorias son independientes y cada una representa un tiempo de fala, su promedio es deci, 2$,,—T)/k ela estimacién de UT], el tiempo medio de fall, La cuestin de determiner euéndo detener la sima- laciGn (es deci, determina el valor def) la analizamos en el capalo 7, en el que se presenta lor métodos para analiza de manera estadistca I sada apart de eecucio- nes de simlaci6n de opciones en acciones ‘Sea S,, m2 0, el precio de una accién dada al final del dian. Un modelo comin supore que 5 = SoerplXy #5 KH), EO donde X;, Xj... es una sucesién de variables aleatorias normales ¢ independientes. cada una con media yy varianza o*. EI modelo supone que el incremento diario det precio con respecto de dia anterior tiene una dstribucidn comin, lamada modelo de cami- 102 EI método de simulacié» por medio de eventos discretos Cap. 6 Sec. 6.7 Ejercicio de opciones en acciones 103 ata aleatoria lognormal Sea a= + 72. Suponga ahora que usted tiene Ia opcign de comprar una unidad de esta aceién a un precio fio K al final de cualquiera de los siguientes NV dias. Si usted ejerce esta opci6n cuando el precio de Ia accién es 5, entonces, debido qu usted s6lo paga Ia cantdad K, Hlamamos a esto una ganancia de = K (pues tericamente, usted podria cambiar de opinign de inmediatc y vender fa acciGn al precio 5). La ganancia esperade al poser fa opcin (Ia cual aunca debe ejercerse si el precio de fa accién no excede @ K durante el periodo en cuestién) depende de In politica para ejercer opciones. Ahora, ¢ puede mostrar que si > 0, entonces la politica éptima consste en esperar hasta el sitimo momento posible y Iuego ejercer Ia opcn si el precio es mayor que K y no ejercerla en caso contario, Como X; +--+ Xyes una variable aleatoria normal con media Ni y varianza No, no dificil ealular de manera explicta el resultado de esta politica. Sin embargo, no &s tan féeilcaracterizar una politica ptima, ni siquiera una que se acerque ala 6ptima, cuando «<0, y para cualquier politica rzonablemente buena, no se puede evaluar dde manera expicita la gananciaesperada. Ahora daremos una politica que se puede practicar cuando 0< 0 y que, aungueesté lejos de ser Sptima, parece razonablomente buena India que la open se debe ejrcer cuando faltan m dias por anscurtirsiem- pre que, para cada ?= f,...,m, esa accin conduzea aun réito esperado mayor que 1 obtenido al dejar que anscuran exactamente i dias y luego ejrcerla (si el pre- cio en ese momento es mayor que K) 0 jams ejercera Sea P= Sy el precio de a acca cuando faltan m dis por tanscurtir antes de ‘que expire la open. La politica sugerida es la siguiente: [ere ie Generar FF reared reunir datos T z = sf st y Generar Y= | nae Figura 6.5 thy ret Si r> 0, generar YG y resablecer Hy "Restablecer =P r=r=T Sir=0, hacer == Politica Si faltan m dias por transcurrir, entonces cjercer la opcién en este tiempo si P.>K y, si para cada Xen F donde ‘ésimo inenor 36 Lista de events: fy, Generar, y donde ¢ (x) es la funcién de distibucién normal estndar, la cual puede aproximar- se mediante la siguiente f6rmula: Tiisiiar t= r=, = = 1) <1 Eatay tay tae 104 EI método de simulaci6n por medio de eventos discretos Cap. 6 donde 1 2 TF 0.33267 ay = 04361836 a = ~0.1201676 ‘ay = 049372980 . Sea SP el precio de la accién al ejercer la opci6n, si ésta se ejerce, y sea SP igual a K sila opcién nunca se eerce. Para determinar el valor esperado de esta politica (es deci, determinar £{SP] — K), ¢s necesario recurrir a la simulacién. Para pardmetros dades j1, 6, N, K, Sy es suficionte simular el precio de la accién en dias separados, ‘generando X, una variable aleatoria con media jt y desviacién estindar 6, y luego utilizar la relacién Py 1 = Prat [Asf, si Pes el precio con m dias faltantes y la politica no pide ejercer Ia opcisn en este momento, entonces generarfamos X y determinarfamos el nuevo precio P..., para que la computadora verifique si en este momento debe ejercerse la opcidn. En tal caso, para esa simulaciGn se ejecuta SP = Pj; en aso contrario, determinarfamos el precio al final del siguiente dfa, y asf sucesivamente. Fl valor promedio de SP ~ K, con respecto de un gran nimero de ejecuciones de simulacién serfa entonces nuestra estimacién del valor esperado de contar con esta opeién cuando se wiliza la politica anterior. li 8 _Verificacién del modelo de simulacion El producto final del método de eventos discretos para simulacién es un programa de ‘computadora que uno espera est libre de errores. Por supuesto, para verificar que realmente ‘no hay falls en el programa, uno debe seguir todas las tenicas “estindares” de los prosra ‘mas depuradores. Sin embargo, hay varias téenicas que son partcularmente apicables en la 0 y T=9. Intente primero con 100 ejecuciones y luego con 1000. 2. Enel modelo de la seccién 6.2, suponga que también queremos obtener infor- ‘maci6n acerca del tiempo de inactividad diaria del servidor. Explique eémo hacerlo 3. Suponga que los trabajos Hegan a un sistema de Iinea de espera con un servidor de acuerdo con un proceso Poisson no homogéneo, cuya razén inicial es 4 por hora y que erece con tna velocidad constante hasta Megar a 19 por hora después de 5 horas, para luego descender en proporcién constante hasta 4 por hora, des- pués de otras 5 horas. La razén comienza a repetirse de esta manera: es decir, Akt + 10) = Ma). Suponga que la distribuci6n del servicio es exponencial con raz6n de 25 por hora. Suponga ademas que siempre que el servidor concluya un servicio y no encuentre trabajos esperando, entra en un receso que se distribuye dde manera uniforme en (6, 0.3). Si al regresar de este receso no hay trabajos cesperando, entonces toma otro receso. Utilce la simulacién para estimar Ia can- tidad esperada de tiempo que el servidor estaré en receso durante las primeras 100 horas de operacién. Realice 500 ejecuciones de simulaci6n, 4, Complete el esquema de actualizacién para el caso 3 en el modelo de Ia sec- cin 6.4. '5. Considere un modelo de Iinea de espera con un servidor, en el cual Tos clientes Iegan de acuerdo con un proceso Poisson no homogéneo. AJ Yegar, entran a servicio siel servider esed desocupado o bien se forman en una fila, Sin embar- go, suponga que cada cliente sélo puede permanecer formado una cantidad aleatoria de tiempo, con una distribucin F, antes de salir del sistema, Sea Gla distribucién del servicio. Defina las variables y los eventos para analizar este modelo y dé los procedimientos de actualizacién. Suponga que estamos intere- sados en estimar el nimero promedio de clientes perdidos hasta el instante T; un te se considera perdido si se va antes de recibir servicio, Ejercicios 107 ‘6. En el ejercicio 5, suponga que el proceso de llegada es un proceso Poisson con raz6n 5; F es la distribucién uniforme en (0, 5) y Ges una vatiable aleatoria cexponencial con razén 4. Realice 500 ejecuciones de simulacisn para estimar el nero esperado de clientes perdidos hasta ef instante 100, Suponga que los clientes seciben servicio segtin su orden de Wegada. 7. Repita el ejercicio 6, pera suponiendo que cada vez que el servidor concluye un servicio, el siguiente cliente por atender es aquel que tiene el menor tiempo de salida de la fila. Bs decir, i dos clientes estan esperando y uno saldra de la fila si su servicio no ha comenzado antes dl instante ,y el otro saldra siel servicio no comienza antes del instante 4, entonces el primero entra a servicio sit,

You might also like