Professional Documents
Culture Documents
Cadenas de Markov
de Operaciones II Investigacion
Cadenas de Markov
FIMCP
Supongamos que en cierto pueblo se ha observado que 90% de todos los d as soleados son seguidos por otro d a soleado, y 80% de los d as nublados son seguidos por otro d a nublado. Como para modelar el clima de este podr amos utilizar esta informacion pueblo?
Cadenas de Markov
FIMCP
Se dice que un proceso estocastico {Xt }, (t = 0, 1, . . . ) es una cadena de Markov con estados nitos si posee las siguientes caracter sticas Un numero nito de estados Un conjunto de probabilidades iniciales P {X0 = i } para todo i estacionarias Probabilidades de transicion La propiedad Markoviana
Cadenas de Markov
FIMCP
Propiedad Markoviana
Se dice que un proceso estocastico Xt tiene la propiedad markoviana si P {Xt +1 = j |Xt = i , Xt 1 = kt 1 , . . . , X0 = k0 } = P {Xt +1 = j |Xt = i } para t = 0, 1, 2, . . . y toda sequencia de estados k0 , . . . , kt 1 , i , j
Cadenas de Markov
FIMCP
Probabilidades de transicion
Cadenas de Markov
FIMCP
Una urna contiene inicialmente dos bolas sin pintar. Escogemos una bola al azar y lanzamos una moneda. Si la bola escogida esta sin pintar y obtenemos una cara en la moneda, entonces pintamos sin pintar y obtenemos un sello en la bola color rojo; si la bola esta la moneda, entonces pintamos la bola color negro. Si la bola ya pintada, entonces (independientemente del resultado de la esta moneda) cambiamos el color de la bola (de rojo a negro o de negro a rojo).
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
a tiene dos maquinas. Una compan Durante cualquier d a, cada funcionando al inicio del d maquina que esta a tiene una 1 Si una maquina de que se dane. se dana probabilidad de 3 y estara reparada dos d durante el d a, es enviada a reparacion as de que se dan o (as durante el despues , si una maquina se dana funcionando al inicio del d d a 3, estara a 5.) Haciendo que los estados del sistema sean el numero de maquinas funcionando al para esta inicio de cada d a, obtenga la matriz de transicion situacion.
Cadenas de Markov
FIMCP
Sea X0 el numero de camaras al inicio, X1 el numero de camaras al nal de la 1era semana, X2 el numero de camaras al nal de la 2nda semana, y as sucesivamente Asumimos que X0 = 3
Cadenas de Markov
FIMCP
Asi, {Xt } para t = 0, 1, es un proceso estocastico Las variables aleatorias Xt s son claramente dependientes y pueden ser evaluadas iterativamente por la expresion Xt +1 = max{(3 Dt +1 ), 0} si Xt < 1; max{(Xt Dt +1 ), 0} si Xt 1.
Cadenas de Markov
FIMCP
de Poisson con media Asumiendo que Dt +1 sigue una distribucion 1, tal que P {Dt +1 = n} =
(1)n e1 , n!
n = 0, 1, . . .
Cadenas de Markov
FIMCP
P {Dt +1 = 0} =e1 = 0.368 P {Dt +1 = 1} =e1 = 0.368 P {Dt +1 = 2} = P {Dt +1 e1 = 0.184 2 3} =1 P {Dt +1 2} = 0.080
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
De manera similar podemos encontrar los demas pij s, obteniendo as 0.080 0.632 P= 0.264 0.080
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
Ejemplo: Apuestas
Supongamos que un jugador tiene $2 y en cada juego gana $1 con probabilidad p o pierde $1 con probabilidad 1 p. El juego termina cuando el juegador acumula $4 o pierde todo.
P=
0 1p 0 0 1p p 0 0 1p 0 0 0 0 0
0 0
0 p 0
0 0 0 p 1
Cadenas de Markov
FIMCP
= P {Xt +n = j |Xt = i }.
Cadenas de Markov
FIMCP
(n)
(n)
0, para todo i , j , y n = 0, 1, 2, . . .
(n )
pij
j =0
= 1, para todo i y n = 0, 1, 2, . . .
Cadenas de Markov
FIMCP
M p0M . . . . . .
(n) (n)
. . . . . .
pM 0
(n)
pMM
(n)
P (n)
pM 0
G. Abad, Ph.D. agabad@espol.edu.ec Andres
(n)
p0M . . . pMM
(n)
(n)
Cadenas de Markov
FIMCP
Ejemplo: La cola I
Supongamos que la industria total de bebidas gaseosas producen solo dos colas. Dado que la ultima compra de una persona es la cola 1, hay un 90% de probabilidad de que su siguiente compra sea cola 1. Dado que la ultima compra de una persona es la cola 2, entonces hay un 80% de probabilidad de que su siguiente compra sea la cola 2. 1. Si la persona acaba de comprar la cola 2, cual es la probabilidad de que compre la cola 1 dos compras despues. 2. Si la persona acaba de comprar la cola 1, cual es la probabilidad de que compre la cola 1 tres compras despues.
Cadenas de Markov
FIMCP
Ecuaciones de Chapman-Kolgomorov I
Las ecuaciones de Chapman-Kolgomorov proporcionan un (n ) pij : metodo para calcular las probabilidades de transicion
M
pij
(n)
=
k =0
pik pkj
(m) (nm)
Cadenas de Markov
FIMCP
Ecuaciones de Chapman-Kolgomorov II
pij
(n )
=
k =0
pik pkj
(n1)
pij
(n)
=
k =0
pik
(n1)
pkj
Estas ecuaciones nos permiten obtener las probabilidades de de n pasos recursivamente de las probabilidades pij s transicion
Cadenas de Markov
FIMCP
pij
(2)
=
k =0
pik pkj ,
Cadenas de Markov
FIMCP
Ecuaciones de Chapman-Kolgomorov IV
(2)
P (2) = P P = P 2 se puede mostrar entonces que Por induccion P (n) = P P (n1) = P P n1 = P n P (n) = P (n1) P = P n1 P = P n
Cadenas de Markov
FIMCP
Ecuaciones de Chapman-Kolgomorov V
0.080 0.632 = P2 = 0.264 0.080
P (2)
0.184 0.368 0.368 0.368 0 0 0.368 0.368 0 0.184 0.368 0.368 0.184 0.368 0.368 0.368 0 0 0.368 0.368 0 0.184 0.368 0.368 0.300 0.233 0.233 0.300 0.165 0.233 0.097 0.165
Cadenas de Markov
FIMCP
Ecuaciones de Chapman-Kolgomorov VI
0.249 0.283 = P4 = 0.351 0.249
P (4)
0.300 0.233 0.233 0.300 0.286 0.252 0.319 0.286 0.261 0.268 0.263 0.261
0.165 0.233 0.097 0.165 0.300 0.233 0.233 0.300 0.165 0.233 0.097 0.165
Cadenas de Markov
FIMCP
+ P {X0 = M }pMj
M
(n )
=
i =0
P {X0 = i }p0i
(n )
Cadenas de Markov
FIMCP
Ejemplo: Inventario Dado que asumimos que inicialmente hab an 3 camaras tenemos
P {X0 = 3} = 1
(2)
Cadenas de Markov
FIMCP
Decimos que un estado j es accesible desde otro estado i (i j ) (n) si pij > 0 para algun n suciente para que todos los En general, una condicion estados sean accesibles es que exista un valor n para el cual (n) pij > 0, para todo i y j
Cadenas de Markov
FIMCP
Si i j y j i , entonces decimos que los estados i y j se comunican (i j ) 1. Cualquier estado se comunica consigo mismo (ya que (0) pii = P {X0 = i |X0 = i }=1) 2. Si i j , entonces j i 3. Si i j y el estado j k , entonces i k
Cadenas de Markov
FIMCP
Por consiguiente, los estados pueden ser particionados en una o clases separadas tal que aquellos estados que se comunican mas en una misma clase entre ellos esten Una clase puede consistir en un solo estado Si solo existe una clase, i.e. todos los estados se comunican, decimos que la cadena de Markov es irreducible
Cadenas de Markov
FIMCP
de entrar al Decimos que un estado es transitorio si, despues estado, es posible que el proceso no regrese a este estado Un estado i es transitorio si y solo si existe un estado j (i = j ) accesible del estado i pero no viceversa (i.e. el estado i no es accesible desde el estado j ) visitado un Como consecuencia, un estado transitorio solo sera numero nito de veces
Cadenas de Markov
FIMCP
de entrar al Decimos que un estado es recurrente si, despues a este estado estado, el proceso denitivamente regresara Un estado es recurrente si y solo si no es transitorio denitivamente visitado Dado que un estado recurrente sera de cada visita, entonces sera visitado un numero despues innito de veces si el proceso continua por siempre
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
de entrar al Decimos que un estado es absorbente si, despues estado, el proceso nunca deja este estado El estado i es absorbente si y solo si pii = 1
Cadenas de Markov
FIMCP
0 0 1
1 3
0 0 0
2 3
0 0 0 0 0
El estado 0 y 1 son recurrentes El estado 2 es absorbente (recurrente) El estado 3 es transitorio El estado 4 es transitorio
Cadenas de Markov
FIMCP
Perioricidad de un estado I
Perioricidad de un estado
Denimos el periodo de un estado i como el entero t (t 1) tal (n) que pii = 0 para todo n distinto a t , 2t , 3t , . . . y t es el entero mas grande con esta propiedad. Considere el ejemplo del apostador
Cadenas de Markov
FIMCP
Perioricidad de un estado II
(s)
>0y
Es un estado aperiodico Se puede demostrar que la perioricidad es una propiedad de las clases Si un estado i que pertenece a una clase C tiene periodo d , entonces el periodo de todos los estados en C es d
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
Una cadena es ergodica si es aperiodica, irreducible, y recurrente. (n) Para cualquier cadena de Markov ergodica, lim pij existe y es
n
= j > 0
Cadenas de Markov
FIMCP
j =
i =0 M
i pij ,
para j = 0, 1, . . . , M
j = 1
j =0
Cadenas de Markov
FIMCP
Notas:
Es importante notar que las probabilidades de estado estable no implica que el proceso se queda estable en algun estado
El proceso continua haciendo transiciones de un estado al otro En cualquier estado n la probabilidad de ir de un estado i a un estado j se mantiene como pij
Cadenas de Markov
FIMCP
de probabilidades j I Obtencion
Tenemos M + 2 ecuaciones en M + 1 variables. En el ejemplo de inventario tenemos
0 = 0 p00 + 1 p10 + 2 p20 + 3 p30 1 = 0 p01 + 1 p11 + 2 p21 + 3 p13 2 = 0 p02 + 1 p12 + 2 p22 + 3 p23 3 = 0 p03 + 1 p13 + 2 p23 + 3 p33
1 = 0
+ 1
+ 2
+ 3
j = 1 es necesaria
Cadenas de Markov
FIMCP
de probabilidades j II Obtencion
Substituyendo los pij tenemos
0 = 0.0800 + 0.6321 + 0.2642 + 0.0803 1 = 0.1840 + 0.3681 + 0.3682 + 0.1843 2 = 0.3680 3 = 0.3680
1 = 0
+ 1
Cadenas de Markov
FIMCP
Lo que nos da
0 = 0.286
1 = 0.285
2 = 0.263
3 = 0.166
Cadenas de Markov
FIMCP
= 0,
para todo n
lim pij
(n)
= 0,
para todo i
Cadenas de Markov
FIMCP
hacer una armacion probabil Muchas veces es de interes stica sobre el numero de transiciones que le toma a un proceso en ir del estado i al estado j por primera vez A este numero de transiciones llamaremos tiempo de la primera pasada
Cadenas de Markov
FIMCP
Supongamos en el ejemplo de inventario que observamos la de la cadena de Markov {Xt } siguiente realizacion X0 = 3, X1 = 2, X2 = 1, X3 = 0, X4 = 3, X5 = 1 El tiempo de la primera pasada del estado 3 al estado 1 son 2 semanas El tiempo de la primera pasada del estado 3 al estado 0 son 3 semanas
Cadenas de Markov
FIMCP
fij
=pij =
= pij ,
pik fkj ,
(1)
fij
k =j
(n ) fij
=
k =j
pik fkj
(n1)
Cadenas de Markov
FIMCP
(1)
(1)
(1)
(1)
Cadenas de Markov
FIMCP
Notemos que para valores jos de i y j , los valores fij no negativos tales que
(n)
son valores
fij
n=1
(n )
ya que un sistema en un estado inicial i puede que nunca llegue a un estado j (n) (n) Solo cuando = 1 podemos considerar a los valores fij n=1 fij de probabilidad de los tiempos de llegada como la distribucion
Cadenas de Markov
FIMCP
Aun cuando puede ser tedioso encontrar los valores de fij , encontrar los valores esperados de los tiempos de la primera pasada (denotados por ij ) es relativamente simple
(n)
ij =
,
(n) n=1 nfij ,
si si
<1 =1
Cadenas de Markov
FIMCP
Si
fij
n=1
(n )
=1
ij = 1 +
k =j
pik kj
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
Cadenas de Markov
FIMCP
ii =
00 = 22 =
0
1
11 = 33 =
1
1
Cadenas de Markov
FIMCP
Estados absorbentes I
Un estado k es absorbente si pkk = 1 Si el proceso se encuentra en un estado i , la probabilidad de ser absorbido por el estado k es llamada probabilidad de absorcion por el estado k Denotada por fik
Cadenas de Markov
FIMCP
Estados absorbentes II
satisfacen las siguientes Las probabilidades de absorcion ecuaciones
M
fik =
j =0
pij fjk ,
para i = 0, 1, . . . , M
Cadenas de Markov
FIMCP
Ejemplo I
Considere la siguiente matriz de transicion 1 0 0 0 0.7 0.2 0.1 0 P= 0.5 0.1 0.2 0.2 0 0 0 1
f13 =p10 f03 + p11 f13 + p12 f23 + p13 f33 f23 =p20 f03 + p21 f13 + p22 f23 + p23 f33
Cadenas de Markov
FIMCP
Ejemplo II
Ya que f03 = 0 y f33 = 1, tenemos
(1 p11 )f13 =p12 f23 + p13 (1 p22 )f23 =p21 f13 + p23
Reemplazando los valores de pij y resolviendo el sistema obtenemos f13 = 0.032 y f23 = 0.254
Cadenas de Markov