Professional Documents
Culture Documents
- CADENAS DE MARKOV
Las cadenas de Markov tienen la propiedad particular de
que las probabilidades que describen la forma en que el
proceso evolucionar en el futuro, depende slo del estado
actual en que se encuentra el proceso, y por lo tanto, son
independientes de los eventos ocurridos en el pasado.
Sea el proceso estocstico {Xn donde n = 0, 1, 2, .n} donde
Xn = t, es el estado t del sistema en el tiempo n.
Ejemplo: Modelo de enfermedades contagiosas
Propiedad Markoviana (independencia Condicional)
El estado futuro del sistema depende de su trayectoria
pasada solo a travs del presente:
Pij = Pr{ Xn+1=j / X0=i0, X1=i1, Xn-1= in-1, Xn=i} = Pr{ Xn+1 = j / Xn = i }
Por tanto:
P
10
1
n
P ( Pij ) .
...
Pn0 ..
Pnn
Propiedades de la matriz P:
Es una matriz cuadrada y puede ser finita o infinita
P no tiene porqu ser simtrica Pij Pji
La dimensin de P corresponde al nmero de estados del
sistema.
La suma de los estados de una fila debe ser 1
n
P
j 0
ij
i = 0,1,2..n
si Xt 1
0.080
0.632
P
0.264
0.080
0.184
0.368
0.368
0.368
0.184
0.00
0.368
0.368
0.368
0.00
0.00
0.368
i
k
Etapa m
Etapa m+r
j
Etapa m+n
Entonces:
P (n)
P00( n )
.
(n)
P0 M
... ...
P0(Mn )
.
.
... ...
(n)
PMM
Propiedades:
P(n+m) = P(n)P(m)
El producto de dos matrices de Markov siempre es una
matriz de Markov.
Ejemplo:
Para el problema de inventarios donde la matriz de transicin
de un paso estaba dado por:
0.080
0.632
P
0.264
0.080
0.184
0.368
0.368
0.368
0.184
0.00
0.368
0.368
0.368
0.00
0.00
0.368
0.249
0.283
0.351
0.249
0.286
0.300
0.252
0.319
0.286
0.233
0.233
0.300
0.165
0.233
0.097
0.165
( 4)
0.289
0.282
0.284
0.289
0.286
0.261
0.285
0.283
0.286
0.268
0.263
0.261
0.164
0.166
0.171
0.164
Distribucin de Probabilidades
del proceso en la etapa n Pr{ Xn=j }
Las probabilidades de transicin de 1 n pasos son
probabilidades condicionales, por ejemplo:
Pij(n) = P{Xn = j / X0 = i }
Si se desea la probabilidad incondicional Pr{ Xn=j } es
necesario que se especifique la distribucin de probabilidad
del estado inicial:
Pr X n 0 (n)
Pr X 1 f0
n ( n)
f1
(n)
f (n)
Pr X j j
n
f(n) = vector de distribucin de probabilidades de la variable
discreta Xn en la etapa n
f(0) = distribucin de probabilidades inicial
f j( n ) Pr{ X n j} Pr{ X n j / X 0 i} Pr{ X 0 i}
i
f (n) P(n)
f ( 0) P n
f (0)
i
j
P F
l j
il
K 1
(l , j )
Si k=1
Si k 1
FK (i, j ) Pil FK 1 (l , j )
l j
F (i , j ) FK (i, j )
k 1
F (i, j ) Pi , j Pil F (l , j )
l j
Tiempo Medio
E (T (i, j ))
kF
K 1
(i, j )
Clasificacin de estados en
una cadena de Markov
Definicin 6:
Se dice que el estado j es accesible desde el estado i, si
Pij(n)>0 para alguna etapa n 0
Que el estado j sea accesible desde el estado i significa
que es posible que el sistema llegue eventualmente al estado
j si comienza en el estado i.
En general, una condicin suficiente para todos los
estados sean accesibles es que exista un valor de n para el
que Pij(n)>0 para todo i y j
1
1 p
0
0
1 p
0
0
p
0
0
0
0
p
Definicin:
Si el estado j es accesible desde el estado i, y el estado i es
accesible desde el estado j, entonces se dice que los estados
i y j se comunican.
Propiedades de la comunicacin
Cualquier estado se comunica consigo mismo
Pii(0)= P{X0=i/X0=i} =1
Si el estado i se comunica con el estado j, el estado j se
comunica con el estado i
i
j
i
k
k
1/ 2
1/ 4
1/ 3
0
1 / 4
2 / 3
0
0
1/ 2 1/ 2
1/ 2 1/ 2
0
0
P
1 / 4 1 / 4 1 / 4 1 / 4
0
0
1
0
estados
recurrentes
positivos
aperidicos
se
denominan ergdicos
En una matriz de Markov finita, los estados recurrentes
son recurrentes positivos
Una cadena de Markov es ergdica si todos sus estados
son ergdicos
lim Pij( n )
1
0
E (T ( j , j ))
donde:
M
j i Pij
i 0
j 0
j=0,1,2M
( 1 , 2 ,...... n ) ( 1 , 2 ,... n )
P11
P
21
P12
P22
...
...
Pn1
P1n
P2 n
Pn 2
Pnn
j 0
C ( j)