Professional Documents
Culture Documents
Note que las son los elementos de la matriz P(2) , pero tambin debe de
observarse que estos elementos, se obtienen multiplicando la matriz de
transicin de un paso por s misma; esto es , P(2) = P * P = P2 En trminos
ms generales, se concluye que la matriz de probabilidades de transicin de n
pasos se puede obtener de la expresin:
P (n) = P * P .... P = P n = PPn-1 = Pn-1 P.
Entonces, la matriz de probabilidades de transicin de n pasos se puede
obtener calculando la n-sima potencia de la matriz de transicin de un paso.
Para valores no muy grandes de n, la matriz de transicin de n pasos se puede
calcular en la forma que se acaba de describir, pero cuando n es grande, tales
clculos resultan tediosos y, ms an, los errores de redondeo pueden causar
inexactitudes.
Estados absorventes.
Se dice que un estado i es absorbente si la probabilidad de transicin (de un
paso) pij es igual a 1. Una cadena de Markov es Absorbente si:
a) Tiene por lo menos un estado Absorbente.
b) Es posible ir de cada estado no absorbente hasta por lo menos un estado
absorbente. No es necesario efectuar esta transicin en un paso; ni es
necesario tener la posibilidad de alcanzar cada estado absorbente a partir de
cualquier estado no absorbente. A partir del anlisis de estas cadenas, es
posible determinar los siguientes datos:
1) El nmero esperado de pasos antes de que el proceso sea absorbido.
2) El nmero esperado de veces que el proceso est en cualquier estado dado
no absorbente.
3) La probabilidad de absorcin por cualquier estado absorbente dado.
Una vez que la cadena llega al estado k permanece ah para siempre. Si k es
un estado absorbente y el proceso comienza en el estado i, la probabilidad de
llegar en algn momento a k se llama probabilidad de absorcin al estado k
dado que el sistema comenz en i. Esta probabilidad se denota por fik. Si se
tienen dos o ms estados absorbentes en una cadena de Markov y es evidente
que el proceso ser absorbido en uno de estos estados, es deseable encontrar
estas probabilidades de absorcin. Dichas probabilidades pueden obtenerse
con slo resolver un sistema de ecuaciones lineales. Si el estado k es un estado
Estado estable.
Sea P la matriz de transicin de una cadena de M estados. Existe entonces un
vector
tal que:
El vector
a menudo se llama distribucin de estado estable, o
tambin distribucin de equilibrio para la cadena de Markov. Para encontrar la
distribucin de probabilidades de estacionario para una cadena dada cuya
matriz de transicin es P, segn el teorema, para n grande y para toda i ,
(1).
Como Pij (n + 1) = (rengln i de Pn )(columna j de P), podemos escribir