You are on page 1of 9

Estado Estable 1era pte.

.

.

En el estudio del ejemplo de cola (ejemplo 4). TEOREMA 1 .33 de que sería cola 2 (véase la tabla 2). se analiza el concepto importante de probabilidades de estado estable.2da Parte.en esta sección. Probabilidades de estado estable. El siguiente resultado es vital para comprender las probabilidades de estado estable y el comportamiento a largo plazo de las cadenas de Markov.67 y. la probabilidad de que la siguiente vez que una persona compre bebida de cola sea cola 1 se aproxima a . Estas probabilidades no dependen de si la persona tomaba cola 1 o cola 2. se encontró que después de un largo tiempo. que se pueden usar para describir el comportamiento a largo plazo de una cadena de Markov.

e (independientemente del estado inicial 2) hay una probabilidad π j de que se está en el estado j. tiende a una matriz con renglones idénticos.Sea P la matriz de transición de una cadena ergódico de estado estable. El vector se llama distribución de estado estable o distribución de equilibrio. Para una cadena determinada con matriz de transición P. Observe que para Pn grande. Esto significa que después de un largo tiempo. se podría escribir . se observa que para n grande y toda i. Entonces existe un vector tal que Recuerde que el 2/-esimo elemento de Pn es Pij(n) El teorema 1 establece que para cualquier estado inicial i. para la cadena de Markov. la cadena de Markov se estabiliza. Puesto que Pij (n +1)= (renglón i de pn) (columna j de P). ¿Cómo se puede hallar la distribución de probabilidad de estado estable? A partir del teorema 1.

Para obtener los valores únicos de la probabilidad de estado estable. se obtiene En forma de matriz. Entonces con la ecuación (8) o la ecuación (8´). Así. sustituyendo la ecuación (6) en la (7).1. el ejemplo de la bebida de cola. se obtine . después de sustituir cualquiera de las ecuaciones en (8) con (10). Para ilustrar como encontrar las probabilidades de estado estable. (8) se podría escribir como Infortunadamente. el sistema de ecuaciones especificado en (8) tiene un número infinito de soluciones.Si n es grande. debido a que el rango de la matriz P siempre resulta ser ≤s . Recuerde que la matriz de transición para el ejemplo 4 fue. se puede usar la ecuación (8) para resolver las probabilidades de estado estable. se determinan las probabilidades de estado estable para el ejemplo 4. observe que para cualquier n y cualquier i.

El comportamiento de una cadena de Markov antes de alcanzar el estado estable se llama comportamiento transitorio (o de corrida corta). Análisis transitorio Un vistazo a la tabla 2 muestra que para el ejemplo 4. Sin embargo. Para estudiar el comportamiento transitorio de una cadena de Markov. después de un largo tiempo. es bueno saber que para n grande. las . simplemente se utilizan las formulas para Pij dadas en (4) y (5). hay una probabilidad de que 2/3 de que una persona determinada compre cola 1 una probabilidad 1/3 de que un apersona especifica compre cola 2.Sustituyendo la segunda ecuación con la ecuación sistema: . Ninguna regla general se puede expresar acerca de que tan rápido una cadena de Markov alcanza el estado estable. se obtiene el Resolviendo para . se obtiene Por consiguiente. pero si P contiene muy pocos elementos que están cerca de 0 o cerca de 1. por lo general el estado estable se alcanza muy rápido. el estado estable se alcanza (a dos decimales) Después de diez transiciones.

se La ecuación (11) establece que en el estado estable. entonces para algún estado J. Probabilidad de que una transición particular deje el estado J = probabilidad de que una transición particular entre al estado J (12) Recuerde que en el estado estable.probabilidades de estado estable describen con precisión la probabilidad de estar en cualquier estado. De esta observación. el lado derecho de (11) seria mayor que el lado izquierdo de (11). si para cualquier estado se violara la ecuación (11). Interpretación intuitiva de las probabilidades de estado estable. Se puede dar una interpretación intuitiva a las ecuaciones de probabilidad de estado estable (8). Esto daría como resultado la probabilidad de “aplicar” en el . la probabilidad de que el sistema este en el estado / es . Restando obtiene: de ambos lados de la ecuación (8). Probabilidad de que una transición particular deje el estado J = (probabilidad de que el periodo actual comience en J) X "(probabilidad de que la transición actual deje o salga de J) Y Probabilidad de que una transición particular entre al estado J Probabilidad de que el periodo actual comience en K≠J) x "(probabilidad de que la transición actual llegue a J) La ecuación (11) es razonable. se deduce que.

Se podría considerar que el estado estable la ecuación (11) establece que el flujo de probabilidad hacia cado estado debe ser igual al flujo de probabilidad que sale de cada estado.estado J.). 2004) y (Hamdy. Investigación de operaciones aplicaciones y algoritmos (4ta ed. W. Winston. (Winston. Thomson. . (2004). Pearson. L. 2004) Fuentes. Hamdy.). (2004). Esto explica porque las probabilidades de estado estable suelen llamarse probabilidades de equilibrios. Investigación de Operaciones (7a. T. ed. y no existiría una distribución de probabilidad de estado estable.