You are on page 1of 11

CADENAS DE MARKOV

Integrantes:
Ramón Moreno Torres
Irak López Briano
Marco Flavio Ramos Tapia
Ricardo Ocaña Cabrera
Pedro Ismael Cuevas Mora
Jacob Flores Herrera

las cadenas de este tipo tienen memoria.Definición: Una cadena de Markov es una serie de eventos. . Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. como tirar una moneda al aire o un dado. En efecto. en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior.

…Xn-1 solamente depende del estado actual Xn .Procesos Estocáticos  Una sucesión de observaciones X1..  Si los valores de estas observaciones no see puede predecir exactamente pero se pueden especificar las probabilidades para los distintos valores posibles en cualquier instante de tiempo  Una cadena de markov es un proceso estocástico en el que si el estado actual Xn y los estados previos X1.X2.Xn-1 son conocidos  La probabilidad del estado futuro Xn+1 no depende de los estados anteriores X1. Se denomina proceso estocástico.X2.…..

permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo. llamado así en honor de un matemático ruso que desarrollo el método en 1907. . Más importante aún.Origen El análisis de Markov. permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado.

S2. S3 y S4.Probabilidades de transición Una forma para describir una cadena de Markov es con un diagrama de estados. . En ésta se ilustra un sistema de Markov con cuatro estados posibles: S1. como el que se muestra en la figura 11-2.

La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama. Es decir. Para simplificar la notación se usan subíndices para el estado actual y el siguiente. . Su ausencia significa que esas trayectorias tienen probabilidad de ocurrencia igual que cero. p14 = P(S4/S1). Nótese que no aparecen algunas trayectorias como la de S2 a S3. Las flechas muestran las trayectorias de transición que son posibles.

Otro método para exhibir las probabilidades de transición es usar una matriz de transición. Esto se debe a que el sistema debe hacer una transición. . También nótese que cada renglón de la matriz suma 1. se necesitan 4 x 4 = 16 probabilidades. como existen cuatro estados posibles. La matriz de transición para el ejemplo del diagrama de estados se muestra en la tabal 11-1. Nótese que.

existe un 75% de posibilidades de que al día siguiente funcione y un 25% de posibilidades de que no funcione. Si está funcionando un día. Para comenzar un análisis de transición. Así: . se deben conocer el estado actual. Pero si no está funcionando. Esta podría representar una copiadora de oficina. Esto define el estado actual en forma probabilista. ¿Cuál es la probabilidad de estar en el estado 1 al día siguiente? Si se comienza en el estado 1 hay 75 % de posibilidades de seguir ahí. Supóngase que se está comenzando y que hay 75% de posibilidades de estar en el estado 1 y 25 % de estar en el estado 2. poco segura. sólo hay 25 % de cambiar el estado 1. hay 75% de posibilidades de que tampoco funcione al día siguiente y sólo un 25% de que si lo haga (se lleva mucho tiempo la reparaci ón). Si se comienza en el estado 2.CALCULO DE LAS PROBABILIDADES DE TRANSICIÓN Considérese la cadena de Markov que se describe en la figura 11-3.

.

En el diagrama puede observarse que para el siguiente ciclo: . muestra en la figura 11-5. Considérese el sistema de tres estados que se.EJEMPLO 2 En los sistemas con más estados. los cálculos se vuelven más largos. Supóngase que el sistema se encuentra en el estado S1. pero el procedimiento es el mismo.