1. Un jardinero ha observado que la productividad de la tierra de un año afecta la del siguiente año, lo que puede describirse como una cadena de Markov. La tierra puede deteriorarse pero no mejorar.
2. Un profesor compra una nueva computadora cada dos años, eligiendo entre tres modelos. La probabilidad de cambiar de modelo de un año a otro se puede representar como una cadena de Markov.
3. Las actividades de una patrulla policial que responde a llamadas en un vecindario problemático pueden expresarse como una matriz de transición
1. Un jardinero ha observado que la productividad de la tierra de un año afecta la del siguiente año, lo que puede describirse como una cadena de Markov. La tierra puede deteriorarse pero no mejorar.
2. Un profesor compra una nueva computadora cada dos años, eligiendo entre tres modelos. La probabilidad de cambiar de modelo de un año a otro se puede representar como una cadena de Markov.
3. Las actividades de una patrulla policial que responde a llamadas en un vecindario problemático pueden expresarse como una matriz de transición
1. Un jardinero ha observado que la productividad de la tierra de un año afecta la del siguiente año, lo que puede describirse como una cadena de Markov. La tierra puede deteriorarse pero no mejorar.
2. Un profesor compra una nueva computadora cada dos años, eligiendo entre tres modelos. La probabilidad de cambiar de modelo de un año a otro se puede representar como una cadena de Markov.
3. Las actividades de una patrulla policial que responde a llamadas en un vecindario problemático pueden expresarse como una matriz de transición
1. Cada ao, durante la temporada de siembra de marzo a septiembre, un
jardinero realiza una prueba qumica para verificar la condicin de la tierra. Segn el resultado de la prueba, la productividad en la nueva temporada puede ser uno de tres estados: (1) buena, (2) regular y (3) mala. A lo largo de los aos, el jardinero ha observado que la condicin de la tierra del ao anterior afecta la productividad del ao actual y que la situacin se puede describir mediante una cadena de Markov. Las probabilidades de transicin muestran que la condicin de la tierra puede o deteriorarse o permanecer como est pero nunca mejorar. Por ejemplo, si la condicin de la tierra es buena en este ao (estado 1) hay 20% de que no cambie el ao siguiente, 50% de probabilidad de que sea regular (estado 2), y 30% de probabilidad de que se deteriorar a una condicin mala (estado 3). 2. Un profesor de ingeniera adquiere una computadora nueva cada dos aos. El profesor puede elegir de entre tres modelos:Ml,M2 y M3. Si el modelo actual es Ml, la siguiente computadora puede ser M2 con probabilidad .2, o M3 con probabilidad .15. Si el modelo actual es M2, las probabilidades de cambiar a Ml y M3 son .6 y .25, respectivamente. Pero si el modelo actual es M3, entonces las probabilidades de comprar los modelos Ml y M2 son .5 y . 1, respectivamente. Represente la situacin como una cadena de Markov. 3. Una patrulla policiaca vigila un vecindario conocido por sus actividades pandilleriles. Durante un patrullaje hay 60% de probabilidades de llegar a tiempo al lugar donde se requiere la ayuda; si no sucede algo, continuar el patrullaje regular. Despus de recibir una llamada, hay 10% de probabilidades de cancelacin (en cuyo caso el patrullaje normal se reanuda), y 30% de probabilidad de que la unidad ya est respondiendo a la llamada anterior. Cuando la patrulla llega a la escena del suceso, hay 10% de probabilidades de que los instigadores hayan desaparecido (en cuyo caso reanuda su patrullaje), y 40% de probabilidades de que se haga una aprehensin de inmediato. De otro modo, los oficiales rastrearn el rea. Si ocurre una aprehensin, hay 60% de probabilidades de trasladar a los sospechosos a la estacin de polica, de lo contrario son liberados y la unidad regresa a patrullar. Exprese las actividades probabilsticas de la patrulla en la forma de una matriz de transicin. 4. Suponga que una red de comunicaciones transmite dgitos binarios, 0 o 1, y que cada dgito se transmite 10 veces sucesivas. Durante cada transmisin, la probabilidad de que ese dgito se transmita correctamente es de 0.995. En otras palabras, existe una probabilidad de 0.005 de que el dgito transmitido se registre con el valor opuesto al fi nal de la transmisin. Para cada transmisin despus de la primera, el dgito transmitido es el que se registra al final de la transmisin anterior. Si X0 denota el dgito binario que entra al sistema, X1 el dgito binario que se apunta despus de la primera
transmisin, X2 el dgito binario que se anota despus de la segunda
transmisin, . . ., entonces {Xn} es una cadena de Markov. Determine la matriz de transicin (de un paso).