You are on page 1of 7

Definicin de proceso aleatorio

Concepto de proceso aleatorio Una variable aleatoria transforma las salidas de un experimento aleatorio a un conjunto de nmeros reales. En un sentido similar, un proceso aleatorio puede ser visto como una transformacin de las salidas de un experimento aleatorio a un conjunto de ondas o funciones del tiempo. Mientras que en algunas aplicaciones puede no ser posible definir explcitamente el experimento aleatorio y las transformaciones a ondas asociadas (elctricas, por ejemplo), todava se pueden utilizar los procesos aleatorios como un modelo para caracterizar a las formas de ondas. Por ejemplo, las ondas en el sistema de comunicacin de la figura 3.1 son el resultado de personas escribiendo en un teclado conectado a los terminales del sistema. A pesar de que el experimento aleatorio consecuente que genera a las ondas no est definido, se puede usar un experimento hipottico como el de tirar al aire N monedas y definir a las ondas como las salidas del mismo (1 si es cara y 0 si es cruz, por ejemplo).Proceso de Bernoulli tipos
Un proceso puede clasificarse como: continuo de variable continua continuo de variable discreta discreto de variable continua discreto de variable discreta Ejemplos: Proceso continuo de variable continua: el crecimiento de las personas. Tiempo (aos) Altura Funcin densidad de las personas de 15 aos 05101520 Proceso continuo de variable discreta: la situacin de encendido o apagado de una lmpara. Tiempo (horas) Encendida Funcin de probabilidad de la situacin de la lmpara 012345 1 Proceso discreto de variable continua: temperatura mxima de cada da. Da Temperatura (C) Funcin densidad de la temperatura mxima del da 6 0123610 30 20 10 Proceso discreto de variable discreta: cantidad de pasajeros en cada mnibus que llega.

Proceso de Bernoulli
Un Proceso de Bernoulli no es otra cosa que la repeticin de un Ensayo de Bernoulli. Si nos fijamos en el ejemplo de la moneda, en este caso estaremos estudiando cuntas veces sale "cara" o cuntas sale "cruz", o las probabilidades de que salga "cara", al menos una vez, de un nmero n de intentos. Es importante que se cumpla que:

1. La probabilidad de xito permanece constante ensayo tras ensayo. 2. Los ensayos deben de ser independientes entre s. Para esto hay una distribucin conocida como Distribucin Binomial que permite calcular la probabilidad de que ocurra r veces un suceso en n intentos, si la probabilidad de que suceda en un intento es p:

Camino aleatorio

Ejemplo de ocho caminos aleatorios en una dimensin empezando en 0. La grfica muestra la posicin actual sobre una lnea (eje vertical) versus los intervalos de tiempo (eje horizontal). El camino aleatorio o paseo aleatorio, abreviado en ingls como RW (Random Walks), es una formalizacin matemtica de la trayectoria que resulta de hacer sucesivos pasos aleatorios. Los resultados del anlisis de paseo aleatorio han sido aplicados a la computacin, la fsica, la ecologa o la economa. En particular en este ltimo campo la teora del paseo aleatorio de Burton G. Malkiel en su obra A Random Walk Down Wall Street (traduccin castellana Un Paseo Aleatorio Por Wall Street) se fundamenta en la hiptesis de los mercados eficientes, desarrollado en tres formas o hiptesis. En fsica, el modelo ha servido, por ejemplo, para modelar el camino seguido por una molcula que viaja a travs de un lquido o un gas (movimiento browniano). En ecologa, se emplea para modelar los movimientos de un animal de pastoreo, etc.

Introduccin a los Procesos Estocsticos

La teora de los procesos estocsticos se centra en el estudio y modelizacin de sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas leyes no

determinsticas, esto es, de carcter aleatorio. La forma habitual de describir la evolucin del sistema es mediante sucesiones o colecciones de variables aleatorias. De esta manera, se puede estudiar cmo evoluciona una v.a. a lo largo del tiempo. Por ejemplo, el nmero de personas que espera ante una ventanilla de un banco en un instante t de tiempo; el precio de las acciones de una empresa a lo largo de un ao; el nmero de parados en el sector de Hostelera a lo largo de un ao. La primera idea bsica es identificar un proceso estocstico con una sucesin de v.a. {Xn, n N} donde el subndice indica el instante de tiempo (o espacio) correspondiente. Esta idea inicial se puede generalizar fcilmente, permitiendo que los instantes de tiempo en los que se definen las v.a. sean continuos. As, se podr hablar de una coleccin o familia de v.a. {Xt, t R}, que da una idea ms exacta de lo que es un proceso estocstico. Se tena que una v.a. X(s) es una funcin que va desde un espacio muestral S a la recta real, de manera que a cada punto s S del espacio muestral se le puede asociar un nmero de la recta real. De este modo, la probabilidad de cada suceso de S se puede trasladar a la probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto de nmeros reales. Si a todo esto se le aade una dimensin temporal, se obtiene un proceso estocstico. La definicin formal es la siguiente: Definicin (Proceso Estocstico) Dado el espacio de probabilidad (,a, P ) de modo que para todo t T R fijo Xt : (,a, P ) (R, B) w Xt(w) R esto es, Xt es una variable aleatoria y w fijo, X(w) es una funcin del tiempo. Ejemplos: Xt: nmero de personas que esperan un autobs en un instante t donde t [9, 10] Xt: precio de una accin de una empresa en un da t del mes (t = 1, 2, . . . , 30). Xt: nmero de parados en el mes t (t = 1, 2, . . . , 12). Para que un proceso estocstico est completamente definido hay que determinar completamente

las v.a., es decir, determinar e identificar la distribucin de probabilidad asociada a cada una de ellas y, es ms, la distribucin conjunta de todas ellas.

Tipos de procesos estocasticos


Los diferentes tipos de procesos estocasticos se obtienen al considerar las distintas posibilidades para: el espacio parametral, el espacio de estados, las caractersticas de las trayectorias, y principalmente las relaciones de dependencia entre las variables aleatorias que conforman el proceso. Los siguientes son algunos ejemplos generales de procesos estocasticos. Estos son procesos que cumplen una ciertapropiedad particular, no necesariamente excluyentes unas de otras. A lo largo del texto estudiaremos y especificaremos con mayor detalle algunos de estos tipos de procesos. Proceso de ensayos independientes. El proceso a tiempo discreto {Xn : n = 0, 1, . . .} puede estar constituido por variables aleatorias independientes. Este modelo representa una sucesion de ensayos independientes de un mismo experimento aleatorio, por ejemplo, lanzar un dado o una moneda repetidas veces. El resultado u observacion del proceso en un momento cualquiera es, por lo tanto, independiente de cualquier otra observacion pasada o futura del proceso. Procesos de Markov. Estos tipos de procesos son importantes y son modelos en donde, suponiendo conocido el estado presente del sistema, los estados anteriores no tienen influencia en los estados futuros del sistema. Esta condicion se llama propiedad de Markov y puede expresarse de la siguiente forma: Para cualesquiera estados x0, x1, . . . , xn1 (pasado), xn (presente), xn+1 (futuro), se cumple la igualdad P(Xn+1 = xn+1 |X0 = x0, . . . ,Xn = xn) = P(Xn+1 = xn+1 |Xn = xn). De esta forma la probabilidad del evento futuro (Xn = xn) solo depende el evento (Xn1 = xn1), mientras que la informacion correspondiente al evento pasado (X0 = x0, . . . ,Xn2 = xn2) es irrelevante. Los procesos de Markov han sido estudiados extensamente y existe un gran numero de sistemas que surgen en muy diversas disciplinas del conocimiento para los cuales el modelo de proceso estoc astico y la propiedad de Markov son razonables. En particular, los sistemas dinamicos deterministas dados por una ecuacion diferencial pueden considerarse procesos de Markov pues su evolucion futura queda determinada por la posicion inicial del sistema y una ley de movimiento especificada. Procesos con incrementos independientes. Se dice que un proceso {Xt : t _ 0} tiene incrementos independientes si para cualesquiera tiempos 0 _ t1 < t2 < < tn, las variables Xt1 ,Xt2 Xt1 , . . . ,Xtn Xtn1 son independientes. Procesos estacionarios. Se dice que un proceso {Xt : t _ 0} es estacionario (en el sentido estricto) si para cualesquiera tiempos t1, . . . , tn, la distribucion del vector (Xt1 , . . . ,Xtn) es la misma que la del vector (Xt1+h, . . . ,Xtn+h) para cualquier valor de h > 0. En particular, la distribucion de Xt es la misma que la de Xt+h para cualquier h > 0, y entonces esta distribucion es la misma para cualquier valor de t. Procesos con incrementos estacionarios. Se dice que un proceso {Xt : t _ 0}

4
tiene incrementos estacionarios si para cualesquiera tiempos s < t, y para cualquier h > 0, las variables Xt+h Xs+h y Xt Xs tienen la misma distribucion de probabilidad. Es decir, el incremento que sufre el proceso entre los tiempos s y t solo depende de estos tiempos a traves de la diferencia t s, y no de los valores especficos de s y t.

Martingalas. Una martingala a tiempo discreto es, en terminos generales, un proceso {Xn : n = 0, 1, . . .} que cumple la condicion E(Xn+1 |X0 = x0, . . . ,Xn = xn) = xn. (1.1) En palabras, esta igualdad significa que el estado promedio del proceso al tiempo futuro n + 1 es el valor del proceso en su ultimo momento observado, es decir, xn. Esto es, se trata de una ley de movimiento aleatorio que es equilibrada pues en promedio el sistema no se mueve del ultimo momento observado. A estos procesos tambien se les conoce como procesos de juegos justos pues si se considera una sucesion infinita de apuestas sucesivas y si Xn denota el capital de uno de los jugadores al tiempo n, entonces la propiedad de martingala (1.1) establece que el juego es justo pues en promedio el jugador no pierde ni gana en cada apuesta. Procesos de L`evy. Se dice que un proceso a tiempo continuo {Xt : t _ 0} es un proceso de L`evy si sus incrementos son independientes y estacionarios. Mas adelante veremos que tanto el proceso de Poisson como el movimiento Browniano son ejemplos de este tipo de procesos. Procesos Gausianos. Se dice que un proceso a tiempo continuo {Xt : t _ 0} es un proceso Gausiano si para cualesquiera coleccion finita de tiempos t1, . . . , tn, el vector (Xt1 , . . . ,Xtn) tiene distribucion normal o Gausiana. Nuevamente, el movimiento Browniano es un ejemplo de este tipo de procesos.

Cadena de Markov
(Redirigido desde Cadena de Mrkov) En la teora de la probabilidad, se conoce como cadena de Mrkov a un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Reciben su nombre del matemtico ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907.1 Estos modelos muestran una estructura de dependencia simple, pero muy til en muchas aplicaciones.

Ley de Chapman-Kolmogrov
La ley de Chapman-Kolmogorov se basa en la ecuacin del mismo nombre, a la que llegaron de forma independiente el matemtico britnico Sydney Chapman y el matemtico ruso Andrey Kolmogorov. Enunciada de una forma sencilla dice: "la probabilidad de que dos hechos debidos al azar (y que cumplen unas condiciones determinadas), pasen conjuntamente... es "pequesima". El concepto era conocido de antemano, y se empleaba en la investigacin forense. Por ejemplo, se sabe que, en un incendio forestal, si hay un solo foco puede ser accidental, pero si hay dos la probabilidad de que sea provocado es altsima.

Dentro del entorno de entrada de datos de las mquinas de Bull1 (con tarjetas perforadas tipo Hollerith), se haca una 2 entrada de datos leyendo al mismo tiempo las tarjetas perforadas en la 1 entrada, la mquina pitaba si haba alguna diferencia, en caso contrario se daba como correcta, ya que la probabilidad de error pasaba a ser "nfima". En ambos ejemplos se est aplicando la ley de Chapman-Kolmogorov, aunque no se explicite.

[editar] Ecuacin de Chapman-Kolmogorov


En matemticas, especficamente en teora de probabilidad y, en particular, la teora de procesos estocsticos Markovianos, la ecuacin de Chapman-Kolmogorov es una identidad sobre las distribuciones de probabilidad conjunta de los diferentes conjuntos de coordenadas en un proceso estocstico. Supongamos que { fi } es una coleccin indexada de variables aleatorias, es decir, un proceso estocstico. Hacemos

sea la funcin conjunta de densidad de probabilidad de los valores de las variables aleatorias f1 to fn. Entonces, la ecuacin de Chapman-Kolmogorov es

es decir, una marginalizacin directa sobre la variable estorbo (Hay que tener en cuenta que todava no hemos asumido nada sobre el orden temporal (o cualquier otro) de las variables aleatorias, la ecuacin anterior se aplica igualmente a la marginalizacin de cualquiera de ellos).

[editar] Aplicacin a cadenas de Markov


Cuando el proceso estocstico considerado es Markoviano, la ecuacin de ChapmanKolmogorov es equivalente a una identidad en las densidades de transicin. En la formacin de la cadena de Markov, se supone que 'i1 < ... < in. As, debido a la propiedad de Mrkov

donde la probabilidad condicional es la probabilidad de transicin entre los momentos i > j. As, la ecuacin de Chapman-Kolmogorov toma la forma

Cuando la distribucin de probabilidad sobre el espacio de estados de una cadena de Markov es discreta y la cadena de Markov es homognea, las ecuaciones de Chapman-

Kolmogorov se pueden expresar en trminos de multiplicacin de matrices (posiblemente de dimensin-infinita), as:

donde P(t) es la matriz de transicin, es decir, si Xt es el estado del proceso en el momento t, entonces para dos puntos cualesquiera i & j en el espacio de los estados, tenemos

Ruina del jugador

A y B son jugadores que tienen k y N k euros respectivamente. Lanzan una moneda repetidamente y en cada turno B le paga a A un euro si es cara. En caso contrario A le paga un euro a B. El juego termina cuando uno de los jugadores se arruina. La cantidad de euros que A tiene luego de n turnos es una CM con probabilidades de transicin p(i , i 1) = p(i , i + 1) =1/2 , si 0 < i < N, p(0, 0) = p(N,N) = 1 y p(i , j) = 0 en caso contrario A veces es util representar la cadena por un diagrama.

You might also like