Professional Documents
Culture Documents
Concepto de proceso aleatorio Una variable aleatoria transforma las salidas de un experimento aleatorio a un conjunto de nmeros reales. En un sentido similar, un proceso aleatorio puede ser visto como una transformacin de las salidas de un experimento aleatorio a un conjunto de ondas o funciones del tiempo. Mientras que en algunas aplicaciones puede no ser posible definir explcitamente el experimento aleatorio y las transformaciones a ondas asociadas (elctricas, por ejemplo), todava se pueden utilizar los procesos aleatorios como un modelo para caracterizar a las formas de ondas. Por ejemplo, las ondas en el sistema de comunicacin de la figura 3.1 son el resultado de personas escribiendo en un teclado conectado a los terminales del sistema. A pesar de que el experimento aleatorio consecuente que genera a las ondas no est definido, se puede usar un experimento hipottico como el de tirar al aire N monedas y definir a las ondas como las salidas del mismo (1 si es cara y 0 si es cruz, por ejemplo).Proceso de Bernoulli tipos
Un proceso puede clasificarse como: continuo de variable continua continuo de variable discreta discreto de variable continua discreto de variable discreta Ejemplos: Proceso continuo de variable continua: el crecimiento de las personas. Tiempo (aos) Altura Funcin densidad de las personas de 15 aos 05101520 Proceso continuo de variable discreta: la situacin de encendido o apagado de una lmpara. Tiempo (horas) Encendida Funcin de probabilidad de la situacin de la lmpara 012345 1 Proceso discreto de variable continua: temperatura mxima de cada da. Da Temperatura (C) Funcin densidad de la temperatura mxima del da 6 0123610 30 20 10 Proceso discreto de variable discreta: cantidad de pasajeros en cada mnibus que llega.
Proceso de Bernoulli
Un Proceso de Bernoulli no es otra cosa que la repeticin de un Ensayo de Bernoulli. Si nos fijamos en el ejemplo de la moneda, en este caso estaremos estudiando cuntas veces sale "cara" o cuntas sale "cruz", o las probabilidades de que salga "cara", al menos una vez, de un nmero n de intentos. Es importante que se cumpla que:
1. La probabilidad de xito permanece constante ensayo tras ensayo. 2. Los ensayos deben de ser independientes entre s. Para esto hay una distribucin conocida como Distribucin Binomial que permite calcular la probabilidad de que ocurra r veces un suceso en n intentos, si la probabilidad de que suceda en un intento es p:
Camino aleatorio
Ejemplo de ocho caminos aleatorios en una dimensin empezando en 0. La grfica muestra la posicin actual sobre una lnea (eje vertical) versus los intervalos de tiempo (eje horizontal). El camino aleatorio o paseo aleatorio, abreviado en ingls como RW (Random Walks), es una formalizacin matemtica de la trayectoria que resulta de hacer sucesivos pasos aleatorios. Los resultados del anlisis de paseo aleatorio han sido aplicados a la computacin, la fsica, la ecologa o la economa. En particular en este ltimo campo la teora del paseo aleatorio de Burton G. Malkiel en su obra A Random Walk Down Wall Street (traduccin castellana Un Paseo Aleatorio Por Wall Street) se fundamenta en la hiptesis de los mercados eficientes, desarrollado en tres formas o hiptesis. En fsica, el modelo ha servido, por ejemplo, para modelar el camino seguido por una molcula que viaja a travs de un lquido o un gas (movimiento browniano). En ecologa, se emplea para modelar los movimientos de un animal de pastoreo, etc.
La teora de los procesos estocsticos se centra en el estudio y modelizacin de sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas leyes no
determinsticas, esto es, de carcter aleatorio. La forma habitual de describir la evolucin del sistema es mediante sucesiones o colecciones de variables aleatorias. De esta manera, se puede estudiar cmo evoluciona una v.a. a lo largo del tiempo. Por ejemplo, el nmero de personas que espera ante una ventanilla de un banco en un instante t de tiempo; el precio de las acciones de una empresa a lo largo de un ao; el nmero de parados en el sector de Hostelera a lo largo de un ao. La primera idea bsica es identificar un proceso estocstico con una sucesin de v.a. {Xn, n N} donde el subndice indica el instante de tiempo (o espacio) correspondiente. Esta idea inicial se puede generalizar fcilmente, permitiendo que los instantes de tiempo en los que se definen las v.a. sean continuos. As, se podr hablar de una coleccin o familia de v.a. {Xt, t R}, que da una idea ms exacta de lo que es un proceso estocstico. Se tena que una v.a. X(s) es una funcin que va desde un espacio muestral S a la recta real, de manera que a cada punto s S del espacio muestral se le puede asociar un nmero de la recta real. De este modo, la probabilidad de cada suceso de S se puede trasladar a la probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto de nmeros reales. Si a todo esto se le aade una dimensin temporal, se obtiene un proceso estocstico. La definicin formal es la siguiente: Definicin (Proceso Estocstico) Dado el espacio de probabilidad (,a, P ) de modo que para todo t T R fijo Xt : (,a, P ) (R, B) w Xt(w) R esto es, Xt es una variable aleatoria y w fijo, X(w) es una funcin del tiempo. Ejemplos: Xt: nmero de personas que esperan un autobs en un instante t donde t [9, 10] Xt: precio de una accin de una empresa en un da t del mes (t = 1, 2, . . . , 30). Xt: nmero de parados en el mes t (t = 1, 2, . . . , 12). Para que un proceso estocstico est completamente definido hay que determinar completamente
las v.a., es decir, determinar e identificar la distribucin de probabilidad asociada a cada una de ellas y, es ms, la distribucin conjunta de todas ellas.
4
tiene incrementos estacionarios si para cualesquiera tiempos s < t, y para cualquier h > 0, las variables Xt+h Xs+h y Xt Xs tienen la misma distribucion de probabilidad. Es decir, el incremento que sufre el proceso entre los tiempos s y t solo depende de estos tiempos a traves de la diferencia t s, y no de los valores especficos de s y t.
Martingalas. Una martingala a tiempo discreto es, en terminos generales, un proceso {Xn : n = 0, 1, . . .} que cumple la condicion E(Xn+1 |X0 = x0, . . . ,Xn = xn) = xn. (1.1) En palabras, esta igualdad significa que el estado promedio del proceso al tiempo futuro n + 1 es el valor del proceso en su ultimo momento observado, es decir, xn. Esto es, se trata de una ley de movimiento aleatorio que es equilibrada pues en promedio el sistema no se mueve del ultimo momento observado. A estos procesos tambien se les conoce como procesos de juegos justos pues si se considera una sucesion infinita de apuestas sucesivas y si Xn denota el capital de uno de los jugadores al tiempo n, entonces la propiedad de martingala (1.1) establece que el juego es justo pues en promedio el jugador no pierde ni gana en cada apuesta. Procesos de L`evy. Se dice que un proceso a tiempo continuo {Xt : t _ 0} es un proceso de L`evy si sus incrementos son independientes y estacionarios. Mas adelante veremos que tanto el proceso de Poisson como el movimiento Browniano son ejemplos de este tipo de procesos. Procesos Gausianos. Se dice que un proceso a tiempo continuo {Xt : t _ 0} es un proceso Gausiano si para cualesquiera coleccion finita de tiempos t1, . . . , tn, el vector (Xt1 , . . . ,Xtn) tiene distribucion normal o Gausiana. Nuevamente, el movimiento Browniano es un ejemplo de este tipo de procesos.
Cadena de Markov
(Redirigido desde Cadena de Mrkov) En la teora de la probabilidad, se conoce como cadena de Mrkov a un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Reciben su nombre del matemtico ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907.1 Estos modelos muestran una estructura de dependencia simple, pero muy til en muchas aplicaciones.
Ley de Chapman-Kolmogrov
La ley de Chapman-Kolmogorov se basa en la ecuacin del mismo nombre, a la que llegaron de forma independiente el matemtico britnico Sydney Chapman y el matemtico ruso Andrey Kolmogorov. Enunciada de una forma sencilla dice: "la probabilidad de que dos hechos debidos al azar (y que cumplen unas condiciones determinadas), pasen conjuntamente... es "pequesima". El concepto era conocido de antemano, y se empleaba en la investigacin forense. Por ejemplo, se sabe que, en un incendio forestal, si hay un solo foco puede ser accidental, pero si hay dos la probabilidad de que sea provocado es altsima.
Dentro del entorno de entrada de datos de las mquinas de Bull1 (con tarjetas perforadas tipo Hollerith), se haca una 2 entrada de datos leyendo al mismo tiempo las tarjetas perforadas en la 1 entrada, la mquina pitaba si haba alguna diferencia, en caso contrario se daba como correcta, ya que la probabilidad de error pasaba a ser "nfima". En ambos ejemplos se est aplicando la ley de Chapman-Kolmogorov, aunque no se explicite.
sea la funcin conjunta de densidad de probabilidad de los valores de las variables aleatorias f1 to fn. Entonces, la ecuacin de Chapman-Kolmogorov es
es decir, una marginalizacin directa sobre la variable estorbo (Hay que tener en cuenta que todava no hemos asumido nada sobre el orden temporal (o cualquier otro) de las variables aleatorias, la ecuacin anterior se aplica igualmente a la marginalizacin de cualquiera de ellos).
donde la probabilidad condicional es la probabilidad de transicin entre los momentos i > j. As, la ecuacin de Chapman-Kolmogorov toma la forma
Cuando la distribucin de probabilidad sobre el espacio de estados de una cadena de Markov es discreta y la cadena de Markov es homognea, las ecuaciones de Chapman-
donde P(t) es la matriz de transicin, es decir, si Xt es el estado del proceso en el momento t, entonces para dos puntos cualesquiera i & j en el espacio de los estados, tenemos
A y B son jugadores que tienen k y N k euros respectivamente. Lanzan una moneda repetidamente y en cada turno B le paga a A un euro si es cara. En caso contrario A le paga un euro a B. El juego termina cuando uno de los jugadores se arruina. La cantidad de euros que A tiene luego de n turnos es una CM con probabilidades de transicin p(i , i 1) = p(i , i + 1) =1/2 , si 0 < i < N, p(0, 0) = p(N,N) = 1 y p(i , j) = 0 en caso contrario A veces es util representar la cadena por un diagrama.