CSA.

Sucesiones de VA

1

Tema 5. Sucesiones de Variables Aleatorias
1. CONCEPTO En muchos problemas de procesado de señal o imagen, control digital y comunicaciones disponemos de datos muestreados en un determinado orden temporal; estos datos pueden modelarse como observaciones de una VA que va cambiando de distribución a lo largo del tiempo. En otras ocasiones no dispondremos de muestras, sino de los valores verdaderos de la variable en distintos instantes de tiempo (piénsese, por ejemplo, en el valor de un registro en un ordenador, o en algo tan simple como el lanzamiento repetido de una moneda). Estos problemas se solucionan utilizando un modelo probabilístico más general que el estudiado hasta ahora: las secuencias aleatorias. En este tema estudiaremos el concepto y las principales propiedades de estos modelos. Como veremos las secuencias estocásticas se pueden pensar como un vector aleatorio infinito-dimensional. Si la dimensión del vector es numerable hablaremos de procesos en tiempo discreto y en otro caso hablaremos de procesos en tiempo continuo, que serán tratados en el próximo tema. Formalmente, diremos que una sucesión de VA o proceso estocástico en tiempo discreto es una familia numerable de variables aleatorias {X1, …, Xn, …} tal que cualquier subfamilia finita de ella es una VA n-dimensional. La representaremos por:
! n=1 ! n=1

Xn

o X[n]

Para un valor concreto de cada VA tendremos una sucesión de números reales llamada realización o trayectoria del proceso. En muchas ocasiones es interesante estudiar las propiedades asintóticas de las secuencias aleatorias, propiedades que, inevitablemente vendrán ligadas a conceptos como límite o convergencia. Al trabajar con variables aleatorias, tendremos que definir una “medida” de convergencia para las sucesiones. A continuación definimos los criterios de convergencia más utilizados habitualmente: Convergencia puntual: Es la convergencia de una trayectoria pensada como una sucesión de números reales. Se utiliza poco, pues nada nos asegura que el límite sea una VA. Convergencia en probabilidad o débil:
X n " # X $ lim P{& / X n (&) ' X(&) < (} = 1 )( > 0 "
n#% P

Convergencia casi segura o fuerte:
!

' * cs X n " # X $ P(% / lim X n (%) = X(%)+ = 1 " ) n#& ,

!

2 Departamento de Teoría de la Señal y Comunicaciones.La esperanza de la suma es la suma de las esperanzas .1 n ! E(X k) !P" 0 k=1 n"! n . Universidad de Vigo Convergencia en distribución: X n " # X $ lim Fn (x) = F(x) para todo punto de continuidad de F " n#% D Convergencia en media cuadrática: ! X n ""# X $ lim E X n & X n#% mc { 2 }=0 Los distintos tipos de convergencia están relacionados entre ellos: Las convergencias casi ! segura y en media cuadrática implican convergencia en probabilidad. mientras que ésta implica convergencia en distribución. la fdp de la suma es el producto de convolución de las fdp y la función característica de la suma es el producto de las funciones características. la varianza de la suma es la suma de las varianzas . LEYES DE LOS GRANDES NÚMEROS En muchas situaciones nos interesará estudiar el límite de alguna función de la sucesión tal como la suma o el promedio. A continuación enunciaremos algunos resultados relativos a la convergencia de promedios de variables aleatorias: las leyes de los grandes números. En los temas anteriores hemos visto algunas propiedades de la suma finita de variables aleatorias: .Si las variables son independientes. 2. El siguiente esquema ilustra la situación en un espacio de sucesiones de VA. Leyes débiles de los grandes números Teorema de Markov : Sea {Xn} una sucesión de VA tales que todas las VA tengan esperanza y varianza finita.Si las variables son incorreladas. sean incorreladas dos a dos y verifique la condición: 1 n2 Entonces se verifica: n ! Var(X k) !!" 0 k=1 n"! n 1 n ! k=1 Xk .

Gracias al teorema de Bernoulli. pero también se obtiene una convergencia fuerte. entonces el promedio de VA converge casi seguro a la media de la distribución. Leyes fuertes de los grandes números Teorema: Dada una sucesión de VA mutuamente independientes. es decir. en este caso el teorema de Markov nos diría que el promedio de las VA converge a la media de la distribución. todas tienen la misma distribución con los mismos parámetros. P) y un suceso A de F tal que P(A) = p. E{Xn} = p y las VA Xn son independientes e idénticamente distribuidas. ! Con este resultado cerramos un camino que habíamos iniciado en el primer tema. Como corolario de las leyes de los grandes números se puede concluir el conocido como teorema de Bernoulli que nos dice lo siguiente: Dado un espacio de probabilidad (Ω. entonces: f r (A) " # p = P(A) " n#$ cs La demostración es muy sencilla. por lo que todas las interpretaciones que hemos hecho dejan de ser simplemente un punto de vista complementario para pasar a ser una realidad. Evidentemente: P(Xn = 1) = p. 1 n " ! Xk "cs#µ n k =1 n#$ Esta es una versión del teorema de Markov con hipótesis más duras. vemos que las dos definiciones coinciden. . En aquel momento dimos una definición frecuencial. idénticamente distribuidas y con esperanza finita µ.CSA. pero optamos por utilizar una definición axiomática. Por las leyes de los grandes números: 1 n n "X k=1 k # $p # n$% cs Dado que el promedio de las VA coincide con la frecuencia relativa del suceso A. Planteemos la repetición sucesiva e independientemente del experimento y en la realización n-ésima definimos la VA Xn que toma valor 1 si ocurre el suceso A ! y valor 0 en otro caso. A lo largo de los temas anteriores hemos ido realizando distintas interpretaciones frecuenciales de diferentes conceptos. por lo que tienen la misma media y varianza. Obs: La importancia práctica de las leyes de los grandes números radica en que nos garantiza que promediando una cantidad suficientemente grande de valores observados de una VA obtenemos una buena estimación de la media. Sucesiones de VA 3 Obs: Un caso particular de este teorema es aquel en el que las variables de la sucesión son idénticamente distribuidas. se verifica el teorema. cuando hablábamos de las posibles definiciones de probabilidad. F. P(Xn = 0) = 1-p.

En estas condiciones la distribución resultante de la suma de todos estos términos se aproxima a una distribución normal. el teorema central del límite (en una de sus múltiples versiones) nos dice que si tenemos una sucesión de VA continuas independientes e idénticamente distribuidas.1) # Var{X(n)} n$% o. de ahí la inclusión del término “central” en la denominación del teorema que describe este fenómeno. Universidad de Vigo 3. como el tipo de distribución de los sumandos y su número. la aproximación es mejor en torno a la media de la distribución. Ello es debido al teorema central del límite. al hecho de que el error de medida o el ruido en sistemas de comunicación son debidos.1) $ n%& # n ! Existen distintas versiones de este teorema. En general. . es decir: Si X(n) = X1 + …+ Xn entonces X(n) " E{X(n)} D # $ N(0. llamando µ y σ a la media y desviación típica de una cualquiera de las VA: X(n) " nµ D $ % N(0. existe un número M/ |Xn| < M para todo valor de n). pero que sumados producen una desviación apreciable sobre la medida o la señal. La bondad de esta aproximación depende de distintos elementos. entonces su suma es asintóticamente normal. independientes entre sí.4 Departamento de Teoría de la Señal y Comunicaciones. Si representamos gráficamente en un histograma una cantidad suficientemente grande de los valores obtenidos. El gran uso que la distribución normal tiene en la ciencia y en la ingeniería es debido. existe un ! valor que acota todos los posibles valores de todas las VA. en parte. a la suma de muchos términos aleatorios. Si en lugar de partir de una distribución uniforme lo hacemos desde una exponencial. a menudo. con esperanza y varianza finitas. Formalmente. observaremos que el histograma se parece a una campana de Gauss. una Rayleigh. por ejemplo la hipótesis de que las variables sean idénticamente distribuidas puede sustituirse por la de uniformemente acotadas (es decir. El teorema central del límite puede pensarse como una propiedad de la convolución de funciones positivas. una Cauchy o cualquier otra distribución observaremos que el resultado es el mismo. EL TEOREMA CENTRAL DEL LÍMITE Sentémonos delante de un ordenador y procedamos a obtener valores como suma de números generados aleatoriamente de acuerdo a una ley uniforme. con poca importancia si consideramos cada uno de ellos por separado. es decir.

1: Disponiendo de un generador uniforme de números aleatorios. Sucesiones de VA 5 Ejemplo: La suma de uniformes converge muy rápidamente a una normal (las distribuciones representadas han sido previamente estandarizadas). ¿cómo simularías de modo eficiente una N(0. Ejemplo 5.1)? .CSA.

bajo las mismas hipótesis del caso continuo. para una valor de n suficientemente grande se verifica que: % 1 P(X = k) " e # 2$ (k%µ) 2 2# 2 Es decir. Universidad de Vigo Existe una versión del teorema para variables discretas que puede enunciarse como sigue: Si tenemos una sucesión de VA independientes. E(X) = µ y Var(X) = σ2.2 ! 0.1 0. f(x) tiende a una sucesión de impulsos cuya envolvente es una normal. si X= X1+…+Xn. 0. tendremos el teorema de DeMoivre-Laplace que nos asegura que una distribución binomial X de parámetros n y p se puede aproximar. .15 0. por una normal de media np y varianza np(1– p).05 0 -10 -8 -6 -4 -2 0 2 4 6 8 10 X Figura: Representación de una envolvente normal para una VA discreta Si aplicamos esta versión del teorema a una sucesión de VA independientes con distribución de Bernoulli (cuya suma es exactamente una distribución binomial).6 Departamento de Teoría de la Señal y Comunicaciones. para valores de n suficientemente grandes. Es decir: ! n$ P(X = k) = # & p k (1' p)n ' k ( " k% cuando el parámetro n es suficientemente grande.2: A través de una línea telefónica se transmite una serie de 1000 bits (ceros o unos con igual probabilidad). Aproxima la probabilidad de que el número de unos no difiera de 500 en más de cuatro. 1 e 2)np(1 ' p) ' ( k 'np) 2np(1' p) 2 Este resultado es especialmente útil para calcular probabilidades acumuladas en una binomial Ejemplo 5.

).16.. Pag. Pag 222 Teorema de DeMoivre-Laplace. Papoulis.4 y 8. 280.12. Distribución gaussiana y teorema central del límite. Stark. 8. 217.9.) o sección 7. Nota: Las referencias indicadas para los problemas son válidas para la 2ª edición del Stark. 8. ej.CSA.5 INFORMACIÓN Y DOCUMENTACIÓN ADICIONAL: La documentación de este tema se complementa con un boletín de problemas. 2ª ed. 7. .23.. Esta práctica dispone de un enunciado que es recomendable leer antes de asistir al laboratorio. El mismo problema está en Papoulis 3ª ed.4 (4ª ed.24. pag. LECTURAS RECOMENDADAS: Convergencia y teoremas límite. En clases de laboratorio se realizará una práctica de ordenador (práctica #7).5 (2ª ed. sección 8.). Sección 3. Li.4 (3ª ed. 196. Sucesiones de VA 7 EJERCICIOS PROPUESTOS: TCL. Pag. Ejemplo 4. Problema 4. Secciones 8. Pag 222. Problema 4. pag. Stark. Promedio de VA.16.7. ej. Papoulis. 216 y en Papoulis 4ª ed.: Ej.

Sign up to vote on this title
UsefulNot useful