You are on page 1of 21

Cap´ıtulo 1

Convergencia
1.1 Introducci´on
En este cap´ıtulo estudiaremos el comportamiento asint´otico de sucesiones
de variables aleatorias, daremos distintas definiciones de convergencia y de-
mostraremos dos de los Teoremas m´as importantes de la Teor´ıa de Probabil-
idad, de hecho los dos resultados que podr´ıamos decir le dieron vida a esta
´area del conocimiento.
Antes de estudiar las distintos modos de convergencia, es importante
preguntarse de d´onde surgen estos resultados? cu´al es la motivaci´on para el
estudio del comportamiento en el l´ımite de sucesiones de variables aleatorias.
Desde la prehistoria de la Probabilidad, se ha deseado dar una inter-
pretaci´ on a la Probabilidad, intuitivamente, se consideraba que la probabil-
idad de un evento era algo as´ı como un l´ımite de frecuencias relativas (de
hecho la escuela frecuentista la define as´ı), es decir si A es un evento
P[A] ≈
n
A
n
donde n
A
es el n´ umero de veces que ha ocurrido el evento A en n ensayos
independientes del mismo experimento.
A esta propiedad se le llam´o (como lo hemos ya mencionado en ??) Regu-
laridad Estad´ıstica. A´ un cuando ya hemos visto que esta definici´on frecuen-
tista de la Probabilidad no tiene sentido, ser´ıa importante saber si desde el
punto de vista del Modelo Axiom´atico de la Probabilidad existe una Ley
emanada de sus axiomas que sea la contraparte te´orica de la regularidad
estad´ıstica.
1
2 CAP
´
ITULO 1. CONVERGENCIA
Esta Ley conocida como La Ley de los Grandes N´ umeros ser´a estudiada
en las Secciones 2 y 3 de este Cap´ıtulo y esencialmente dice los siguiente:
Teorema 1.1 Ley de los Grandes N´ umeros. Sea (X
n
)
n≥1
una sucesi´on de
variables aleatorias independientes e id´enticamente distribuidas con esper-
anza µ. Entonces

n
k=1
X
k
n
, converge en alg´ un sentido a µ.
Este Teorema no s´olo nos dice que efectivamente existe una Ley emanada
de los axiomas sino que provee de lo que en Estad´ıstica se conoce como un
estimador de µ. Definiremos y demostraremos esta propiedad para dos tipos
de convergencia, a saber, la convergencia casi segura y la convergencia en
probablidad.
Sin embargo, el hecho de que

n
k=1
X
k
n
≈ µ,
en ocasiones no es suficiente. M´as precisamente, por ejemplo, en un contexto
de inferencia sea (X
n
)
n≥1
una sucesi´on de variables aleatorias independientes
e id´enticamente distribuidas seg´ un F
0
con media µ desconocida.
Supongamos que para cada n ≥ 1, S
n
=

n
k=1
X
k
y supongamos que
queremos probar con la ayuda de
Sn
n
que µ > 5. La Ley de los Grandes
N´ umeros nos dice que este cociente es muy cercano a µ para n suficientemente
grande, as´ı es que en primera instancia podr´ıamos pensar que no es tan
descabellado. Sin embargo, se quiere m´as, es decir, se quiere dar un criterio
que nos diga algo en el siguiente sentido:
Rechace la Hip´otesis de µ > 5 si
Sn
n
excede a un cierto n´ umero.
Si se conociera la distribuci´on de
Sn
n
se podr´ıa exhibir ese cierto n´ umero
que garantizara que este cociente lo excede s´olo con probabilidad α (por
ejemplo, α = 0.05).
Sin embargo, lo que ocurre es que no conocemos su distribuci´on, supong-
amos que “alguien” demostr´o que su distribuci´on converge a una distribuci´ on
conocida cuando n →∞. Entonces se podr´ıa usar la distribuci´on l´ımite como
una aproximaci´on.
El Teorema de L´ımite Central es en este sentido y dice lo siguiente:
1.2. CONVERGENCIA CASI SEGURA 3
Teorema 1.2 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias independi-
entes, id´enticamente distribuidas con media µ y varianza σ
2
, entonces
lim
n→∞
P
_
S
n
−nµ
σ

n
≤ x
_
= P[X ≤ x],
donde X es una variable aleatoria N(0, 1).
El l´ımite del Teorema anterior es un l´ımite de las funciones de distribuci´on
y se conoce como convergencia en distribuci´on.
En todo este Cap´ıtulo denotaremos por S
n
=

n
k=1
X
k
.
1.2 Convergencia Casi segura
En toda esta secci´on consideraremos (Ω, F, P) un espacio de probabilidad
fijo. Las sucesiones de variables aleatorias estar´an definidas en este espacio.
Definici´on 1.1 Convergencia Puntual. Una sucesi´on de variables aleatorias
(X
n
)
n≥1
se dice que converge en el punto ω ∈ Ω si la sucesi´on de n´ umeros
reales (X
n
(ω))
n≥1
converge.
Definici´on 1.2 Conjunto de Convergencia. El conjunto de puntos ω ∈ Ω
para los cuales la sucesi´on (X
n
(ω))
n≥1
converge ser´a llamado el conjunto de
convergencia.
Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias y C su conjunto de conver-
gencia. Consideremos la funci´on X : Ω →R definida por:
X(ω) =
_
lim
n→∞
X
n
(ω), si ω ∈ C,
c, si ω ∈ C
c
.
(1.1) {variablelimite}
Para ω ∈ Ω fijo tal que X
n
(ω) no converge a X(ω), entonces de la definici´on
de convergencia de sucesiones de n´ umeros reales, existe ε > 0 tal que
|X
n
−X| > ε, para una infinidad de n

s.
Obs´ervese que para cada ε > 0
{ω ∈ Ω||X
n
(ω) −X(ω)| > ε, para una infinidad de n

s}
=

n=1

_
l=n
{ω ∈ Ω| |X
l
(ω) −X(ω)| > ε}
=

n=1

_
l=n
[ |X
l
−X| > ε] (Notaci´on). (1.2)
4 CAP
´
ITULO 1. CONVERGENCIA
Luego entonces, el complemento del conjunto de convergencia C estar´a dado
por:
C
c
=

_
k=1
_

n=1

_
l=n
_
|X
l
−X| >
1
k
_
_
. (1.3) {conjuntoconvergencia}
Claramente el conjunto de convergencia es un evento y podemos concluir
entonces que la sucesi´on (X
n
)
n≥1
, converge a X sobre C.
Definici´on 1.3 Convergencia Casi Segura. Una sucesi´on de variables aleato-
rias (X
n
)
n≥1
se dice que converge casi seguramente si su conjunto de conver-
gencia tiene probabilidad 1.
La convergencia casi segura la denotaremos por
X
n
c.s.
→ X
donde X es la variable aleatoria definida por la expresi´on (1.1).
Obs´ervese que:
X
n
c.s.
→ X, P[X
n
, no converge a X] = P[C
c
] = 0
Ejemplo 1.1 Consideremos el experimento de elegir un punto al azar en el
intervalo (0, 1). Para cada n ≥ 1, definimos
X
n
(ω) =
1
n
[nω],
donde [·] denota la parte entera de ·.
Es claro que
lim
n→∞
X
n
(ω) = X(ω) = ω, para toda ω ∈ Ω.
Por lo tanto, X
n
c.s.
→ X.
Ejemplo 1.2 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias independi-
entes, id´enticamente distribuidas, con funci´on de distribuci´on F. Supong-
amos que F(x) < 1 para toda x < x
0
, x
0
∈ R ∪ ∞. Para cada n ≥ 1 sea
X
(n)
definida por:
X
(n)
= max{X
1
, ..., X
n
}
Entonces
lim
n→∞
X
(n)
= x
0
, casi seguramente
1.2. CONVERGENCIA CASI SEGURA 5
Para cada ω ∈ Ω fijo, la sucesi´on (X
(n)
(ω))
n≥1
es una sucesi´on creciente. Por
lo tanto, si x
0
= ∞, converge a un l´ımite finito si y s´olo si est´a acotada. Sea
C = {ω ∈ Ω| (X
(n)
(ω))
n≥1
converge a un l´ımite finito}
= {ω ∈ Ω| (X
(n)
(ω))
n≥1
, est´a acotada}.
Demostraremos que
P[C] = 0.
Obs´ervese que
C =

_
M=1
[X
(n)
< M, n ≥ 1],
por lo tanto, es suficiente probar que para cada M ∈ IN,
P[X
(n)
< M, n ≥ 1] = 0
As´ı, para toda k ≥ 1 y puesto que las variables aleatorias X
n
, n ≥ 1 son
independientes
P[X
(n)
< M, n ≥ 1] ≤ P[X
(n)
< M, 1 ≤ n ≤ k] = F
k
(M).
Por hip´otesis F(x) < 1 para toda x ∈ R, lo que implica que F
k
(M) → 0
cuando k →∞. Por lo tanto,
P[X
(n)
< M, n ≥ 1] = 0.
Si x
0
< ∞, para cada ω ∈ Ω la sucesi´on converge, ya que P[X
(n))
≤ x
0
] =
1. y el l´ımite es menor o igual que x
0
. Para cada M < x
0
, sea
C
M
= {ω ∈ Ω| lim
n→∞
X
(n)
(ω) ≤ M},
lim
n→∞
X
(n)
(ω) ≤ M, si y s´olo si X
(n)
< M, n ≥ 1.
Siguiendo la misma demostraci´on que en el caso anterior, tenemos que
P[C
M
] = 0, para toda M < x
0
,
por lo tanto el l´ımite es igual a x
0
.
2
6 CAP
´
ITULO 1. CONVERGENCIA
Ejemplo 1.3 Consideremos una sucesi´on infinita de ensayos Bernoulli in-
dependientes con probabilidad p (< 1) de ´exito. Sea
X
n
(ω) =
_
n, si los primeros n ensayos fueron fracaso,
k, si el primer ´exito ocurri´o en el ensayo k, k ≤ n.
Entonces, X
n
c.s.
→ X, donde X es una variable aleatoria Geom´etrica con
par´ametro p.
Para cada ω ∈ Ω la sucesi´on (X
n
(ω))
n≥1
es no-decreciente, por lo tanto,
la sucesi´on no converge si y s´olo si tiende a infinito. Probaremos que la
probabilidad del conjunto de las ω ∈ Ω tales que la sucesi´on tiende a ∞tiene
probabilidad cero:
P[lim
n
X
n
= ∞] = P
_

n≥1
[X
n
= n]
_
≤ P[X
n
= n] = (1 −p)
n−1
→0.
Es claro de la definici´on que si (X
n
(ω))
n≥1
converge, esto implica que es
constante a partir de una cierta k ≥ 1, donde k es el ensayo en el que ocurre
el primer ´exito. Por lo tanto la variable aleatoria l´ımite es una variable
aleatoria Geom´etrica con par´ametro p.
2
Finalmente demostraremos La Ley de los Grandes N´ umeros mencionada en
la Introducci´on.
Teorema 1.3 Ley Fuerte de Los Grandes N´ umeros. (Kolmogorov). Sea
(X
n
)
n≥1
una sucesi´on de variables aleatorias independientes e id´enticamente
distribuidas. Entonces
S
n
n
converge casi seguramente,
si y s´olo si las variables aleatorias X
n
tienen esperanza finita y
S
n
n
c.s.
→ E[X
1
],
donde S
n
=

n
k=1
X
k
.
1.2. CONVERGENCIA CASI SEGURA 7
La demostraci´on de la Ley Fuerte de los Grandes N´ umeros es complicada
y est´a m´as all´a de los conocimientos del nivel de este libro, por lo que nos
contentaremos con demostrar una Ley Fuerte diferente cuya demostraci´on es
muy simple.
El resultado que probaremos a´ un cuando impone condiciones m´as fuertes
sobre la existencia de los momentos de las variables aleatorias, no requiere
que ´estas sean id´enticamente distribuidas. Recu´erdese que de la expresi´on
1.3 demostrar la convergencia casi segura es equivalente a probar que la
probabilidad del complemento del conjunto de convergencia C es igual a cero.
El Lema siguiente conocido como el Lema de Borel-Cantelli ser´a fundamental
en la demostraci´on.
Lema 1.1 Lema de Borel-Cantelli. Sea (A
n
)
n≥1
una sucesi´on de eventos tal
que

n≥1
P[A
n
] < ∞. Entonces
P[A
n
, ocurra para una infinidad de n

s] = P[

n=1

_
l=n
A
l
] = 0.
Demostraci´on
De la definici´on se tiene que para toda n ≥ 1,
P
_

n=1

_
l=n
A
l
_
≤ P
_

_
l=n
A
l
_

l=n
P[A
l
]
Por hip´ otesis


n=1
P[A
n
] < ∞, por lo tanto,


l=n
P[A
l
] → 0 cuando n →
∞, de donde P[


n=1


l=n
A
l
] = 0.
2
Teorema 1.4 Una Ley Fuerte de los Grandes N´ umeros. Sea (X
n
)
n≥1
una
sucesi´on de variables aleatorias independientes, con cuarto momento finito.
Supongamos que para toda n ≥ 1, E[X
n
] = µ, V ar(X
n
) = σ
2
y E[(X
n

µ)
4
] = ρ. Entonces
S
n
n
c.s.
→ µ,
donde S
n
=

n
k=1
X
k
.
Demostraci´on
8 CAP
´
ITULO 1. CONVERGENCIA
De la expresi´on 1.3, es suficiente demostrar que para toda ε > 0,
P

¸
¸
¸
S
n
n
−µ
¸
¸
¸
¸
> ε, o.i.
_
= 0.
Por el Lema anterior basta probar que

n=1
P

¸
¸
¸
S
n
n
−µ
¸
¸
¸
¸
> ε
_
< ∞.
De la Desigualdad de Bienaym´e-Chebyshev y puesto que las variables aleato-
rias X
k
son independientes, con varianza y cuartos momentos centrales co-
munes se tiene
P

¸
¸
¸
S
n
n
−µ
¸
¸
¸
¸
> ε
_
= P

¸
¸
¸
¸
n

k=1
(X
k
−µ
¸
¸
¸
¸
¸
> εn
_

1
(εn)
4
E[(
n

k=1
(X
k
−µ))
4
]
=
1
(εn)
4
[nE[(X
1
−µ)
4
] +n(n −1)(E[(X
1
−µ)
2
])
2

K
n
2
,
donde K es una constante. Ya que

n≥1
1
n
2
=
π
2
6
, se obtiene que

n=1
P

¸
¸
¸
S
n
n
−µ
¸
¸
¸
¸
> ε
_
< ∞.
2
Una consecuencia de la Ley de los Grandes N´ umeros es la aproximaci´on de
la distribuci´on de una variable aleatoria por lo que llamaremos el Proceso
Emp´ırico y que definimos a continuaci´on:
Sea (X
n
)
n≥1
una sucesi´on de v.a.i.i.d. Para cada x ∈ R y n ∈ N definimos
11
[Xn≤x]
=
_
1, si X
n
≤ x,
0, si X
n
> x,
y
N
n
(x) =
S
n
(x)
n
=
1
n
n

i=1
11
[Xn≤x]
.
1.3. CONVERGENCIA EN PROBABILIDAD 9
A Las variables aleatorias N
n
(x), x ∈ R se le conoce como el Proceso
Emp´ırico.
Corolario 1.1 Sea (X
n
)
n≥1
una sucesi´on de v.a.i.i.d. con funci´on de dis-
tribuci´on F. Entonces, para cada x ∈ R
N
n
(x)
c.s.
→ F(x), cuando n →∞
La demostraci´on se sigue inmediatamente de la Ley Fuerte de los Grandes
N´ umeros. De hecho se tiene un resultado m´as fuerte que no demostraremos:
Teorema 1.5 Teorema de Glivenko-Cantelli. Sea (X
n
)
n≥1
una sucesi´on de
v.a.i.i., con distribuci´on F. entonces
sup
x∈R
|N
n
(x) −F(x)|
c.s.
→ 0, cuando n →∞.
1.3 Convergencia en Probabilidad
Un tipo de convergencia m´as d´ebil que la convergencia casi segura es la lla-
mada convergencia en probabilidad. Antes de dar la definici´on consideremos
el siguiente ejemplo que es muy ilustrativo.
{ejeconvprob}
Ejemplo 1.4 Consideremos nuevamente el experimento de elegir un punto
al azar en el intervalo (0, 1) y sea (X
nk
)
n≥1,0≤k≤n−1
una sucesi´on de variables
aleatorias definidas de la de siguiente manera:
X
nk
(ω) =
_
1,
k
n
≤ ω <
k+1
n
, si 0 ≤ k ≤ n −1,
0, en otro caso.
Esto es, tenemos el siguiente arreglo:
X
10
X
20
, X
21
X
30
, X
31
, X
32
.
.
.
.
.
.
.
.
.
X
n0
, X
n1
, X
n2
, · · · , X
nn−1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10 CAP
´
ITULO 1. CONVERGENCIA
GRAFICAS
Es posible escribir el arreglo como una sola sucesi´on, (Y
m
)
m≥1
de la sigu-
iente manera:
Y
n(n−1)/2+k+1
= X
nk
,
Obs´ervese que para cada ω ∈ (0, 1) hay una infinidad de parejas (n, k) para
las que X
nk
= 0 y tambi´en una infinidad para las que X
nk
= 1. Por lo
tanto, para toda ω ∈ (0, 1) la sucesi´on (Y
m
(ω))
m≥1
no converge, es decir, su
conjunto de convergencia tiene probabilidad cero.
Sin embargo, es claro que para n suficientemente grande, las variables
aleatorias X
nk
son muy parecidas a la variable aleatoria X ≡ 0. De hecho
son iguales a cero excepto en un conjunto de probabilidad
1
n
, lo que sugiere
la siguiente definici´on:
Definici´on 1.4 Convergencia en Probabilidad. Una sucesi´on (X
n
)
n≥1
de
variables aleatorias se dice que converge en probabilidad a la variable aleatoria
X si para cada ε > 0 se satisface:
lim
n→∞
P[|X
n
−X| > ε] = 0
La convergencia en probabilidad ser´a denotada por X
n
P
→X.
Claramente la sucesi´on de variables aleatorias (Y
m
)
m≥1
del Ejemplo 1.4 con-
verge en probabilidad a la variable aleatoria X ≡ 0.
A continuaci´on presentamos algunas de las Leyes D´ebiles de los Grandes
N´ umeros. El apellido D´ebiles se refiere a la convergencia en probabilidad y
no casi segura que como hemos visto con el Ejemplo 1.4 es m´as d´ebil.
Teorema 1.6 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias, entonces
1. Ley D´ebil de los Grandes N´ umeros de Bernoulli. Si X
1
, X
2
, ...., X
n
, ...
son variables aleatorias independientes id´enticamente distribuidas, con
distribuci´on Bernoulli con par´ametro p, entonces
S
n
n
P
→p.
2. Ley D´ebil de los Grandes N´ umeros. Si X
1
, ..., X
n
, ... son variables
aleatorias independientes id´enticamente distribuidas con E[X
1
] = µ,
entonces
S
n
n
P
→µ.
1.3. CONVERGENCIA EN PROBABILIDAD 11
3. Ley D´ebil de los Grandes N´ umeros de Poisson. Si X
1
, ..., X
n
, ... son
variables aleatorias independientes, y para cada i, X
i
tiene distribuci´on
Bernoulli con par´ametro p
i
, i ≥ 1, entonces
S
n
n
−E
_
S
n
n
_
P
→0.
4. Ley D´ebil de Chebyshev. Si X
1
, ..., X
n
, ... son variables aleatorias no
correlacionadas, es decir, Cov(X
i
, X
j
) = 0 para i = j, y V ar(X
i
) ≤
M < ∞ para toda i ≥ 1, entonces
S
n
n
−E
_
S
n
n
_
P
→0.
5. Ley D´ebil de Markov. Si X
1
, ..., X
n
, ... son variables aleatorias con se-
gundo momento finito tales que:
V ar
_
S
n
n
_
→0, Condici´on de Markov,
Entonces
S
n
n
−E
_
S
n
n
_
P
→0.
Demostraci´on
De estas Leyes puede demostrarse f´acilmente que
(i) La Ley D´ebil de Markov es m´as fuerte que la de Chebyshev y que la Ley
D´ebil.
(ii) La Ley D´ebil de Chebyshev es m´as fuerte que la de Poisson.
(iii) La Ley D´ebil de Poisson es m´as fuerte que la de Bernoulli.
(iv) La Ley D´ebil es m´as fuerte que la de Bernoulli.
Luego entonces, es suficiente demostrar la Ley de Markov, la cual se sigue de
la Desigualdad de Bienaym´e-Chebyshev:
Dada ε > 0, se tiene:
P

¸
¸
¸
S
n
n
−E
_
S
n
n

¸
¸
¸
> ε
_

V ar
_
Sn
n
_
ε
2
.
12 CAP
´
ITULO 1. CONVERGENCIA
La Condici´on de Markov implica as´ı la convergencia en probabilidad.
2
Como hemos visto en el Ejemplo 1.4 la convergencia en probabilidad no
implica la convergencia casi segura, sin embargo, el rec´ıproco si es v´alido:
Teorema 1.7 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias. Si X
n
c.s.
→ X
entonces X
n
P
→X.
Demostraci´on
Supongamos que X
n
c.s.
→ X y sea C su conjunto de convergencia. Entonces
para n ≥ 1 y ε > 0:
[|X
n
−X| > ε] ⊂
_
k≥n
[|X
k
−X| > ε].
Sea
B(ε) =

n≥1

_
k=n
[|X
k
−X| < ε],
entonces B(ε) ⊂ C
c
, por lo tanto P[B(ε)] = 0. Por otro lado,
0 = P[B(ε)] = lim
n→∞
P[
_
k≥n
[|X
k
−X| > ε],
de donde se obtiene el resultado.
2
Volviendo al Ejemplo 1.4 se puede observar que si bien el conjunto de conver-
gencia de la sucesi´on tiene probabilidad 0 se puede considerar una subsucesi´ on
que converge casi seguramente a la variable aleatoria X = 0, por ejemplo la
subsucesi´on (X
n1
)
n≥1
. Esto no es casual, de hecho es un resultado general,
que enunciamos a continuaci´on pero que omitimos su demostraci´on.
Teorema 1.8 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias. Si X
n
P
→X
entonces existe una subsucesi´on (X
n
k
)
n
k
≥1
tal que X
n
k
c.s.
→ X.
1.4. CONVERGENCIA EN DISTRIBUCI
´
ON 13
1.4 Convergencia en Distribuci´on
En las definiciones de convergencia casi segura y en probabilidad, se consider´o
un espacio de probabilidad (Ω, F, P) fijo en donde estaban definidas todas
las variables aleatorias. La convergencia en distribuci´on que se definir´a a
continuaci´on es un concepto que se refiere no a una propiedad de convergencia
de las variables aleatorias sino de las funciones de distribuci´on. As´ı, las
variables aleatorias en consideraci´on en esta secci´on pueden estar definidas
en distintos espacios de probabilidad.
Definici´on 1.5 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias y (F
n
)
n≥1
la sucesi´on correspondiente de funciones de distribuci´on. Diremos que X
n
converge en distribuci´on a (la variable aleatoria) X con funci´on de dis-
tribuci´on F, si
lim
n→∞
F
n
(x) = F(x),
para todo x ∈ R, punto de continuidad de F. La convergencia en distribuci´on
la denotaremos X
n
D
→X (o F
n
D
→F).
Ejemplo 1.5 Para cada n ≥ 1 sea X
n
una variable aleatoria uniforme sobre
el intervalo (−
1
n
,
1
n
). Entonces X
n
D
→X, donde P[X = 0] = 1.
La funci´on de distribuci´on F
n
de X
n
est´a dada por
F
n
(x) =
_
_
_
0, si x ≤ −
1
n
,
1
2
(1 +nx), si −
1
n
< x <
1
n
,
1, si x ≥
1
n
.
Cuando n →∞ la sucesi´on de funciones F
n
tiende a G, donde
G(x) =
_
_
_
0, si x < 0,
1
2
, si x = 0,
1, si x > 0.
La funci´on G no es una funci´on de distribuci´on ya que no es continua por la
derecha. Consideremos la funci´on de distribuci´on F de la variable aleatoria
X que es la constante igual a 0, es decir,
F(x) =
_
0, si x < 0,
1, si x ≥ 0,
14 CAP
´
ITULO 1. CONVERGENCIA
Claramente, de la definici´on de convergencia en distribuci´on X
n
D
→ X, pues
F
n
(x) converge a F(x) para toda x = 0 y el 0 no es un punto de continuidad
de la funci´on F.
Obs´ervese que en este ejemplo las variables aleatorias X
n
pueden estar
definidas en distintos espacios de probabilidad.
{constanten}
Ejemplo 1.6 Para cada n ≥ 1 sea X
n
la variable aleatoria constante igual
a n, es decir, P[X
n
= n] = 1. La funci´on de distribuci´on F
n
de X
n
est´a dada
por:
F
n
(x) = 11
[n,∞)
(x),
Luego, entonces
lim
n→∞
F
n
(x) = 0, para toda x ∈ R.
Sin embargo, la funci´on id´enticamente cero no es una funci´on de distribuci´on.
Esto es, a´ un cuando para toda x ∈ R el lim
n→∞
F
n
(x) existe, el l´ımite no
es funci´on de distribuci´on, por lo tanto la sucesi´on (X
n
)
n≥1
no converge en
distribuci´on.
Ejemplo 1.7 Sea X una variable aleatoria N(0, 1). Para cada n ≥ 1 sea
X
n
la variable aleatoria definida por:
X
n
(ω) = (−1)
n
X(ω).
La distribuci´on de X
n
es tambi´en N(0, 1), por lo tanto, X
n
D
→X.
De este ejemplo se puede concluir que a´ un cuando las variables aleatorias
est´en definidas en el mismo espacio de probabilidad, la convergencia en dis-
tribuci´on no nos da informaci´on acerca de la convergencia de las variables
aleatorias, pues en este caso,
|X
n
−X| =
_
2X, si n es par,
0, si n es impar.
Ejemplo 1.8 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias independi-
entes e id´enticamente distribuidas Exponenciales con par´ametro λ > 0. Sea
M
n
= max {X
1
, ..., X
n
} y
Z
n
= λM
n
−log n,
1.4. CONVERGENCIA EN DISTRIBUCI
´
ON 15
enotonces, para cada x ∈ R y n tal que x + log n > 0
F
n
(x) = P[Z
n
≤ x] = P[M
n

1
λ
(x + log n)]
= (1 −exp(−λ
1
λ
(x + log n))
n
=
_
1 −
e
−x
n
_
n
.
Por lo tanto,
lim
n→∞
F
n
(x) = exp(−e
−x
).
La funci´on
F(x) = exp(−e
−x
),
es una funci´on de distribuci´on llamada la distribuci´on Gumbel. Es decir
Z
n
D
→Z, donde Z es una variables aleatoria con distribuci´on Gumbel.
Ejemplo 1.9 Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias uniformes
en (0, 1). Sea M
n
= max {X
1
, ..., X
n
} y
Z
n
= n(M
n
−1).
Claramente las variables aleatorias Z
n
toman valores en (−∞, 0). Entonces,
para cada x > 0,
P[Z
n
≤ x] = 1, para toda n ≥ 1.
Para x < 0 y n tal que
x
n
+ 1 ∈ (0, 1), tenemos
F
n
(x) = P[Z
n
≤ x] = P[M
n

x
n
+ 1]
=
_
x
n
+ 1
_
n
.
De donde
lim
n→∞
F
n
(x) = exp(−(−x)), si x < 0.
La funci´on
F(x) =
_
1, si x > 0,
exp(−(−x)), si x ≤ 0,
16 CAP
´
ITULO 1. CONVERGENCIA
es una funci´on de distribuci´on llamada Distribuci´on Weibull con par´ametro
α = 1, es decir
Z
n
D
→Z,
donde Z es una variable aleatoria con distribuci´on Weibull con par´ametro
α = 1.
En general, es bastante dif´ıcil demostrar la convergencia en distribuci´on pues
la forma de estas funciones en ocasiones (como por ejemplo, en el caso Gaus-
siano) no es cerrada, es decir, se expresa en t´erminos de una integral. No s´olo
eso sino que como veremos m´as adelante en lo que llamaremos el Teorema de
L´ımite Central, los resultados importantes de convergencia en distribuci´ on
se refieren no a sucesiones particulares de variables aleatorias, sino a suce-
siones de variables aleatorias independientes e id´enticamente distribuidas con
la ´ unica condici´on adicional de la existencia de segundo momento finito.
Por otro lado, recu´erdese que la funci´on caracter´ıstica caracteriza a la
funci´on de distribuci´on, por lo que intuitivamente se podr´ıa esperar alguna
relaci´on entre la convergencia de las funciones caracter´ısticas de una sucesi´ on
de variables aleatorias y su convergencia en distribuci´on. El siguiente Teo-
rema (de L´evy-Cramer o Teorema de Continuidad de L´evy) es en este sentido.
Teorema 1.9 Teorema de L´evy-Cramer o de Continuidad de L´evy. Una
sucesi´on de variables aleatorias (X
n
)
n≥1
converge en distribuci´on a la vari-
able aleatoria X si y s´olo para toda t ∈ R la sucesi´on (Φ
n
(t))
n≥1
de sus
corespondientes funciones caracter´ısticas converge a la funci´on caracter´ıstica
Φ(t) de X.
Obs´ervese que en el Ejemplo 1.6 la funci´on caracter´ıstica de X
n
est´a dada
por:
Φ
n
(t) = e
itn
,
y lim
n→∞
e
itn
no existe, pues e
itn
= cos(tn) + isen(tn), por lo que tanto su
parte real como imaginaria oscilan cuando n →∞.
Teorema 1.10 Teorema de L´ımite Central (Cl´asico). Sea (X
n
)
n≥1
una sucesi´on
de variables aleatorias independientes id´enticamene distribuidas con esper-
anza µ y varianza σ
2
. Entonces
S
n
−nµ


D
→X,
donde X es una variable aleatoria N(0, 1).
1.4. CONVERGENCIA EN DISTRIBUCI
´
ON 17
Demostraci´on
Por el Teorema de L´evy-Cramer es suficiente demostrar que las funciones
caracter´ısticas convergen. Para cada n ≥ 1, sea Y
n
=
Xn−µ
σ
, entonces
S
n
−nµ
σ

n
=
1

n
n

j=1
Y
j
.
Las variables aleatorias Y
1
, Y
2
, ... son independientes e id´enticamente dis-
tribuidas con media cero y varianza uno. Luego entonces
Φ
n
(t) = E
_
exp
_
it
S
n
−nµ
σ

n
__
= E
_
exp
_
it
1

n
n

j=1
Y
j
__
=
n

j=1
E
_
exp
_
it
1

n
Y
j
__
_
Φ
Y
1
_
t

n
__
n
.
donde Φ
Y
1
es la funci´on caracter´ıstica de Y
1
(de hecho de todas las variables
aleatorias Y
n
).
De la expansi´on de la funci´on caracter´ıstica ?? se obtiene:
Φ
n
(t) =
_
1 −
t
2
2n
+o
_
1
n
__
.
Cuando n → ∞,
_
1 −
t
2
2n
+o
_
1
n
_
_
→ e
−t
2
/2
que es la funci´on caracter´ıstica
de una variable aleatoria N(0, 1).
2
Ejemplo 1.10 Una Aplicaci´on a Muestreo. En un lote de focos hay una
fracci´on desconocida p de focos defectuosos. Utilizando el muestreo con reem-
plazo, se desea encontrar p con un error no mayor de 0.005.
Obs´ervese que
p =
N´ umero de focos defectuosos
N´ umero de focos en el lote
.
Sean X
1
, ..., X
n
variables aleatorias independientes Bernoulli con par´ametro
p. De la Ley de Fuerte de los Grandes N´ umeros, tenemos que
Sn
n
c.s.
→ p, por
18 CAP
´
ITULO 1. CONVERGENCIA
lo que para n grande se puede considerar a
Sn
n
como un estimador de p. La
Ley de Los Grandes N´ umeros no da suficiente informaci´on pues no dice cu´al
es la velocidad de convergencia. M´as precisamente se desea encontrar n tal
que
P

¸
¸
¸
S
n
n
−p
¸
¸
¸
¸
< 0.005
_
> 0.95,
Obs´ervese que
P

¸
¸
¸
S
n
n
−p
¸
¸
¸
¸
< 0.05
_
= P

¸
¸
¸
¸
S
n
−np
_
p(1 −p)n
¸
¸
¸
¸
¸
<
0.05n
_
p(1 −p)n
_
.
Por el Teorema de L´ımite Central se tiene que
S
n
−np
_
p(1 −p)n
D
→X,
donde X es una variable aleatoria N(0, 1).
As´ı, sea z
0
tal que N(z
0
) − N(−z
0
) = 0.95, donde N(·) = P[X ≤ ·].
(Este valor se puede encontrar en las tablas de la distribuci´on Gaussiana) y
n suficientemente grande tal que
0.05

n
_
p(1 −p)
≥ z
0
,
esto es,
n ≥ 400p(1 −p)z
2
0
.
En esta ´ ultima expresi´on interviene p que es deconocida, sin embargo, inde-
pendientemente de su valor
1
4
≥ p(1 −p).
Luego entonces basta tomar n ≥ 100z
2
0
.
1.5 Evoluci´on del Problema
La Ley de los Grandes N´ umeros y el teorema de L´ımite Central presenta-
dos son resultados sobre la convergencia de sumas normalizadas de vari-
ables aleatorias independientes e id´enticamente distribuidas, las primeras
1.5. EVOLUCI
´
ON DEL PROBLEMA 19
demostraciones (en el caso de variables aleatorias Bernoulli) datan del siglo
XVIII con los trabajos de Bernoulli, Laplace y De Moivre.
Los resultados que se presentan aqu´ı son los llamados cl´asicos, y como
hemos visto se imponen condiciones fuertes sobre las distribuciones de las
variable aleatorias. Obs´ervese que en los casos descritos las variables aleato-
rias se centran con respecto a la media y se normalizan con respecto a la
varianza, adem´as de que se supone que son independientes e id´enticamente
distribuidas.
Sin embargo, dada una sucesi´on arbitraria de variables aleatorias podr´ıamos
preguntarnos si es posible la existencia de una Ley de Grandes N´ umeros y un
Teorema de L´ımite Central en alg´ un sentido. M´as precisamente este prob-
lema podr´ıa plantearse de la siguiente manera:
Dada una sucesi´on (X
n
)
n≥1
de variables aleatorias, existen constantes
(a
n
)
n≥1
, (b
n
)
n≥1
tales que
S
n
a
n
−b
n
,
converja (en probabilidad) a una constante, o (en distribuci´on) a una dis-
tribuci´on Gaussiana? Algunas de las respuestas a estas preguntas pueden
consultars en ??, por ejemplo, cuando las variables aleatorias son independi-
entes m´as no id´enticamente distribuidas. Resultados en este sentido existen
tambi´en cuando se debilita la condici´on de independencia ??
En este siglo, L´evy plantea un problema m´as general:
Encontrar la familia de posibles distribuciones l´ımites de sumas normal-
izadas de variables aleatorias independientes e id´enticamente distribuidas, es
decir, sin imponer condiciones sobre la existencia de los momentos. L´evy
considera el caso de segundo momento infinito y primer momento finito o
infinito.
Naturalmente, el problema de posibles distribuciones l´ımites de sumas
normalizadas de variables aleatorias independientes no necesariamente id´enticamente
distribuidas surge al mismo tiempo puede consultarse ??.
20 CAP
´
ITULO 1. CONVERGENCIA
Tarea III
Probabilidad II
1. Demuestre que la Ley D´ebil de Poisson es un caso particular de la Ley
D´ebil de Chebyshev.
2. Para cada n ≥ 1 sea X
n
una variable aleatoria N(n, σ
2
). Las variables
aleatorias X
n
, n ≥ 1 convergen en distribuci´on?.
3. Para cada n ≥ 1 sea X
n
una variable aleatoria N(µ,
1
n
). Las variables
aleatorias X
n
, n ≥ 1 convergen en distribuci´on?.
4. Sea (X
n
)
n≥1
una sucesi´on de variables aleatorias independientes, id´enticamente
distribuidas con distribuci´on Pareto con par´ametros α, K > 0 dada por:
F(x) =
_
0, si x < K
1/α
,
1 −Kx
−α
, si x ≥ K
1/α
.
Sea M
n
= max {X
1
, ..., X
n
} y Z
n
=
Mn
(Kn)
1/α
. Demuestre que Z
n
D
→ Z
donde Z es una variable aleatoria con distribuci´on dada por:
F
Z
(x) =
_
0, si x < 0,
exp(−x
−α
), si x ≥ 0.
A F
Z
se le conoce como la distribuci´on Fr´echet con par´ametro α > 0.
5. Para los incisos (i)-(iv) genere (en el programa de computaci´on que
sepa usar) muestras de variables aleatorias X
1
, ..., X
n
, independientes
e id´enticamente distribuidas.
(a) Calcule S
n
=

n
i=1
X
i
,
(b) Calcule
Sn
n
comp´arelo con el resultado de la Ley de los Grandes
N´ umeros, para n = 10, 100, 1000, .
(c) Calcule para la muestra generada el proceso emp´ırico N(x) definido
en las notas, compare los resultados con la distribuci´on de las vari-
ables aleatorias. (Teorema de Glivenko-Cantelli).
(i) Variables aleatorias Bernoulli con par´ametro p (para tres distintos
valores del par´ametro).
1.5. EVOLUCI
´
ON DEL PROBLEMA 21
(ii) Variables aleatorias Binomiales con par´ametros k, p (para tres
valores distintos de (k, p)).
(iii) Variables aleatorias Exponenciales con par´ametro λ > 0 (para
tres valores distintos del par´ametro).
(iv) Variables aleatorias Gamma con par´ametros α, λ. (para tres dis-
tintos valores de los par´ametros.)
6. Compare la distribuci´on de

n
i=1
X
i
con la aproximaci´on del Teorema
de L´ımite Central, para las variables aleatorias (i)-(iv) del ejercicio
anterior. Es decir, considere X
1
, ..., X
n
v. a.i.i.d. S
n
=

n
i=1
X
i
,
entonces
P[S
n
≤ x] ≈ P
_
X ≤
x −nµ


2
_
,
donde E[X
i
] = µ,V ar(X
i
) = σ
2
y X es una variable aleatoria N(0, 1).
No use simulaciones en este ejercicio sino la distribuci´on exacta. Para
n = 10, 30, 50.