You are on page 1of 8

FACULTAD DE INGENIERIA DE MINAS, GEOLOGIA Y CIVIL

ESCUELA DE CIENCIAS FISICO MATEMATICAS

CALCULO DE PROBABILIDADES

La Ley de los Grandes Numeros

Trabajo realizado por:

Apari Quispe, Michael


Quispe Alvites, David
Rios Suarez, Juan Carlos

Profesor:
Jackson Macoy Romero Plasencia
Dedicamos este trabajo
a nuestros seres queridos
que nos impulsan a perseguir
nuestros suenos...

I
INTRODUCCION
La ley de los grandes numeros pertenece a la parte de las matematicas que mide la frecuencia
con la que se obtienen todas las formas posibles que se pueden dar en un suceso, es decir, la
probabilidad. Su creador, Bernoulli, publico esta ley en su libro El Arte de la Conjetura. Este
fue el primer intento para deducir medidas estadsticas a partir de probabilidades individua-
les. Sin embargo, Bernoulli aun necesitara veinte anos para perfeccionar la ley de los grandes
numeros por completo.

En el presente trabajo damos la definicion de la Ley de los Grandes Numeros y haremos un


estudio de la Ley Debil y la Ley Fuerte que fue evolucionando en el tiempo, empezando con
Bernoulli, Poisson, Chebyshev, Borel, Cantelly, Kolmogorov y Khinchin.

II
Indice

Indice III

1. HISTORIA 1

2. LEY DE LOS GRANDES NUMEROS 1

3. LEY DEBIL 3

4. LEY FUERTE 4

5. BIBLIOGRAFIA 4

III
1. HISTORIA
Fue el matematico italiano Gerolamo Cardano quien afirmo sin pruebas que la precision de
las estadsticas empricas (experimentales) tienden a mejorar con el numero de intentos. Despues
esto fue formalizado como una ley de los grandes numeros. Una forma especial de la ley (para
una variable aleatoria binaria) fue demostrada por primera vez por Jacob Bernoulli. Le llevo
mas de 20 anos desarrollar una prueba matematica suficientemente rigurosa que fue publicada
en su libro El arte de la conjetura. Bernoulli le llamo su Teorema dorado, pero llego a ser
conocido generalmente como teorema de Bernoulli. En 1837 Denis Poisson describio con mas
detalle estos resultados con el nombre de la ley de los grandes numeros. A partir de entonces, se
conoce con ambos nombres, pero se utiliza con mayor frecuencia la ley de los grandes numeros.

Despues de que Bernoulli y Poisson publicaran sus resultados, otros matematicos tambien
contribuyeron al refinamiento de la ley, como Chebyshev, Markov, Borel, Cantelly, Kolmogorov
y Khinchin, que finalmente proporciono una prueba completa de la ley de los grandes numeros
para variables arbitrarias. Estos nuevos estudios han dado lugar a dos formas prominentes de
la ley de los grandes numeros: una se llama la ley debil y la otra la ley fuerte.

2. LEY DE LOS GRANDES NUMEROS


Jacob Bernoulli descubrio que las frecuencias observadas se acercaban al verdadero valor
previo de su posibilidad al hacer crecer el numero de repeticiones del experimento. Pero el quera
encontrar una prueba cientfica que no solo probara que al enumerar el numero de observaciones
de la muestra se poda estimar la probabilidad autentica con el grado de precision deseado en
cada ocasion, sino que permitiera calcular explcitamente cuantas observaciones eran necesarias
para garantizar esa precision de que el resultado queda dentro de un intervalo predeterminado
alrededor de la verdadera solucion.

La ley de los grandes numeros nos dice que la frecuencia relativa de las observaciones de un
experimento de caracter aleatorio se estabilizan en un numero que coincide con la probabilidad,
cuando el experimento se realiza muchas veces.

De manera mas formal la Ley de los Grandes Numeros dice que el valor medio observado
en n ensayos converge a E(X) cuando n .

1
Tenemos la siguiente version de la Ley de los Grandes Numeros es terminos de variables
aleatorias:

Si X1 , X2 , . . . son independientes, identicamente distribuidas e integrables, entonces


X1 + + Xn
E(X1 )
n
Sean Y1 , Y2 , Y3 , . . . variables aleatorias definidas en un mismo espacio de probabilidad (, A, P ).

Definicion: Yn converge a Y en probabilidad si para todo > 0. Se cumple que:


P (|Yn Y | > ) 0 cuando n .
P
Notacion. Yn
Y.

Definicion: Yn converge a Y casi seguramente si P (Yn Y cuando n ) = 1, es decir,


si el evento A0 = {w : Yn (w) Y (w)} tiene probabilidad 1.

Recordar que:
convergencia casi segura convergencia en probabilidad,
convergencia en probabilidad ; convergencia casi segura.
P
Proposicion: Si Yn Y casi seguramente, entonces Yn
Y.

Demostracion: Suponga que Yn Y casi seguramente y sea > 0 fijo. Necesitamos probar
que P (|Yn Y | > ) 0.

Sea A0 = {w : Yn (w) Y (w)}. Por hipotesis, P (A0 ) = 1. Para todo w A0 , |Yn (w)
Y (w)| < pata todo n suficientemente grande. Sea An el evento para todo k > n, |Yk Y | < ,
\
es decir, An = (|Yk Y | < ).
k=n
[
Si w A0 , entonces w An para algun n. Pero An An+1 , luego A0 An = lm An .
n
n>1
[
Por lo tanto 1 = P (A0 ) 6 P ( An ), y por la continuidad de toda probabilidad, P (An ) 1.
n>1

Pero An (|Yn Y | < ), luego P (|Yn Y | < ) 1 y


P (|Yn Y | > ) = 1 P (|Yn Y | < ) 0. 

Ahora formularemos la ley de los Grandes Numeros de una manera mas general de la que
se hizo al inicio.

Sean X1 , X2 , . . . variables aleatorias integrables en (, A, P ), y sean S1 , S2 , . . . las sumas par-


ciales, definidas por Sn = X1 + X2 + + Xn . (Notemos que S1 , S2 , . . . son tambien variables
aleatorias en (, A, P )).

Sn E(Sn )
Decimos que X1 , X2 , . . . satisfacen la Ley de los Grandes Numeros si 0 en
n
probabilidad, o equivalentemente, si

X1 + + Xn (E(X1 ) + + E(Xn ))
P (| | > ) 0, > 0
n

2
Sn E(Sn )
Decimos que X1 , X2 , . . . satisface la Ley de los Grandes Numeros si 0 casi
n
seguramente, o equivalentemente, si

(X1 E(X1 )) + (X2 E(X2 )) + + (Xn E(Xn ))


0 casi seguramente.
n
En terminos intuitivos, este concepto mas general de la Ley de los Grandes Numeros puede
ser expresado as: una sucesion de variables aleatorias satisface la Ley de los Grandes Numeros
si, cuando n es grande, la media aritmetica de las primeras n observaciones es aproximadamente
Sn
igual a la media aritmetica de sus medias (esperanzas) o sea, es aproximadamente igual a
n
E(Sn ) E(S1 ) + + E(Sn )
= .
n n

3. LEY DEBIL
Teorema (Ley Debil de Tchebychev) Sean X1 , X2 , . . . variables independientes 2 a 2
con varianzas finitas y uniformemente acotadas (es decir, existe c finita tal que para todo n,
Sn E(Sn ) P
V ar(Xn ) 6 c). Entonces X1 , X2 , . . . satisface la Ley de los Grandes Numeros:
0.
n
|Sn E(Sn )|
Demostracion: Necesitamos probar que para > 0. P ( > ) 0 cuando
N
n 0.
Pn
Como V ar(Sn ) = V ar(X1 + + Xn ) = displaystyle i=1 V ar(Xi ) 6 nc, la desigualdad
de Tchebychev implica

V ar(Sn ) c
P (|Sn E(Sn )| > n) 6 2 2
6 2 0 
n n
Corolario. (Ley de los Grandes Numeros de Bernoulli) Consideremos una sucesion de
ensayos binomiales independientes, con la misma probabilidad p de exito.en cada ensayo. Si Sn
es el numero de exitos en los primeros n ensayos, entonces
Sn
p en probabilidad
n
La hipotesis de varianzas finitas fue eliminada por Khintchin, quien logro probar la Ley
de los Grandes Numeros en el caso de variables independientes e identicamente distribuidas,
suponiendo solo integrabilidad.

Teorema (Ley Debil de Khintchin). Si X1 , X2 , . . . son independientes, identicamente dis-


tribuidas e integrables, con media comun , entonces
Sn
en probabilidad
n
.

3
4. LEY FUERTE
Teorema (Recproco de la Ley Fuerte de Kolmogorov) Sean X1 , X2 , . . . variables alea-
torias independientes e identicamente distribuidas. Si E|X1 | = +, entonces con probabilidad
1, la sucesion
|Sn | |X1 + + Xn |
= , n = 1, 2, . . . , no es acotada
n n
.
Sn
Observacion: La Ley Fuerte afirma que si las Xn son integrables, entonces converge a un
n
lmite finito (E(X1 )) con probabilidad 1. El recproco dice que si las Xn no son integrables,
Sn
entonces, con probabilidad 1, no convergera a un lmite finito.
n
Teorema (Primera Ley Fuerte de Kolmogorov): Sean X1 , X2 , . . . variables aleatorias in-
n
X V ar(Xn )
dependientes e integrables, y suponga que < +.
n=1
n2
Entonces las Xn satisfacen la Ley Fuerte de los Grandes Numeros, es decir,

X1 + + Xn E(X1 ) + + E(X1 )
0 casi seguramente
n n)

Teorema (Ley Fuerte de Kolmogorov): Sean X1 , X2 , . . . variables aleatorias independien-


tes, identicamente distribuidas e integrables, con E(Xn ) = . Entonces

X1 + + X n
casi seguramente
n
.

5. BIBLIOGRAFIA
James, Barry; Probabilidad: un curso de nivel intermedio.

You might also like