You are on page 1of 9

[Escribir texto

]

CONSULTA DE LOS METODOS DE ESTIMACION


POR:

VICTOR HUGO RIVERA


MATERIA:

PROBABILIDAD Y ESTADISTICA

PROFESOR:

SOL MERY ALVAREZ







[Escribir texto]

ESTIMACIÓN DE PARÁMETROS

El estudio de poblaciones estadísticas supone en general el conocimiento de la
función de probabilidad que gobierna el comportamiento aleatorio de la variable de
interés. En muchos casos sabemos o presumimos conocer la familia distribucional
de una población. Sabemos por ejemplo que la población es aproximadamente
normal; pero desconocemos la media y la varianza poblacionales. Sabemos que
la variable de interés es binomial pero desconocemos la probabilidad de éxito
poblacional o el número de pruebas de Bernoulli. Sabemos que se trata de un
proceso de Poisson pero desconocemos el número de eventos raros por
intervalos. Presumimos que la variable es exponencial pero desconocemos el
parámetro que precisa la distribución exponencial poblacional.
Lógicamente en todas estas situaciones la función de probabilidad de la variable
en estudio se concreta determinando los parámetros poblacionales
correspondientes y para lograrlo se utilizan los denominados métodos de
estimación de parámetros.
La estimación de uno o varios parámetros poblacionales desconocidos es posible
construyendo funciones de probabilidad de variables aleatorias muestrales, mas
conocidos como estimadores muestrales.
Dichos estimadores garantizaran un cálculo o una aproximación satisfactoria del
parámetro poblacional desconocido siempre que cumplan propiedades de:
insesgamiento o máxima simetría, varianza mínima o máxima concentración de
los datos alrededor del parámetro estimado y máxima probabilidad.
1


Estimación puntual
Cuando en una población con familia distribucional conocida θ) f(x, queremos
estimar el verdadero valor del parámetro poblacional θ utilizando como lente
para determinarlo al estimador muestral θ
ˆ
; procedemos a seleccionar una

1
www.unalmed.edu.co/~estadist/.../Estimacion%20de%20parametros.doc
[Escribir texto]

muestra de tamaño n de dicha población, calculamos a partir de ella un valor θ y
afirmamos entonces que k θ θ ± = es una estimación puntual de θ con un error,
por exceso o defecto, de valor k.
K depende en general de la variable aleatoria muestral θ
ˆ
y de su desviación
θ
ˆ
σ .
En los casos de muestras grandes, cuando los valores de la muestra
corresponden a variables aleatorias estadísticamente independientes (iid) y por lo
tanto se dan las condiciones del TLC, se tiene que:
30 n , n σ/ Z σ θ Maxk
α/2 θ α/2
> = =
ˆ
ˆ

¿Pero como escoger el estimador θ
ˆ
que mejor precisa el parámetro θ ?
Hay dos métodos generales: el método de momentos y el método de máxima
verosimilitud.
2


Método de máxima verosimilitud
El método de estimación de máxima verosimilitud permite, en el caso de un
parámetro o n vector de parámetros poblacionales desconocidos, determinar el
estimador o vector de estimadores que maximizan la función de probabilidad
conjunta de una muestra de n v.a. seleccionadas de la población en estudio.
Sea θ) f(x, la fdp de una población en la cual queremos determinar θ .
Sea x
1
,x
2
,….,x
n
una muestra de v.a. iid seleccionadas de dicha población, a la
función de probabilidad conjunta L( θ ) de las n v.a. de la muestra la llamaremos
funcion de verosimilitud muestral, es decir:
L ( θ )=L(x
1
,x
2
,….,x
n;
θ )
Pero como las v.a. son independientes tenemos: L( θ ) = f(x
1
, θ ) f(x
2
, θ )….f (x
n,
θ ).
Es decir:
L ( θ )=
[
=
n
1 i
i
θ) , f(x



2
ciberconta.unizar.es/leccion/ecoreg/regresionlineal.doc
[Escribir texto]




Estimador de máxima verosimilitud -EMV-
El EMV del parámetro θ es θ
ˆ
siempre que L( θ
ˆ
) sea el valor de máxima
probabilidad de la función de verosimilitud L es decir:
θ
ˆ
es el EMV de θ si y solo si L( θ
ˆ
) es máximo
En la expresión L( θ )=
[
=
n
1 i
i
θ) , f(x la función de verosimilitud varia con el parámetro
θ y para el proceso de optimización se considera que las x
i
son constantes luego
de haber determinado la muestra aleatoria.

Observe que como la función logaritmo natural es siempre creciente el EMV de
L( θ ) también optimiza a Ln (L( θ )) y podemos definir:

l( θ )=Ln (L( θ ))= Ln (
[
=
n
1 i
i
θ) , f(x )=
¿
=
n
1 i
i
θ) , f(x ln

y optimizar así: ( )
¿
=
=
'
= '
n
1 i i
i
0
θ) , f(
θ) , ( f
θ l
x
x
. Si θ θ
ˆ
= maximiza a l( θ ) es claro que 0 ) ( l θ = '
ˆ

y ) ( l θ
ˆ
' ' <0.
3









3
www.unalmed.edu.co/~estadist/.../Estimacion%20de%20parametros.doc
[Escribir texto]

Estimación Por Intervalos
Estamos en una población conocida y desconocemos ( ) θ Eθ =
ˆ
pero queremos
hallar un intervalo de valores que contenga a θ, además conocemos
θ
σ
ˆ
o
podemos estimarla con un error pequeño. Para ello seleccionaremos una muestra
aleatoria ( )
n 3 2 1
θ ,... θ , θ , θ
ˆ ˆ ˆ ˆ
. El Teorema Del Límite Central permite afirmar que
( )
( ) z,0,1 n
σ
E
Z
θ
θ θ
÷
÷
=
ˆ
ˆ ˆ



y podemos afirmar con un nivel α que P(-z
/2 o
<Z< z
/2 o
)=1-α


Equivalentemente,
P
( )
|
|
.
|

\
|
÷
< <
α/2
θ
α/2
z
σ
E
z -
θ θ
ˆ
ˆ ˆ
=1-α
P ( ( )
θ α/2
σ z θ Eθ
ˆ
ˆ
< ÷ )=1-α

Sustituyendo E ( θ
ˆ
)=θ , α 1 σ z θ P
θ 2 α
θ ÷ =
|
.
|

\
|
< ÷
ˆ
ˆ

Al efectuar la estimación puntual θ θ =
ˆ
afirmamos con confianza al α 1÷ , que la
diferencia absoluta entre el parámetro θ y el valor muestral u está acotada por
θ 2 α
σ z
ˆ

[Escribir texto]

θ 2 α
σ z θ θ
ˆ
< ÷
Denominado intervalo Z para θ, es decir,
( ) ¬ ÷ = < ÷ α 1 σ z θ θ P
θ 2 α ˆ
ˆ
θ Є
|
.
|

\
|
±
θ 2 α
σ z θ
ˆ
con confianza 1-α.




Intervalo para la proporción p en una población Binomial

Seleccionamos una muestra aleatoria conformada por (p
1
, p
2
, p
3
,…,p
n
) donde las
p
i
son v.a iid que cumplen E(p
i
)=p. Es claro que si
n
x
p = ˆ , ( ) p p E = ˆ y ( ) p 1 np σ
p
÷ =
ˆ
,
según el resultado previo de una población binomial se tendrá:
( )
( ) z,0,1 n
σ
E
Z
p
p p
÷
÷
=
ˆ
ˆ ˆ
siempre que np y n(1-p) >10
y que con un nivel de significación α
α 1 ) z Z P(-z
2 α 2 α
÷ = < <
α 1 ) z
σ
) E(
P(-z
2 α 2 α
p
p p
÷ = <
÷
<
ˆ
ˆ

α 1 ) σ z E(p) - p P(
P 2 α
÷ = <
[Escribir texto]

Como ( ) p p E = ˆ afirmamos con probabilidad 1-α que
( ) α 1 σ z P
p
2 α
p p ÷ = < ÷
ˆ
ˆ
p
σ z K
2 α
ˆ
= es el error de estimación
( )
n
p 1 p
σ
p
÷
=
ˆ
es la desviación estándar de la distribución binomial
Al hacer la estimación puntual pˆ =π afirmamos con confianza 1- α que.
( )
n
π 1 π
z π p
2 α
÷
< ÷
O sea
( ) ¬ ÷ = < ÷ α 1 σ z p p P
p 2 α ˆ
ˆ p
|
|
.
|

\
|
÷
± e
n
π) π(1
z π
2 α
con confianza 1- α

Intervalo para la media μ en una población normal

Intervalos Z para la media μ



Sea (x
1
, x
2
, x
3
,…,x
n
) una muestra
aleatoria, o sea que las x
i
son i.i.d.,
esto es la fdp conjunta de la muestra
es
f(x
1
,x
2
,…,x
n
;μ)= ( )
[
n
1
2
i
σ μ, , n x
Así el EMV de μ es X y también
E( X)=μ y
n
σ
σ
2
x
=
2

Si en una muestra con n>30 preestablecemos un nivel de significación α
podemos afirmar con probabilidad 1-α que:
α 1
n
σ
z X μ P
2 α
÷ =
|
.
|

\
|
< ÷
[Escribir texto]

Es decir que con probabilidad 1-α la diferencia absoluta máxima entre μ y x es,
n
σ
z
2 α
o sea , si estimamos x X = afirmamos que
¬ ÷ = |
.
|

\
|
< ÷ α 1
n
σ
z X μ P
2 α
α 1- confianza con
n
σ
z x μ
α/2
|
.
|

\
|
± e .
Si σ
2
es desconocida se debe estimar mediante s
2
calculado en la muestra
particular así afirmamos que:
¬ ÷ =
|
.
|

\
|
< ÷ µ α 1
n
s
z X P
2 α
α 1 al confianza con
n
s
z x μ
α/2
÷
|
.
|

\
|
± e
Aunque en Z=
n S
μ X÷
se introduce variabilidad en el numerador con X y en el
denominador con S este efecto se contrarresta con n grande.
¿Que pasa si σ
2
es desconocida y n<30?, que ahora si aumenta la variabilidad y
necesitamos una distribución acampanada con colas robustas que permitan
mayor variabilidad, o sea, una distribución T.

[Escribir texto]



P(T>t o ,v )=o E(T)=0 V(T)=
2 n
n
÷
n>2
Si la población es normal entonces T=
n S
μ X÷
se distribuye según Gosset como una
t-student con n-1 grados de libertad. Observe que S se basa en el cálculo de
x x ,..., x x , x x
n 2 1
÷ ÷ ÷ de forma que en el cálculo de
¿
÷x x
i
=0 sólo hay n-1
variables libremente determinadas. La n-ésima depende de ellas, a este número
se le denomina grados de libertad v =n-1.
Si de una población normal seleccionamos una muestra pequeña n<30 y
calculamos x X= y S=s preestableciendo un nivel de significación α podemos
construir un intervalo T bilateral de confianza 1-α con v=n-1 grados de libertad
para μ así:
4

α 1
n
s
t μ X P
1 n
2 α
÷ =
|
|
.
|

\
|
< ÷
÷
¬ ) n s t x ( μ
1 n 2, α ÷
± e con confianza 1-α


4
www.unalmed.edu.co/~estadist/.../Estimacion%20de%20parametros.doc