Welcome to Scribd, the world's digital library. Read, publish, and share books and documents. See more
Download
Standard view
Full view
of .
Save to My Library
Look up keyword
Like this
6Activity
0 of .
Results for:
No results containing your search query
P. 1
Estimacion Bayesiana (Traduccion)

Estimacion Bayesiana (Traduccion)

Ratings: (0)|Views: 241 |Likes:
Published by Ceiee Fiecs Uni

More info:

Published by: Ceiee Fiecs Uni on May 20, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

07/03/2013

pdf

text

original

 
6.6 Estimación Bayesiana
En las secciones 6.3, 6.4, y 6.5 construimos 2 estadísticos, digamos
U
y
, con
U <
, preasignandouna probabilidad
 p
que el intervalo aleatorio
(U, V)
contiene un valor fijo pero desconocido(parámetro). Adoptamos entonces este
 principio
: Usando los resultados experimentales para calcularlos valores de
U
y
, digamos
u
y
; entonces llamaremos al intervalo
(u, v)
un intervalo de confianzade
100p
por ciento para el parámetro. La opción de este principio nos provee de un método deestimación de intervalos. Este método de estimación es ampliamente usado en literatura estadísticay sus aplicaciones. Pero es importante para nosotros comprender que otros principios pueden seradoptados. El estudiantes debe constantemente tener en mente que a mientras esté trabajando conprobabilidades, él está en el campo de las matemáticas, pero una vez que empieza a hacerinferencias o trazar conclusiones sobre el experimento aleatorio, cuyas inferencias están basadas enla información experimental, él está en el campo de las estadísticas.Podríamos describir ahora otro enfoque al problema de estimación interválica. Este enfoquetoma en cuenta una información a priori del experimento que el estadístico tiene y esto es unaaplicación del principio de inferencia estadística que puede ser denominada
Estadística Bayesiana
.Considerando una
variable aleatoria
(v.a)
que tiene una distribución de probabilidad que dependedel símbolo
, donde
es un elemento bien definido en el espacio parametral
. Por ejemplo, si elsímbolo
es la media de una distribución Normal,
puede ser la Recta Real. Previamente hemosobservado a
como una constante, y además de valor desconocido. Nos permite ahora introduciruna v.a
que tiene una distribución de probabilidad sobre
; y, así como vemos a
 x 
como un posiblevalor de la v.a
 X 
, ahora vemos a
como un posible valor de la v.a
. La distribución de
 X 
depende de
, una asignación aleatoria de
. Podemos denotar la
 función de densidad de probabilidad 
(fdp) de
 por h(
) y tomar h(
) = 0 cuando
no es un elemento de
. Luego, dado
 X 
1
 ,
 , X 
n
, que representauna muestra aleatoria de la distribución de
 X 
, y sea
un estadístico que representa una función de
 X 
1
 , …, X 
n
, podemos hallar la fdp de
para cualquier valor de
dado; esto es, podemos hallar una fdpcondicional de
dado
=
, la cual representamos mediante
g(y|
 
 )
. Así, la fdp conjunta de
y
 esta dada por:

 Si
es una v.a continua, la fdp marginal de
esta dada por:



 Si
es una v.a discreta, la integración se remplaza con sumatoria. En cualquiera de los casos, la fdpcondicional de
dado
Y = y 
es:



 Esta relación es una forma de la fórmula de Bayes (Véase Ejercicio 2.7 sección 2.1).En estadística bayesiana, la fdp
h( 
 
 )
es llamada la
 fdp a priori 
de
, y la fdp condicional
k( 
 
|y)
es llamada la
 fdp a posteriori 
de
. Esto es porque
h( 
 
 )
es la fdp de
a priori a la observación de
,mientras
k( 
 
|y)
es la fdp de
después de que fue hecha la observación de
. En muchos casos,
h( 
 
 )
no es conocido; aún así la elección de
h( 
 
 )
afecta la fdp de
k( 
 
|y)
. En este caso, el estadístico toma
 
en cuenta todo conocimiento a priori del experimento y asigna la fdp a priori
h( 
 
 )
. Esto, porsupuesto, introduce el
 problema de la probabilidad subjetiva
(Véase el comentario de la sección 1.1).Supongamos que queremos un estimación puntual de
. Desde el punto de vista bayesiano,esto en realidad equivale a seleccionar una función de decisión
, de modo que
w(y)
es un valorpredictivo de
(un valor experimental de la v.a
) cuando tanto el valor calculado como la fdpcondicional
k( 
 
|y)
son conocidos. Ahora, en general, ¿cómo podríamos predecir un valorexperimental de alguna v.a, digamos
, si queremos que nuestra predicción sea razonablementecercana al valor observado? Muchos estadísticos podrían predecir la media,
E(W)
, de la distribuciónde
; otros, una mediana (quizás única) de la distribución de
; algunos, una moda (quizás única), yotros podrían tener otras predicciones. Sin embargo, parece deseable que la elección de una funciónde decisión dependa de una función de perdida
L[ 
 
 , w(y)]
. Una manera en la cual esta dependenciasobre la función de pérdida pueda ser representada es seleccionar la función de decisión
de talmanera que la esperanza condicional de la pérdida es mínima. Una
solución de Bayes
es una funciónde decisión
que minimiza:
,-,-

,si
es una v.a de tipo continua. En el miembro de la derecha se aplica la modificación usual si setrata de una v.a discreta. Si, por ejemplo, la función de pérdida esta dada por
,-,-
, la solución de Bayes está dada por
w(y) = E( 
 
|y)
,la media de la distribución condicionalde
dado
Y =
. Esto proviene del hecho (Ejercicio 1.91) que
,
-
, si ésta existe, es mínimacuando
b = E(W)
. Si la función de pérdida está dada por
,-
, entonces unamediana de la distribución condicional de
dado
Y =
es la solución de Bayes. Esto proviene delhecho (Ejercicio 1.81) que

, si ésta existe, es mínima cuando
b
es igual a una mediana dela distribución de
.La esperanza condicional de la pérdida, dado
Y =
, define un v.a que es una función de
. Elvalor esperado de esta función de
, en la notación de esta sección, esta dada por:
{,-

}

{,-

}


 en el caso continuo. La integral entre llaves en la última expresión es, para todo
 
 
, la función deriesgo
R( 
 
 ,w)
; en consecuencia, la última expresión es el valor de la media del riesgo, o el riesgoesperado. Porque una solución de Bayes minimiza:
,-

 para todo y para el cual
1
(y) > 0
, esto muestra que la solución de Bayes
w(y)
minimiza ese valor de lamedia del riesgo. Ahora daremos un ejemplo ilustrativo.
Ejemplo 1
: Sea
 X 
1
 , …,
n
una muestra aleatoria de distribución
Bin( 
 
 ,1)
, con
0 < 
 
< 1
. Buscamos unafunción de decisión
que sea una solución de Bayes. Si
 

, entonces
 
Bin(n,
 
 )
. Esto es,la fdp condicional de
dado
=
es:
./



 
 
Tomamos como fdp a priori de
:





,donde
 
y
  
son constantes positivas. De igual forma, la fdp conjunta de
y
está dada por
g(y|
 
 )h( 
 
 )
, y la fdp marginal de
es:

()
 Finalmente, la fdp de
dado
Y = y 
es en los puntos de densidad de probabilidad positiva:






 Tomamos como la función de pérdida a
,-,-
. Dado que
es una v.a discreta,mientras que
es continua, tenemos para el riesgo esperado:
{,-
()


}
{,-

}

 La solución de Bayes
w(y)
es la media de la distribución condicional de
dado
Y = y 
. Así:

 Esta función de decisión minimiza
,-

para
y = 0, …, n
y, en consecuencia,minimiza el riesgo esperado. Es muy útil notar que esta solución de Bayes puede ser escrita como:
()()
 el cual es un promedio ponderado del estimador de máxima verosimilitud (EMV)
y/n
de
y la media
 
 /( 
 
+
  
 )
de la fdp a priori del parámetro. Además, sus respectivos pesos son
n/( 
 
+
  
+n)
y
 
+
  
 )/( 
 
+
  
+n)
. Así vemos que
 
y
  
deben ser seleccionados de manera que no sólo sea
 
+
  
 )/( 
 
+
  
+n)
la media a priori deseada, pero la suma
 
+
  
indica el valor de la opinión a priori,relativa a una muestra de tamaño
n
. Esto es, si queremos que nuestra opinión a priori tenga tantopeso como de una muestra de tamaño 20, debemos tomar
 
+
  
= 20
, por lo que si nuestra media apriori es ¾, tenemos que los valores más convenientes serían
 
= 15
y
  
= 5
.
 En el ejemplo 1 es extremadamente conveniente notar que no es realmente necesariodeterminar
1
(y)
para hallar
k( 
 
|y)
. Si dividimos
g(y|
 
 )h( 
 
 )
por
1
(y)
debemos conseguir el productode un factor, el cual depende de
, pero no depende de
, digamos un
c(y)
, y:



 Esto es:



. No obstante,
c(y)
deber seresa
constante
necesaria para hacer
k( 
 
|y)
una fdp, es decir:

 

Activity (6)

You've already reviewed this. Edit your review.
1 hundred reads
1 thousand reads
jc224 liked this
adolfo555 liked this
Eliana Mamani liked this

You're Reading a Free Preview

Download
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->