You are on page 1of 4
\ar2 - INFERENCIA ESTADISTICA Roba: hdack nf estadaha, : ee ae 4) Coem LOA Jay L., Devore Hie edeccon 2. Método de estimacién puntual iS La definici6n de insesgo, en general, no indica la forma en que se puedan derivar los estimadores | insesgados. Ahora estudiamos dos métodos “constructivos” para obiener estimadores puntuales; el método de momentos y el método-de:méxima probabilidad. Por constructivo queremos decir que la definicién general de cada tipo de estimador sugiere explicitamente cOmo obtener dg estimador en cualquier problema.specfiico. Mientras que los estimadores de maxima probabiliésd j son en general preferibles a los estimadores de momento debido a ciertas propiedades de eficiencia, con frecuencia necesitan considerablemente ms célculos que los estimadores de momento. Et 9 ‘ocasiones estos métodos producen estimadores insesgados. | El método de momentos La idea bésica de este método es igualar ciertas caracterfsticas, por ejemplo la media, 2 | correspondientes valores esperados de poblaci6n. Luego al despejar de estas ecuaciones los valor de parémetro desconocidos se obtienen los estimadores. , Definici6n SeaX,,...,X, una muestra aleatoria de una pmfo pdffix). Para k= 1,2, 3,...,elkeésimo | momento de poblacién, 0 k-ésimo momento de la distribucién f(x), es E(2") EH k-ésimo momento muestral es (I/n) Df. X*- a 6.2 _Métoto de estimacién puntual 251 Por lo tanto, el primer momento poblacional es E(X) = j1 y el primer momento muestral es EX, = X. Los segundos momentos poblacional y muestral son E(X*)y EX?/n, respectiva- te. Los momentos poblacionales serén funciones de cualesquier pardmetros desconocidos X, una muestra aleatoria de una distribuci6n con pmf o pdf fix; 8, ..., 8,), ‘Son pardmetros cuyos valores son desconocidos. Entonces los estimadores 7, Se obtienen al igualar los primeros m momentos muestrales a los donde 6,,. de momento 6, . correspondientes primeros m momentos poblacionales y despejar 6,,...0,. Si, por ejemplo, m =2, E(X) y E(X?) serén funciones de 6, y 6, Al hater B(X) = (I/n) EX,(=X y E(X?) = (1/n) EX? sesultan dos ccuaciones en 6, y 6,, La soluéién define entonces a los estimadores, Pard estimar una media poblacional j1, el método da jt = X,, por lo que el estimador es la media muestral. Bem plo 6.11 Representemos por X,, X,,..., X, una muestra aleatoria de tiempos de servicio de n clientes en cierta planta, donde se supone que la distribucién fundamental es exponencial con parémetro A. Puesto que s6lo hay que estimar un pardmetro, el estimador se obtiene al igualar E(X) con X. Como E(X) = 1/A para una distribucién exponencial, esto daré 1/A = X o 1/X. El estimador de momento de A es entonces A = 1/X. a em bo : ear Sea X,,...,X, una muestra aleatoria de una distribugién gamma con parémetros ay B. De la seccién 4.4, E(X) = off y EO) = f°T(or+ 2VT (a) = B%(or+ 1) ax Los estimadores de momento de cry ise obtienen al resolver R=af, tox = a(a + 1p? Como ofa + 1)f? a8? + off" y la primera ecuacién implica que of? = X?, la segunda ecua- ci6n se convierte en g 1 yy? = 2 = ag? eee a nok ap Ahora, al dividir cada lado de esta segunda ecuacién entre el lado cofrespondiente de la primera ecuaci6n y sustituyendo se obtienen los estimadores gz (Un) EX? - 7 (I/n) EX? - 8?" bg Para ilustrar, los datos de tiempo de supervivencia mencionados en el ejemplo 4.22 son 152, 115, 109;' 94, 88,, 137, 152, 77, 160, 165, ° 125, “40, 128, 123, 136, 101, 62, 153, 83," 69 a Con ¥ = 113.5 y (1/20)E.x? = 14 087.8. Las-estimaciones son (113.5? 14,087.8 14,087.8 = (113.5)? ie 1135 (3s? 6.2 Método de estmacién puntual * 253 ‘Ahora preguntamos “;Para qué valor de p es més probable que la muestra observada haya ccurrido?” Esto es, deseamos encontrar el valor de p que lleve al maximo la pmf (6.4), 0 bien, lo gue es igual, maximice el log natural de (6.4).* Como Inf fea, « - - s xa5 P)] = 3 In(p) + 7 In - p) (6.5) _que es una funcién diferenciable de p; al igualar la derivada de (6.5) a cero resulta el valor que maximizat ; d ap RUCn +9 %03 P= = donde x es el mimero observado de éxitos (cascos con falla). La estimaci6n de p es ahorap =%5. Recibe el nombre deestimacién de méxima probabilidad porque para.,,..., X fijas, es cl valor del pardmetro que lleva al méximo la probabilidad (pmf conjunta) de la muestra observada. Observe que si s6lo nos hubieran indicado que entre los diez. cascos habfa tres con falla, la ecuacién (6.4) hubiese sido sustituida por la pmf binomial ('?)p* (1 ~p)’, que también es Ilevada al méximo parap= 4. a Delniorws, Hagamios que X,, X, +X, tengan pmf conjunta o pdf. Pt 2 es, -» 8) : (66) en donde los parémetros @,,... , 6, tienen valores desconocidos. Cuando x,,..., x, son los valores per observados y Ta ecuacién (6.6) es considerada como una funcin de 8, + 8, recibe el nombre de funci6n de probabilidad. Las estimaciones de méxima probabilidad (mle)é,...,8,, son los-valores de las 8, que maximizan la funcién de pro- babilidad, de modo que {Cy .- one) 2 flee, + s Xyh Ors - - « On) Para tgdo Ay, - ++ On ©. |, Cuando-las X, se sustituyan en lugar de. Jas x,, resultan los estimadores de maxima | probabilidad.. sates } ' La funci6n de probabilidad nos indica qué tan probable es que una muestra observada sea como una funci6n de los posibles valores de parémetro, Llevar al méximo la probabilidad dard los. valores de pardmetro para los cuales es ms probable que la muestra observada se haya_generado, _ 4) 1, es deeir, los valores de pardmetro que “concuerdan més cercanamente"” con los datos observados. [Como Tale] es una funcién monoténica de g(x), halla x para maximizar Infg(x) es equivalente a maximizar g(s) misma, Ea estaditica, tomar el logaitmo frecuentemente cambia un producto a una summa, que es més fécil de trabajar. "sta conclusisn requiere comprobar la segunda derivade, pero’ omiten las detalles. 4 2 SEL

You might also like