Professional Documents
Culture Documents
Sem01 Texto01 TA 1ConcepMuest EstadAplicDecis2022-2
Sem01 Texto01 TA 1ConcepMuest EstadAplicDecis2022-2
Al conjunto de elementos sobre los que se toma información en una investigación se le llama
población.
Cuando el investigador toma información de todos y cada uno de los elementos de la población
se realiza un censo. Sin embargo, esto no siempre es posible, ya sea por el costo, o bien porque la toma
de información requiere la destrucción de los elementos de la población, o que la población tenga
infinitos elementos, o por otras razones.
Este problema lleva al investigador a tomar información sólo de una parte de la población,
proceso que recibe el nombre de muestreo.
Al conjunto de los elementos de los que se toma la información se llama muestra y al número
de elementos que componen la muestra tamaña de la muestra.
Se pueden definir los métodos de muestreo como el conjunto de técnicas estadísticas que
estudian la forma de seleccionar una muestra suficientemente representativa de una población cuya
información permita inferir las propiedades o características de toda la población cometiendo un error
medible.
Una unidad de muestreo puede ser un simple elemento de la población, en este caso estamos ante
una unidad elemental de muestreo. Pero también pueden considerarse unidades de muestreo que sean
grupos no solapados de elementos de la población que cubren la población completa, en este caso
estamos ante una unidad de muestreo compuesta de varias unidades elementales, también denominada
unidad primaria.
Para seleccionar el conjunto de unidades de muestreo que componen la muestra, será necesario
disponer de un listado de unidades de muestreo. Esta relación de unidades de muestreo, de la que se
selecciona la muestra, se denomina marco.
Y i
= = i =1
Media poblacional
N N
(Y i − )2
2 = i =1
Varianza poblacional
N
N
A= Y
i =!
i Total poblacional para variable cualitativa
Y
A i =1 i
p= = Proporción poblacional
N N
(Proporción de unidades que pertenecen a la clase de interés en la
población).
o Los valores de la variable Y asociados a las unidades de la muestra son {Y 1, Y2, …,Yn},
o A la función = (Y1 , Y2 ,..., Yn ) , que es una estadística, se le denomina estimador del
parámetro
o Se utiliza para estimar .
o Las Estadísticas muy utilizadas a variables cuantitativas son:
Y
i =1
i Total de la muestra;
n
Y i
Y= i =1
Media de la muestra. Estimador de
n
(Y i − Y )2
S2 = i =1
Varianza de la muestra. Estimador de 2
n −1
n
a= Yi =1
i Total de la muestra.
n
Y
i =1
i
𝑎
𝑝̂ = = proporción de la muestra. Estimador de p
𝑛 𝑛
Los estimadores son variables aleatorias, tienen tantos valores como muestras tenga su espacio
muestral.
18
= = = 4.5
N 4
Ingreso mensual 5, 2, 8, 3
Y : Ingreso menor de 6 1 1 0 1
𝐴 ∑4𝑖=1 𝑌𝑖
p=𝑁= Proporción poblacional
𝑁
(Proporción de unidades que pertenecen a la clase de interés en la
población).
𝐴 3
p = 𝑁 = 4 = 0.75 (Proporción poblacional de funcionarios con ingreso mensual menor de 6
mil soles).
2. El espacio muestral S (y) en Muestreo sin reposición y sin que interese el orden
Y es estimador de μ
S2 es estimador de 2
p es estimador de 𝑝̂
3. Cuál es el espacio muestral cuando se forman muestras de tamaño 2 con repetición e interesa el
orden de sus elementos?
∑𝑛
𝑖=1(𝑌𝑖 −𝑌)
2
✓ La estadística S2 es la varianza de la muestra S2 = 𝑛−1
∑𝑛 (𝑌 −𝑌)2
Si consideramos a las estadísticas Y y S2 = 𝑖=1𝑛−1𝑖
como estimadores de y 2
respectivamente , los valores de los estimadores son, respectivamente:
0 0 2.25 9
2.25 9 2.25 0.25
2.25 0.25 1 6.25
1 6.25 0 0
∧
𝜎 2 Estimador de 2
∧
Y , S2 y 𝜎 2 son variables aleatorias, como tales tienen su función de probabilidad. Si cada muestra
tiene igual probabilidad de ser elegida, la función de probabilidad de cada estimador se obtiene así:
Medias muestrales
5 3.5 6.5 4
3.5 2 5 2.5
6.5 5 8 5.5
4 2.5 5.5 3
Se tiene :
Distribución de probabilidad de la media muestral
varianzas muestrales S2
0 0 4.5 18
4.5 18 4.5 0.5
4.5 0.5 2 12.5
2 12.5 0 0
Se tiene :
Distribución de probabilidad de la varianza muestral S2
S2 0 0.5 2 4.5 12.5 18
2
P(S ) 4/16 2/16 2/16 4/16 2/16 2/16
∧
o Obtención de la Distribución de probabilidad de la varianza muestral 𝜎 2
∧
Dados los siguientes valores de varianzas muestrales 𝝈𝟐
0 2.25 2.25 1
2.25 0 9 0.25
2.25 9 0 6.25
1 0.25 6.25 0
Se tiene :
Distribución de probabilidad de la varianza muestral
∧
𝝈𝟐 0 0.25 1 2.25 6.25 9
∧
P(𝝈𝟐 ) 4/16 2/16 2/16 4/16 2/16 2/16
5, 5 5, 2 5, 8 5, 3
2, 5 2, 2 2, 8 2, 3
8, 5 8, 2 8, 8 8, 3
3, 5 3, 2 3, 8 3, 3
2
V(Y) = E [𝑌 − 𝐸(𝑌)] = ∑∀𝑦(𝑌 − 𝐸(𝑌))2 𝑝(𝑌)
𝜎(𝑌)
CV(𝒀)) =
𝐸(𝑌)
Valor esperado de
Si es un estimador de , el valor esperado de se denota E( ) y se define como
E( ) = P( )
Varianza de
La varianza de se denota V( ) y se define como
V( ) = E[ − E ( ) ] 2 = ( − E ( ))
2
P( )
Desviación estándar de
A la desviación estándar de , denotado por ( ) , se le denomina error estándar del estimador
y se expresa:
( ) = + V ( )
Coeficiente de variación de
El Coeficiente de variación de , es el error relativo de muestreo del estimador , y es la
razón de su error estándar y su valor esperado.
( )
CV( ) =
E ( )
Error cuadrático medio de
∧
El error cuadrático medio se denota ECM (𝜃 ) y se define como
∧
ECM ( ) = E(𝜃 − 𝜃)2
La varianza expresa la concentración de los valores del estimador alrededor de su valor esperado
y el error cuadrático medio expresa la concentración de los valores del estimador alrededor del
parámetro.
Estimador insesgado.
Un estimador puntual θ̂ , es un estimador insesgado del parámetro θ si y solo si E(θ̂) = θ, para todo
valor posible de θ̂.
En otras palabras: “ un estimador insesgado, es aquel para el cual la media de la distribución muestral
del estimador del parámetro, es el parámetro estimado “.
Se demuestra que la media muestral es un estimador insesgado de la media poblacional.
𝑋̅ es un estimador insesgado de µ puesto que E( 𝑋̅ ) = µ
Sesgo de un estimador
Sesgo de , se denota B( ) y se define como
B( ) = E( ) -
∧
¿Cuánto es el sesgo de un estimador insesgado? B(𝜃 ) = 0
Si B( ) > 0 se dice que el estimador es sesgado positivamente y
Si B( ) < 0 se dice que el estimador es sesgado negativamente.
• Suponga que θ̂1 𝑦 θ̂2 son dos estimadores insesgados del parámetro θ.
• Entonces, aun cuando la distribución de cada estimador esté centrada en el valor verdadero de
θ, las dispersiones de las distribuciones alrededor del valor verdadero pueden ser diferentes.
• Entre todos los estimadores de θ que son insesgados, se selecciona al que tenga varianza mínima.
• El estimador resultante recibe el nombre de estimador insesgado con varianza mínima (MVUE,
mínimum variance unbiased estimator) de θ.
• En otras palabras, la eficiencia se refiere al tamaño de error estándar de la estadística.
• Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de
ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error
estándar, o la menor desviación estándar de la distribución de muestreo.
• Tiene sentido pensar que un estimador con un error estándar menor tendrá una mayor
oportunidad de producir una estimación más cercana al parámetro de población que se está
considerando.
Como se puede observar las dos distribuciones tienen un mismo valor en el parámetro sólo que la
distribución muestral de medias tiene una menor varianza, por lo que la media se convierte en un
estimador eficiente e insesgado.
Estimador suficiente
Un estimador es suficiente si utiliza una cantidad de la información contenida de la muestra que ningún
otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población
que se está estimando.
Es decir, se pretende que al extraer la muestra el estadístico calculado contenga toda la información de
esa muestra.
Por ejemplo, cuando se calcula la media de la muestra, se necesitan todos los datos. Cuando se calcula
la mediana de una muestra sólo se utiliza a un dato o a dos. Esto es, solo el dato o los datos del centro
son los que van a representar la muestra.
Con esto se deduce que si utilizamos a todos los datos de la muestra como es en el caso de la media, la
varianza, desviación estándar, etc; se tendrá un estimador suficiente.
La precisión de un estimador se analiza en función de conceptos como:
error estándar, error cuadrático medio y sesgo.
Ejemplo.
Si consideramos a Y como estimador de μ en el ejemplo de las muestras con reposición e interesa el
orden, tenemos:
Distribución de probabilidad de la media muestral
Calcule E( Y ) , V( Y ) y ̂𝟐 )
E( 𝝈
E( Y ) = ∑ 𝑌̅ 𝑃(𝑌̅ )
V( ) = E[ − E ( ) ] = ( − E ( )) 2 P( )
2
V( Y ) = (2 - 4.5)2 (1/16) + (2.5 - 4.5)2 (2/16) + (3 - 4.5)2 (1/16) +(3.5 - 4.5)2 (2/16) +
(4 - 4.5)2 (2/16) + (5 - 4.5)2 (3/16) + (5.5 - 4.5)2 (2/16) + (6.5 - 4.5)2(2/16) +
(8 - 4.5)2 (1/16)
V( Y ) = 2.625
( )
CV( ) =
E ( )
( ) = + V ( ) desviación estándar ó error estándar
( ) = 1.62
1.62
CV( Y ) = = 0.36 coeficiente de variación
4.5
µ= E( Y )= 4.5
ECM( Y ) = V( Y ) = (2 - 4.5)2 (1/16) + (2.5 - 4.5)2 (2/16) + (3 - 4.5)2 (1/16) +(3.5 - 4.5)2 (2/16) +
(4 - 4.5)2 (2/16) + (5 - 4.5)2 (3/16) + (5.5 - 4.5)2 (2/16) + (6.5 - 4.5)2(2/16) +
(8 - 4.5)2 (1/16)
18
= = = 4.5
N 4
∧ ∧
Calcule E( 𝜎 2 ) valor esperado de la varianza muestral 𝜎 2
∧
Distribución de probabilidad de la varianza muestral 𝜎 2
∧
𝜎2 0 0.25 1 2.25 6.25 9
∧2
P(𝜎 ) 4/16 2/16 2/16 4/16 2/16 2/16
∧
E( 𝜎 2 ) = 0(4/16) + 0.25(2/16)+ 1(2/16)+2.25(4/16)+6.25(2/16)+9(2/16)
∧
E( 𝜎 2 ) = 2.625 valor esperado de la varianza muestral
∧
V( 𝜎 2 ) = varianza de la varianza muestral
∧ ∧ ∑𝑛
𝑖=1(𝑌𝑖 −𝑌)
2
E( 𝜎 2 ) =2.62 𝜎 2= 𝑛
∑𝑛
𝑖=1(𝑌𝑖 −𝑌)
2
S2= 𝑛−1
Demostramos que este estimador es insesgado
5, 5 5, 2 5, 8 5, 3
2, 5 2, 2 2, 8 2, 3
8, 5 8, 2 8, 8 8, 3
3, 5 3, 2 3, 8 3, 3
Al desarrollar el valor esperado se encuentra otra expresión de la covarianza que permite su cálculo con
facilidad:
𝜎𝑋𝑌 = 𝐸(𝑋𝑌) − 𝜇𝑋 𝜇𝑌 donde E(XY) = ∑𝑥 ∑𝑦 𝑥𝑦𝑝(𝑥, 𝑦)
Dos variables aleatorias X y Y son independientes si p( x, y) = p(x)p(y) para todos los valores de X y Y.
Ejemplos.
Sea X el número de veces que falla cierta máquina. Sea Y el número de veces que se llama al técnico
para una emergencia. La distribución de probabilidad conjunta de X y Y está dada por:
y
p(x, y) 1 2 3 .
1 0.05 0.05 0.1
X 2 0.05 0.1 0.35
3 0 0.2 O.1
La distribución de probabilidad marginal para X es:
x 1 2 3 .
p(x) 0.2 0.5 0.3
E(XY) = 1(1)(0.05) + 1(2)(0.05) + 1(3)(0.1) + 2(1)(0.05) + 2(2)(0.1) + 2(3)(0.35) + 3(1)(0) + 3(2)(0.2) + 3(3)(0.1)
E(XY) = 0.05 + 0.1 + 0.3 + 0.1 + 0.4 + 2.1 + 0 + 1.2 + 0.9
E(XY) = 5.15.
E( Y) = E(𝑎1 𝑋1 + 𝑎2 𝑋2 +. . . +𝑎𝑘 𝑋𝑘 )
E( Y) = 𝑎1 𝐸(𝑋1 ) + 𝑎2 𝐸(𝑋2 )+. . . +𝑎𝑘 𝐸(𝑋𝑘 )
V( Y ) = V(𝑎1 𝑋1 + 𝑎2 𝑋2 +. . . +𝑎𝑘 𝑋𝑘 )
V( Y ) = 𝑎12 𝑉(𝑋1 ) + 𝑎22 𝑉(𝑋2 )+. . . +𝑎𝑘2 𝑉(𝑋𝑘 ) +2𝜎𝑋1 𝑋2 + 2𝜎𝑋1 𝑋3 + 2𝜎𝑋1 𝑋4 +. . . +2𝜎𝑋𝑘−1 𝑋𝑘