Professional Documents
Culture Documents
Practica 7
Practica 7
date: "3/3/2020"
output: html_document
---
knitr::opts_chunk$set(echo = TRUE)
```
## Ejercicio 1
## Inciso A)
```{r}
bebe2
```
## Inciso B)
```{r}
billar2
```
## Inciso C)
```{r}
semilla <- dbinom( x = 0:65, size=65, prob = 0.75)
semilla2
```
## Inciso D)
```{r}
autos2
```
## Ejercicio 2
```{r}
#Datos iniciales
w<-9
n<-20
alpha<-0.05
pi.hat <-w/n
## Itervalos de Wald
round(data.frame(lower.wald,upper.wald),4)
## Itervalos de Agresti-Coull
round(data.frame(lower.AC,upper.AC),4)
## Intervalos de Wilson
lower.wilson <- p.tilde - qnorm (p = 1-alpha / 2) * sqrt (n) / (n + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat * (1-pi.hat) + qnorm (1-alpha / 2) ^ 2 / (4 * n))
upper.wilson <- p.tilde + qnorm (p = 1-alpha / 2) * sqrt (n) / (n + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat * (1-pi.hat) + qnorm (1-alpha / 2) ^ 2 / (4 * n))
round(data.frame(lower.wilson,upper.wilson), 4)
## Intervalos de Clopper-Pearson
w.new <-9
round(data.frame(lower.CP, upper.CP), 4)
```
```{r}
#Datos iniciales
wb<-15
nb<-25
alpha<-0.05
pi.hatb <-wb/nb
## Itervalos de Wald
round(data.frame(lower.waldb,upper.waldb),4)
## Itervalos de Agresti-Coull
lower.ACb <-p.tildeb - qnorm (p = 1-alpha / 2) * sqrt (p.tildeb * (1-p.tildeb) / (nb + qnorm (1-
alpha / 2) ^ 2))
upper.ACb <-p.tildeb + qnorm (p = 1-alpha / 2) * sqrt (p.tildeb * (1-p.tildeb) / (nb + qnorm (1-alpha
/ 2) ^ 2))
round(data.frame(lower.ACb,upper.ACb),4)
## Intervalos de Wilson
lower.wilsonb <- p.tildeb - qnorm (p = 1-alpha / 2) * sqrt (nb) / (nb + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatb * (1-pi.hatb) + qnorm (1-alpha / 2) ^ 2 / (4 * nb))
upper.wilsonb <- p.tildeb + qnorm (p = 1-alpha / 2) * sqrt (nb) / (nb + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatb * (1-pi.hatb) + qnorm (1-alpha / 2) ^ 2 / (4 * nb))
round(data.frame(lower.wilsonb,upper.wilsonb), 4)
## Intervalos de Clopper-Pearson
w.newb <-15
round(data.frame(lower.CPb, upper.CPb), 4)
```
## Intervalos del Inciso C)
```{r}
#Datos iniciales
wc<-48
nc<-64
alpha<-0.05
pi.hatc <-wc/nc
## Itervalos de Wald
round(data.frame(lower.waldc,upper.waldc),4)
## Itervalos de Agresti-Coull
lower.ACc <-p.tildec - qnorm (p = 1-alpha / 2) * sqrt (p.tildec * (1-p.tildec) / (nc + qnorm (1-alpha /
2) ^ 2))
upper.ACc <-p.tildec + qnorm (p = 1-alpha / 2) * sqrt (p.tildec * (1-p.tildec) / (nc + qnorm (1-alpha /
2) ^ 2))
round(data.frame(lower.ACc,upper.ACc),4)
## Intervalos de Wilson
lower.wilsonc <- p.tildec - qnorm (p = 1-alpha / 2) * sqrt (nc) / (nc + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatc * (1-pi.hatc) + qnorm (1-alpha / 2) ^ 2 / (4 * nc))
upper.wilsonc <- p.tildec + qnorm (p = 1-alpha / 2) * sqrt (nc) / (nc + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatc * (1-pi.hatc) + qnorm (1-alpha / 2) ^ 2 / (4 * nc))
round(data.frame(lower.wilsonc,upper.wilsonc), 4)
## Intervalos de Clopper-Pearson
w.newc <-48
round(data.frame(lower.CPc, upper.CPc), 4)
```
```{r}
#Datos iniciales
wd<-14
nd<-125
alpha<-0.05
pi.hatd <-wd/nd
## Itervalos de Wald
round(data.frame(lower.waldd,upper.waldd),4)
## Itervalos de Agresti-Coull
lower.ACd <-p.tilded - qnorm (p = 1-alpha / 2) * sqrt (p.tilded * (1-p.tilded) / (nd + qnorm (1-
alpha / 2) ^ 2))
upper.ACd <-p.tilded + qnorm (p = 1-alpha / 2) * sqrt (p.tilded * (1-p.tilded) / (nd + qnorm (1-alpha
/ 2) ^ 2))
round(data.frame(lower.ACd,upper.ACd),4)
## Intervalos de Wilson
lower.wilsond <- p.tilded - qnorm (p = 1-alpha / 2) * sqrt (nd) / (nd + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatd * (1-pi.hatd) + qnorm (1-alpha / 2) ^ 2 / (4 * nd))
upper.wilsond <- p.tilded + qnorm (p = 1-alpha / 2) * sqrt (nd) / (nd + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatd * (1-pi.hatd) + qnorm (1-alpha / 2) ^ 2 / (4 * nd))
round(data.frame(lower.wilsond,upper.wilsond), 4)
## Intervalos de Clopper-Pearson
w.newd <-14
round(data.frame(lower.CPd, upper.CPd), 4)
```
## Ejercicio 3
```{r}
## Inciso A)
## Para poder asumir una distribución binomial, se debe de cumplir con que solamente hay dos
posibles resultados (exito o fracaso), cada resultado es completamente independiente, el
experimente se realiza "n" veces bajo las mismas condiciones interesados en obtener "x" exitos y
suponiendo que la probabilidad de exito se mantiene constante en todos los experimentis
realizados. Asumiendo que se cumplen los supuestos, pasamos a estimar los intervalos del
siguiente inciso.
## Inciso B)
#Datos iniciales
w3<-39
n3<-100
alpha<-0.05
pi.hat3 <-w3/n3
## Itervalos de Wald
round(data.frame(lower.wald3,upper.wald3),4)
## Itervalos de Agresti-Coull
lower.AC3 <-p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (n3 + qnorm (1-
alpha / 2) ^ 2))
upper.AC3 <-p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (n3 + qnorm (1-
alpha / 2) ^ 2))
round(data.frame(lower.AC3,upper.AC3),4)
## Intervalos de Wilson
lower.wilson3 <- p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (n3) / (n3 + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat3 * (1-pi.hat3) + qnorm (1-alpha / 2) ^ 2 / (4 * n3))
upper.wilson3 <- p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (n3) / (n3 + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat3 * (1-pi.hat3) + qnorm (1-alpha / 2) ^ 2 / (4 * n3))
round(data.frame(lower.wilson3,upper.wilson3), 4)
## Intervalos de Clopper-Pearson
w.new3 <-39
round(data.frame(lower.CP3, upper.CP3), 4)
## Inciso C)
## Considerando los resultados de cada uno de los intervalos, podemos decir que el mejor es el de
Wilson, puesto que, al estar todos al mismo nivel de confianza, es el único que logra reducir el
intervalo a un conjunto más compacto.
## Inciso D)
## Datos iniciales
w1<-43
n1<-100
w2<-33
n2<-100
alpha<-0.05
## Intervalos de Wald
round(data.frame(lower.walddif, upper.walddif), 4)
## Intervalos de Agresti-Caffo
round(data.frame(lower.acaffo, upper.acaffo), 4)
## Inciso E)
## Considerando los resultados de cada uno de los intervalos, podemos decir que el mejor es el de
Wald, puesto que, al estar todos al mismo nivel de confianza, es el único que logra reducir el
intervalo a un conjunto más compacto.
```
## Ejercicio 4
```{r}
## Inciso A)
## Para poder asumir una distribución binomial, se debe de cumplir con que solamente hay dos
posibles resultados (exito o fracaso), cada resultado es completamente independiente, el
experimente se realiza "n" veces bajo las mismas condiciones interesados en obtener "x" exitos y
suponiendo que la probabilidad de exito se mantiene constante en todos los experimentis
realizados. Asumiendo que se cumplen los supuestos, pasamos a estimar los intervalos del
siguiente inciso.
## Inciso B)
#Datos iniciales
we3<-48
ne3<-750
alpha<-0.05
pi.hate3 <-we3/ne3
p.tilde3 <-(we3 + qnorm(p = 1-alpha/2)^2 /2) / (ne3 + qnorm(p = 1-alpha/2)^2)
## Itervalos de Wald
round(data.frame(lower.walde3,upper.walde3),4)
## Itervalos de Agresti-Coull
lower.ACe3 <-p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (ne3 + qnorm (1-
alpha / 2) ^ 2))
upper.ACe3 <-p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (ne3 + qnorm (1-
alpha / 2) ^ 2))
round(data.frame(lower.ACe3,upper.ACe3),4)
## Intervalos de Wilson
lower.wilsone3 <- p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (ne3) / (ne3 + qnorm (1-alpha / 2) ^
2)*sqrt (pi.hate3 * (1-pi.hate3) + qnorm (1-alpha / 2) ^ 2 / (4 * ne3))
upper.wilsone3 <- p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (ne3) / (ne3 + qnorm (1-alpha / 2) ^
2)*sqrt (pi.hate3 * (1-pi.hate3) + qnorm (1-alpha / 2) ^ 2 / (4 * ne3))
round(data.frame(lower.wilsone3,upper.wilsone3), 4)
## Intervalos de Clopper-Pearson
w.newe3 <-48
round(data.frame(lower.CPe3, upper.CPe3), 4)
```