You are on page 1of 11

---

title: "Práctica 7"

author: "Iván Jafet Avila García"

date: "3/3/2020"

output: html_document

---

```{r setup, include=FALSE}

knitr::opts_chunk$set(echo = TRUE)

```

## Ejercicio 1

## Inciso A)

```{r}

bebe <- dbinom( x = 0:20, size=20, prob = 0.45)

bebe2 <- round(data.frame(w = 0:20, prob = bebe), 6)

bebe2

```

## Inciso B)

```{r}

billar <- dbinom( x = 0:25, size=25, prob = 0.6)

billar2 <- round(data.frame(w = 0:25, prob = billar), 6)

billar2

```

## Inciso C)

```{r}
semilla <- dbinom( x = 0:65, size=65, prob = 0.75)

semilla2 <- round(data.frame(w = 0:65, prob = semilla), 10)

semilla2

```

## Inciso D)

```{r}

autos <- dbinom( x = 0:125, size=125, prob = 0.112)

autos2 <- round(data.frame(w = 0:125, prob = autos), 10)

autos2

```

## Ejercicio 2

## Intervalos del Inciso A)

```{r}

#Datos iniciales

w<-9

n<-20

alpha<-0.05

pi.hat <-w/n

p.tilde<-(w + qnorm(p = 1-alpha/2)^2 /2) / (n + qnorm(p = 1-alpha/2)^2)

## Itervalos de Wald

var.wald <- pi.hat*(1-pi.hat)/n

lower.wald <- pi.hat - qnorm( p=1-alpha/2)*sqrt(var.wald)


upper.wald <- pi.hat + qnorm( p=1-alpha/2)*sqrt(var.wald)

round(data.frame(lower.wald,upper.wald),4)

## Itervalos de Agresti-Coull

lower.AC <-p.tilde - qnorm (p = 1-alpha / 2) * sqrt (p.tilde * (1-p.tilde) / (n + qnorm (1-alpha / 2) ^


2))

upper.AC <-p.tilde + qnorm (p = 1-alpha / 2) * sqrt (p.tilde * (1-p.tilde) / (n + qnorm (1-alpha / 2) ^


2))

round(data.frame(lower.AC,upper.AC),4)

## Intervalos de Wilson

lower.wilson <- p.tilde - qnorm (p = 1-alpha / 2) * sqrt (n) / (n + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat * (1-pi.hat) + qnorm (1-alpha / 2) ^ 2 / (4 * n))

upper.wilson <- p.tilde + qnorm (p = 1-alpha / 2) * sqrt (n) / (n + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat * (1-pi.hat) + qnorm (1-alpha / 2) ^ 2 / (4 * n))

round(data.frame(lower.wilson,upper.wilson), 4)

## Intervalos de Clopper-Pearson

w.new <-9

lower.CP <- qbeta (p = alpha / 2, shape1 = w.new, shape2 = n-w.new + 1)

upper.CP <- qbeta (p = 1-alpha / 2, shape1 = w.new + 1, shape2 = n-w.new)

round(data.frame(lower.CP, upper.CP), 4)

```

## Intervalos del Inciso B)

```{r}

#Datos iniciales

wb<-15

nb<-25
alpha<-0.05

pi.hatb <-wb/nb

p.tildeb<-(wb + qnorm(p = 1-alpha/2)^2 /2) / (nb + qnorm(p = 1-alpha/2)^2)

## Itervalos de Wald

var.waldb <- pi.hatb*(1-pi.hatb)/nb

lower.waldb <- pi.hatb - qnorm( p=1-alpha/2)*sqrt(var.waldb)

upper.waldb <- pi.hatb + qnorm( p=1-alpha/2)*sqrt(var.waldb)

round(data.frame(lower.waldb,upper.waldb),4)

## Itervalos de Agresti-Coull

lower.ACb <-p.tildeb - qnorm (p = 1-alpha / 2) * sqrt (p.tildeb * (1-p.tildeb) / (nb + qnorm (1-
alpha / 2) ^ 2))

upper.ACb <-p.tildeb + qnorm (p = 1-alpha / 2) * sqrt (p.tildeb * (1-p.tildeb) / (nb + qnorm (1-alpha
/ 2) ^ 2))

round(data.frame(lower.ACb,upper.ACb),4)

## Intervalos de Wilson

lower.wilsonb <- p.tildeb - qnorm (p = 1-alpha / 2) * sqrt (nb) / (nb + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatb * (1-pi.hatb) + qnorm (1-alpha / 2) ^ 2 / (4 * nb))

upper.wilsonb <- p.tildeb + qnorm (p = 1-alpha / 2) * sqrt (nb) / (nb + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatb * (1-pi.hatb) + qnorm (1-alpha / 2) ^ 2 / (4 * nb))

round(data.frame(lower.wilsonb,upper.wilsonb), 4)

## Intervalos de Clopper-Pearson

w.newb <-15

lower.CPb <- qbeta (p = alpha / 2, shape1 = w.newb, shape2 = nb-w.newb + 1)

upper.CPb <- qbeta (p = 1-alpha / 2, shape1 = w.newb + 1, shape2 = nb-w.newb)

round(data.frame(lower.CPb, upper.CPb), 4)

```
## Intervalos del Inciso C)

```{r}

#Datos iniciales

wc<-48

nc<-64

alpha<-0.05

pi.hatc <-wc/nc

p.tildec<-(wc + qnorm(p = 1-alpha/2)^2 /2) / (nc + qnorm(p = 1-alpha/2)^2)

## Itervalos de Wald

var.waldc <- pi.hatc*(1-pi.hatc)/nc

lower.waldc <- pi.hatc - qnorm( p=1-alpha/2)*sqrt(var.waldc)

upper.waldc <- pi.hatc + qnorm( p=1-alpha/2)*sqrt(var.waldc)

round(data.frame(lower.waldc,upper.waldc),4)

## Itervalos de Agresti-Coull

lower.ACc <-p.tildec - qnorm (p = 1-alpha / 2) * sqrt (p.tildec * (1-p.tildec) / (nc + qnorm (1-alpha /
2) ^ 2))

upper.ACc <-p.tildec + qnorm (p = 1-alpha / 2) * sqrt (p.tildec * (1-p.tildec) / (nc + qnorm (1-alpha /
2) ^ 2))

round(data.frame(lower.ACc,upper.ACc),4)

## Intervalos de Wilson

lower.wilsonc <- p.tildec - qnorm (p = 1-alpha / 2) * sqrt (nc) / (nc + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatc * (1-pi.hatc) + qnorm (1-alpha / 2) ^ 2 / (4 * nc))

upper.wilsonc <- p.tildec + qnorm (p = 1-alpha / 2) * sqrt (nc) / (nc + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatc * (1-pi.hatc) + qnorm (1-alpha / 2) ^ 2 / (4 * nc))

round(data.frame(lower.wilsonc,upper.wilsonc), 4)
## Intervalos de Clopper-Pearson

w.newc <-48

lower.CPc <- qbeta (p = alpha / 2, shape1 = w.newc, shape2 = nc-w.newc + 1)

upper.CPc <- qbeta (p = 1-alpha / 2, shape1 = w.newc + 1, shape2 = nc-w.newc)

round(data.frame(lower.CPc, upper.CPc), 4)

```

## Intervalos del Inciso D)

```{r}

#Datos iniciales

wd<-14

nd<-125

alpha<-0.05

pi.hatd <-wd/nd

p.tilded<-(wd + qnorm(p = 1-alpha/2)^2 /2) / (nd + qnorm(p = 1-alpha/2)^2)

## Itervalos de Wald

var.waldd <- pi.hatd*(1-pi.hatd)/nd

lower.waldd <- pi.hatd - qnorm( p=1-alpha/2)*sqrt(var.waldd)

upper.waldd <- pi.hatd + qnorm( p=1-alpha/2)*sqrt(var.waldd)

round(data.frame(lower.waldd,upper.waldd),4)

## Itervalos de Agresti-Coull

lower.ACd <-p.tilded - qnorm (p = 1-alpha / 2) * sqrt (p.tilded * (1-p.tilded) / (nd + qnorm (1-
alpha / 2) ^ 2))

upper.ACd <-p.tilded + qnorm (p = 1-alpha / 2) * sqrt (p.tilded * (1-p.tilded) / (nd + qnorm (1-alpha
/ 2) ^ 2))

round(data.frame(lower.ACd,upper.ACd),4)

## Intervalos de Wilson
lower.wilsond <- p.tilded - qnorm (p = 1-alpha / 2) * sqrt (nd) / (nd + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatd * (1-pi.hatd) + qnorm (1-alpha / 2) ^ 2 / (4 * nd))

upper.wilsond <- p.tilded + qnorm (p = 1-alpha / 2) * sqrt (nd) / (nd + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hatd * (1-pi.hatd) + qnorm (1-alpha / 2) ^ 2 / (4 * nd))

round(data.frame(lower.wilsond,upper.wilsond), 4)

## Intervalos de Clopper-Pearson

w.newd <-14

lower.CPd <- qbeta (p = alpha / 2, shape1 = w.newd, shape2 = nd-w.newd + 1)

upper.CPd <- qbeta (p = 1-alpha / 2, shape1 = w.newd + 1, shape2 = nd-w.newd)

round(data.frame(lower.CPd, upper.CPd), 4)

```

## Ejercicio 3

```{r}

## Inciso A)

## Para poder asumir una distribución binomial, se debe de cumplir con que solamente hay dos
posibles resultados (exito o fracaso), cada resultado es completamente independiente, el
experimente se realiza "n" veces bajo las mismas condiciones interesados en obtener "x" exitos y
suponiendo que la probabilidad de exito se mantiene constante en todos los experimentis
realizados. Asumiendo que se cumplen los supuestos, pasamos a estimar los intervalos del
siguiente inciso.

## Inciso B)

#Datos iniciales

w3<-39

n3<-100
alpha<-0.05

pi.hat3 <-w3/n3

p.tilde3<-(w3 + qnorm(p = 1-alpha/2)^2 /2) / (n3 + qnorm(p = 1-alpha/2)^2)

## Itervalos de Wald

var.wald3 <- pi.hat3*(1-pi.hat3)/n3

lower.wald3 <- pi.hat3 - qnorm( p=1-alpha/2)*sqrt(var.wald3)

upper.wald3 <- pi.hat3 + qnorm( p=1-alpha/2)*sqrt(var.wald3)

round(data.frame(lower.wald3,upper.wald3),4)

## Itervalos de Agresti-Coull

lower.AC3 <-p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (n3 + qnorm (1-
alpha / 2) ^ 2))

upper.AC3 <-p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (n3 + qnorm (1-
alpha / 2) ^ 2))

round(data.frame(lower.AC3,upper.AC3),4)

## Intervalos de Wilson

lower.wilson3 <- p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (n3) / (n3 + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat3 * (1-pi.hat3) + qnorm (1-alpha / 2) ^ 2 / (4 * n3))

upper.wilson3 <- p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (n3) / (n3 + qnorm (1-alpha / 2) ^ 2)*sqrt
(pi.hat3 * (1-pi.hat3) + qnorm (1-alpha / 2) ^ 2 / (4 * n3))

round(data.frame(lower.wilson3,upper.wilson3), 4)

## Intervalos de Clopper-Pearson

w.new3 <-39

lower.CP3 <- qbeta (p = alpha / 2, shape1 = w.new3, shape2 = n3-w.new3 + 1)

upper.CP3 <- qbeta (p = 1-alpha / 2, shape1 = w.new3 + 1, shape2 = n3-w.new3)

round(data.frame(lower.CP3, upper.CP3), 4)
## Inciso C)

## Considerando los resultados de cada uno de los intervalos, podemos decir que el mejor es el de
Wilson, puesto que, al estar todos al mismo nivel de confianza, es el único que logra reducir el
intervalo a un conjunto más compacto.

## Inciso D)

## Datos iniciales

w1<-43

n1<-100

w2<-33

n2<-100

alpha<-0.05

pi.hat1 <- w1/n1

pi.hat2 <- w2/n2

## Intervalos de Wald

var.wald2 <- (pi.hat1 * (1 - pi.hat1) / n1) + (pi.hat2 * (1 - pi.hat2) / n2)

lower.walddif <- pi.hat1 - pi.hat2 - qnorm(p = alpha / 2) * sqrt(var.wald2)

upper.walddif <- pi.hat1 + pi.hat2 + qnorm(p = 1-alpha / 2) * sqrt(var.wald2)

round(data.frame(lower.walddif, upper.walddif), 4)

## Intervalos de Agresti-Caffo

pi.tilde1 <- (w1 + 1) / (n1 + 2)

pi.tilde2 <- (w2 + 1) / (n2 + 2)

var.acaffo <- pi.tilde1*(1 - pi.tilde1) / (n1 + 2) + pi.tilde2*(1 - pi.tilde2) / (n2 + 2)

lower.acaffo <- pi.tilde1 - pi.tilde2 - qnorm(p = alpha / 2) * sqrt(var.acaffo)


upper.acaffo <- pi.tilde1 + pi.tilde2 + qnorm(p = 1-alpha / 2) * sqrt(var.acaffo)

round(data.frame(lower.acaffo, upper.acaffo), 4)

## Inciso E)

## Considerando los resultados de cada uno de los intervalos, podemos decir que el mejor es el de
Wald, puesto que, al estar todos al mismo nivel de confianza, es el único que logra reducir el
intervalo a un conjunto más compacto.

```

## Ejercicio 4

```{r}

## Inciso A)

## Para poder asumir una distribución binomial, se debe de cumplir con que solamente hay dos
posibles resultados (exito o fracaso), cada resultado es completamente independiente, el
experimente se realiza "n" veces bajo las mismas condiciones interesados en obtener "x" exitos y
suponiendo que la probabilidad de exito se mantiene constante en todos los experimentis
realizados. Asumiendo que se cumplen los supuestos, pasamos a estimar los intervalos del
siguiente inciso.

## Inciso B)

#Datos iniciales

we3<-48

ne3<-750

alpha<-0.05

pi.hate3 <-we3/ne3
p.tilde3 <-(we3 + qnorm(p = 1-alpha/2)^2 /2) / (ne3 + qnorm(p = 1-alpha/2)^2)

## Itervalos de Wald

var.walde3 <- pi.hate3*(1-pi.hate3)/ne3

lower.walde3 <- pi.hate3 - qnorm( p=1-alpha/2)*sqrt(var.walde3)

upper.walde3 <- pi.hate3 + qnorm( p=1-alpha/2)*sqrt(var.walde3)

round(data.frame(lower.walde3,upper.walde3),4)

## Itervalos de Agresti-Coull

lower.ACe3 <-p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (ne3 + qnorm (1-
alpha / 2) ^ 2))

upper.ACe3 <-p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (p.tilde3 * (1-p.tilde3) / (ne3 + qnorm (1-
alpha / 2) ^ 2))

round(data.frame(lower.ACe3,upper.ACe3),4)

## Intervalos de Wilson

lower.wilsone3 <- p.tilde3 - qnorm (p = 1-alpha / 2) * sqrt (ne3) / (ne3 + qnorm (1-alpha / 2) ^
2)*sqrt (pi.hate3 * (1-pi.hate3) + qnorm (1-alpha / 2) ^ 2 / (4 * ne3))

upper.wilsone3 <- p.tilde3 + qnorm (p = 1-alpha / 2) * sqrt (ne3) / (ne3 + qnorm (1-alpha / 2) ^
2)*sqrt (pi.hate3 * (1-pi.hate3) + qnorm (1-alpha / 2) ^ 2 / (4 * ne3))

round(data.frame(lower.wilsone3,upper.wilsone3), 4)

## Intervalos de Clopper-Pearson

w.newe3 <-48

lower.CPe3 <- qbeta (p = alpha / 2, shape1 = w.newe3, shape2 = ne3-w.newe3 + 1)

upper.CPe3 <- qbeta (p = 1-alpha / 2, shape1 = w.newe3 + 1, shape2 = ne3-w.newe3)

round(data.frame(lower.CPe3, upper.CPe3), 4)

```

You might also like